Em sua coluna no JOTA, nossa sócia Ana Frazão fala sobre a responsabilidade dos sistemas de inteligência artificial pelos danos à identidade.
No texto, ela examina uma decisão judicial que condenou o Google a indenizar uma pessoa por informações falsas geradas por sua ferramenta de IA. A vítima foi incorretamente identificada como proprietária de uma plataforma de apostas denominada “7 Games” após dar uma entrevista na qual teria recomendado sete jogos, e recebeu ameaças por e-mail de consumidores das plataformas de apostas.
“Isso acontece porque a maior parte dos LLMs (Large Language Models) simplesmente predizem a próxima palavra, o que os torna fluentes, porém aptos a inventar coisas. Como as palavras são escolhidas com base em cálculos estatísticos – e não com base na verdade – isso pode dar ensejo a inúmeras alucinações”, aponta Ana.
“Erros de diversas naturezas, inclusive os que maculam a identidade das pessoas, não apenas são possíveis como prováveis, podendo causar inúmeros danos àqueles que foram mal interpretados ou erroneamente descritos pelos sistemas de inteligência artificial (…). Daí por que precisamos estar atentos a esse tipo de falha, assim como é dever das plataformas evitar, mitigar e reparar casos evidentes de erros que causam danos aos cidadãos”, complementa.
Leia na íntegra: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/inteligencia-artificial-e-erros-de-identidade