A premissa de digitalizar e preservar a consciência humana tem sido um tópico recorrente em narrativas de ficção científica e está ganhando terreno no mundo real através de avanços em inteligência artificial e biotecnologia. Nossa sócia Ana Frazão e a professora Caitlin Mulholland conversam sobre o tema no novo episódios do podcast Direito Digital
Os avanços tecnológicos podem permitir que memórias, personalidades e até consciências sejam mapeadas, armazenadas e, potencialmente, reativadas, caso do Terasem Movement Foundation, que desde 2004 trabalha com a ideia de que a personalidade humana pode ser digitalizada e, eventualmente, replicada. Outra iniciativa é a YOV, que procura criar versões digitais de pessoas a partir de áudios, textos e outros registros, permitindo interações póstumas.
Um ponto relevante é o vazio legal relativo ao uso de dados digitais de pessoas falecidas para criar simulações ou avatares digitais. A Lei Geral de Proteção de Dados não especifica como esses dados devem ser tratados após a morte do titular, levantando questões éticas.
As brechas legais exigem uma reflexão mais profunda sobre a extensão dos direitos individuais após a morte, assim como a necessidade de desenvolver novos marcos regulatórios que abordem especificamente as implicações da tecnologia na vida e na morte, preservando a dignidade e a vontade das pessoas mesmo após seu falecimento.
Escute o podcast: https://open.spotify.com/show/7mWbaobExP8NXp1wRGSsD3










No texto, Ana explica que a Comissão de Juristas responsável pela elaboração de texto que serviu de base para o Projeto de Lei, e da qual ela participou, teve como desafio saber se, ao lado da classificação de riscos, deveria haver igualmente uma taxonomia. “A ausência de taxonomia poderia gerar grandes dificuldades para que regulador e regulados pudessem estabelecer com maior precisão o grau de risco de cada utilização de inteligência artificial.”
“Ao propor uma taxonomia de riscos excessivos e riscos altos, o PL 2338 não ignorou a crítica já dirigida a esse modelo de classificação de riscos, também adotado pelo AI Act europeu, sob o argumento de que poderia “pecar” tanto por excesso como por falta, especialmente nos casos do mau uso de tecnologias que foram pensadas para usos legítimos. Não obstante, o PL 2338 partiu da premissa de que, em razão da necessária segurança jurídica que deve orientar os agentes de inteligência artificial, a descrição dos riscos seria a solução mais adequada.”
Confira o texto completo no link ou no PDF abaixo: https://lnkd.in/dEXgSRzY