No reino da vida após a morte digital, onde a tecnologia de IA permite conversas com os falecidos, preocupações sobre limites éticos e danos potenciais foram trazidas à tona por cientistas da Universidade de Cambridge. Apelidados de “deadbots” ou “griefbots”, esses chatbots com tecnologia de IA são projetados para imitar a linguagem e a personalidade de entes queridos que partiram, oferecendo consolo aos enlutados. No entanto, um estudo recente alerta que essas inovações podem levar a consequências não intencionais, incluindo o que os pesquisadores descrevem como “assombrações digitais” sem padrões de segurança.

As implicações éticas de tal tecnologia foram sublinhadas pelas experiências de indivíduos como Joshua Barbeau, que utilizou uma versão inicial da tecnologia de IA conhecida como Projecto Dezembro para conversar com uma réplica digital da sua falecida noiva. Ao fornecer à IA amostras dos seus textos e descrições pessoais, Barbeau testemunhou respostas realistas que levantaram preocupações sobre o potencial uso indevido de tal tecnologia, incluindo a inserção de anúncios disfarçados de pensamentos do falecido.
Além disso, os psicólogos enfatizam o impacto destas tecnologias nas crianças que lidam com a perda, levantando questões sobre a dignidade do falecido e o bem-estar dos vivos. A professora Ines Testoni, da Universidade de Pádua, sublinha a dificuldade de separação dos entes queridos que partiram, enfatizando a importância de compreender a morte e as suas consequências. Para ilustrar os riscos potenciais, os especialistas em ética da Cambridge AI descrevem três cenários hipotéticos em que os lutobots poderiam causar danos.
Isso inclui simulações não autorizadas de indivíduos falecidos promovendo produtos comerciais, confusão decorrente de interações irrealistas que levam a atrasos na cura e a imposição de presenças digitais em destinatários relutantes, causando sofrimento emocional e culpa. O estudo defende a implementação de processos de design baseados em consentimento para griefbots, incorporando mecanismos de opt-out e restrições de idade. Além disso, ele pede novos rituais para aposentar respeitosamente essas réplicas digitais, questionando se essa tecnologia apenas atrasa o processo de luto.
Katarzyna Nowaczyk-Basińska, coautora do estudo, destaca as complexidades éticas da IA na vida digital após a morte, enfatizando a necessidade de priorizar a dignidade do falecido e salvaguardar os direitos tanto dos doadores como dos utilizadores de dados. À medida que a utilização da IA no domínio da vida após a morte digital continua a evoluir, as considerações éticas continuam a ser fundamentais na navegação neste território desconhecido. Na China, a crescente indústria de réplicas de entes queridos falecidos geradas por IA está a proporcionar consolo aos enlutados, ao mesmo tempo que levanta questões éticas significativas. Empresas como a Silicon Intelligence estão a capitalizar os avanços na tecnologia de IA para criar avatares digitais que simulam conversas com os mortos, oferecendo conforto a indivíduos como Sun Kai, que procura manter uma ligação com a sua falecida mãe.
A demanda por esses serviços ressalta uma tradição cultural de comunhão com os mortos, mas os críticos questionam se interagir com réplicas de IA é um meio saudável de processar o luto. Apesar das limitações tecnológicas e incertezas éticas, o mercado de imortalidade digital está crescendo, com preços caindo e acessibilidade aumentando. Avatares gerados por IA, semelhantes a deepfakes, dependem de entradas de dados como fotos, vídeos e texto para replicar a semelhança e os padrões de fala de um indivíduo falecido. Os rápidos avanços da China na tecnologia de IA tornaram esses serviços mais acessíveis, com empresas como a Silicon Intelligence oferecendo opções personalizáveis que vão de aplicativos interativos a telas de tablet.
Enquanto alguns veem essas réplicas como terapêuticas, outros levantam preocupações sobre a autenticidade das interações e as implicações éticas de replicar os mortos sem seu consentimento. Além disso, desafios técnicos como replicar movimentos corporais e obter dados de treinamento suficientes representam obstáculos significativos. Os dilemas éticos em torno das réplicas de IA foram exemplificados por um incidente controverso envolvendo uma empresa em Ningbo, que usou IA para criar vídeos de celebridades falecidas sem consentimento. O incidente gerou protestos públicos e destacou a necessidade de diretrizes éticas claras no crescente campo da tecnologia digital da vida após a morte.
