Inteligencia artificial para suplantar difuntos

Anuncio ficticio sobre un servicio del tipo descrito, usando el ejemplo de la abuela fallecida que seguirá chateando por internet con su nieta tanto tiempo como se pague el servicio. Corresponde a uno de los casos hipotéticos analizados en el nuevo estudio. (Imagen: Tomasz Hollanek)
- en Cultura

Mitigar la pérdida de un ser querido fallecido recurriendo a una inteligencia artificial que imita su voz, su cara y su forma de interactuar puede generar la ilusión de que se sigue en contacto con la persona a través de internet, como si la muerte fuese tan solo ingresar en el ciberespacio para siempre. Estamos en el amanecer de esta clase de servicios fúnebres y una investigación alerta de los riesgos psicológicos de esta pseudorrelación postmortem.

Los «difuntos robóticos» «fantasmas digitales» o «deadbots» son chatbots de inteligencia artificial que simulan los patrones lingüísticos y los rasgos de personalidad de personas difuntas. Algunas empresas ya ofrecen estos servicios, proporcionando un tipo totalmente nuevo de «presencia postmortem».

Estos sistemas de inteligencia artificial que permiten a los usuarios mantener conversaciones de texto y voz con su ser amado fallecido pueden acabar perjudicando anímicamente e incluso causando trastornos mentales graves a los usuarios, sobre todo si son menores de edad, aunque los mayores de edad también corren peligro. Esta es la conclusión a la que se ha llegado en un estudio realizado por Tomasz Hollanek y Katarzyna Nowaczyk-Basińska, ambos del Centro Leverhulme del Futuro de la Inteligencia, adscrito a la Universidad de Cambridge en el Reino Unido.

Estos investigadores han examinado varias clases de situaciones que podrían darse en esta naciente industria de la recreación digital de difuntos para las personas allegadas, un campo de la inteligencia artificial que catalogan como de alto riesgo.

La investigación pone de relieve la posibilidad de que las empresas utilicen deadbots para anunciar subrepticiamente productos comerciales a los usuarios en el mismo estilo con el que lo haría un ser querido fallecido, o que inquieten a los niños insistiendo en la idea de que su  padre o madre todavía le acompaña pese a haber fallecido.

Cuando una persona se registra en vida para ser recreada virtualmente tras su muerte, el chatbot que adopta su identidad tras fallecer podría ser utilizado por las empresas para enviar spam a los familiares y amigos vivos, con notificaciones no solicitadas, recordatorios y actualizaciones sobre los servicios que prestan, pasando esas personas a sufrir una situación definible más o menos como ser «acosadas digitalmente por los muertos».

Según los investigadores, incluso aquellos que se sientan reconfortados por un deadbot pueden llegar a cansarse de las interacciones diarias, o lo que es peor, el contacto con el deadbot puede recordarles constantemente que su ser querido ya no está y al mismo tiempo impedirles pasar página.

La situación puede ser peor si la persona que ha perdido un ser querido carece de la capacidad legal para que se suspenda la simulación mediante inteligencia artificial de ese difunto. Esto puede suceder con facilidad si su ser querido firmó en vida un contrato que obliga a la empresa a recrearle digitalmente tras su muerte durante un largo periodo.

«Esta área de la inteligencia artificial es un campo de minas desde el punto de vista ético», advierte Nowaczyk-Basińska.

Uno de los casos hipotéticos analizados como ejemplos en el estudio es el de un servicio que permite a un nieto o nieta mayores de edad conversar con una inteligencia artificial que simula ser su abuela fallecida. La persona se siente inicialmente confortada por la pseudopresencia de su abuela, pero la situación empeora rápidamente una vez que el periodo de prueba en la modalidad premium finaliza y el chatbot que finge ser su abuela comienza a incorporar publicidad en su charla. Eso puede implicar que la persona reciba sugerencias, hechas con el mismo estilo que adoptaría su abuela si estuviera viva, acerca de hacer un pedido de comida a domicilio de un nuevo restaurante de la ciudad, por ejemplo. Si la persona se ha acostumbrado a la compañía virtual de esta versión digital de su abuela, no le resultará fácil desactivarla o bloquearla y el conflicto moral resultante será difícil de resolver.

El estudio se titula «Griefbots, Deadbots, Postmortem Avatars: on Responsible Applications of Generative AI in the Digital Afterlife Industry». Y se ha publicado en la revista académica Philosophy & Technology. (Fuente: NCYT de Amazings)

Comentarios

¡Síguenos!

A %d blogueros les gusta esto: