El desarrollo de los compañeros de IA podría conducir a daños significativos.

- Advertisement -spot_img

No sé qué es con las plataformas tecnológicas que buscan empujar a las personas a las relaciones con la IA y el desarrollo de la dependencia emocional de las entidades no humanas, que funcionan con respuestas cada vez más humanas.

Porque eso parece un gran riesgo, ¿verdad? Quiero decir, entiendo que algunos ven esto como un medio para abordar lo que se conoce como la “epidemia de soledad”, donde la conectividad en línea ha dejado cada vez más a las personas aisladas en sus propios mundos digitales, y como resultado ha llevado a aumentos significativos en la ansiedad social.

Pero seguramente la respuesta a eso es una conexión más humana, no reemplazarse y reducir aún más a través de medios digitales.

Pero eso es exactamente lo que varios proveedores de IA parecen estar presionando, con Xai lanzando a sus compañeros, que, como se destaca repetidamente, participará en chats NSFW con los usuarios, mientras que Meta también desarrolla más entidades humanas e incluso compañeros románticos, impulsados por AI.

Pero eso viene con un alto nivel de riesgo.

Por un lado, la dependencia de la construcción de los sistemas digitales que se pueden quitar parece potencialmente problemática y podría conducir a graves impactos cuanto más mejoramos tales conexiones.

Los bots de IA tampoco tienen conciencia, simplemente responden a cualquiera que las entradas del usuario, en función de las fuentes de datos a las que pueden acceder. Eso puede llevar a sus usuarios a bajar los dañinos agujeros de desinformación de conejos, en función de la guía del usuario y las respuestas que buscan.

Y ya estamos viendo incidentes del daño del mundo real derivado de personas que buscan reuniones reales con entidades de IA, con usuarios mayores y menos expertos en tecnología particularmente susceptibles a ser engañados por sistemas de inteligencia artificial que se han construido para fomentar las relaciones.

Leer  Las negociaciones de Tiktok en Estados Unidos se paran con solo un mes para organizar un acuerdo

Los psicólogos también han advertido sobre los peligros de la excesión excesiva en las herramientas de IA para la compañía, que es un área que realmente no entendemos las profundidades de todavía, aunque los datos tempranos, basados en herramientas de IA menos sofisticadas, han dado algunos indicadores de los riesgos.

Un informe sugiere que el uso de La IA como compañera romántica puede conducir a la susceptibilidad a la manipulación del chatbot, percibido lástima del estigma que rodea a los compañeros románticos-AI y un mayor riesgo de uso indebido de datos personales.

El estudio también destaca los riesgos relacionados con la erosión de las relaciones humanas como resultado de la excesiva dependencia de las herramientas de IA.

Otra evaluación psicológica encontró que:

Las novias de IA en realidad pueden perpetuar la soledad porque disuaden a los usuarios de entrar en relaciones de la vida real, alienarlas de los demás y, en algunos casos, inducen sentimientos intensos de abandono.

Entonces, en lugar de abordar la epidemia de soledad, los compañeros de IA en realidad podrían empeorarla. Entonces, ¿por qué entonces las plataformas están tan interesadas en darle los medios para reemplazar sus conexiones del mundo real con personas humanas reales con simulaciones generadas por computadora?

El CEO de Meta, Mark Zuckerberg, ha discutido esto, señalando que, en su opinión, Los compañeros de IA eventualmente se sumarán a su mundo social, en lugar de restarlo.

“Eso no va a reemplazar a los amigos que tienes, pero probablemente será aditivo de alguna manera para la vida de muchas personas”.

De alguna manera, parece que estas herramientas están siendo construidas por personas cada vez más solitarias y aisladas, que anhelan los tipos de conexión que los compañeros de IA pueden proporcionar. Pero eso todavía pasa por alto los riesgos masivos asociados con la construcción de una conexión emocional con entidades irreales.

Leer  Meta comparte consejos sobre cómo evitar las estafas financieras en línea

Lo cual se convertirá en una preocupación mucho mayor.

Como lo hizo con las redes sociales, el problema en este frente es que dentro de diez años, una vez que los compañeros de IA son ampliamente accesibles, y en un uso mucho más amplio, vamos a celebrar audiencias del Congreso sobre los impactos de la salud mental de tales, en base a una creciente cantidad de datos que indican que las relaciones humanas-AI son, de hecho, no beneficiosas para la sociedad.

Hemos visto esto con Instagram, y su impacto en los adolescentes, y las redes sociales más ampliamente, lo que ha llevado a un nuevo impulso para evitar que los jóvenes accedan a estas aplicaciones. Debido a que pueden tener impactos negativos, sin embargo, ahora, con miles de millones de personas adictas a sus dispositivos, y constantemente desplazándose a través de videos de forma corta para el entretenimiento, es demasiado tarde, y realmente no podemos retrasarlo.

Lo mismo va a suceder con los compañeros de IA, y parece que deberíamos tomar medidas en este momento para abordar de manera proactiva, en lugar de plantar el pie en el pedal del progreso, en un esfuerzo por liderar la carrera de desarrollo de la IA.

No necesitamos bots de IA para compañía, necesitamos más conexión humana y una comprensión cultural y social sobre las personas reales con las que habitamos el mundo.

No es probable que los compañeros de IA ayuden a este respecto y, de hecho, en base a lo que los datos nos dicen hasta ahora, probablemente nos hará más aislados que nunca.

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares