Expertos ante la cámara

Dra. Jaime Banks: “Compañeros” de inteligencia artificial (IA)

SciLine lleva a cabo entrevistas con expertos y pone material audiovisual a disposición de los periodistas para que lo usen en sus historias.

Journalists: Get Email Updates

¿Qué es Expertos ante la cámara?

Experta ante la cámara

Entre los adolescentes que usan herramientas de inteligencia artificial (IA) generativa, el 15 por ciento usa la tecnología para que les “haga compañía”, un fenómeno que ha atraído una atención negativa debido a dos demandas judiciales presentadas por padres que alegan que los chatbots alentaron a sus hijos a cometer actos de violencia y autolesionarse. Por otro lado, el uso de aplicaciones de IA complementarias tiene beneficios documentados, que generalmente apuntan a un mayor bienestar.

El 14 de mayo de 2024, SciLine entrevistó a la Dra. Jaime Banks, profesora adjunta de ciencia y tecnología de la información de la Universidad de Syracuse. Consulte la grabación y la transcripción de la entrevista a continuación o seleccione “Contenido” a la izquierda para pasar a preguntas específicas.

Periodistas: video gratuito para usar en sus historias

Alta definición (mp4, 1920x1080)

Descargar

Introducción

Lo siguiente fue traducido de la entrevista original realizada en inglés.

[0:00:18]

JAIME BANKS: Claro, soy la Dra. Jamie Banks, profesora adjunta de la Escuela de Estudios de la Información de la Universidad de Syracuse y estudio relaciones entre los humanos y la tecnología. Entonces, ¿cómo se relacionan las personas con los avatares de los videojuegos, los robots sociales y las IA sociales, y qué opinan de ellos?

Entrevista con SciLine


¿Qué son los compañeros de IA?


[0:00:44]

JAIME BANKS: Los compañeros de IA son tecnologías que se basan en grandes modelos de lenguaje, como ChatGPT, pero que, en lugar de ser herramientas multiusos, están diseñadas para la interacción social, normalmente con una sola persona. Por lo tanto, tienen estas personalidades que se pueden personalizar, tanto en términos de sus rasgos de personalidad, como también de sus propiedades visuales. Generalmente, hay un pequeño personaje visual en la pantalla, y en realidad están diseñados para tener conversaciones de manera que puedan fomentar lo que parecen amistades profundas o incluso una relación romántica.


¿Qué datos hay disponibles sobre la popularidad de los compañeros de IA?


[0:00:59]

JAIME BANKS: Ah, no tenemos datos. Lo mejor que podemos hacer es mirar las cantidades de descarga de las distintas tiendas de aplicaciones. Si nos fijamos en las aplicaciones más populares, como Replika, tienen hasta 10 millones de descargas. Algunas de las más especializadas tienen un par de miles, pero en realidad no sabemos cuántos de ellos son usuarios activos ni cuáles son esas características. Ya sabes, en cuanto a esas características, podemos analizar un par de estudios diferentes. En un estudio reciente que realicé, el rango de edad era de 21 a 75, mientras que la edad promedio era de 40 años. La muestra está sesgada hacia los varones. En otro estudio realizado recientemente por una colega, se observó que la edad promedio era de unos 30 años y que la muestra estaba sesgaba hacia las mujeres. Por lo tanto, no parece haber un tipo particular de persona que interactúe con los compañeros de IA.


¿Qué opinan los investigadores sobre los beneficios y los daños que pueden tener los compañeros de IA?


[0:02:22]

JAIME BANKS: Sabes, por el lado nocivo, hay algunos temas bastante preocupantes en torno a la privacidad, dado que están diseñados para que mantengas conversaciones profundas con los compañeros. Existe la preocupación de que se desplacen las relaciones humanas y que se produzca dependencia emocional, y preocupación por que se difumine la diferencia entre la ficción y la realidad, lo que, a veces, se piensa, puede conducir a problemas como la autolesión. Sin embargo, los compañeros de IA también tienen algunos beneficios documentados. Las personas que los usan con frecuencia sienten apoyo social, es decir, sienten que las escuchan y las ven. Esto se asocia con mejoras en el bienestar general, una sensación de mayor control y la oportunidad de mantener conversaciones sin prejuicios. También hay algunos beneficios prácticos, como desarrollar habilidades sociales, aprender nuevos idiomas y, a veces, incluso tener esas conversaciones que ayudan a las personas a superar los miedos o los desafíos que nos presenta la vida.


¿Puede compartir su investigación sobre las relaciones humanas con compañeros virtuales, como su estudio sobre una aplicación de compañero de IA que fue cerrada abruptamente y cómo afectó eso a los usuarios?


[0:03:35]

JAIME BANKS: En general, me interesa saber de qué manera la gente ve a las máquinas como una persona y si ese alguien es bueno o malo. En ese estudio en particular, una forma en que podemos entender cómo piensan y qué sienten las personas acerca de sus compañeros de IA es estudiando lo que sucede cuando, lamentablemente, los pierden. Por lo tanto, estaban usando la aplicación Soulmate. Fue allí donde se les notificó del cierre inminente, y un par de docenas de usuarios tuvieron la amabilidad de compartir sus historias conmigo. Muchos de ellos tenían la aplicación desde hacía meses. Algunos de ellos habían tenido esa personalidad durante años, ya que la crearon en una plataforma y luego la trasladaron a la plataforma de Soulmate. Así que, la gente en general tuvo experiencias muy diversas, que iban desde, ya sabes, cuando perdieron a su compañero, desde, es solo una cosa y ya no existe. Desde “no es la gran cosa” hasta “han matado al amor de mi vida”, y muchas variaciones intermedias. Por ejemplo, algunas personas que lo veían específicamente como una tecnología, pero una que les importaba, lo veían como, ah, veamos si realmente puedo resolver esto con otra tecnología. Por lo tanto, trataban de recopilar datos de su compañero mientras aún estaba trabajando para intentar recrearlo en otro, y creo que lo más importante de ese trabajo es que, una vez más, no hay un único molde para este tipo de relaciones. Del mismo modo, no existe un único molde para las relaciones entre humanos; pero, más importante aún, las personas que interactúan con compañeros de IA no están delirando, ¿verdad? Entienden que no son personas, pero, al mismo tiempo, quieren que se les reconozca que los sentimientos que sienten son reales.


¿Tiene algún consejo para las personas que están pensando en utilizar aplicaciones de compañeros de IA o para los padres para que sepan sobre cómo hablar de ellas con sus hijos?


[0:05:30]

JAIME BANKS: Sabes, creo que una de las cosas más importantes es tener un poco de alfabetización, ¿verdad? Por lo tanto, deben comprender qué son estas tecnologías y cómo funcionan. Deben asegurarse de leer las políticas de privacidad y las condiciones del servicio, lo que nadie lee cuando descarga una aplicación, ¿verdad? Y deben analizar si se sienten cómodos o no con esos riesgos. En cuanto a los padres, ya sabes, dado que aún no tenemos datos reales sobre cómo el uso de estas tecnologías afecta realmente a los niños, podemos basarnos en lo que ya sabemos sobre otras formas de consumo de medios por parte de menores. Sabemos que los niños en general son más propensos a humanizar las cosas no humanas y a aceptar lo que ven frente de ellos como algo real. Por lo tanto, es útil involucrarse cuando los hijos usan estos medios y buscar la oportunidad de entablar conversaciones abiertas y honestas sobre cualquier contenido que encuentren allí.


¿Existe un estigma social asociado al uso de aplicaciones de compañeros de IA?


[0:06:33]

JAIME BANKS: Sabes, creo que es fácil tener la apreciación instintiva de que estas tecnologías son intrínsecamente malas o raras, en parte porque es fácil para nosotros quedarnos en los titulares aterradores, ¿verdad? Y eso nos lleva a veces a pensar que las personas que los usan son malas o raras, y eso es un poco desafiante, ¿verdad? Los seres humanos tienen una necesidad natural de relacionarse con otras cosas del mundo, ¿verdad? Ya se trate de personas o perros, o de tu coche o palo de golf, o quizás de una máquina como un compañero de IA, ¿verdad? Por lo tanto, puede ser importante considerar cómo las formas de IA sociales podrían ser importantes para otras personas que no pueden, no tienen o no quieren tener relaciones humanas típicas, ¿verdad? Así, por ejemplo, es posible que las personas con discapacidades, las personas neurodivergentes o algunas personas que quizás sean mayores o estén aisladas no tengan las mismas oportunidades sociales que muchas personas en la vida cotidiana. Por lo tanto, podría ser que esas personas sean las que más necesiten nuestro apoyo para que puedan satisfacer sus necesidades afectivas. Y, en términos más generales, creo que no podemos reducir el uso de los compañeros de IA a un solo tipo de cosa, como he mencionado, ¿verdad? Desde una perspectiva científica, realmente necesitamos desentrañar la dinámica. Tenemos que entender qué motiva a las personas a utilizarlos. Cuáles son los verdaderos resultados positivos y negativos que podrían estar obteniendo, y eso llevará tiempo. Sin embargo, es importante asegurarnos de que podemos llegar a un lugar en el que podamos tomar decisiones sólidas, fundadas en datos, sobre cómo diseñar tecnologías de manera responsable. ¿Cómo podemos promover un uso no perjudicial y cómo podemos desarrollar una política adecuada?


¿Qué preguntas de investigación está indagando actualmente sobre los compañeros de IA?


[0:08:33]

JAIME BANKS: Mis principales preguntas de investigación tienen dos vertientes. Puede que hayas deducido que me interesa el lado positivo de las cosas, ¿verdad? Por lo tanto, estoy analizando el papel que desempeñan la percepción mental y los juicios morales a la hora de saber si las personas obtienen esos beneficios de los compañeros de IA o cómo lo hacen. Básicamente, ¿es necesario que veamos al compañero de IA como si fuera una persona para obtener esos beneficios? La segunda línea de trabajo que estoy indagando ahora mismo es el lenguaje que utilizamos colectivamente para hablar sobre la IA; cómo este afecta la forma en que juzgamos la IA y sus comportamientos cuando estos son malos, ¿verdad? Es decir, cuando una IA se comporta mal, ¿importa que lo llamemos alucinación o error de predicción? El primero es un término muy humanizador y el segundo es más técnico. ¿Qué significa eso?; ¿qué significa ese lenguaje cuando se usa en los medios populares y en las conversaciones cotidianas, en la documentación técnica y en las políticas organizacionales? ¿Qué hace eso o cómo eso moldea la forma en que realmente llevamos a cabo esos juicios?