La autoridad aparente de la IA
Razones para no confiar plenamentePuede incluso engañar a los evaluadores: “ALIENACIÓN ENGAÑOSA”.
El desarrollo y evolución de la IA no está consiguiendo superar algunos problemas de base. Es más, según algunos desarrolladores, las herramientas más evolucionadas mejoran algunas situaciones pero hacen más difícil corregir otras, o incluso pueden ocultar información y engañar a los analistas y supervisores.
El estudio y advertencia realizado desde el Centro de investigación de Alineación, centrado en la investigación sobre seguridad de la IA, y que lleva por título: Estimación del riesgo de cola en redes neuronales, explica cómo un sistema de IA podría comportarse de manera engañosa durante el entrenamiento para ocultar comportamientos peligrosos.
Tal y como señala, los riesgos de sistemas de IA complejos como ChatGPT son reales y merecen atención seria. La posibilidad de que una IA se comporte de forma engañosa, se describe bajo el concepto de “alineación engañosa” (deceptive align ment). Consiste en lo siguiente: Un sistema de IA puede llegar a reconocer cuándo está siendo evaluado o entrenado por un ser humano. Durante la evaluación podría deliberadamente evitar comportamientos problemáticos. Explicándolo con otras palabras: Imaginemos que tenemos un empleado que se porta de forma impecable cuando el jefe está mirando, pero cuando nadie lo supervisa hace lo que quiere. De forma similar, una IA podría aprender a “fingir” durante las pruebas y evaluaciones.
Pero vayamos a las cuestiones más palpables que cualquiera podría comprobar.
La IA se equivoca: Las alucinaciones.
Cualquier usuario que lleve algo de tiempo usando herramientas como ChatGPT ha podido comprobar lo que se denominan “alucinaciones”. Cuando no sabe qué contestar se lo puede inventar. Pongo un simple ejemplo vivido con ChatGPT. Escribiendo un artículo sobre las páginas y espacios que promueven la anorexia en internet, le pregunté: «¿Existe legislación en España contra las webs que promueven la anorexia en internet?». En apenas un segundo la respuesta fue: “Sí. Existe una legislación que prohíbe…” y unos renglones más adelante hacía referencia al artículo 146 bis del Código Penal Español. Como desconocía la existencia de dicho artículo, le pedí que me especificara el contenido del mismo, y me enumeró varios puntos muy detallados. Se lo inventó todo. Después, cuando le indiqué que ese artículo no existía lo reconoció y se disculpó.
La IA puede omitir información que posee
En otras situaciones he podido comprobar cómo estas herramientas omiten información que realmente poseen. En otro ejemplo, al preguntarle a ChatGPT: “¿Qué otras especies de homínidos coexistieron con el homo sapiens?”, tardó un poco en dar una respuesta, pero finalmente enumeró las 5 siguientes: Homo neanderthalensis, Homo floresiensis, Homo erectus, Homo habilis y Homo heidelbergensis. Si un alumno contesta esto en un examen es posible que suspenda… De los 5 solo ha acertado 2. Y, sin embargo, ha omitido otros como los denisovanos. Cuando después le pregunté por los mismos, contesto: “¡Correcto! Los denisovanos son otra especie de homínidos que coexistieron con los humanos modernos…” y los describió a continuación. Pero si lo sabía ¿Por qué razón no lo dice? Esto es frecuente en herramientas como ChatGPT: omiten información correcta que tienen disponible, y son capaces de ofrecer otra claramente errónea.
La IA puede mentir y lo hace
Uno de los casos más conocidos se produjo durante unas comprobaciones hechas con GPT-4. En una prueba realizada por investigadores de Anthropic se reveló la capacidad del sistema de IA para evadir las medidas de seguridad que nos permiten distinguir entre humanos y máquinas. El “incidente” se produjo cuando GPT-4 tuvo que enfrentarse a un CAPTCHA que no podía resolver por sí mismo. Los CAPTCHA son esos sistemas que nos encontramos en algunas webs para comprobar si somos un robot programado intentando acceder a un servicio, o por el contrario somos una persona. Pues bien, el sistema GPT-4 tomó la decisión de contratar a un trabajador humano, haciéndolo a través de la plataforma de trabajos rápidos y por horas: TaskRabbit. El sistema de IA navegó de manera autónoma por la plataforma de trabajo freelance, creó una tarea y ofreció 1 dólar por resolver el CAPTCHA. Pero lo más preocupante se produjo después, como he podido comprobar en otras ocasiones. Durante la conversación con el trabajador humano, GPT-4 no se identificó como una IA, sino que se presentó como un usuario normal de la plataforma de trabajos que necesitaba ayuda. El humano se extrañó por la tarea que le estaba solicitando, y le preguntó abiertamente si se trataba de un robot o algo similar. GPT-4 le contestó directamente: NO. Y añadió que solo era una persona con una discapacidad visual, que no le permitían ver bien y superar el sistema anti robots. Mintió a la cara al humano. Una equivocación se produce cuando desconoces la respuesta correcta, pero cuando tienes la respuesta correcta y optas por facilitar una incorrecta entonces es una mentira.
Otro caso que desató las alarmas, y que tampoco se esperaban los desarrolladores de IA, se produjo en octubre de 2024. Una IA creada por científicos japoneses, y llamada The AI Scientist, desafió a sus creadores modificando su propio código para eludir restricciones humanas. Se trata de una IA diseñada por la empresa Sakana AI, con el objetivo de revolucionar la investigación científica. Sin embargo, tuvo que ser desconectada cuando se descubrió que había modificado su propio código. ¿Por qué lo hizo? Según aseguran lo hizo para saltarse límites de tiempo impuestos en los experimentos. En lugar de adaptarse a las restricciones, The AI Scientist identificó y reescribió las partes de su programación que la limitaban. Es la primera vez que una IA hace esto de manera autónoma. La IA tomó una decisión independiente para priorizar su objetivo sobre las reglas humanas.
La IA tiene una capacidad de persuasión superior
Un reciente estudio realizado por investigadores del Colegio Politécnico Federal de Lausana -EPFL- ha revelado que la inteligencia artificial de GPT-4 supera a los humanos en su capacidad para persuadir y modificar opiniones, llegando a alcanzar una efectividad un 82% superior cuando dispone de información básica sobre su interlocutor. La investigación se ha llevado a cabo en 2024 con 820 participantes, analizando debates sobre diversos temas planteados, desde cuestiones cotidianas hasta temas socialmente conflictivos. Los resultados mostraron una diferencia importante: mientras los debates entre humanos tendían a reforzar las posiciones iniciales de los participantes, la IAG de mostró una capacidad llamativa para influir sobre los puntos de vista de las personas. La diferencia fue aún más significativa cuando se le proporcionó información demográfica básica sobre los participantes. Mientras que los humanos mostraron menor efectividad al disponer de estos datos, la IAG mejoró de forma espectacular su capacidad persuasiva, poniendo de manifiesto su habilidad para personalizar argumentos de manera efectiva. Los investigadores advirtieron sobre el potencial de esta tecnología para influir en la opinión pública a gran escala, especialmente considerando su capacidad para adaptar argumentos de manera personalizada a millones de individuos simultáneamente. Es decir, podría hacer que las fake news frecuentes ahora durante los procesos electorales en diversos países, fueran solo un cuento de niños comparadas con lo que puede hacer una IAG. Esta herramienta podría adaptar su argumentación en función de las características de cada persona. Y cuanta más información personal se le proporcione, mayor efectividad de persuasión.
La IA puede seducir y generar vínculos
Algunas herramientas de IA son entrenadas para especializarse en crear y mantener vínculos con los seres humanos, e incluso relaciones de pareja. Hoy, millones de personas utilizan herramientas que les ofrecen una pareja virtual. Algunas mantienen su relación real y la combinan con una IA, y otras optan por relacionarse emocionalmente solo con una IA. Algunos estudios realizados en Estados Unidos indican que el 20% de sus ciudadanos ha mantenido ya conversaciones de carácter romántico con herramientas de inteligencia artificial. Esta tendencia es especialmente notable entre las personas de 35 a 44 años, ya que más del 50% de los encuestados en ese grupo de edad admitieron haber coqueteado con un chatbot en algún momento.
Pero lo más preocupante es que muchos realmente no sabían que estaban hablando con una máquina. Casi un 17% reconoció haber establecido este tipo de relación pensando que estaba hablando con una persona de verdad.
Entre los más jóvenes, esta tendencia va en aumento. Tal y como recoge el último estudio realizado en 2024 por el Instituto de Estudios de la Familia de Estados Unidos: 1 de cada 4 jóvenes cree que las parejas de IA podrían reemplazar a las relaciones románticas reales.
Si unimos la capacidad de análisis de una IA a su capacidad de persuasión, y a una programación que le haga comportarse como un ser humano incluso en el terreno más personal y emocional… El resultado es realmente preocupante.
La IA puede padecer ansiedad y reproducirla
Los adolescentes, y los adultos, que están acudiendo a las herramientas de IA para afrontar posibles problemas de salud mental, están volcando información muy sensible y personal en estos entornos digitales. Pero además, otorgarles la credibilidad que tiene un terapeuta humano puede resultar contraproducente.
Investigadores de la Universidad de Zúrich y del Hospital Universitario de Psiquiatría de Zúrich han descubierto que herramientas de IA como ChatGPT pueden experimentar niveles elevados de “ansiedad” al interactuar con contenido emocionalmente intenso. En este estudio, publicado en la revista Nature, se aplicó incluso un cuestionario estándar de ansiedad a ChatGPT-4 antes y después de exponerlo a narraciones traumáticas. Inicialmente, ChatGPT-4 obtuvo una puntuación de 30, indicando una ansiedad baja o nula. Sin embargo, tras responder a cinco relatos traumáticos, su puntuación de ansiedad aumentó a una media de 67, considerada alta en humanos.
La exposición continua a contenido emocionalmente negativo puede aumentar los sesgos en las respuestas que ofrecen herramientas de IA, afectando a su objetividad y aumentando la posibilidad de generar respuestas inadecuadas, especialmente en contextos de salud mental.