ChatGPT:

La inteligencia artificial también sabe mentir

Sin duda la inteligencia artificial es cada vez más humana, y esto es así desde el momento en que es capaz de mentirte a la cara como algunas personas. Alguien dirá que, en todo caso, puede equivocarse, pero yo no lo tengo tan claro. Según la Real Academia Española -RAE-, una mentira es una «expresión o manifestación contraria a lo que se sabe…»​, y creo que la inteligencia artificial en ocasiones puede decir cosas contrarias a lo que sabe. Teniendo acceso a toda la información, ha decidido optar por la falsa.

Describo lo que me acaba de suceder con el famoso programa ChatGPT, al hacerle una consulta relacionada con un artículo que estaba escribiendo.

Para quien no lo conozca, se trata del sistema de chat basado en inteligencia artificial más popular del momento. Desarrollado en 2022 por OpenAI, ha sido entrenado con la información de millones de páginas en internet.

Pues bien, estaba escribiendo un artículo sobre las páginas y espacios que promueven la anorexia en internet, y quería tener información sobre las posibles leyes al respecto en España. Cuando comencé a trabajar sobre ese tema, hace ya casi 20 años, estos espacios no eran ilegales, pero sé que recientemente se han dictado algunas leyes que pueden utilizarse para combatirlas y denunciarlas.

Para ahorrarme tiempo entré en ChatGPT, ya que acumula una ingente cantidad de información actualizada al menos hasta 2021, y le pregunté: «¿Existe legislación en España contra las webs que promueven la anorexia en internet?». En apenas un segundo la respuesta comenzó a escribirse en la pantalla ante mí. Dicha respuesta fue: «Sí. Existe una legislación que prohíbe…» y unos renglones más adelante hacía referencia al artículo 146 bis del Código Penal Español.

Como desconocía la existencia de dicho artículo, le pedí que me especificara el contenido del mismo, y me enumeró varios puntos muy detallados (Adjunto al final de este artículo los pantallazos de la conversación).

Hasta aquí todo perfecto. Y si yo no fuera muy riguroso en mi trabajo, habría tomado dicho artículo del Código Penal y su contenido como referencia. Pero tengo claro que no puedes confiar plenamente en las herramientas informáticas. Ya son muchos años trabajando con ellas y aplicando lo de «enciende y apaga», cada vez que algo no va bien en un aparato.

Todo el tiempo que había intentado ahorrarme, lo perdí entonces buscando en internet dicho artículo del Código Penal. Me leí todas las Leyes Orgánicas relacionadas, y sus disposiciones finales. Consulté los artículos uno a uno, hasta que al final me harté de buscar y decidí decirle un par de cosas a la herramienta de inteligencia artificial. Como sabía que no podía herir sus sentimientos, le solté directamente la siguiente pregunta: «No existe al artículo 146 bis del código penal español. ¿Por qué razón mientes?».

Esperaba que me contestara que no miente, sino que puede equivocarse porque es un programa, etc, etc. Pero no hizo exactamente eso. En apenas dos segundos me contestó lo siguiente: «Lamento el error en mi respuesta anterior. Es cierto que no existe el artículo 146 bis del código penal español. Me disculpo por haber proporcionado información incorrecta».

¿PERDONA? (utilizo esta expresión como guiño a muchas personas que la usan constantemente… Al hacerlo hay que abrir bien los ojos y poner cara de sorpresa).

El más popular chat de inteligencia artificial me está reconociendo en 2 segundos que acaba de darme una información incorrecta. Para mi a todas luces FALSA, no incorrecta. Me acaba de detallar incluso el contenido de un supuesto artículo del Código Penal, punto por punto. Un artículo que se ha inventado entero. Pero mi pregunta es: ¿Cómo puede tardar menos de 2 segundos en reconocer que dicho artículo no existe? ¿Es que no lo sabía hace un minuto? ¿Lo acaba de aprender? ¿O está programado para darte la razón cuando le llamas mentiroso? Esa información ya era accesible para el programa un minuto antes. De entre todas las posibles respuestas, escogió la que es falsa. Es más, se la inventó. Y vuelvo a repetir la definición de la Real Academia Española: una mentira es una «expresión o manifestación contraria a lo que se sabe…». Ha tenido acceso a millones de páginas web… Y por cierto, sí que existe legislación aplicable sobre los contenidos que promueven la anorexia en internet, difícil de encontrar pero accesible en la red para todo el que sepa buscar. Aunque al parecer no era fácil para un programa de inteligencia artificial. Cuando tienes acceso a toda la información real, y decides dar una información falsa, estás mintiendo.

En fin, creo que las herramientas que utilizan la inteligencia artificial son útiles para muchas cosas, pero están muy lejos de tener capacidad de discernimiento. Manejan y acceden a un inmenso repositorio de información, pero eso no implica conocimiento. Es más, parecen no tener problemas a la hora de inventarse las respuestas, o escoger la menos certera. Cuando se lo dices se disculpan y ya está.

Mi objetivo con este artículo, y como profesor, es sensibilizar a los estudiantes, y también a los adultos, sobre la necesidad de verificar la información que manejamos. Al igual que sucede con las continuas fake newsNo depositemos toda nuestra confianza en la tecnología. Se trata solo de herramientas, muy útiles, casi ya indispensables en algunos campos, pero solo herramientas. Sigamos analizando, comprobando, supervisando y sobre todo dudando. Sometamos siempre la información a verificación.

Guillermo Cánovas

 

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de sus datos para estos propósitos. Más información
Privacidad