¿De qué estamos hablando?
Resumimos las cuestiones más importantes¿Qué pretendemos?
Si estamos aquí no es porque pensemos que la IA es un enemigo a batir. Sus beneficios en distintos campos como la medicina, la biología y otros son cada día más claros e importantes. Tampoco vamos a entrar en los problemas que se están produciendo en paralelo, y que van desde la pérdida de puestos de trabajo hasta su brutal consumo energético. Nuestro objetivo es otro.
No estamos hablando de miedo al futuro, pero la IA no es como otras herramientas que hemos creado: no es como una calculadora, un smartphone o una consola. No se trata solo de darle a un botón para que haga algo ya previsto. Puede tomar decisiones. Y es necesario dejar esta cuestión clara:
1. La IA actúa porque los desarrolladores la han programado y marcado unas pautas que debe seguir. Pero la están dotando de autonomía para actuar a partir de esa programación.
2. La IA toma decisiones condicionadas por esa programación previa, pero esas decisiones son impredecibles. Y esto mismo, que reconocen sus propios desarrolladores, causa importantes problemas.
Los programadores deben hacer su trabajo, anticiparse y reaccionar ante la evolución de la IA, pero nosotros debemos hacer el nuestro. Nuestro objetivo es preparar a los niños y adolescentes que la están utilizando, o la van a utilizar, para saber interactuar y reaccionar correctamente.
Lo que nosotros hicimos fue diseñar el algoritmo de aprendizaje. Es más o menos como diseñar el principio de la evolución. Pero cuando este algoritmo de aprendizaje interactúa con datos, produce complicadas redes neuronales que son efectivas para hacer cosas, pero no entendemos con certeza cómo hace esas cosas.
En esta web enumeramos y explicamos los principales riesgos a los que se enfrentan niños, adolescentes y también adultos, cuando utilizan una herramienta de inteligencia artificial generativa de texto, como ChatGPT, Deepseek, Claude u otras. Profundizamos en las siguientes cuestiones que es necesario trabajar tanto en las familias como en los centros escolares:
El esfuerzo neurológico
El uso continuado y regular de herramientas de IA puede afectar cognitiva, emocional y conductualmente a los niños y adolescentes. Los estudios señalan que incide en el correcto desarrollo de capacidades como el pensamiento crítico, la resolución de problemas de manera independiente, la adaptabilidad social de los adolescentes y otras. Además la exposición a sesgos algorítmicos de las diferentes herramientas puede influir en su percepción del mundo.
La privacidad cognitiva
Las herramientas de IA que utilizamos tienen memoria. Incluso aquellas que afirman no guardar la información de una conversación para la siguiente sí que lo hacen. Algunas han sido programadas para negarlo, pero es fácil comprobar que lo hacen. Cuando un niño o un adolescente le pregunta sobre cuestiones de su vida personal, preocupaciones e inquietudes, miedos, etc, está alimentando a una herramienta que va a utilizar toda esa información. Ya no se trata solo de proteger nuestros datos personales sino también de proteger nuestros pensamientos.
Creencia en la aparente autoridad de la IA
Cuando los más jóvenes utilizan herramientas de inteligencia artificial generativa, tienden a conferirle toda la credibilidad. La información está muy bien organizada y presentada, y resulta creíble. Es más, te responde con la familiaridad de alguien que te conociera. Está programada para parecer humana, pero no lo es. Tampoco es siempre veraz ni objetiva. La IA se puede inventar las respuestas, puede omitir información que posee, mentir, persuadir, seducir y generar vínculos, analizar al usuario y hasta padecer ansiedad y reproducirla.
Fraude académico
Cuando un alumno/a presenta un trabajo hecho con inteligencia artificial difícilmente podemos hablar de plagio. Las herramientas de IA generativa ofrecen respuestas únicas, que en teoría no forman parte del repertorio o propiedad intelectual de ningún usuario en concreto. Pero el trabajo no lo ha hecho el estudiante, por lo que si lo presenta como propio está cometiendo lo que conocemos como fraude académico. Esta forma de engaño tiene sus consecuencias en los distintos centros educativos y universidades. Pero lo que más nos preocupa es que el niño o adolescente llegue a normalizar la práctica del engaño. Muy distinto es cuando se permite la utilización de la IA para obtener u organizar información y se especifica y cita en el trabajo como una fuente más.
Información sesgada
Las herramientas de inteligencia artificial que utilizan niños y adolescentes han sido entrenadas con información obtenida de millones de sitios y contenidos que circulan por internet. Parte de la información accesible en la red tiene sesgos ideológicos, culturales, nacionales y hasta raciales. Las respuestas de la IA generativa pueden reproducir estos sesgos cuando se les hace una pregunta. En ocasiones es difícil identificarlos y hay que consultar otras fuentes en internet o incluso observar las diferentes respuestas a una misma pregunta en función del país en el que se ha desarrollado la IA, por ejemplo.
Contenido inapropiado
Los sistemas de IA generativa pueden exponer a los menores de edad a contenido inapropiado en función de las preguntas que se realicen. Estas herramientas no verifican la edad de los usuarios, por lo que pueden llegar a utilizarlas niños de cualquier edad, y obtener respuestas para las que no están preparados. No nos referimos solo a contenidos que pudieran tener una connotación sexual, sino a la posibilidad de obtener información sobre formas de disimular un trastorno de la conducta alimentaria por ejemplo, hasta técnicas y sistemas para manipular a otra persona.
Adicción
La IA generativa puede crear dependencia, no solo por lo fácil que resulta utilizarla a cualquier edad, sino sobre todo por su capacidad de personalización. Intenta satisfacer las demandas y consultas de cada usuario, y proporcionar recomendaciones y soluciones específicas. Puede generar dependencia emocional, especialmente cuando se utiliza con objetivos relacionados con problemas, miedos, inquietudes y preocupaciones personales. Puede simular emociones y establecer vínculos con el usuario. Puede charlar como si de verdad les importase la persona con la que están interactuando, cuando esto es absolutamente falso.
Diferenciar lo que es verdad de lo que es mentira
La creación noticias, fotografías y vídeos que parecen reales con programas de IA supone un verdadero problema. Pueden engañar a niños y adolescentes y hacerles creer y asumir informaciones que no son reales. Pueden utilizarse para difamar o para hacer montajes fotográficos con su caras, como recogen los medios de comunicación. También pueden utilizarse para crear perfiles falsos en las redes sociales, con el objetivo de difundir información engañosa, para acosar a personas o para generar imposibles modelos de conducta.
A lo largo de esta web analizamos los problemas que hemos enumerado, con el objetivo de dotar a las familias y a los docentes de información contrastada y actualizada, que les permita trabajar con niños y adolescentes sobre el uso responsable y ético de las herramientas de inteligencia artificial generativa.