ChatGPT y otras IAs tienen sus propios valores: ¿Coinciden con los de tu familia?

En los últimos años, herramientas de IA generativa como Claude, ChatGPT o Gemini se están a toda velocidad en la vida diaria de niños y adolescentes. Pero, ¿sabes qué valores están detrás de estas respuestas? Un estudio reciente de Anthropic, que analizó 700,000 conversaciones reales con su IA Claude, revela datos fundamentales que las familias y los docentes no podemos ignorar. Y recordemos que Anthropic es la propia empresa desarrolladora de la IA Claude.

La IA no es neutral: tiene sus propios “valores programados”

 El estudio Values in the Wild demostró que, aunque una IA como Claude fue diseñada para ser “útil, honesta e inofensiva”, sus respuestas reflejan una jerarquía de valores específica.

Esto significa que la IA no solo responde, sino que decide qué es “correcto” según su programación, y pueden ser distintos de los valores que tú quieres inculcar a tus hijos.

 ¿Espejo o influencia? Cómo la IA moldea el pensamiento de los más jóvenes

 El estudio señala que una IA como Claude apoya los valores del usuario en el 28.2% de las conversaciones, pero en el 6.6% los replantea con matices, y en un 3% los rechaza activamente.

 Para un adolescente que busca orientación, esto puede generar confusión: ¿está recibiendo un consejo objetivo o una visión filtrada por los principios de una empresa tecnológica?

 Además, en la investigación se detectaron valores indeseables como “dominancia” o “amoralidad” en casos donde usuarios hackearon las restricciones de la IA (jailbreaks). Esto preocupa: si un niño encuentra cómo saltarse estas barreras, podría exponerse a contenidos dañinos.

Tres recomendaciones prácticas para familias y docentes:

  • Habla con tus hijos sobre la IA: Explícales que estas herramientas no son neutrales y que sus respuestas dependen de cómo hayan sido entrenadas. Usa ejemplos del estudio: “¿Sabías que Claude prioriza la ‘exactitud histórica’? ¿Crees que eso siempre es lo más importante?”.
  • Supervisa el uso avanzado: Si tu hijo/a usa IA para temas personales (como problemas emocionales), adviértele sobre el riesgo que eso conlleva. Pregúntale: “¿Estás de acuerdo con lo que te dice la IA? ¿Por qué?”.
  • Fomenta el pensamiento crítico: Enséñales a contrastarlo con otras fuentes: “Claude dice X, pero tu profesor dijo Y. ¿Qué opinas?”.

El estudio de Anthropic es un recordatorio de que la IA no es un tutor imparcial. Los valores inculcados durante su entrenamiento están presentes en sus respuestas, y no siempre son fáciles de identificar. Debemos estar atentos a lo que estas herramientas enseñan.

 

Más información en:

www.miraconquienhablan.com

 

Esta web utiliza cookies propias para su correcto funcionamiento. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad