Salud y Familia

Inteligencia artificial: ¿Cómo los padres pueden guiar a sus hijos en su uso?

Si los padres se dan cuenta de que su hijo ha realizado una tarea exclusivamente con ayuda de ChatGPT, esto no tiene por qué ser algo negativo.

Inteligencia artificial: ¿Cómo los padres pueden guiar a sus hijos en su uso?

Cuando los padres descubren que un "amigo" de la IA ha hecho los deberes por sus hijos, es el momento perfecto para iniciar una conversación sobre cómo confrontar con la IA. (Foto Prensa Libre: Guido Kirchner/dpa)

El uso de la inteligencia artificial en escuelas y universidades es un tema controvertido. Sin embargo, numerosas aplicaciones basadas en ella han llegado para quedarse. Pero ¿qué pasa con su uso en las habitaciones de los niños? ¿Qué pueden hacer los padres cuando los niños empiezan a utilizar ChatGPT para hacer los deberes o como compañeros de chat en la vida cotidiana?

ChatGPT es un chatbot, es decir, un sistema de diálogo basado en texto que se apoya en el aprendizaje automático. En un principio suena divertido, pero ChatGPT también conlleva algunos riesgos.

Según la catedrática alemana Felicitas Macgilchrist, especializada en la investigación de medios de comunicación, para sensibilizar a los niños sobre los riesgos es importante, en primer lugar, informarse sobre la inteligencia artificial y, a continuación, dialogar con ellos: “Hablar, hablar, hablar e informar al niño con base en los conocimientos básicos adquiridos”, señala la experta.

Sandra Schulz, profesora de Didáctica de la Informática en la Universidad de Hamburgo, también aconseja no abordar el asunto con reticencia. Hay que aceptar que el ChatGPT forma parte de la transformación digital, y, por lo tanto, es importante informarse sobre el tema para poder así guiar al niño en el uso de la inteligencia artificial.

Tanto Schulz como Macgilchrist aconsejan no prohibir completamente al menor el uso de ChatGPT y otros programas. Según Macgilchrist, si el niño utiliza ChatGPT a pesar de la prohibición, se hace aún más difícil hablar con él al respecto.

Además, según Schulz, esto puede convertirse en una desventaja en la escuela: “Si está permitido como ayuda, los niños se verán en desventaja por no poder utilizar ChatGPT”, precisa la experta.

Según Schulz, primero hay que averiguar cómo funciona realmente ChatGPT. El programa de IA escribe textos basándose en probabilidades. El sistema calcula cuál es la siguiente palabra o respuesta más probable a partir de la base de datos que se le ha proporcionado.

Sin embargo, dependiendo de los datos que uno mismo ofrezca al sistema, las respuestas pueden ser muy diferentes. “Por supuesto, esto también puede influir mucho en la formación de opiniones”, afirma Schulz.

Lo que también puede tener un impacto negativo en la formación de opinión de los niños es que ChatGPT se entrena con datos que representan la “corriente principal” de posiciones en la sociedad. “Sabemos por investigaciones en Internet que son sobre todo hombres jóvenes blancos del Norte Global o de Occidente los que escriben mucho -en gran parte en inglés- en Internet”, señala Macgilchrist.

A la inversa, esto significa que las experiencias, perspectivas y conocimientos de otros grupos de personas, por ejemplo, mujeres, activistas o personas del Sur Global, están infrarrepresentados o incluso faltan.

En vista de esto, los padres tendrán que trabajar activamente con sus hijos y, junto con ellos, analizar críticamente las perspectivas de los textos de ChatGPT y considerar qué puntos de vista no se mencionan. Según Macgilchrist, también se podría hablar con el niño sobre lo que significa para la vida de las personas en el mundo que falten estas posiciones.

Otro riesgo es que los textos de ChatGPT pueden contener información ficticia o incluso errores. “Esto puede ser peligroso si los niños y jóvenes aceptan estos textos como hechos reales”, afirma Macgilchrist.

Para que el niño sea consciente de los fallos de ChatGPT, Macgilchrist recomienda recurrir a los propios conocimientos del menor. Por ejemplo, el niño puede hacer preguntas a ChatGPT sobre sus series favoritas. De este modo, el menor puede aprender a utilizar el sistema y ver que, entre otras cosas, se trata de contenidos ficticios y que pueden producirse errores.

Nunca se puede saber a ciencia cierta si un texto procede de una inteligencia artificial o no. Sin embargo, hay algunos indicios. Según Macgilchrist, los textos basados en IA suelen parecer aburridos y sonar estandarizados.

También se puede comprobar si el vocabulario utilizado en el texto coincide con el del niño. Los padres pueden preguntarse si las palabras utilizadas son realmente las que usaría su hijo. “También en el caso de la ortografía y la gramática, la mayoría de los padres probablemente tienen una idea de si estas coinciden con el nivel de los niños”, informa Schulz.

En caso de duda, se recomienda preguntar al niño por qué piensa así o de dónde procede la información. Schulz aconseja participar activamente en el proceso de aprendizaje de los niños y animarlos a que expliquen las respuestas.

Incluso si los padres se dan cuenta de que su hijo ha realizado una tarea exclusivamente con ayuda de ChatGPT, esto no tiene por qué ser algo negativo. Según Macgilchrist, a más tardar llegado ese momento se puede iniciar una conversación con el niño.

La experta también sugiere un método lúdico: dejar que el niño formule una pregunta a ChatGPT y hacer que luego investigue por su cuenta si la respuesta es correcta. De este modo, el niño no solo aprende a utilizar ChatGPT, sino que también trata el tema de los deberes a pesar de la ayuda.

Además, los padres pueden preguntarle al niño por qué va a la escuela y explicarle que el objetivo de hacerlo es aprender. ChatGPT puede funcionar como herramienta, pero no debe ni puede hacer todo el trabajo, puntualiza Schulz.