“El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo. La Recomendación de la Unesco sobre la Ética de la IA establece el marco normativo apropiado”, señaló en un comunicado la directora general de la organización, Audrey Azoulay.
“Es hora de aplicar las estrategias y normativas a nivel nacional. Tenemos que predicar con el ejemplo”, urgió.
El marco, aprobado por la Asamblea General de la Unesco en noviembre de 2021, busca “garantizar la transparencia y la accesibilidad” de los algoritmos sobre los que se basan estas tecnologías.
Junto a ello, busca evitar que en el extenso mundo de internet se contravengan los derechos humanos, garantizar la igualdad de género en un mundo esencialmente concebido por hombres, proteger la democracia de los ataques a través de la red y preservar el medio ambiente.
El objetivo de la Unesco es sacar el máximo partido a la IA, que ofrece herramientas muy útiles para el desarrollo, sin que se escape del control humano.
Hasta ahora, más de cuarenta países de todas las regiones del mundo ya están colaborando con la Unesco para desarrollar controles y equilibrios de la IA a nivel nacional, basándose en la recomendación.
Sin embargo, ante el auge de herramientas de IA como ChatGPT en los últimos meses y el llamamiento de los expertos del miércoles 29 de marzo, la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) ha urgido a que los países de todo el mundo se activen para asegurar desde el marco legal que la expansión de esta tecnología no se hace a costa de los ciudadanos.
Denuncian el ChatGPT de OpenAI y piden que sea suspendido
Una de las organizaciones que el miércoles 29 de marzo suscribió un manifiesto para pedir la suspensión por seis meses de los experimentos con inteligencia artificial (IA) muy avanzada ha denunciado en EE. UU. a la tecnológica OpenAI, desarrolladora del ChatGPT, por considerar que la tecnología que utiliza, denominada GPT-4, viola la ley de protección de los consumidores.
El Center for AI and Digital Policy (CAIDP) ha presentado una demanda contra OpenAI ante la Comisión de Comercio Federal (FTC, oficial) de Estados Unidos en la que alega que el producto GPT-4 es “sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública”.
“La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales injustas y engañosas. Creemos que la FTC debe examinar de cerca OpenAI y GPT-4”, dijo el presidente de CAIDP Marc Rotenberg.
Según Rotenberg, OpenAI no está cumpliendo con las prácticas propuestas por la FTC como la relativa a la garantía por parte de las compañías de inteligencia artificial de “la solidez empírica de los datos y de los modelos” empleados, así como su transparencia.
La demanda insiste en que esta tecnología no cuenta con las suficientes salvaguardas para limitar la parcialidad y el engaño.
Rotengberg fue una de los empresarios y personalidades que firmaron una carta abierta en la que solicitaron que se suspendan durante seis meses los experimentos con inteligencia artificial muy potente (superior a GPT-4) porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.
“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, decía la carta publicada por el organismo sin ánimo de lucro Future of Life Institute.
Entre los firmantes también estaban el director ejecutivo de Tesla, Elon Musk, o el cofundador de Apple Steve Wozniak entre otros que también piden la intervención de los Gobiernos, en caso de que estas empresas no respondan a esta solicitud.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, aseguraba esa misiva que criticaba, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.
GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.
El laboratorio OpenAI define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”. Este nuevo sistema acepta la recepción de textos e imágenes y genera texto.
Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.