Tecnología

Frontier Model Forum: El grupo que busca minimizar riesgos de la inteligencia artificial que está conformado por cuatro gigantes tecnológicos

Cuatro líderes estadounidenses en inteligencia artificial (IA) anunciaron este miércoles 26 de julio la formación de un grupo dedicado a abordar los riesgos que pueden presentar las versiones de vanguardia de la tecnología en la industria.

inteligencia artificial

Gigantes tecnológicos forman grupo especial centrado en garantizar la seguridad de la IA. (Foto Prensa Libre: Pexels)

Anthropic, Google, Microsoft y el fabricante de la aplicación ChatGPT, OpenAI, dijeron que el recién creado Frontier Model Forum se basará en la experiencia de sus miembros para minimizar los riesgos de IA y respaldar los estándares de la industria.

Las empresas se comprometieron a compartir las mejores prácticas entre sí, así como con legisladores e investigadores.

Los modelos “Frontier” se refieren a plataformas incipientes de aprendizaje automático a gran escala que llevan la IA a nuevos niveles de sofisticación y también cuentan con capacidades que podrían resultar peligrosas para los humanos.

Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que su uso sea seguro y permanezca bajo control humano“, dijo el presidente de Microsoft, Brad Smith, en un comunicado.

“Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que brinde beneficios a toda la humanidad”, resaltó.

El presidente estadounidense, Joe Biden, evocó los “enormes” riesgos y esperanzas generadas por la IA en una reunión en la Casa Blanca recientemente con representantes de las gigantes tecnológicas que se comprometieron a tomar precauciones para todo tipo de protección, desde ciberataques hasta fraudes a medida que crece el sector.

Lea más: Información falsa y uso inadecuado de los datos de los usuarios: La investigación de ChatGPT en Estados Unidos por posible contenido dañino

Junto a los principales representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden dijo que las empresas se han comprometido a “guiar la innovación responsable” a medida que la IA se extiende cada vez más en la vida personal y empresarial.

Antes de la reunión, los siete gigantes de la IA se comprometieron con una serie de salvaguardas autorreguladas que, según la Casa Blanca, “subrayarían tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza”.

En su compromiso, las empresas acordaron desarrollar “mecanismos técnicos robustos”, como sistemas de marcas de agua, para garantizar que los usuarios sepan cuándo el contenido es de IA y no de humanos.

Lea también: Elon Musk y la inteligencia artificial: Por qué el magnate cree que esta tecnología hará temblar a los humanos en “cinco o seis años”