Estado, empresa y sociedad
Buen o mal uso de la IA
Poco más de cuatro décadas después, la IA ya no es ficción sino es una realidad cada vez más poderosa.
Muy pocos recordarán o habrán visto la película 2001: Odisea del Espacio, un clásico de ciencia ficción de 1968, sobre la nave espacial Discovery en viaje hacia Júpiter, con la supercomputadora HAL 9000 que gobierna la nave utilizando inteligencia artificial (IA). La misión, cuyo propósito solo conocen los tripulantes, genera preocupación de HAL 9000, que pregunta al comandante sobre el motivo del viaje, pero este no se lo dice. La supercomputadora entra en pánico y se rebela contra los humanos, matando a 4 de sus 5 tripulantes, hasta que el comandante logra desactivarla.
La disputa, centrada en los límites éticos del uso de modelos de lenguaje, culminó con la suspensión de los contratos.
En 1984 se estrenó la película de ficción, Terminator, que se refiere a “Cyberdyne Systems Corporation”, entidad privada, subcontratada por el Ejército de los Estados Unidos de América (EUA), que se convierte en la principal proveedora de redes de defensa militar, llamada Skynet. Esta IA termina viendo a los humanos como una amenaza, provocando una conflagración mundial, e iniciando la “rebelión de las máquinas”.
Poco más de cuatro décadas después, la IA ya no es ficción sino es una realidad cada vez más poderosa, de uso cada vez más generalizado y que se extiende a pasos agigantados. Sin entrar a cuestionar sobre su utilidad, que a todos los que la usamos, aún sin percatarnos, nos parece irrefutable, también conlleva algunas preocupaciones sobre aspectos éticos y humanos.
La semana pasada fue noticia mundial un desencuentro de índole ético entre la industria tecnológica y el sector de defensa estadounidense, surgido entre una empresa privada, proveedora de IA al gobierno de los EUA. De acuerdo con la empresa privada, contratista del Estado norteamericano, no estaba dispuesta a atender los requerimientos del Departamento de la Guerra que, según su Director General, vulneraban dos principios de su modelo fundacional.
Una es la prohibición de integrar a su empresa en procesos que permitan la toma de decisiones letales sin supervisión humana; y, la segunda, utilizar la capacidad de procesamiento del modelo para analizar datos de ciudadanos a gran escala. Obviamente, la reacción del presidente de los EUA no se hizo esperar, señalando que “era un error desastroso intentar forzar al Departamento de la Guerra a obedecer sus Términos de Servicio en lugar de la Constitución del país, poniendo vidas estadounidenses en riesgo, a nuestras tropas y a nuestra Seguridad Nacional en peligro”.
La disputa, centrada en los límites éticos del uso de modelos de lenguaje, culminó con la suspensión de los contratos federales de la compañía desarrolladora de la IA, marcando un precedente histórico.
La respuesta administrativa de Washington fue clasificar a la contratista como un “riesgo para la cadena de suministro”, que prohíbe a los contratistas militares integrar tecnología de esa empresa y suspende su uso en agencias federales, representándole la pérdida de un contrato estimado en cerca de 200 millones de dólares y cerrándole las puertas del gobierno.
El escenario de la IA sumó un nuevo antecedente, porque el principal competidor de la empresa sancionada confirmó un acuerdo para proveer sus modelos a las redes clasificadas del Departamento de la Guerra. El episodio evidencia la competencia entre las principales empresas de inteligencia artificial para la comercialización de sus desarrollos en el sector militar, una de las fuentes de financiamiento más estables del mercado tecnológico.
El uso ético de la IA es un tema crucial para que no tengamos que arrepentirnos después. Y ojalá que las películas de ciencia ficción nunca lleguen a convertirse en una terrible realidad.