Política
|Suscriptores
Cómo está adoptando la IA el Departamento de Seguridad Nacional de Estados Unidos
El DHS se está convirtiendo en la primera agencia federal en adoptar la tecnología con un plan para incorporar modelos generativos en una amplia gama de divisiones.
EE. UU. invertirá millones en programas de inteligencia artificial para su seguridad. (Foto Prensa Libre: EFE)
El Departamento de Seguridad Nacional (DHS, por su sigla en inglés) ha visto de primera mano las oportunidades y los riesgos de la inteligencia artificial (IA). Encontró a una víctima de trata varios años después utilizando una herramienta de IA que evocaba una imagen de la persona afectada una década mayor. Pero también se ha visto engañado en sus investigaciones debido a imágenes falsas creadas con IA.
Ahora, el departamento se está convirtiendo en la primera agencia federal en adoptar la tecnología con un plan para incorporar modelos generativos de IA en una amplia gama de divisiones. En colaboración con OpenAI, Anthropic y Meta, pondrá en marcha programas piloto que utilizarán chatbots y otras herramientas para ayudar a combatir los delitos de tráfico de drogas y de personas, capacitar a los funcionarios de inmigración y preparar la gestión de emergencias en todo el país.
La prisa por poner en marcha esta tecnología aún no probada forma parte de una lucha más amplia por mantenerse al día de los cambios provocados por la IA generativa, que puede crear imágenes y videos hiperrealistas e imitar el habla humana.
“No se puede ignorar”, dijo en una entrevista Alejandro Mayorkas, secretario de Seguridad Nacional. “Y si no somos previsores al reconocer y estar preparados con el fin de abordar su potencial para el bien y para el mal, será demasiado tarde, y por eso estamos avanzando con rapidez”.
El plan para incorporar la IA generativa en toda la agencia es la última demostración de cómo las nuevas tecnologías, como ChatGPT de OpenAI, están forzando incluso a las industrias más rígidas a reevaluar la forma en que realizan su trabajo. Aun así, es probable que los organismos públicos se enfrenten a uno de los escrutinios más severos sobre el modo en que utilizan la tecnología, el cual ha desatado un debate enconado porque a veces ha demostrado ser poco fiable y discriminatoria.
Quienes forman parte del gobierno federal se han apresurado a elaborar planes tras la orden ejecutiva del presidente Joe Biden emitida el año pasado, la cual exige la creación de normas de seguridad para la IA y su adopción en todo el gobierno federal.
El DHS, que emplea a 260 mil personas, se creó tras los atentados terroristas del 11 de Septiembre y se encarga de proteger a los estadounidenses dentro de las fronteras del país, incluyendo la vigilancia del tráfico de personas y drogas, así como la protección de infraestructuras críticas, la respuesta ante catástrofes y la Patrulla Fronteriza.
Como parte de su plan, la agencia tiene previsto contratar a 50 expertos en IA para que trabajen en soluciones que mantengan la infraestructura crucial del país a salvo de ataques generados por IA y combatan el uso de la tecnología para generar material de abuso sexual infantil.
En los programas piloto, en los que gastará 5 millones de dólares, la agencia utilizará modelos de IA como ChatGPT para ayudar en las investigaciones sobre material de abuso infantil y tráfico de personas y drogas. También colaborará con empresas para peinar su caudal de datos de texto y encontrar patrones que ayuden a los investigadores. Por ejemplo, un detective que busque a un sospechoso que conduzca una camioneta azul podrá buscar por primera vez el mismo tipo de vehículo en investigaciones de seguridad nacional.
US$5 millones gastará el DHS en programas de inteligencia artificial.
El DHS utilizará chatbots para capacitar a funcionarios de inmigración que hayan trabajado con otros empleados y contratistas haciéndose pasar por refugiados y solicitantes de asilo. Las herramientas de IA permitirán a los funcionarios recibir más capacitación con entrevistas simuladas. Los chatbots también analizarán información sobre comunidades de todo el país fin de colaborar con planes de ayuda en caso de catástrofe.
La agencia presentará los resultados de sus programas piloto a finales de año, según Eric Hysen, director de información y responsable de IA del departamento.
La agencia eligió a OpenAI, Anthropic y Meta para experimentar con diversas herramientas y utilizará a los proveedores de la nube Microsoft, Google y Amazon en sus programas piloto. “No podemos hacerlo solos”, comentó Hysen. “Debemos trabajar con el sector privado para ayudar a definir los usos responsables de la IA generativa”.