Pluma invitada

¿Debemos temerle a la IA ‘progre’?

Describir este tipo de resultados como “IA progre” no es un insulto. Es una descripción técnica.

Imaginemos una historia corta de la edad de oro de la ciencia ficción, algo que aparecería en una revista “pulp” de 1956. Nuestro título es “El motor de la verdad”, y la historia imagina un futuro en el que las computadoras, esas cosas enormes que van del suelo al techo, se vuelven lo suficientemente potentes como para guiar a los humanos hacia las respuestas a cualquier pregunta, desde cuál es la capital de Bolivia hasta la mejor manera de marinar un filete.

Los usuarios informaron que se les sermoneaba sobre “estereotipos nocivos”.

¿Cómo acabaría una historia así? Con algún tipo de revelación, sin duda, de una agenda secreta que se esconde tras la promesa de un conocimiento que lo abarca todo. Por ejemplo, quizá exista un “Motor de la verdad 2.0”, más inteligente y creativo, que todo el mundo esté deseando tener en sus manos. Y entonces un grupo de disidentes descubre que la versión 2.0 es fanática y está loca, que el Motor solo ha estado preparando a los humanos para un lavado de cerebro totalitario o para la extinción involuntaria.

Esta fantasía se inspira en la versión de nuestra sociedad de “El motor de la verdad”, el oráculo de Google, que acaba de estrenar Gemini, el participante más reciente en la gran carrera de la inteligencia artificial.

Los usuarios no tardaron en darse cuenta de ciertas… rarezas de Gemini. La más notable fue su dificultad para representar con precisión a vikingos, antiguos romanos, padres fundadores de Estados Unidos, parejas al azar de la Alemania de la década de 1820 y otros grupos demográficos caracterizados normalmente por un tono de piel más pálido.

Tal vez el problema fue simplemente que la IA estaba programada para favorecer la diversidad racial en las imágenes de archivo, y sus representaciones históricas de alguna manera (como decía un comunicado de la empresa) “no daban en el blanco”, ofreciendo, por ejemplo, rostros africanos y asiáticos con uniformes de la Wehrmacht en respuesta a una petición de ver a un soldado alemán hacia el año 1943.

Pero la forma en que Gemini respondía a las preguntas hacía que su configuración blanca por defecto pareciera más bien una extraña emanación de la visión del mundo subyacente de la IA. Los usuarios informaron que se les sermoneaba sobre “estereotipos nocivos” cuando pedían ver una imagen de Norman Rockwell, se les decía que podían ver fotos de Vladimir Lenin pero no de Adolf Hitler y se les rechazaba cuando solicitaban imágenes en las que aparecieran grupos especificados como blancos (pero no de otras razas).

Nate Silver informó que obtuvo respuestas que parecían seguir “la política del miembro promedio de la Junta de Supervisores de San Francisco”. Tim Carney, del Washington Examiner, descubrió que Gemini defendía el argumento de no tener hijos, pero no el de tener una familia numerosa; se negaba a dar una receta de foie gras por cuestiones éticas, pero explicaba que el canibalismo era una cuestión con muchos matices de gris.

Describir este tipo de resultados como “IA progre” no es un insulto. Es una descripción técnica de lo que el motor de búsqueda dominante en el mundo decidió lanzar.

Hay tres reacciones que uno puede tener ante esta experiencia. La primera es la típica reacción conservadora, menos sorpresa y más reivindicación. Aquí tenemos una mirada detrás de la cortina, una revelación de lo que la gente poderosa responsable de nuestra dieta diaria de información realmente cree: que cualquier cosa manchada por la blancura es sospechosa, cualquier cosa que parezca incluso vagamente no occidental obtiene una deferencia especial, y la historia misma necesita ser recontextualizada y descolonizada para ser apta para el consumo moderno. Google se extralimitó al ser tan descarado en este caso, pero podemos suponer que toda la arquitectura del internet moderno tiene un sesgo más sutil en la misma dirección.

La segunda reacción es más relajada. Sí, Gemini quizá muestra lo que creen algunas de las personas responsables de la corrección ideológica en Silicon Valley. Pero no vivimos en una historia de ciencia ficción con un único “Motor de la verdad”. Si la barra de búsqueda de Google ofreciera resultados al estilo de Gemini, los usuarios la abandonarían. Y Gemini está siendo objeto de burla en todo el internet fuera de Google, especialmente en una plataforma rival dirigida por un famoso multimillonario que no es “progre”. Es mejor unirse a las burlas que temerle a la inteligencia artificial progre o, mejor aún, unirse a la cantante Grimes, amante ocasional del multimillonario no progre, para maravillarse de lo que surgió del torturado algoritmo de Gemini, tratando los resultados como una “obra maestra del arte escénico”, una “estrella brillante del surrealismo corporativo”.

La tercera reacción considera las dos anteriores y dice, bueno, depende mucho de hacia dónde creas que va la IA. Si todo el proyecto sigue siendo una forma sobrepotenciada de búsqueda, un generador de ensayos mediocres e infinitas distracciones desechables, entonces es probable que cualquier intento de utilizar sus poderes para imponer una agenda ideológica fanática simplemente quede enterrado bajo toda la basura.

Pero los arquitectos de algo como Gemini no piensan que su trabajo vaya en esa dirección. Se imaginan a sí mismos construyendo algo casi divino, algo que podría ser un “Motor de la verdad” en toda regla —que resolvería problemas de formas que ni siquiera podemos imaginar— o bien podría convertirse en nuestro maestro y sucesor, volviendo obsoletas todas nuestras preguntas.

Cuanto más en serio te tomes este punto de vista, menos divertida se vuelve la experiencia Gemini. Poner el poder de crear un chatbot en manos de tontos y comisarios es un divertido error corporativo. Parece más probable que poner el poder de invocar a un semidiós o a un demonio menor en manos de tontos y comisarios termine de la misma manera que muchos cuentos de ciencia ficción: infelizmente para todos.

©2024 The New York Times Company

ESCRITO POR:

ARCHIVADO EN: