FUERA DE LA CAJA

La llamada

La prensa estadounidense denunció a inicios de esta semana que unos 50 mil electores recibieron el domingo previo una llamada robótica, en la que la voz del presidente Biden les invitaba a no participar en las elecciones primarias del Partido Demócrata, a realizarse en New Hampshire. El mensaje fue generado con ayuda de inteligencia artificial y se presume que la intención era impedir al inquilino de la Casa Blanca la opción de reelegirse.

' El arte de reconocer la desinformación.

Klara Campos

“Además de emular la voz del presidente estadounidense, en el mensaje se replican algunos de sus manierismos para dar una mayor sensación de veracidad. Por ejemplo, en el audio la voz usa una de las frases más famosas de Biden: “qué montón de tonterías”, señala Manuel Fernández, del diario digital elespañol.com.

La prensa destaca que las llamadas tenían como remitente el número de teléfono personal de Kathy Sullivan, expresidenta del Partido Demócrata en New Hampshire, quien colabora en la dirección de Granite for America, el comité de campaña pro Biden. Ella negó haber autorizado el uso de su número para ese propósito.

El análisis de la llamada realizada por varios investigadores expertos, tanto de universidades como de agencias de seguridad, no deja lugar a dudas de que la voz de Biden fue suplantada por algún programa de IA generativa. El evento llama la atención mucho más allá de la competencia electoral. Aunque la técnica de la llamada robótica ya se utiliza en diversos países —incluyendo Guatemala— lo novedoso y verdaderamente alarmante fue el uso de recursos de IA para clonar una voz y un discurso con la intencionalidad de afecta la decisión de seres humanos, suplantando a una persona que existe y que tiene influencia.

La IA es un recurso que debería facilitar algunas tareas haciendo un uso ético de ella. De acuerdo con quienes se han ocupado del tema, la ética en la inteligencia artificial remite a los valores y principios que deben guiar el desarrollo y uso de sistemas tecnológicos para asegurar que se utilicen de manera responsable, transparente y segura.

A lo largo de la historia, la suplantación de mensajes ha sido fuente de error inducido. Los apuntes sobre casos de desinformación que hemos comentado antes, han intentado construir puntos de referencia irreales que terminan incidiendo en decisiones sobre supuestos inexistentes. En suma, provocan decisiones erróneas.

En el campo político y en los demás órdenes de la vida, el uso inescrupuloso de recursos desleales para inducir decisiones fuera de toda lógica, van más allá de la recientemente conocida IA. Existe evidencia histórica de conflictos generados a partir de situaciones irreales y de reacciones humanas y sociales alimentadas por falsedades. La suplantación y alteración de hechos, con el uso de la IA ahora parece un juego de niños, no obstante que sus consecuencias pueden altamente peligrosas.

El evento que hemos comentado invita a reflexionar acerca del uso de la tecnología en el ámbito de la comunicación política para crear deepfake, con la intención de desprestigiar al opositor. Como ciudadanos y como electores ¿seremos capaces de discernir la realidad de la desinformación, y de tomar decisiones por nosotros mismos, sin la influencia de la IA? ¿A dónde vamos como sociedad y qué nos depara el futuro?

De una cosa sí podemos estar seguros: hoy día se hace sumamente difícil confiar en una comunicación unidireccional y tecnologizada. Para la convergencia, sinergias y acuerdos, lo seguro y confiable seguirá siendo el diálogo uno a uno, cara a cara.

ESCRITO POR:

Klara Campos

Licenciada en Comunicación con maestrías en Estudios Estratégicos y Comunicación no Verbal. CEO de Klaro Comunicación, S. A. Asesora en comunicación 360°; en estrategia, medios y publicidad, y gestión de reputación y crisis.

ARCHIVADO EN: