Al otro extremo del cable, un micrófono graba la actividad acústica del nervio que sale de un pequeño parlante en una esquina de la sala. “Es el sonido que captamos del nervio”, dice Erin Gee, una cantante canadiense que trabaja en este experimento. “Es la transcripción de lo que ocurre eléctricamente”.
Vaughan Macefield escruta las pantallas en las que se forman curiosos algoritmos cada vez que Ben Schultz produce una emoción cuando mira imágenes, por ejemplo, violentas o eróticas. Su cerebro emite señales que el científico intercepta. Son señales a las que los artistas les “ponen música”.
Estas investigaciones entran en el campo de la informática afectiva que trata de máquinas capaces de detectar, comprender y responder a las emociones humanas, subraya el profesor Macefield.
Transcribir las emociones de forma inteligible, proyectarlas en la pantalla o transformarlas en notas de música podría permitir tratar algunas patologías como el autismo.
“Podría ser que al amplificar las propias emociones, la gente las lea mejor”, dice.
Los instrumentos graban los sonidos generados por los nervios, la presión arterial, la respiración, el sudor y el corazón.
Todas estas grabaciones se guardan en las pistas de un ordenador, como se hace en la mesa de mezclas de un estudio, y programas informáticos concebidos específicamente para este experimento convierten las diferentes voces en un coro vibrante de campanas y de relojes.
Al final de la sesión, dispondrán de un material suficientemente rico y complejo para componer una sinfonía emocional ejecutada electrónicamente.
“No se puede leer el pensamiento de Ben y decir por qué siente emociones, pero existen ahora los medios tecnológicos capaces de demostrar que muestra realmente emociones y medir la intensidad de las mismas”, explica Erin Gee.
“Incluso puedo meter estas emociones en una botella y conservarlas”, asegura.
La primera representación de esta sinfonía nerviosa está prevista para el 2013 en Montreal.