Lectura fácil
La revolución de la Inteligencia Artificial (IA) ha estado dominada hasta ahora por los grandes modelos de lenguaje y la generación de imágenes. Herramientas como ChatGPT o Midjourney nos han demostrado que las máquinas pueden escribir, pintar y programar. Sin embargo, la comunicación humana es un iceberg donde las palabras son solo la punta visible; bajo la superficie, la inmensa mayoría de la información que transmitimos reside en nuestros gestos, posturas y reacciones físicas. Ahora, la tecnología ha decidido conquistar ese bastión final: el lenguaje no verbal, una disciplina que hasta hace poco se consideraba exclusivamente humana.
Informativos Telecinco ha tenido acceso exclusivo al funcionamiento de una nueva herramienta pionera desarrollada por la empresa española Emogg. Su creador, Edgar Sanjuan, ha diseñado un algoritmo capaz de "leer" a una audiencia sin necesidad de reconocimiento facial ni datos biométricos invasivos, abriendo una nueva era en la interacción entre humanos y máquinas.
Cómo la tecnología decodifica el lenguaje no verbal
Lejos de la ciencia ficción que busca leer la mente, este sistema se ancla en la realidad física. El algoritmo no pretende adivinar si una persona siente tristeza o alegría en su fuero interno, sino que se centra objetivamente en lo que el cuerpo manifiesta hacia el exterior. Se trata de un análisis técnico del lenguaje no verbal que identifica muecas, la posición de las manos, el fruncir del ceño o cómo se coloca el cuerpo ante un estímulo externo.
Según explica Sanjuan, "no es un traductor de emociones, sino una herramienta que interpreta las respuestas cognitivas". La premisa es que, aunque podemos mentir con palabras, nuestro cuerpo suele ser mucho más sincero. El sistema procesa estas micro-reacciones para ofrecer un mapa emocional colectivo de lo que está ocurriendo en tiempo real en una sala, un auditorio o un evento.
Privacidad y anonimato: el fin de la biometría invasiva
Uno de los puntos más críticos en el desarrollo de esta tecnología ha sido la privacidad. En los inicios del proyecto, la idea original contemplaba el uso de pulseras para medir la frecuencia cardíaca, pero se descartó por ser demasiado intrusivo. La solución actual utiliza cámaras, pero con una diferencia fundamental respecto a los sistemas de vigilancia tradicionales: no hay reconocimiento facial individual.
Mientras que los controles de acceso en eventos como el Mobile World Congress identifican a la persona concreta ("quién es"), esta herramienta analiza a la masa como un único organismo. Las cámaras captan a la audiencia como grupo y las reacciones se miden segundo a segundo de forma colectiva. Esto garantiza que no se almacenen nombres, edades, géneros ni direcciones. El análisis del lenguaje no verbal se realiza sin comprometer la identidad de los asistentes, cumpliendo estrictamente con la normativa europea de protección de datos (RGPD). De hecho, los servidores de la empresa están alojados en Madrid y el procesamiento se ejecuta localmente para mayor seguridad.
Psicología aplicada al entrenamiento del algoritmo
Para que una máquina entienda si un cruce de brazos significa rechazo o simplemente comodidad, ha sido necesario un entrenamiento exhaustivo. El equipo de Emogg ha contado con especialistas en psicología y entrenadores de deportistas de alto rendimiento para enseñar a la IA a interpretar correctamente las señales del lenguaje no verbal.
El sistema mide nueve parámetros clave: el foco de atención, la exaltación, la baja energía, la seriedad, la aversión, los momentos de impacto, la abrumación, la valencia de reacción (positiva o negativa) y la carga emocional. En una prueba realizada en exclusiva para este reportaje, el sistema analizó una interacción real arrojando datos precisos: un 74,95 % de foco de atención y un 17,8 % de exaltación, demostrando la capacidad del software para cuantificar lo intangible.
El adiós a las encuestas de satisfacción
La aplicación práctica de esta tecnología es inmensa. Desde reuniones de empresa hasta festivales de música, pasando por mítines políticos. El objetivo es desterrar las tradicionales encuestas de satisfacción, que a menudo sufren de sesgos y baja participación. Gracias al análisis inmediato del lenguaje no verbal, los organizadores pueden saber qué sienten las personas en su conjunto en un momento determinado sin necesidad de preguntar uno a uno.
Sanjuan insiste en la ética de su uso: aunque los datos son anónimos, en todas las pruebas piloto se ha informado a los asistentes de la presencia del sistema. La IA está lista para entendernos mejor que nunca, descifrando ese lenguaje no verbal que, a menudo, dice mucho más que nuestras propias palabras. El resultado es un espejo digital que nos devuelve la imagen real de nuestras reacciones, libre de filtros y opiniones subjetivas, abriendo un horizonte donde la empatía digital empieza a ser una realidad tangible.
Añadir nuevo comentario