¿Lunar o cáncer? El algoritmo de IA que falla en 1 de cada 3 melanomas y discrimina a pieles oscuras

EmailFacebookTwitterLinkedinPinterest
21/08/2025 - 08:36
Manos de una mujer aplicándose crema

Lectura fácil

La inteligencia artificial (IA) ha aterrizado en la medicina con la promesa de revolucionarlo todo: diagnósticos más rápidos, tratamientos personalizados y una eficiencia sin precedentes. En dermatología, una de las áreas más prometedoras es el uso de algoritmos para analizar imágenes de lesiones cutáneas y ayudar a detectar melanomas, el tipo de cáncer de piel más agresivo. Sobre el papel, la idea es brillante: una simple foto analizada por una IA podría salvar vidas. Sin embargo, una reciente e impactante investigación de la Fundación Civio ha revelado la cara B de esta revolución tecnológica, una cara llena de errores alarmantes y profundos sesgos discriminatorios.

El estudio pone el foco en un algoritmo específico, diseñado para distinguir entre lunares benignos y melanomas malignos, y sus conclusiones son un jarro de agua fría para el optimismo tecnológico ciego: el sistema se equivoca en uno de cada tres diagnósticos de melanoma, dando un peligroso falso negativo. Y lo que es aún más grave, el algoritmo ignora por completo a los pacientes con la piel oscura, generando una nueva y peligrosa forma de desigualdad sanitaria.

El "efecto caja negra": cuando la IA da un falso negativo

El principal problema detectado es la alarmante tasa de error. Un falso negativo en este contexto no es un simple fallo informático; es decirle a un paciente que tiene un lunar inofensivo cuando, en realidad, tiene un melanomas o cáncer potencialmente mortal. Este error puede retrasar el diagnóstico y el tratamiento durante meses, un tiempo que en el caso de melanomas es absolutamente crítico y puede marcar la diferencia entre la vida y la muerte.

¿Por qué falla tanto el algoritmo? Los expertos apuntan al "efecto caja negra". Estos sistemas de IA se entrenan analizando millones de imágenes de lesiones previamente diagnosticadas por dermatólogos. El algoritmo aprende a identificar patrones sutiles que el ojo humano podría pasar por alto. Sin embargo, el proceso de decisión de la IA es a menudo opaco. No sabemos exactamente en qué se fija para llegar a una conclusión. Si los datos con los que se ha entrenado no son lo suficientemente variados o de alta calidad, el sistema aprende con "puntos ciegos", como parece ser este caso.

Esta falta de fiabilidad a la hora de distinguir melanomas pone en jaque la implementación de estas herramientas en la atención primaria o en servicios de teledermatología, donde podrían usarse como un primer filtro. Un médico de cabecera sin la especialización de un dermatólogo podría confiar erróneamente en el resultado del algoritmo, dejando pasar melanomas reales.

El sesgo que no se ve: la discriminación de las pieles oscuras

El segundo hallazgo de la investigación es, si cabe, más preocupante, porque revela una profunda falla ética en el diseño de estas tecnologías. El algoritmo analizado, como muchos otros en el campo de la dermatología, ha sido entrenado casi exclusivamente con imágenes de lesiones en pacientes de piel blanca (caucásicos).

¿La consecuencia? El sistema es prácticamente inútil, e incluso peligroso, cuando se intenta usar en personas con tonos de piel más oscuros. La IA no sabe interpretar correctamente la pigmentación, los contrastes ni la apariencia de las lesiones en pieles negras, asiáticas o mestizas. Esto no es un simple descuido técnico; es un sesgo algorítmico que perpetúa y amplifica las desigualdades sanitarias ya existentes.

Se crea así una sanidad de dos velocidades también en el ámbito digital. La tecnología más puntera se desarrolla y se prueba para un único tipo de paciente, dejando a todos los demás en una situación de desprotección. Esta "ceguera" tecnológica es un reflejo directo de la falta de diversidad en los propios datos de investigación médica y en los equipos de desarrollo tecnológico. Si los datos que alimentan a la IA no representan a toda la población, la IA no servirá para toda la población.

El camino a seguir: ética, regulación y supervisión humana

La investigación de Civio no es un ataque a la inteligencia artificial, sino una llamada de atención urgente sobre la necesidad de desarrollarla e implementarla con rigor, ética y responsabilidad. La IA tiene un potencial inmenso para mejorar la sanidad, pero no puede ser una caja negra en la que confiemos ciegamente.

La solución pasa por varios frentes:

  • Transparencia y auditoría: Es fundamental que estos algoritmos sean auditados por organismos independientes para conocer sus tasas de error reales, sus sesgos y los datos con los que han sido entrenados.
  • Diversidad en los datos: Es imperativo crear bases de datos de imágenes médicas que sean representativas de toda la diversidad de la población mundial.
  • Regulación estricta: Las agencias reguladoras de medicamentos y productos sanitarios deben establecer unos estándares de seguridad y eficacia muy altos para estos algoritmos antes de que puedan ser utilizados en pacientes.
  • Supervisión humana siempre: La conclusión más importante es que la IA, al menos a día de hoy, debe ser una herramienta de ayuda al diagnóstico, nunca un sustituto del juicio clínico de un médico. La decisión final siempre debe recaer en un profesional humano.

La promesa de la IA en medicina es real, pero este caso nos enseña una lección vital: si no diseñamos la tecnología con la equidad y la diversidad como principios fundamentales, corremos el riesgo de crear un futuro donde las máquinas no solo hereden nuestros prejuicios, sino que los amplifiquen.

Añadir nuevo comentario