XAI: por qué el 'dice que es un gato' no me basta (y cómo investigo yo lo que *realmente* piensa mi modelo)

XAI: por qué el 'dice que es un gato' no me basta (y cómo investigo yo lo que *realmente* piensa mi modelo)

Publicado el

La primera vez que mi modelo de clasificación de imágenes me dijo que la foto de mi gato era un “perro con gorro”, mi primera reacción fue reír. La segunda, un escalofrío. ¿Cómo demonios había llegado a esa conclusión? Las métricas de evaluación decían que el modelo era “excelente” con un 98% de precisión en el set de test. Pero ese 2% de error, ¿era aleatorio o había algo fundamentalmente roto en su lógica interna? Este es el tipo de pregunta que me hace perder el sueño y me empujó a meterme de lleno en el mundo de la IA Explicable (XAI).

Para mí, el XAI no es un concepto académico bonito; es una necesidad práctica. No solo para la ética o la regulación (que también), sino para el debugging de verdad. No me sirve de nada que el modelo me diga “90% gato” si no puedo entender qué características de la imagen lo llevaron a esa decisión. Si el modelo es una caja negra, ¿cómo lo mejoro? ¿Cómo sé si está aprendiendo de la textura de la alfombra en lugar del pelaje del animal? Es una pesadilla.

Mi cruzada por la XAI empieza con la idea de que un “buen rendimiento” medido por métricas globales no es el final de la historia. De hecho, a menudo es solo el principio de mis batallas. Si solo nos quedamos con la precisión o el F1-score, nos perdemos la oportunidad de entender el porqué detrás de los errores y aciertos. Ya lo he dicho antes: las métricas de evaluación no son una bala de plata.

Las herramientas que realmente uso

Cuando necesito desentrañar la lógica de un modelo, mis herramientas de cabecera suelen ser dos: LIME (Local Interpretable Model-agnostic Explanations) y SHAP (SHapley Additive exPlanations).

  • LIME: Me gusta LIME porque es local y agnóstico al modelo. ¿Qué significa esto? Que puedo preguntarle al modelo: “Para esta predicción concreta (mi gato con gorro), ¿qué es lo más importante?” LIME crea un modelo local (a menudo lineal y simple) que se aproxima al comportamiento del modelo complejo en el entorno de esa predicción específica. Me ha salvado de verdaderos marrones identificando características extrañas que el modelo usaba, como el color de fondo en una imagen o la longitud de una URL en un clasificador de spam. Es como encender una linterna en un rincón oscuro de la caja negra.

  • SHAP: SHAP, por otro lado, se basa en los valores de Shapley de la teoría de juegos, asignando una “contribución” justa a cada característica para una predicción individual. Es más robusto teóricamente que LIME y me permite no solo entender predicciones individuales, sino también obtener una visión global de la importancia de las características. Es mi favorito para cuando necesito justificaciones más sólidas o para comparar cómo diferentes características influyen de media en el modelo. Me ha ayudado a ver patrones de sesgo ocultos que las métricas globales no me hubieran revelado nunca. Si el modelo está consistentemente dando más peso a una característica demográfica irrelevante para cierta clase, SHAP lo delata.

También uso métodos más simples como la “importancia de características” cuando los modelos son más lineales o basados en árboles. Pero para redes neuronales o modelos más complejos, LIME y SHAP son mis guardianes.

Interpretación vs. Rendimiento: No es un juego de uno u otro

Mucha gente ve el XAI como un sacrificio: “Si quiero que sea explicable, tiene que rendir menos”. Y sí, hay una guerra interna entre interpretación y rendimiento a veces. Un modelo lineal es muy explicable, pero quizás no es lo suficientemente potente. Un deep learning es potente, pero una caja negra.

Mi enfoque es que el XAI es el puente. No necesito sacrificar el rendimiento si puedo explicar por qué el modelo potente tomó una decisión. Es como tener un genio que me da la respuesta, pero al que puedo pedirle que me explique los pasos, aunque sea después de dar la respuesta. Esto me da la confianza de que el genio no está improvisando o basándose en trucos sucios.

Al final, la capacidad de explicar por qué tu modelo hace lo que hace es fundamental para la confianza. No solo la confianza de los usuarios o reguladores, sino tu propia confianza como desarrollador. ¿Tu IA hace lo que crees que hace? Esta es la pregunta que me obsesiona, y el XAI es mi principal herramienta en esta cruzada por la observabilidad. Sin ella, estoy pilotando a ciegas. Y a ciegas, prefiero no pilotar.