La primera vez que un modelo de recomendación que había entrenado empezó a sugerir productos completamente ilógicos a un cliente, pasé una semana intentando entender dónde había fallado la “precisión” que me daban las métricas. La correlación era altísima, el R-cuadrado casi perfecto. ¿Qué demonios pasaba? Lo que me faltaba era un concepto fundamental que, en mi opinión, se ignora peligrosamente en el mundo de la IA: la causalidad.
El Espejismo de la Correlación
Es una frase manida, pero no por ello menos cierta: correlación no implica causalidad. Lo he visto mil veces: modelos que predicen el éxito de una campaña basándose en variables que solo acompañan el éxito, pero no lo provocan. O peor aún, que te dicen que la venta de helados aumenta junto con los ataques de tiburones. Claramente, ambos están relacionados con el calor del verano, pero nadie diría que comprar un cucurucho atrae escualos.
El problema es que nuestros modelos, en su afán por encontrar patrones, son excelentes detectando estas correlaciones espurias. Y nosotros, con la presión de desplegar, a menudo las aceptamos sin chistar si las métricas se ven bien. Pero cuando necesitamos que nuestra IA no solo prediga, sino que nos ayude a tomar decisiones o a diseñar intervenciones, la correlación se convierte en una trampa mortal.
¿Por qué te debería importar (y a mí me obsesiona)?
Imagina que entrenas un modelo para predecir qué estudiantes abandonarán la universidad. Si tu modelo identifica que los estudiantes que trabajan a tiempo parcial son más propensos a desertar, podrías concluir que trabajar es la causa y prohibirlo. Pero, ¿y si la causa real es la dificultad económica, y el trabajo es solo una consecuencia de esa dificultad? Prohibir el trabajo podría empeorar la situación, no mejorarla.
Para mí, la causalidad es el escalón que lleva a la IA de ser una “caja negra predictiva” a una herramienta que nos ayuda a entender el mundo y a actuar en él de forma efectiva. Si no entendemos las relaciones causales, corremos el riesgo de:
- Tomar decisiones erróneas: Como en el ejemplo de los estudiantes.
- Desarrollar sistemas frágiles: Un modelo basado en correlaciones puede colapsar cuando las condiciones cambian, porque la relación espuria desaparece.
- No poder intervenir: Si no sé qué causa un resultado, ¿cómo puedo diseñar una acción para modificarlo?
Esto se conecta directamente con cómo formulamos los problemas para la IA. Siempre insisto en que “resolverlo con IA” no es una estrategia, y en Formular Problemas para IA: Por qué “resolverlo con IA” no es una estrategia (y cómo lo hago yo) explico por qué. La causalidad es una parte intrínseca de esa formulación, porque define lo que realmente queremos optimizar.
Mi Aproximación: Pensar como un experimentador (aunque no lo sea)
No soy un estadístico causal de pura cepa, y sé que los métodos complejos de inferencia causal son un campo en sí mismo. Pero he aprendido que no necesitas un doctorado para aplicar una mentalidad causal. Mi proceso suele incluir:
- Preguntas explícitas: En lugar de “qué predice X”, pregunto “¿qué causa X?”. O “¿qué intervención puedo hacer para cambiar X?”. Esta pequeña variación cambia radicalmente el enfoque.
- Diagramas de Causalidad (DAGs): Aunque sea un boceto en una pizarra. Dibujar las relaciones que creo que existen, los posibles factores de confusión, los mediadores. Esto me obliga a pensar en la estructura del problema, no solo en los datos.
- Contrafactuales: Pensar “¿qué habría pasado si…?” me ayuda a identificar posibles sesgos y a entender mejor las implicaciones de una relación.
- Experimentación (si es posible): Si puedo, un simple A/B test es mi mejor amigo. Es la forma más limpia de establecer una relación causal. Si no, busco formas de simularlo o de controlar variables.
Cuando trabajas con agentes de IA, esto es aún más crítico. Un agente que cree que A causa B y actúa en consecuencia puede llevar a resultados desastrosos si A solo estaba correlacionado. Como ya he dicho en Agencia en IA: Cuando tu ‘agente’ es solo un robot de un solo truco (y por qué me enfada), un agente debe ser más que una máquina de correlaciones; necesita cierta comprensión del mundo subyacente.
No es un camino fácil
Entender la causalidad es difícil. Los datos observacionales están llenos de sesgos, y montar experimentos perfectos es a menudo imposible en entornos reales. Requiere un pensamiento crítico constante, una buena dosis de humildad para admitir que tu modelo “inteligente” podría estar equivocado por razones estúpidas, y una colaboración estrecha con expertos de dominio.
Pero te juro que vale la pena. Cuando un modelo, o un agente, no solo predice con precisión sino que te da una idea accionable de por qué las cosas suceden, es cuando realmente sientes que la IA está aportando un valor transformador. Es ahí donde el trabajo se pone interesante de verdad.