Durante los días de la DANA intenté contactar con una ONG por diversas razones. No me jugaba la vida, ni la salud, ni el dinero, pero sabía que otras personas sí. La entidad estaba desbordada. Tardé tres días en conseguir una respuesta. Tres días.


Esa espera me hizo pensar en las miles de situaciones similares, o peores, que se dan en cada episodio de catástrofe: solicitudes que no llegan, llamadas que no se atienden, recursos que no se asignan por saturación o falta de información. Y entonces surgió la idea inevitable: una inteligencia artificial bien diseñada podría haber resuelto mi caso en minutos, y probablemente muchos otros mucho más graves, mucho antes.

Pero ahí se abre el dilema:

¿Qué ganamos y qué perdemos si dejamos que una IA gestione parte de nuestras emergencias?

Planteémoslo con claridad.

La intervención humana tiene un componente moral y narrativo que nos protege. Cuando las cosas salen mal, decimos “hicimos lo que pudimos”, “no se pudo hacer más”. Pero eso no es del todo cierto. Lo que hicimos dependió de quién estaba, con qué recursos, en qué estado emocional o físico. Así que hicimos lo que pudimos con quien pudimos.

La inteligencia artificial, en cambio, no se cansa, no se dispersa, no entra en pánico. Procesa enormes cantidades de datos, detecta patrones, optimiza recursos y responde en segundos. Y aunque pueda cometer errores, lo hace dentro de márgenes estadísticamente mucho menores que los humanos cuando están sometidos a presión extrema.

En una situación de emergencia, cada segundo cuenta. Saber quién necesita ayuda primero, dónde hay más riesgo, qué recursos están disponibles y cuál es el mejor modo de usarlos no es solo una cuestión técnica, es una decisión de vida o muerte.

Y ahí es donde la IA puede marcar la diferencia.

Una persona saturada, sin acceso a todos los datos, cansada, con miedo o sin medios, toma decisiones limitadas.

Una IA bien entrenada puede hacerlo mejor:

– No se agota,

– No duda,

– No necesita dormir,

– No confunde una solicitud mal escrita con spam.


Y sin embargo, da miedo. Porque ¿y si se equivoca?

¿Y si deja fuera a alguien que no encaja en su patrón?

¿Y si no entiende una urgencia mal expresada?

¿Y si decide sin corazón?

Porque no todas las personas saben pedir ayuda.

Hay silencios que contienen más dolor que mil palabras.

Una voz que tiembla, una frase incoherente, un mensaje mal escrito… todo eso puede ser ruido para un algoritmo. Y puede ser, en realidad, un grito desesperado que una persona habría detectado.

Además, la IA no empatiza, no interpreta contexto desde la intuición, no duda ni repara. Su lógica es binaria: patrones o anomalías. ¿Qué pasa cuando la urgencia está justo en ese umbral borroso?

Y a eso se suma el factor psicológico del control.

Nos cuesta aceptar que una máquina tome decisiones que nos afectan profundamente. Como subirnos a un coche autónomo. Nos cuesta imaginarlo.

Sabemos que reduce accidentes. Que tiene menos fallos que cualquier conductor humano.

Pero nos subimos, y el coche va solo. Y tú vas dentro. Y el coche va solo.

Y tu mente no lo soporta.

Aunque hayas ido decenas de veces con tu tío, el que conduce como un loco, ha tenido tres accidentes y aún así te fías más de él.

¿Por qué? Porque al menos lo puedes mirar. Porque si pasa algo, puedes gritarle.

Porque es humano.

Esa es la trampa.

Preferimos el error humano conocido al acierto algorítmico desconocido.

Pero el mundo no nos da ya ese margen.

Así que el dilema parece claro:

¿Eficiencia sin alma o humanidad con límites?

¿Queremos un sistema que funcione mejor a costa de perder lo humano?

¿O nos quedamos con nuestras carencias, confiando en la calidez del error humano?

El dilema de la delegación cognitiva es el proceso por el cual los seres humanos confiamos en otros agentes —ya sean personas, tecnologías o sistemas de inteligencia artificial— para realizar determinadas tareas mentales como decidir, interpretar, calcular o priorizar. No es algo nuevo: lo hacemos constantemente con el GPS, los buscadores o las calculadoras. Pero en contextos de emergencia, esta delegación se vuelve mucho más delicada, porque implica dejar en manos de una máquina decisiones que afectan directamente a la vida, la salud o el bienestar de las personas. Delegar nuestra capacidad de juicio ya no es solo una cuestión técnica, sino también ética y emocional. Lo que está en juego es el control, la confianza y la responsabilidad. Por eso, la verdadera pregunta no es si delegar o no, sino cómo, cuánto y con qué límites se delega.

Pero ese dilema, en realidad, es falso. Un dilema solo lo es cuando hay que elegir entre dos cosas incompatibles. Pero no es el caso.

La solución no está en elegir entre IA y personas.

Está en diseñar un sistema híbrido en el que cada parte haga lo que mejor sabe hacer.

La IA puede encargarse de lo masivo, lo urgente, lo claro:

– Filtrar mensajes,

– Ordenar prioridades,

– Detectar patrones de riesgo,

– Alertar sobre incoherencias,

– Sugerir decisiones rápidas.

La IA no tiene que tomar todas las decisiones. Tiene que asumir las que son claras y delegar las que no lo son. Detectar patrones, ordenar colas, priorizar recursos, enviar avisos. Y cuando encuentre dudas, señales grises o casos raros: escalar. Preguntar. Pasar el relevo.

La solución no es una IA infalible.

Es una IA honesta, que diga: “esto no lo entiendo, esto debe verlo una persona”. Una IA que no pretenda sustituir, sino ayudar. Una IA con criterio técnico y humildad estructural.

Esa es la diferencia entre una máquina peligrosa y una herramienta poderosa.

Una IA bien diseñada no debe sustituir la empatía, pero sí puede ayudar a que la empatía llegue antes, y donde más falta hace.

Y a partir de ahí, que las personas hagan lo que solo ellas pueden hacer: escuchar, mirar entre líneas, detectar el miedo donde hay silencio, tomar decisiones con contexto y sensibilidad.

El factor humano debe centrarse en lo que ninguna máquina puede hacer:

– Escuchar con paciencia,

– Leer entre líneas,

– Comprender el contexto emocional,

– Sostener la incertidumbre.

La pregunta correcta, por tanto, no es “¿IA o humanidad?”, sino:

¿Cómo usamos la IA para que la humanidad no llegue tarde?


La pregunta real es:

“Cuántas vidas más vamos a perder por miedo a soltar el volante.”

Lo que necesitamos no es decidir entre control humano o eficiencia artificial.

Lo que necesitamos es construir una inteligencia artificial capaz de gestionar lo que comprende, y de escalar lo que no. 


IA con lógica. Personas con criterio.

Automatización con supervisión.

Algoritmos que no pretendan ser infalibles, sino que trabajen con humildad y a favor de la vida.

Si hacemos eso, no perdemos lo humano. Lo reservamos para lo que más importa: la duda, el cuidado, la presencia.

Y ganamos algo aún más valioso: Un sistema que no colapsa. Que no se agota. Que no llega tarde.