La respuesta rápida es que, al igual que el resto de la sociedad, la Inteligencia Artificial (IA) también puede discriminarnos por nuestra edad. Nos discrimina en realidad por muchas otras cosas, pero parece que la edad es, de nuevo, un aspecto fácil por el que discriminar. Y, como ya he comentado otras veces, aceptado socialmente.
Siendo un tema tan candente (me refiero a la IA, porque mucho me temo que el edadismo recibe mucha menos atención) existen numerosos estudios científicos que documentan sesgos por edad tanto en algoritmos clásicos como en modelos generativos. Por modelos generativos se entienden los chatbots (esos bots con los que hablas para preguntarle tu talla, por ejemplo, al comprar online) o aquellos que dan lugar a la generación de imágenes, pero también los que aplican sistemas de selección de personal o de diagnóstico médico. Es decir, modelos y sistemas que son cada vez más habituales en nuestra vida cotidiana y para los que en muchas ocasiones dependemos sin tener alternativa. Procesos del día a día en los que hemos incorporado un agente que nos discrimina. Queríamos ayuda y nos encontramos…con un problema más. La inteligencia artificial puede ser un adelanto para ciertas cosas, pero nos trae problemas consigo, vaya.
Conviene, no obstante, recalcar algo: la IA no “nace” edadista ni discrimina por intención propia, no discrimina“porque sí”, sino que es el resultado del aprendizaje. La IA aprende a discriminar porque…es lo que ve, lo que conoce. Reproduce el edadismo presente en los datos que la alimentan y en los que se basa, los que están en el diseño de los sistemas y en cómo se implementan. La IA, recordemos, no inventa nada; solo repite (por eso no recomiendo a mis estudiantes usarla, entre otras cosas). Así, si su base de datos es el mundo que existe, y este es edadista, machista…pues ¿qué resultados podríamos esperar? La IA no se ha “inventado” una discriminación, sino que ha amplificado y reiterado la que ya existe.
Entonces, si existe previamente… ¿por qué es el edadismo de la IA un problema específico al que prestar atención? Porque no se trata de que una persona en un determinado lugar, realizando una determinada tarea (o muchas personas, muchos lugares, muchas tareas) tenga/n un sesgo; el problema es que ese sesgo se escala y repite miles de veces al día, sin dar lugar a revisión o dobles pensamientos, y esto sucede en decisiones que afectan al acceso al empleo, a servicios, a información o incluso a la atención sanitaria.
Pero, ¿Qué significa que la IA es edadista? ¿Cómo va a ser edadista algo no tangible? ¿No basta con cerrar el ordenador y ya está? El edadismo algorítmico se produce cuando un sistema de IA representa a personas mayores mediante estereotipos (fragilidad, dependencia, enfermedad, aislamiento), cuando las invisibiliza (no aparecen en datos o ejemplos), pero también cuando responde peor cuando son ellas quienes la usan (por ejemplo, más errores en el reconocimiento de voz en los contestadores automáticos tan horribles que nos atienden cuando llamamos a determinadas compañías), cuando las excluye como usuarias por diseños poco accesibles o, uno de los casos más terribles, cuando toma decisiones discriminatorias por edad. Al respecto, por si es de interés, la socióloga Justyna Stypińska, explica que la discriminación no aparece solo en el resultado final del sistema, sino también en los datos con los que aprende, en las decisiones de diseño y en la propia invisibilidad de las personas mayores en el ecosistema tecnológico.
La evidencia científica nos dice que lo más habitual es encontrar imágenes estereotipadas de la vejez en la IA generativa. Un reciente estudio longitudinal (de Martens et al, 2025) analizó 164 imágenes generadas por DALL·E sobre personas mayores y encontró que, tras un año, seguían apareciendo rasgos de edadismo digital predominando la asociación de las personas mayores con fragilidad, deterioro y emociones neutras o negativas (como si la edad nos quitase la capacidad de sentir), además del ya habitual predominio de personas blancas (para sorpresa de nadie). Lo más preocupante, pienso, no es solo el sesgo en sí, sino su persistencia: lejos de corregirse con el tiempo, el sistema continuaba reproduciendo prácticamente los mismos imaginarios sociales negativos sobre la vejez. Es decir, la tecnología no “aprendía” a representar mejor la diversidad del envejecimiento, sino que seguía devolviéndonos la misma mirada estereotipada que ya existe en la sociedad.
Los trabajos recientes sobre modelos de lenguaje (lo que se conoce como chatbots) muestran que también sus respuestas reflejan sesgos por edad. Algunos estudios analizan de forma específica eso del “edadismo benevolente” del que ya hemos hablado en otras ocasiones: una forma de paternalismo aparentemente positiva (“los mayores necesitan ayuda”, “son menos adaptables”) que, en realidad, refuerza estereotipos. No aparece de forma explícita u hostil, sino que aparece revestido de empatía, pero infantilizando a las personas mayores.
Además, les considera vulnerables (por su edad, no por otras cuestiones) y les presupone incapaces tecnológicamente. Algunos ejemplos de la vida diaria podrían ser un chatbot bancario que, al detectar que la persona tiene más edad, ofrezca automáticamente instrucciones “simplificadas” sin preguntarle qué necesita; un asistente virtual que presuponga que no sabe usar una app; o un sistema que recomiende contenidos relacionados con dependencia, salud o cuidados simplemente porque interpreta que la persona usuaria es mayor. No está “insultando”, pero sí está construyendo una idea muy concreta de quién es esa persona y de lo que supuestamente puede o no puede hacer.
Me parece casi gracioso pensar en cómo la IA asume menor conocimiento por parte de las personas de más edad. Me imagino a la IA “pensando” de sí misma “soy demasiado sofisticada para que las personas mayores me entiendan”. En realidad, no deja de ser la traducción tecnológica de prejuicios (muy) humanos.
En ámbitos de alto impacto, como los de empleo y salud, los riesgos son aún mayores. Por ejemplo, algunas empresas utilizan sistemas de cribado curricular para filtrar candidaturas. Estos sistemas pueden penalizar trayectorias largas, fechas de titulación antiguas o perfiles con mucha experiencia, invisibilizando así a perfiles senior. Por si no fuese ya suficientemente difícil acceder al empleo a determinadas edades por los prejuicios existentes, aquí el problema es aún más profundo: no es que quien contrata no te quiera por tu edad; es que ni siquiera llega a saber que existes.
Me preocupa especialmente en los sistemas de salud, donde “gobiernan” modelos entrenados con poblaciones en las que las personas mayores están infrarrepresentadas, lo que hace que la herramienta no tenga en realidad conocimiento de cómo interaccionan la salud, la morbilidad y la edad. Algo similar sucede con el reconocimiento facial y emocional. El resultado es que pueden funcionar peor con personas mayores.
No hablamos aquí, por tanto, de cuestiones simbólicas, de discurso, sino que las discriminaciones algorítmicas plantean un acceso desigual a derechos y servicios. Y aquí está, quizá, la cuestión más importante: la literatura y distintos especialistas insisten en que no se trata de un simple error técnico ni de un mal funcionamiento puntual del algoritmo. Más bien, la IA actúa como un espejo amplificado de las estructuras sociales preexistentes. Si la sociedad normaliza el edadismo, los datos lo incorporan; si los datos lo incorporan, la IA lo aprende; y, al aprenderlo, lo reproduce a escala y con apariencia de neutralidad.