A resposta rápida é que, tal como o resto da sociedade, a Inteligência Artificial (IA) também pode discriminar-nos pela nossa idade. Na realidade discrimina-nos por muitas outras coisas, mas parece que a idade é, de novo, um aspeto fácil pelo qual discriminar. E, como já comentei outras vezes, socialmente aceite.
Sendo um tema tão candente (refiro-me à IA, porque muito receio que o idadismo receba muito menos atenção), existem numerosos estudos científicos que documentam enviesamentos por idade tanto em algoritmos clássicos como em modelos generativos. Por modelos generativos entendem-se os chatbots (esses bots com os quais falas para lhes perguntar o teu tamanho, por exemplo, ao comprar online) ou aqueles que dão lugar à geração de imagens, mas também os que aplicam sistemas de seleção de pessoal ou de diagnóstico médico. Ou seja, modelos e sistemas que são cada vez mais habituais na nossa vida quotidiana e dos quais em muitas ocasiões dependemos sem termos alternativa. Processos do dia a dia nos quais incorporámos um agente que nos discrimina. Queríamos ajuda e encontrámo-nos… com mais um problema. A inteligência artificial pode ser um avanço para certas coisas, mas traz-nos problemas consigo, enfim.
Convém, no entanto, recalcar algo: a IA não “nasce” idadista nem discrimina por intenção própria, não discrimina “porque sim”, mas sim como resultado da aprendizagem. A IA aprende a discriminar porque… é o que vê, o que conhece. Reproduz o idadismo presente nos dados que a alimentam e nos quais se baseia, nos que estão no desenho dos sistemas e em como são implementados. A IA, recordemo-lo, não inventa nada; apenas repete (por isso não recomendo aos meus estudantes que a usem, entre outras coisas). Assim, se a sua base de dados é o mundo que existe, e este é idadista, machista… então que resultados poderíamos esperar? A IA não “inventou” uma discriminação, mas sim amplificou e reiterou a que já existe.
Então, se já existe previamente… porque é o idadismo da IA um problema específico ao qual prestar atenção? Porque não se trata de que uma pessoa num determinado lugar, a realizar uma determinada tarefa (ou muitas pessoas, muitos lugares, muitas tarefas) tenha/m um enviesamento; o problema é que esse enviesamento se escala e se repete milhares de vezes por dia, sem dar lugar a revisão ou a duplos pensamentos, e isto sucede em decisões que afetam o acesso ao emprego, a serviços, a informação ou até à atenção sanitária.
Mas, o que significa que a IA é idadista? Como vai ser idadista algo não tangível? Não basta fechar o computador e pronto? O idadismo algorítmico produz-se quando um sistema de IA representa as pessoas mais velhas mediante estereótipos (fragilidade, dependência, doença, isolamento), quando as invisibiliza (não aparecem nos dados ou nos exemplos), mas também quando responde pior quando são elas que a usam (por exemplo, mais erros no reconhecimento de voz nos atendedores automáticos tão horríveis que nos atendem quando ligamos para determinadas companhias), quando as exclui como utilizadoras por desenhos pouco acessíveis ou, um dos casos mais terríveis, quando toma decisões discriminatórias por idade. A este respeito, por se for de interesse, a socióloga Justyna Stypińska explica que a discriminação não aparece apenas no resultado final do sistema, mas também nos dados com que aprende, nas decisões de desenho e na própria invisibilidade das pessoas mais velhas no ecossistema tecnológico.
A evidência científica diz-nos que o mais habitual é encontrar imagens estereotipadas da velhice na IA generativa. Um estudo longitudinal recente (de Martens et al., 2025) analisou 164 imagens geradas por DALL·E sobre pessoas mais velhas e encontrou que, após um ano, continuavam a aparecer traços de idadismo digital, predominando a associação das pessoas mais velhas com fragilidade, deterioração e emoções neutras ou negativas (como se a idade nos retirasse a capacidade de sentir), além do já habitual predomínio de pessoas brancas (para surpresa de ninguém). O mais preocupante, penso eu, não é apenas o enviesamento em si, mas a sua persistência: longe de se corrigir com o tempo, o sistema continuava a reproduzir praticamente os mesmos imaginários sociais negativos sobre a velhice. Ou seja, a tecnologia não “aprendia” a representar melhor a diversidade do envelhecimento, mas continuava a devolver-nos o mesmo olhar estereotipado que já existe na sociedade.
Os trabalhos recentes sobre modelos de linguagem (o que se conhece como chatbots) mostram que também as suas respostas refletem enviesamentos por idade. Alguns estudos analisam de forma específica isso do “idadismo benevolente” de que já falámos noutras ocasiões: uma forma de paternalismo aparentemente positiva (“os mais velhos precisam de ajuda”, “são menos adaptáveis”) que, na realidade, reforça estereótipos.
Não aparece de forma explícita ou hostil, mas aparece revestido de empatia, infantilizando, porém, as pessoas mais velhas. Além disso, considera-as vulneráveis (pela sua idade, não por outras questões) e presume-as incapazes tecnologicamente. Alguns exemplos da vida diária poderiam ser um chatbot bancário que, ao detetar que a pessoa tem mais idade, ofereça automaticamente instruções “simplificadas” sem lhe perguntar o que precisa; um assistente virtual que pressuponha que não sabe usar uma app; ou um sistema que recomende conteúdos relacionados com dependência, saúde ou cuidados simplesmente porque interpreta que a pessoa utilizadora é mais velha. Não está a “insultar”, mas está, sim, a construir uma ideia muito concreta de quem é essa pessoa e do que supostamente pode ou não pode fazer.
Parece-me quase gracioso pensar em como a IA assume menor conhecimento por parte das pessoas de mais idade. Imagino a IA a “pensar” de si mesma: “sou demasiado sofisticada para que as pessoas mais velhas me entendam”. Na realidade, não deixa de ser a tradução tecnológica de preconceitos (muito) humanos.
Em âmbitos de alto impacto, como os do emprego e da saúde, os riscos são ainda maiores. Por exemplo, algumas empresas utilizam sistemas de triagem curricular para filtrar candidaturas. Estes sistemas podem penalizar trajetórias longas, datas de titulação antigas ou perfis com muita experiência, invisibilizando assim perfis seniores. Como se já não fosse suficientemente difícil aceder ao emprego em determinadas idades por causa dos preconceitos existentes, aqui o problema é ainda mais profundo: não é que quem contrata não te queira pela tua idade; é que nem sequer chega a saber que existes.
Preocupa-me especialmente nos sistemas de saúde, onde “governam” modelos treinados com populações nas quais as pessoas mais velhas estão sub-representadas, o que faz com que a ferramenta não tenha, na realidade, conhecimento de como interagem a saúde, a morbilidade e a idade. Algo semelhante sucede com o reconhecimento facial e emocional. O resultado é que podem funcionar pior com pessoas mais velhas.
Não falamos aqui, portanto, de questões simbólicas, de discurso, mas sim de que as discriminações algorítmicas colocam um acesso desigual a direitos e serviços. E aqui está, talvez, a questão mais importante: a literatura e diferentes especialistas insistem em que não se trata de um simples erro técnico nem de um mau funcionamento pontual do algoritmo. Antes, a IA atua como um espelho amplificado das estruturas sociais preexistentes. Se a sociedade normaliza o idadismo, os dados incorporam-no; se os dados o incorporam, a IA aprende-o; e, ao aprendê-lo, reprodu-lo em escala e com aparência de neutralidade.