11/04/2026

Quando o algoritmo te olha: decisões na longevidade

dfg

Quem interpreta os nossos dados quando envelhecemos?

Nas sociedades longevas, o dado tornou-se um novo idioma do poder. Não apenas porque existe mais informação sobre a nossa saúde, os nossos hábitos ou os nossos movimentos, mas porque cada vez mais decisões se apoiam nessa informação. Por vezes para nos ajudar. Por vezes para nos classificar. Por vezes para nos excluir sem o dizer.

A pergunta já não é se os algoritmos chegarão à longevidade: já cá estão. A pergunta é outra, mais delicada e profundamente política: quem interpreta os nossos dados quando envelhecemos e com que critério decide?

Uma cena quotidiana

Imagina uma situação simples. Pedes uma ajuda para a dependência. Preenches um formulário. Apresentas relatórios. O sistema cruza variáveis: idade, nível de autonomia, historial de saúde, rendimentos, situação familiar, talvez até zona de residência. A partir daí, gera uma prioridade: “alta”, “média” ou “baixa”. Ninguém te explica porquê. Chega apenas a decisão.

Nada disto soa a ficção científica. Soa a administração moderna. E é. A diferença é que, em muitos casos, a decisão já não é apenas humana: é híbrida. Um modelo sugere, prioriza ou pontua. E depois alguém assina. Ou, por vezes, nem sequer é necessário assinar: o sistema decide por defeito.

Do dado ao juízo

Um dado parece inocente: um número de passos, uma análise, um historial de compras, um pedido de apoio, uma consulta médica. Mas, assim que esse dado entra num sistema, começa a transformar-se em juízo. Compara-se com padrões, cruza-se com bases de dados, traduz-se em “risco”, “probabilidade”, “prioridade”.

Na longevidade, essa tradução tem consequências reais. Pode significar acesso antecipado a uma intervenção preventiva… ou um atraso. Pode significar uma chamada de acompanhamento… ou um silêncio. Pode significar que o sistema te olhe com cuidado… ou que te olhe com suspeita.

O dado não decide sozinho. Decide a interpretação. E a interpretação, muitas vezes, já não é feita por uma pessoa.

Algoritmos que decidem sem rosto

Os algoritmos não são entidades neutras: são regras. E as regras refletem sempre valores, pressupostos e prioridades. Em áreas como saúde, serviços sociais, emprego ou crédito, cada vez mais sistemas usam modelos preditivos para atribuir recursos, detetar perfis ou antecipar cenários.

Isso pode ser útil. Pode ajudar a detetar fragilidade antes de esta se tornar evidente, a personalizar prevenção ou a ordenar listas de espera com critérios consistentes. Mas também pode ser perigoso se transformar a vida numa pontuação e a velhice num rótulo. O risco não está em existir cálculo; o risco está em impor-se como verdade incontestável.

Em sociedades longevas, o algoritmo pode transformar-se num novo intermediário entre a pessoa e a sua cidadania: decide o que merece atenção, quem encaixa, quem fica de fora. E fá-lo com uma eficácia fria: sem discutir, sem explicar, sem escutar.

O viés da idade que se torna invisível

A discriminação por idade raramente é declarada. Muitas vezes, é programada. Se um sistema aprende a partir de dados históricos —e esses dados refletem um mundo idadista— o algoritmo pode reproduzi-lo com precisão matemática.

Por vezes, o viés não aparece como “idade”, mas como substituto: diagnósticos, medicação, historial de baixas, bairro, nível de rendimento. Variáveis que parecem neutras, mas que podem funcionar como portas traseiras para excluir.

Os efeitos típicos são conhecidos: modelos que assumem que a idade equivale automaticamente a menor capacidade de aprendizagem; sistemas que atribuem menos valor à prevenção em idades avançadas; ferramentas que interpretam a fragilidade como destino e não como estado reversível; mecanismos que priorizam o “produtivo” sem reconhecer contribuições não laborais.

O problema não é apenas moral; é prático. Uma sociedade longeva que automatiza o preconceito torna-se mais injusta e mais incompetente, porque desperdiça capacidades, deteriora a confiança e multiplica a sensação de expulsão silenciosa.

Do hospital à câmara municipal… e ao mercado

O debate não se limita à medicina. A longevidade algorítmica atravessa o quotidiano: procedimentos digitais, atribuição de apoios, priorização de casos, organização de cuidados. E também o comercial: seguros, crédito, ofertas personalizadas que podem segmentar por idade de forma subtil.

Aqui surge um ponto crítico: a fratura não é apenas tecnológica; é de interpretação. Quem define “vulnerabilidade”? Que variáveis contam? O que pesa mais: viver sozinho, ter uma doença crónica, ter menos rendimentos? Se essas decisões forem automatizadas sem transparência, o que parece eficiência pode transformar-se em opacidade.

E quando o sistema é opaco, a pessoa envelhece com menos controlo sobre a sua própria vida.

O direito a entender e o direito a ser revisto

Em sociedades longevas, não basta que um sistema “funcione”. Precisamos que seja legível. A longevidade exige instituições que expliquem, não apenas que processem.

Se um algoritmo influencia decisões relevantes —saúde, dependência, acesso a recursos— deveria existir um princípio básico de dignidade democrática: o direito de compreender por que razão se decide o que se decide. E outro igualmente importante: o direito de que uma pessoa reveja, corrija ou nuance o que um modelo sugere.

A confiança social não se constrói com tecnologia, mas com transparência. E a transparência não é um documento legal: é uma cultura.

Governação do dado: cuidado, não extração

Neste ponto, a pergunta ética é inevitável: usamos dados para cuidar ou para extrair? Quando os dados se tornam mercadoria, a longevidade torna-se mercado. Quando os dados são tratados como bem público, a longevidade pode transformar-se em bem-estar.

Uma boa governação do dado deveria garantir, pelo menos: privacidade real, segurança, limites claros de uso, auditoria de vieses, explicabilidade e participação social nos critérios. Não se trata de travar a inovação, mas de evitar que a inovação nos trave enquanto cidadãos.

Uma longevidade com critério

Os dados podem ajudar-nos a antecipar fragilidade, desenhar prevenção, personalizar cuidados e melhorar políticas. Mas apenas se mantivermos uma ideia central: os algoritmos devem estar ao serviço da vida, e não a vida ao serviço dos algoritmos.

Envelhecer numa sociedade digital não deveria significar tornar-se um perfil. Deveria significar o contrário: dispor de melhores ferramentas para viver com mais autonomia, mais justiça e mais sentido.

A longevidade, na sua melhor versão, não é uma vida “calculada”. É uma vida compreendida.


Se uma decisão importante sobre a tua vida dependesse de um algoritmo, o que exigiria como cidadão: rapidez… ou explicações?