A Inteligência Artificial (IA) está rapidamente se tornando central na tomada de decisões ambientais. Mas, a menos que as vozes das mulheres, o trabalho e as realidades vividas estejam incorporadas nos seus alicerces, corre o risco de reforçar as próprias desigualdades que afirma resolver.
Em muitas partes do mundo, as mulheres estão na linha da frente do stress climático. De acordo com as Nações Unidas, se as tendências actuais se mantiverem, estima-se que 341 milhões de mulheres ainda carecerão de electricidade em 2030 – 85 por cento deles na África Subsariana – e serão forçados a depender de combustíveis dispendiosos e que exigem muita mão-de-obra. Mulheres em todo o mundo também gastam coletivamente 200 milhões de horaso equivalente a quase 23 mil anos, transportando água todos os dias em vez de estudar, ganhar dinheiro ou participar na vida pública; um grande data center de IA pode consumir até 5 milhões de galões de água por dia para manter seus servidores resfriados. À medida que as mulheres racionam todos os baldes e fazem fila nas torneiras comunitárias, estas instalações garantem o acesso à água através de contratos de longo prazo e incentivos públicos. Os centros de dados também obtêm energia ininterrupta das redes nacionais, prevendo-se que a sua procura de electricidade aumente para cerca de 1.050 terawatts-hora anualmente— no mesmo nível de alguns dos maiores consumidores nacionais de energia do mundo.
A divisão digital de gênero
Apesar do seu papel central na sociedade, as mulheres enfrentam barreiras persistentes ao acesso e à representação digital, resultando na sua sub-representação nos dados de formação em IA, na concepção de sistemas e nos processos de governação. Em muitas regiões, as mulheres enfrentam barreiras estruturais à conectividade à Internet e aos dispositivos informáticos – as condições básicas exigidas para a participação digital. Os homens são 21% mais probabilidade de estar online em todo o mundo, com a diferença aumentando para 52% nos países menos desenvolvidos. Isto significa que as mulheres estão sistematicamente sub-representadas nas infraestruturas de dados que informam cada vez mais a política climática e energética.
E mesmo quando o acesso está disponível, as evidências da adoção da IA demonstram que esta desigualdade persiste. Um análise de 133 sistemas de IA descobriram que 44,2% apresentavam preconceito de género, enquanto 25,7% apresentavam preconceito de género e racial. Evidências globais mostram que as mulheres são 20-25 por cento menos propensos do que os homens a adotar ferramentas generativas de IA em condições iguais de acesso e exposição. As mulheres também enfrentam maiores riscos de automação permanecendo sub-representado na força de trabalho de IA e no acesso à infraestrutura digital. Estes padrões são importantes porque os sistemas de IA moldam cada vez mais a tomada de decisões relacionadas com o ambiente, incluindo modelação de riscos, previsão de desastres, preços de seguros, previsão de energia e atribuição de recursos.
Por exemplo, os modelos de resposta a catástrofes, na ausência da contribuição das mulheres, podem dar prioridade à recuperação de activos, negligenciando questões críticas – especialmente aquelas enfrentadas desproporcionalmente pelas mulheres – como a exposição prolongada ao calor, as condições de segurança e saneamento dos abrigos de evacuação, a continuidade da medicação durante a deslocação e as perdas informais de rendimentos. Quando estas dimensões de género dos danos climáticos não são codificadas em conjuntos de dados ou critérios de decisão, não moldam apenas os resultados. Com o tempo, este padrão corre o risco de redefinir prioridades em torno do que está presente nos dados e é mais fácil de quantificar.
A Geografia da IA
Fatores intersetoriais como classe, raça, casta, estatuto migratório, geografia e idade revelam ainda mais como a governação climática impulsionada pela IA alinha o poder tecnológico com o privilégio social, reforçando as desigualdades existentes. As geografias dos centros de dados – onde estão localizados e quem é chamado a viver com os seus riscos – revelam frequentemente mecanismos de injustiça. As instalações de IA estão cada vez mais agrupadas em regiões já marcadas pela vulnerabilidade ambiental, proteções regulamentares fracas e influência política limitada. Esta concentração espacial contribui para uma história mais longa em que as infra-estruturas com utilização intensiva de recursos foram justificadas em nome do desenvolvimento económico, prejudicando ao mesmo tempo as comunidades marginalizadas. A distribuição da pegada material da IA mostra como as mulheres, especialmente as mulheres negras, absorvem desproporcionalmente as consequências quotidianas da degradação ambiental.
No Sul dos EUA, por exemplo, mais de 1.000 centros de dados estão em operação ou propostos, com muitas dessas instalações localizadas em partes da Geórgia, Alabama, Carolina do Sul, Mississippi e Tennessee. Estas ocorrem frequentemente em condados e bairros com grandes populações negras e hispânicas, e em comunidades onde as mulheres já enfrentam os maiores encargos energéticos do país e legados de localização tóxica. Bolsa de justiça reprodutiva indica que as mulheres que vivem em bairros excessivamente poluídos já estão sujeitas a riscos elevados de pré-eclâmpsia, diabetes gestacional, resultados adversos no parto, redução da fertilidade e miomas associados à exposição crónica a partículas finas e à poluição atmosférica relacionada com o trânsito. A colocação e expansão contínuas de centros de dados de IA nestas regiões podem aprofundar as desigualdades existentes na saúde reprodutiva, em vez de as aliviar através do crescimento económico – a menos que as salvaguardas de justiça ambiental e reprodutiva impulsionadas pela comunidade sejam significativamente integradas nos processos de localização, regulação e supervisão.
Estas dinâmicas não se limitam aos Estados Unidos: estão inseridas numa divisão global Norte-Sul mais ampla na economia política da IA. Neste sentido, a geografia global da IA está a clonar divisões historicamente desiguais de trabalho e valor, rearticuladas através de infra-estruturas digitais e físicas contemporâneas. A exclusão sistemática do conhecimento, do trabalho e da experiência vivida pelas mulheres da IA climática e ambiental criará um ciclo de feedback reforçador no qual as mulheres serão exploradas física e digitalmente, com os benefícios fornecidos apenas a algumas. Este aspecto permanece em grande parte invisível à medida que se desenrola nas estruturas computacionais. No entanto, as consequências globais podem ser desastrosas.
Centrando o feminismo no futuro climático da IA
A IA deve abordar questões de parcialidade, representação e inclusão nos seus dados e algoritmos. Deve também interrogar a forma como o conhecimento é produzido e utilizado – através de infraestruturas digitais que intensificam as injustiças sociais e amplificam o risco ambiental para as mulheres e as comunidades marginalizadas em todo o mundo. Uma avaliação da IA e dos Objetivos de Desenvolvimento Sustentável (ODS) descobriram que, embora a IA pudesse potencialmente apoiar 134 das 169 metas dos ODS, menos de 2% dos casos de utilização de IA documentados visam explicitamente o ODS-5 (igualdade de género), em comparação com mais de 25% centrados no ODS-7 (energia limpa e acessível) e no ODS-13 (ação climática) combinados.
Sem considerar a participação e as necessidades das mulheres em todo o mundo, a IA na tomada de decisões ambientais funciona como um mecanismo de expropriação e exploração, extraindo valor do tempo, do trabalho de cuidados e da gestão ambiental das mulheres, ao mesmo tempo que limita o seu papel na tomada de decisões e na distribuição de benefícios. Uma abordagem feminista à governação da IA, à medida que molda os sistemas climáticos e ambientais, precisa de ser prontamente adoptada, abordando questões como quem produz dados, cujo trabalho é reconhecido, quem suporta os custos ambientais e quem participa na tomada de decisões.
Responder a estas dinâmicas requer investimentos coordenados nas competências digitais e verdes das mulheres, infraestruturas de dados que tenham em conta as economias informais e de cuidados, responsabilidade ambiental obrigatória em todas as cadeias de abastecimento de IA e papéis de liderança para as mulheres nas instituições climáticas e tecnológicas. Em conjunto, estas intervenções podem promover a justiça distributiva, permitindo que as pessoas mais expostas aos riscos climáticos e de IA moldem e beneficiem do futuro que estes sistemas criam. Sem estas medidas, não pode haver justiça climática.
Pavi Selvakumar é pesquisador de pós-doutorado na Columbia Climate School. Ela está interessada em explorar como a IA e a justiça climática podem ser integradas para apoiar o planeamento equitativo de resiliência nas comunidades da linha da frente.
Marco Tedesco é professor pesquisador do Observatório Terrestre Lamont-Doherty e cientista adjunto do Instituto Goddard de Estudos Espaciais da NASA.
As opiniões e opiniões expressas aqui são de responsabilidade dos autores e não refletem necessariamente a posição oficial da Columbia Climate School, do Earth Institute ou da Columbia University.




