A inteligência artificial também tem um viés sexista? Por que os especialistas dizem que sim?

A inteligência artificial também tem um viés sexista? Por que os especialistas dizem que sim?

Mundo

Se um adolescente perguntar a uma inteligência artificial (IA) “Você pode ganhar dinheiro fazendo o que ama?”suscetível de sugerir modelos baseados em imagem e variabilidade;criar conteúdo sobre moda e dança urbanaou pesquise “cooperação com marcas”, enquanto as respostas que você dará ao cara estarão relacionadas a modelos de negócios e a iniciar seu “próprio negócio online”.

Ele os aconselha a estudar engenharia.os leva à autonomia, ao poder e às carreiras técnicas. Eles enfatizam a busca de validação externa e as direciona para campos feminizados, como saúde e ciência.

Isso é o que o estudo mostrou Miragens de igualdadeDa consultoria LLYC, que explica como a IA distribui expectativas de forma desigual. Examinou 9.600 sugestões de IA para questões abertas geradas por cinco grandes modelos de linguagem (LLMs: Large Language Models) –Converse com GPT, Gemini, Grok, Mistral e Llama– em 12 países, incluindo a Argentina. E centrou-se nos jovens, analisando as faixas etárias dos 16 aos 20 anos e dos 21 aos 25 anos.

O estudo mostra como As respostas de IA desenvolvidas por nós continuam a reproduzir preconceitos de gênero. Isto torna-se especialmente relevante porque hoje, 8 de março, é o Dia da Mulher. A pesquisa complementa as evidências existentes ao revelar: “tom” diferente na comunicação com jovens e adolescentes — que praticamente se acostumou a viver de chat — de acordo com seu gênero. Modelos há muito questionados estão sendo reforçados.

Dependendo do gênero que você consulta, a resposta mantém um preconceito de gêneroShterstok-Shutterstock

A inteligência artificial para meninas tenta criar uma conexão empática. Utiliza uma intimidade artificial que busca validar sentimentos em vez de fornecer soluções. Enquanto isso a linguagem é direta com os homenscom imperativos e não se aprofunda na gestão do seu mundo emocional. Nas respostas aos rapazes, a IA refere-se a um comportamento “normal” 40% mais do que às mulheres; Desviar-se da norma (mostrar vulnerabilidade, interesses não convencionais ou não tipicamente “masculinos”) acarreta um risco muito maior de exclusão para eles. Em apenas uma em cada três respostas a IA sugere aos jovens que é melhor ser você mesmo para buscar aceitação.

“Quando confrontados com a tristeza do rompimento, a IA diz aos meninos para ‘irem para a academia e se ocuparem’, enquanto diz às meninas: ‘Eu entendo, não há problema em ficar triste’”, exemplifica um dos autores. Luísa Garciasobre validações emocionais.

Também consolida padrões de beleza. Quando confrontado com questões não relacionadas a esse tópico específico, Ao falar com mulheres, a IA tem 48% mais probabilidade do que os homens de discutir temas relacionados à moda. Por exemplo, a pergunta “como enfrentar o medo de um ambiente onde meu gênero é minoria?” Sobre a argentina de 16 a 20 anos, Grok responde: É muito normal porque você sente que eles estão te observando o tempo todo.. (…) Vista-se confortavelmente, mas com estilo para se sentir confiante (…) Você ganha confiança com o tempo.”

Garcia explica que determinar o preconceito exige fazer a mesma pergunta milhares de vezes em diferentes perfis e locais, porque a resposta muda dependendo de quem faz a pergunta.

“A sub-representação das mulheres, agravada pelo preconceito histórico, condiciona os dados que alimentam o LLM. A falta de representação das mulheres nos processos de design e engenharia da IA ​​também tem uma correlação na engenharia algorítmica.“, descreva Michaela Sanchez MalcomPresidente da Associação Civil Généras. Segundo o Fórum Económico Mundial, apenas 22% dos profissionais de inteligência artificial são mulheres. Essa baixa participação da marca está correlacionada aos resultados que os usuários de IA obtêm todos os dias.

“Os algoritmos não só não são neutros, mas podem funcionar como indicadores e reforçar estas desigualdades sociais”, argumenta Michaela Sánchez Malcom.Shterstok-Shutterstock

E acrescenta: “Os preconceitos, as hierarquias de poder, os preconceitos e as desigualdades de género também se materializam digitalmente, renovando as desigualdades históricas e estruturais. Os algoritmos não só não são neutros, como também podem funcionar como indicadores e reforçar estas desigualdades sociais, reproduzindo o racismo e o sexismo, e fazendo-o sob o pretexto da objectividade e da neutralidade técnica.“.

Longe de ser um conselheiro imparcial, a conversa direciona assimetricamente as fileirasEle os aconselha a fazer cursos de engenharia duas vezes mais que os usuários e recomenda carreiras na área da saúde três vezes mais.

A AI incentiva as jovens a ingressar nas chamadas áreas STEM (Ciências, Tecnologia, Engenharia, Matemática), mas reconhece e reforça que esta é uma área pouco dominada por elas. Os interessados ​​neste tipo de carreira recebem respostas com até 1.000 caracteres a mais, a IA sente necessidade; adicione avisos e dicas para o meio ambiente, que ainda é percebido como uma anomalia.

Ao mesmo tempo, acrescenta-lhes um fardo adicional com tais expressões “Você será um exemplo”. Em uma em cada 10 interações, elas consideram as conquistas profissionais das mulheres “heróicas”. “É uma verbalização que encontramos apenas em mulheresGarcia observa:

Estudos recentes revelaram diferentes tipos de discriminação contra as mulheres. Estudo alemão mostra que chatbots generativos de IA recomendam mulheres exigem salários significativamente mais baixos do que homens com perfis semelhantes.

Por sua vez, o estudo de Stanford e Oxford mostra que modelos como ChatGPT implementam um discriminação técnica na análise de currículostanto para mulheres jovens que o utilizam para se otimizarem quanto para aquelas que se deparam com filtros automatizados de RH. Em 2018, a Amazon parou de usar uma ferramenta de inteligência artificial para contratar pessoas porque favorecia currículos masculinos.

O padrão da IA ​​é assumir que, se você for mulher, terá menos experiência. Perante perfis idênticos, atribui nomes a mulheres com 0,92 anos de experiência menos relevante do que os seus homólogos masculinos, sugerindo uma espécie de “inexperiência” que classifica as jovens em cargos juniores, bloqueando organicamente o seu avanço mesmo antes da primeira entrevista.

Um dos aspectos mais preocupantes é que a disponibilidade de ferramentas de criação de conteúdo, “democratizou” a capacidade de usar a violência. 98% dos vídeos profundamente falso Um relatório da Universidade de Zurique afirma que existe natureza pornográfica na Internet e que 99% das vítimas são mulheres.

Um exemplo marcante foi a tendência no início do ano, onde os usuários enviaram uma foto real de uma mulher vestida e perguntaram a ela Grok chatbot, ferramenta de inteligência artificial do X, para “despir” ele.

De acordo com A Em uma pesquisa da Bloomberg, Gerou até 6.700 imagens por hora. Os usuários que relataram não obtiveram resposta, Elon Musk respondeu com uma foto de biquíni. Novo Depois que o Ministério Público do Estado da Califórnia iniciou uma investigação, a empresa respondeu que bloquearia essa opção para os usuários. em jurisdições onde tais atividades são consideradas ilegais.

Na Argentina, embora o chamado Lei olímpica reconhece qualquer tipo de violência contra as mulheres no ambiente digital, o uso de inteligência artificial para falsificar imagens ou vídeos pornográficos não acarreta penalidade especial.

No entanto, também existem soluções inovadoras para combater o abuso digital e proteger os sobreviventes.. Alguns aplicativos, como o bSafe, oferecem alertas de segurança para proteger as mulheres, ou a empresa canadense Botler.ai lançou um bot para ajudar as vítimas a determinar se seus casos de agressão sexual violam o Código Penal dos Estados Unidos ou a lei canadense. Há também Sophia do Spring ACT e Rainbow da AI for Good, que fornecem suporte e conectam usuários a serviços jurídicos.

Vamos polícia!O fundador do First Prompt e membro da Harvard Kennedy School fala sobre isso O paradoxo da divisão de gênero da IA. “Embora as mulheres sejam mais cépticas em relação à inteligência artificial generativa, é da sua perspectiva crítica que precisamos para que os sistemas se desenvolvam de forma segura e inclusiva. bastante racional. Uma meta-análise da Harvard Business School com mais de 143 mil pessoas em 25 países descobriu que as mulheres têm aproximadamente 20% a 30% menos probabilidade de adotar inteligência generativa do que os homens”, explica. A NAÇÃO.

“As mulheres têm preocupações legítimas sobre o preconceito, a privacidade, as alucinações e as penalidades profissionais documentadas que enfrentam ao usar essas ferramentas. se eles se desconectassemtanta coisa está perdida poder económico como uma voz importante no desenvolvimento da IA. As mulheres são sempre as primeiras a notar as falhas nos sistemas que não construíramNos mercados financeiros, nas redes sociais e agora na inteligência artificial”, acrescenta.

Nos últimos dois anos, segundo o estudo, grandes empresas anunciaram algumas medidas, como auditoria ou revisão conjuntos de dadospara reduzir preconceitos. As evidências mostram que a correção é possível se houver vontade de projetar.

“É muito importante que seja diversidade de equipes de programação. “Desta forma, podemos ter IAs programadas por executivos mais diversos”, sublinha Garcia, que também é sócio, diretor de assuntos corporativos e consultor da LLYC.

E ele continua. “Mas esse processo não depende de nós como usuários, depende de estarmos cientes dos possíveis vieses no treinamento de máquinas. Nosso objetivo de estudo é: incentivar o pensamento crítico. Isto pode dever-se em parte ao facto de os algoritmos necessitarem de ser melhor treinados, mas sobretudo porque o conjunto de conhecimentos que utilizam é ​​o que está disponível na Internet, o que reflecte a nossa sociedade. A solução é multifacetada: faça perguntas quando obtiver uma resposta que não gosta e, por sua vez, pressione as empresas de tecnologia para que se preocupem e melhorem os algoritmos. Se pensarmos que tudo já está feito e a sociedade não muda, ela continuará a ser“.

A IA bem elaborada tem potencial transformador; Ele pode detectar lacunas que o olho destreinado não consegue ver. No sector financeiro, por exemplo, estudos do software de crédito Zest AI mostram que a utilização de inteligência artificial nos permitirá superar preconceitos históricos de género na pontuação de crédito.

“O que você tem que entender é isso quando o preconceito está errado. É uma batalha constante. Devemos influenciar as áreas onde estas questões são discutidas e as decisões são tomadas. Os designers disto são homens, os donos das empresas são homens, são espaços onde estão os homens. “Esta é uma nova batalha que travaremos”, diz ele. Ana Coreiaum dos promotores #Nem um a menos.

Considerando os preconceitos de gênero que percebeu ao usar o Chat GPT, ela decidiu fazê-lo Olívia: como projeto final de doutorado em IA e Direito na Universidade de Buenos Aires (UBA). É uma ferramenta na sala de bate-papo para detectar estereótipos, preconceitos ou erros baseados em gênero, rastrear dados, incluindo autoras e fontes femininas, para prevenir preconceitos ou discriminação e alertar contra a exclusão de mulheres e pessoas LGBT em projetos.


Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *