O Instituto Nacional de Padrões e Tecnologia (NIST) emitiu novas instruções para os cientistas que fazem parceria com o Instituto de Segurança de Inteligência Artificial dos EUA (AISI) que eliminam a menção de “segurança da IA”, “AI responsável” e “Fairness de IA”, que espera que os membros do humano e a flha -humana de priorizar a fina -humana para o humano, para priorizar a flha -reológica.
As informações são como parte de um contrato de pesquisa e desenvolvimento cooperativo atualizado para membros do Consórcio do Instituto de Segurança da IA, enviado no início de março. Anteriormente, esse acordo incentivava os pesquisadores a contribuir com o trabalho técnico que poderia ajudar a identificar e corrigir o comportamento discriminatório do modelo relacionado a gênero, raça, idade ou desigualdade de riqueza. Tais vieses são extremamente importantes porque podem afetar diretamente os usuários finais e prejudicar desproporcionalmente as minorias e os grupos economicamente desfavorecidos.
O novo contrato remove a menção do desenvolvimento de ferramentas “para autenticar conteúdo e rastrear sua proveniência”, além de “rotular o conteúdo sintético”, sinalizar menos interesse em rastrear desinformação e falsificações profundas. Também acrescenta ênfase em colocar a América em primeiro lugar, pedindo a um grupo de trabalho para desenvolver ferramentas de teste “para expandir a posição global da IA da América”.
“O governo Trump removeu a segurança, a justiça, a desinformação e a responsabilidade como coisas que ele valoriza para a IA, que eu acho que fala por si”, diz um pesquisador de uma organização que trabalha com o Instituto de Segurança da IA, que pediu para não ser nomeado por medo de represálias.
O pesquisador acredita que ignorar essas questões pode prejudicar os usuários regulares, possivelmente permitindo que algoritmos que discriminem com base na renda ou em outros dados demográficos não sejam desmarcados. “A menos que você seja um bilionário de tecnologia, isso levará a um futuro pior para você e para as pessoas de quem você gosta. Espere que a IA seja injusta, discriminatória, insegura e implantada irresponsável ”, afirma o pesquisador.
“É selvagem”, diz outro pesquisador que trabalhou com o Instituto de Segurança da IA no passado. “O que significa que os humanos florescem?”
Elon Musk, que atualmente está liderando um esforço controverso para reduzir os gastos do governo e a burocracia em nome do presidente Trump, criticou os modelos de IA construídos pelo Openai e Google. Em fevereiro passado, ele postou um meme no X no qual Gêmeos e Openai foram rotulados como “racistas” e “acordou”. Ele frequentemente cita Um incidente em que um dos modelos do Google debateu se seria errado incorporar alguém, mesmo que isso impedisse um apocalipse nuclear – um cenário altamente improvável. Além de Tesla e SpaceX, Musk dirige a XAI, uma empresa de IA que compete diretamente com o Openai e o Google. Um pesquisador que aconselha a Xai desenvolveu recentemente uma nova técnica para possivelmente alterar as tendências políticas de grandes modelos de idiomas, conforme relatado pela Wired.
Um corpo crescente de pesquisas mostra que o viés político nos modelos de IA pode afetar os dois liberais e conservadores. Por exemplo, Um estudo do algoritmo de recomendação do Twitter Publicado em 2021 mostrou que os usuários eram mais propensos a serem mostrados perspectivas de direita na plataforma.
Desde janeiro, o chamado Departamento de Eficiência do Governo (DOGE) de Musk vem varrendo o governo dos EUA, demitindo efetivamente funcionários públicos, pausando os gastos e criando um ambiente que se considera hostil àqueles que podem se opor aos objetivos do governo Trump. Alguns departamentos governamentais, como o Departamento de Educação, arquivaram e excluíram documentos que mencionam Dei. Doge também tem como alvo o NIST, a organização dos pais da AISI, nas últimas semanas. Dezenas de funcionários foram demitidas.