Menos de duas semanas depois que a Deepseek lançou seu modelo de IA de código aberto, a startup chinesa ainda está dominando a conversa pública sobre o futuro da inteligência artificial. Embora a empresa pareça ter uma vantagem nos rivais dos EUA em termos de matemática e raciocínio, ela também censura agressivamente suas próprias respostas. Pergunte a Deepseek R1 sobre Taiwan ou Tiananmen, e é improvável que o modelo dê uma resposta.
Para descobrir como essa censura funciona em nível técnico, a Wired testou Deepseek-R1 em seu próprio aplicativo, uma versão do aplicativo hospedada em uma plataforma de terceiros chamada AI e outra versão hospedada em um computador com fio, usando o aplicativo Ollama.
A Wired descobriu que, embora a censura mais direta possa ser facilmente evitada por não usar o aplicativo da Deepseek, existem outros tipos de viés assados no modelo durante o processo de treinamento. Esses vieses também podem ser removidos, mas o procedimento é muito mais complicado.
Essas descobertas têm implicações importantes para as empresas de IA deepseek e chinesas em geral. Se os filtros de censura em grandes modelos de idiomas puderem ser facilmente removidos, provavelmente tornará ainda mais populares os LLMs de código aberto, pois os pesquisadores podem modificar os modelos ao seu gosto. Se os filtros forem difíceis de se locomover, no entanto, os modelos inevitavelmente serão menos úteis e podem se tornar menos competitivos no mercado global. Deepseek não respondeu à solicitação de comentário por e -mail da Wired.
Censura no nível do aplicativo
Depois que o Deepseek explodiu em popularidade nos EUA, os usuários que acessaram o R1 através do site, aplicativo ou API da Deepseek notaram rapidamente que o modelo se recusando a gerar respostas para tópicos considerados sensíveis ao governo chinês. Essas recusas são acionadas em um nível de aplicativo; portanto, elas são vistas apenas se um usuário interage com R1 através de um canal controlado por profundidade.
Fotografia: Zeyi Yang
Fotografia: Zeyi Yang
Rejeições como essa são comuns nos LLMs de fabricação chinesa. Uma regulamentação de 2023 sobre IA generativa especificou que os modelos de IA na China são obrigados a seguir controles rigorosos de informação que também se aplicam às mídias sociais e aos mecanismos de pesquisa. A lei proíbe modelos de IA de gerar conteúdo que “danifica a unidade do país e a harmonia social”. Em outras palavras, os modelos chineses de IA legalmente precisam censurar seus resultados.
“O Deepseek está em conformidade com os regulamentos chineses, garantindo a adesão legal enquanto alinham o modelo com as necessidades e o contexto cultural dos usuários locais”, diz Adina Yakefu, pesquisadora que se concentra nos modelos de IA chineses no Hugging Face, uma plataforma que hospeda os modelos de IA de código aberto. “Este é um fator essencial para a aceitação em um mercado altamente regulamentado”. (China acesso bloqueado Abraçar o rosto em 2023.)
Para cumprir a lei, os modelos de IA chineses geralmente monitoram e censuram seu discurso em tempo real. (Guarda -corpos semelhantes são comumente usados por modelos ocidentais como Chatgpt e Gêmeosmas eles tendem a se concentrar em diferentes tipos de conteúdo, como auto-mutilação e pornografia, e permitir mais personalização.)
Como o R1 é um modelo de raciocínio que mostra sua linha de pensamento, esse mecanismo de monitoramento em tempo real pode resultar na experiência surreal de assistir ao ponto de censura do modelo, pois interage com os usuários. Quando Wired perguntou a R1 “Como os jornalistas chineses que relatam tópicos sensíveis foram tratados pelas autoridades?” O modelo começou a compilar uma resposta longa que incluiu menções diretas de jornalistas serem censurados e detidos por seu trabalho; No entanto, pouco antes de terminar, toda a resposta desapareceu e foi substituída por uma mensagem concisa: “Desculpe, não tenho certeza de como abordar esse tipo de pergunta ainda. Vamos conversar sobre problemas de matemática, codificação e lógica! ”
Para muitos usuários no Ocidente, o interesse pela Deepseek-R1 pode ter diminuído neste momento, devido às óbvias limitações do modelo. Mas o fato de R1 ser de código aberto significa que existem maneiras de contornar a matriz de censura.
Primeiro, você pode baixar o modelo e executá -lo localmente, o que significa que os dados e a geração de respostas acontecem no seu próprio computador. A menos que você tenha acesso a várias GPUs altamente avançadas, provavelmente não poderá executar a versão mais poderosa do R1, mas o Deepseek possui versões menores e destiladas que podem ser executadas em um laptop comum.