Xai culpou uma “modificação não autorizada” por um bug em seu chatbot Grok, movido a IA, que fez com que Grok fosse se referir repetidamente “Genocídio branco na África do Sul” quando invocado em certos contextos em X.
Na quarta -feira, Grok começou a responder a dezenas de postagens em X com informações sobre o genocídio branco na África do Sul, mesmo em resposta a assuntos não relacionados. As respostas estranhas surgiram da conta X da GROK, que responde a pessoas com postagens geradas pela IA sempre que um usuário tagis “@grok”.
De acordo com um post na quinta-feira da conta Official X da XAI, uma mudança foi feita quarta-feira de manhã para o prompt do sistema do Grok Bot-as instruções de alto nível que guiam o comportamento do bot-que instruíram Grok a fornecer uma “resposta específica” sobre um “tópico político”. Xai diz que o ajuste “violou [its] Políticas internas e valores essenciais ”e que a empresa“ conduziu uma investigação completa ”.
É a segunda vez que Xai reconhece publicamente uma mudança não autorizada no código de Grok fez com que a IA respondesse de maneiras controversas.
Em fevereiro, Grok censurou brevemente menções não lisonjeiras a Donald Trump e Elon Musk, o bilionário fundador da Xai e proprietário de X. Igor Babuschkin, líder de engenharia da Xai, disse que Grok havia sido instruído por um funcionário desonesto Ignorar fontes que mencionaram Musk ou Trump espalhando desinformação e que Xai reverteu a mudança assim que os usuários começaram a apontá -la.
Xai disse na quinta -feira que fará várias alterações para impedir que incidentes semelhantes ocorram no futuro.
A partir de hoje, a Xai publicará o sistema de Grok no GitHub e em um Changelog. A empresa diz que também “estabelecerá cheques e medidas adicionais” para garantir que os funcionários da XAI não possam modificar o prompt do sistema sem revisar e estabelecer uma “equipe de monitoramento 24/7 para responder a incidentes com as respostas de Grok que não são capturadas por sistemas automatizados”.
Apesar dos avisos frequentes de Musk sobre os perigos de Ai perdido sem controleXai tem um pobre histórico de segurança de IA. Um relatório recente descobriram que Grok despiria fotos de mulheres quando solicitado. O chatbot também pode ser consideravelmente mais grosseiro do que a IA como o Gemini e o Chatgpt, do Google, xingando sem muita restrição de falar.
Um estudo de Saferéi, uma organização sem fins lucrativos que tem como objetivo melhorar a prestação de contas dos laboratórios de IA, encontrou a XAI classificando mal a segurança entre seus pares, devido a seu Práticas de gerenciamento de risco “muito fracas”. No início deste mês, a Xai perdeu um prazo auto-imposto para publicar uma estrutura de segurança de IA finalizada.