19 C
Munique
segunda-feira, junho 16, 2025

O relatório de segurança prometido de Xai é MIA

Must read


A empresa de AI de Elon Musk, Xai, perdeu um prazo auto-imposto Publicar uma estrutura de segurança de IA finalizada, conforme observado pelo grupo Watchdog, o projeto MIDAS.

Xai não é exatamente conhecido por seus fortes compromissos com a segurança da IA, pois é comumente entendida. Um relatório recente descobriram que o AI Chatbot da empresa, Grok, despiria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que chatbots como Gemini e Chatgpt, xingando sem muita restrição de falar.

No entanto, em fevereiro na cúpula de Ai Seoul, uma reunião global de líderes e partes interessadas da IA, Xai publicou um rascunho da estrutura descrevendo a abordagem da empresa à segurança da IA. O documento de oito páginas estabeleceu as prioridades e filosofia de segurança da Xai, incluindo os protocolos de benchmarking da empresa e considerações de implantação de modelos de IA.

Como o projeto MIDAS observou em uma postagem no blog na terça -feira, no entanto, o rascunho se aplicava apenas a modelos futuros de IA não especificados “não estão atualmente em desenvolvimento”. Além disso, não conseguiu articular como Xai identificaria e implementaria mitigações de risco, um componente central de um documento a empresa assinado na cúpula da AI Seoul.

No rascunho, Xai disse que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – até 10 de maio. O prazo veio e foi sem reconhecimento nos canais oficiais de Xai.

Apesar dos avisos frequentes de Musk sobre os perigos de Ai perdido sem controleXai tem um pobre histórico de segurança de IA. Um estudo recente de Saferéi, uma organização sem fins lucrativos com o objetivo de melhorar a responsabilidade dos laboratórios de IA, descobriu que a XAI se classifica mal entre seus pares, devido ao seu Práticas de gerenciamento de risco “muito fracas”.

Isso não sugere que outros laboratórios de IA estão se saindo dramaticamente melhor. Nos últimos meses, os rivais XAI, incluindo Google e Openai, têm testes de segurança apressados e demoraram a publicar relatórios de segurança de modelos (ou ignoraram os relatórios de publicação). Alguns especialistas expressaram preocupação de que a aparente depioritização dos esforços de segurança esteja chegando em um momento em que a IA é mais capaz – e, portanto, potencialmente perigosa – do que nunca.



Link da Fonte

- Advertisement -spot_img

More articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

Latest article