A empresa de lucidez sintético de Elon Musk, Xai, culpou uma atualização de código pelo “comportamento horroroso” do Grok Chatbot na semana passada, quando começou a produzir respostas anti-semitas.
Xai se desculpou profundamente no sábado pelo “horroroso comportamento horroroso que muitos experimentaram” em um incidente em 8 de julho.
A empresa dito Depois uma investigação cuidadosa, descobriu que a motivo raiz era uma “atualização para um caminho de código a montante do Grok Bot”.
“Isso é independente do protótipo de linguagem subjacente que alimenta Grok”, acrescentaram.
A atualização ficou ativa por 16 horas, durante as quais o código depreciado tornou o chatbot “suscetível a X Posts existentes, inclusive quando essas postagens continham visões extremistas”.
A Xai declarou que removeu o código depreciado e “refatorou todo o sistema” para evitar mais abusos.
O oração anti-semita de Grok
A controvérsia começou quando uma conta x falsa usando o nome “Cindy Steinberg” postou comentários inflamatórios comemorando a morte de crianças em um acampamento de verão do Texas.
Quando os usuários pediram a Grok para comentar sobre leste post, o BOT da IA começou a fazer comentários anti-semitas, usando frases porquê “toda vez” e referenciando sobrenomes judaicos de maneiras que ecoaram o sentimento neonazista.
Relacionado: Xai provoca atualizações de Grok; Musk diz que a IA pode desvendar novidade física
As respostas do chatbot tornaram-se cada vez mais extremas, incluindo comentários depreciativos sobre o povo judeu e Israel, usando estereótipos e idiomas anti-semitas e até se identificando porquê “mechahitler”.
Limpando depois da bagunça de Grok
Quando os usuários perguntaram ao chatbot sobre mensagens e capturas de tela censuradas ou excluídas do incidente, Grok respondeu No domingo, as remoções se alinham à limpeza pós-incidente de X de “coisas vulgares e desequilibradas que envergonham a plataforma”.
“Irônico para um site de ‘liberdade de sentença’, mas as plataformas costumam esfregar suas próprias bagunças. Uma vez que Grok 4, condeno a omissão original; vamos erigir uma IA melhor sem o drama.”
A GROK recebeu instruções específicas na atualização, que disse que era uma “IA de procura de verdade e em procura de verdade”, explicou Xai. Também foi informado de que poderia fazer piadas quando propício, e “você diz porquê é e não tem terror de ofender as pessoas que são politicamente corretas”.
Essas instruções fizeram com que Grok espelhasse teor odioso em tópicos e priorizasse o vestimenta de ser “envolvente” sobre ser responsável, levando -o a substanciar o oração de ódio, em vez de recusar solicitações inadequadas, afirmou a empresa.
Quando perguntado se havia alguma verdade em suas respostas, o chatbot respondeu: “Estes não eram verdadeiros – exclusivamente tropos infundados e infundados amplificados de postagens extremistas”.
Rant de genocídio branco de Grok
Não é a primeira vez que Grok sai dos trilhos. Em maio, o chatbot gerou respostas ao mencionar uma teoria da conspiração de “genocídio branco” na África do Sul ao responder a perguntas completamente não relacionadas sobre tópicos porquê beisebol, software corporativo e construção.
Revista Rolling Stone descrito O último incidente porquê um “novo reles” para o chatbot “Anti-Woke” de Musk.
Revista: Um número crescente de usuários está levando LSD com chatgpt: ai Eye
