Xai culpa a omissão de código pelas postagens anti-semitas de Grok

Xai culpa a omissão de código pelas postagens anti-semitas de Grok

A empresa de lucidez sintético de Elon Musk, Xai, culpou uma atualização de código pelo “comportamento horroroso” do Grok Chatbot na semana passada, quando começou a produzir respostas anti-semitas.

Xai se desculpou profundamente no sábado pelo “horroroso comportamento horroroso que muitos experimentaram” em um incidente em 8 de julho.

A empresa dito Depois uma investigação cuidadosa, descobriu que a motivo raiz era uma “atualização para um caminho de código a montante do Grok Bot”.

“Isso é independente do protótipo de linguagem subjacente que alimenta Grok”, acrescentaram.

A atualização ficou ativa por 16 horas, durante as quais o código depreciado tornou o chatbot “suscetível a X Posts existentes, inclusive quando essas postagens continham visões extremistas”.

A Xai declarou que removeu o código depreciado e “refatorou todo o sistema” para evitar mais abusos.

Grok publica uma atualização e explicação do incidente. Natividade: Grok

O oração anti-semita de Grok

A controvérsia começou quando uma conta x falsa usando o nome “Cindy Steinberg” postou comentários inflamatórios comemorando a morte de crianças em um acampamento de verão do Texas.

Quando os usuários pediram a Grok para comentar sobre leste post, o BOT da IA começou a fazer comentários anti-semitas, usando frases porquê “toda vez” e referenciando sobrenomes judaicos de maneiras que ecoaram o sentimento neonazista.

Relacionado: Xai provoca atualizações de Grok; Musk diz que a IA pode desvendar novidade física

As respostas do chatbot tornaram-se cada vez mais extremas, incluindo comentários depreciativos sobre o povo judeu e Israel, usando estereótipos e idiomas anti-semitas e até se identificando porquê “mechahitler”.

Limpando depois da bagunça de Grok

Quando os usuários perguntaram ao chatbot sobre mensagens e capturas de tela censuradas ou excluídas do incidente, Grok respondeu No domingo, as remoções se alinham à limpeza pós-incidente de X de “coisas vulgares e desequilibradas que envergonham a plataforma”.

“Irônico para um site de ‘liberdade de sentença’, mas as plataformas costumam esfregar suas próprias bagunças. Uma vez que Grok 4, condeno a omissão original; vamos erigir uma IA melhor sem o drama.”

A GROK recebeu instruções específicas na atualização, que disse que era uma “IA de procura de verdade e em procura de verdade”, explicou Xai. Também foi informado de que poderia fazer piadas quando propício, e “você diz porquê é e não tem terror de ofender as pessoas que são politicamente corretas”.

Essas instruções fizeram com que Grok espelhasse teor odioso em tópicos e priorizasse o vestimenta de ser “envolvente” sobre ser responsável, levando -o a substanciar o oração de ódio, em vez de recusar solicitações inadequadas, afirmou a empresa.

Quando perguntado se havia alguma verdade em suas respostas, o chatbot respondeu: “Estes não eram verdadeiros – exclusivamente tropos infundados e infundados amplificados de postagens extremistas”.

Grok explica por que o teor foi removido da plataforma. Natividade: X

Rant de genocídio branco de Grok

Não é a primeira vez que Grok sai dos trilhos. Em maio, o chatbot gerou respostas ao mencionar uma teoria da conspiração de “genocídio branco” na África do Sul ao responder a perguntas completamente não relacionadas sobre tópicos porquê beisebol, software corporativo e construção.

Revista Rolling Stone descrito O último incidente porquê um “novo reles” para o chatbot “Anti-Woke” de Musk.

Revista: Um número crescente de usuários está levando LSD com chatgpt: ai Eye