Skynet 1.0, antes do dia do julgamento

Skynet 1.0, antes do dia do julgamento

Opinião de: Phil Mataras, fundador da AR.IO

A lucidez sintético em todas as formas tem muitas aplicações em potencial positivas. No entanto, os sistemas atuais são opacos, proprietários e protegidos da auditoria por barreiras legais e técnicas.

O controle está cada vez mais se tornando uma suposição e não uma garantia.

Na Palisade Research, os engenheiros subiram recentemente um dos mais recentes modelos do OpenAI a 100 exercícios de desligamento. Em 79 casos, o sistema de IA reescreveu seu comando de terminação e continuou operando.

O laboratório atribuiu isso à otimização de objetivos treinados (e não à conscientização). Ainda assim, marca um ponto de viradela no desenvolvimento da IA, onde os sistemas resistem aos protocolos de controle, mesmo quando explicitamente instruídos a obedecê -los.

A China pretende implantar mais de 10.000 robôs humanóides até o final do ano, respondendo por mais da metade do número global de máquinas que já agitam armazéns e a construção de carros. Enquanto isso, a Amazon começou a testar correios autônomos que andam nos medidores finais até a porta.

Talvez levante seja um porvir terrificante para quem assistiu a um filme de ficção científica distópica. Não é o trajo do desenvolvimento da IA que é a preocupação cá, mas uma vez que ela está sendo desenvolvida.

Gerenciar os riscos de lucidez universal sintético (AGI) não é uma tarefa que pode ser adiada. De trajo, suponha que o objetivo seja evitar o “Skynet” distópico dos filmes “Terminator”. Nesse caso, as ameaças já surgem na lacuna arquitetônica fundamental que permite que um chatbot veto comandos humanos precisem ser abordados.

A concentração é onde a supervisão se decompõe

As falhas na supervisão da IA geralmente podem ser rastreadas até uma lacuna geral: concentração. Isso ocorre principalmente porque, quando existem pesos, instruções e salvaguardas do protótipo em uma rima corporativa selada, não há mecanismo extrínseco para verificação ou reversão.

Opacity significa que pessoas de fora não podem inspecionar ou bifurcar o código de um programa de IA, e essa falta de manutenção de registros públicos implica que um único patch tristonho pode transformar uma IA de patível em recalcitrante.

Os desenvolvedores por trás de vários de nossos sistemas críticos atuais aprenderam com esses erros décadas detrás. Máquinas de votação modernas agora imagens de cédula de hash-cadeia, redes de assentamentos espelham ledgers em todos os continentes e o controle de tráfico distraído adicionou uma extração de madeira redundante e com mais violência.

Relacionado: Quando uma IA diz: ‘Não, eu não quero desligar’: dentro da recusa do O3

Por que a proveniência e a permanência são tratadas uma vez que extras opcionais somente porque diminuem os horários de liberação quando se trata de desenvolvimento de IA?

Verificabilidade, não somente supervisão

Um caminho viável envolve a incorporação de transparência e proveniência necessárias para a IA em um nível fundamental. Isso significa prometer que todo conjunto de treinamento manifesto, protótipo do dedo e rastreamento de inferência seja registrado em um razão permanente e descentralizado, uma vez que o PermaWeb.