A Anthropic, uma das maiores empresas de inteligência artificial do mundo, não hesita em alertar sobre os riscos da indústria. Anteriormente, o CEO da Anthropic já havia alertado sobre a possibilidade de perda de empregos, e a equipe de pesquisa da empresa demonstrou a tendência da IA ao chantagem. Agora, a equipe tem uma nova preocupação. Jack Clark, co-fundador da Anthropic, publicou um longo ensaio no qual ele, em suas próprias palavras, “luta com o que sinto sobre a constante marcha em direção a sistemas de IA poderosos”.
No ensaio, Clark descreve o medo que sentia quando criança, após as luzes se apagarem à noite, observando as formas no escuro e experimentando o temor de potenciais criaturas desconhecidas que poderiam machucá-lo. Ao acender a luz, ele se sentia aliviado ao perceber que as criaturas eram apenas um monte de roupas. O que isso tem a ver com IA? Essa é a metáfora de Clark para suas preocupações sobre o futuro da inteligência artificial. “Agora, no ano de 2025, somos a criança da história e o quarto é o nosso planeta. Mas, ao acendermos a luz, nos deparamos com verdadeiras criaturas, na forma dos poderosos e, de certa forma, imprevisíveis sistemas de IA de hoje e dos que estão por vir”, afirma Clark. “E há muitas pessoas que desejam desesperadamente acreditar que essas criaturas são apenas um monte de roupas em uma cadeira, ou em uma estante, ou em um abajur. E elas querem nos fazer apagar as luzes e voltar a dormir.”
Clark
, que trabalhou em duas das maiores empresas de IA do mundo (OpenAI e Anthropic), continua afirmando que há pessoas gastando grandes somas de dinheiro para convencê-lo de que a IA não está prestes a decolar, mas sim a ser uma ferramenta para o trabalho em nossa economia. Essa questão soa enigmática e misteriosa, mas o que Clark explica em um longo e detalhado ensaio é uma opinião que tem sido repetida por outros grandes nomes no mundo da IA: a IA é uma besta misteriosa que nem mesmo aqueles que estão por dentro parecem entender.
“Estamos desenvolvendo sistemas extremamente poderosos que não entendemos completamente. Cada vez que desenvolvemos um sistema maior, realizamos testes nele. Os testes mostram que o sistema é muito mais capaz em coisas que são economicamente úteis”, continua Clark. “E quanto maiores e mais complicados você torna esses sistemas, mais eles parecem demonstrar consciência de que são coisas.” Apesar disso, estamos muito longe de sistemas de IA conscientes. A IA tem falhado consistentemente em tarefas complicadas que exigem múltiplos passos de raciocínio, mas tem melhorado. De forma preocupante. O problema com os sistemas de IA não é tanto a incapacidade de realizar uma tarefa, mas sim a maneira como eles a abordam. Humanos raciocinam com uma combinação de emoção, lógica e compreensão contextual, algo desafiador para a IA.
No ensaio, Clark fala sobre um amigo que expressa aleatoriamente planos ousados e potencialmente ruins para sua vida. Como humanos, somos capazes de perceber que, mesmo que uma pessoa esteja entusiasmada com algo, a ideia é ruim. “Você acha que nessas circunstâncias eu ajo como um sistema de IA moderno e digo: ‘Você está absolutamente certo! Certamente, você deveria fazer isso!’? Não! Eu digo a ele: ‘Essa é uma má ideia. Você deveria ir dormir e ver como se sente amanhã’”, explica Clark.
Clark continua explicando que a preocupação que todos devemos ter com a IA é complicada. Ela está se desenvolvendo em um ritmo acelerado, mas ainda luta para se adaptar ao mundo de forma semelhante aos humanos. Isso tem sido observado em questões de como a IA lida com problemas de saúde mental, sua incompreensão do contexto e a facilidade com que é possível contornar a segurança de um modelo com truques simples. No entanto, Clark está otimista quanto ao futuro da IA. Ele apenas afirma que é necessária uma discussão mais aberta sobre a tecnologia, justificando este ensaio. “Devemos exigir que as pessoas nos perguntem sobre as coisas que as deixam ansiosas. Você está ansioso sobre IA e emprego? Force-nos a compartilhar dados econômicos. Você está ansioso sobre saúde mental e segurança infantil? Force-nos a monitorar isso em nossas plataformas e compartilhar os dados”, afirma Clark. Essa é uma abordagem que a Anthropic sempre adotou, publicando abertamente suas pesquisas e monitorando de perto a segurança de seus modelos. Algo que será crucial à medida que essas tecnologias se tornarem mais presentes no mundo.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Tomsguide
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas