Por MATT O’BRIEN, da AP Technology Writer Clippy, o clipe animado que irritava os usuários do Microsoft Office há quase três décadas, talvez estivesse à frente de seu tempo. A Microsoft apresentou uma nova personagem de inteligência artificial chamada Mico (pronuncia-se MEE’koh) na quinta-feira, um rosto de desenho animado em forma de bolha que irá personificar o assistente virtual Copilot da gigante do software e marca a mais recente tentativa das empresas de tecnologia de dotar seus chatbots de IA com mais personalidade. A nova e fofa aparência semelhante a emoji do Copilot surge em um momento em que os desenvolvedores de IA enfrentam uma encruzilhada sobre como apresentar seus chatbots cada vez mais capazes aos consumidores sem causar danos ou reações negativas. Alguns optaram por símbolos sem rosto, outros estão vendendo avatares sensuais e semelhantes aos humanos, e a Microsoft está procurando um meio termo que seja amigável sem ser obsequioso. "Quando você fala sobre algo triste, você pode ver o rosto de Mico mudar. Você pode vê-lo dançar e se mover quando fica animado com você", disse Jacob Andreou, vice-presidente corporativo de produto e crescimento da Microsoft AI, em uma entrevista à Associated Press. "É nesse esforço de realmente aterrissar esse companheiro de IA que você realmente pode sentir." Somente nos EUA, até agora, os usuários do Copilot em laptops e aplicativos de telefone podem falar com Mico, que muda de cor e usa óculos quando
está no modo "estudo". Também é fácil desligá-lo, o que é uma grande diferença em relação ao Clippit da Microsoft, mais conhecido como Clippy e infame por sua persistência em oferecer conselhos sobre ferramentas de processamento de texto quando apareceu pela primeira vez nas telas de desktop em 1997. "Ele não estava bem sintonizado com as necessidades do usuário na época", disse Bryan Reimer, pesquisador do Massachusetts Institute of Technology. "A Microsoft o impulsionou, nós resistimos e eles se livraram dele. Acho que estamos muito mais prontos para coisas como essa hoje." Reimer, coautor de um novo livro chamado "Como tornar a IA útil", disse que os desenvolvedores de IA estão equilibrando quanta personalidade dar aos assistentes de IA com base em quem são seus usuários esperados. Adotantes experientes em tecnologia de ferramentas avançadas de codificação de IA podem querer que ela "aja muito mais como uma máquina porque, no back-end, eles sabem que é uma máquina", disse Reimer. "Mas os indivíduos que não confiam tanto em uma máquina serão melhor suportados - não substituídos - por tecnologia que se assemelha um pouco mais a um humano." A Microsoft, fornecedora de ferramentas de produtividade de trabalho que é muito menos dependente da receita de publicidade digital do que seus concorrentes da Big Tech, também tem menos incentivo para tornar seu companheiro de IA excessivamente envolvente de uma forma que tem sido associada ao isolamento social, desinformação prejudicial e, em alguns casos, suicídios. Andreou disse que a Microsoft observou como alguns desenvolvedores de IA se afastaram de "dar à IA qualquer tipo de personificação", enquanto outros estão se movendo na direção oposta, permitindo namoradas de IA. "Esses dois caminhos realmente não ressoam tanto conosco", disse ele. Andreou disse que o design do companheiro tem como objetivo ser "genuinamente útil" e não tão validante a ponto de "nos dizer exatamente o que queremos ouvir, confirmar preconceitos que já temos ou até mesmo nos sugar de uma perspectiva de tempo gasto e apenas tentar monopolizar e aprofundar a sessão e aumentar o tempo que você está gastando com esses sistemas". "Ser bajulador - a curto prazo, talvez - faz com que um usuário responda mais favoravelmente", disse Andreou. "Mas, a longo prazo, na verdade, não está aproximando essa pessoa de seus objetivos." Parte dos anúncios da Microsoft na quinta-feira inclui a capacidade de convidar o Copilot para um bate-papo em grupo, uma ideia que se assemelha a como a IA foi integrada a plataformas de mídia social como o Snapchat, onde Andreou costumava trabalhar, ou WhatsApp e Instagram do Meta. Mas Andreou disse que essas interações geralmente envolveram a introdução da IA como uma piada para "trollar seus amigos", o que é diferente do ambiente de trabalho "intensamente colaborativo" assistido por IA que a Microsoft tem em mente. O público da Microsoft inclui crianças, como parte de sua longa competição com o Google e outras empresas de tecnologia para fornecer sua tecnologia às salas de aula. A Microsoft também disse na quinta-feira que adicionou um recurso para transformar o Copilot em um "tutor socrático habilitado para voz" que guia os alunos pelos conceitos que estão estudando na escola. Um número crescente de crianças usa chatbots de IA para tudo - desde ajuda com lição de casa até conselhos pessoais, apoio emocional e tomada de decisões diárias. A Comissão Federal de Comércio lançou uma investigação no mês passado sobre várias empresas de mídia social e IA - a Microsoft não foi uma delas - sobre os potenciais danos a crianças e adolescentes que usam seus chatbots de IA como companheiros. Isso ocorre depois que alguns chatbots foram mostrados dando às crianças conselhos perigosos sobre tópicos como drogas, álcool e transtornos alimentares. A mãe de um adolescente na Flórida que se matou após desenvolver o que ela descreveu como um relacionamento emocional e sexualmente abusivo com um chatbot entrou com uma ação por morte culposa contra a Character.AI. E os pais de um menino de 16 anos processaram a OpenAI e seu CEO Sam Altman em agosto, alegando que o ChatGPT orientou o menino da Califórnia no planejamento e na tomada de sua própria vida. Altman prometeu recentemente "uma nova versão do ChatGPT" chegando neste outono, que restaura parte da personalidade das versões anteriores, que ele disse que a empresa interrompeu temporariamente porque "estávamos sendo cuidadosos com problemas de saúde mental" que ele sugeriu que agora foram corrigidos. "Se você quer que seu ChatGPT responda de uma maneira muito humana, ou use uma tonelada de emojis, ou aja como um amigo, o ChatGPT deveria fazer isso", disse Altman no X. (Na mesma postagem, ele também disse que a OpenAI mais tarde permitirá que o ChatGPT se envolva em "erótica para adultos verificados", o que recebeu mais atenção.)
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Twincities
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas