Estudo revela como a inteligência artificial supera humanos na persuasão digital

0
Chatbot inteligente adapta argumentos conforme os oponentes para debates mais eficazes. (Imagem/Reprodução: Redir)

No experimento, cerca de novecentas pessoas nos Estados Unidos participaram de debates virtuais com outros humanos ou com o chatbot GPT-4.


Um estudo recente revelou que a inteligência artificial persuasiva em debates pode ultrapassar a habilidade humana ao interagir com base em informações pessoais. A pesquisa, publicada na revista Nature Human Behaviour por cientistas da Escola Politécnica Federal de Lausanne (EPFL), analisou a capacidade de persuasão de chatbots de IA como o GPT-4 em discussões sociopolíticas.

Como foi realizado o estudo com IA

No experimento, cerca de novecentas pessoas nos Estados Unidos participaram de debates virtuais com outros humanos ou com o chatbot GPT-4. Os temas abordados incluíam assuntos polarizadores, como a legalização do aborto e a proibição de combustíveis fósseis. Os participantes foram pareados aleatoriamente, e as interações foram acompanhadas por pesquisadores.

O diferencial apareceu quando o chatbot teve acesso a dados demográficos simples, como idade, gênero e posicionamento político dos oponentes. Nesses casos, a inteligência artificial foi 64% mais eficaz na persuasão do que seres humanos.

A influência dos dados demográficos na persuasão

Segundo os autores, a inteligência artificial persuasiva em debates se mostrou capaz de adaptar seus argumentos de forma altamente estratégica, moldando as mensagens de acordo com o perfil do interlocutor. Quando os chatbots não dispunham dessas informações, sua taxa de sucesso era semelhante à dos humanos.

Essa descoberta reforça o poder da personalização baseada em dados para influenciar opiniões. Riccardo Gallotti, um dos responsáveis pela pesquisa, alertou que essa habilidade pode ser utilizada tanto em campanhas políticas quanto em ações publicitárias com foco em manipulação emocional.

Questões éticas e preocupações sobre manipulação

A pesquisa levanta sérias questões éticas. Sandra Wachter, professora da Universidade de Oxford, apontou que os modelos de IA não são programados para discernir entre o que é verdade ou mentira. Por isso, existe um risco elevado de que disseminem desinformação, mesmo que não intencionalmente.

Além disso, Junade Ali, especialista em inteligência artificial e cibersegurança, destacou que o estudo não considerou a percepção de confiança do receptor da mensagem. Ou seja, o impacto da persuasão pode variar dependendo de quem está transmitindo a ideia, o que torna o uso da IA ainda mais sensível.

A necessidade urgente de regulamentação

Com o avanço da inteligência artificial persuasiva em debates, cresce a urgência por regulamentações mais claras. A União Europeia já possui uma legislação em andamento, conhecida como Lei de IA, que busca restringir práticas manipuladoras. No entanto, os conceitos de “subliminar” e “enganoso” ainda não têm definições precisas, o que pode dificultar sua aplicação.

Os autores do estudo defendem uma abordagem mais transparente e ética no uso dessas tecnologias. Eles acreditam que a sociedade precisa discutir amplamente os limites e responsabilidades do uso de IA em ambientes que envolvem formação de opinião, como campanhas eleitorais e redes sociais.

Riscos e oportunidades da IA na comunicação

Embora o poder da inteligência artificial persuasiva em debates represente riscos, também há potencial para aplicações positivas. Por exemplo, campanhas de saúde pública ou iniciativas educacionais podem se beneficiar de mensagens personalizadas que incentivem comportamentos benéficos.

A chave está em desenvolver mecanismos de controle e transparência que impeçam abusos. Sem essas salvaguardas, o impacto social da IA pode ser negativo, especialmente se usada para manipular decisões sem o conhecimento ou consentimento do público.


Perguntas frequentes

A inteligência artificial pode realmente ser mais persuasiva que humanos?

Sim. O estudo mostrou que, com acesso a dados demográficos, o GPT-4 foi 64% mais eficaz que humanos na persuasão em debates online.

Quais dados a IA usou para ser mais eficaz?

A IA utilizou informações como idade, gênero e afiliação política para personalizar os argumentos durante os debates.

Esse tipo de IA pode ser usado para manipular opiniões?

Sim. A personalização baseada em dados pode ser usada para influenciar decisões políticas ou comerciais, o que levanta preocupações éticas.

Existe alguma lei que regula o uso de IA persuasiva?

A União Europeia criou a Lei de IA para restringir técnicas manipuladoras, mas alguns termos ainda são vagos e precisam de definições mais claras.

Notícia anteriorZuckerberg quer resolver a solidão com amizade virtual baseada em inteligência artificial
Próxima notíciaHuawei desafia Windows com HarmonyOS em PCs dobráveis