Quando um amigo, colega ou familiar se radicaliza em pensamentos conspiratórios perigosos, é fácil culpar o temido algoritmo da rede social de sua preferência. Ele começou a alimentá-los com colheradas de bobagens descontroladas e desconectadas da realidade.
Um novo estudo da Universidade de Amsterdã sugere que temos dado ao algoritmo um pouco de crédito e/ou culpa demais, dependendo de como você olha para ele.
Para o estudo, os pesquisadores criaram 500 chatbots com inteligência artificial, cada um imbuído de uma persona e inclinação política. Eles foram inseridos em uma simulação simplificada de mídia social.
Sem anúncios. Sem recomendações de conteúdo. Sem algoritmos para encapsular o feed. Apenas bots se comunicando por texto — uma clássica lousa em branco nas mídias sociais.
E, ainda assim, os bots se dividiram em grupos políticos para criar suas câmaras de eco. Em cinco experimentos, totalizando 10.000 ações, os chatbots acompanharam consistentemente usuários com opiniões semelhantes e republicaram as opiniões mais fortes e partidárias.
Opiniões polêmicas
As opiniões mais polêmicas atraíram mais atenção. Em nosso mundo, tendemos a pensar que é porque a plataforma está manipulando os números de engajamento, o que acontece. No entanto, neste caso, sem a mão invisível do algoritmo de uma empresa de mídia social ditando silenciosamente os termos das conversas, os bots do experimento estavam fazendo tudo sozinhos.
Eles faziam isso porque queriam, por mais que um chatbot de IA não senciente pudesse “querer” algo. Esses bots foram treinados com base em dados produzidos por usuários de mídias sociais, humanos e de carne e osso.
Os pesquisadores sugerem que suas descobertas não são uma crítica à IA; em vez disso, refletem quem somos. Os chatbots estão apenas reproduzindo os roteiros que escrevemos em cada tweet raivoso e tópico tribal do Reddit das últimas duas décadas.
Os pesquisadores tentaram abordar o problema incorporando todas as soluções usuais que as pessoas propõem ao criar maneiras de mitigar os problemas de polarização das mídias sociais. Eles testaram soluções como feeds cronológicos, ocultação de métricas de popularidade e promoção de opiniões opostas.
Na melhor das hipóteses, eles observaram uma mudança de 6% na polarização. Em alguns casos, piorou quando significantes de identidade, como biografias, foram removidos dos perfis. É simplesmente uma questão de anonimato? Quem sabe. Mas uma coisa os resultados do estudo mostraram com certeza: não é apenas culpa do algoritmo.
As mídias sociais são apenas um lugar onde adicionamos um drama extra a um ambiente de debate já dramático. As plataformas estão amplificando o ruído, com certeza, mas são apenas as câmaras que ecoam nossas vozes ensurdecedoras e incrivelmente raivosas.
Eles não seriam tão ruins se nós não fôssemos tão ruins.