Os algoritmos do YouTube podem radicalizar as pessoas - mas o verdadeiro problema é que não temos idéia de como elas funcionam Sr. Tempter / Shutterstock

O YouTube cria extremistas? UMA estudo recente causou argumentos entre os cientistas ao argumentar que os algoritmos que alimentam o site não ajudam a radicalizar as pessoas ao recomendar vídeos cada vez mais extremos, como Tem sido sugerido nos últimos anos.

O artigo, enviado à revista de acesso aberto First Monday, mas ainda a ser formalmente revisado por pares, analisou as recomendações em vídeo recebidas por diferentes tipos de canais. Ele alegou que o algoritmo do YouTube favorece os canais de mídia tradicionais sobre o conteúdo independente, concluindo que a radicalização tem mais a ver com as pessoas que criam conteúdo prejudicial do que o algoritmo do site.

Especialistas em campo foram rápidos em respondendo ao estudo, com algumas críticas os métodos do artigo e outros argumentando que o algoritmo foi um dos vários fatores importantes e que a ciência de dados sozinha não vai nos dar a resposta.

O problema com esta discussão é que não podemos realmente responder à pergunta sobre qual o papel do algoritmo do YouTube em radicalizar as pessoas porque não entendemos como ele funciona. E isso é apenas um sintoma de um problema muito mais amplo. Esses algoritmos desempenham um papel cada vez maior em nossas vidas diárias, mas não têm nenhum tipo de transparência.

É difícil argumentar que o YouTube não desempenha um papel na radicalização. Isso foi apontado pela primeira vez pelo sociólogo de tecnologia Zeynep Tufekci, que ilustrou como os vídeos recomendados gradualmente direcionam os usuários para um conteúdo mais extremo. Nas palavras de Tufekci, vídeos sobre corrida levam a vídeos sobre corridas ultramaratonas, vídeos sobre vacinas levam a teorias da conspiração e vídeos sobre política levam a "negações do holocausto e outros conteúdos perturbadores".


innerself assinar gráfico


Isso também foi escrito sobre em detalhe do ex-funcionário do YouTube Guillaume Chaslot, que trabalhou no algoritmo de recomendação do site. Desde que saiu da empresa, a Chaslot continuou tentando fazer essas recomendações mais transparente. Ele diz que as recomendações do YouTube são tendenciosas para teorias da conspiração e vídeos factualmente imprecisos, o que leva as pessoas a passar mais tempo no site.

Na verdade, maximizando o tempo de exibição é o ponto principal dos algoritmos do YouTube, e isso incentiva os criadores de vídeo a procurar atenção da maneira que for possível. A pura empresa falta de transparência exatamente como isso funciona torna quase impossível combater a radicalização no site. Afinal, sem transparência, é difícil saber o que pode ser alterado para melhorar a situação.

Os algoritmos do YouTube podem radicalizar as pessoas - mas o verdadeiro problema é que não temos idéia de como elas funcionam Como o algoritmo do YouTube funciona permanece um mistério. Quem é Danny / Shutterstock

Mas o YouTube não é incomum a esse respeito. A falta de transparência sobre como os algoritmos funcionam geralmente é o caso sempre que eles são usados ​​em grandes sistemas, seja por empresas privadas ou órgãos públicos. Além de decidir qual vídeo mostrar a seguir, os algoritmos de aprendizado de máquina agora são usados ​​para colocar as crianças nas escolas, decida sentenças de prisãodeterminar contagens de crédito e taxas de seguro, bem como o destino de imigrantes, candidatos a emprego e candidatos a universidades. E geralmente não entendemos como esses sistemas tomam suas decisões.

Os pesquisadores descobriram maneiras criativas de mostrar o impacto desses algoritmos na sociedade, seja examinando as ascensão do direito reacionário ou de propagação de teorias da conspiração no YouTube ou mostrando como motores de busca refletem os preconceitos racistas das pessoas que os criam.

Os sistemas de aprendizado de máquina são geralmente grandes, complexos e opacos. Apropriadamente, eles são frequentemente descritos como caixas pretas, onde as informações entram e saem informações ou ações, mas ninguém pode ver o que acontece no meio. Isso significa que, como não sabemos exatamente como funcionam algoritmos como o sistema de recomendação do YouTube, tentar descobrir como o site funciona seria como tentar entender um carro sem abrir o capô.

Por sua vez, isso significa que tentar escrever leis para regular o que algoritmos devem ou não fazer se torna um processo cego ou tentativa e erro. É o que está acontecendo com o YouTube e com muitos outros algoritmos de aprendizado de máquina. Estamos tentando dar uma opinião sobre seus resultados, sem uma compreensão real de como eles realmente funcionam. Precisamos abrir essas tecnologias patenteadas ou, pelo menos, torná-las transparentes o suficiente para podermos regulá-las.

Explicações e testes

Uma maneira de fazer isso seria os algoritmos fornecerem explicações contrafactuais junto com suas decisões. Isso significa elaborar as condições mínimas necessárias para que o algoritmo tome uma decisão diferente, sem descrever sua lógica completa. Por exemplo, um algoritmo que toma decisões sobre empréstimos bancários pode produzir um resultado que diz que "se você tivesse mais de 18 anos e não tivesse dívida anterior, seu empréstimo seria aceito". Mas isso pode ser difícil de fazer com o YouTube e outros sites que usam algoritmos de recomendação, pois, em teoria, qualquer vídeo na plataforma pode ser recomendado a qualquer momento.

Outra ferramenta poderosa é o teste e a auditoria de algoritmos, que foram particularmente úteis no diagnóstico de algoritmos tendenciosos. Em um caso recente, uma empresa profissional de triagem de currículo descobriu que seu algoritmo era priorizando dois fatores como melhores preditores de desempenho no trabalho: se o nome do candidato era Jared e se eles jogavam lacrosse no ensino médio. É o que acontece quando a máquina fica sem supervisão.

Nesse caso, o algoritmo de triagem de currículo havia notado que os homens brancos tinham uma chance maior de serem contratados e encontrou características de proxy correlatas (como ser chamado Jared ou jogar lacrosse) presentes nos candidatos contratados. Com o YouTube, a auditoria de algoritmos pode ajudar a entender quais tipos de vídeos são priorizados para recomendação - e talvez ajudar a resolver o debate sobre se as recomendações do YouTube contribuem ou não para a radicalização.

Introduzir explicações contrafactuais ou usar a auditoria de algoritmos é um processo difícil e caro. Mas é importante, porque a alternativa é pior. Se os algoritmos não forem controlados e não regulamentados, poderemos ver uma escalada gradual de teóricos e extremistas da conspiração em nossa mídia, e nossa atenção controlada por quem puder produzir o conteúdo mais lucrativo.A Conversação

Sobre o autor

Chico Q. Camargo, pesquisador de pós-doutorado em ciência de dados, Universidade de Oxford

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.