COLUNA DE MÍDIA
Reprodução YouTube
O presidente Jair Bolsonaro já teve vídeos removidos do YouTube por disseminar desinformação
O Youtube busca maneiras de barrar informações falsas antes que se tornem virais e impedir compartilhamentos em outras plataformas. Mas a plataforma de vídeos do Google tem um problema bastante difícil de resolver nas mãos. Os conteúdos de desinformação e fake news no YouTube, mesmo quando não são impulsionados pelos algoritmos, acabam viralizando.
Ainda que o YouTube coloque avisos ou propositalmente diminua o alcance desses conteúdos entre seus usuários, os vídeos acabam viralizando por meio de outras plataformas. Ou seja, o vídeo está no YouTube, mas é compartilhado em grupos de WhatsApp, Facebook, Twitter, Telegram e toda sorte de rede social. A saída, possivelmente, seria limitar o compartilhamento de vídeos do YouTube.
Quem comentou sobre as dificuldades do YouTube e da possibilidade de combater o compartilhamento de vídeos foi ninguém menos que Neal Mohan, o diretor de produtos da plataforma. Na quinta-feira, Mohan publicou um post surpreendentemente franco sobre os esforços da empresa para combater a desinformação.
Certamente vídeos de desinformação não são algo novo, como os terraplanistas podem atestar. Mas no caso dos temas já identificados é mais fácil barrar o conteúdo. O difícil é lidar com novos tipos de desinformação que podem surgir e se espalhar rapidamente antes que fontes confiáveis possam verificar e desmascarar as farsas.
"Cada vez mais, uma narrativa completamente nova pode surgir rapidamente e ganhar pontos de vista", disse Mohan. "Ou, as narrativas podem deslizar de um tópico para outro --por exemplo, algum conteúdo geral de bem-estar pode levar à hesitação da vacina".
O componente local ainda é um grande problema. As soluções de moderação de conteúdo ainda são mais eficientes para o inglês do que línguas como o português. O problema não se limita ao Google. Uma série de documentos sobre o Facebook divulgada ano passado evidenciou como os americanos têm um padrão de moderação bastante superior em comparação a outros países.
Outro problema é que essas plataformas operam fora dos Estados Unidos sem profundo conhecimento da cultura e política locais, como as polêmicas envolvendo o Twitter revelam em diversos países, da Índia ao Brasil.
Polêmicas como a remoção de vídeos do presidente Jair Bolsonaro do YouTube são um exemplo da complexidade do problema. Já era de conhecimento público que o tratamento com cloroquina era ineficaz, mas como o algoritmo iria prever que o mandatário de um país seguiria propagando desinformação?
Ou que o jornalista Alexandre Garcia, pouco antes de ser demitido da CNN Brasil, uma marca tradicional no jornalismo mundial, apoiaria falsas afirmações sobre a cloroquina? E mais: tirar o vídeo de um presidente do ar sempre se torna uma questão política.
Mohan sugere que uma possibilidade seria usar palavras-chave em mais idiomas para detectar e sinalizar informações erradas em outras regiões, além de trabalhar com analistas regionais para detectar teorias locais de informações erradas que o YouTube pode ter deixado passar. A empresa também está considerando parcerias com organizações não governamentais para entender melhor a desinformação regional e local.
A solução certamente passa por aumentar o número de editores locais. E isso tem um custo, o que deve diminuir as grandes margens das gigantes de tecnologia como Google e Meta (como passou a se chamar o Facebook). Mas fica cada vez mais claro que os algoritmos sozinhos não podem resolver o problema.
O TikTok, por exemplo, tem uma abordagem diferente das big techs americanas. A empresa chinesa usa um modelo muito mais apoiado em humanos em seu processo de moderação, principalmente nos conteúdos que vão para a For Your Page, onde os vídeos de maior sucesso são destacados.
Mas realmente a maior mudança é a possibilidade --ainda em avaliação-- de que o YouTube possa desabilitar o botão de compartilhamento dos vídeos de desinformação. A empresa também está considerando "quebrar links" para vídeos que já foram suprimidos no YouTube, mas podem ter sido compartilhados em outras plataformas.
"Nós lidamos com a possibilidade de que impedir compartilhamentos pode ir longe demais na restrição das liberdades de um espectador", disse Mohan. "Nossos sistemas reduzem o conteúdo inseguro nas recomendações, mas compartilhar um link é uma escolha ativa que uma pessoa pode fazer, diferentemente de uma ação mais passiva, como assistir a um vídeo recomendado".
Outra possível solução proposta por Mohan é incorporar avisos no meio dos vídeos, eles funcionariam como uma "lombada" para informar aos usuários que o vídeo pode conter informações erradas.
Para grandes eventos de notícias de última hora, como desastres naturais, a empresa está explorando novos rótulos de isenção de responsabilidade para vídeos ou resultados de pesquisa "avisando os espectadores que há falta de informações de alta qualidade" até aquele momento, escreveu Mohan.
O post do executivo é positivo por muitas razões. Aponta a preocupação do Google com a moderação de conteúdo, revela a dificuldade de fazer isso por meio de algoritmos e aborda os dilemas da liberdade de expressão, mas principalmente, mostra uma clara mudança de postura do YouTube, e por extensão, do Google, dono da plataforma de vídeos.
Diferentemente de outros posicionamentos do Google, o texto de Mohan sugere uma série de possibilidades, em vez de ações definitivas.
"Normalmente, quando uma grande plataforma decide falar sobre esforços para combater conteúdo nocivo, ela estabelece uma série de próximos passos imediatos e diz pouco sobre o futuro”, escreveu o jornalista Casey Newton do Platformer. "Mohan, por outro lado, especulou sobre algumas coisas que o YouTube pode fazer, convidando a um diálogo sobre qual seria a melhor maneira de uma grande plataforma lidar com esses problemas."
É uma mudança radical das gigantes de tecnologia. Se no passado elas sempre pareciam super confidentes e apontavam os algoritmos como solução para tudo, agora parecem cada vez mais confortáveis em dizer que não sabem qual é a solução para o problema. Também não deixa de ser uma admissão que o controle que elas têm sobre suas próprias tecnologias é bem menor do que muitos imaginam.
A realidade é que em boa parte das situações, empresas como o Google, Facebook e Twitter não têm qualquer boa opção como escolha. Tudo que as redes sociais façam para tornar as plataformas mais seguras pode ter consequências negativas para uma significativa parcela de pessoas.
Note que nenhuma big tech ganha com a desinformação. Vídeos enganosos sobre vacinas, política, ou seja lá o tema que for, são ruins para os negócios. Os anunciantes não querem suas marcas associadas à desinformação.
Como Mohan deixou claro, o YouTube não tem a resposta para acabar com a desinformação, mas admitir o problema e estar aberto ao diálogo é um grande passo na direção correta.
© 2024 Notícias da TV | Proibida a reprodução
TUDO SOBRE
YouTube
Mais lidas
Política de comentários
Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.