|

Share on facebook
Share on twitter

Compartilhe!

Apesar dos usuários dizerem ao YouTube que não estão interessados ​​em certos tipos de vídeos, as recomendações continuam chegando, apontou um estudo do Mozilla.

Depois de acessar as recomendações de vídeo de 20.000 usuários do YouTube, os pesquisadores da Mozilla descobriram que botões como “Não Tenho Interesse”, “Não Gostei”, “Parar de Recomendar Canal” e “Remover do Histórico de Exibição” são totalmente ineficazes. Nenhum deles conseguiu impedir que um conteúdo semelhante fosse recomendado. Até quando funcionam, esses botões ainda permitem mais da metade de conteúdo semelhante, mesmo quando o usuário diz que não tem interesse, segundo o relatório. Na maioria das vezes, os botões mal conseguiram bloquear vídeos indesejados.

Para coletar os dados de vídeos dos usuários, os pesquisadores do Mozilla recrutaram voluntários que usaram o RegretsReporter da fundação. Essa é uma extensão do navegador, que sobrepõe o botão “Parar de Recomendar” aos vídeos do YouTube. Foi exatamente isso que os participantes visualizaram. No back-end, incluiram os usuários aleatoriamente em um grupo e diferentes sinais foram enviados ao YouTube. Isso acontecia cada vez que eles clicavam nos botões inclusos pelo Mozilla: “Não Gosto, Não Tenho Interesse, Não Recomendo Canal e Remover do Histórico.

Mozilla pesquisou os dados de 500 milhões de vídeos do YouTube

Usando os dados de mais de 500 milhões de vídeos recomendados, os assistentes de pesquisa criaram mais de 44.000 pares de vídeos. Mostrando um vídeo rejeitado, além de um vídeo posteriormente recomendado pelo YouTube. Os pesquisadores avaliaram os pares ou usaram o aprendizado de máquina, para decidir se a recomendação era muito semelhante ao vídeo que o usuário rejeitou.

A pesquisa revelou que o envio de sinais de “Não Gosto” e “Não Estou Interessado” evitou apenas 12% das recomendações ruins. Os botões “Não Recomendar Canal” e “Remover do Histórico” foram um pouco melhor e evitaram 43% das recomendações ruins. Porém, os pesquisadores disseram que as ferramentas oferecidas pela plataforma, não afastam o conteúdo indesejado.

“O YouTube precisa respeitar o feedback que os usuários compartilham sobre sua experiência, tratando-os como sinais significativos sobre como as pessoas querem usar o seu tempo na plataforma”, disseram os pesquisadores.

YouTube diz que não tenta bloquear todo o conteúdo

A porta-voz do YouTube, Elena Hernandez, diz que esses comportamentos são intencionais, porque a plataforma não tenta bloquear todo o conteúdo relacionado a um tópico. Hernandez chegou a fazer uma crítica ao relatório, dizendo que não foi considerado como os controles do YouTube são projetados.

“É importante ressaltar que nossos controles não filtram tópicos ou pontos de vista inteiros, pois isso pode ter efeitos negativos para os espectadores, como criar bolhas de informação”, disse Hernandez. “Valorizamos as pesquisas acadêmicas em nossa plataforma, e é por isso que recentemente expandimos o acesso à API de dados ao nosso Programa de Pesquisador do YouTube. O relatório do Mozilla não leva em consideração como nossos sistemas realmente funcionam e, portanto, é difícil obter muitos insights.”

Hernandez diz que a definição de “semelhante” do Mozilla, não considera como funciona o sistema de recomendação criado pelo YouTube. “A opção “Não Tenho Interesse” remove um vídeo específico, e o botão “Não Recomendar Canal” impede que o canal seja recomendado no futuro”, disse Hernandez. O Youtube diz que não deseja impedir as recomendações de conteúdo relacionado a um tópico, opinião ou palestrante. Esse é o principal problema da plataforma, que ainda não conseguiu bloquear as Fake News que são despejadas no YouTube diariamente.

O YouTube não consegue impedir as Fake News

Além do YouTube, outras plataformas como TikTok e Instagram introduzem várias ferramentas de feedback para os usuários treinarem o algoritmo, isso possibilita que os Apps mostrem um conteúdo mais relevante. No entanto, os usuários geralmente reclamam sobre esse controle. Pois mesmo quando sinalizam que não querem ver algo, as recomendações semelhantes persistem. Nem sempre está claro o que os esses controles realmente fazem, diz a pesquisadora do Mozilla Becca Ricks. Ricks disse que as plataformas não foram transparentes e o feedback não foi levado em consideração.

Os aplicativos, principalmente os de redes sociais, precisam aceitar que o controle de conteúdo deve estar na mão dos usuários. Não podemos permitir que nossa liberdade de escolha seja censurada, as plataformas de conteúdo e redes sociais precisam entender que o usuário está no comando.

Você Encontra Todos os Produtos do Universo Apple no Site das Americanas

Acesse Aqui



Publicidade
Publicidade Publicidade
Publicidade

Artigo:

Publicidade
Posts
Relacionados
Publicidade