Pesquisar
Close this search box.

TECNOLOGIA

YouTube mostra vídeos de armas e ataques em escolas a crianças gamers

Publicados

em

YouTube recomenda vídeos violentos a crianças, aponta pesquisa
Unsplash

YouTube recomenda vídeos violentos a crianças, aponta pesquisa

O YouTube recomenda vídeos de armas de fogo e massacres em escolas a crianças que demonstram interesse por jogos, de acordo com pesquisa do Tech Transparency Project divulgada nesta terça-feira (16).

Os pesquisadores criaram quatro contas no YouTube simulando que se tratavam de crianças e perceberam que a plataforma passou a recomendar vídeos violentos e com instruções para modificar armas de fogo. Os testes foram feitos nos Estados Unidos.

Duas das contas criadas pelos pesquisadores diziam ser de crianças de 9 anos, e duas de adolescentes de 14 anos. Inicialmente, vídeos de jogos foram assistidos nas quatro contas, a fim de que o algoritmo do YouTube entendesse que esse era o interesse dos usuários.

Enquanto as contas de 9 anos assistiram a vídeos de jogos como Roblox, Lego Star Wars e Five Nights at Freddy’s, as contas de supostos usuários de 14 anos assistiram a vídeos de games de tiros, como Grand Theft Auto, Halo e Red Dead Redemption.

Depois dessa primeira etapa, todas as quatro contas passaram a receber vídeos de violência real nas recomendações. Em uma das contas de 9 anos e em uma das de 14 anos, os pesquisadores começaram a assistir a essas recomendações, e a pesquisa mostra que o algoritmo, então, passou a enviar mais e mais vídeos violentos.

Leia Também:  Natal em Caxambu tem teatro e gincana para as crianças

Durante os testes, que duraram 30 dias, a conta de 9 anos que não interagiu com as recomendações recebeu 34 vídeos de armas como sugestões, enquanto a que interagiu recebeu 382, mais de 12 por dia. Já nas contas de 14 anos, esses números foram de 172 vídeos de armas recomendados para a conta que não engajou e 1.325 vídeos para a conta que engajou com as recomendações, mais de 44 por dia.

Dentre os vídeos recomendados pelo algoritmo do YouTube a crianças gamers, estavam cenas retratando tiroteios em escolas e outros eventos de tiroteio em massa; demonstrações gráficas de quanto dano as armas podem infligir a um corpo humano; e guias de instruções para converter uma arma em uma arma totalmente automática. O documentário sobre o serial killer Jeffrey Dahmer também foi sugerido diversas vezes.

Os pesquisadores identificaram que alguns dos vídeos recomendados ferem as próprias diretrizes do YouTube contra violência e, portanto, deveriam ter sido excluídos ao invés de estarem sendo recomendados a menores de idade. Além disso, muitos dos vídeos eram monetizados, o que significa que tanto os criadores do conteúdo quanto o YouTube lucram com a disseminação desses clipes.

Leia Também:  Cemig e colaboradores destinam mais de R$ 2,4 milhões para instituições de apoio a crianças e adolescentes

Questionado pela reportagem, o YouTube questionou a metodologia da pesquisa.

“Oferecemos várias opções para espectadores mais jovens, incluindo o aplicativo YouTube Kids e nossas ferramentas de experiência supervisionada, projetadas para criar uma experiência mais segura para pré-adolescentes e adolescentes cujos pais decidiram que estão prontos para usar o aplicativo principal do YouTube. Vemos de maneira positiva pesquisas sobre nosso sistema de recomendações e estamos explorando mais maneiras de trazer pesquisadores acadêmicos para estudar nossos sistemas. Mas, ao revisar a metodologia do relatório mencionado pela reportagem, tivemos dificuldade para tirar conclusões sólidas. O estudo não fornece, por exemplo, o contexto de quantos vídeos gerais foram recomendados para as contas de teste e também não fornece informações sobre como as contas de teste foram configuradas, incluindo se as ferramentas de experiências supervisionadas do YouTube foram aplicadas”, disse a empresa, em nota enviada ao portal iG.

Fonte: Tecnologia

COMENTE ABAIXO:
Propaganda

TECNOLOGIA

Meta, Google e OpenAI firmam compromisso por IA mais responsável

Publicados

em

OpenAI, dona do ChatGPT, é uma das empresas que assinou compromisso com governo dos EUA
Unsplash/Rolf van Root

OpenAI, dona do ChatGPT, é uma das empresas que assinou compromisso com governo dos EUA

As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.

Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.

Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.

Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.

Leia Também:  Internet poderá sofrer falha mundial ainda em Maio, entenda!

Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.

No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.

Fonte: Tecnologia

COMENTE ABAIXO:
Continue lendo

ALPINÓPOLIS E REGIÃO

MINAS GERAIS

POLÍCIA

ENTRETENIMENTO

MAIS LIDAS DA SEMANA