TECNOLOGIA
YouTube mostra vídeos de armas e ataques em escolas a crianças gamers
O YouTube recomenda vídeos de armas de fogo e massacres em escolas a crianças que demonstram interesse por jogos, de acordo com pesquisa do Tech Transparency Project divulgada nesta terça-feira (16).
Os pesquisadores criaram quatro contas no YouTube simulando que se tratavam de crianças e perceberam que a plataforma passou a recomendar vídeos violentos e com instruções para modificar armas de fogo. Os testes foram feitos nos Estados Unidos.
Duas das contas criadas pelos pesquisadores diziam ser de crianças de 9 anos, e duas de adolescentes de 14 anos. Inicialmente, vídeos de jogos foram assistidos nas quatro contas, a fim de que o algoritmo do YouTube entendesse que esse era o interesse dos usuários.
Enquanto as contas de 9 anos assistiram a vídeos de jogos como Roblox, Lego Star Wars e Five Nights at Freddy’s, as contas de supostos usuários de 14 anos assistiram a vídeos de games de tiros, como Grand Theft Auto, Halo e Red Dead Redemption.
Depois dessa primeira etapa, todas as quatro contas passaram a receber vídeos de violência real nas recomendações. Em uma das contas de 9 anos e em uma das de 14 anos, os pesquisadores começaram a assistir a essas recomendações, e a pesquisa mostra que o algoritmo, então, passou a enviar mais e mais vídeos violentos.
Durante os testes, que duraram 30 dias, a conta de 9 anos que não interagiu com as recomendações recebeu 34 vídeos de armas como sugestões, enquanto a que interagiu recebeu 382, mais de 12 por dia. Já nas contas de 14 anos, esses números foram de 172 vídeos de armas recomendados para a conta que não engajou e 1.325 vídeos para a conta que engajou com as recomendações, mais de 44 por dia.
Dentre os vídeos recomendados pelo algoritmo do YouTube a crianças gamers, estavam cenas retratando tiroteios em escolas e outros eventos de tiroteio em massa; demonstrações gráficas de quanto dano as armas podem infligir a um corpo humano; e guias de instruções para converter uma arma em uma arma totalmente automática. O documentário sobre o serial killer Jeffrey Dahmer também foi sugerido diversas vezes.
Os pesquisadores identificaram que alguns dos vídeos recomendados ferem as próprias diretrizes do YouTube contra violência e, portanto, deveriam ter sido excluídos ao invés de estarem sendo recomendados a menores de idade. Além disso, muitos dos vídeos eram monetizados, o que significa que tanto os criadores do conteúdo quanto o YouTube lucram com a disseminação desses clipes.
Questionado pela reportagem, o YouTube questionou a metodologia da pesquisa.
“Oferecemos várias opções para espectadores mais jovens, incluindo o aplicativo YouTube Kids e nossas ferramentas de experiência supervisionada, projetadas para criar uma experiência mais segura para pré-adolescentes e adolescentes cujos pais decidiram que estão prontos para usar o aplicativo principal do YouTube. Vemos de maneira positiva pesquisas sobre nosso sistema de recomendações e estamos explorando mais maneiras de trazer pesquisadores acadêmicos para estudar nossos sistemas. Mas, ao revisar a metodologia do relatório mencionado pela reportagem, tivemos dificuldade para tirar conclusões sólidas. O estudo não fornece, por exemplo, o contexto de quantos vídeos gerais foram recomendados para as contas de teste e também não fornece informações sobre como as contas de teste foram configuradas, incluindo se as ferramentas de experiências supervisionadas do YouTube foram aplicadas”, disse a empresa, em nota enviada ao portal iG.
Fonte: Tecnologia
TECNOLOGIA
Meta, Google e OpenAI firmam compromisso por IA mais responsável
As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.
Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.
Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.
Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.
Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.
Fonte: Tecnologia
-
ALPINÓPOLIS E REGIÃO4 dias atrás
JÚRI POPULAR ABSOLVE RÉU QUE TENTOU MATAR EX-ESPOSA COM 5 FACADAS
-
Minas Gerais2 dias atrás
PM intensifica combate ao crime
-
Brasil e Mundo2 dias atrás
Descobrindo Ouro Preto: História, Cultura, Gastronomia e Cautela
-
Minas Gerais5 dias atrás
Terror em obras que vão atender a Heineken: Vigilante é executado no trabalho!
-
ESPORTES1 dia atrás
Pedrinho: O herói que transformou o Cruzeiro e resgatou a paixão de milhões
-
ARTIGOS2 dias atrás
A licença-paternidade e o desafio de não elevar ainda mais o Custo Brasil
-
Brasil e Mundo2 dias atrás
Toyota lança novo carro no Brasil. Confira o que ele têm de tão especial!
-
ENTRETENIMENTO2 dias atrás
O Novo Herói que Vai Redefinir a Marvel – Capitão América Nova Ordem Mundial