TECNOLOGIA
ChatGPT: EUA abrem investigação por supostos danos aos consumidores
A Comissão Federal de Comércio dos EUA (FTC) anunciou nesta quinta-feira (13) o início de uma investigação sobre a OpenAI , empresa responsável pelo ChatGPT . De acordo com informações divulgadas pelo Washington Post, a OpenAI está sendo acusada de violar leis de proteção ao consumidor, colocando em risco a reputação e os dados pessoais dos usuários.
Até o momento, tanto a OpenAI quanto a FTC não se manifestaram. No entanto, em uma publicação realizada em junho, a FTC já havia levantado preocupações sobre a inteligência artificial generativa e a considerou um dos principais pontos de atenção do Escritório de Tecnologia do órgão.
No mês passado, o norte-americano Michael Bennet escreveu para as principais empresas de tecnologia, pedindo que as empresas rotulem o conteúdo gerado por IA e que limitem a disseminação de materiais projetados para enganar os usuários. Além disso, em abril, o congressista apresentou um projeto de lei visando à criação de uma força-tarefa para analisar as políticas dos Estados Unidos relacionadas às novas inteligências artificiais que estão surgindo no mercado.
Para lidar com as oportunidades e riscos apresentados pela inteligência artificial generativa, o Instituto Nacional de Padrões e Tecnologia, uma agência não regulatória vinculada ao FTC, lançará um grupo de trabalho público composto por especialistas voluntários no campo da IA.
O ChatGPT conquistou grande popularidade, tornando-se uma das ferramentas mais utilizadas na internet. Desde o seu lançamento já conta com mais de 100 milhões de usuários.
Fonte: Tecnologia
TECNOLOGIA
Meta, Google e OpenAI firmam compromisso por IA mais responsável
As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.
Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.
Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.
Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.
Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.
Fonte: Tecnologia