TECNOLOGIA
Parlamento Europeu aprova lei que controla inteligência artificial
O Parlamento da União Europeia aprovou nesta quarta-feira (14), por ampla maioria, um texto-base para uma futura lei sobre o uso de inteligência artificial nos Estados-membros do bloco.
O texto recebeu 499 votos a favor e 28 contrários, além de 93 abstenções, e veta a utilização de tecnologias de reconhecimento biométrico em tempo real em lugares públicos.
O objetivo da proposta é garantir que novas tecnologias ligadas à inteligência artificial, como o ChatGPT , respeitem as leis e os valores da UE.
As regras também miram combater a discriminação digital, a desinformação e o uso de deepfakes , ou seja, a criação de vídeos e áudios falsos por meio de IA.
As normas estabelecem obrigações de acordo com o nível de risco representado pela plataforma. Sistemas que utilizem “pontuações sociais”, ou seja, que classifiquem as pessoas com base em seu comportamento e características, serão proibidos.
Também serão vetados instrumentos de policiamento preditivo e sistemas de reconhecimento de emoções pelas forças de ordem, na gestão de fronteiras e em locais de trabalho.
Já as plataformas de IA generativa, como o ChatGPT, precisarão declarar que o conteúdo é criado por computador, ajudando a distinguir deepfakes de imagens reais.
A votação no Europarlamento abre caminho para as negociações com a Comissão Europeia, poder Executivo do bloco, e os Estados-membros, previstas para começar já nesta quarta.
Se o regulamento final for aprovado, a UE terá a primeira legislação no mundo para controlar o uso de inteligência artificial.
Fonte: Tecnologia
TECNOLOGIA
Meta, Google e OpenAI firmam compromisso por IA mais responsável
As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.
Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.
Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.
Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.
Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.
Fonte: Tecnologia