TECNOLOGIA
IAs cometem plágio, e conflitos por direitos autorais já começaram
A capacidade do ChatGPT de gerar textos convincentes causou um alvoroço. Mas, quando submetida ao escrutínio de quem não se empolga facilmente com a inteligência artificial (IA), a ferramenta mostra seus pontos fracos. No começo, veio a constatação de erros nos resultados gerados. Agora, surgiram sinais de que mecanismos do tipo cometem plágio.
O lado sombrio das IAs que geram conteúdo foi apresentado pela CNET. Mas não na forma de uma reportagem sobre o assunto. O veículo usou um mecanismo do tipo para gerar notícias sobre investimentos e, bom, teve que se retratar. A ferramenta estava apresentando cálculos incorretos.
Esse é um problema grave. Uma informação incorreta sobre investimentos pode fazer o usuário do site tomar uma decisão financeira equivocada. O agravante é que a CNET não deixava claro que estava publicando textos gerados por uma máquina.
A situação piora. Uma apuração feita pelo Futurism indica que a IA usada pela CNET plagiou textos, inclusive de autores do próprio veículo. Algumas supostas cópias eram quase literais, havendo mudanças de certas palavras por sinônimos, por exemplo. Outras eram bastante modificadas, mas não a ponto de impedir a sua identificação como cópia.
O site Big Technology encontrou outra caso chamativo. Um site criado no Substack com o nome The Rationalist publicou um texto que logo se tornou viral. A publicação chegou a ser comentada no Hacker News. Mas alguns usuários deste último notaram algo errado. O texto não parecia ter sido escrito por um humano.
Foi quando o “autor”, que se identifica apenas como “Petra”, comentou ter usado ferramentas da OpenAI (provavelmente, o ChatGPT), Jasper e Hugging Face para “melhorar a legibilidade” do texto. Logo ficou claro que a publicação era muito parecida com um texto do Big Technology publicado apenas alguns dias antes.
A inteligência artificial como vilã
Tudo indica que os conflitos oriundos do uso indiscriminado da inteligência artificial na geração de conteúdo estão só começando. Como esse cenário é novo, ainda há confusão sobre como leis e políticas de direitos autorais devem ser interpretadas quando a tecnologia está no centro dos desentendimentos.
No caso do The Rationalist, o texto problemático não está mais disponível. No entanto, o Substack teve dúvidas sobre como lidar com a acusação de direitos autorais violados por não ter conseguido determinar se, de fato, aquele texto era um plágio. Aparentemente, o texto foi removido pelo próprio “autor”.
Há casos mais graves. A Getty Images está processando a criadora do Stable Diffusion, serviço que gera imagens a partir de textos. A companhia afirma que a Stability AI “copiou e processou ilegalmente milhares de imagens protegidas por direitos autorais” para treinar o seu sistema.
Ainda não há informação sobre se a CNET enfrentará disputas judiciais em razão dos aparentes plágios encontrados em seus textos. Seja como for, a companhia não desistiu de usar ferramentas de inteligência artificial em suas publicações.
Connie Guglielmo, editora-chefe da CNET, admitiu que a empresa cometeu “erros” com o uso da IA. No entanto, ela atribuiu o problema a falhas de revisão por parte dos editores (humanos) encarregados pelas publicações.
O veículo parou de usar a ferramenta, mas Guglielmo declarou que voltará para a tecnologia “quando nos sentirmos confiantes de que a ferramenta e nossos processos editoriais prevenirão erros humanos e de IA”.
Fonte: IG TECNOLOGIA
TECNOLOGIA
Meta, Google e OpenAI firmam compromisso por IA mais responsável
As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.
Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.
Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.
Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.
Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.
Fonte: Tecnologia