Pesquisar
Close this search box.

TECNOLOGIA

Inteligência artificial tem problemas, mas não os levantados por Musk

Published

on

Elon Musk assinou carta pedindo pausa em experimentos com inteligência artificial
Reprodução/Instagram – 05.10.2022

Elon Musk assinou carta pedindo pausa em experimentos com inteligência artificial

“Desinformação estratégica”. É assim que o pesquisador Tarcízio Silva, mestre em Comunicação e Cultura Contemporâneas pela UFBA e estudioso do racismo algorítmico, define a carta assinada por Elon Musk e por diversos empresários e acadêmicos estadunidenses na última semana. O texto critica o avanço da inteligência artificial (IA) mas, na visão de pesquisadores brasileiros, não pelo motivo correto.

É o que acredita Fernanda Rodrigues, mestre em Direitos da Sociedade em Rede pela UFSM e coordenadora de pesquisa no Instituto de Referência em Internet e Sociedade (IRIS). “É sempre importante ressaltar os perigos que o desenvolvimento irresponsável de IA pode representar, porém a carta não endereçou isso da forma mais embasada”, avalia a pesquisadora.

Na carta, Musk, empresários e acadêmicos pedem uma pausa em experimentos relacionados à inteligência artificial, citando riscos que Fernanda considera futuristas. “Devemos arriscar perder o controle de nossa civilização?”, questiona o texto.

“O texto fala muito sobre os riscos de uma IA futurística, que pode se sobrepor à vontade humana e gerar um perigo à própria existência desta, mas mesmo mencionando um exemplo nas referências, deixa de lado toda a produção científica que aponta os problemas já enfrentados hoje com o uso dessa tecnologia, como vieses discriminatórios, desinformação e discurso de ódio. Portanto, isso gera questionamentos a respeito da efetiva preocupação que esse texto apresenta”, analisa Fernanda.

A carta ainda menciona diretamente o GPT-4 , versão mais atualizada da inteligência artificial que deu origem ao famoso ChatGPT . A OpenAI, empresa criadora das tecnologias, teve Elon Musk como um de seus fundadores e, atualmente, o bilionário critica os rumos que a companhia tomou, sobretudo por receber forte financiamento da Microsoft. De acordo com reportagem do site Semafor, Musk tentou assumir o controle da OpenAI antes de deixá-la, mas teve a recusa de outros fundadores.

Além do bilionário, outros empresários também assinam a carta. Para Tarcízio, um dos principais objetivos do texto é “chacoalhar as inclinações do capital financeiro na circulação de recursos”. O pesquisador cita outro grande objetivo da carta, que seria o de “promover uma noção de que o principal problema da inteligência artificial é uma suposta possibilidade futura de superação das capacidades dos humanos, que perderiam o controle”, assim como acredita Fernanda.

Leia Também:  Minas Gerais é o primeiro estado a ter uma Agência de Inteligência Especial contra crimes e infrações ambientais

“A carta soterra atores acadêmicos, políticos e ativistas que estão propondo soluções multisetoriais de controle da tecnologia que poderiam beneficiar todas as pessoas”, afirma Tarcízio.

Os reais riscos da inteligência artificial

Apesar de ter forte viés econômico, a carta divulgada na última semana trouxe à tona um debate bastante conhecido entre pesquisadores e ativistas: os riscos da inteligência artificial.

O problema, porém, não gira em torno de consequências futuras, que parecem vir de filmes de ficção científica, mas sim de questões que já estão presentes no nosso cotidiano.

“Nós temos hoje diferentes estudos que falam sobre os riscos associados ao desenvolvimento de IA. Dentre eles, destaco a disseminação de notícias falsas, não só por meio de texto, mas também por geração de imagens e deepfake. Da mesma forma, tem sido igualmente preocupante a reprodução de vieses discriminatórios por sistemas de IA, seja por viés de gênero, raça, classe social ou outro”, comenta Fernanda.

Algoritmos de inteligência artificial que usamos cotidianamente, como os presentes nas redes sociais, são capazes de trazerem consequências graves. A disseminação de desinformação e discurso de ódio são algumas delas, assim como o racismo algorítmico.

O conceito revela que os sistemas de inteligência artificial carregam consigo preconceitos e viéses, trazendo resultados discriminatórios. Alguns exemplos famosos são o uso de reconhecimento facial na segurança pública, que acaba reforçando o racismo estrutural, ou o caso de 2020 em que o algoritmo do Twitter retirava pessoas negras das fotos ao fazer o corte automático das imagens, sempre privilegiando rostos brancos.

Além de viéses de raça, sistemas de IA também podem carregar viéses de classe social ou gênero. Um exemplo é esta reportagem de 2021 do portal iG , que revela que o sistema do Google utiliza um algoritmo tendencioso para definir o gênero de seus usuários.

Leia Também:  Algoritmos do Instagram promovem redes de pedofilia, aponta pesquisa

“Quando sistemas gigantescos possuem falhas contra grupos específicos, os impactos vão muito além dos danos individuais. As históricas desigualdades sociais podem ser aprofundadas se a mediação de recursos sociais é concentrada em poucas empresas através de plataformas”, analisa Tarcízio.

Empresas sem controle

Atualmente, a sociedade civil e pesquisadores discutem parâmetros que as empresas devem adotar para desenvolver inteligências artificiais éticas e responsáveis socialmente. Esse tipo de cuidado, porém, não é colocado em prática.

Sistemas poderosos de IA, como o ChatGPT e o Bard , do Google, foram disponibilizados aos usuários ainda em fase de testes, quando podem ter problemas que não foram previstos nem corrigidos pelas empresas. A preocupação dentre as empresas de tecnologia ainda é tão pequena que, recentemente, a Microsoft, que vem investindo fortemente em IA, demitiu toda a sua equipe de ética no setor, segundo o site especializado Platformer.

No mundo, existem poucas regulações a respeito do desenvolvimento de inteligências artificiais. O principal exemplo é o AI Act, da União Europeia, que define algumas regras que devem ser adotadas pelas empresas.

No Brasil, existe o Projeto de Lei 21/2020, conhecido como Marco Legal da Inteligência Artificial, que foi aprovado no plenário da Câmara dos Deputados em 2021, mas não chegou a ser votado no Senado. No ano passado, uma comissão de juristas do Senado elaborou um substitutivo a partir deste PL da Câmara e de outros dois apresentados no Senado.

“A gente ainda está aguardando para que esse novo texto, mais aprofundado, seja colocado em pauta para que possa ser melhor discutido com todos os setores da sociedade”, afirma Fernanda.

Fonte: Tecnologia

COMENTE ABAIXO:
Advertisement

TECNOLOGIA

Meta, Google e OpenAI firmam compromisso por IA mais responsável

Published

on

OpenAI, dona do ChatGPT, é uma das empresas que assinou compromisso com governo dos EUA
Unsplash/Rolf van Root

OpenAI, dona do ChatGPT, é uma das empresas que assinou compromisso com governo dos EUA

As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.

Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.

Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.

Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.

Leia Também:  Netflix cria recurso para usar celular como controle de jogos na TV

Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.

No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.

Fonte: Tecnologia

COMENTE ABAIXO:
Continue Reading

ALPINÓPOLIS E REGIÃO

MINAS GERAIS

POLÍCIA

ENTRETENIMENTO

MAIS LIDAS DA SEMANA