TECNOLOGIA
Bard, o ChatGPT do Google, chega ao Brasil; conheça a IA e seus riscos
Menos de quatro meses após a estreia nos Estados Unidos , o Google liberou nesta quinta-feira (13) o acesso ao Bard no Brasil. A ferramenta de inteligência artificial (IA), que concorre com o ChatGPT , está disponível em 40 idiomas, incluindo o português brasileiro.
O Bard funciona de forma bastante similar ao ChatGPT, conseguindo responder perguntas, resumir textos, dar ideias sobre diversos assuntos, escrever emails e muito mais.
Além da chegada ao Brasil, o Bard também está sendo liberado na União Europeia. O Google anunciou, ainda, algumas atualizações na ferramenta de IA. Confira:
- Conversas recentes e fixadas: recurso permite que usuários fixem conversas na aba lateral do Bard, podendo revisitar as interações e continuar um mesmo assunto;
- Respostas em voz alta: o Bard agora consegue ler as respostas em voz alta, o que ajuda tanto na acessibilidade quanto na possibilidade do usuário fazer outras tarefas enquanto ouve a IA;
- Exportação de códigos Python para o Replit;
- Compartilhamento: agora é possível compartilhar as respostas do Bard para outras pessoas em apps do Google e em redes sociais;
- Modificar respostas: o Bard ganha novos botões para modificar as respostas, como alterar tom, estilo e fazer outras melhorias no texto;
- Imagens no Google Lens: integração entre os dois serviços permite inserir imagens nas perguntas.
Por enquanto, os dois últimos recursos estão disponíveis apenas em inglês. Os demais já estão disponíveis junto com o lançamento do Bard no Brasil.
Os riscos da inteligência artificial
Por enquanto, o Bard está em fase experimental, e o Google ainda não tem previsão de quando o sistema pode deixar de ser um teste. Isso significa que a ferramenta pode mostrar respostas erradas ou violentas.
Bruno Pôssas, vice-presidente global de engenharia do Google, explica que o Bard tem, atualmente, três desafios principais. O primeiro é o preconceito, ou seja, a inteligência artificial pode reproduzir preconceitos que aprende com os conteúdos que analisa da web, devolvendo comentários enviesados para os usuários.
O segundo problema são as chamadas “alucinações”. Nesse caso, o que o Bard faz é trazer respostas muito bem argumentadas e convincentes, mas sem qualquer ancoragem nos fatos. Na prática, a inteligência artificial pode desinformar os usuários.
O terceiro desafio são as respostas ofensivas. Assim como no caso do preconceito, o Bard pode aprender a ser violento, respondendo os usuários de forma ofensiva.
Ao acessar o Bard, o Google avisa os usuários que a ferramenta “é experimental e pode apresentar respostas imprecisas ou inadequadas”.
Segundo Bruno, a empresa segue uma série de princípios éticos para evitar que esses problemas aconteçam, incluindo revisão realizada por humanos. Isso significa que o Bard não aprende apenas através das informações que coleta na web, mas também através de comandos que a equipe do Google insere para que a IA entenda o que são bons ou maus exemplos.
Reportagem da Bloomberg aponta que, nos Estados Unidos, os funcionários que treinam o Bard vivem uma rotina estressante, além de receberam baixos salários. Sem formação técnica, eles revisam respostas da IA com prazos bastante apertados – há revisões, por exemplo, que devem ser feitas em três minutos, segundo a reportagem.
Bard: já era hora de lançar?
Antes de chegar ao Brasil, o Google afirma que o Bard passou por revisores brasileiros, contando com especialistas, legisladores e reguladores – a empresa diz não poder compartilhar as entidades envolvidas nos testes. “Ao longo desses três meses [desde o lançamento nos Estados Unidos], não só esses parceiros, mas a nossa comunidade de colaboradores internos brasileiros testou exaustivamente de maneira colaborativa esses comandos”, afirmou Leonardo Longo, gerente sênior de marketing de produto do Google para a América Latina, em coletiva de imprensa.
Além do Brasil, a União Europeia também teve que esperar para receber o Bard. Como as leis locais de produtos de tecnologia e de inteligência artificial são conhecidas por serem mais rígidas, é provável que processos similares também tenham sido realizados no bloco.
Apesar das revisões, o Google admite que o Bard ainda tem problemas, como os citados por Bruno. Mesmo assim, expandiu a disponibilidade da IA após menos de quatro meses da chegada aos Estados Unidos.
“Ao mesmo tempo que a gente entende que existe uma oportunidade enorme em relação à IA generativa, e que gente pode investir nisso e trazer uma experiência muito boa para os usuários, a gente entende, sim, que essa tecnologia ainda está bem no início. Então a gente tem uma série de questões que podem gerar impactos significativos, que vão precisar ser melhoradas e discutidas”, afirmou Claudia Tozetto, gerente de comunicação e relações públicas do Google Brasil.
Segundo Claudia, a chegada da ferramenta ao Brasil aconteceu porque a empresa precisa do feedback dos usuários para que o sistema avance – mesmo que isso signifique disponibilizar um sistema potencialmente prejudicial a centenas de milhões de pessoas.
“O Google tem levado muito a sério essa responsabilidade de oferecer uma ótima experiência para os usuários e, nas nossas plataformas, a gente tem essa mentalidade de sempre ouvir o feedback para melhorar. A gente está sendo muito responsável e cauteloso na forma como testa o produto, mas a gente quer muito ouvir o feedback da comunidade de usuários, e a gente está muito comprometido em continuar melhorando”, completou.
Questionada sobre a possibilidade do Google ter acelerado o lançamento do Bard para competir com o ChatGPT, Claudia disse que a empresa não faz comentários sobre a concorrência.
Fonte: Tecnologia
TECNOLOGIA
Meta, Google e OpenAI firmam compromisso por IA mais responsável
As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.
Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.
Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.
Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.
Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.
Fonte: Tecnologia
-
ALPINÓPOLIS E REGIÃO3 dias atrás
JÚRI POPULAR ABSOLVE RÉU QUE TENTOU MATAR EX-ESPOSA COM 5 FACADAS
-
Minas Gerais14 horas atrás
PM intensifica combate ao crime
-
Minas Gerais4 dias atrás
Terror em obras que vão atender a Heineken: Vigilante é executado no trabalho!
-
Brasil e Mundo23 horas atrás
Descobrindo Ouro Preto: História, Cultura, Gastronomia e Cautela
-
ARTIGOS24 horas atrás
A licença-paternidade e o desafio de não elevar ainda mais o Custo Brasil
-
Brasil e Mundo14 horas atrás
Toyota lança novo carro no Brasil. Confira o que ele têm de tão especial!
-
ENTRETENIMENTO14 horas atrás
O Novo Herói que Vai Redefinir a Marvel – Capitão América Nova Ordem Mundial
-
Saúde14 horas atrás
Falta de vitamina D na durante a gestação pode causar autismo no bebê!