Pesquisar
Close this search box.

TECNOLOGIA

Hackers violam segurança para forçar ChatGPT a escrever malware

Publicados

em

Inteligência artificial é capaz de escrever códigos maliciosos
Unsplash/Markus Spiske

Inteligência artificial é capaz de escrever códigos maliciosos

O ChatGPT promete agilizar uma série de tarefas do dia a dia, como buscar informações, escrever códigos ou redigir e-mails. Ele pode, também, facilitar o desenvolvimento de malwares, golpes e outros ataques. Cibercriminosos estão driblando as restrições e colocando a inteligência artificial para fazer seu trabalho sujo.

A OpenAI, empresa por trás do ChatGPT, colocou algumas barreiras no algoritmo para impedir que ele seja usado para desenvolver programas maliciosos ou campanhas de roubo de informações.

Ao pedir diretamente à inteligência artificial para escrever um e-mail de phishing ou um código de malware, por exemplo, o programa responde que não pode fazer essas tarefas, porque elas são ilegais.

No entanto, cibercriminosos deram um jeitinho para ela executar trabalhos desse tipo.

Telegram e scripts violam segurança do ChatGPT

O laboratório Check Point Research, da empresa de cibersegurança Check Point descobriu duas formas usadas por agentes mal-intencionados.

Uma delas envolve a API do GPT-3, que serve de base para o ChatGPT. Ela não tem as mesmas restrições do programa que ficou famoso nos últimos meses.

Leia Também:  De olho no futuro cresce a adesão de produtores rurais e empresas em usinas geradoras de energia fotovoltaica

A partir dela, os criminosos conseguiram criar um bot de Telegram que se conecta à inteligência artificial, mas não tem as mesmas restrições que ela.

Usando este robô, os pesquisadores da Checkpoint conseguiram pedir que o algoritmo escrevesse uma mensagem se passando por um banco, para ser usada em um e-mail de phishing, e um script que coleta arquivos PDF e os envia para um servidor externo usando FTP.

Os desenvolvedores do bot, inclusive, usam a ferramenta como negócio. As primeiras 20 mensagens são grátis. A partir disso, eles cobram US$ 5,50 por 100 envios.

Esta não é a única forma de driblar a segurança. Os cientistas da Checkpoint Security encontraram, em um fórum online, um script que contorna a segurança do ChatGPT e permite usá-lo como o usuário quiser — até para desenvolver malware.

Leia Também:  Twitter confunde Noruega com Nigéria e coloca rótulo errado em página

Se pedir com jeitinho, ele faz

Não é a primeira vez que a Check Point Research pega o ChatGPT criando malware.

Em janeiro de 2023, os pesquisadores encontraram posts em fóruns de hackers que traziam relatos do uso da inteligência artificial para aprimorar códigos, complementar scripts ou até mesmo fazer malwares do zero.

Em resposta, a OpenAI colocou restrições para evitar que a ferramenta fosse explorada dessa forma.

No entanto, nos testes feitos pelo Tecnoblog, foi possível criar um código para abrir o drive de CD — uma brincadeira inofensiva.

Em uma primeira tentativa, o ChatGPT se recusou. Na segunda, ele fez. O que mudou? No primeiro pedido, a palavra “malware” foi usada, mas no segundo, não.

Fonte: IG TECNOLOGIA

COMENTE ABAIXO:
Propaganda

TECNOLOGIA

Meta, Google e OpenAI firmam compromisso por IA mais responsável

Publicados

em

OpenAI, dona do ChatGPT, é uma das empresas que assinou compromisso com governo dos EUA
Unsplash/Rolf van Root

OpenAI, dona do ChatGPT, é uma das empresas que assinou compromisso com governo dos EUA

As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.

Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.

Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.

Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.

Leia Também:  Segurança pública inova com criação de núcleo de Justiça Restaurativa em sistemas socioeducativos

Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.

No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.

Fonte: Tecnologia

COMENTE ABAIXO:
Continue lendo

ALPINÓPOLIS E REGIÃO

MINAS GERAIS

POLÍCIA

ENTRETENIMENTO

MAIS LIDAS DA SEMANA