TECNOLOGIA
Polícia de cidade dos EUA pode usar robôs com ‘licença para matar’
A cidade de São Francisco, Estados Unidos, por meio da sua câmara de supervisores, aprovou o uso de robôs armados pela polícia. Agora, o Departamento de Polícia de São Francisco (SFPD, na sigla em inglês) poderá usar o equipamento para matar ou ferir suspeitos em situações de perigo à vida. Entre as polêmicas do caso, está a escolha da arma.
A proposta para o uso do “Robocop” garante que ele só será usado como último recurso. O principal exemplo usado em favor do robô foi o caso de um atirador que matou cinco policiais e dois civis em Dallas, Texas. A polícia da cidade texana usou um robô antibombas para levar uma bomba até o local onde o atirador estava.
Robô policial, o drone amigo da vizinhança
Se você já assistiu The Wire, deve lembrar da cena em que James McNutty, em um momento de epifania comenta com um de seus colegas que sente falta da época do “policial da vizinhança”, que conhecia os moradores pelo nome.
A chegada do robô policial com “permissão para matar” leva aos cidadãos de São Francisco algo que eles só veem pelo noticiário: drones usados em guerras. Claro, dada as devidas proporções. Não estamos falando de um MQ-9 Reaper com míssil Hellfire, mas sim de um robô com uma granada ou escopeta.
Conforme explica o Ars Technica, alguns robôs antibombas usam escopeta para desarmar a bomba. Robôs armados não estão longe da população, mas o seu uso em operações de combate da polícia ainda é novidade.
A SFPD usa o robô Talon para situações antibomba. O robô é fabricado pela QinetiQ, empresa que também desenvolveu o MAARS, a versão “Rambo” do Talon.
Um dos argumentos contrários ao uso dos robôs policiais é que não há necessidade da instalação de armas letais, pois a vida dos policiais não estará em risco — a operação dos robôs será feita remotamente.
No caso em Dallas, ocorrido em 2016, a polícia usou o robô adaptado como último recurso — inclusive foi especulado que a bomba usada era do kit de desarme. Afinal, cinco policiais e dois civis foram mortos. Para garantir o seu uso como última medida, a legislação de São Francisco garantirá que somente um número limitado de oficiais de alto escalão autorizem o uso do robô como força letal.
Bombas aumentam risco de efeitos colaterais
O uso de um robô não garantirá o fim das falhas nas abordagens — ele ainda será controlado remotamente. Além disso, a opção da SFPD é, em um primeiro momento, usar robôs-bombas — que aumenta o risco de acertar civis.
O problema de efeitos colaterais com drones levou as Forças Armadas a desenvolver o Hellfire R9X, míssil antipessoal sem nenhum explosivo. Se o objetivo desses “robocops” são finalizar uma situação extrema sem colocar em risco a vida de policiais e civis, o uso de armas não letais nos robôs também é possível. Mesmo que alguns estados americanos tenham pena de morte, o papel da polícia ainda é garantir o devido processo legal.
Fonte: IG TECNOLOGIA
TECNOLOGIA
Meta, Google e OpenAI firmam compromisso por IA mais responsável
As sete principais empresas de inteligência artificial (AI) dos Estados Unidos concordaram nesta sexta-feira (21) em adotar uma série de medidas para desenvolver seus sistemas de forma mais responsável. O acordo foi realizado entre as companhias e o governo dos Estados Unidos.
Dentre os compromissos aceitos pela Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, estão investimentos em cibersegurança, realização de testes envolvendo aspectos de discriminação nos sistemas de IA antes de seus lançamentos, e um novo sistema de marca d’água em conteúdos gerados por IA.
Este último compromisso é uma forma das empresas sinalizarem que um texto, áudio, vídeo ou foto foi gerado por uma inteligência artificial, evitando que usuários acreditem, por exemplo, em deepfakes. As empresas ainda trabalham para implementar as novidades.
Por se tratar de um compromisso voluntário, a medida não é considerada uma regulação das empresas de IA, já que não há consequências para o descumprimento das promessas.
Em paralelo à medida do governo, o Congresso dos EUA estuda propor uma lei para regulamentar sistemas de IA.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no início de maio um projeto de lei para regulamentar sistemas de inteligência artificial. Por enquanto, a matéria ainda não tem data para ser votada.
Fonte: Tecnologia