Tecnologia & Inovação

“Talvez não dê tempo”: especialista alerta sobre segurança em IA

Diretor de programa da agência Aria afirma que desenvolvimento acelerado da tecnologia pode comprometer implementação de medidas de segurança adequada

David Dalrymple, diretor de programa e especialista em segurança de inteligência artificial da agência britânica Aria, alertou que o mundo pode não ter tempo suficiente para se preparar contra os riscos apresentados pelos sistemas avançados de IA. A Aria é uma agência de pesquisa científica do governo britânico que opera de forma independente, apesar do financiamento público.
O especialista do Reino Unido manifestou sua preocupação durante entrevista sobre a crescente capacidade da tecnologia. De acordo com o The Guardian, Dalrymple expressou sérias preocupações sobre o ritmo acelerado do desenvolvimento da IA. “Acredito que devemos nos preocupar com sistemas que podem executar todas as funções que os humanos realizam para fazer as coisas no mundo, mas de forma melhor”, afirmou Dalrymple. “Porque seremos superados em todos os domínios em que precisamos ser dominantes para manter o controle de nossa civilização, sociedade e planeta”.
A preocupação emerge da disparidade de compreensão entre o setor público e as empresas de IA sobre o potencial dos avanços tecnológicos iminentes. Dalrymple enfatizou que o desenvolvimento acelerado pode comprometer a implementação de medidas de segurança adequadas.

Avanços rápidos e capacidades crescentes
Dados do Instituto de Segurança de IA do Reino Unido (AISI) mostram uma evolução significativa nas capacidades dos sistemas. Os modelos avançados conseguem atualmente completar tarefas de nível aprendiz em média 50% das vezes. Representando assim um aumento expressivo em relação aos aproximadamente 10% registrados no ano anterior.
O instituto também identificou que os sistemas mais sofisticados podem realizar autonomamente tarefas que exigiriam mais de uma hora para um especialista humano completar. Além disso, testes realizados pelo AISI revelaram que dois modelos de ponta alcançaram taxas de sucesso superiores a 60% em testes de autorreplicação. Apesar desses resultados, o instituto ressaltou que um cenário catastrófico é improvável em ambiente cotidiano, afirmando que tentativas de autorreplicação são “improváveis de ter sucesso em condições do mundo real”.

Preocupações com segurança e controle
Dalrymple trabalha no desenvolvimento de sistemas para proteger o uso da IA em infraestruturas críticas, como redes de energia. Suas declarações têm implicações tanto para o setor público quanto para empresas de tecnologia envolvidas no desenvolvimento de IA avançada.

Eu aconselharia que as coisas estão se movendo muito rapidamente e podemos não ter tempo para nos antecipar do ponto de vista da segurança”, alertou o especialista. “E não é ficção científica projetar que dentro de cinco anos a maioria das tarefas economicamente valiosas será realizada por máquinas com maior nível de qualidade e menor custo do que por humanos”.

Necessidade de medidas de controle
Segundo o especialista, os governos precisarão implementar medidas para controlar e mitigar os efeitos negativos da IA avançada. “Não podemos presumir que esses sistemas sejam confiáveis. A ciência para fazer isso provavelmente não se materializará a tempo, dada a pressão econômica. Portanto, a próxima melhor coisa que podemos fazer, que talvez possamos fazer a tempo, é controlar e mitigar os aspectos negativos”, explicou.
Dalrymple acredita que até o final de 2026, os sistemas de IA serão capazes de automatizar o equivalente a um dia inteiro de trabalho de pesquisa e desenvolvimento. Ou seja, vai “resultar em uma aceleração adicional de capacidades”. Isso porque a tecnologia poderá se autoaperfeiçoar nos elementos matemáticos e de ciência da computação do desenvolvimento de IA.
Descrevendo as consequências do progresso tecnológico ultrapassar a segurança como uma “desestabilização da segurança e economia”, Dalrymple afirmou que mais trabalho técnico é necessário para entender e controlar os comportamentos dos sistemas avançados de IA.

O progresso pode ser enquadrado como desestabilizador e poderia realmente ser bom, que é o que muitas pessoas na fronteira estão esperando. Estou trabalhando para tentar fazer as coisas melhorarem. Porém, é de alto risco e a civilização humana está, no geral, caminhando sonambulamente para esta transição”, concluiu.

(Foto: Freepik)

Fonte: Giz Brasil

Luzimara Fernandes

Jornalista MTB 2358-ES

Related Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *