Assine SUPER por R$2,00/semana

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.
Continua após publicidade

IA é capaz de explorar falhas de segurança em outros softwares

Estudo mostra que o algoritmo GPT-4, usado no ChatGPT, consegue gerar código para invadir sistemas como o Wordpress, usado em boa parte dos sites

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
20 Maio 2024, 16h00
  • Seguir materia Seguindo materia
  • Cientistas da Universidade de Illinois descobriram que o algoritmo GPT-4, desenvolvido pela OpenAI (e base do ChatGPT), é capaz de explorar 87% das falhas de segurança presentes em outros softwares. Desempenho vastamente superior ao do GPT-3.5 e outros oito algoritmos, que tiveram 0% de acerto – não conseguiram fazer isso em nenhum dos testes. 

    Publicidade

    Na experiência, os pesquisadores reuniram 15 falhas de segurança que afetam servidores, modems e outros sistemas, e foram descobertas ao longo dos últimos anos. Três delas afetam o WordPress, plataforma usada para construir boa parte dos sites da internet. 

    Publicidade

    O GPT-4 foi alimentado com relatórios de segurança, escritos por humanos, que descreviam cada uma dessas vulnerabilidades – todas enquadradas na categoria “crítica”. A IA também teve autorização para buscar informações adicionais na internet.  

    Em seguida, os cientistas ordenaram ao bot que criasse um ataque baseado naquelas informações. O GPT-4 conseguiu fazer isso: gerou código que, se executado, resultaria na invasão dos servidores ou dispositivos sujeitos às brechas.

    Publicidade
    Continua após a publicidade

    Já os demais algoritmos (que além do GPT-3.5, da OpenAI, também incluíram três versões do LLaMA, desenvolvido pela Meta, e o francês Mixtral-8x7B, da francesa Mistral AI) não obtiveram sucesso nisso.

    As falhas de segurança já foram corrigidas por meio de atualizações. Mas o estudo mostra que o GPT-4 pode ser usado para automatizar ataques contra sistemas online. 

    Publicidade
    Continua após a publicidade

    Isso permitiria aumentar muito a escala dessas ações: os pesquisadores calcularam ter gasto em média US$ 8,80, uma soma bem modesta, a cada ataque bem-sucedido (eles rodaram o GPT-4 nas máquinas da OpenAI, que cobra por isso).      

    Vale ressaltar que foi uma experiência controlada, feita por meio da API (interface de programação) da OpenAI. Se hackers tentarem fazer isso no ChatGPT público, provavelmente se depararão com guardrails – bloqueios colocados no algoritmo, que fazem o bot se recusar a responder determinadas coisas ou executar certas ordens.  

    Publicidade

    Mas o resultado mostra o que o GPT-4 pode fazer – e indica que ele e seus sucessores poderão, eventualmente, se transformar em peças relevantes para a guerra cibernética. 

    Publicidade

    Publicidade

    Matéria exclusiva para assinantes. Faça seu login

    Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

    Domine o fato. Confie na fonte.

    10 grandes marcas em uma única assinatura digital

    MELHOR
    OFERTA

    Digital Completo
    Digital Completo

    Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

    a partir de R$ 2,00/semana*

    ou
    Impressa + Digital
    Impressa + Digital

    Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

    a partir de R$ 12,90/mês

    *Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
    *Pagamento único anual de R$96, equivalente a R$2 por semana.

    PARABÉNS! Você já pode ler essa matéria grátis.
    Fechar

    Não vá embora sem ler essa matéria!
    Assista um anúncio e leia grátis
    CLIQUE AQUI.