Blog Agility

ChatGPT e Cibersegurança: a IA é uma ameaça para a segurança de dados?

ChatGPT e Cibersegurança: a IA é uma ameaça para a segurança de dados?

Não é segredo que o ChatGPT é um fenômeno de popularidade. Apenas em dois meses, a plataforma atingiu a marca de 100 milhões de usuários registrados, um feito até então inédito. No entanto, apesar dos benefícios que essa ferramenta pode trazer para empresas e pessoas, é preciso estar atento às possíveis ameaças de cibersegurança.

Para extrair o que a Inteligência Artificial tem de melhor a nos oferecer, é essencial estar ciente dos riscos envolvidos. Por isso, preparamos este artigo, para mostrar 6 ameaças de cibersegurança associadas ao uso do ChatGPT e como se proteger delas. Confira! 

O que é o ChatGPT? 

Trata-se de um modelo de linguagem desenvolvido pela OpenAI e lançado em novembro de 2022. O programa funciona como um assistente virtual inteligente, capaz de compilar e organizar informações encontradas online para responder perguntas de usuários. 

Dessa forma, é possível manter diálogos com o chatbot, que possui ferramentas de aprendizagem contínua e interage de maneira mais natural e humanizada. Em muitos casos, ele pode ser usado para redigir textos, sejam artigos, redações, legendas, notícias ou demais produtos textuais.

A ferramenta, que atualmente está em sua quarta versão, pode ser muito útil, além de ser um marco na evolução da Inteligência Artificial. Mas o seu uso pode esbarrar em alguns impasses, como questões autorais, de regulamentação e cibersegurança, que é o nosso foco.

Quais os riscos do ChatGPT para a cibersegurança? 

Apesar de ser um avanço notável, o ChatGPT também pode representar algumas ameaças para seus usuários.

1. Desenvolvimento de Malwares

Malware ou software malicioso é um tipo de software criado para causar danos intencionais a um computador. Ele pode ser usado para invadir, danificar ou controlar uma máquina, sendo uma ferramenta bastante utilizada por hackers para roubar, espionar e excluir informações, entre outros prejuízos.  

Nesse sentido, o ChatGPT pode ser usado por pessoas mal-intencionadas para a criação de malwares, uma vez que ele é capaz de gerar códigos em diversas linguagens de programação. Nesse caso, é possível aplicar a engenharia reversa, que é capaz de identificar se alguém está tentando quebrar as barreiras de segurança da sua rede de computadores.

2. Phishing

Phishing é um tipo de golpe em que pessoas mal-intencionadas se passam por figuras de autoridade para ter acesso a dados pessoais e financeiros. Geralmente, eles se passam por empresas de grande porte, como bancos e lojas, e fazem contato por mensagem ou e-mails. 

Nesse cenário, o ChatGPT pode ser usado como ferramenta para criação de textos atraentes, com tom adequado e sem erros de digitação. Dessa forma, mensagens falsas que eram facilmente identificáveis por sua gramática pobre tornam-se mais críveis.  

3. Propagação de fake news

O ChatGPT consegue escrever textos claros e coesos em uma velocidade acima da capacidade de qualquer humano, o que pode ser usado para criação e propagação de fake news. 

À primeira vista, se você pedir abertamente ao ChatGPT para escrever uma fake news, ele vai responder que não pode fazer isso e alertar dos riscos dessa prática.

No entanto, um caso ocorrido na China chamou a atenção, quando uma pessoa usou pedaços de notícias verdadeiras para criar uma falsa. A situação levou à primeira prisão associada ao uso de IA para criação de fake news. 

4. Vazamento de dados 

O ChatGPT é um modelo de linguagem capaz de absorver informações, ou seja, é possível “ensinar” algo que ele não saiba. Portanto, caso alguém compartilhe informações confidenciais com o programa, ele armazenará em seu banco de dados, o que pode levar a vazamentos. 

Algo nesse sentido aconteceu com a Samsung, quando engenheiros da marca compartilharam notas de uma reunião e um código-fonte com o ChatGPT. A intenção deles era apenas otimizar o trabalho, mas as informações inseridas acabaram soltas na rede.  

5. Respostas incorretas

Por mais que a precisão das informações fornecidas pelo ChatGPT impressionem, nem sempre elas são verdadeiras. É preciso lembrar que, mesmo que não haja plágio, tudo que é escrito pelo ChatGPT tem como base informações escritas por humanos. Hoje, há muito desencontro de informações online, o que pode levar a respostas incorretas. 

6. Uso indevido dos dados

Afinal, o que o ChatGPT faz com os dados que inserimos na plataforma durante as conversas? Sabe-se que eles são usados para melhorar as habilidades de resposta da ferramenta, porém não há garantias que esses dados não tenham outros fins. Logo, surge a preocupação com as informações pessoais coletadas pela plataforma. 

Concluindo, é preciso considerar os benefícios da Inteligência Artificial, pois ela estará cada vez mais presente em nossas vidas. Mas como se trata de um tema relativamente novo, é normal que surjam dúvidas. Nesse sentido, o mais importante não é frear o uso dessa tecnologia, e sim buscar por formas de usá-la com segurança.