CUIDADO

4 informações que você não deve compartilhar com o ChatGPT

Especialistas alertam para risco de vazamento de dados pela Inteligência Artificial.

Compartilhar documentos, telefones, e-mails ou outros tipos de dados com o ChatGPT não é uma boa prática — Foto: Reprodução/Internet
Compartilhar documentos, telefones, e-mails ou outros tipos de dados com o ChatGPT não é uma boa prática — Foto: Reprodução/Internet

O ChatGPT se tornou parte integrante da rotina de milhões de usuários em todo o mundo, sendo utilizado para uma variedade de propósitos, desde trabalho e estudo até passatempos. No entanto, há uma série de informações que não devem ser compartilhadas com este chatbot de inteligência artificial (IA), uma vez que podem ser incorporadas em respostas futuras da tecnologia.

Compartilhamento de informações

É importante compreender que a divulgação dessas informações pode acarretar em consequências prejudiciais, especialmente em casos de falhas de segurança que podem resultar em vazamento de dados. Por essa razão, diversas empresas proibiram o uso do ChatGPT para fins profissionais por seus funcionários.

Embora a OpenAI afirme que não utiliza os dados pessoais dos usuários para fins comerciais ou publicitários, essas informações são empregadas para aprimorar os modelos de linguagem, contribuindo para a capacidade do chatbot de manter conversas mais fluentes e coerentes. Para mitigar esse risco, é possível desabilitar a opção “Chat history & training” nas configurações do ChatGPT.

O que NÃO compartilhar com o ChatGPT?

Dados corporativos

Embora muitos usuários utilizem a IA generativa para auxiliar em tarefas profissionais, como organização de informações ou resolução de problemas, é crucial evitar o compartilhamento de informações confidenciais da empresa. Dados sensíveis de funcionários ou informações proprietárias podem ser expostos em caso de falhas no ChatGPT. Por exemplo, se um restaurante tiver a receita de um prato armazenada em uma planilha e um funcionário compartilhar esse documento com o chatbot, existe o risco de que essa receita seja divulgada a outros usuários no futuro, uma vez que os dados compartilhados são utilizados para treinar o sistema.

Já houve casos em que dados confidenciais de empresas foram vazados pelo ChatGPT, resultando em prejuízos significativos. Por exemplo, a Samsung proibiu o uso da ferramenta após descobrir que um funcionário havia compartilhado informações sensíveis da empresa com o chatbot da OpenAI. Para evitar situações semelhantes, outras empresas, como a Apple, também restringiram o uso de tecnologias de inteligência artificial por parte de seus colaboradores.

Informações pessoais

Qualquer dado capaz de identificar uma pessoa não deve ser compartilhado em plataformas de inteligência artificial generativa. Isso se deve ao risco de tais informações serem exploradas por hackers ou golpistas virtuais, podendo resultar em crimes cibernéticos, como roubo de identidade ou fraudes.

Mesmo que o usuário desative o armazenamento de informações, impedindo que sejam usadas para treinar o modelo de linguagem, as plataformas ainda estão sujeitas a vazamentos e roubo de dados, o que expõe os usuários a potenciais ameaças online.

Propriedade intelectual

O compartilhamento de projetos não patenteados com o ChatGPT pode acarretar em problemas relacionados à propriedade intelectual, uma vez que o chatbot pode “roubar” ideias e compartilhá-las com outros usuários. Mesmo obras patenteadas estão sujeitas ao uso indevido pelo chatbot, como evidenciado por processos abertos contra a OpenAI por quebra de direitos autorais.

Dados bancários e financeiros

Dados bancários e financeiros devem ser mantidos em sigilo e não devem ser compartilhados em plataformas de inteligência artificial generativa. O vazamento dessas informações pode resultar em sérios prejuízos financeiros para os usuários, além de expô-los a riscos de uso indevido de seus cartões de crédito por parte de criminosos.