Dizer SEU NOME ao ChatGPT ou outra IA pode ser um GRANDE ERRO

Em um mundo cada vez mais digital, a interação com chatbots de Inteligência Artificial (IA), como o ChatGPT, tornou-se rotina para muitos. No entanto, a facilidade de comunicação pode levar a um descuido significativo: compartilhar informações pessoais.

Especialistas em segurança cibernética alertam sobre os riscos associados a fornecer dados como nome e número de telefone a sistemas de IA. Stan Kaminsky, da renomada empresa Kaspersky, enfatiza que tais informações devem ser guardadas com o mesmo zelo dedicado a dados bancários e sensíveis.

Especialistas alertam: fornecer informações pessoais a sistemas de IA pode ser perigoso. Saiba como manter sua privacidade segura ao interagir com chatbots. (Foto divulgação)
Especialistas alertam: fornecer informações pessoais a sistemas de IA pode ser perigoso. Saiba como manter sua privacidade segura ao interagir com chatbots. (Foto divulgação)

Não diga seu nome para o ChatGPT ou outra IA!

A razão por trás deste conselho é simples: não há garantias de confidencialidade nas interações com chatbots. Embora seja tentador personalizar a conversa revelando seu nome, essa prática pode abrir portas para utilizações indevidas dos dados.

As conversas mantidas com a IA, além de poderem ser armazenadas para melhorias técnicas da plataforma, também podem ser acessíveis a humanos, que, por sua vez, têm acesso a essas informações. Este cenário representa um campo fértil para ações mal-intencionadas.

O alerta ganha contornos mais graves com relatos, como o do site estadunidense Ars Technica, sobre possíveis vazamentos de conversas privadas pela OpenAI, desenvolvedora do ChatGPT.

Embora a empresa tenha atribuído o problema a roubos de conta, fica o sinal de alerta: informações aparentemente inofensivas podem ser usadas em golpes sofisticados. Cibercriminosos, munidos do nome e telefone do usuário, podem engendrar fraudes, passando-se por instituições confiáveis para solicitar dados sigilosos.

Veja mais sobre: Alerta: relatório aponta que ChatGPT vazou dados sensíveis de usuários

Prevenção: A Melhor Estratégia

Diante desse cenário, a recomendação é clara: evite compartilhar informações pessoais com chatbots. Se necessário interagir de forma que inclua dados pessoais, opte por anonimizar a informação, substituindo-a por asteriscos ou outros termos genéricos.

Esta precaução simples pode ser a barreira que impede que seus dados caiam em mãos erradas, garantindo segurança e privacidade em suas interações digitais.

Confira os cuidados gerais que você deve ter ao usar IA:

  1. Evite Compartilhar Dados Pessoais: Seja reticente em fornecer informações como seu nome completo, endereço, número de telefone ou qualquer dado financeiro ao interagir com sistemas de IA.
  2. Use Pseudônimos: Caso precise de uma interação mais personalizada, opte por usar pseudônimos em vez de seu nome real.
  3. Desconfie de Solicitações de Informações: Lembre-se de que um chatbot não precisa de dados sensíveis para funcionar adequadamente. Seja cético quanto a qualquer solicitação de informações pessoais.
  4. Revise as Políticas de Privacidade: Antes de usar uma nova plataforma de IA, dedique um tempo para entender como suas informações serão coletadas, armazenadas e utilizadas.
  5. Controle as Permissões de Acesso: Seja meticuloso ao conceder permissões a aplicativos e serviços baseados em IA. Permita apenas o necessário para a funcionalidade que você deseja utilizar.
  6. Mantenha Seus Dispositivos Atualizados: Assegure-se de que seus dispositivos estejam sempre atualizados com as últimas versões de software e patches de segurança para proteger contra vulnerabilidades que possam ser exploradas.
  7. Use Senhas Fortes: Proteja suas contas com senhas fortes e únicas, especialmente em plataformas que utilizam IA, para evitar acessos não autorizados.
  8. Verifique a Fonte: Certifique-se de que está interagindo com uma fonte legítima, especialmente quando a IA é utilizada para comunicação por empresas e serviços.
  9. Não Anexe Documentos Pessoais: Evite enviar documentos pessoais ou sensíveis através de plataformas de chatbot, pois você não pode garantir a segurança dessas informações durante a transmissão ou armazenamento.

Leia sobre: Aprenda como bloquear o Story do Instagram para pessoas chatas