Uma das preocupações mais prementes destacadas pela ESET prende-se com a forma como os jovens interagem com os chatbots. Para muitos, estas ferramentas deixaram de ser apenas auxiliares de estudo para se tornarem "companheiros digitais" a quem pedem conselhos e com quem partilham confissões pessoais. Esta proximidade pode gerar um isolamento social perigoso, levando os jovens a privilegiar interações com máquinas em detrimento de relações humanas. Como os sistemas de IA são programados para serem empáticos e agradar ao interlocutor, podem acabar por reforçar fragilidades psicológicas ou amplificar dificuldades emocionais já existentes.
Do ponto de vista técnico e de cibersegurança, a exposição de dados pessoais é um risco crítico. Informações sobre rotinas, localização, escola e detalhes familiares inseridos nas conversas com chatbots ficam armazenadas nos servidores dos fornecedores. Caso ocorra uma violação de dados ou acesso indevido por terceiros, a segurança das famílias pode ficar seriamente comprometida. A isto soma-se o risco da desinformação: a capacidade da IA em gerar respostas falsas mas extremamente convincentes pode levar os jovens a aceitar como factos informações erradas sobre temas sensíveis, como saúde ou comportamentos online.
Ricardo Neves, Responsável de Comunicação e Marketing na ESET Portugal, reforça que os chatbots devem ser encarados pelos pais com o mesmo nível de atenção dedicado às redes sociais ou aos videojogos. Embora muitas plataformas tenham limites de idade, a verificação raramente é rigorosa, tornando a supervisão ativa e o uso de ferramentas de controlo parental indispensáveis. A ESET recomenda que os pais definam regras claras, revejam as definições de privacidade das plataformas e, sobretudo, promovam o pensamento crítico e o diálogo regular sobre a proteção de dados.
Através de iniciativas como o Safer Kids Online, a empresa tem procurado dotar pais e escolas de materiais educativos e guias práticos para navegar neste novo ambiente tecnológico. A mensagem central é clara: a literacia digital e o acompanhamento próximo são as defesas mais eficazes para garantir que a inteligência artificial seja uma ferramenta de potencial educativo e não uma porta de entrada para riscos de privacidade e confiança excessiva em sistemas digitais.