Em setembro de 2025, a OpenAI fez uma revelação que abalou a comunidade tecnológica global: o ChatGPT monitoriza ativamente as conversas dos utilizadores e denuncia conteúdos potencialmente criminosos às autoridades policiais.
A notícia, que surgiu quase por acaso numa publicação do blogue da empresa, revelou que, quando os sistemas automáticos detetam utilizadores que «estão a planear causar danos a outras pessoas», as conversas são encaminhadas para canais especializados, onde uma pequena equipa treinada nas políticas de utilização as analisa. Se os revisores humanos determinarem que existe uma «ameaça iminente de danos físicos graves a outras pessoas», o caso pode ser encaminhado para as autoridades policiais¹.

O ChatGPT convida-o cordialmente a partilhar os seus pensamentos mais íntimos. Não se preocupe, tudo é confidencial... mais ou menos.
Fontes:
Quando falamos com um psicólogo, um advogado, um médico ou um padre, as nossas palavras são protegidas por um mecanismo legal consolidado: o sigilo profissional. Este princípio, enraizado em séculos de tradição jurídica, estabelece que certas conversas são invioláveis, mesmo perante investigações criminais.
Características do sigilo profissional tradicional:
Ao contrário do que se pensa, o sigilo profissional não é absoluto. Existem exceções bem definidas que variam de acordo com a categoria profissional:
Para os advogados (Art. 28 do Código Deontológico Forense): A divulgação é permitida quando necessária para:
Exemplo crítico: Se um cliente declara ao advogado que pretende cometer um homicídio, entre a proteção do direito de defesa e a proteção do bem da vida, deve prevalecer esta última e o advogado fica isento do sigilo profissional².
Para os psicólogos (Art. 13 do Código Deontológico): O sigilo pode ser violado quando:
Distinção importante: O psicólogo privado tem maior discricionariedade do que o público, que, como funcionário público, tem obrigações de denúncia mais rigorosas³.
Fontes:
O ChatGPT opera numa zona cinzenta completamente diferente:
Ausência de privilégio legal: As conversas com a IA não gozam de qualquer proteção legal. Como admitiu Sam Altman, CEO da OpenAI: «Se falar com um terapeuta, advogado ou médico sobre esses problemas, existe privilégio legal para isso. Existe confidencialidade médico-paciente, existe confidencialidade legal, qualquer coisa. E ainda não resolvemos isso para quando você fala com o ChatGPT"².
Processo automatizado: Ao contrário de um profissional humano que avalia caso a caso, o ChatGPT utiliza algoritmos para identificar conteúdos «problemáticos», removendo o julgamento humano qualificado da fase inicial de triagem.
Fontes:
A situação cria um paradoxo preocupante. Milhões de pessoas utilizam o ChatGPT como confidente digital, partilhando pensamentos íntimos, dúvidas, medos e até fantasias criminosas que nunca partilhariam com um ser humano. Como relata Sam Altman: «As pessoas falam sobre as coisas mais pessoais das suas vidas ao ChatGPT. As pessoas utilizam-no — especialmente os jovens — como terapeuta, coach de vida»⁴.
O risco da autocensura criminosa: A consciência de que as conversas podem ser monitoradas pode, paradoxalmente:
Um aspeto crucial destacado pelos críticos diz respeito à competência de quem toma as decisões finais.
Os profissionais humanos têm:
O sistema ChatGPT funciona com:
Exemplo problemático: Como um algoritmo distingue entre:
Fontes:
Fontes:
A admissão da OpenAI cria uma contradição gritante com as suas posições anteriores. A empresa resistiu firmemente às solicitações de dados dos utilizadores em processos judiciais, alegando proteção da privacidade. No caso contra o New York Times, a OpenAI argumentou veementemente contra a divulgação dos registos de chat para proteger a privacidade dos utilizadores⁴.
A ironia da situação: a OpenAI defende a privacidade dos utilizadores nos tribunais, ao mesmo tempo que admite monitorizar e partilhar dados com autoridades externas.
A situação complicou-se ainda mais com a ordem judicial que exige que a OpenAI guarde todos os registos do ChatGPT indefinidamente, incluindo conversas privadas e dados da API. Isto significa que conversas que os utilizadores acreditavam serem temporárias agora estão arquivadas permanentemente⁵.
Fontes:
Como sugerido por Sam Altman, pode ser necessário desenvolver um conceito de «privilégio de IA» — uma proteção legal semelhante à oferecida aos profissionais tradicionais. No entanto, isso levanta questões complexas:
Opções regulatórias possíveis:
IA «Compartimentada»:
Abordagem «tripartida»:
Lições de outros setores:
Fontes:
O caso OpenAI estabelece precedentes importantes para todo o setor de inteligência artificial:
Para empresas que desenvolvem IA conversacional:
Para empresas que utilizam IA:
O dilema central: como equilibrar a prevenção de crimes reais com o direito à privacidade e à confidencialidade digital?
A questão não é meramente técnica, mas diz respeito a princípios fundamentais:
A revelação da OpenAI marca um momento decisivo na evolução da inteligência artificial, mas a questão não é se a denúncia está certa ou errada em si: é como torná-la eficaz, justa e respeitosa dos direitos.
A necessidade é real: ameaças concretas de violência, planos de atentados ou outros crimes graves exigem intervenção. A questão não é se denunciar, mas como fazê-lo de forma responsável.
As diferenças fundamentais a resolver:
Formação e Competência:
Transparência e Controlo:
Proporcionalidade:
Para as empresas do setor, o desafio é desenvolver sistemas que protejam eficazmente a sociedade sem se tornarem instrumentos de vigilância indiscriminada. A confiança dos utilizadores é essencial, mas deve coexistir com a responsabilidade social.
Para os utilizadores, a lição é dupla:
O futuro da IA conversacional requer uma nova estrutura que:
A pergunta certa não é se as máquinas devem denunciar crimes, mas como podemos fazer com que elas o façam (pelo menos) com a mesma sabedoria, formação e responsabilidade dos profissionais humanos.
O objetivo não é voltar a uma IA «cega» aos perigos reais, mas construir sistemas que combinem a eficiência tecnológica com a ética e a competência humana. Só assim poderemos ter o melhor dos dois mundos: segurança e direitos individuais protegidos.