ARTIGO 01/2026
Pe. Rafael Vieira, CSsR
A ascensão vertiginosa da Inteligência Artificial (IA) no cenário digital trouxe consigo um desafio sem precedentes para a confiança pública, e suas implicações são particularmente agudas para o Terceiro Setor. Recentemente, a disseminação de notícias sobre o uso malicioso da IA para orquestrar golpes contra doadores – por meio da falsificação de rostos e vozes em campanhas simuladas de entidades sérias – escancara uma vulnerabilidade crítica. Essa realidade impõe uma questão fundamental: como podemos manter a fé na genuinidade dos apelos por ajuda e na integridade das iniciativas sociais quando a linha entre o conteúdo autêntico e o artificialmente gerado se torna indistinguível? Este é, sem dúvida, um dos aspectos mais perniciosos para a construção da fraternidade na era digital.
Diante desse cenário, a mera aplicação da lei para punir os criminosos, embora essencial, não é suficiente. Torna-se imperativo que a pauta da regulamentação das plataformas digitais e, especificamente, da identificação de todo conteúdo produzido por IA, seja elevada a um nível de urgência inquestionável. Esse debate já ecoa mundialmente, com diversas nações buscando caminhos para lidar com a profusão de material sintético. No Brasil, contudo, ainda não percebemos uma definição clara ou um engajamento robusto que assegure a transparência necessária para que os usuários possam discernir a origem do que consomem. A ausência de um “selo de IA” dificulta a responsabilização e alimenta a desconfiança, impactando diretamente a capacidade do Terceiro Setor de mobilizar recursos e engajar a sociedade em suas causas.
No panorama global, a sofisticação crescente da IA na produção de conteúdo – abrangendo desde textos e imagens até áudios e vídeos de alta fidelidade – torna a criação de legislação que exija a identificação explícita de sua origem artificial não apenas desejável, mas absolutamente necessária. Sem tal regulamentação, enfrentamos riscos significativos à autenticidade da informação, à proteção da propriedade intelectual e, crucialmente, à manutenção da confiança pública. A capacidade da IA de replicar ou simular a criação humana em escala massiva pode ser explorada para disseminar desinformação em massa, manipular percepções ou até mesmo criar identidades falsas, dificultando a distinção entre o genuíno e o sintético. A ausência de um rótulo claro de “conteúdo gerado por IA” impede a responsabilização e a transparência, pilares essenciais para a integridade de nosso ecossistema digital e para que a sociedade possa discernir a origem e a intenção por trás das informações que consome.
Para organizações como o Instituto Casa da Ponte, que atuam na linha de frente das causas sociais, focadas na educação digital e na promoção da fraternidade, a inação regulatória representa uma ameaça direta à sua missão. É nossa responsabilidade inadiável nos empenharmos ativamente em buscar e construir canais que promovam a elaboração, aprovação e sanção de uma legislação clara e eficaz. Somente com um arcabouço legal robusto poderemos assegurar que nossas campanhas de doação sejam seguras, que a confiança dos apoiadores em nossos projetos permaneça inabalável e que a fraternidade possa florescer em um ambiente digital cada vez mais complexo e desafiador.