O uso de ferramentas de inteligência artificial tem se expandido rapidamente em empresas, muitas vezes de forma espontânea e sem o controle total das equipes de TI. Isso reforça a importância de políticas claras e tecnologias avançadas para o uso responsável da IA, que minimizem riscos e estimulem a inovação segura. À medida que a adoção da IA cresce, aumenta também a necessidade de construir ambientes digitais que mantenham a proteção.
De acordo com o relatório de 2025 da IBM, 20 % das organizações pesquisadas sofreram violação de dados via “shadow AI” (o uso não autorizado de ferramentas de IA) o que resultou no aumento do custo médio das violações para cerca de US$ 670 mil. Além disso, 13 % dos ocorridos envolveram modelos legítimos de IA, principalmente via APIs ou plug-ins; desses casos, 60 % resultaram em comprometimento de dados e 31 % em interrupções operacionais.
“A proteção de dados não pode ser tratada como uma etapa adicional; ela deve estar incorporada desde a concepção de qualquer sistema de IA. Nossa empresa assume princípios de governança, desde políticas internas até o consentimento dos usuários”, diz Giovanni La Porta, CEO da Vortice.ai.
No Brasil, a atuação da Autoridade Nacional de Proteção de Dados (ANPD) tem fortalecido a conformidade regulatória, como no caso da suspensão da política de privacidade da Meta relacionada ao uso de dados pessoais para treinamento de IA, com multa diária de R$ 50 mil em caso de descumprimento. Essa medida potencializa o compromisso com a proteção dos direitos dos cidadãos e incentiva as empresas a implementarem processos transparentes e éticos.
A Lei Geral de Proteção de Dados (LGPD) é peça-chave, definindo princípios como finalidade, adequação, transparência e segurança no tratamento de informações pessoais, inclusive no contexto da tecnologia.
A legislação garante aos titulares o direito de acesso, correção, portabilidade e exclusão dos seus dados. Exige também que os modelos sejam treinados com dados anonimizados e que haja consentimento para usos específicos. O projeto de lei 2.338/2023, cria um marco legal para a IA no Brasil. Ele reforça a necessidade do desenvolvimento dessas tecnologias com ética, segurança e transparência desde o início.
Com esse avanço da inteligência artificial no Brasil e no mundo, torna-se essencial que as organizações se posicionem de forma preventiva para garantir a proteção dos dados e a confiança dos usuários. A conformidade com a LGPD e outras regulamentações assegura a legalidade e equilibra a tecnologia e a responsabilidade.
“Nossa ferramenta, o Deep Reflection, utiliza um sistema que garante rastreabilidade total dos dados. O próprio usuário realiza o treinamento da IA personalizada. Ele usa seu próprio conteúdo e acompanha cada resposta com a fonte original, comprovando a origem da informação. A Deep Reflection Signature reforça essa rastreabilidade ao assegurar identidade, autoria e propriedade sobre os dados por meio de uma assinatura digital. Vale destacar que o criador pode revisar, editar, pausar ou encerrar seu reflexo na plataforma a qualquer momento”, complementa.
Muitas empresas já operam com esse tipo de segurança, o que reforça a importância de sempre conhecer e entender a plataforma que você está utilizando. A inteligência artificial veio para ajudar, complementar e facilitar. Devemos utilizá-la com segurança e ética.