Compartilhe
- Gerar link
- X
- Outros aplicativos
OSINT BRASIL Inteligência de Fonte Aberta - Vídeos falsos, problemas reais
Deepfakes e OSINT: Como a Tecnologia Redefine a Segurança Digital
Vídeos falsos, problemas reais
Eles parecem reais, mas não são. Os deepfakes, vídeos e áudios manipulados por inteligência artificial, já não são apenas curiosidades da internet. Hoje, se tornaram ferramentas de fraude, chantagem e desinformação política. Segundo a Europol, essa tecnologia representa uma das maiores ameaças emergentes da segurança digital.
Eles parecem reais, mas não são. Os deepfakes, vídeos e áudios manipulados por inteligência artificial, já não são apenas curiosidades da internet. Hoje, se tornaram ferramentas de fraude, chantagem e desinformação política. Segundo a Europol, essa tecnologia representa uma das maiores ameaças emergentes da segurança digital.
Fraudes e crimes virtuais
Criminosos estão usando deepfakes para:
💸 Fraudes financeiras: clonagem de voz para liberar transferências bancárias.
🎭 Desinformação: discursos falsos atribuídos a políticos ou líderes empresariais.
🔞 Pornografia não consensual: rostos de vítimas inseridos em vídeos íntimos.
⚠️ Chantagem digital: ameaças e extorsão usando vídeos manipulados.
A rápida disseminação de softwares que criam deepfakes torna o problema ainda mais crítico.
Criminosos estão usando deepfakes para:
💸 Fraudes financeiras: clonagem de voz para liberar transferências bancárias.
🎭 Desinformação: discursos falsos atribuídos a políticos ou líderes empresariais.
🔞 Pornografia não consensual: rostos de vítimas inseridos em vídeos íntimos.
⚠️ Chantagem digital: ameaças e extorsão usando vídeos manipulados.
A rápida disseminação de softwares que criam deepfakes torna o problema ainda mais crítico.
OSINT: inteligência de fontes abertas como resposta
Se os deepfakes criam dúvidas, o OSINT (Open Source Intelligence) ajuda a restaurar a verdade. Investigadores usam informações públicas — redes sociais, imagens de satélite, sites e bancos de dados — para checar fatos e rastrear suspeitos.
Se os deepfakes criam dúvidas, o OSINT (Open Source Intelligence) ajuda a restaurar a verdade. Investigadores usam informações públicas — redes sociais, imagens de satélite, sites e bancos de dados — para checar fatos e rastrear suspeitos.
Casos reais
Bellingcat: a equipe usou imagens de satélite e vídeos de redes sociais para investigar a queda do voo MH17 e conflitos na Ucrânia.
Cibercrime: rastreamento de perfis falsos e domínios suspeitos para identificar grupos como o REvil, responsável por ataques de ransomware.
Empresas: due diligence corporativa evita parcerias com fornecedores ligados a fraudes ou crimes digitais.
Bellingcat: a equipe usou imagens de satélite e vídeos de redes sociais para investigar a queda do voo MH17 e conflitos na Ucrânia.
Cibercrime: rastreamento de perfis falsos e domínios suspeitos para identificar grupos como o REvil, responsável por ataques de ransomware.
Empresas: due diligence corporativa evita parcerias com fornecedores ligados a fraudes ou crimes digitais.
Ferramentas que ajudam a detectar deepfakes
InVID – verifica a autenticidade de vídeos.
FotoForensics – identifica manipulações em imagens.
YouTube DataViewer – rastreia a origem de vídeos na plataforma.
Reverse Image Search (Google/Yandex) – localiza cópias de imagens pela web.
InVID – verifica a autenticidade de vídeos.
FotoForensics – identifica manipulações em imagens.
YouTube DataViewer – rastreia a origem de vídeos na plataforma.
Reverse Image Search (Google/Yandex) – localiza cópias de imagens pela web.
Verdade x manipulação
A batalha entre deepfakes e OSINT é, na prática, um confronto diário entre desinformação e verificação de fatos. Como alerta, especialistas recomendam formação contínua em investigação digital e inteligência de código aberto, além de políticas públicas que promovam a conscientização sobre riscos digitais.
A batalha entre deepfakes e OSINT é, na prática, um confronto diário entre desinformação e verificação de fatos. Como alerta, especialistas recomendam formação contínua em investigação digital e inteligência de código aberto, além de políticas públicas que promovam a conscientização sobre riscos digitais.
Fontes
Europol (2022) – Facing Reality? Law enforcement and the challenge of deepfakes
Bellingcat (2021) – OSINT Investigations
Chesney, R. & Citron, D. (2019) – Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security
Sensity AI (2019) – The State of Deepfakes
Europol (2022) – Facing Reality? Law enforcement and the challenge of deepfakes
Bellingcat (2021) – OSINT Investigations
Chesney, R. & Citron, D. (2019) – Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security
Sensity AI (2019) – The State of Deepfakes
– Crimes Digitais com Deepfakes
💸 Fraudes financeiras: clonagem de voz de executivos para transferências indevidas.
🎭 Desinformação: discursos falsos atribuídos a políticos.
🔞 Pornografia não consensual: rostos de vítimas inseridos em vídeos íntimos.
⚠️ Chantagem digital: ameaças usando vídeos falsos.
💸 Fraudes financeiras: clonagem de voz de executivos para transferências indevidas.
🎭 Desinformação: discursos falsos atribuídos a políticos.
🔞 Pornografia não consensual: rostos de vítimas inseridos em vídeos íntimos.
⚠️ Chantagem digital: ameaças usando vídeos falsos.
– OSINT como Defesa
O OSINT (Open Source Intelligence) coleta informações públicas (redes sociais, imagens de satélite, bancos de dados) para:
Verificar fatos
Rastrear suspeitos
Mapear conexões em crimes digitais
O OSINT (Open Source Intelligence) coleta informações públicas (redes sociais, imagens de satélite, bancos de dados) para:
Verificar fatos
Rastrear suspeitos
Mapear conexões em crimes digitais
– Casos Reais
Bellingcat: usou satélite e vídeos de redes sociais para investigar a queda do MH17 e conflitos na Ucrânia.
Cibercrime: rastreamento de perfis falsos e domínios suspeitos para desarticular grupos como o REvil.
Empresas: due diligence evita fraudes e associações ilícitas.
Bellingcat: usou satélite e vídeos de redes sociais para investigar a queda do MH17 e conflitos na Ucrânia.
Cibercrime: rastreamento de perfis falsos e domínios suspeitos para desarticular grupos como o REvil.
Empresas: due diligence evita fraudes e associações ilícitas.
– Ferramentas Práticas de Verificação
InVID – autentica vídeos
FotoForensics – identifica manipulações em imagens
YouTube DataViewer – rastreia origem de vídeos
Reverse Image Search – encontra cópias de imagens
InVID – autentica vídeos
FotoForensics – identifica manipulações em imagens
YouTube DataViewer – rastreia origem de vídeos
Reverse Image Search – encontra cópias de imagens
Verdade x Manipulação
Deepfakes criam dúvidas; OSINT restaura a confiança. A combinação de treinamento contínuo em investigação digital e políticas de conscientização é crucial para enfrentar a era da desinformação.
A legislação sobre vídeos com inteligência artificial (IA) no Brasil está em processo de atualização com avanços recentes. O Senado aprovou em dezembro de 2024 o Projeto de Lei 2.338/2023, que trata do marco regulatório para o uso da IA, incluindo vídeos gerados ou modificados por IA. O texto prevê que conteúdos sintéticos como vídeos produzidos por IA deverão conter identificadores para verificar suas infecções e procedência. Também disposições administrativas severas para quem desrespeitar as normas, podendo haver multas milionárias e outras deliberações.
Quanto aos direitos autorais, o tema ainda gera debate pois a IA gera conteúdo a partir de bases alimentadas por criações humanas. Atualmente, na ausência de lei específica, as obras criadas 100% por IA não têm claramente definido o titular dos direitos autorais, pois o direito autoral pressupõe uma autoria humana. A responsabilidade pela violação de direitos é atribuída ao usuário ou desenvolvedor da IA, não à própria IA. O projeto prevê que grandes empresas devem informar o uso de conteúdos protegidos em seus treinamentos e garantir que os autores possam vetar o uso de suas obras.
Além disso, o marco aprovado prevê regras para sistemas de IA generativa, exigência de sinalização clara para conteúdos criados por IA e respeito aos direitos de personalidade das pessoas retratadas nos vídeos. O objetivo é garantir a transparência, a proteção dos direitos fundamentais e a responsabilidade civil em relação aos danos causados pelos sistemas de IA.
Em suma, os vídeos com IA no Brasil devem seguir regras de transparência, identificação, direitos autorais e responsabilidade civil, em conformidade com o marco regulatório aprovado recentemente, ainda aguardando aprovação final pela Câmara dos Deputados e posteriores orientações detalhadas.
Deepfakes criam dúvidas; OSINT restaura a confiança. A combinação de treinamento contínuo em investigação digital e políticas de conscientização é crucial para enfrentar a era da desinformação.
A legislação sobre vídeos com inteligência artificial (IA) no Brasil está em processo de atualização com avanços recentes. O Senado aprovou em dezembro de 2024 o Projeto de Lei 2.338/2023, que trata do marco regulatório para o uso da IA, incluindo vídeos gerados ou modificados por IA. O texto prevê que conteúdos sintéticos como vídeos produzidos por IA deverão conter identificadores para verificar suas infecções e procedência. Também disposições administrativas severas para quem desrespeitar as normas, podendo haver multas milionárias e outras deliberações.
Quanto aos direitos autorais, o tema ainda gera debate pois a IA gera conteúdo a partir de bases alimentadas por criações humanas. Atualmente, na ausência de lei específica, as obras criadas 100% por IA não têm claramente definido o titular dos direitos autorais, pois o direito autoral pressupõe uma autoria humana. A responsabilidade pela violação de direitos é atribuída ao usuário ou desenvolvedor da IA, não à própria IA. O projeto prevê que grandes empresas devem informar o uso de conteúdos protegidos em seus treinamentos e garantir que os autores possam vetar o uso de suas obras.
Além disso, o marco aprovado prevê regras para sistemas de IA generativa, exigência de sinalização clara para conteúdos criados por IA e respeito aos direitos de personalidade das pessoas retratadas nos vídeos. O objetivo é garantir a transparência, a proteção dos direitos fundamentais e a responsabilidade civil em relação aos danos causados pelos sistemas de IA.
Em suma, os vídeos com IA no Brasil devem seguir regras de transparência, identificação, direitos autorais e responsabilidade civil, em conformidade com o marco regulatório aprovado recentemente, ainda aguardando aprovação final pela Câmara dos Deputados e posteriores orientações detalhadas.
Referências
Europol (2022) – Facing Reality? Law enforcement and the challenge of deepfakes
Bellingcat (2021) – OSINT Investigations
Chesney, R. & Citron, D. (2019) – Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security
Sensity AI (2019) – The State of Deepfakes
Europol (2022) – Facing Reality? Law enforcement and the challenge of deepfakes
Bellingcat (2021) – OSINT Investigations
Chesney, R. & Citron, D. (2019) – Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security
Sensity AI (2019) – The State of Deepfakes
- Gerar link
- X
- Outros aplicativos
Postagens mais visitadas
Comandos Google Dorks
- Gerar link
- X
- Outros aplicativos
💔 Suspeita de traição?
- Gerar link
- X
- Outros aplicativos
A COGNIÇÃO INVESTIGATIVA
- Gerar link
- X
- Outros aplicativos


Comentários
Postar um comentário