O Airbnb possui seu próprio sistema de cadastro interno. Porém, no momento do check-in, muitos anfitriões solicitam documentos e chegam a tirar fotos do hóspede segurando o documento. O problema é que esses dados ficam armazenados diretamente no aparelho do anfitrião, sem qualquer garantia de proteção adequada. Essa prática levanta sérias dúvidas sobre a segurança da informação e a conformidade com a LGPD (Lei Geral de Proteção de Dados) . Além disso, há relatos de que dados pessoais são enviados para portarias de condomínios, ampliando ainda mais os riscos de exposição. O Airbnb precisa aprimorar urgentemente esse tipo de conduta, estabelecendo protocolos claros de proteção e armazenamento de dados. A ausência de respostas transparentes da empresa sobre o nível de segurança dessas práticas demonstra uma falha significativa na forma como a plataforma lida com informações sensíveis de seus usuários.
Gerar link
Facebook
X
Pinterest
E-mail
Outros aplicativos
Como enganar os sistemas de reconhecimento facial 08/04/2021 LEIA A SEGUIR COPYRIGHT ANALYTICS INDIA MAGAZINE PVT LTD
Como enganar os sistemas de reconhecimento facial
08/04/2021
“Nós desenvolvemos um novo ataque a sistemas de reconhecimento facial baseados em IA, que podem mudar sua foto de tal forma que um sistema de IA irá reconhecê-lo como uma pessoa diferente, na verdade, como qualquer pessoa que você quiser”, de acordo com Adversa AI ' s site oficial. A Adversa conseguiu enganar a ferramenta de busca de reconhecimento facial PimEyes, fazendo-a identificar erroneamente o vice-repórter Todd Feathers como Mark Zuckerberg .
O reconhecimento facial para identificação individual tornou-se uma aplicação de IA cada vez mais popular. Empresas como Uber e Amazon autenticam funcionários com selfies. Mas a tecnologia de reconhecimento facial não é infalível.
Adversa AI foi projetado para enganar algoritmos de reconhecimento facial adicionando alterações ou ruído à imagem original. Chamada de polvo Adversarial, essa técnica é uma caixa preta que nem mesmo os próprios criadores entendem completamente.
Em um vídeo de demonstração, a empresa alterou a imagem do CEO Alex Polyakov e testou o PimEyes. PimEyes confundiu Polyakov com Elon Musk.
“Sua identidade digital também pode ser roubada”, de acordo com a Adversa.
00:00
-02: 00
Mas esta técnica Adversarial Octopus, ou plataformas semelhantes, também pode ser usada por hackers para cometer fraudes e enganar um sistema de verificação de identidade.
Os analistas da empresa de serviços de informação Experian PLC prevêem um aumento no número de fraudadores criando “faces de Frankenstein” usando IA para fraude de identidade sintética . Os fraudadores fundem informações reais e falsas para forjar uma nova identidade.
Os cibercriminosos usam IDs sintéticos para se passar por usuários legítimos.
A empresa americana de verificação de identidade ID.me Inc relatou que milhares de pessoas tentaram enganar a autenticação de identificação facial para reivindicar benefícios de desemprego de agências estaduais de força de trabalho. A empresa verifica indivíduos em nome de 26 estados dos EUA usando software de reconhecimento facial e encontrou mais de 80.000 tentativas de contornar a etapa de selfie em confrontos de identidade do governo em um ano usando máscaras, falsificações profundas ou segurando imagens ou vídeos de outros pessoas.
Baixe nosso aplicativo móvel
Em março passado, o serviço de reconhecimento facial do governo chinês foi hackeado e mais de US $ 76 milhões foram roubados por meio de notas fiscais falsas. Os hackers manipularam dados pessoais e fotos de alta definição compradas no mercado negro e sequestraram a câmera de um telefone celular para enganar a etapa de autenticação facial. Os fraudadores alimentaram os profundos vídeos falsos para completar a certificação.
A investigação do Xinhua Daily Telegraph descobriu que o custo de hackear sistemas de autenticação facial para obter ganhos ilegais é muito baixo. Aplicativos de manipulação de imagem como Huo Zhaopian, Fangsong Huanlian e Ni Wo Dang Nian estão disponíveis para download na app store. Aplicativos como o Zao usam IA para substituir rostos de filmes ou clipes de TV por imagens de qualquer pessoa que o usuário enviar. “Este aplicativo coloca as ferramentas de criação de vídeos falsos nos smartphones e dispositivos móveis de milhões de usuários”, afirma Zao.
De acordo com John Spencer, CEO da empresa de identidade biométrica Veridium, você não precisa de softwares sofisticados para falsificar um sistema de reconhecimento facial. Imprimir uma foto do rosto de alguém e cortar os olhos para usar a foto como máscara é uma das maneiras mais fáceis de criar uma imagem falsa.
Uma pesquisa da Accenture de 2012 encontrou dois padrões básicos de fraude biométrica que os hackers exploram sistematicamente; ofuscação e personificação. O estudo descobriu que a personificação é mais comum e mais fácil de implementar para falsificar a autenticação biométrica.
Detecção de falsas profundas
As ferramentas e técnicas para detectar falsificações profundas estão tentando se recuperar, já que as últimas estão evoluindo a uma velocidade vertiginosa.
Alex Polyakov disse que é importante ajustar os algoritmos subjacentes para melhorar a robustez dos modelos de IA contra novos ataques. Ele também enfatizou a necessidade de treinar a modelo com exemplos adversários para enfrentar a ameaça de falsificações profundas. Em 2020, a Microsoft lançou o Microsoft Video Authenticator para detectar imagens manipuladas. A empresa de verificação ID.me detectou selfies fraudulentas rastreando dispositivos, endereços IP e números de telefone de fraudadores.
00:00
-00: 18
Siwei Lyuis, professor de ciência da computação da Universidade de Buffalo, fez uma extensa pesquisa sobre falsificações profundas. Ele publicou dois artigos de pesquisa que descrevem maneiras de detectar falsificações profundas. Louis disse que quando um algoritmo deepfake gera expressões faciais, as novas imagens nem sempre são mapeadas na cabeça da pessoa, ou nas condições de iluminação, ou na distância até a câmera. Essas imagens precisam ser transformadas geometricamente e o processo deixa pegadas digitais permitindo que os pesquisadores detectem os vídeos falsos.
Comentários
Postar um comentário