Os 20 crimes mais perigosos que a inteligência artificial criará
- Um estudo realizado por cientistas da University College London (UCL) analisou os crimes mais perigosos que o desenvolvimento da inteligência artificial vai gerar nos próximos anos.
- Para isso, um grupo de especialistas da área analisou todos os riscos possíveis derivados desta tecnologia, avaliando-os com base em critérios como a sua capacidade de avaria, o seu lucro potencial ou a dificuldade de os poder prevenir pelos agentes de segurança.
- Entre os maiores riscos estão a criação de conteúdo falso, o uso de drones para ataques ou melhorias em ataques cibernéticos.
- Descubra mais histórias no Business Insider Espanha.
À medida que o desenvolvimento tecnológico evolui, as ameaças associadas a ele também aumentam.
Cientistas da University College London (UCL) elaboraram um relatório no qual analisam os crimes mais graves que o avanço da inteligência artificial pode gerar nos próximos 15 anos.
A lista de possíveis ameaças foi examinada por uma série de especialistas que discutiram a real ameaça que cada uma delas representa para a sociedade futura.
Para tal, solicitou-se ao comité de peritos participantes que classificasse cada um dos crimes analisados segundo quatro critérios: o dano que podem causar, o potencial de lucro, a facilidade com que podem ser executados e a dificuldade em evitá-lo.
“Ao contrário de muitos crimes tradicionais, o crime digital pode ser facilmente compartilhado, repetido e até mesmo comercializado, permitindo que técnicas criminais sejam comercializadas e que o crime como serviço seja entregue”, sublinha o pesquisador Matthew Caldwell, principal autor do relatório.
O resultado da listagem pode surpreendê-lo. Os robôs assassinos estão mais longe do que se possa pensar ser a maior ameaça que a inteligência artificial pode trazer ao mundo de amanhã.
Diante disso, a criação de conteúdo falso se configura como o maior crime que se pode esperar derivado do avanço dessa tecnologia. Os exemplos até então conhecidos dos chamados deepfakes , ajudam a ter uma ideia do potencial nocivo que esses vídeos falsos podem ter, fazendo com que as pessoas até mesmo comecem a desconfiar do que veem e ouvem pela mídia e pela rede.
Leia mais: Os perigos da inteligência artificial levada ao extremo
Os 20 crimes mais perigosos que a inteligência artificial criará nos próximos anos estão listados abaixo , de acordo com o estudo e classificados do menor ao maior grau de gravidade.
Falsificação de conteúdo
A ameaça menos preocupante que a IA irá gerar nos próximos anos será a criação de conteúdo falso em áreas como arte ou música, que pode mais tarde ser vendido sob falsos pretextos quanto à sua autoria. Esse crime ocupa o último lugar na lista em termos de danos que pode causar e também de chances de sucesso.
Conforme detalha o relatório, embora a inteligência artificial tenha mostrado capacidades para emular o estilo visual de criadores, como grandes pintores, ela pode ser amplamente limitada quando se trata de criar um objeto físico real. Por outro lado, as casas de leilão, galerias e especialistas lutam contra a contrafação há séculos, tornando-se um campo onde se espera que tenham práticas defensivas adequadas.
Assédio auxiliado por inteligência artificial
Para tanto, deve-se compreender a utilização de sistemas de aprendizagem capazes de monitorar a atividade e localização de um indivíduo por meio das redes sociais ou dos dados disponíveis em seus dispositivos móveis.
Da mesma forma, o estudo também inclui aqui a provisão de aplicações tecnológicas capazes de fazer cumprir as normas sociais em sociedades repressivas.
Embora esses crimes possam ser realmente prejudiciais, o relatório considera que, por se tratarem de ações sobre indivíduos, não representariam um escopo significativo em grande escala.
Avaliações falsas criadas por AI
Essa capacidade de gerar avaliações falsas automaticamente pode ser usada em espaços altamente baseados em opinião, como Amazon ou TripAdvisor, para fornecer falsas impressões de um produto com a intenção de promovê-lo ou desviá-lo do interesse do cliente.
Uma prática desonesta que hoje já é praticada por atores humanos.
Tecnologia para contornar a detecção de inteligência artificial
Como as questões policiais e de segurança dependem mais da inteligência artificial e da automação de dados nos processos investigativos, espera-se que aumentem os ataques que busquem contornar essa tecnologia, frustrando possíveis descobertas ou mesmo permitindo o eliminação de provas.
Robber bots
O desenvolvimento da tecnologia pode permitir a criação de pequenos robôs autônomos, capazes de entrar em casas e outras instalações por meio de espaços como caixas de correio para retirar chaves ou abrir portas e permitir que ladrões humanos entrem para realizar um roubo.
O estudo o classifica como um crime de baixa ameaça, uma vez que seriam roubos em pequena escala e que poderiam ser facilmente interrompidos por meio de dispositivos que impedem o robô de entrar na caixa de correio.
Exploração de preconceitos
Descobrir preconceitos aprendidos de algoritmos influentes ou amplamente usados pode levar a aproveitar isso para o benefício de interesses específicos.
A pesquisa indica exemplos de classificações do Google em que você pode colocar os concorrentes em desvantagem ou recomendações do YouTube destinadas a impactar os espectadores mais adequados. Algo que já é colocado em prática de forma não legal por meio de técnicas, por exemplo SEO, mas que o desenvolvimento de IA poderia potencializar bastante.
Perturbações do mercado de ações
Na posição mais baixa entre as ameaças de nível médio está a manipulação dos mercados financeiros ou de ações com o objetivo de prejudicar concorrentes, moedas ou causar o colapso dos sistemas econômicos como um todo.
Embora os prejuízos deste crime possam ser muito elevados, a sua rentabilidade é considerada baixa devido à extrema dificuldade que pode acarretar para simular com precisão o comportamento do mercado.
Hoax de reconhecimento facial
Os sistemas de reconhecimento facial através do IA são cada vez mais utilizados. Há muito tempo eles são incluídos como medida de segurança para o desbloqueio de dispositivos móveis e até começam a servir a polícia nos processos de rastreamento de suspeitos em espaços públicos.
O que significa que esses sistemas podem ser posicionados no futuro como um alvo atraente para muitos criminosos.
Crimes em atividades online
O surgimento das atividades online em diferentes aspectos da vida atual, das finanças às relações sociais, apresenta um novo objetivo em termos de ataques às pessoas: negar a este acesso online a determinados serviços essenciais .
Que poderia ser usado, de acordo com o relatório, para prejudicar certos usuários ou causar o caos.
Ataques de drones autônomos
De acordo com o relatório, espera-se que drones autônomos controlados por IA permitam maior complexidade e coordenação dos ataques e crimes perpetrados por esses tipos de dispositivos, que também dificultam a prisão do atacante.
Drones podem ser altamente perigosos se estiverem equipados com armas e agirem em massa em "enxames auto-organizados", observa o estudo.
Ataques cibernéticos baseados em aprendizagem
A IA no futuro pode permitir que ataques cibernéticos em massa se tornem cada vez mais complexos e sofisticados, usando o aprendizado de reforço para analisar as fraquezas de vários sistemas em paralelo antes de lançar vários ataques simultaneamente.
Manipulação de dados
Outro crime de média ameaça detectado pelo estudo é a manipulação deliberada dos dados usados para treinar uma inteligência artificial, com o objetivo de introduzir deliberadamente vieses específicos.
Nesse sentido, quanto mais usada e confiável a fonte de dados, mais danos ela pode causar posteriormente. Entre eles, o estudo inclui preconceitos que visam prejudicar um concorrente àqueles destinados a alterar um discurso político.
Venda de tecnologia falsa sob o pretexto de IA
Este crime se refere à venda de serviços ou tecnologias fraudulentas que realmente não são capazes de cumprir os objetivos para os quais foram concebidos, tudo isso mascarado sob o disfarce de IA.
O sucesso desta fraude está diretamente ligado às empresas ou órgãos governamentais que estes golpistas visam, uma vez que é fundamental que eles acreditem nas capacidades declaradas à referida inteligência artificial. Portanto, deve ser potencialmente fácil evitá-los.
Acesso fraudulento a robôs militares
Pode- se esperar que qualquer acesso de organizações criminosas a equipamentos militares represente uma séria ameaça, especialmente se forem robôs autônomos destinados a serem usados para implantação defensiva ou em campos de batalha.
Por esse motivo, o relatório classifica esse acesso criminoso a robôs militares armados como a maior ameaça de médio grau.
Chantagem em grande escala
No fundo das ameaças de nível mais alto estão a chantagem em grande escala.
Como o relatório identifica, a IA pode permitir que as extorsões sejam realizadas em um nível superior , coletando informações de redes sociais ou grandes conjuntos de dados pessoais de históricos de navegador, conteúdo do disco rígido ou do próprio celular. Também favorece a identificação de vulnerabilidades para um grande número de alvos e ainda cria mensagens de chantagem personalizadas para cada uma das vítimas.
O estudo classificou essa ameaça como alta em termos de ganhos obtidos e também da dificuldade de detê-la.
Interrupção de sistemas controlados por IA
À medida que aumenta o uso de IA por empresas, governos e famílias, não apenas esses sistemas se tornam mais essenciais, mas pode-se esperar um aumento no número de ataques direcionados a eles.
O relatório aponta os sistemas vinculados a transações financeiras e de segurança como os principais alvos desses crimes.
“Em geral, quanto mais complexo um sistema de controle, mais difícil pode ser defendê-lo integralmente”, diz o estudo, destacando a complexidade de se poder impedir esse tipo de fraude.
Phising adaptado
Os ataques de phishing buscam coletar informações confidenciais de um usuário ou instalar malware por meio de mensagens falsas de fontes confiáveis, como um banco. Desta forma, você pode obter senhas, por exemplo.
Até agora, esses ataques foram realizados com o envio de mensagens genéricas para um grande número de vítimas em potencial, o que geralmente leva a baixas taxas de sucesso. Mas a IA oferece o potencial de melhorar o sucesso desses ataques , gerando mensagens que parecem mais reais, por exemplo, incorporando informações privadas obtidas em redes sociais ou usando o aprendizado para entender quais mensagens funcionam melhor para usuários nesse tipo de fraude. .
Veículos sem motorista usados como armas
Organizações criminosas e terroristas usaram veículos em inúmeras ocasiões para serem usados como armas (seja para carregá-los com explosivos ou para serem direcionados a um alvo, como é o caso em alguns dos recentes ataques recentes na Europa).
Essas capacidades terroristas poderiam ser ampliadas, como aponta o estudo, pelo desenvolvimento de carros autônomos, reduzindo a necessidade de motoristas. Não só isso. Essa tecnologia, por sua vez, permitiria a realização de vários ataques coordenando vários veículos ao mesmo tempo.
Diante disso, é de se esperar que, com o avanço da direção autônoma, esses carros incorporem sistemas de segurança projetados para impossibilitar esse tipo de uso. Também derrotá-los pode ser possível com as mesmas medidas que são usadas com os veículos atuais, como barreiras físicas ou restrições de tráfego.
Deepfakes
Deepfakes são vídeos falsos gerados com inteligência artificial que permitem alterar o rosto de uma pessoa para que pareça que ela está fazendo ou dizendo algo que não fez ou disse. Algo que, além da piada ocasional que possa causar, representa um risco preocupante para as democracias , que estão se juntando à geração de notícias falsas.
A personificação da identidade por vídeo e áudio pode ser usada para acessar informações e senhas para acessar fundos econômicos ou, no caso de figuras públicas, para manipular seu apoio a eles.
Todos os especialistas imersos no estudo consideraram os deepfakes como o tipo de crime mais preocupante nessa tecnologia, obtendo altas pontuações nas quatro categorias de análise.
Comentários
Postar um comentário