Defesa contra dispositivos de IA de última geração

As capacidades cada vez maiores e o uso de inteligência artificial para tudo, desde conveniência até tarefas militaristas, aumentaram riscos e exigem proteção contra ações nefastas

Darnell Washington

Falamos sobre robôs e como eles podem dominar o mundo. Vimos filmes e romances apocalípticos que colocam o homem contra a máquina em lutas épicas do bem contra o mal. As questões geopolíticas e ambientais atuais evoluíram em maturidade e capacidade, onde as estratégias de defesa cibernética/e ofensiva cibernética estão sendo usadas não apenas em confrontos militares, mas também em salas de reuniões corporativas. Ao pensarmos no atual colapso das criptomoedas, instabilidade econômica e da cadeia de suprimentos, enfrentamos uma nova dimensão de ameaças que exigem repensar e desenvolver novos conceitos prontos para uso para identificar e derrotar tecnologias adversárias.

Considere a inteligência artificial (IA) e o longo caminho percorrido nos últimos cinco anos. Ao participar da feira ISC West na época, encontramos fabricantes e integradores de segurança que divulgavam recursos de vigilância por vídeo e produtos de controle de acesso com detecção proativa e análise de vídeo baseadas em IA. Naquela época, eram necessários exemplos de esclarecimento e contraste para entender a IA do aprendizado cognitivo, suporte à decisão, aprendizado profundo, redes neurais e sistemas de raciocínio adaptativo – incluindo como eles nos ajudaram a coletar informações úteis, mas não realmente usando sistemas baseados em IA.

blank
Darnell Washington

Avançando rapidamente, a IA tornou-se uma tecnologia doméstica e os gigantes da indústria Apple e Amazon (Siri, Alexa) dominaram o mercado com IA real usando processamento e interpretação de linguagem natural. Embora ainda falhos em muitas situações, esses produtos trouxeram valor real para as massas e se tornaram a base de avanços prolíficos em IA. A tecnologia avançou de celulares sendo reconhecidos como assistentes de dados pessoais (PDAs) para dar vida ao que é conhecido como assistentes virtuais.

Hoje, vemos o próximo surgimento de IA real integrada a aplicativos do mundo real atualmente liderados por empresas de alta tecnologia progressistas como a OpenAI de San Francisco. Um novo conjunto de gigantes da indústria – incluindo a base industrial de defesa, especialistas em automação, fabricantes de automóveis, robótica, help desk/call centers e fabricantes de equipamentos médicos – todos clamam para desenvolver a próxima melhor coisa em IA. Parece não haver fim para a possibilidade de a IA diminuir a necessidade de os humanos pensarem à medida que avançamos para a era da máquina inteligente. Quando desenvolvemos confiança na IA e a integramos em nossas vidas diárias, também devemos pensar no uso adverso da IA e em sua capacidade de interromper e impactar negativamente nosso modo de vida.

Um grupo chamado Future of Life Institute administrou uma petição apoiada por grandes empresas de tecnologia de IA pedindo uma moratória de seis meses em experimentos em larga escala com IA. Embora todos afirmem prometer que suas tecnologias mudarão o curso da civilização, eles afirmam que a indústria não tomou medidas para garantir que a IA não seja cooptada para uso nefasto e estabelecer regras e padrões fundamentais que regem o uso de IA e IA. sistemas baseados em Vamos nos aprofundar em onde nos encontramos hoje e o que isso representa para a indústria de segurança eletrônica e integradores de sistemas.

O que é IA adversarial?

O aprendizado de máquina e a IA apresentam uma nova superfície de ataque cibernético que exige novos conjuntos de habilidades, tecnologias e competências para identificar e mitigar os riscos de segurança cibernética para o público, a indústria e o país. Os esforços de segurança cibernética visam proteger os sistemas de computação contra ataques digitais, que são uma ameaça crescente na Era Digital. O aprendizado de máquina adversário, uma técnica que tenta enganar modelos com dados enganosos, é uma ameaça crescente em IA e aprendizado de máquina.

O monitoramento de tecnologias baseadas em IA, ou IA adversária, é baseado em tecnologia que, se usada para fins maliciosos, pode colocar em risco a segurança pública, a saúde e a segurança nacional. Antes de seguirmos o caminho que leva às máquinas que decidem exterminar a humanidade, como visto em filmes como O Exterminador do Futuro, vamos falar sobre exemplos do mundo real. Um dos melhores exemplos que vemos hoje é o que é conhecido como deepfake.

Isso se refere ao uso de modelos baseados em IA e recursos de algoritmo de computador para simular voz, expressões, reconhecimento facial e imagens faciais de visão computacional contextualmente, de modo que a capacidade de discernir real versus falso não seja possível. Os modelos de linguagem natural de IA que agora inundam a Internet como chatbots, ou bots, foram programados com sucesso para alterar dados e cometer erros em seus algoritmos antes de apresentá-los de volta a outros sistemas e respostas.

Tecnologias de próxima geração

Sem entrar em uma dissertação de como a IA é desenvolvida, existe um processo específico conhecido como IA de treinamento. Isso envolve pegar um algoritmo de máquina e desenvolver respostas que classificam como a entrada é usada, processada e produzida. A maioria dos ataques cibernéticos de IA na IA frequentemente usa envenenamento para treinar os dados e os rótulos para um desempenho inferior durante a implantação. Pense nisso como dados sendo contaminados, tornando inúteis os dados coletados e processados pelo sistema de IA.

Outro tipo de ataque cibernético de IA é a extração de modelo de IA. É aqui que existe a intenção de roubar o módulo de IA e reconstruir os dados para responder alternativamente à forma como se pretendia responder. No topo da lista de alvos potenciais perigosos de IA comprometida estão sistemas de armas autônomos, próximas interfaces cérebro-computador (BCI), veículos autônomos, impressão 3D, reconhecimento facial, realidade aumentada, inteligência de enxame, além do já aludido para deepfakes e bots.

Distinções precisam ser feitas entre sistemas referidos como automatizados versus autônomos. Os sistemas automatizados executam processos repetitivos que reduzem a interação humana, mas ainda são governados por processos e relacionamentos gerenciados por humanos. Sistemas autônomos (especialmente aqueles que dependem de IA) podem ajustar e modificar resultados sem governança ou interação humana.

Defendendo-se contra Exploits

O uso de criptografia digital forte e práticas recomendadas de segurança cibernética deve sempre ser lembrado na sombra da defesa contra os formidáveis recursos e o poder da IA. Governar o uso da IA pelo governo, bem como por organizações públicas e privadas, não está muito longe. A perspectiva militar contra as armas de guerra é estabelecer orientações e leis internacionais sobre como, quando e sob quais condições a IA pode ser usada em conflitos.

O “Roteiro Integrado de Sistemas Não Tripulados” do Departamento de Defesa dos EUA estabelece um plano concreto para desenvolver e implantar armas com autonomia cada vez maior no ar, na terra e no mar nos próximos 20 anos. Uma característica definidora desses sistemas de armas autônomas (AWS) é precisamente sua capacidade de operar de forma autônoma: “armas robóticas… uma vez ativadas, podem selecionar e engajar alvos sem intervenção humana adicional”.

À medida que buscamos ter maiores controles de privacidade não militares e proteção de informações de identificação pessoal (PII), existem métodos específicos que podem ser implementados para proteger e treinar modelos de IA. Um desses processos é conhecido como Aprendizado de Máquina com Preservação de Privacidade (PPML). Outra envolve técnicas de ofuscação de código que incorporam desfoque facial com modelos de reconhecimento de visão computacional.

Certificar-se de que a IA esteja total e completamente alinhada com os objetivos humanos é surpreendentemente difícil e exige uma programação cuidadosa. A IA com objetivos ambíguos e ambiciosos é preocupante, pois não sabemos que caminho ela pode decidir seguir para atingir seu objetivo determinado. Uma coisa é certa: nós vimos isso chegando.

Darnell Washington é presidente e CEO da SecureXperts

Nota: este artigo foi publicado anteriormente em Security Sales & Integration

- PUBLICIDADE - blank