Notebookcheck Logo

A DARPA lança ferramentas de detecção de deepfake e inicia desafios colaborativos para desenvolver mais

A DARPA lança ferramentas deepfake para ajudar a combater imagens, vozes e notícias falsas de IA. (Fonte: DARPA)
A DARPA lança ferramentas deepfake para ajudar a combater imagens, vozes e notícias falsas de IA. (Fonte: DARPA)
A DARPA lançou suas ferramentas de detecção de deepfake desenvolvidas em seu programa Semantic Forensics para combater ameaças de IA. Cerca de duas dúzias de ferramentas ajudam a detectar fotos e vídeos deepfake, bem como texto e voz gerados por IA. Os desafios colaborativos do AI FORCE lançados a cada quatro semanas incentivam os pesquisadores públicos a ajudar a desenvolver soluções inovadoras para a ameaça da IA generativa.

A DARPA (Agência de Projetos de Pesquisa Avançada de Defesa dos EUA) liberou para o público suas ferramentas de detecção de deepfake desenvolvidas em seu programa Semantic Forensics (SemaFor). A agência disponibilizou quase duas dúzias de ferramentas sob licença permissiva ou aberta para detectar fotos e vídeos deepfake, bem como texto e voz gerados por IA. Para incentivar o desenvolvimento contínuo, uma série de desafios colaborativos será lançada a cada quatro semanas no âmbito do programa AI Forensics Open Research Challenge Evaluations (AI FORCE) para ajudar a desenvolver novas ferramentas e algoritmos para combater a ameaça da IA.

A caixa de Pandora da IA foi confirmada como aberta quando o engenheiro do Google Blake Lemoine afirmou em 2022 que a IA LaMDA do Google sabia que era senciente. Independentemente de como a vida artificial é definida, os usuários de IA certamente podem ver que suas habilidades são vastas e, muitas vezes, melhores do que as dos humanos. Os leitores que assistiram a O Exterminador do Futuro ou Ghost in the Shell também reconhecerão que a ameaça da IA, seja ela iniciada por seus usuários ou por conta própria, é grande.

A missão da DARPA é "fazer investimentos fundamentais em tecnologias revolucionárias para a segurança nacional" levou a DARPA a se concentrar no problema das ameaças de IA em seu programa SemaFor. A agência desenvolveu um Catálogo Analítico de 19 componentes, com mais componentes a serem adicionados ao longo do tempo. Todos os componentes são de código aberto em um esforço para disseminar as ferramentas anti-AI necessárias para o público.

Essas ferramentas incluem códigos e algoritmos desenvolvidos para detectar ameaças de IA, como fake news e textos publicados por IA no Twitter e em outros lugares, chamadas falsas do presidente Bidene fotos falsas do Papa criadas por ferramentas generativas como a Midjourney.

A DARPA também espera colaborar com pesquisadores e desenvolvedores públicos por meio de seu programa AI FORCE, visando uma nova área de interesse a cada quatro semanas para incentivar a inovação. Os leitores que quiserem desenvolver ferramentas de IA contrária precisarão de uma placa de vídeo Nvidia rápida(como esta da Amazon).

Tecnologia de defesa Deepfake pronta para comercialização e transição

Para promover a transição de tecnologias forenses semânticas para o setor e o governo, a DARPA lançará esforços que reforçarão as defesas contra a mídia manipulada

[email protected]/14/2024

A ameaça da mídia manipulada tem aumentado constantemente à medida que as tecnologias de manipulação automatizada se tornam mais acessíveis, e as mídias sociais continuam a oferecer um ambiente propício para o compartilhamento de conteúdo viral.

A velocidade, a escala e a amplitude com que as campanhas de desinformação em massa podem se desenvolver exigem defesas computacionais e algoritmos automatizados para ajudar os seres humanos a discernir qual conteúdo é real e o que foi manipulado ou sintetizado, por que e como.

Por meio do programa Semantic Forensics (SemaFor), e anteriormente do programa Media Forensics os investimentos em pesquisa da DARPA na detecção, atribuição e caracterização de mídias manipuladas e sintetizadas, conhecidas como deepfakes, resultaram em centenas de análises e métodos que podem ajudar organizações e indivíduos a se protegerem contra as inúmeras ameaças das mídias manipuladas.

Com o SemaFor em sua fase final, os investimentos da DARPA reduziram sistematicamente os riscos de desenvolvimento, abrindo caminho para uma nova era de defesas contra a crescente ameaça das deepfakes. Agora, a agência está convocando a comunidade em geral - incluindo o setor comercial e o meio acadêmico que fazem pesquisas nesse espaço - para alavancar esses investimentos.

Para apoiar essa transição, a agência está lançando dois novos esforços para ajudar a comunidade mais ampla a continuar o impulso da defesa contra a mídia manipulada.

O primeiro compreende um catálogo analítico https://semanticforensics.com/ contendo recursos de código aberto desenvolvidos no âmbito do SemaFor para uso de pesquisadores e do setor. À medida que os recursos amadurecem e se tornam disponíveis, eles serão adicionados a esse repositório.

O segundo será um esforço de pesquisa da comunidade aberta chamado AI Forensics Open Research Challenge Evaluation (AI FORCE), que visa desenvolver modelos inovadores e robustos de aprendizado de máquina, ou aprendizado profundo, que possam detectar com precisão imagens sintéticas geradas por IA. Por meio de uma série de minidesafios, o AI FORCE pede aos participantes que criem modelos capazes de discernir entre imagens autênticas, incluindo aquelas que podem ter sido manipuladas ou editadas usando métodos que não sejam de IA, e imagens totalmente sintéticas geradas por IA. Essa iniciativa será lançada na semana de 18 de março e terá um link na página do programa SemaFor. Os interessados em receber uma notificação podem se inscrever para receber o boletim informativo do Information Innovation Office.

De acordo com os pesquisadores da DARPA e da SemaFor, é necessário um esforço conjunto entre o setor comercial, as organizações de mídia, os pesquisadores e desenvolvedores externos e os formuladores de políticas para desenvolver e implantar soluções que combatam as ameaças da mídia manipulada. A SemaFor está fornecendo as ferramentas e os métodos necessários para ajudar as pessoas nesse espaço problemático.

"Nossos investimentos criaram um espaço de oportunidade que é oportuno, necessário e está pronto para crescer", disse o Dr. Wil Corvey, gerente do programa Semantic Forensics da DARPA. "Com a ajuda do setor e da academia em todo o mundo, o programa Semantic Forensics está pronto para compartilhar o que começamos para reforçar o ecossistema necessário para defender a autenticidade em um mundo digital"

Para obter mais informações sobre os esforços e recursos acima, acesse https://www.darpa.mil/program/semantic-forensics e https://semanticforensics.com/.

Para saber mais sobre o programa SemaFor e uma visão geral das tecnologias resultantes, confira o episódio Voices from DARPA sobre "Demystifying Deepfakes" em https://www.darpa.mil/news-events/2023-06-16

Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 06 > A DARPA lança ferramentas de detecção de deepfake e inicia desafios colaborativos para desenvolver mais
David Chien, 2024-06- 3 (Update: 2024-06- 3)