敵対的摂動を活用した第三のAIセキュリティツール「FaceMaze」-シカゴ大
ディープフェイクと違法な監視のブロックに期待

シカゴ大学の研究者は本日、AIによるトレーニングを防止する新技術、「FaceMaze」を発表した。この技術は、敵対的摂動(Adversarial Perturbation)によるAIの脆弱性を利用し、画像のセグメンテーション認識部分をパズルのようにシャッフルするノイズを加えることで、人間の顔を誤って学習させ、機能不全に陥らせる。ディープフェイク生成技術や、顔認識を用いた違法な監視AIから人々を守るための新たなメカニズムになるのではないかと期待されている。

「このツールは、機械学習アルゴリズムから深層学習にまで幅広く効果を発揮する」と開発チームはコメントした。人間の顔にターゲットを絞り、誤認させるシグナルを盛り込むことで、たとえば目鼻の位置に犬の画像や、口に昆虫の触覚などをバラバラに配置したとみせかける。この誤った画像を学習することにより、少量で正しい画像認識ができなくなる。ディープフェイクや顔認識技術を悪用する潜在的な脅威から人々を守るのに効果的だ。

「私たちは、AI技術が進展するにつれて、危険性にも直面しています。この新しいツールは、敵対的摂動の理論を実用的なセキュリティソリューションに応用し、段階的に浸透させていくステップの一つです」