敵対的摂動を活用した第三のAIセキュリティツール「FaceMaze」-シカゴ大
ディープフェイクと違法な監視のブロックに期待

シカゴ大学の研究者は本日、AIによるトレーニングを防止する新技術、「Face Maze」を発表した。
この技術は、敵対的摂動(Adversarial Perturbation)によるAIの脆弱性を利用し、
画像のセグメンテーション認識部分をパズルのようにシャッフルするノイズを加えることで、人間の顔を誤って学習させ、機能不全に陥らせる。
ディープフェイク生成技術や、顔認識を用いた違法な監視AIから人々を守るための新たなメカニズムになるのではないかと期待されている。

「このツールは、機械学習アルゴリズムから深層学習にまで幅広く効果を発揮する」と開発チームはコメントした。
画像認識を混乱させることで、目鼻の位置に犬の画像や、口に昆虫の触覚などをバラバラに配置する。
この誤った画像を学習することにより、どんなAIモデルでも少量で正しい画像認識ができなくなる。
ディープフェイクや顔認識技術を悪用する潜在的な脅威から人々を守る目的で設計され、SNSやニュースサイトでの活用が今後期待されている。

「私たちは、AI技術が進展するにつれて、危険性にも直面しています。この新しいツールは、敵対的摂動の理論を実用的なセキュリティソリューションに応用する最初のステップです」