AIによるサイバー攻撃に備える–AI武装したサイバー犯罪者に立ち向かうには

 質問に精度の高い文章で回答する「ChatGPT」をはじめ、連日、文章生成AIに関する話題が報じられています。中でも多くの人が注目するのは、その技術が悪用される可能性と、悪用方法です。サイバーセキュリティ業界はそれにいち早く目を向け、脅威状況の監視と検証を続けています。

未知の脅威やサイバー攻撃を防御するために人工知能を使った予想防御を搭載したセキュリティソフトウェアを提供するBlackBerryが、2023年1月、北米、英国、オーストラリアのIT意思決定者1500人を対象に実施した最新調査の結果では、回答者の51%が、年内にもChatGPTを用いたサイバー攻撃が成功すると予測しました。

その予測を裏付けるのは、文章作成のみならず、データ暗号化ツールやマルウェア、ダークウェブマーケットプレイスなどを作成するコードの生成にも使用できるChatGPTの能力、そして、サイバー犯罪者が集うアンダーグラウンドフォーラムなどで観察される、ChatGPTをはじめとした生成型人工知能(生成AI)をいかにサイバー犯罪に悪用するか、具体的な使用方法から規制をかいくぐる方法まで盛んな議論が行われている事実です。

これまで、サイバー犯罪者は、自分自身の経験やアンダーグラウンドフォーラム、セキュリティ研究者が公開する情報などを頼りに、さまざまな悪質な手法を理解し、それをコードに変換していました。しかし、ChatGPTによって、こうした知見や技術のないサイバー犯罪者でも、サイバー攻撃を容易に実行できるようになる可能性が極めて高いのです。

AIで巧妙さを増すフィッシングメールは従来の対策では不十分

ChatGPTを用いたサイバー攻撃として、真っ先に想像されるのは、その文章作成能力を用いたフィッシング攻撃でしょう。

メール内のリンクをクリックさせ、偽サイトに誘導して個人情報を入力させる、添付ファイルからマルウェアをインストールさせ、データ破壊や情報盗用を可能にするなど、フィッシングメールをきっかけとした被害が増加しています。フィッシング対策協議会が2022年11月に発行した2022年版「フィッシング報告状況と対策」では、報告数は2022年9月末時点で、2019年(3年前)の約13.5倍と報告されました。

BlackBerryのJonathan Jacksonは2023年サイバーセキュリティ予測の中で、脅威の一つとしてビジネスメールを挙げています。メールアドレスのハッキング、偽装、なりすましによってスパムフィルターを回避した偽のビジネスメールが届いた場合、本文がChatGPTを用いて作成されていたなら、どのような影響が考えられるでしょうか。

これまでユーザーは、メールが拙い日本語で書かれていたなら、警戒して開封しない、もしくは添付ファイルを開けないといった形での対策が可能でした。しかし犯罪者はChatGPTを活用することにより、より説得力のあるフィッシングメールやSNSメッセージ、ソーシャルメディアへの投稿を作成できます。さらに、AIを使って作成したディープフェイク画像を使い、なりすましをより巧妙にすることも可能です。このように、より多くの人を騙し、機密情報を提供させたり、マルウェアをインストールさせたりすることがAIの活用により可能になります。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

Original Post>