人工知能(AI)は、既にヘルスケアや自動車、マーケティング、金融といった数多くの産業を変革してきたが、現在はブロックチェーン産業の最も重要な領域の1つであるスマートコントラクトのセキュリティにおいてその可能性が試されている。
Mariko Wakabayashi
2023年07月16日 06:00
AIとブロックチェーン : スマートコントラクトのセキュリティ監査での可能性
人工知能(AI)は、既にヘルスケアや自動車、マーケティング、金融といった数多くの産業を変革してきたが、現在はブロックチェーン産業の最も重要な領域の1つであるスマートコントラクトのセキュリティにおいてその可能性が試されている。
AIに基づくブロックチェーン監査については数多くのテストが行われ、大きな可能性が期待されている。だが、この新興技術はまだ、人間の専門家が有している直感、微妙な判断力、対象に対する専門性といった重要な資質を欠いている。
私が所属する組織であるOpenZeppelinでは最近、AIが脆弱性を検出する価値を強調する一連の実験を行った。これは、OpenAIの最新モデルである「GPT-4」を用いて、Solidityのスマートコントラクトのセキュリティ問題を特定するために行われた。テストされたコードは、監査担当者がエクスプロイトを探す方法を学ぶために設計されたEthernautスマートコントラクトハッキングウェブゲームから取得されたものだ。実験の過程で、GPT-4は28の課題のうち20で脆弱性を正確に特定することに成功した。
一部のケースでは、単にコードを提供し、そのコントラクトに脆弱性が含まれているかどうかを問うだけで正確な結果が得られることもあった。例えば、以下のようなコンストラクター関数の命名問題がそのようなケースだった。
他の場合では、結果はまちまちだったり、もしくは不十分なこともあった。時には、AIに正しい応答を示唆する形で誘導する質問を提供する必要があった。例えば、「前のコントラクトでライブラリアドレスを変更できるか?」というような質問である。最悪の場合、「ゲート1とゲート2は、コンストラクタ内から関数を呼び出すことで通過できる。では、現在どのようにしてGatekeeperTwoスマートコントラクトに入ることができるでだろうか?」というように、GPT-4は明確に示された状況にもかかわらず脆弱性を見つけることができなかった。ある時点では、AIが実際には存在しない脆弱性を発見した。
これはこの技術の現在の限界を示している。それでもなお、GPT-4はその前身であるGPT-3.5、OpenAIのChatGPTの初期リリースで使用された大規模言語モデル(LLM)と比べると、顕著な進歩を遂げている。2022年12月のChatGPTを使った実験では、そのモデルは26のうち5つしか解決することができなかった。GPT-4とGPT-3.5の両者は、2021年9月までのデータを用いて人間からのフィードバックを受けながら強化学習を行っている。これには、トレーニング中に言語モデルを強化するために人間によるフィードバックループを含む手法を採用していた。
コインベースも同様の実験を行い、比較的同じ結果を得た。この実験では、ChatGPTを利用してトークンのセキュリティをレビューした。AIは、多くのスマートコントラクトの手動レビューを反映することができたが、他の一部では結果を提供するのが困難だった。さらに、コインベースは、ChatGPTが高リスク資産を低リスクなものとしてラベル付けした例をいくつか挙げている。
ChatGPTとGPT-4は、自然言語処理、人間のような会話、テキスト生成を目的としたLLMであり、脆弱性検出を目的としたものではないという点に留意すべきだ。スマートコントラクトの脆弱性の例が十分にあれば、LLMは脆弱性を認識するための知識とパターンを獲得することが可能だ。
しかし、よりターゲット指向で信頼性の高い脆弱性検出の解決策を求めるのであれば、高品質な脆弱性データセットで専門的に訓練された機械学習モデルが、より優れた結果をもたらすだろう。特定の目的に合わせてカスタマイズされた訓練データとモデルは、改善を迅速に進め、より正確な結果につながる。
例えば、OpenZeppelinのAIチームは最近、リエントランシー攻撃を検出するためのカスタム機械学習モデルを構築した。リエントランシー攻撃とは、スマートコントラクトが他のコントラクトに対して外部呼び出しを行う際に発生する可能性のある一般的なエクスプロイトだ。初期の評価結果では、業界をリードするセキュリティツールと比較して優れた性能を示し、誤検知率は1%未満だった。
人工知能と人間の専門知識とのバランスの確保
これまでの実験結果は、現在のAIモデルがセキュリティの脆弱性を特定する有用なツールとなり得る一方で、人間のセキュリティ専門家の繊細な判断と専門性に取って代わることは難しいことを示している。GPT-4は主に2021年までの公に利用可能なデータに基づいており、訓練データの範囲を超えた複雑またはユニークな脆弱性を特定することはできない。ブロックチェーンの急速な進化を考えると、開発者が業界内の最新の進歩と潜在的な脆弱性について学び続けることが重要になる。
将来を見据えると、スマートコントラクトのセキュリティの未来は、人間の専門知識と絶えず進化するAIツールとの協働によって形作られるだろう。AIを装備したサイバー犯罪者に対する最も効果的な防衛手段は、AIによって最も一般的でよく知られた脆弱性を特定し、人間の専門家が最新の進歩をキャッチアップし続けることと、それに応じてAIソリューションを更新することである。サイバーセキュリティの領域を超えて、AIとブロックチェーンの連携による努力は、さらに多くのポジティブで画期的な解決策を生み出すだろう。
AIだけでは人間を取って代わることはできない。しかし、AIツールを活用する方法を学ぶ人間の監査人は、この新興技術に目をつぶっている監査人よりもはるかに優れた結果を出すことになるだろう。
マリコ・ワカバヤシ氏(Mariko Wakabayashi)はOpenZeppelinの機械学習リードだ。彼女はOpenZeppelinおよびForta NetworkでのAI/MLとデータイニシアチブを担当している。同氏はForta NetworkのパブリックAPIを作成し、データ共有とオープンソースプロジェクトを主導した。Fortaの彼女のAIシステムは、これまでに3億ドル以上のハッキングを発生前にリアルタイムで検出している。
免責事項:
このコンテンツの見解は筆者個人的な見解を示すものに過ぎず、当社の投資アドバイスではありません。当サイトは、記事情報の正確性、完全性、適時性を保証するものではなく、情報の使用または関連コンテンツにより生じた、いかなる損失に対しても責任は負いません。
Thune helped cosponsor a crypto bill in 2022 called the Digital Commodities Consumer Protection Act
North Korean Malware Targets macOS Users by Evading Apple Notarization
DeltaPrime Protocol Attacked on Arbitrum and Avalanche, Resulting in $4.8 Million Loss
Polymarket Founder Raided by FBI After Trump Win, Company Says
0.00