Shikata Ga Nai

Private? There is no such things.

LLMを使ったバグバウンティ探索の最前線 ― ReconからレポートまでAIで高速化する方法

Hello there, ('ω')ノ

1. Recon(足跡調査)の成果を整理して価値ある情報にする

大量のデータは使えない情報の塊になりがちです。

Reconフェーズでは、ツール(amass/subfinder/httpx 等)を使うと何千行ものサブドメインやURLが出力されます。しかし、多くは無価値な情報です。

ここでモデルに渡すと:

👉 要点だけを抽出して、価値がありそうなものだけを短いリストにしてくれます。

これは単なる整形ではなく、結果に優先順位や意味付けをつけてくれる行為です。 たとえば「開放されたポート」「珍しい技術スタックを使っている部分」などです。

プロンプト例:

“Summarize these subdomain scan results and highlight high-value targets — open ports or uncommon technologies.”

💡 なぜやるのか

大量のRecon結果から本当に調査すべき部分を見落とさず、時間と労力を節約するためです。


2. PoC(動作検証コード)の初期案を自動生成する

攻撃の証明(Proof of Concept, PoC)は手動だと時間がかかる作業です。

モデルに状況と目的を伝えると、そのまま使える命令コードを生成してくれます。

例:

“Generate a curl request that sends an SSRF payload to the AWS metadata endpoint.”

これにより、初期段階のcurlコマンドや Postman 形式のもの、簡単なPythonスクリプトが得られます。

💡 なぜやるのか

最初から書き起こす必要がなくなり、標準化された形式で手を動かせるようになります。 初心者でも正しい雛形からテストに進めるようになるメリットがあります。


3. レポート文章の品質をAIで上げてバウンティ評価を高める

バグを見つけるだけでは終わりません。 報告書を書く力こそ、報酬に直結します。

モデルに下書きを渡して、

👉 プロの文章に仕上げてもらう

👉 影響度を明確に説明した上で整理されたレポートにする

といった作業を支援してもらえます。

“Rewrite this vulnerability report in a professional tone and make the impact clear.”

💡 なぜやるのか

的確で読みやすいレポートは審査者の理解と評価を早め、結果として高い報酬につながります。


4. JavaScriptの解析をモデルに任せる

Webアプリではクライアント側のJavaScriptが多く隠れています。特にミニファイ(圧縮)されたり、難読化されたものは手作業だと疲れます。

プロンプト例:

“Analyze this JavaScript function and tell me if there are any hidden API endpoints or interesting logic.”

結果として、

👉 APIのURL

👉 特殊な関数やロジック

👉 認証フローのヒント

などを抽出する助けになります。

💡 なぜやるのか

手動解析は時間がかかる上に簡単に見落とす可能性があります。AIが気付きやすいポイントを先に教えてくれるので、目視からの脱却ができます。


5. カスタムWordlistや攻撃ペイロードの生成

一般的なワードリストはセキュリティ調査では「どのアプリでも当てはまる基本セット」です。 しかし、個別ターゲットのアプリには特有のパスやパラメータがあります。

モデルに適切な文脈を与えて、

👉 ターゲット固有のadminルート候補

👉 技術スタックに最適化された語彙リスト

などを生成させることができます。たとえば:

“Generate common hidden admin routes in a Node.js Express app.”

💡 なぜやるのか

特化したリストは掃討力が高く、ツール(ffuf/dirsearch 等)との相性も良くなります。


6. 分からない点をリアルタイムで解説してもらう

Recon中には不可解な挙動や理解が難しいトークン構造などが出てきます。 そんなとき、

“Explain what this JWT token structure means and if there’s a common way to exploit it.”

のように投げると、AIがその背景・意味・注意点まで説明してくれます。

💡 なぜやるのか

わからないことを放置すると無駄な時間を消費しますが、理解を素早く深められると発見スピードが上がります。


ボーナス:自分専用のカスタムGPTを作る

👉 過去のReconノート

👉 効果的だったプロンプト

👉 レポートの雛形

これがあると、初見ターゲットでもAIが“自分の思考パターン”でサポートしてくれるようになります。

💡 狙い

作業速度だけでなく「一貫性」や「自分のやり方の再現性」が高まるため、スキルの均一化と効率化が同時に達成できます。


✅ まとめ:LLMはバグを見つける“魔法の弾丸”ではない

記事全体を通じた重要なポイントは:

  • LLMは探索(Recon)やレポートの補助に最適化されたツール
  • LLMは自動的に脆弱性を見つけてくれるわけではない
  • ただし、人間の思考速度と判断力を高める強力なパートナーになる

という点です。

Best regards, (^^ゞ