Hello there, ('ω')ノ
アプリケーションがどのように構築されているかについて理解するには。
下記は、注意すべき重要なファイルで。
• robots.txt
サイト作成者が Google などのロボット/クローラが検索で。
インデックスに登録することを望まないパスを含むファイルで。
管理ページや組織だけが知っている秘密のディレクトリが含まれていたりと。
• sitemap.xml
重要な情報が含まれていない場合がありますが。
サイトにあるさまざまなURLを含むファイルで。
アプリケーション全体を手動で参照することはできなかったりもするので。
ツールを使用してより多くのものを見つけて。
スパイダリング
スパイダーには、アクティブとパッシブと2種類あって。
HTML ファイルに含まれるすべてのリンクにアクセスすることを意味して。
アクティブスパイダリング
各リンクにアクセスして、必要に応じてランダム データを送信して。
URLをサイトマップに追加して。
パッシブスパイダリング
リンクにアクセスしたり、データを送信したりするのではなくて。
HTMLファイルを解析して、見つかったURLをサイトマップに追加するだけで。
ほとんどのツールには、自動的に実行するデフォルト機能があって。
Burp Suiteでのスパイダリング
ターゲットを右クリックして、ランチャーを開いて。
スパイダーを構成して、OKをクリックしてスパイダーを起動できて。
スパイダーは、ほとんどの作業を自動化できるものの欠点もあって。
その欠点を管理するための非常に便利なテクニックとして。
アプリケーション全体を通して、すべてのリンクをクリックして。
すべてのフォームに入力し、複数段階のプロセスをすべて完了して。
サイトマップと比較して、手動でアクセスしていないリンクがある場合は。
手動で行って。
非常に苦痛な作業ではありますが、必要な作業であって。
そして、サイトマップの各リンクでアクティブスパイダーを実行することで。
コンテンツ情報をさらに拡張できて。
Best regards, (^^ゞ