Hello there, ('ω')ノ
「さっきの話、もう忘れたの…?」
ChatGPTを使っていて、こんなことを感じたことはありませんか?
- 少し前に伝えた内容を忘れている
- 長い文章を入力したら途中で切れてしまった
- 「前の文脈が通じていない」と感じる
これらは、生成AIが持つ「記憶の限界」によるものです。
その限界を決めているのが、今回のテーマ 「コンテキストウィンドウ」 なんです。
コンテキストウィンドウとは?
コンテキストウィンドウ(context window)とは、
📌 AIが一度に処理できる「文章の長さ」の上限
のことです。
もっと言えば、「AIが一度に読んで、考えられる情報の量」と考えてください。
この“ウィンドウ”が小さければ、すぐに情報が押し出されて忘れてしまい、
大きければ、長い文脈も覚えたまま会話できます。
例えてみよう:「AIの机の広さ」
たとえるなら、コンテキストウィンドウはAIの作業机の大きさです。
- 小さな机:ノート1冊と資料1枚が置けるくらい
- 大きな机:複数の書類と参考資料が並べられる
つまり、机が小さいと「古いメモを片付けて新しい資料に集中」しないといけません。
AIも同じで、ウィンドウから外れた情報は“忘れる”のです。
どれくらいの長さを扱えるの?
コンテキストウィンドウのサイズは、「トークン数」で表されます。
🔸 トークンとは?
⇒ AIが処理する“単語のかけら”のような単位。
英単語で言えば 1単語=1〜3トークンくらい。
各モデルによって上限が異なります:
モデル | コンテキストウィンドウ(上限) | 目安の文字数 |
---|---|---|
GPT-3.5 | 約4,000トークン | 約8,000〜10,000文字(日本語) |
GPT-4 | 約8,000〜32,000トークン | 約20,000〜80,000文字 |
Claude 2.1 | 約200,000トークン | 書籍1冊分もOK |
Gemini 1.5 | 最大1,000,000トークン | 大量のPDFや資料も一気に処理可能(研究段階含む) |
📌 ポイント:モデルによって「覚えていられる量」に差がある!
RAGにおけるコンテキストウィンドウの役割
RAGでは、AIに答えを出してもらう前に「関連情報(文脈)」を渡す必要があります。
このとき…
❗ ウィンドウが小さいと、せっかく探した情報が入りきらない
という問題が起きてしまいます。
✏️ たとえば…
ユーザーの質問:
「入社手続きと初日の流れを教えて」関連情報として:
入社案内PDF・規定・社内メールなど、複数の文書から該当箇所を抽出
➡ でも、ウィンドウが狭ければ一部の情報しか渡せず、答えが中途半端になる可能性も。
どう対処するの?
✅ 1. 必要な情報だけを絞り込んで渡す
→ ベクトル検索で「一番関連性が高い部分」を厳選して渡すことで、ウィンドウ内に収める。
✅ 2. コンテキスト圧縮(要約)を使う
→ 長い文書は、LLMで要約してから渡すことで、情報量を抑えつつ質を保つ。
✅ 3. 長いウィンドウのモデルを使う
→ GPT-4 TurboやClaude 3のような大容量モデルを活用すると、数十ページ分の情報も一度に扱えるように。
「会話の流れ」もウィンドウに依存する
ChatGPTとのやりとりは、毎回「前の発言+質問内容+AIの返答」を含む形で処理されます。
つまり、会話が長くなると古い情報からウィンドウ外に押し出されていくのです。
🔁 継続的な会話や業務シナリオでは、
「どこまでAIが覚えているか?」を意識することが大切です。
まとめ:AIにとっての“記憶容量”を理解しよう
- コンテキストウィンドウとは、AIが一度に処理できる情報の限界
- 大きなウィンドウほど、文脈を正確に理解した回答ができる
- RAGでは、検索した情報が全部入りきらない問題がある
- 対策として「情報を絞る」「要約する」「大きなモデルを使う」などが有効
- 会話や連続処理でも、ウィンドウ超えに注意!
Best regards, (^^ゞ