2024-09-21から1日間の記事一覧
Hello there, ('ω')ノ データポイズニング攻撃の概念とは? AIモデルの学習には膨大なデータが必要です。このデータがモデルに学習内容を提供し、予測や意思決定を可能にします。しかし、このトレーニングデータが攻撃者によって操作されると、AIモデルの信…
Hello there, ('ω')ノ 言語モデルの脆弱性:なぜ攻撃が可能なのか? LLMは膨大なテキストデータを基に訓練され、次の単語を予測することで自然な文章を生成します。しかし、これらのモデルは人間のように言語を「理解」しているわけではなく、データのパター…
Hello there, ('ω')ノ LLMを狙った3つの攻撃手法 1. ジェイルブレイク攻撃 LLMに対する「ジェイルブレイク攻撃」は、モデルが持つ安全な制約を意図的にバイパスし、LLMに意図しない有害な出力を生成させる攻撃手法です。この攻撃は、特定の順序でプロンプト…