※本ページにはプロモーション(広告)が含まれています
文章や画像を数値ベクトルに変換する技術。意味の近さを数値で計算でき、セマンティック検索やRAGの基盤となる。
詳しい解説
エンベディング(埋め込み)は、文章・単語・画像などを固定長の数値ベクトル(例: 1,536次元の実数配列)に変換する技術で、現代のAI検索・レコメンド・RAGの基盤となっています。『意味を座標に落とし込む』と言い換えるとイメージしやすく、意味が近い2つの文章はベクトル空間で近い位置に、意味が遠い2つは遠い位置に配置されます。
仕組みとしては、事前学習済みのエンベディングモデル(OpenAI text-embedding-3-large、Cohere embed-v3、Voyage AI voyage-3、Googleのgemini-embeddingなど)に文章を入力すると、数値ベクトルが返されます。このベクトル同士の『コサイン類似度』を計算することで意味の近さを数値化できる、というのが本質です。たとえば『犬の散歩』と『ペットのお出かけ』は直接的な単語一致はゼロでも、エンベディング上では高い類似度を示します。
用途としては、①セマンティック検索(意味検索)、②RAGの検索層、③レコメンド(この記事を読んだ人におすすめ)、④クラスタリング(文書の自動分類)、⑤重複検出、⑥異常検知、⑦画像検索(テキストで画像を探す)など非常に幅広い応用が可能です。Google検索、YouTube推薦、Spotify推薦、ECサイトの『関連商品』など、現代のWebサービスの多くが背後でエンベディングを使っています。
実装面では、OpenAI APIやCohere APIに文字列をPOSTするだけで数百ミリ秒でベクトルが返り、それをベクトルデータベース(Pinecone・Weaviate・Qdrant・Chroma・pgvectorなど)に保存して検索する、という流れが定番です。コストはOpenAI text-embedding-3-smallで100万トークンあたり0.02ドル程度と、LLM生成コストの数十分の1で済みます。
チューニングの勘所としては、①文書のチャンク分割(400〜800トークンが一般的)、②多言語対応モデルの選択、③モデルのベクトル次元(512〜3,072)とDBパフォーマンスのバランス、④検索結果の再ランキング(re-ranker併用で精度向上)などがあります。エンベディングの質次第でRAGの回答品質が大きく変わるため、2026年現在も各社がモデル改善競争を続けています。
ECサイトで『夏に涼しい服』と検索したとき、旧来のキーワード検索では商品説明に『夏』『涼しい』が直接書かれた商品しかヒットしません。エンベディング検索なら『通気性が良い』『リネン素材』『半袖』といった直接的には違う単語でも意味が近いため、該当商品が高順位に並びます。ユーザーの『意図』で検索できるようになる、これがエンベディングが現代AI検索の要と呼ばれる理由です。
別の呼び方
ベクトル化
Embedding
セマンティックベクトル
minto.tech スマホ(Android/iPhone)・PC(Mac/Windows)の便利情報をお届け! 月間アクセス160万PV!スマートフォン、タブレット、パソコン、地デジに関する素朴な疑問や、困ったこと、ノウハウ、コツなどが満載のお助け記事サイトはこちら!