voyage-3-large icon

voyage-3-large

開く

Voyage AIの最新SOTA汎用embeddingモデル。法律、金融、コードを含む100データセットにわたる8つの評価ドメインで第1位、OpenAIとCohereを平均9.74%と20.71%上回る。

共有:

voyage-3-largeは、Voyage AIが2025年1月に発表した最新の最先端汎用および多言語embeddingモデルで、法律、金融、コードを含む100データセットにわたる8つの評価ドメインで第1位にランクされています。

性能優位性

voyage-3-largeは複数の次元で競合他社を上回ります:

  • vs OpenAI text-embedding-3-large: 平均性能+9.74%
  • vs Cohere Embed v3-English: 平均性能+20.71%
  • vs voyage-3: 平均性能+4.14%
  • vs voyage-3-lite: 平均性能+7.68%

法律、金融、コードなどの専門ドメインで特に優れており、2025年の検索性能ベンチマークを設定しています。

核心機能

柔軟な次元サポート

以下の出力次元値をサポート:

  • 2048次元: 最高品質
  • 1024次元(デフォルト): 性能とコストのバランス
  • 512次元: より高速な推論、ストレージ削減
  • 256次元: 最大圧縮

量子化サポート

Matryoshka学習と量子化対応トレーニングにより、voyage-3-largeはより小さい次元とint8およびバイナリ量子化をサポートし、検索品質への影響を最小限に抑えながらベクトルデータベースコストを大幅に削減します。

  • int8量子化: ストレージコスト4倍削減
  • バイナリ量子化: 品質損失最小で最大200倍のストレージコスト削減

長コンテキストサポート

  • コンテキスト長: 32Kトークン
  • Matryoshka学習による柔軟なサイズ調整

複数のデータタイプ

voyage-3-largeはint8、uint8、binary、ubinaryデータタイプをサポートし、極限のストレージと計算最適化オプションを提供します。

性能指標

レイテンシとスループット

  • レイテンシ: 最大100トークンの単一クエリで90ミリ秒
  • スループット: ml.g6.xlargeで時間あたり1260万トークン($0.22 / 100万トークン)

ドメイン固有の優位性

法律、金融、医療、コードなどの専門ドメインで、voyage-3-largeは汎用embeddingモデルに対して顕著な優位性を示します。

使用シーン

  • 専門ドメイン検索: 法律、金融、医療、コードでの高精度検索
  • 大規模ベクトルデータベース: 量子化技術を使用してコストを大幅に削減
  • 高性能要件: 最先端の検索性能を必要とするアプリケーション
  • コスト最適化: バイナリ量子化で200倍のストレージコスト削減
  • 長文書処理: 32Kトークンコンテキスト長サポート

価格

AWS Marketplaceデータに基づく:

  • 基本価格: $0.22 / 100万トークン(ml.g6.xlargeインスタンス上)
  • 具体的な価格はデプロイ方法と規模により異なる場合があります

長所と短所

長所:

  • 2025年SOTA性能: 100データセットで第1位
  • ドメイン固有の優位性: 法律、金融、コードで卓越
  • 極限量子化: バイナリ量子化で200倍のストレージ削減
  • 柔軟な次元: 256-2048次元の複数オプションをサポート
  • 長コンテキスト: 32Kトークンサポート

短所:

  • 新しいモデル: 2025年1月リリース、比較的新しいコミュニティエコシステム
  • 価格: オープンソースモデルと比較してAPI料金が必要
  • ドキュメント: 新しいモデルとして、ドキュメントとベストプラクティスが蓄積中

コスト最適化

バイナリ量子化の利点

10億個の2048次元ベクトルのストレージコスト:

  • 量子化なし: ~8TBストレージ
  • バイナリ量子化: ~40GBストレージ(200倍削減)

大規模ベクトルデータベースにとって、このコスト削減は革命的です。

まとめ

voyage-3-largeは最先端の検索性能を追求する第一選択であり、特に以下に適しています:

  • 専門ドメインアプリケーション(法律、金融、医療)
  • 極限のコスト最適化を必要とする大規模ベクトルデータベース
  • 最高の検索品質要件があるシナリオ
  • 長文書処理(32Kトークン)アプリケーション

一般的なシナリオでは、OpenAI text-embedding-3-largeがより成熟したエコシステムを提供します。多言語およびオープンソースのニーズには、BGE-M3がより良い選択です。しかし、専門ドメインと最大性能要件には、voyage-3-largeが2025年の最良の選択です。

コメント

まだコメントがありません。最初のコメントを投稿してください!