BAAI bge-reranker-v2.5-gemma2-lightweight
BAAIのbge-reranker-v2.5-gemma2-lightweightは、Google Gemma 2アーキテクチャに基づく軽量リランキングモデルで、2024年11月にリリースされました。高性能を維持しながら計算リソース要件を大幅に削減し、コンシューマーグレードGPUやCPUでの効率的な動作を可能にします。
主要機能
- 軽量: 2.6Bパラメータ - 大型モデルより大幅に少ない
- コンシューマーハードウェア: RTX 3060、GTX 1080Ti等のGPUで動作
- 中国語-英語最適化: 中国語と英語に深く最適化
- C-MTEB SOTA: C-MTEBリランキングタスクで最先端
- Gemma 2ベース: GoogleのGemma 2アーキテクチャを採用
- Apache 2.0: 完全オープンソース
パフォーマンス
- C-MTEBリランキング: 第1位
- コンテキスト長: 8192トークン
- 推論速度: 7B+モデルより3-5倍高速
- メモリ: 4-6GB VRAM/RAMのみ必要
クイックスタート
from FlagEmbedding import FlagReranker
reranker = FlagReranker('BAAI/bge-reranker-v2.5-gemma2-lightweight', use_fp16=True)
scores = reranker.compute_score([[query, doc1], [query, doc2]])
最適な用途
✅ 中国語中心のアプリケーション ✅ リソース制約のある環境 ✅ コスト重視のプロジェクト ✅ エッジデプロイメント ✅ 高速レスポンス要件
代替案
- BGE-reranker-large: より高い精度が必要でGPUリソースが豊富
- Jina Reranker v3: 広範な多言語サポートが必要
- Cohere Rerank v3.5: マネージドサービスが必要
コメント
まだコメントがありません。最初のコメントを投稿してください!
関連ツール
Cohere Rerank 3.5
cohere.com
業界をリードするリランキングモデル、多言語サポートで検索と検索精度を大幅に向上。
Jina AI Reranker v3
jina.ai/reranker
100以上の言語をサポートする高性能多言語リランキングモデル。8192トークンのコンテキスト長を持ち、BEIRなどのベンチマークで優れた性能を発揮。
mixedbread ai mxbai-rerank-large-v1
www.mixedbread.ai
90以上の言語をサポートするオープンソース高性能リランキングモデル。BEIRベンチマークでCohere rerank-v3を上回り、ONNX最適化版を提供。
関連インサイト

Anthropic Subagent: マルチエージェント時代のアーキテクチャ革命
Anthropicのマルチエージェントアーキテクチャ設計を徹底解説。Subagentによるコンテキストウィンドウ制限の突破、90%のパフォーマンス向上、Claude Codeでの実際の応用について学びます。
Claude Skills 完全ガイド - 必須10大 Skills 徹底解説
Claude Skills の拡張メカニズムを深掘りし、10の中核スキルと Obsidian 連携を詳しく解説。高効率な AI ワークフロー構築を支援します
Skills + Hooks + Plugins:AnthropicによるAIコーディングツールの拡張性の再定義
Claude CodeのSkills、Hooks、Pluginsという三位一体アーキテクチャを深く分析し、なぜこの設計がGitHub CopilotやCursorよりも先進的なのか、そしてオープンスタンダードを通じてAIコーディングツールの拡張性をどのように再定義しているかを探ります。