Cohere Embed Multilingual Light 3
cohere.embed-multilingual-light-v3.0
モデルは、入力する各句、文または段落を配列に変換します。
埋込みモデルを使用して、コンテキストまたはカテゴリで類似したフレーズで類似性を検出できます。埋込みは通常、ベクトル・データベースに格納されます。埋込みは、キーワードに基づいて結果を検索するのではなく、検索機能が検索するテキストの意味に重点を置いたセマンティック検索に使用されます。
このリージョンで使用可能
- 米国中西部(シカゴ)
このモデルへのアクセス
主な機能
- ライトモデルは、元のモデルよりも小さく、高速です。
- 英語または多言語。
- モデルは、埋込みごとに384ディメンション・ベクトルを作成します。
- 1実行当たりの最大96文。
- 各入力の最大512トークン。
- 次の場合に最適です。
- 英語のかわりに、ドキュメントはサポートされている言語のいずれかで記述されます。
- ドキュメントは複数の言語で記述され、それらの言語はサポートされている言語の1つです。
オンデマンドモード
このモデルは、リストされていないリージョン(専用AIクラスタのみ)でオンデマンドで使用できます。価格設定ページのこのモデルのオンデマンド製品名については、次の表を参照してください。
モデル名 | OCIモデル名 | 価格設定ページ製品名 |
---|---|---|
Cohere Embed Multilingual Light 3 | cohere.embed-multilingual-light-v3.0 |
Embed Cohere |
-
プレイグラウンドでモデルを使用する場合、またはAPIを介してモデルをコールする場合、推論コールごとに従量課金します。
- 生成AIの使用を開始するための障壁が低くなります。
- 実験、概念実証、モデル評価に最適です。
- としてリストされていないリージョンの事前トレーニング済モデルで使用できます(専用AIクラスタのみ)。
オンデマンド・モードの動的スロットル制限調整
OCI生成AIは、モデル需要とシステム容量に基づいてアクティブなテナンシごとにリクエスト・スロットル制限を動的に調整し、リソース割当てを最適化して公平なアクセスを確保します。
この調整は、次の要因によって異なります。
- ターゲット・モデルでサポートされている現在の最大スループット。
- 調整時の未使用のシステム容量。
- 各テナンシの履歴スループットの使用状況と、そのテナンシに設定された指定されたオーバーライド制限。
ノート: 動的スロットルのため、レート制限は文書化されず、システム全体の需要を満たすように変更できます。
動的スロットル制限調整のため、拒否後のリクエストの遅延を伴うバックオフ戦略を実装することをお薦めします。1つがない場合、迅速なリクエストを繰り返すと、生成AIサービスによる時間の経過に伴うさらなる拒否、レイテンシの増加、およびクライアントの一時的なブロックにつながる可能性があります。指数関数的なバックオフ戦略などのバックオフ戦略を使用することで、業界のベスト・プラクティスに従い、サービスとの統合の全体的な安定性とパフォーマンスを向上させ、リクエストをより均等に配分し、負荷を軽減し、再試行の成功を向上させることができます。
モデルの専用AIクラスタ
リストされた任意のリージョンの専用AIクラスタを介してモデルに到達するには、専用AIクラスタにそのモデルのエンドポイントを作成する必要があります。このモデルに一致するクラスタユニットサイズについては、次の表を参照してください。
ベース・モデル | ファインチューニング・クラスタ | ホスティング・クラスタ | 価格設定ページ情報 | クラスタ制限の引上げをリクエスト |
---|---|---|---|---|
|
ファインチューニングに使用できません |
|
|
|
-
Cohere Embed Multilingual Light 3モデルには、オンデマンドおよび専用AIクラスタ・オプションの両方があります。オンデマンド・モードでは、クラスタが不要で、コンソール・プレイグラウンドまたはAPIを介してモデルにアクセスできます。
-
専用AIクラスタで埋込みモデルをホストするための十分なクラスタ制限がテナンシにない場合は、
dedicated-unit-embed-cohere-count
制限を1増やすようにリクエストします。
クラスタのエンドポイント・ルール
- 専用AIクラスタは、最大50個のエンドポイントを保持できます。
- これらのエンドポイントを使用して、同じベース・モデルまたは同じバージョンのカスタム・モデルのいずれかを指し示す別名を作成しますが、両方のタイプは作成しません。
- 同じモデルの複数のエンドポイントにより、異なるユーザーまたは目的に簡単に割り当てることができます。
ホスト・クラスタ・ユニット・サイズ | エンドポイント・ルール |
---|---|
Embed Cohere |
|
-
ホスティング・クラスタでサポートされるコール・ボリュームを増やすには、専用AIクラスタを編集してインスタンス数を増やします。専用AIクラスタの更新を参照してください。
-
クラスタ当たり50を超えるエンドポイントの場合、制限
endpoint-per-dedicated-unit-count
の引上げをリクエストします。サービス制限の引上げのリクエストおよび生成AIのサービス制限を参照してください。
クラスタ・パフォーマンス・ベンチマーク
様々なユースケースについて、Cohere Embed Multilingual Light 3クラスタのパフォーマンス・ベンチマークを確認します。
リリース日と除・売却日
モデル | リリース日 | オンデマンド処分日 | 専用モード除・売却日 |
---|---|---|---|
cohere.embed-multilingual-light-v3.0
|
2024-02-07 | 2,026-1-22 | 2,026-1-22 |
テキスト埋込みの入力データ
テキスト埋込みを作成するための入力データには、次の要件があります。
- 埋込み用の文、フレーズまたは段落は、一度に1つのフレーズを追加するか、ファイルをアップロードして追加できます。
.txt
拡張子を持つファイルのみが許可されます。- 入力ファイルを使用する場合、ファイル内の入力文、フレーズまたは段落は、改行文字で区切る必要があります。
- 各実行には最大96の入力が許可されます。
- コンソールでは、テキストのみのモデルの各入力は512トークン未満である必要があります。
- 入力が長すぎる場合は、「切捨て」パラメータを「開始」または「終了」に設定して、テキストの開始または終了をトークン制限内に収めるかどうかを選択します。入力が512トークン制限を超え、「切捨て」パラメータが「なし」に設定されている場合、エラー・メッセージが表示されます。
- テキスト・モデルおよびイメージ・モデルでは、最大128,000個のトークンを追加するファイルおよび入力を使用できます。
- Cohere Embed English Image V3などのテキストおよびイメージ埋込みモデルでは、テキストを追加するか、1つのイメージのみを追加できます。イメージには、APIを使用できます。イメージ入力はコンソールで使用できません。APIの場合は、実行ごとにbase64エンコード・イメージを入力します。たとえば、512 x 512イメージは、約1,610トークンに変換されます。
OCI Generative AIでのテキスト埋込みの作成について学習します。
埋込モデル・パラメータ
埋込みモデルを使用する場合、次のパラメータを変更することで、別の出力を取得できます。
- 切捨て
-
文の開始トークンと終了トークンを切り捨てるかどうか(その文が許容されるトークンの最大数を超える場合)。たとえば、文には516個のトークンがありますが、最大トークン・サイズは512です。終了を切り捨てる場合、その文の最後の4つのトークンが切り捨てられます。