跳轉到主要內容
ARouter 將這些參數原樣轉發給上游提供商。部分參數是提供商特定的(例如非 OpenAI 模型的 top_k)。請參閱各提供商的文件以確認支援哪些參數。 模型選擇和路由行為在模型路由提供商路由中單獨說明。

Temperature

  • 鍵名:temperature
  • 可選,浮點數,0.0 到 2.0
  • 預設值:1.0
影響模型回應的多樣性。較低的值會產生更可預測、更典型的回應,而較高的值則會鼓勵更多樣化、更不常見的回應。值為 0 時,模型對給定輸入始終給出相同的回應。

Top P

  • 鍵名:top_p
  • 可選,浮點數,0.0 到 1.0
  • 預設值:1.0
將模型的選擇限制在機率總和達到 P 的前幾個 Token 中。較低的值使模型回應更可預測,而預設設定允許完整範圍的 Token 選擇。可以理解為動態的 Top-K。

Top K

  • 鍵名:top_k
  • 可選,整數,0 或以上
  • 預設值:0
限制模型在每一步選擇的 Token 數量,使其從較小的集合中選擇。值為 1 時,模型始終選擇最可能的下一個 Token,產生可預測的結果。預設情況下此設定被停用,使模型考慮所有選擇。
top_k 不適用於 OpenAI 模型。

頻率懲罰

  • 鍵名:frequency_penalty
  • 可選,浮點數,-2.0 到 2.0
  • 預設值:0.0
根據 Token 在輸入中出現的頻率控制其重複使用。它會減少那些在輸入中出現更頻繁的 Token 的使用,與其出現頻率成比例。Token 懲罰隨出現次數線性增加。負值會鼓勵 Token 重用。

存在懲罰

  • 鍵名:presence_penalty
  • 可選,浮點數,-2.0 到 2.0
  • 預設值:0.0
調整模型重複輸入中已出現的特定 Token 的頻率。較高的值使此類重複不太可能發生,而負值則相反。Token 懲罰不隨出現次數增加。負值會鼓勵 Token 重用。

重複懲罰

  • 鍵名:repetition_penalty
  • 可選,浮點數,0.0 到 2.0
  • 預設值:1.0
有助於減少輸入中 Token 的重複。較高的值使模型不太可能重複 Token,但值過高可能使輸出不連貫。Token 懲罰基於原始 Token 的機率進行縮放。

Min P

  • 鍵名:min_p
  • 可選,浮點數,0.0 到 1.0
  • 預設值:0.0
表示一個 Token 被考慮的最小機率,相對於最可能 Token 的機率。如果 min_p 設定為 0.1,則只考慮機率至少是最佳選項的 1/10 的 Token。

Top A

  • 鍵名:top_a
  • 可選,浮點數,0.0 到 1.0
  • 預設值:0.0
僅考慮基於最可能 Token 的機率而具有「足夠高」機率的前幾個 Token。可以理解為動態的 Top-P。較低的 Top-A 值會根據最高機率 Token 聚焦選擇,但範圍更窄。

Seed

  • 鍵名:seed
  • 可選,整數
如果指定,推理將進行確定性採樣,使得具有相同 seed 和參數的重複請求應回傳相同結果。並非所有模型都保證確定性。

Max Tokens

  • 鍵名:max_tokens
  • 可選,整數,1 或以上
設定模型在回應中可以生成的 Token 數量上限。最大值為上下文長度減去提示長度。

Logit Bias

  • 鍵名:logit_bias
  • 可選,對應表
接受一個 JSON 物件,將 Token ID 對應到 -100 到 100 之間的偏差值。從數學上講,偏差在採樣前被加到模型生成的 logit 上。-1 到 1 之間的值會降低或提高被選中的可能性;-100 或 100 之類的值會導致相關 Token 被禁止或被獨占選擇。

Logprobs

  • 鍵名:logprobs
  • 可選,布林值
是否回傳輸出 Token 的對數機率。如果為 true,則回傳每個輸出 Token 的對數機率。

Top Logprobs

  • 鍵名:top_logprobs
  • 可選,整數
一個 0 到 20 之間的整數,指定在每個 Token 位置回傳的最可能 Token 數量,每個都帶有相關對數機率。使用此參數時,logprobs 必須設定為 true

Response Format

  • 鍵名:response_format
  • 可選,物件
強制模型生成特定的輸出格式。設定為 { "type": "json_object" } 可啟用 JSON 模式,保證模型生成的訊息是有效的 JSON。 要進行嚴格的結構驗證,請使用 { "type": "json_schema", "json_schema": { ... } } 使用 { "type": "json_object" } 時,您仍應在提示中指示模型以 JSON 格式回應。 詳細用法和範例請參閱結構化輸出

Stop

  • 鍵名:stop
  • 可選,字串或陣列
如果模型遇到 stop 陣列中指定的任何 Token,則立即停止生成。

Tools

  • 鍵名:tools
  • 可選,陣列
工具呼叫參數,遵循 OpenAI 的工具呼叫請求格式。對於具有非 OpenAI 介面的提供商,ARouter 會相應轉換工具。 詳細用法和範例請參閱工具呼叫

Tool Choice

  • 鍵名:tool_choice
  • 可選,字串或物件
控制模型呼叫哪個(如果有)工具:
  • "none":模型不會呼叫任何工具,而是生成訊息
  • "auto":模型可以在生成訊息或呼叫一個或多個工具之間進行選擇
  • "required":模型必須呼叫一個或多個工具
  • {"type": "function", "function": {"name": "my_function"}}:強制模型呼叫特定工具

並行工具呼叫

  • 鍵名:parallel_tool_calls
  • 可選,布林值
  • 預設值:true
是否在工具使用時啟用並行函式呼叫。如果為 true,模型可以同時呼叫多個函式。如果為 false,函式將按順序呼叫。僅在提供 tools 時適用。

Prediction

  • 鍵名:prediction
  • 可選,物件
透過向模型提供預測輸出來降低延遲。當您預先知道大部分回應內容時非常有用。
{
  "prediction": {
    "type": "content",
    "content": "The predicted content here..."
  }
}
被接受的預測 Token 會反映在回應用量的 completion_tokens_details.accepted_prediction_tokens 中。