此版本仍在开发中,尚未被视为稳定版本。最新的快照版本请使用 Spring AI 1.0.0-SNAPSHOT! |
更多信息可以在这里找到 |
财产 | 描述 | 违约 |
---|---|---|
spring.ai.watsonx.ai.base-url |
要连接到的 URL |
|
spring.ai.watsonx.ai.stream-endpoint |
流式处理终结点 |
generation/stream?version=2023-05-29 |
spring.ai.watsonx.ai.text-endpoint |
文本端点 |
generation/text?version=2023-05-29 |
spring.ai.watsonx.ai.project-id |
项目 ID |
- |
spring.ai.watsonx.ai.iam-token |
IBM Cloud 帐户 IAM 令牌 |
- |
财产 | 描述 | 违约 |
---|---|---|
spring.ai.watsonx.ai.chat.enabled |
启用 Watsonx.AI 聊天模型。 |
真 |
spring.ai.watsonx.ai.chat.options.temperature |
模型的温度。提高温度会使模型更有创意地回答。 |
0.7 |
spring.ai.watsonx.ai.chat.options.top-p |
与 top-k 一起使用。较高的值(例如 0.95)将导致文本更加多样化,而较低的值(例如 0.2)将生成更集中和保守的文本。 |
1.0 |
spring.ai.watsonx.ai.chat.options.top-k |
降低产生无意义的可能性。较高的值(例如 100)将给出更多样化的答案,而较低的值(例如 10)将更保守。 |
50 |
spring.ai.watsonx.ai.chat.options.decoding-method |
解码是模型用于在生成的输出中选择标记的过程。 |
贪婪 |
spring.ai.watsonx.ai.chat.options.max 新令牌 |
设置 LLM 遵循的令牌限制。 |
20 |
spring.ai.watsonx.ai.chat.options.min-new-tokens |
设置 LLM 必须生成的令牌数量。 |
0 |
spring.ai.watsonx.ai.chat.options.stop-sequences |
设置 LLM 应停止的时间。(例如,[“\n\n\n”]),那么当 LLM 生成三个连续的换行符时,它将终止。在生成 Min tokens 参数中指定的令牌数之前,将忽略停止序列。 |
- |
spring.ai.watsonx.ai.chat.options.repetition-penalty |
设置对重复项的惩罚强度。较高的值(例如 1.8)将更强烈地惩罚重复,而较低的值(例如 1.1)将更宽松。 |
1.0 |
spring.ai.watsonx.ai.chat.options.random-seed |
产生可重复的结果,每次设置相同的随机种子值。 |
随机生成 |
spring.ai.watsonx.ai.chat.options.model |
Model 是要使用的 LLM 模型的标识符。 |
谷歌/flan-ul2 |
除了特定于模型的WatsonxAiChatOptions.java您还可以使用使用 ChatOptionsBuilder#builder() 创建的可移植 ChatOptions 实例。 |
有关更多信息,请访问 watsonx-parameters-info |