Azure OpenAI 聊天
Azure 的 OpenAI 产品由 ChatGPT 提供支持,超越了传统的 OpenAI 功能,提供具有增强功能的 AI 驱动的文本生成。Azure 提供额外的 AI 安全和负责任的 AI 功能,如其最近的更新中所述。
Azure 为 Java 开发人员提供了利用 AI 的全部潜力的机会,方法是将 AI 与一系列 Azure 服务集成,其中包括 AI 相关资源,例如 Azure 上的 Vector Stores。
先决条件
Azure OpenAI 客户端提供三个连接选项:使用 Azure API 密钥或使用 OpenAI API 密钥,或使用 Microsoft Entra ID。
Azure API 密钥和端点
获取 Azure OpenAI 并从 Azure 门户上的 Azure OpenAI 服务部分获取。endpoint
api-key
Spring AI 定义了两个配置属性:
-
spring.ai.azure.openai.api-key
:将此设置为从 Azure 获取的值。API Key
-
spring.ai.azure.openai.endpoint
:将此设置为在 Azure 中预置模型时获取的终端节点 URL。
您可以通过导出环境变量来设置这些配置属性:
export SPRING_AI_AZURE_OPENAI_API_KEY=<INSERT AZURE KEY HERE>
export SPRING_AI_AZURE_OPENAI_ENDPOINT=<INSERT ENDPOINT URL HERE>
OpenAI 密钥
要使用 OpenAI 服务(而不是 Azure)进行身份验证,请提供 OpenAI API 密钥。这会自动将终端节点设置为 api.openai.com/v1。
使用此方法时,请将 property 设置为您要使用的 OpenAI 模型的名称。spring.ai.azure.openai.chat.options.deployment-name
export SPRING_AI_AZURE_OPENAI_OPENAI_API_KEY=<INSERT OPENAI KEY HERE>
Microsoft Entra ID
要使用 Microsoft Entra ID(以前称为 Azure Active Directory)进行身份验证,请在配置中创建一个 Bean。
如果此 Bean 可用,则将使用令牌凭证创建一个实例。
屋宇 署
=== 部署名称TokenCredential
OpenAIClient
要使用 Azure AI 应用程序,您需要通过 Azure AI 门户创建 Azure AI 部署。
在 Azure 中,每个客户端都必须指定 a 才能连接到 Azure OpenAI 服务。
请务必注意,这与您选择部署的模型不同。
例如,可以将名为“MyAiDeployment”的部署配置为使用 GPT 3.5 Turbo 模型或 GPT 4.0 模型。Deployment Name
Deployment Name
要开始使用,请按照以下步骤创建具有默认设置的部署:
Deployment Name: `gpt-4o` Model Name: `gpt-4o`
此 Azure 配置与 Spring Boot Azure AI Starter 及其自动配置功能的默认配置一致。 如果你使用不同的 Deployment Name,请确保相应地更新 configuration 属性:
spring.ai.azure.openai.chat.options.deployment-name=<my deployment name>
Azure OpenAI 和 OpenAI 的不同部署结构会导致 Azure OpenAI 客户端库中有一个名为 的属性。
这是因为在 OpenAI 中没有 ,只有一个 .deploymentOrModelName
Deployment Name
Model Name
该属性已重命名为 。spring.ai.azure.openai.chat.options.model spring.ai.azure.openai.chat.options.deployment-name |
如果您决定通过设置属性
则 被视为 OpenAI 模型名称。OpenAI Azure OpenAI spring.ai.azure.openai.openai-api-key=<Your OpenAI Key> spring.ai.azure.openai.chat.options.deployment-name |
添加存储库和 BOM
Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。请参阅 Repositories 部分,将这些存储库添加到您的构建系统中。
为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用一致的 Spring AI 版本。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统中。
自动配置
Spring AI 为 Azure OpenAI 聊天客户端提供 Spring Boot 自动配置。
要启用它,请将以下依赖项添加到项目的 Maven 或 Gradle 构建文件中:pom.xml
build.gradle
-
Maven
-
Gradle
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-azure-openai-spring-boot-starter</artifactId>
</dependency>
dependencies {
implementation 'org.springframework.ai:spring-ai-azure-openai-spring-boot-starter'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。 |
聊天属性
prefix 是用于配置与 Azure OpenAI 的连接的属性前缀。spring.ai.azure.openai
财产 | 描述 | 违约 |
---|---|---|
spring.ai.azure.openai.api-key |
“来自 Azure AI OpenAI 的密钥”部分位于 |
- |
spring.ai.azure.openai.endpoint |
Azure AI OpenAI 部分下的终结点 |
- |
spring.ai.azure.openai.openai-api-key |
(非 Azure)OpenAI API 密钥。用于使用 OpenAI 服务进行身份验证,而不是使用 Azure OpenAI 进行身份验证。
这会自动将终端节点设置为 api.openai.com/v1。使用 or 属性。
使用此配置,它将作为 OpenAi 模型名称受到威胁。 |
- |
spring.ai.azure.openai.custom-headers |
要包含在 API 请求中的自定义标头的映射。映射中的每个条目都表示一个标头,其中 key 是标头名称,value 是标头值。 |
空地图 |
prefix 是配置 Azure OpenAI 实现的属性前缀。spring.ai.azure.openai.chat
ChatModel
财产 | 描述 | 违约 |
---|---|---|
spring.ai.azure.openai.chat.enabled |
启用 Azure OpenAI 聊天模型。 |
真 |
spring.ai.azure.openai.chat.options.deployment-name |
在 Azure 中使用时,这是指模型的“部署名称”,您可以在 oai.azure.com/portal 中找到该名称。 请务必注意,在 Azure OpenAI 部署中,“部署名称”与模型本身不同。 围绕这些术语的混淆源于使 Azure OpenAI 客户端库与原始 OpenAI 终结点兼容的意图。 Azure OpenAI 和 Sam Altman 的 OpenAI 提供的部署结构差异很大。 部署模型名称,作为此完成请求的一部分提供。 |
GPT-4O 型 |
spring.ai.azure.openai.chat.options.maxTokens |
要生成的最大令牌数。 |
- |
spring.ai.azure.openai.chat.options.temperature |
要使用的采样温度,用于控制生成的完成项的明显创造性。较高的值将使输出更具随机性,而较低的值将使结果更加集中和确定。不建议为相同的 completions 请求修改 temperature 和 top_p,因为这两个设置的交互很难预测。 |
0.7 |
spring.ai.azure.openai.chat.options.topP |
一种称为细胞核采样的温度采样的替代方法。此值使模型考虑具有提供的概率质量的标记的结果。 |
- |
spring.ai.azure.openai.chat.options.logitBias |
GPT 标记 ID 和偏差分数之间的映射,影响特定标记出现在完成响应中的概率。令牌 ID 是通过外部分词器工具计算的,而偏差分数位于 -100 到 100 的范围内,最小值和最大值分别对应于令牌的完全禁止或独占选择。给定偏差分数的确切行为因模型而异。 |
- |
spring.ai.azure.openai.chat.options.user |
操作的调用方或最终用户的标识符。这可能用于跟踪或速率限制目的。 |
- |
spring.ai.azure.openai.chat.options.n |
应为聊天完成响应生成的聊天完成选项的数量。 |
- |
spring.ai.azure.openai.chat.options.stop |
将结束 completions 生成的文本序列的集合。 |
- |
spring.ai.azure.openai.chat.options.presencePenalty |
一个值,该值根据生成的标记在生成的文本中的现有存在来影响生成标记的出现概率。正值将使标记在已经存在时不太可能出现,并增加模型输出新主题的可能性。 |
- |
spring.ai.azure.openai.chat.options.responseFormat |
一个对象,用于指定模型必须输出的格式。使用启用 JSON 模式,该模式保证模型生成的消息是有效的 JSON。使用 AzureOpenAiResponseFormat.TEXT 可启用 TEXT 模式。 |
- |
spring.ai.azure.openai.chat.options.frequencyPenalty |
一个值,该值根据生成的标记在生成的文本中的累积频率来影响生成标记的出现概率。正值将使令牌不太可能随着频率的增加而出现,并降低模型逐字重复相同语句的可能性。 |
- |
spring.ai.azure.openai.chat.options.proxy-tool-calls |
如果为true,则 Spring AI 将不会在内部处理函数调用,而是将它们代理给客户端。然后,客户端负责处理函数调用,将它们分派给适当的函数,并返回结果。如果为 false (默认值),则 Spring AI 将在内部处理函数调用。仅适用于支持函数调用的聊天模型 |
假 |
通过向调用添加特定于请求的运行时选项,可以在运行时覆盖所有前缀为 的属性。spring.ai.azure.openai.chat.options Prompt |
运行时选项
AzureOpenAiChatOptions.java 提供模型配置,例如要使用的模型、温度、频率损失等。
启动时,可以使用 constructor 或 properties 配置默认选项。AzureOpenAiChatModel(api, options)
spring.ai.azure.openai.chat.options.*
在运行时,您可以通过向调用添加新的、特定于请求的选项来覆盖默认选项。
例如,要覆盖特定请求的默认模型和温度:Prompt
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
AzureOpenAiChatOptions.builder()
.withDeploymentName("gpt-4o")
.withTemperature(0.4)
.build()
));
除了特定于模型的 AzureOpenAiChatOptions.java 之外,您还可以使用通过 ChatOptionsBuilder#builder() 创建的可移植 ChatOptions 实例。 |
函数调用
可以使用 AzureOpenAiChatModel 注册自定义 Java 函数,并让模型智能地选择输出包含参数的 JSON 对象,以调用一个或多个已注册的函数。 这是一种将 LLM 功能与外部工具和 API 连接起来的强大技术。 详细了解 Azure OpenAI 函数调用。
模 态
多模态是指模型同时理解和处理来自各种来源的信息(包括文本、图像、音频和其他数据格式)的能力。
目前,Azure OpenAI 模型提供多模式支持。gpt-4o
Azure OpenAI 可以将 base64 编码的图像列表或图像 URL 与消息合并。
Spring AI 的 Message 接口通过引入 Media 类型来促进多模态 AI 模型。
此类型包含有关消息中媒体附件的数据和详细信息,将 Spring 和 a 用于原始媒体数据。org.springframework.util.MimeType
java.lang.Object
下面是摘自 OpenAiChatModelIT.java 的代码示例,说明了使用 the model 将用户文本与图像融合在一起。GPT_4_O
URL url = new URL("https://docs.spring.io/spring-ai/reference/_images/multimodal.test.png");
String response = ChatClient.create(chatModel).prompt()
.options(AzureOpenAiChatOptions.builder().withDeploymentName("gpt-4o").build())
.user(u -> u.text("Explain what do you see on this picture?").media(MimeTypeUtils.IMAGE_PNG, this.url))
.call()
.content();
您也可以传递多个图像。 |
它采用图像作为输入:multimodal.test.png
以及文本消息 “Explain what do you see on this picture?”,并生成如下响应:
This is an image of a fruit bowl with a simple design. The bowl is made of metal with curved wire edges that create an open structure, allowing the fruit to be visible from all angles. Inside the bowl, there are two yellow bananas resting on top of what appears to be a red apple. The bananas are slightly overripe, as indicated by the brown spots on their peels. The bowl has a metal ring at the top, likely to serve as a handle for carrying. The bowl is placed on a flat surface with a neutral-colored background that provides a clear view of the fruit inside.
您还可以传入 Classpath 资源而不是 URL,如下例所示
Resource resource = new ClassPathResource("multimodality/multimodal.test.png");
String response = ChatClient.create(chatModel).prompt()
.options(AzureOpenAiChatOptions.builder()
.withDeploymentName("gpt-4o").build())
.user(u -> u.text("Explain what do you see on this picture?")
.media(MimeTypeUtils.IMAGE_PNG, this.resource))
.call()
.content();
Samples控制器
创建一个新的 Spring Boot 项目,并将 添加到您的 pom(或 gradle)依赖项中。spring-ai-azure-openai-spring-boot-starter
在目录下添加一个文件,以启用和配置 OpenAi 聊天模型:application.properties
src/main/resources
spring.ai.azure.openai.api-key=YOUR_API_KEY
spring.ai.azure.openai.endpoint=YOUR_ENDPOINT
spring.ai.azure.openai.chat.options.deployment-name=gpt-4o
spring.ai.azure.openai.chat.options.temperature=0.7
将 和 替换为 Azure OpenAI 凭据。api-key endpoint |
这将创建一个可以注入到类中的实现。
下面是一个使用 chat 模型进行文本生成的简单类的示例。AzureOpenAiChatModel
@Controller
@RestController
public class ChatController {
private final AzureOpenAiChatModel chatModel;
@Autowired
public ChatController(AzureOpenAiChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", this.chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}
}
手动配置
AzureOpenAiChatModel 实现 and 并使用 Azure OpenAI Java 客户端。ChatModel
StreamingChatModel
要启用它,请将依赖项添加到项目的 Maven 文件中:spring-ai-azure-openai
pom.xml
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-azure-openai</artifactId>
</dependency>
或您的 Gradle 构建文件。build.gradle
dependencies {
implementation 'org.springframework.ai:spring-ai-azure-openai'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。 |
依赖项还提供对 .有关此内容的更多信息,请参阅 Azure OpenAI 聊天部分。spring-ai-azure-openai AzureOpenAiChatModel AzureOpenAiChatModel |
接下来,创建一个实例并使用它来生成文本响应:AzureOpenAiChatModel
var openAIClient = new OpenAIClientBuilder()
.credential(new AzureKeyCredential(System.getenv("AZURE_OPENAI_API_KEY")))
.endpoint(System.getenv("AZURE_OPENAI_ENDPOINT"))
.buildClient();
var openAIChatOptions = AzureOpenAiChatOptions.builder()
.withDeploymentName("gpt-4o")
.withTemperature(0.4)
.withMaxTokens(200)
.build();
var chatModel = new AzureOpenAiChatModel(this.openAIClient, this.openAIChatOptions);
ChatResponse response = this.chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = this.chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
实际上是 Azure AI 门户中显示的。gpt-4o Deployment Name |