NVIDIA Chat
NVIDIA LLM API 是一个代理 AI Inference Engine,提供来自各种提供商的广泛模型。
Spring AI 通过重用现有的 OpenAI 客户端与 NVIDIA LLM API 集成。
为此,您需要将 base-url 设置为 +https://integrate.api.nvidia.com+,选择提供的 LLM models 之一,并获取其 api-key。

注意: NVIDIA LLM API 要求显式设置
max-tokens参数,否则将抛出服务器错误。
查看 NvidiaWithOpenAiChatModelIT.java 测试以了解在 Spring AI 中使用 NVIDIA LLM API 的示例。
Prerequisite
- 创建具有足够信用的 NVIDIA 账户。
- 选择要使用的 LLM Model。例如,下面截图中的
meta/llama-3.1-70b-instruct。 - 从所选模型的页面,您可以获取访问该模型的
api-key。
