1. 在上述的“接口信息”版块中,在下图位置1处输入接口名。输入完成后,单击位置2处的复制按钮,复制完整的 API 调用命令头。2. 在命令头最后追加参数 -d’{REQ_BODY}‘,得到完整命令。其中 {REQ_BODY} 为请求体,请按照上文中“使用平台在线测试功能调用 API”的第 3 点给出的格式填写。最终编写成的完整命令应如下方代码所示:curl -X POST https://ms-xxxxxxxx-xxxxxxxx.gw.ap-shanghai.ti.tencentcs.com/ms-xxxxxxxx/v1/chat/completions -H ‘Content-Type: application/json’ -d'{“model”:“ms-xxxxxxxx”,“messages”:[{“role”:“user”,“content”:“描述一下你对人工智能的理解。”}]}‘3. 将完整命令输入到已连接到公网的计算设备的命令行工具中并执行,命令行中将返回模型的输出。
方式三:使用第三方应用开发工具调用 API
完成模型部署后,如果您需要在您的 AI 应用中接入已部署的模型服务,可以将服务 API 的信息配置到相关平台或系统中。下文以Cherry Studio为例,介绍如何将服务 API 接入应用中。Cherry Studio 是一个支持多模型服务的开源桌面客户端,可以将多服务集成至桌面 AI 对话应用中。本文仅以此为例介绍 API 调用。如您需要商用 Cherry Studio,请仔细阅读其开源软件协议。1. 进入您在 TI 平台已部署模型服务的“服务详情页 > 服务调用”Tab,在页面较上方位置找到“调用地址”字段,并单击最右侧复制按钮复制。2. 下载并安装 Cherry Studio。完成安装后,打开 Cherry Studio,进入产品主页,并单击左下角的设置按钮,跳转到产品设置页。3. 进入产品设置页后,单击页面中间下方的添加:4. 单击添加后,需要在弹出的“添加提供商”对话框中输入信息,其中,“提供商名称”可自由填写,提供商类型需选择“OpenAI”,填好后单击确定:5. 按照第4点要求成功添加提供商后,将自动跳转到该提供商的配置菜单,本文中示例为“腾讯云 TI 平台”。请注意:TI 平台当前的鉴权方式和 OpenAI 有所不同,因此仅支持以未开启鉴权方式将 API 接入 Cherry Studio。在未开启鉴权的前提下,进行如下配置:API 密钥:可任意填写,但不可以不填。API 地址:粘贴第1点中复制的调用地址。配置完成后,单击下方“模型”版块的添加。6. 单击添加后,将弹出“添加模型”对话框,在对话框中输入要求的信息。其中,模型 ID 需配置为 TI 平台已部署服务的服务组 ID(获取方式见“使用平台在线测试功能调用 API”第 3 点,该字段以“ms-”作为前缀),接着单击添加模型:7. 按照第6点的要求成功添加模型后,单击左上方对话按钮,回到对话页面:8. 单击对话页面顶部的模型选择按钮,单击后弹出模型列表,选择刚刚添加的模型:9. 现在,可以通过 Cherry Studio 和在 TI 平台部署的模型进行对话了: