Skip to main content

Helicone

本页面介绍如何在 LangChain 中使用 Helicone 生态系统。

什么是 Helicone?

Helicone 是一个 开源 可观察性平台,它代理您的 OpenAI 流量,并为您提供有关支出、延迟和使用情况的关键洞察。

Helicone 仪表板的截图,显示每日平均请求、响应时间、每次响应的令牌、总成本以及随时间变化的请求图表。

快速开始

在您的 LangChain 环境中,您只需添加以下参数。

export OPENAI_API_BASE="https://oai.hconeai.com/v1"

现在前往 helicone.ai 创建您的帐户,并在我们的仪表板中添加您的 OpenAI API 密钥以查看您的日志。

Helicone 仪表板中输入和管理 OpenAI API 密钥的界面.

如何启用 Helicone 缓存

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))

Helicone 缓存文档

如何使用 Helicone 自定义属性

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={
"Helicone-Property-Session": "24",
"Helicone-Property-Conversation": "support_issue_2",
"Helicone-Property-App": "mobile",
})
text = "What is a helicone?"
print(llm.invoke(text))

Helicone 属性文档


此页面是否有帮助?


您还可以留下详细的反馈 在 GitHub 上