Konko
与 Konko 相关的所有功能
Konko AI 提供全面托管的 API,帮助应用程序开发人员
- 选择 适合其应用程序的开源或专有 LLM
- 更快地构建 应用程序,与领先的应用程序框架和全面托管的 API 集成
- 微调 较小的开源 LLM,以以较低的成本实现行业领先的性能
- 部署生产级 API,满足安全性、隐私、吞吐量和延迟 SLA,无需基础设施设置或管理,使用 Konko AI 的 SOC 2 合规多云基础设施
安装与设置
pip install konko
- 将 API 密钥设置为环境变量(
KONKO_API_KEY
,OPENAI_API_KEY
)
export KONKO_API_KEY={your_KONKO_API_KEY_here}
export OPENAI_API_KEY={your_OPENAI_API_KEY_here} #Optional
请参阅Konko 文档以获取更多详细信息。
LLM
探索可用模型: 首先浏览 Konko 上的 可用模型。每个模型针对不同的使用案例和能力。
找到运行在 Konko 实例上的模型列表的另一种方法是通过这个 端点。
查看使用 示例。
端点使用示例
使用 mistralai/Mistral-7B-v0.1 的完成:
from langchain.llms import Konko
llm = Konko(max_tokens=800, model='mistralai/Mistral-7B-v0.1')
prompt = "Generate a Product Description for Apple Iphone 15"
response = llm.invoke(prompt)
聊天模型
查看使用 示例。
使用 Mistral-7B 的 ChatCompletion:
from langchain_core.messages import HumanMessage
from langchain_community.chat_models import ChatKonko
chat_instance = ChatKonko(max_tokens=10, model = 'mistralai/mistral-7b-instruct-v0.1')
msg = HumanMessage(content="Hi")
chat_response = chat_instance([msg])
如需进一步帮助,请联系 [email protected] 或加入我们的 Discord。