PremAI
PremAI 是一个一体化平台,简化了由生成性人工智能驱动的强大、可投入生产的应用程序的创建。通过简化开发过程,PremAI 使您能够专注于提升用户体验和推动应用程序的整体增长。您可以快速开始使用我们的平台 这里。
ChatPremAI
本示例介绍了如何使用 LangChain 与不同的聊天模型进行交互,使用 ChatPremAI
安装和设置
我们首先安装 langchain
和 premai-sdk
。您可以输入以下命令进行安装:
pip install premai langchain
在进一步操作之前,请确保您已在 PremAI 上注册了账户并创建了一个项目。如果没有,请参考 快速入门 指南以开始使用 PremAI 平台。创建您的第一个项目并获取您的 API 密钥。
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_community.chat_models import ChatPremAI
在LangChain中设置PremAI客户端
一旦我们导入了所需的模块,就可以设置我们的客户端。现在假设我们的 project_id
是 8
。但请确保使用您的项目ID,否则会抛出错误。
要将langchain与prem一起使用,您不需要传递任何模型名称或设置任何参数与我们的聊天客户端。默认情况下,它将使用在 LaunchPad 中使用的模型名称和参数。
注意:如果您在设置客户端时更改
model
或任何其他参数,如temperature
或max_tokens
,它将覆盖在LaunchPad中使用的现有默认配置。
import os
import getpass
if "PREMAI_API_KEY" not in os.environ:
os.environ["PREMAI_API_KEY"] = getpass.getpass("PremAI API Key:")
chat = ChatPremAI(project_id=1234, model_name="gpt-4o")
聊天完成
ChatPremAI
支持两种方法:invoke
(与 generate
相同)和 stream
。
第一个方法将给我们一个静态结果,而第二个方法将逐个流式传输令牌。以下是生成类似聊天的完成的方法。
human_message = HumanMessage(content="Who are you?")
response = chat.invoke([human_message])
print(response.content)
您可以在这里提供系统提示,如下所示:
system_message = SystemMessage(content="You are a friendly assistant.")
human_message = HumanMessage(content="Who are you?")
chat.invoke([system_message, human_message])
您还可以在调用模型时更改生成参数。以下是您可以这样做的方式:
chat.invoke(
[system_message, human_message],
temperature = 0.7, max_tokens = 20, top_p = 0.95
)
如果您在这里放置系统提示,则它将覆盖您在从平台部署应用程序时固定的系统提示。
您可以在 这里 找到所有可选参数。任何其他参数将会在调用模型之前自动删除。
原生 RAG 支持与 Prem 存储库
Prem 存储库允许用户上传文档(.txt, .pdf 等)并将这些存储库与 LLM 连接。您可以将 Prem 存储库视为原生 RAG,其中每个存储库可以被视为向量数据库。您可以连接多个存储库。您可以在 这里 了解有关存储库的更多信息。
langchain premai 中也支持存储库。以下是您可以执行的操作。
query = "Which models are used for dense retrieval"
repository_ids = [1985,]
repositories = dict(
ids=repository_ids,
similarity_threshold=0.3,
limit=3
)
首先,我们通过一些存储库 ID 定义我们的存储库。确保这些 ID 是有效的存储库 ID。您可以在 这里 了解有关如何获取存储库 ID 的更多信息。
请注意:类似于
model_name
,当您调用参数repositories
时,您可能会覆盖在启动板中连接的存储库。
现在,我们将存储库与我们的聊天对象连接,以调用基于 RAG 的生成。
import json
response = chat.invoke(query, max_tokens=100, repositories=repositories)
print(response.content)
print(json.dumps(response.response_metadata, indent=4))
输出看起来是这样的。
Dense retrieval models typically include:
1. **BERT-based Models**: Such as DPR (Dense Passage Retrieval) which uses BERT for encoding queries and passages.
2. **ColBERT**: A model that combines BERT with late interaction mechanisms.
3. **ANCE (Approximate Nearest Neighbor Negative Contrastive Estimation)**: Uses BERT and focuses on efficient retrieval.
4. **TCT-ColBERT**: A variant of ColBERT that uses a two-tower
{
"document_chunks": [
{
"repository_id": 1985,
"document_id": 1306,
"chunk_id": 173899,
"document_name": "[D] Difference between sparse and dense informati\u2026",
"similarity_score": 0.3209080100059509,
"content": "with the difference or anywhere\nwhere I can read about it?\n\n\n 17 9\n\n\n u/ScotiabankCanada \u2022 Promoted\n\n\n Accelerate your study permit process\n with Scotiabank's Student GIC\n Program. We're here to help you tur\u2026\n\n\n startright.scotiabank.com Learn More\n\n\n Add a Comment\n\n\nSort by: Best\n\n\n DinosParkour \u2022 1y ago\n\n\n Dense Retrieval (DR) m"
}
]
}
这也意味着在使用 Prem 平台时,您不需要自己构建 RAG 管道。Prem 使用其自己的 RAG 技术提供一流的检索增强生成性能。
理想情况下,您不需要在此处连接存储库 ID 以获取检索增强生成。如果您在 prem 平台中连接了存储库,您仍然可以获得相同的结果。
流式传输
在本节中,让我们看看如何使用 langchain 和 PremAI 流式传输令牌。以下是具体操作方法。
import sys
for chunk in chat.stream("hello how are you"):
sys.stdout.write(chunk.content)
sys.stdout.flush()
与上述类似,如果您想覆盖系统提示和生成参数,您需要添加以下内容:
import sys
for chunk in chat.stream(
"hello how are you",
system_prompt = "You are an helpful assistant", temperature = 0.7, max_tokens = 20
):
sys.stdout.write(chunk.content)
sys.stdout.flush()
这将一个接一个地流式传输令牌。
请注意:截至目前,流式传输的 RAG 不受支持。然而,我们仍然通过我们的 API 支持它。您可以在 这里 了解更多信息。
Prem 模板
写作提示模板可能会非常混乱。提示模板通常很长,难以管理,并且必须不断调整以改善并保持在应用程序中的一致性。
使用 Prem,编写和管理提示变得非常简单。位于 launchpad 中的 Templates 选项卡可以帮助您编写所需的任意数量的提示,并在 SDK 中使用这些提示来使您的应用程序运行。您可以在 这里 阅读更多关于提示模板的信息。
要在 LangChain 中本地使用 Prem 模板,您需要将一个 id 传递给 HumanMessage
。这个 id 应该是您提示模板变量的名称。HumanMessage
中的 content
应该是该变量的值。
举个例子,如果您的提示模板是这样的:
Say hello to my name and say a feel-good quote
from my age. My name is: {name} and age is {age}
那么您的 human_messages 应该看起来像这样:
human_messages = [
HumanMessage(content="Shawn", id="name"),
HumanMessage(content="22", id="age")
]
将这个 human_messages
传递给 ChatPremAI 客户端。请注意:不要忘记传递额外的 template_id
以调用 Prem 模板生成。如果您不知道 template_id
,可以在我们的文档中了解更多信息 在这里。以下是一个示例:
template_id = "78069ce8-xxxxx-xxxxx-xxxx-xxx"
response = chat.invoke([human_message], template_id=template_id)
Prem 模板也可以用于流式传输。
Prem Embeddings
在本节中,我们将介绍如何使用 PremEmbeddings
和 LangChain 访问不同的嵌入模型。让我们从导入模块和设置 API 密钥开始。
import os
import getpass
from langchain_community.embeddings import PremEmbeddings
if os.environ.get("PREMAI_API_KEY") is None:
os.environ["PREMAI_API_KEY"] = getpass.getpass("PremAI API Key:")
我们支持许多最先进的嵌入模型。您可以在 这里 查看我们支持的 LLM 和嵌入模型列表。现在我们选择 text-embedding-3-large
模型作为示例。
model = "text-embedding-3-large"
embedder = PremEmbeddings(project_id=8, model=model)
query = "Hello, this is a test query"
query_result = embedder.embed_query(query)
# 让我们打印查询嵌入向量的前五个元素
print(query_result[:5])
最后,让我们嵌入一些示例文档。
documents = [
"This is document1",
"This is document2",
"This is document3"
]
doc_result = embedder.embed_documents(documents)
# 与之前的结果类似,让我们打印第一个文档向量的前五个元素
print(doc_result[0][:5])
print(f"Dimension of embeddings: {len(query_result)}")
嵌入维度: 3072
doc_result[:5]
结果:
[-0.02129288576543331, 0.0008162345038726926, -0.004556538071483374, 0.02918623760342598, -0.02547479420900345]
工具/函数调用
LangChain PremAI 支持工具/函数调用。工具/函数调用允许模型通过生成与用户定义的模式匹配的输出,来响应给定的提示。
- 您可以在 我们的文档中详细了解工具调用。
- 您可以在 文档的这一部分了解更多关于 langchain 工具调用的信息。
注意:
当前版本的 LangChain ChatPremAI 不支持具有流式支持的函数/工具调用。流式支持和函数调用将很快推出。
传递工具给模型
为了传递工具并让 LLM 选择需要调用的工具,我们需要传递一个工具架构。工具架构是函数定义以及关于该函数的功能、每个参数的说明等的适当文档字符串。以下是一些简单的算术函数及其架构。
注意:
在定义函数/工具架构时,请不要忘记添加关于函数参数的信息,否则会抛出错误。
from langchain_core.tools import tool
from langchain_core.pydantic_v1 import BaseModel, Field
# Define the schema for function arguments
class OperationInput(BaseModel):
a: int = Field(description="First number")
b: int = Field(description="Second number")
# Now define the function where schema for argument will be OperationInput
@tool("add", args_schema=OperationInput, return_direct=True)
def add(a: int, b: int) -> int:
"""Adds a and b.
Args:
a: first int
b: second int
"""
return a + b
@tool("multiply", args_schema=OperationInput, return_direct=True)
def multiply(a: int, b: int) -> int:
"""Multiplies a and b.
Args:
a: first int
b: second int
"""
return a * b
将工具模式与我们的 LLM 绑定
我们现在将使用 bind_tools
方法将上述函数转换为“工具”,并将其与模型绑定。这意味着每次调用模型时,我们都将传递这些工具信息。
tools = [add, multiply]
llm_with_tools = chat.bind_tools(tools)
在此之后,我们将获得来自模型的响应,该模型现在与工具绑定。
query = "What is 3 * 12? Also, what is 11 + 49?"
messages = [HumanMessage(query)]
ai_msg = llm_with_tools.invoke(messages)
正如我们所看到的,当我们的聊天模型与工具绑定时,它会根据给定的提示调用正确的一组工具,并按顺序进行。
ai_msg.tool_calls
输出
[{'name': 'multiply',
'args': {'a': 3, 'b': 12},
'id': 'call_A9FL20u12lz6TpOLaiS6rFa8'},
{'name': 'add',
'args': {'a': 11, 'b': 49},
'id': 'call_MPKYGLHbf39csJIyb5BZ9xIk'}]
我们将上面显示的消息附加到 LLM,这作为上下文,使 LLM 知道它调用了哪些函数。
messages.append(ai_msg)
由于工具调用分为两个阶段:
在我们的第一次调用中,我们收集了 LLM 决定使用的所有工具,以便获得结果作为附加上下文,从而提供更准确且无幻觉的结果。
在我们的第二次调用中,我们将解析 LLM 决定的工具集并运行它们(在我们的例子中,将是我们定义的函数,带有 LLM 提取的参数),并将此结果传递给 LLM。
from langchain_core.messages import ToolMessage
for tool_call in ai_msg.tool_calls:
selected_tool = {"add": add, "multiply": multiply}[tool_call["name"].lower()]
tool_output = selected_tool.invoke(tool_call["args"])
messages.append(ToolMessage(tool_output, tool_call_id=tool_call["id"]))
最后,我们用添加了函数响应的上下文调用与工具绑定的 LLM。
response = llm_with_tools.invoke(messages)
print(response.content)
输出
The final answers are:
- 3 * 12 = 36
- 11 + 49 = 60
定义工具模式:Pydantic 类 Optional
以上我们展示了如何使用 tool
装饰器定义模式,但我们也可以使用 Pydantic 等效地定义模式。当你的工具输入更复杂时,Pydantic 是很有用的:
from langchain_core.output_parsers.openai_tools import PydanticToolsParser
class add(BaseModel):
"""将两个整数相加。"""
a: int = Field(..., description="第一个整数")
b: int = Field(..., description="第二个整数")
class multiply(BaseModel):
"""将两个整数相乘。"""
a: int = Field(..., description="第一个整数")
b: int = Field(..., description="第二个整数")
tools = [add, multiply]
现在,我们可以将它们绑定到聊天模型,并直接获取结果:
chain = llm_with_tools | PydanticToolsParser(tools=[multiply, add])
chain.invoke(query)
输出
[multiply(a=3, b=12), add(a=11, b=49)]
现在,像上面一样,我们解析这个并运行这些函数,再次调用 LLM 以获取结果。