使用 AgentExecutor(遗留版)构建代理
本节将介绍如何使用遗留版 LangChain AgentExecutor 构建代理。这些对于入门来说很好,但在某个阶段之后,您可能会希望获得它们所不提供的灵活性和控制。对于更高级的代理,我们建议查看 LangGraph Agents 或 迁移指南
单独来看,语言模型无法采取行动 - 它们只是输出文本。 LangChain 的一个重要用例是创建 代理。 代理是将 LLM 作为推理引擎来确定采取哪些行动以及这些行动的输入应该是什么的系统。 这些行动的结果可以反馈给代理,代理将判断是否需要更多的行动,或者是否可以结束。
在本教程中,我们将构建一个可以与多种不同工具互动的代理:一个是本地数据库,另一个是搜索引擎。您将能够向这个代理提问,观察它调用工具,并与它进行对话。
概念
我们将涵盖的概念包括:
- 使用 language models,特别是它们的工具调用能力
- 创建一个 Retriever 来向我们的代理暴露特定信息
- 使用搜索 Tool 在线查找信息
Chat History
,允许聊天机器人“记住”过去的互动,并在回答后续问题时考虑这些互动。- 使用 LangSmith 调试和追踪您的应用程序
设置
Jupyter Notebook
本指南(以及文档中的大多数其他指南)使用Jupyter notebooks并假设读者也是如此。Jupyter notebooks 非常适合学习如何使用 LLM 系统,因为有时事情可能会出错(意外输出、API 故障等),在交互环境中逐步阅读指南是更好地理解它们的好方法。
本教程和其他教程在 Jupyter notebook 中运行可能最为方便。有关安装的说明,请参见这里。
安装
要安装 LangChain,请运行:
- Pip
- Conda
pip install langchain
conda install langchain -c conda-forge
有关更多详细信息,请参阅我们的 安装指南.
LangSmith
您使用 LangChain 构建的许多应用程序将包含多个步骤和多个 LLM 调用。
随着这些应用程序变得越来越复杂,能够检查您的链或代理内部究竟发生了什么变得至关重要。
最好的方法是使用 LangSmith。
在您在上述链接注册后,请确保设置您的环境变量以开始记录跟踪:
export LANGCHAIN_TRACING_V2="true"
export LANGCHAIN_API_KEY="..."
或者,如果在笔记本中,您可以使用以下代码设置它们:
import getpass
import os
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = getpass.getpass()
定义工具
我们首先需要创建我们想要使用的工具。我们将使用两个工具:Tavily(用于在线搜索),然后在我们将创建的本地索引上使用检索器。
Tavily
我们在LangChain中内置了一个工具,可以轻松使用Tavily搜索引擎。请注意,这需要一个API密钥 - 他们提供免费套餐,但如果您没有密钥或不想创建一个,您可以忽略此步骤。
一旦您创建了API密钥,您需要将其导出为:
export TAVILY_API_KEY="..."
from langchain_community.tools.tavily_search import TavilySearchResults
search = TavilySearchResults(max_results=2)
search.invoke("what is the weather in SF")
[{'url': 'https://www.weatherapi.com/',
'content': "{'location': {'name': 'San Francisco', 'region': 'California', 'country': 'United States of America', 'lat': 37.78, 'lon': -122.42, 'tz_id': 'America/Los_Angeles', 'localtime_epoch': 1714000492, 'localtime': '2024-04-24 16:14'}, 'current': {'last_updated_epoch': 1713999600, 'last_updated': '2024-04-24 16:00', 'temp_c': 15.6, 'temp_f': 60.1, 'is_day': 1, 'condition': {'text': 'Overcast', 'icon': '//cdn.weatherapi.com/weather/64x64/day/122.png', 'code': 1009}, 'wind_mph': 10.5, 'wind_kph': 16.9, 'wind_degree': 330, 'wind_dir': 'NNW', 'pressure_mb': 1018.0, 'pressure_in': 30.06, 'precip_mm': 0.0, 'precip_in': 0.0, 'humidity': 72, 'cloud': 100, 'feelslike_c': 15.6, 'feelslike_f': 60.1, 'vis_km': 16.0, 'vis_miles': 9.0, 'uv': 5.0, 'gust_mph': 14.8, 'gust_kph': 23.8}}"},
{'url': 'https://www.weathertab.com/en/c/e/04/united-states/california/san-francisco/',
'content': 'San Francisco Weather Forecast for Apr 2024 - Risk of Rain Graph. Rain Risk Graph: Monthly Overview. Bar heights indicate rain risk percentages. Yellow bars mark low-risk days, while black and grey bars signal higher risks. Grey-yellow bars act as buffers, advising to keep at least one day clear from the riskier grey and black days, guiding ...'}]
检索器
我们还将创建一个针对我们自己数据的检索器。有关每个步骤的更深入解释,请参见 本教程。
from langchain_community.document_loaders import WebBaseLoader
from langchain_community.vectorstores import FAISS
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter
loader = WebBaseLoader("https://docs.smith.langchain.com/overview")
docs = loader.load()
documents = RecursiveCharacterTextSplitter(
chunk_size=1000, chunk_overlap=200
).split_documents(docs)
vector = FAISS.from_documents(documents, OpenAIEmbeddings())
retriever = vector.as_retriever()
retriever.invoke("how to upload a dataset")[0]
Document(page_content='# The data to predict and grade over evaluators=[exact_match], # The evaluators to score the results experiment_prefix="sample-experiment", # The name of the experiment metadata={ "version": "1.0.0", "revision_id": "beta" },)import { Client, Run, Example } from \'langsmith\';import { runOnDataset } from \'langchain/smith\';import { EvaluationResult } from \'langsmith/evaluation\';const client = new Client();// Define dataset: these are your test casesconst datasetName = "Sample Dataset";const dataset = await client.createDataset(datasetName, { description: "A sample dataset in LangSmith."});await client.createExamples({ inputs: [ { postfix: "to LangSmith" }, { postfix: "to Evaluations in LangSmith" }, ], outputs: [ { output: "Welcome to LangSmith" }, { output: "Welcome to Evaluations in LangSmith" }, ], datasetId: dataset.id,});// Define your evaluatorconst exactMatch = async ({ run, example }: { run: Run; example?:', metadata={'source': 'https://docs.smith.langchain.com/overview', 'title': 'Getting started with LangSmith | \uf8ffü¶úÔ∏è\uf8ffüõ†Ô∏è LangSmith', 'description': 'Introduction', 'language': 'en'})
现在我们已经填充了用于检索的索引,我们可以轻松地将其转化为工具(代理正确使用所需的格式)。
from langchain.tools.retriever import create_retriever_tool
retriever_tool = create_retriever_tool(
retriever,
"langsmith_search",
"Search for information about LangSmith. For any questions about LangSmith, you must use this tool!",
)
工具
现在我们已经创建了两者,我们可以创建一个我们将在后续使用的工具列表。
tools = [search, retriever_tool]
使用语言模型
接下来,让我们学习如何通过调用工具来使用语言模型。LangChain 支持许多不同的语言模型,您可以互换使用 - 请选择您想要使用的模型!
- OpenAI
- Anthropic
- Azure
- Cohere
- NVIDIA
- FireworksAI
- Groq
- MistralAI
- TogetherAI
pip install -qU langchain-openai
import getpass
import os
os.environ["OPENAI_API_KEY"] = getpass.getpass()
from langchain_openai import ChatOpenAI
model = ChatOpenAI(model="gpt-4")
pip install -qU langchain-anthropic
import getpass
import os
os.environ["ANTHROPIC_API_KEY"] = getpass.getpass()
from langchain_anthropic import ChatAnthropic
model = ChatAnthropic(model="claude-3-5-sonnet-20240620")
pip install -qU langchain-openai
import getpass
import os
os.environ["AZURE_OPENAI_API_KEY"] = getpass.getpass()
from langchain_openai import AzureChatOpenAI
model = AzureChatOpenAI(
azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"],
azure_deployment=os.environ["AZURE_OPENAI_DEPLOYMENT_NAME"],
openai_api_version=os.environ["AZURE_OPENAI_API_VERSION"],
)
pip install -qU langchain-google-vertexai
import getpass
import os
os.environ["GOOGLE_API_KEY"] = getpass.getpass()
from langchain_google_vertexai import ChatVertexAI
model = ChatVertexAI(model="gemini-1.5-flash")
pip install -qU langchain-cohere
import getpass
import os
os.environ["COHERE_API_KEY"] = getpass.getpass()
from langchain_cohere import ChatCohere
model = ChatCohere(model="command-r-plus")
pip install -qU langchain-nvidia-ai-endpoints
import getpass
import os
os.environ["NVIDIA_API_KEY"] = getpass.getpass()
from langchain import ChatNVIDIA
model = ChatNVIDIA(model="meta/llama3-70b-instruct")
pip install -qU langchain-fireworks
import getpass
import os
os.environ["FIREWORKS_API_KEY"] = getpass.getpass()
from langchain_fireworks import ChatFireworks
model = ChatFireworks(model="accounts/fireworks/models/llama-v3p1-70b-instruct")
pip install -qU langchain-groq
import getpass
import os
os.environ["GROQ_API_KEY"] = getpass.getpass()
from langchain_groq import ChatGroq
model = ChatGroq(model="llama3-8b-8192")
pip install -qU langchain-mistralai
import getpass
import os
os.environ["MISTRAL_API_KEY"] = getpass.getpass()
from langchain_mistralai import ChatMistralAI
model = ChatMistralAI(model="mistral-large-latest")
pip install -qU langchain-openai
import getpass
import os
os.environ["TOGETHER_API_KEY"] = getpass.getpass()
from langchain_openai import ChatOpenAI
model = ChatOpenAI(
base_url="https://api.together.xyz/v1",
api_key=os.environ["TOGETHER_API_KEY"],
model="mistralai/Mixtral-8x7B-Instruct-v0.1",
)
您可以通过传递一系列消息来调用语言模型。默认情况下,响应是一个 content
字符串。
from langchain_core.messages import HumanMessage
response = model.invoke([HumanMessage(content="hi!")])
response.content
'Hello! How can I assist you today?'
现在我们可以看到启用此模型进行工具调用的情况。为了启用它,我们使用 .bind_tools
让语言模型了解这些工具
model_with_tools = model.bind_tools(tools)
我们现在可以调用模型。让我们先用一条普通消息调用它,看看它的响应。我们可以查看 content
字段和 tool_calls
字段。
response = model_with_tools.invoke([HumanMessage(content="Hi!")])
print(f"ContentString: {response.content}")
print(f"ToolCalls: {response.tool_calls}")
ContentString: Hello! How can I assist you today?
ToolCalls: []
现在,让我们尝试用一些期望调用工具的输入来调用它。
response = model_with_tools.invoke([HumanMessage(content="What's the weather in SF?")])
print(f"ContentString: {response.content}")
print(f"ToolCalls: {response.tool_calls}")
ContentString:
ToolCalls: [{'name': 'tavily_search_results_json', 'args': {'query': 'current weather in San Francisco'}, 'id': 'call_4HteVahXkRAkWjp6dGXryKZX'}]
我们可以看到现在没有内容,但有一个工具调用!它希望我们调用 Tavily Search 工具。
这还不是在调用该工具 - 它只是告诉我们这样做。为了实际调用它,我们需要创建我们的代理。
创建代理
现在我们已经定义了工具和 LLM,我们可以创建代理。我们将使用工具调用代理 - 有关此类型代理的更多信息以及其他选项,请参见 本指南。
我们可以首先选择要用于指导代理的提示。
如果您想查看此提示的内容并访问 LangSmith,您可以前往:
https://smith.langchain.com/hub/hwchase17/openai-functions-agent
from langchain import hub
# 获取要使用的提示 - 您可以修改此内容!
prompt = hub.pull("hwchase17/openai-functions-agent")
prompt.messages
[SystemMessagePromptTemplate(prompt=PromptTemplate(input_variables=[], template='You are a helpful assistant')),
MessagesPlaceholder(variable_name='chat_history', optional=True),
HumanMessagePromptTemplate(prompt=PromptTemplate(input_variables=['input'], template='{input}')),
MessagesPlaceholder(variable_name='agent_scratchpad')]
现在,我们可以使用 LLM、提示和工具初始化代理。代理负责接收输入并决定采取什么行动。至关重要的是,代理并不执行这些操作 - 这是由 AgentExecutor 完成的(下一步)。有关如何思考这些组件的更多信息,请参见我们的 概念指南。
请注意,我们传入的是 model
,而不是 model_with_tools
。这是因为 create_tool_calling_agent
会在后台为我们调用 .bind_tools
。
from langchain.agents import create_tool_calling_agent
agent = create_tool_calling_agent(model, tools, prompt)
最后,我们将代理(大脑)与 AgentExecutor 内部的工具结合起来(它将重复调用代理并执行工具)。
from langchain.agents import AgentExecutor
agent_executor = AgentExecutor(agent=agent, tools=tools)
运行代理
现在我们可以在几个查询上运行代理!请注意,目前这些都是无状态查询(它不会记住之前的交互)。
首先,让我们看看当不需要调用工具时它的响应:
agent_executor.invoke({"input": "hi!"})
{'input': 'hi!', 'output': 'Hello! How can I assist you today?'}
为了确切了解内部发生了什么(并确保它没有调用工具),我们可以查看LangSmith trace
现在让我们尝试一个应该调用检索器的示例:
agent_executor.invoke({"input": "how can langsmith help with testing?"})
{'input': 'how can langsmith help with testing?',
'output': 'LangSmith是一个有助于构建生产级语言学习模型(LLM)应用程序的平台。它可以通过几种方式协助测试:\n\n1. **监控与评估**:LangSmith允许对您的应用程序进行密切监控和评估。这有助于确保应用程序的质量,并自信地部署。\n\n2. **追踪**:LangSmith具有追踪功能,这对调试和理解应用程序的行为非常有益。\n\n3. **评估能力**:LangSmith内置了评估LLM性能的工具。\n\n4. **提示中心**:这是LangSmith内置的提示管理工具,可以帮助测试不同的提示及其响应。\n\n请注意,要使用LangSmith,您需要安装它并创建一个API密钥。该平台提供Python和Typescript SDK供使用。它独立工作,不需要使用LangChain。'}
让我们查看LangSmith trace,以确保它确实在调用那个。
现在让我们尝试一个需要调用搜索工具的查询:
agent_executor.invoke({"input": "whats the weather in sf?"})
{'input': 'whats the weather in sf?',
'output': '旧金山当前的天气是部分多云,温度为16.1°C(61.0°F)。风速为10.5 mph,来自西北偏西。湿度为67%。[source](https://www.weatherapi.com/)'}
我们可以查看LangSmith trace,以确保它有效地调用搜索工具。
添加记忆
如前所述,此代理是无状态的。这意味着它不会记住以前的交互。为了给它添加记忆,我们需要传入之前的 chat_history
。注意:它需要被称为 chat_history
,因为我们使用的提示。如果我们使用不同的提示,我们可以更改变量名称。
# 这里我们传入一个空的消息列表作为 chat_history,因为这是聊天中的第一条消息
agent_executor.invoke({"input": "hi! my name is bob", "chat_history": []})
{'input': 'hi! my name is bob',
'chat_history': [],
'output': 'Hello Bob! How can I assist you today?'}
from langchain_core.messages import AIMessage, HumanMessage
agent_executor.invoke(
{
"chat_history": [
HumanMessage(content="hi! my name is bob"),
AIMessage(content="Hello Bob! How can I assist you today?"),
],
"input": "what's my name?",
}
)
{'chat_history': [HumanMessage(content='hi! my name is bob'),
AIMessage(content='Hello Bob! How can I assist you today?')],
'input': "what's my name?",
'output': 'Your name is Bob. How can I assist you further?'}
如果我们想自动跟踪这些消息,我们可以将其包装在 RunnableWithMessageHistory 中。有关如何使用此功能的更多信息,请参见 此指南。
from langchain_community.chat_message_histories import ChatMessageHistory
from langchain_core.chat_history import BaseChatMessageHistory
from langchain_core.runnables.history import RunnableWithMessageHistory
store = {}
def get_session_history(session_id: str) -> BaseChatMessageHistory:
if session_id not in store:
store[session_id] = ChatMessageHistory()
return store[session_id]
因为我们有多个输入,我们需要指定两件事:
input_messages_key
:用于添加到对话历史的输入键。history_messages_key
:用于添加加载的消息的键。
agent_with_chat_history = RunnableWithMessageHistory(
agent_executor,
get_session_history,
input_messages_key="input",
history_messages_key="chat_history",
)
agent_with_chat_history.invoke(
{"input": "hi! I'm bob"},
config={"configurable": {"session_id": "<foo>"}},
)
{'input': "hi! I'm bob",
'chat_history': [],
'output': 'Hello Bob! How can I assist you today?'}
agent_with_chat_history.invoke(
{"input": "what's my name?"},
config={"configurable": {"session_id": "<foo>"}},
)
{'input': "what's my name?",
'chat_history': [HumanMessage(content="hi! I'm bob"),
AIMessage(content='Hello Bob! How can I assist you today?')],
'output': 'Your name is Bob.'}
示例 LangSmith 跟踪:https://smith.langchain.com/public/98c8d162-60ae-4493-aa9f-992d87bd0429/r
结论
这就是全部内容!在这个快速入门中,我们讨论了如何创建一个简单的代理。代理是一个复杂的话题,还有很多需要学习的内容!
本节内容涵盖了使用 LangChain 代理的构建。LangChain 代理适合入门,但在某个阶段,您可能会希望获得它们所不提供的灵活性和控制。对于更高级的代理工作,我们建议查看 LangGraph
如果您想继续使用 LangChain 代理,一些不错的高级指南包括: