LangChain、Ollama 和 DeepSeek R1 大模型简单使用入门
在本文中,我们将介绍如何使用 Ollama 工具和 DeepSeek R1 大模型。Ollama 是一个开源工具,旨在简化大语言模型的使用,而 DeepSeek R1 是 Ollama 支持的模型之一。
一、前提条件
在开始之前,请确保您已安装以下内容:
- Python 3.x
- Ollama
- langchain 0.3.x 和 langchain-ollama 库
您可以使用 pip 安装所需的库:
pip install langchain langchain-ollama
二、步骤指南
1. 定义模板
首先,我们需要定义一个模板,指定问题和答案的格式。这个模板将用于创建聊天提示。
from langchain_core.prompts import ChatPromptTemplate
# 定义模板,包含问题和答案的格式
template = """Question: {question}
Answer: Let's think step by step."""
2. 创建聊天提示
使用定义的模板,我们创建一个聊天提示。这个提示将用于与模型交互。
# 从模板创建聊天提示
prompt = ChatPromptTemplate.from_template(template)
3. 初始化 Ollama 模型
接下来,我们通过指定模型名称来初始化 Ollama 模型。在本例中,我们使用 DeepSeek R1 模型。
from langchain_ollama import OllamaLLM
# 初始化 Ollama 模型,指定模型名称
model = OllamaLLM(model="deepseek-r1:1.5b")
4. 链接提示和模型
然后,我们将聊天提示和模型链接起来。这使我们能够传入特定问题并调用模型。
# 将提示和模型链接起来,并调用链条,传入问题
chain = prompt | model
response = chain.invoke({"question": "介绍一下Ollama开源大语言模型工具,输出中文"})
print(response)
结论
通过以上步骤,您可以轻松开始使用 Ollama 工具和 DeepSeek R1 大模型。此设置允许您创建聊天提示并与模型交互,以结构化的格式获取响应。