Skip to content

Ollama 是一个轻量级的本地大语言模型平台,支持命令行操作。以下是一些常见的 Ollama 命令行使用方法及其功能简介:

Ollama官网

Ollama模型库

Ollama的Github地址


1. 模型管理

拉取模型

bash
ollama pull <model_name>

列出本地模型

bash
ollama list

删除模型

bash
ollama delete <model_name>

2. 模型交互

与模型对话

直接与本地模型交互,提供一个提示并得到响应:

bash
ollama chat <model_name>

进入交互模式后,输入提示语以与模型对话。

一次性对话

bash
ollama prompt llama2 "What is the capital of France?"

指定上下文交互

通过文件或之前的对话设置上下文:

bash
ollama chat --context <file_path> <model_name>

示例:

bash
ollama chat --context ./my_context.txt llama2

3. 服务模式

启动服务

将 Ollama 作为 HTTP API 运行:

bash
ollama serve

默认会在 http://127.0.0.1:11434 上监听。

指定监听端口和地址

bash
ollama serve --port <port> --host <host>

示例:

bash
ollama serve --port 8080 --host 0.0.0.0

指定运行的模型

bash
ollama serve --model llama3.2

4. 配置相关

查看配置

列出当前的 Ollama 配置信息:

bash
ollama config

设置配置

修改或设置 Ollama 配置,例如切换运行模式:

bash
ollama config set <key> <value>

示例:

bash
ollama config set mode fast

重置配置

重置 Ollama 配置为默认值:

bash
ollama config reset

5. 调试和帮助

检查版本

bash
ollama version

获取帮助

bash
ollama help

命令帮助

bash
ollama pull --help

6. 进阶操作

流式输出

在交互时启用流式输出:

bash
ollama chat <model_name> --stream

设置自定义系统消息

调整模型的系统级提示信息:

bash
ollama chat llama2 --system "You are an assistant focused on medical topics."

从文件输入提示

直接从文件中加载提示语:

bash
ollama prompt llama2 --file input.txt

7. 示例命令汇总

功能命令示例
下载模型ollama pull llama2
查看本地模型列表ollama list
删除模型ollama delete llama2
启动服务ollama serve --port 8080 --host 0.0.0.0
与模型交互ollama chat llama2
一次性对话ollama prompt llama2 "Tell me a story about space."
查看配置ollama config
修改配置ollama config set mode fast
检查版本ollama version