Ollama
Ollama — это локальная среда выполнения LLM, которая упрощает запуск моделей с открытым исходным кодом на вашем компьютере. OpenClaw интегрируется с нативным API Ollama (/api/chat), поддерживая стриминг и вызов инструментов, и может автоматически обнаруживать модели с поддержкой инструментов, когда вы соглашаетесь на это, установив OLLAMA_API_KEY (или профиль аутентификации) и не определяя явную запись models.providers.ollama.
⚠️ Пользователи удалённого Ollama: Не используйте URL, совместимый с OpenAI (
/v1) (http://host:11434/v1) с OpenClaw. Это нарушает вызов инструментов, и модели могут выводить сырой JSON инструментов как обычный текст. Вместо этого используйте нативный URL API Ollama:baseUrl: "http://host:11434"(без/v1).
Быстрый старт
- Установите Ollama: https://ollama.ai
- Загрузите модель:
ollama pull gpt-oss:20b
# или
ollama pull llama3.3
# или
ollama pull qwen2.5-coder:32b
# или
ollama pull deepseek-r1:32b
- Включите Ollama для OpenClaw (подходит любое значение; Ollama не требует реального ключа):
# Установите переменную окружения
export OLLAMA_API_KEY="ollama-local"
# Или настройте в конфигурационном файле
openclaw config set models.providers.ollama.apiKey "ollama-local"
- Используйте модели Ollama:
{
agents: {
defaults: {
model: { primary: "ollama/gpt-oss:20b" },
},
},
}
Автообнаружение моделей (неявный провайдер)
Когда вы устанавливаете OLLAMA_API_KEY (или профиль аутентификации) и не определяете models.providers.ollama, OpenClaw обнаруживает модели из локального экземпляра Ollama по адресу http://127.0.0.1:11434:
- Запрашивает
/api/tagsи/api/show - Оставляет только модели, которые сообщают о поддержке
tools - Помечает
reasoning, когда модель сообщает оthinking - Читает
contextWindowизmodel_info["<arch>.context_length"], когда это возможно - Устанавливает
maxTokensв 10× от размера контекстного окна - Устанавливает все стоимости в
0
Это позволяет избежать ручного добавления моделей, сохраняя каталог соответствующим возможностям Ollama. Чтобы увидеть, какие модели доступны:
ollama list
openclaw models list
Чтобы добавить новую модель, просто загрузите её с помощью Ollama:
ollama pull mistral
Новая модель будет автоматически обнаружена и станет доступна для использования. Если вы явно зададите models.providers.ollama, автообнаружение пропускается, и вы должны определять модели вручную (см. ниже).
Конфигурация
Базовая настройка (неявное обнаружение)
Самый простой способ включить Ollama — через переменную окружения:
export OLLAMA_API_KEY="ollama-local"
Явная настройка (ручное управление моделями)
Используйте явную конфигурацию, когда:
- Ollama работает на другом хосте/порту.
- Вы хотите задать конкретные размеры контекстных окон или списки моделей.
- Вы хотите включить модели, которые не сообщают о поддержке инструментов.
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434",
apiKey: "ollama-local",
api: "ollama",
models: [
{
id: "gpt-oss:20b",
name: "GPT-OSS 20B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}
Если установлен OLLAMA_API_KEY, вы можете опустить apiKey в записи провайдера, и OpenClaw заполнит его для проверок доступности.
Пользовательский базовый URL (явная конфигурация)
Если Ollama работает на другом хосте или порту (явная конфигурация отключает автообнаружение, поэтому определите модели вручную):
{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434", // Без /v1 - используйте нативный URL API Ollama
api: "ollama", // Установите явно, чтобы гарантировать нативное поведение вызова инструментов
},
},
},
}
⚠️ Не добавляйте
/v1к URL. Путь/v1использует режим, совместимый с OpenAI, где вызов инструментов ненадёжен. Используйте базовый URL Ollama без суффикса пути.
Выбор модели
После настройки все ваши модели Ollama становятся доступными:
{
agents: {
defaults: {
model: {
primary: "ollama/gpt-oss:20b",
fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
},
},
},
}
Продвинутые настройки
Модели с рассуждениями
OpenClaw помечает модели как способные к рассуждениям, когда Ollama сообщает о thinking в /api/show:
ollama pull deepseek-r1:32b
Стоимость моделей
Ollama бесплатна и работает локально, поэтому стоимость всех моделей установлена в $0.
Настройка стриминга
Интеграция OpenClaw с Ollama по умолчанию использует нативный API Ollama (/api/chat), который полностью поддерживает одновременный стриминг и вызов инструментов. Никакой специальной конфигурации не требуется.
Устаревший режим, совместимый с OpenAI
⚠️ Вызов инструментов ненадёжен в режиме, совместимом с OpenAI. Используйте этот режим только если вам нужен формат OpenAI для прокси и вы не зависите от нативного поведения вызова инструментов.
Если вам нужно использовать конечную точку, совместимую с OpenAI (например, за прокси, который поддерживает только формат OpenAI), явно установите api: "openai-completions":
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: true, // по умолчанию: true
apiKey: "ollama-local",
models: [...]
}
}
}
}
Этот режим может не поддерживать одновременный стриминг и вызов инструментов. Возможно, вам потребуется отключить стриминг с помощью params: { streaming: false } в конфигурации модели. Когда api: "openai-completions" используется с Ollama, OpenClaw по умолчанию добавляет options.num_ctx, чтобы Ollama не переключалась незаметно на контекстное окно в 4096 токенов. Если ваш прокси/вышестоящий сервер отклоняет неизвестные поля options, отключите это поведение:
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: false,
apiKey: "ollama-local",
models: [...]
}
}
}
}
Контекстные окна
Для автоматически обнаруженных моделей OpenClaw использует контекстное окно, сообщаемое Ollama, когда оно доступно, в противном случае по умолчанию используется 8192. Вы можете переопределить contextWindow и maxTokens в явной конфигурации провайдера.
Устранение неполадок
Ollama не обнаружена
Убедитесь, что Ollama запущена, что вы установили OLLAMA_API_KEY (или профиль аутентификации) и что вы не определили явную запись models.providers.ollama:
ollama serve
И что API доступен:
curl http://localhost:11434/api/tags
Нет доступных моделей
OpenClaw автоматически обнаруживает только модели, которые сообщают о поддержке инструментов. Если вашей модели нет в списке, либо:
- Загрузите модель с поддержкой инструментов, либо
- Определите модель явно в
models.providers.ollama.
Чтобы добавить модели:
ollama list # Посмотрите, что установлено
ollama pull gpt-oss:20b # Загрузите модель с поддержкой инструментов
ollama pull llama3.3 # Или другую модель
Соединение отклонено
Проверьте, что Ollama работает на правильном порту:
# Проверьте, запущена ли Ollama
ps aux | grep ollama
# Или перезапустите Ollama
ollama serve
Смотрите также
- Провайдеры моделей - Обзор всех провайдеров
- Выбор модели - Как выбирать модели
- Конфигурация - Полный справочник по конфигурации