Провайдеры

Ollama

Ollama — это локальная среда выполнения LLM, которая упрощает запуск моделей с открытым исходным кодом на вашем компьютере. OpenClaw интегрируется с нативным API Ollama (/api/chat), поддерживая стриминг и вызов инструментов, и может автоматически обнаруживать модели с поддержкой инструментов, когда вы соглашаетесь на это, установив OLLAMA_API_KEY (или профиль аутентификации) и не определяя явную запись models.providers.ollama.

⚠️ Пользователи удалённого Ollama: Не используйте URL, совместимый с OpenAI (/v1) (http://host:11434/v1) с OpenClaw. Это нарушает вызов инструментов, и модели могут выводить сырой JSON инструментов как обычный текст. Вместо этого используйте нативный URL API Ollama: baseUrl: "http://host:11434" (без /v1).

Быстрый старт

  1. Установите Ollama: https://ollama.ai
  2. Загрузите модель:
ollama pull gpt-oss:20b
# или
ollama pull llama3.3
# или
ollama pull qwen2.5-coder:32b
# или
ollama pull deepseek-r1:32b
  1. Включите Ollama для OpenClaw (подходит любое значение; Ollama не требует реального ключа):
# Установите переменную окружения
export OLLAMA_API_KEY="ollama-local"

# Или настройте в конфигурационном файле
openclaw config set models.providers.ollama.apiKey "ollama-local"
  1. Используйте модели Ollama:
{
  agents: {
    defaults: {
      model: { primary: "ollama/gpt-oss:20b" },
    },
  },
}

Автообнаружение моделей (неявный провайдер)

Когда вы устанавливаете OLLAMA_API_KEY (или профиль аутентификации) и не определяете models.providers.ollama, OpenClaw обнаруживает модели из локального экземпляра Ollama по адресу http://127.0.0.1:11434:

  • Запрашивает /api/tags и /api/show
  • Оставляет только модели, которые сообщают о поддержке tools
  • Помечает reasoning, когда модель сообщает о thinking
  • Читает contextWindow из model_info["<arch>.context_length"], когда это возможно
  • Устанавливает maxTokens в 10× от размера контекстного окна
  • Устанавливает все стоимости в 0

Это позволяет избежать ручного добавления моделей, сохраняя каталог соответствующим возможностям Ollama. Чтобы увидеть, какие модели доступны:

ollama list
openclaw models list

Чтобы добавить новую модель, просто загрузите её с помощью Ollama:

ollama pull mistral

Новая модель будет автоматически обнаружена и станет доступна для использования. Если вы явно зададите models.providers.ollama, автообнаружение пропускается, и вы должны определять модели вручную (см. ниже).

Конфигурация

Базовая настройка (неявное обнаружение)

Самый простой способ включить Ollama — через переменную окружения:

export OLLAMA_API_KEY="ollama-local"

Явная настройка (ручное управление моделями)

Используйте явную конфигурацию, когда:

  • Ollama работает на другом хосте/порту.
  • Вы хотите задать конкретные размеры контекстных окон или списки моделей.
  • Вы хотите включить модели, которые не сообщают о поддержке инструментов.
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434",
        apiKey: "ollama-local",
        api: "ollama",
        models: [
          {
            id: "gpt-oss:20b",
            name: "GPT-OSS 20B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 8192,
            maxTokens: 8192 * 10
          }
        ]
      }
    }
  }
}

Если установлен OLLAMA_API_KEY, вы можете опустить apiKey в записи провайдера, и OpenClaw заполнит его для проверок доступности.

Пользовательский базовый URL (явная конфигурация)

Если Ollama работает на другом хосте или порту (явная конфигурация отключает автообнаружение, поэтому определите модели вручную):

{
  models: {
    providers: {
      ollama: {
        apiKey: "ollama-local",
        baseUrl: "http://ollama-host:11434", // Без /v1 - используйте нативный URL API Ollama
        api: "ollama", // Установите явно, чтобы гарантировать нативное поведение вызова инструментов
      },
    },
  },
}

⚠️ Не добавляйте /v1 к URL. Путь /v1 использует режим, совместимый с OpenAI, где вызов инструментов ненадёжен. Используйте базовый URL Ollama без суффикса пути.

Выбор модели

После настройки все ваши модели Ollama становятся доступными:

{
  agents: {
    defaults: {
      model: {
        primary: "ollama/gpt-oss:20b",
        fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
      },
    },
  },
}

Продвинутые настройки

Модели с рассуждениями

OpenClaw помечает модели как способные к рассуждениям, когда Ollama сообщает о thinking в /api/show:

ollama pull deepseek-r1:32b

Стоимость моделей

Ollama бесплатна и работает локально, поэтому стоимость всех моделей установлена в $0.

Настройка стриминга

Интеграция OpenClaw с Ollama по умолчанию использует нативный API Ollama (/api/chat), который полностью поддерживает одновременный стриминг и вызов инструментов. Никакой специальной конфигурации не требуется.

Устаревший режим, совместимый с OpenAI

⚠️ Вызов инструментов ненадёжен в режиме, совместимом с OpenAI. Используйте этот режим только если вам нужен формат OpenAI для прокси и вы не зависите от нативного поведения вызова инструментов.

Если вам нужно использовать конечную точку, совместимую с OpenAI (например, за прокси, который поддерживает только формат OpenAI), явно установите api: "openai-completions":

{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: true, // по умолчанию: true
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}

Этот режим может не поддерживать одновременный стриминг и вызов инструментов. Возможно, вам потребуется отключить стриминг с помощью params: { streaming: false } в конфигурации модели. Когда api: "openai-completions" используется с Ollama, OpenClaw по умолчанию добавляет options.num_ctx, чтобы Ollama не переключалась незаметно на контекстное окно в 4096 токенов. Если ваш прокси/вышестоящий сервер отклоняет неизвестные поля options, отключите это поведение:

{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: false,
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}

Контекстные окна

Для автоматически обнаруженных моделей OpenClaw использует контекстное окно, сообщаемое Ollama, когда оно доступно, в противном случае по умолчанию используется 8192. Вы можете переопределить contextWindow и maxTokens в явной конфигурации провайдера.

Устранение неполадок

Ollama не обнаружена

Убедитесь, что Ollama запущена, что вы установили OLLAMA_API_KEY (или профиль аутентификации) и что вы не определили явную запись models.providers.ollama:

ollama serve

И что API доступен:

curl http://localhost:11434/api/tags

Нет доступных моделей

OpenClaw автоматически обнаруживает только модели, которые сообщают о поддержке инструментов. Если вашей модели нет в списке, либо:

  • Загрузите модель с поддержкой инструментов, либо
  • Определите модель явно в models.providers.ollama.

Чтобы добавить модели:

ollama list  # Посмотрите, что установлено
ollama pull gpt-oss:20b  # Загрузите модель с поддержкой инструментов
ollama pull llama3.3     # Или другую модель

Соединение отклонено

Проверьте, что Ollama работает на правильном порту:

# Проверьте, запущена ли Ollama
ps aux | grep ollama

# Или перезапустите Ollama
ollama serve

Смотрите также

NVIDIAOpenAI