Единый API к лучшим AI-моделям
Получите стабильный доступ к 100+ моделям (OpenAI, Anthropic, Google) без VPN
Широкая линейка актуальных
моделей
Цены указаны за 1 млн токенов, за генерацию 1 изображения или за 1 минуту входного аудио.
Генерация изображений и мультимодальные модели
Создавайте визуальный контент студийного качества с SOTA-моделями: от фотореалистичных Imagen 4 до новейших Nano Banana Pro. Выбирайте модель с оплатой за генерацию или за токены.
Текстовые модели (LLM) для бизнеса и разработки
Подключайте API для чат-ботов, RAG-систем, анализа документов, саммаризации и кодинга. Мы поддерживаем оригинальные параметры моделей. Если модель поддерживает Vision или JSON Mode у провайдера — она поддерживает это и через наш API.
Модели эмбеддингов для RAG и поиска
Превращайте текст в векторы для семантического поиска, классификации и рекомендательных систем. Необходимый компонент для работы с вашей базой знаний.
Транскрибация аудио (Speech-to-text)
Превращайте голос в текст с высокой точностью. Поддержка русского языка, автоматическая расстановка пунктуации.
VseLLM для бизнеса — надёжная инфраструктура под enterprise-задачи
Мы устранили юридические и технические риски использования зарубежного AI. VseLLM — российское юрлицо, работающее в строгом соответствии с законодательством РФ. Мы выступаем официальным шлюзом, обеспечивая «белую» оплату и прохождение комплаенса в службах безопасности крупных компаний.
Работаем легально
Официальный договор с юрлицом из РФ. Оплата по счетам в рублях без валютного контроля и рисков блокировок счетов
Полный документооборот
Автоматическая отправка актов и УПД через ЭДО (Контур.Диадок) или по почте. Ваша бухгалтерия будет довольна
Соответствие основным ФЗ
Хранение персональных данных владельцев аккаунтов на серверах в РФ. Соблюдение законов об информации и защите данных
Безопасность (Zero-Logging)
Архитектура без сохранения данных. Ваши промпты не логируются и не оседают на наших серверах, что позволяет проходить внутренний аудит безопасности
Нам доверяют лидеры индустрий
Почему разработчики выбирают VseLLM?
Единый API-доступ к лучшим языковым моделям с гарантией uptime и прозрачным ценообразованием
Один интерфейс для любой задачи
Доступ ко всем SOTA-моделям через единый шлюз. OpenAI Compatible — ваш код заработает сразу, просто смените base_url. Не нужно изучать документацию десятка разных провайдеров.
Балансировка нагрузки
Система авто-фоллбэка перенаправит запрос через резервный канал, если основной провайдер недоступен. Ваш продакшн не остановится.
B2B без боли и криптовалют
Для корпоративных клиентов доступен тариф PREMIUM с прямой маршрутизацией данных и повышенным SLA.
Политика Zero-Logging
Мы понимаем важность NDA. VseLLM не сохраняет тексты ваших промптов и ответов моделей на наших серверах. Ваши данные принадлежат только вам.
Прозрачный биллинг
Считайте юнит-экономику легко. Мы привели все цены к единому стандарту: LLM — за 1 млн токенов, изображения — за генерацию, аудио — за минуту. Никаких скрытых формул.
Контроль расходов
Следите за потреблением в реальном времени. В личном кабинете доступен дашборд с детализацией по каждому запросу. Вы всегда видите, на что уходит бюджет.
Бесплатный доступ к n8n
Возможно активировать после пополнения баланса. Только для соло-разработчиков.
Получайте API бесплатно
Рекомендуйте VseLLM друзьям и зарабатывайте на их активности. Покрывайте свои расходы на API за счёт бонусов от реферальной программы
Вам —
10% пожизненно
Получайте 10% от каждого пополнения баланса приведённых вами пользователей
Другу —
+10% на старт
Ваш реферал получит приятный бонус к своему первому депозиту
Токены бесплатно
Используйте накопленные бонусы для оплаты своих запросов к моделям
Быстрый старт
Создайте аккаунт
Зарегистрируйтесь на VseLLM и пополните баланс.
Получите API-ключ
В личном кабинете перейдите в раздел «Ключи» и сгенерируйте новый ключ.
Установите библиотеку
Используйте официальный Python SDK или любую OpenAI-совместимую библиотеку.
Начните работу
Просто замените base_url на наш эндпоинт — ваш код заработает сразу.
from openai import OpenAI
client = OpenAI(
api_key="vsellm_xxx",
base_url="https://api.vsellm.ru/v1"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
FAQ
Как создать API-ключ?
Возможность создания ключей открывается после первого пополнения баланса. Авторизуйтесь на сайте и внесите средства на счёт. После этого в разделе «Ключи» нажмите кнопку «Добавить ключ». Обязательно скопируйте и сохраните его сразу после генерации, так как в целях безопасности мы показываем ключ только один раз.
Как оплатить по счёту (для юрлиц)?
Напишите в чат поддержки, на почту или . Мы выставим счёт через ЭДО (Диадок), а в конце отчётного периода предоставим закрывающие документы (акты).
Где мой API-ключ? Я закрыл окно и не скопировал.
Ничего страшного. Мы не можем показать API-ключ повторно (политика безопасности), но вы можете в любой момент перегенерировать имеющийся ключ или создать новый. Обратите внимание, что старый ключ необходимо заменить на новый во всех ваших скриптах и приложениях, чтобы они продолжили работать.
Нужен ли мне VPN для работы с API? Что с ошибкой 401?
Нет. Наш эндпоинт api.vsellm.ru доступен напрямую с любых российских IP-адресов. Мы берём на себя всю маршрутизацию трафика до зарубежных дата-центров. Ошибка 401 обычно означает неверный ключ или неправильный Base URL. Убедитесь, что вы используете https://api.vsellm.ru/v1.
Совместим ли ваш API с библиотеками OpenAI?
Да, на 100%. Мы поддерживаем формат OpenAI. Вам не нужно переписывать код — достаточно изменить base_url и вставить наш API-ключ. Работают официальные SDK (Python/Node.js), LangChain и другие популярные инструменты.
Где смотреть баланс? Он раздельный для ключей?
Баланс единый для всего аккаунта. Вы можете создать 10 ключей для разных сотрудников, все они будут тратить средства с общего счёта. Детализацию расходов по каждому ключу можно посмотреть во вкладке «Активность» после авторизации.
Вы читаете или сохраняете мои данные (промпты)?
Нет. Мы придерживаемся строгой политики Zero-Logging для содержимого запросов. Ваши промпты (inputs) и ответы нейросетей (outputs) проходят через наши серверы транзитом и нигде не сохраняются. Мы храним только мета-данные (количество токенов, модель, время запроса) для корректного биллинга и аналитики ваших расходов.
Что с задержкой (latency)? Не будет ли работать медленнее оригинала?
Задержка минимальна. Наши серверы оптимизированы для high-load-нагрузок. В большинстве случаев разница с прямым запросом к API провайдера составляет доли секунды, которые незаметны в продакшене.
Есть ли у вас кэширование (Prompt Caching)?
На стороне платформы VseLLM кэширования нет, и это наш осознанный выбор в пользу вашей безопасности. Чтобы кэшировать запросы, нам пришлось бы сохранять (логировать) тексты ваших промптов на своих серверах, что противоречит нашей политике Zero-Logging. При этом кэширование может срабатывать на стороне самих провайдеров (upstream), но мы не гарантируем это из-за работы системы балансировки. Для обеспечения стабильности мы можем отправлять ваши запросы через разные каналы, поэтому «поймать» кэш удаётся не всегда.
Можно ли установить лимиты расходов?
Да. При создании API-ключа в личном кабинете вы можете задать лимит по сумме. Когда лимит будет исчерпан, ключ перестанет работать, пока вы его не увеличите.
Как рассчитывается стоимость? У всех моделей по-разному?
Мы привели всё к единому стандарту для удобства: LLM и мультимодальные модели — за 1 млн токенов; картинки — за генерацию одного изображения; аудио — за минуту. Все списания отображаются в детализации в рублях. Актуальные цены на все модели можно найти здесь.
Как тарифицируется длинный контекст?
Для большинства моделей цена линейна. Однако, если провайдер (например, Google) использует повышенный тариф для контекста свыше 128k/200k токенов, стоимость может увеличиваться.
Влияет ли курс доллара на цены?
Внутренний баланс системы — в рублях. Цены на модели привязаны к курсу валют, но мы стараемся сглаживать колебания. Актуальные цены на все модели можно найти здесь.
Предоставляете ли вы командный доступ к n8n?
Да. Доступ из личного кабинета рассчитан на одного пользователя. Для совместной работы сотрудников мы разворачиваем выделенные корпоративные среды. Пожалуйста, , и наш менеджер свяжется с вами для настройки конфигурации.
Можете ли вы предоставить прямой доступ к OpenAI, Anthropic или Google без посредников?
Да. Для корпоративных клиентов мы предлагаем индивидуальные архитектурные решения, включая организацию выделенных прямых каналов (direct access) к API вендоров. Пожалуйста, для бизнеса. Наш менеджер свяжется с вами, уточнит технические требования и предложит оптимальный вариант маршрутизации под ваши задачи.
Можно ли пользоваться сервисом бесплатно? Есть ли реферальная программа?
Да, у нас есть программа лояльности для пользователей, которые приглашают своих друзей во VseLLM. Зарегистрируйтесь и скопируйте свою уникальную ссылку в разделе «Реферальная система». Вы будете получать 10% от всех пополнений приведённых вами пользователей на свой баланс. Этими средствами можно полностью оплачивать использование любых моделей (возврату и выводу эти средства не подлежат). Ваши друзья также получат бонус +10% к своему первому платежу.