DeepSeek-R1-Distill-Llama-70B
Deepseek
Дистиллированная версия модели DeepSeek R1, основанная на Llama-3.3-70B-Instruct и обученная с помощью данных, сгенерированных DeepSeek R1. Обеспечивает хорошие результаты на тестах по математике, кодированию и рассуждению, предлагая производительность, сопоставимую с гораздо более крупными моделями.
Чтобы сгенерировать ключ, авторизуйтесь и пополните баланс
Производительность
Количество параметров:
-
Контекстное окно:
131072
Latency:
0.47 сек
Throughput:
114.8 токенов/сек
Ценообразование за 1M токенов
Input:
107 ₽
Output:
122 ₽
Хронология
Дата релиза:
-
Knowledge Cutoff:
-
Модальности
Input
Text
Output
Text
Функциональные и технические возможности
Mixture of Experts
Vision
Fine-tuning
Function Calling
On-premise
Как получить доступ к deepseek-r1-distill-llama-70b по API
2
Приступайте к работе
Используйте любой SDK, совместимый с OpenAI, чтобы встроить deepseek-r1-distill-llama-70b в ваше приложение.
Пример интеграции
import openai
client = openai.OpenAI(
api_key="your-api-key",
base_url="https://api.vsellm.ru/v1"
)
response = client.chat.completions.create(
model="deepseek/deepseek-r1-distill-llama-70b",
messages=[
{"role": "user", "content": "Привет!"}
]
)
print(response.choices[0].message.content)