Meta: Llama 3.3 70B Instruct
Meta
Чтобы сгенерировать ключ, авторизуйтесь и пополните баланс
Производительность
Количество параметров:
-
Контекстное окно:
128000
Latency:
0.57 сек
Throughput:
14.38 токенов/сек
Ценообразование за 1M токенов
Input:
- ₽
Output:
- ₽
Хронология
Дата релиза:
-
Knowledge Cutoff:
-
Модальности
Input
Функциональные и технические возможности
Mixture of Experts
Vision
Fine-tuning
Function Calling
On-premise
Как получить доступ к llama-3.3-70b-instruct по API
2
Приступайте к работе
Используйте любой SDK, совместимый с OpenAI, чтобы встроить llama-3.3-70b-instruct в ваше приложение.
Пример интеграции
import openai
client = openai.OpenAI(
api_key="your-api-key",
base_url="https://api.vsellm.ru/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-3.3-70b-instruct",
messages=[
{"role": "user", "content": "Привет!"}
]
)
print(response.choices[0].message.content)