Meta: Llama 3.3 70B Instruct
Meta-llama
Открытая мультиязычная модель от Meta (декабрь 2024). 70-миллиардная параметрическая архитектура достигает производительности, сопоставимой с закрытыми моделями вроде GPT-4o и Gemini 1.5 Pro, при значительно меньшей стоимости инференса. Отличается сильными способностями к рассуждениям (50.5% на GPQA) и генерации кода
Чтобы сгенерировать ключ, авторизуйтесь и пополните баланс
Производительность
Количество параметров:
-
Контекстное окно:
131072
Latency:
0.47 сек
Throughput:
74.7 токенов/сек
Ценообразование за 1M токенов
Input:
17 ₽
Output:
49 ₽
Хронология
Дата релиза:
-
Knowledge Cutoff:
-
Модальности
Input
Text
Output
Text
Функциональные и технические возможности
Mixture of Experts
Vision
Fine-tuning
Function Calling
On-premise
Как получить доступ к llama-3.3-70b-instruct по API
2
Приступайте к работе
Используйте любой SDK, совместимый с OpenAI, чтобы встроить llama-3.3-70b-instruct в ваше приложение.
Пример интеграции
import openai
client = openai.OpenAI(
api_key="your-api-key",
base_url="https://api.vsellm.ru/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-3.3-70b-instruct",
messages=[
{"role": "user", "content": "Привет!"}
]
)
print(response.choices[0].message.content)