llama-3.3-70b-instruct

Meta: Llama 3.3 70B Instruct

Meta-llama

Открытая мультиязычная модель от Meta (декабрь 2024). 70-миллиардная параметрическая архитектура достигает производительности, сопоставимой с закрытыми моделями вроде GPT-4o и Gemini 1.5 Pro, при значительно меньшей стоимости инференса. Отличается сильными способностями к рассуждениям (50.5% на GPQA) и генерации кода

Начать работу

Чтобы сгенерировать ключ, авторизуйтесь и пополните баланс

Производительность

Количество параметров: -
Контекстное окно: 131072
Latency: 0.47 сек
Throughput: 74.7 токенов/сек

Ценообразование за 1M токенов

Input: 17 ₽
Output: 49 ₽

Хронология

Дата релиза: -
Knowledge Cutoff: -

Модальности

Input Text
Output Text

Функциональные и технические возможности

Mixture of Experts
Vision
Fine-tuning
Function Calling
On-premise

Как получить доступ к llama-3.3-70b-instruct по API

1

Пополните баланс и получите API-ключ

Войти в личный кабинет
2

Приступайте к работе

Используйте любой SDK, совместимый с OpenAI, чтобы встроить llama-3.3-70b-instruct в ваше приложение.

Пример интеграции
import openai

client = openai.OpenAI(
    api_key="your-api-key",
    base_url="https://api.vsellm.ru/v1"
)

response = client.chat.completions.create(
    model="meta-llama/llama-3.3-70b-instruct",
    messages=[
        {"role": "user", "content": "Привет!"}
    ]
)

print(response.choices[0].message.content)