Scroll
National LLM Project

MILA LLM

Своя языковая модель для Узбекистана.
Узбекский язык + AI-агенты + дешёвый inference.

Open Source Apache 2.0 Qwen3-14B MiniMax M2.5
Machine Intelligence Language Assistant
O'zbekiston uchun sun'iy intellekt
milagpt.io
Проблема

Узбекистан — без своей LLM

$2.50–15
за 1M токенов
платим зарубежным
провайдерам
0
LLM для узбекского
языка — единственная
крупная страна ЦА
100%
зависимость от
зарубежных API
и хранилищ данных
⚠️
Критические проблемы
  • Данные узбекских клиентов хранятся за рубежом — нарушение закона о персональных данных
  • GPT-4o, Claude не понимают узбекский язык и культурный контекст
  • Нет локальной инфраструктуры для AI-агентов на узбекском
Окно возможностей

Государство уже действует

  • Октябрь 2024: ПП-358 «Стратегия развития ИИ до 2030»
  • Август 2025: Минцифры объявило разработку национальной LLM
  • Октябрь 2025: Поручение — корпус узбекского языка для ИИ
  • GPU кластер NVIDIA Blackwell B200 ожидается к 2026
Цель правительства
$1.5 млрд
AI-продуктов к 2030 году
Конкуренты в регионе
СтранаПроектСтатус
Казахстан KAZ-LLM (8B+70B) Выпущен
Турция Kumru AI (14B) Выпущен
ОАЭ Falcon (7B–180B) Выпущен
Сауд. Аравия ALLaM (34B) Выпущен
Узбекистан Нет LLM
Решение

Двухмодельная архитектура

Вместо одной модели — используем две под разные задачи

Приоритет #1

MILA-LLM-14B

Qwen3-14B fine-tuned
  • Узбекский язык (латиница + кириллица)
  • Apache 2.0 — полная свобода naming
  • 8 GB VRAM, 1x RTX 4090
  • 90% запросов — дешёвый inference
  • Для правительственного питча
Приоритет #2

MiniMax M2.5

229B MoE — SOTA Agent
  • SOTA tool calling (76.8% multi-turn FC)
  • SWE-Bench: 80.2% — лучший open-source
  • 200K контекст, 50 tok/s
  • 10% запросов — сложные агентные задачи
  • API backend ($0.30/1M input)
Средняя стоимость запроса
$0.15 / 1M токенов
В 10–100x дешевле GPT-4o ($2.50–10)
Технология — Base Model

Почему Qwen3-14B

🌍

119 языков нативно

Qwen3 — единственная open-source модель с нативной поддержкой узбекского языка. 36 триллионов токенов обучающих данных.

⚖️

Apache 2.0

Полная свобода: любое название, коммерческое использование, модификации. Идеально для «национальной LLM».

💰

Дешёвый inference

14B параметров = 8 GB VRAM (INT4). Один RTX 4090 ($1,600) обслуживает 30–60 пользователей.

Сравнение с конкурентами
КритерийQwen3Llama 4Gemma 3
Узбекский Да Слабо Средне
Лицензия Apache 2.0 Community Gemma ToU
14B вариант Да Нет Нет
Обуч. данные 36T 15T ~14T
QLoRA VRAM 10–16 GB 10–16 GB 8–12 GB
Контекст 128K 128K 128K
Технология — Agent Model

MiniMax M2.5 — SOTA для агентов

80.2%
SWE-Bench
Verified
76.8%
Multi-turn
Function Calling
Бенчмарки (февраль 2026)
SWE-Bench 80.2%
BrowseComp 76.3%
GPQA-D 85.2%
FC vs Claude Opus 4.6 +13%
Компания MiniMax
Основатели Yan Junjie + Zhou Yucong (ex-SenseTime)
Штаб Шанхай, Китай
IPO Январь 2026, HKEX, $620M привлечено
Market Cap $13.7B (HK$106.7B)
IPO Day +109% в первый день
Инвесторы Alibaba ($600M), Tencent, MiHoYo, Shanghai State Capital
Команда 385 человек, средний возраст 29, 80% кода пишет AI
Безопасность TLS 1.3, AES-256, zero-retention, GDPR
⚡ Риски: China-based (геополитика), но open-source + API = низкий lock-in
Технология

Как работает fine-tuning

1
Берём Qwen3-14B
14 миллиардов параметров, замораживаем
2
QLoRA адаптеры
Обучаем 0.1% параметров, 4-bit NF4
3
Instruction Tuning
10K–50K примеров: 60% агенты + 30% узбекский + 10% general
4
DPO Alignment
2K–5K preference pairs
5
Merge + Квантизация
GGUF/AWQ → Ollama, vLLM
Стоимость 1 итерации
МетодVRAMЦена
QLoRA 10–16 GB $10–50
LoRA 24–48 GB $50–200
Full fine-tune ~200 GB $2,000–5,000
Итого за итерацию
$70–300
QLoRA + DPO + Merge + Квантизация
Что вшиваем
Узбекский Q&A Русский + English Tool Calling Agent Orchestration Безопасность
Экосистема

MILA GPT Cloud

Полная экосистема: от LLM до клиентского продукта

MILA GPT Router
Интеллектуальная маршрутизация запросов
UZ / RU / General
MILA-LLM-14B
8 GB · Дешёвый
Agent / Tools
MiniMax M2.5
SOTA · API
Простые задачи
MILA-LLM-4B
Edge · Mobile
MILA Cloud
PicoClaw (из исходников) Second Brain (Obsidian) Docker Terminal
🔓
Open-Source
PicoClaw компилируется
из исходников на клиенте
👁️
Прозрачность
Docker в терминале,
клиент видит каждый шаг
🧠
Second Brain
Obsidian + голосовая
обработка включены
Сервисы

Что мы предлагаем

🧬

Custom LLM Development

Fine-tuning под конкретную индустрию: банковский узбекский, медицинский, юридический, e-gov.

QLoRA DPO Evaluation

Inference Hosting

GPU-серверы в Ташкенте. Data sovereignty. Low latency для CIS-региона.

vLLM Ollama Dedicated GPU
📊

Unit-Economics Consulting

Помогаем компаниям просчитать ROI от внедрения AI: стоимость токенов, модель ценообразования, маржинальность.

🐳

Docker Deployment

Разворачиваем AI-агентов из исходников. Клиент контролирует каждый шаг через Claude Code в терминале.

Целевые клиенты
Банки Телеком Госструктуры IT-компании Образование
Экономика

Inference — цифры

GPU: стоимость и мощность
GPUПокупкаАренда/чЮзеров
RTX 4090 $1.6–2K $0.34–0.44 30–60
L40S $7–10K $0.59–1.24 50–100
A100 80GB $10–15K $0.67–2.06 80–150
H100 SXM $27–40K $1.99–6.16 150–300
14B vs 229B MoE
В 5–10x дешевле
при 80–90% качества на general tasks
Ценообразование для клиентов
ТарифМодель$/1M токенов
Economy MILA-LLM-4B $0.05
Standard MILA-LLM-14B $0.30–0.50
Agent MiniMax M2.5 $0.30 / $2.40
Premium 14B + RAG $1.00
Подписки (Dedicated)
Starter (10M токенов) $99/мес
Business (100M + Agent) $499/мес
Enterprise (Dedicated GPU) $2,000+/мес
Финансы

Финансовые проекции

Фаза 1 — Прототип
$500–1.2K
из кармана
QLoRA + Demo
Фаза 2 — Госфинансирование
$15–40K
грант / контракт
GPU кластер (гос.)
Фаза 3 — Масштаб
$55–120K
inference бизнес
4–8 GPU в Ташкенте
Фаза 1: Детализация
QLoRA обучение (3–5 итераций) $200–500
MiniMax M2.5 API тесты $50–100
Inference demo (RunPod) $200–500
Маркетинг $100–200
Revenue по бизнес-моделям
Per-token API (маржа 60–80%) 90%
Подписки ($99–$2K/мес) 70%
Dedicated GPU ($2.5–3.5K/мес) 60%
Бары показывают маржинальность
Конкурентные преимущества

Почему Узбекистан

Электричество

$0.05/кВт·ч
В 3–5x дешевле США/ЕС.
AI-зона: специальные тарифы.
🏛️

IT Park

0%
Корп. налог
7.5%
НДФЛ
Льготы до 2040 года
🔒

Data Sovereignty

Данные в UZ
Соответствие закону
о персональных данных.
🌐

Low Latency CIS

< 50ms
Ташкент — хаб для
Казахстана, Киргизии, ТМ.
Ресурсы в Узбекистане
CoreAI
NVIDIA A100 серверы
DataVolt
$5B дата-центр
IT Park
Налоговые льготы
ML Community
@mlc_uz
Roadmap

От прототипа до масштаба

Неделя 1–2

Подготовка данных

  • 10K примеров: 60% agent + 30% узбекский + 10% general
  • xLAM-function-calling-60k + uzbek-instruct-llm
  • Формат ChatML для Qwen3
Неделя 2–3

Fine-Tuning MILA-LLM-14B

  • QLoRA: r=64, alpha=128, 4-bit NF4, 2–4 часа на A100
  • DPO alignment + Merge + GGUF квантизация
Неделя 3–4

Публикация + Тестирование

  • HuggingFace (MILA-AI org) + Ollama Modelfile
  • A/B тест: MILA vs base Qwen3 vs MiniMax API
  • Бенчмарки: FC accuracy, Uzbek Q&A
Месяц 2

Интеграция

  • MILA GPT Router: Uzbek → MILA-14B, Agent → MiniMax API
  • Demo для правительства
Месяц 2–3

Питч Минцифры

  • «Модель работает, open-source, на узбекском»
  • Запрос: GPU кластер + данные корпуса + финансирование
Контакт

Birga quramiz

Вместе строим AI-инфраструктуру Узбекистана

Что нужно от партнёра
1 Доступ к GPU кластеру (NVIDIA Blackwell B200)
2 Данные корпуса узбекского языка
3 Грант / контракт $15–40K
4 Статус официального партнёра национальной LLM
📞
Телефон
+998 90 188 12 40
📧
Email
shakhruz@gmail.com
💬
Telegram
@shakhruz_ashirov
Ashot Ashirov CEO, MILA GPT
milagpt.io
MILA = Machine Intelligence Language Assistant