██████╗ ██╗ ███████╗ ██████╗ ███╗ ███╗ ██████╗ ██████╗ ██████╗ ███████╗ ██████╗ ██╗ ██╗
██╔═══██╗██║ ██╔════╝██╔════╝ ████╗ ████║██╔═══██╗██╔══██╗██╔═══██╗╚══███╔╝██╔═══██╗██║ ██║
██║ ██║██║ █████╗ ██║ ███╗ ██╔████╔██║██║ ██║██████╔╝██║ ██║ ███╔╝ ██║ ██║██║ ██║
██║ ██║██║ ██╔══╝ ██║ ██║ ██║╚██╔╝██║██║ ██║██╔══██╗██║ ██║ ███╔╝ ██║ ██║╚██╗ ██╔╝
╚██████╔╝███████╗███████╗╚██████╔╝ ██║ ╚═╝ ██║╚██████╔╝██║ ██║╚██████╔╝███████╗╚██████╔╝ ╚████╔╝
╚═════╝ ╚══════╝╚══════╝ ╚═════╝ ╚═╝ ╚═╝ ╚═════╝ ╚═╝ ╚═╝ ╚═════╝ ╚══════╝ ╚═════╝ ╚═══╝
$ whoami
$ cat about.txt
| Kubernetes | ████████████████████ 80% |
| Python | ████████████████████ 90% |
| Terraform | ████████████████████ 75% |
| LLM/GenAI | ████████████████████ 70% |
Построил end-to-end инфраструктуру для fine-tuning и деплоя LLM моделей.
Stack: Kubernetes, Ray, vLLM, Triton Inference Server
Result: Снижение времени деплоя с 2 дней до 30 минут
Разработал платформу для ML-экспериментов с автоматическим версионированием.
Stack: Kubeflow, MLflow, DVC, GitLab CI
Result: 50+ моделей в продакшене, 99.9% uptime
Миграция legacy инфраструктуры на IaC.
Stack: Terraform, Ansible, AWS
Result: Сокращение времени развертывания на 85%
$ ls -la ~/github/
$ fortune