██████╗ ██╗ ███████╗ ██████╗ ███╗ ███╗ ██████╗ ██████╗ ██████╗ ███████╗ ██████╗ ██╗ ██╗ ██╔═══██╗██║ ██╔════╝██╔════╝ ████╗ ████║██╔═══██╗██╔══██╗██╔═══██╗╚══███╔╝██╔═══██╗██║ ██║ ██║ ██║██║ █████╗ ██║ ███╗ ██╔████╔██║██║ ██║██████╔╝██║ ██║ ███╔╝ ██║ ██║██║ ██║ ██║ ██║██║ ██╔══╝ ██║ ██║ ██║╚██╔╝██║██║ ██║██╔══██╗██║ ██║ ███╔╝ ██║ ██║╚██╗ ██╔╝ ╚██████╔╝███████╗███████╗╚██████╔╝ ██║ ╚═╝ ██║╚██████╔╝██║ ██║╚██████╔╝███████╗╚██████╔╝ ╚████╔╝ ╚═════╝ ╚══════╝╚══════╝ ╚═════╝ ╚═╝ ╚═╝ ╚═════╝ ╚═╝ ╚═╝ ╚═════╝ ╚══════╝ ╚═════╝ ╚═══╝
$ whoami
$ cat about.txt
Kubernetes | ████████████████████ 80% |
Python | ████████████████████ 90% |
Terraform | ████████████████████ 75% |
LLM/GenAI | ████████████████████ 70% |
Построил end-to-end инфраструктуру для fine-tuning и деплоя LLM моделей.
Stack: Kubernetes, Ray, vLLM, Triton Inference Server
Result: Снижение времени деплоя с 2 дней до 30 минут
Разработал платформу для ML-экспериментов с автоматическим версионированием.
Stack: Kubeflow, MLflow, DVC, GitLab CI
Result: 50+ моделей в продакшене, 99.9% uptime
Миграция legacy инфраструктуры на IaC.
Stack: Terraform, Ansible, AWS
Result: Сокращение времени развертывания на 85%
$ ls -la ~/github/
$ fortune