Первые шаги с werf: собираем и деплоим простое приложение в Kubernetes

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

В этой статье мы рассмотрим, как с помощью Open Source-утилиты werf собрать Docker-образ простейшего приложения и развернуть его в кластере Kubernetes, а также с легкостью накатывать изменения в его коде и инфраструктуре.

Мы поговорим об общих принципах работы с werf при использовании ее разработчиками, поэтому в качестве примера приложения используем небольшой эхо-сервер на основе shell-скрипта, который будет возвращать в ответ на запрос по адресу /ping строку Hello, werfer!. В следующих материалах будет рассмотрена работа и с «настоящими» приложениями, основанными на распространенных фреймворках на разных языках, но для начала сфокусируемся на общем подходе к разработке с использованием утилиты werf.

NB. Все файлы тестового приложения можно посмотреть и скачать в этом репозитории. Статья подготовлена на основе недавно анонсированного самоучителя werf.

В качестве кластера Kubernetes мы используем minikube, что позволит легко и быстро попробовать поработать с werf прямо на рабочем компьютере.

werf

Для тех, кто слышит это название впервые, поясним, что werf — это CLI-утилита, организующая полный цикл доставки приложения в Kubernetes. Она использует Git как единый источник, хранящий код и конфигурацию приложения. Каждый коммит — это состояние приложения, которое во время доставки werf синхронизирует с container registry, дособирая несуществующие слои конечных образов, а затем с приложением в Kubernetes, перевыкатывая изменившиеся ресурсы. Также werf позволяет очищать container registry от неактуальных артефактов по уникальному алгоритму, опирающемуся на историю Git и пользовательские политики.

Почему werf? Что в ней такого полезного и особенного? Основная ее фишка — объединение привычных для разработчиков и DevOps-/SRE-инженеров инструментов, таких как Git, Docker, container registry, CI-система, Helm и Kubernetes под одной утилитой. Тесная интеграция компонентов совместно с заложенными в процесс работы лучшими практиками, накопленными нашей компанией за годы работы с кубернетизацией приложений разных клиентов и запуском их в Kubernetes, делает werf достойным претендентом для доставки вашего приложения в Kubernetes.

Подготовка системы

Перед началом работы установите в вашу систему последнюю стабильную версию werf (v1.2 из канала обновлений stable), воспользовавшись официальной документацией.

Все команды и действия, приводимые в статье, актуальны для операционной системы Linux, в частности Ubuntu 20.04.03. При работе с другими ОС, такими как Windows или macOS, команды аналогичны, но могут встречаться небольшие особенности для каждой из этих ОС. (Найти уже адаптированные инструкции для этих систем можно в разделе «Первые шаги» нашего самоучителя.)

Сборка образа

Для начала нужно написать сам скрипт, который будет представлять собой наше «приложение». Создадим каталог, в котором будем работать (у нас это каталог app в домашнем каталоге пользователя):

mkdir app

Создадим внутри каталога скрипт hello.sh, в котором опишем простую логику ответа на запрос:

#!/bin/sh

RESPONSE="Hello, werfer!"

while true; do
  printf "HTTP/1.1 200 OK\n\n$RESPONSE\n" | ncat -lp 8000
done

Инициализируем в созданном каталоге новый Git-репозиторий и закоммитим первые изменения — созданный скрипт:

cd ~/app
git init
git add .
git commit -m initial

Т.к. собираться и работать наше приложение будет в Docker, создадим рядом со скриптом Dockerfile, в котором будет описана логика сборки приложения в образ:

FROM alpine:3.14
WORKDIR /app

# Устанавливаем зависимости приложения
RUN apk add --no-cache --update nmap-ncat

# Добавляем в образ созданный скрипт для запуска эхо-сервера 
# и устанавливаем разрешение на выполнение
COPY hello.sh .
RUN chmod +x hello.sh

Для того, чтобы werf знала про используемый для сборки Dockerfile, создадим в корне проекта конфигурационный файл werf.yaml, в котором укажем его:

project: werf-first-app
configVersion: 1

---
image: app
dockerfile: Dockerfile

Уже готовое состояние репозитория с нужными сейчас файлами также можно забрать из этого каталога репозитория werf/first-steps-example.

Теперь мы готовы собрать наше приложение. Обратите внимание, что перед сборкой нужно зафиксировать все изменения в репозитории проекта (созданные нами Dockerfile и т. д.), поэтому для начала выполним следующие команды:

git add .
git commit -m FIRST

Запустим сборку приложение командой:

werf build

При успешной сборке увидим примерно следующий лог:

┌ ⛵ image app
│ ┌ Building stage app/dockerfile
│ │ app/dockerfile  Sending build context to Docker daemon  4.096kB
│ │ app/dockerfile  Step 1/13 : FROM alpine:3.14
│ │ app/dockerfile   ---> 0a97eee8041e
│ │ app/dockerfile  Step 2/13 : WORKDIR /app
│ │ app/dockerfile   ---> Running in d4c535c0d754
│ │ app/dockerfile  Removing intermediate container d4c535c0d754
│ │ app/dockerfile   ---> 5a2a81813edc
│ │ app/dockerfile  Step 3/13 : RUN apk add --no-cache --update nmap-ncat
│ │ app/dockerfile   ---> Running in ce40513872fc
│ │ app/dockerfile  fetch https://dl-cdn.alpinelinux.org/alpine/v3.14/main/x86_64/APKINDEX.tar.gz
│ │ app/dockerfile  fetch https://dl-cdn.alpinelinux.org/alpine/v3.14/community/x86_64/APKINDEX.tar.gz
│ │ app/dockerfile  (1/3) Installing lua5.3-libs (5.3.6-r0)
│ │ app/dockerfile  (2/3) Installing libpcap (1.10.0-r0)
│ │ app/dockerfile  (3/3) Installing nmap-ncat (7.91-r0)
│ │ app/dockerfile  Executing busybox-1.33.1-r6.trigger
│ │ app/dockerfile  OK: 6 MiB in 17 packages
│ │ app/dockerfile  Removing intermediate container ce40513872fc
│ │ app/dockerfile   ---> 8fffbbd2f295
│ │ app/dockerfile  Step 4/13 : COPY hello.sh .
│ │ app/dockerfile   ---> 157c374b6224
│ │ app/dockerfile  Step 5/13 : RUN chmod +x hello.sh
│ │ app/dockerfile   ---> Running in e603d67b6a34
│ │ app/dockerfile  Removing intermediate container e603d67b6a34
│ │ app/dockerfile   ---> e6d8a8dcd424
│ │ app/dockerfile  Step 6/13 : LABEL werf=werf-first-app
│ │ app/dockerfile   ---> Running in 42b37bd0b1cd
│ │ app/dockerfile  Removing intermediate container 42b37bd0b1cd
│ │ app/dockerfile   ---> 2f27cc2d99bc
│ │ app/dockerfile  Step 7/13 : LABEL werf-cache-version=1.2
│ │ app/dockerfile   ---> Running in 2e003ef0ec0a
│ │ app/dockerfile  Removing intermediate container 2e003ef0ec0a
│ │ app/dockerfile   ---> f55707dc38e6
│ │ app/dockerfile  Step 8/13 : LABEL werf-docker-image-name=f4059163-28e5-44fe-a53a-a110ed27db2d
│ │ app/dockerfile   ---> Running in 4240a40d6032
│ │ app/dockerfile  Removing intermediate container 4240a40d6032
│ │ app/dockerfile   ---> 1ae5fc802a07
│ │ app/dockerfile  Step 9/13 : LABEL werf-image=false
│ │ app/dockerfile   ---> Running in 610b776441c8
│ │ app/dockerfile  Removing intermediate container 610b776441c8
│ │ app/dockerfile   ---> 1c9066dcea1f
│ │ app/dockerfile  Step 10/13 : LABEL werf-project-repo-commit=4959e91153d14e07133806398a001814b76f83bd
│ │ app/dockerfile   ---> Running in ec973f81f08d
│ │ app/dockerfile  Removing intermediate container ec973f81f08d
│ │ app/dockerfile   ---> c938b7f22f96
│ │ app/dockerfile  Step 11/13 : LABEL werf-stage-content-digest=2c3a4d5dd59c112c3cba8d1ef5590dc16a618489bdcaf276f551f8ef
│ │ app/dockerfile   ---> Running in 9acc7cd494df
│ │ app/dockerfile  Removing intermediate container 9acc7cd494df
│ │ app/dockerfile   ---> 4568493d8f34
│ │ app/dockerfile  Step 12/13 : LABEL werf-stage-digest=11b3f1b95dd6a39a9473a34ba0615c513d799be7e67e48a2deeed05c
│ │ app/dockerfile   ---> Running in ac1bf708647a
│ │ app/dockerfile  Removing intermediate container ac1bf708647a
│ │ app/dockerfile   ---> 1b4d163b491c
│ │ app/dockerfile  Step 13/13 : LABEL werf-version=v1.2.40
│ │ app/dockerfile   ---> Running in a1f9e286d870
│ │ app/dockerfile  Removing intermediate container a1f9e286d870
│ │ app/dockerfile   ---> eb03f3a2c600
│ │ app/dockerfile  Successfully built eb03f3a2c600
│ │ app/dockerfile  Successfully tagged a0e1fc05-970b-4b4c-bb8c-31c51a1a991a:latest
│ │ ┌ Store stage into :local
│ │ └ Store stage into :local (0.02 seconds)
│ ├ Info
│ │      name: werf-first-app:11b3f1b95dd6a39a9473a34ba0615c513d799be7e67e48a2deeed05c-1638357228902
│ │        id: eb03f3a2c600
│ │   created: 2021-12-01 14:13:48.839066578 +0300 MSK
│ │      size: 6.0 MiB
│ └ Building stage app/dockerfile (7.45 seconds)
└ ⛵ image app (7.47 seconds)

Running time 7.53 seconds

Чтобы убедиться в результате сборки, запустим собранное приложение командой:

werf run app --docker-options="-ti --rm -p 8000:8000" -- /app/hello.sh

Рассмотрим подробнее команду запуска. В ней заданы параметры Docker’а при помощи опции --docker-options, а в самом конце указана команда для выполнения внутри контейнера через два дефиса.

Проверим, что все запустилось и работает как нужно. Перейдем в браузере по адресу http://127.0.0.1:8000/ping, либо запросим ответ в другом терминале при помощи утилиты curl:

curl http://127.0.0.1:8000/ping

В результате увидим строку Hello, werfer!, а в логах запущенного контейнера появится следующее:

GET /ping HTTP/1.1
Host: 127.0.0.1:8000
User-Agent: curl/7.68.0
Accept: */*

Подготовка к деплою

Собрать приложение — половина дела, если не его треть. Ведь еще нужно его задеплоить на боевые серверы. Для этого давайте сэмулируем «продакшн» у себя на машине, поставив минимальный кластер Kubernetes и настроив его на работу с werf. Для этого мы сделаем следующее:

  • установим и запустим minikube — минимальный дистрибутив Kubernetes, который можно использоваться для простой и быстрой установки на рабочий ПК;

  • установим NGINX Ingress Controller — специальный компонент кластера, который отвечает за маршрутизацию запросов снаружи вовнутрь;

  • настроим файл /etc/hosts для доступа к кластеру по доменному имени приложения;

  • авторизуемся на Docker Hub и настроим секрет с нужными учетными данными;

  • непосредственно задеплоим приложение в K8s.

1. Установка и запуск minikube

Для начала установим minikube, следуя его официальной документации. Если у вас в системе он уже установлен, убедитесь, что его версия соответствует последней актуальной (v1.23.2 на момент публикации статьи).

Создадим Kubernetes-кластер с помощью minikube:

# удаляем существующий minikube-кластер, если он существует
minikube delete
# запускаем новый minikube-кластер
minikube start --driver=docker

Зададим пространство имен в Kubernetes (namespace) по умолчанию, чтобы не указывать его явно каждый раз при использовании kubectl (здесь мы только задаем имя по умолчанию, но не создаём сам namespace, это будет сделано ниже):

kubectl config set-context minikube --namespace=werf-first-app

Если у вас не установлена kubectl, сделать это можно двумя способами:

  • Установить ее в систему отдельно, воспользовавшись официальной документацией.

  • Использовать поставляемый с minikube бинарник утилиты. Для этого достаточно выполнить команды:

alias kubectl="minikube kubectl --"
echo 'alias kubectl="minikube kubectl --"' >> ~/.bash_aliases

Если вы выбрали второй вариант, то при первом обращении к kubectl по созданному alias’у утилита будет выкачана и доступна к использованию.

Давайте проверим, что все прошло успешно, и посмотрим на список всех Pod’ов, запущенных в свежесозданном кластере:

kubectl get --all-namespaces pod

Pod — это абстрактный объект Kubernetes, представляющий собой группу из одного или нескольких контейнеров приложения и совместно используемых ресурсов для этих контейнеров.

В результате выполнения команды мы увидим приблизительно следующую картинку:

NAMESPACE     NAME                               READY   STATUS    RESTARTS      AGE
kube-system   coredns-78fcd69978-qldbj           1/1     Running   0             14m
kube-system   etcd-minikube                      1/1     Running   0             14m
kube-system   kube-apiserver-minikube            1/1     Running   0             14m
kube-system   kube-controller-manager-minikube   1/1     Running   0             14m
kube-system   kube-proxy-5hrfd                   1/1     Running   0             14m
kube-system   kube-scheduler-minikube            1/1     Running   0             14m
kube-system   storage-provisioner                1/1     Running   1 (13m ago)   14m

Посмотрите внимательно на столбцы READY и STATUS: если все Pod’ы имеют статус Running, а их количество отображается в виде 1/1 (главное, чтобы число слева было равно числу справа), значит все прошло успешно, и наш кластер готов к использованию. Если картина не похожа на представленную выше, то попробуйте подождать и посмотреть чуть позже еще раз — возможно, что не все Pod’ы успели запуститься быстро, и в момент первого просмотра их состояние еще не было активным.

2. Установка NGINX Ingress Controller

Следующим шагом в подготовке будет установка и настройка Ingress-контроллера, основной задачей которого будет проброс внешних HTTP-запросов в наш кластер.

Установим его следующей командой:

minikube addons enable ingress

В зависимости от характеристик вашей машины этот процесс может занять довольно длительное время. Например, на моей машине этот процесс занял около четырех минут.

Если все прошло успешно, вы увидите сообщение о том, что аддон успешно установлен и активирован.

The 'ingress' addon is enabled

Немного подождем, чтобы он успел запуститься, и убедимся, что он работает:

kubectl -n ingress-nginx get pod

В результате будет отображено нечто похожее на картину ранее:

NAME                                        READY   STATUS      RESTARTS   AGE
ingress-nginx-admission-create--1-xn4wr     0/1     Completed   0          6m19s
ingress-nginx-admission-patch--1-dzxt6      0/1     Completed   0          6m19s
ingress-nginx-controller-69bdbc4d57-bp27q   1/1     Running     0          6m19s

Нас интересует последняя строка — если статус стоит Running, значит все нормально, контроллер работает.

3. Внесение изменений в файл hosts

Последним шагом в настройке окружения будет внесение изменений в файл hosts, чтобы наша система при обращении на тестовый домен попадала на локальный кластер.

Для тестирования приложения мы будем использовать адрес werf-first-app.test. Убедимся, что команда minikube ip выдает валидный IP-адрес, выполнив ее в терминале. Если в результате вы видите сообщения, явно не похожие на IP-адрес (в моем случае это 192.168.49.2) — вернитесь на несколько шагов назад и пройдите установку и запуск кластера minikube еще раз.

Если все работает как надо, выполним следующую команду:

echo "$(minikube ip) werf-first-app.test" | sudo tee -a /etc/hosts

Проверить правильность выполнения можно, посмотрев на содержимое искомого файла — в самом конца должна появиться строка вида 192.168.49.2 werf-first-app.test

Давайте убедимся, что все сделанное нами выше работает как надо. Выполним запрос на адрес http://werf-first-app.test/ping с использованием утилиты curl:

curl http://werf-first-app.test/ping

Если все работает правильно — NGINX Ingress Controller вернет страницу с кодом 404, сообщающую, что такого endpoint’а в системе нет:

<html>
<head><title>404 Not Found</title></head>
<body>
<center><h1>404 Not Found</h1></center>
<hr><center>nginx</center>
</body>
</html>

4. Авторизация в Docker Hub

Для дальнейшей работы понадобится хранилище собираемых образов, и мы предлагаем использовать для этого приватный репозиторий на Docker Hub. Для удобства используем такое же имя, как у приложения — werf-first-app

Залогинимся на Docker Hub, выполнив следующую команду:

docker login
Username: <ИМЯ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>
Password: <ПАРОЛЬ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>

Если введено правильно, увидим сообщение Login Succeeded.

5. Создание Secret для доступа к registry

Чтобы иметь возможность в процессе работы пользоваться приватным container registry для хранения образов, необходимо создать Secret с учетными данными для входа в registry. Здесь есть одна особенность — Secret должен располагаться в том же namespace’е, что и приложение.

Поэтому необходимо заранее создать namespace для нашего приложения:

kubectl create namespace werf-first-app

В результате должно отобразится сообщение о том, что новое пространство имен создано — namespace/werf-first-app created.

Далее создадим Secret с именем registrysecret:

kubectl create secret docker-registry registrysecret \
  --docker-server='https://index.docker.io/v1/' \
  --docker-username='<ИМЯ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>' \
  --docker-password='<ПАРОЛЬ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>'

Все прошло успешно, если в результате выполнения команды отображается строка secret/registrysecret created. Если же по какой-то причине вы ошиблись при создании, то созданный секрет можно удалить командой kubectl delete secret registrysecret, а затем создать его заново.

Это  стандартный способ создания Secret из официальной документации Kubernetes.

На этом шаге подготовку окружения к деплою можно считать завершенной.

Далее мы будем использовать созданный Secret для получения образов приложения из registry, указывая поле imagePullSecrets при конфигурации Pod’ов.

Деплой приложения в кластер

Для деплоя приложения в кластер необходимо подготовить Kubernetes-манифесты, которые описывают необходимые для работы ресурсы. Создавать их будем в формате Helm-чартов — пакетов Helm, содержащих все определения ресурсов, необходимых для запуска приложения, инструмента или службы внутри кластера Kubernetes.

Для нашего приложения понадобится три ресурса — Deployment, отвечающий за запуск приложений в контейнерах, а также Ingress и Service, отвечающие за доступ к запущенному приложению снаружи и изнутри кластера соответственно.

Для их создания в случае нашего приложения получится следующая структура файлов:

.
├── Dockerfile
├── .dockerignore
├── hello.sh
├── .helm
│   └── templates
│       ├── deployment.yaml
│       ├── ingress.yaml
│       └── service.yaml
└── werf.yaml

Мы создали скрытый каталог .helm, в который поместим упомянутые выше манифесты (их содержимое будет описано ниже) в подкаталоге templates. Обратите внимание: чтобы исключить эти файлы из контекста сборки Docker-образа, каталог с манифестами мы добавляем в файл .dockerignore:

/.helm/

Рассмотрим манифесты используемых ресурсов более подробно.

1. Deployment

Ресурс Deployment отвечает за создание набора Pod’ов, запускающих приложение. Выглядит он так:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: werf-first-app
spec:
  replicas: 1
  selector:
    matchLabels:
      app: werf-first-app
  template:
    metadata:
      labels:
        app: werf-first-app
    spec:
      imagePullSecrets:
      - name: registrysecret
      containers:
      - name: app
        image: {{ .Values.werf.image.app }}
        command: ["/app/hello.sh"]
        ports:
        - containerPort: 8000

Здесь с помощью шаблонизации подставляется полное имя Docker-образа нашего приложения: {{ .Values.werf.image.app }}. Важно отметить, что для доступа к этому значению необходимо использовать имя компонента, которое используется в werf.yaml — в нашем случае это app

Полные имена собираемых образов, так же как и другие сервисные данные, werf автоматически добавляет в параметры Helm-чарта (.Values), они все доступны по ключу werf.

werf пересобирает образы только при изменениях в добавляемых файлах (используемых в Dockerfile-инструкциях COPY и ADD), а также при изменении конфигурации образа в werf.yaml. При пересборке изменяется и тег образа, что автоматически приводит к обновлению Deployment’а. Если же изменений в этих файлах нет, то образ приложения и связанный с ним Deployment останутся без изменений — значит на данный момент состояние приложения в кластере актуальное.

2. Service

Этот ресурс позволяет другим приложениям внутри кластера обращаться к нашему приложению. Выглядит он так:

apiVersion: v1
kind: Service
metadata:
  name: werf-first-app
spec:
  selector:
    app: werf-first-app
  ports:
  - name: http
    port: 8000

3. Ingress

В отличие от предыдущего ресурса Service Ingress позволяет открыть доступ к нашему приложению снаружи кластера. В нем мы указываем, на какой Service внутри Kubernetes нужно перенаправлять трафик, поступающий на публичный домен werf-first-app.test. Выглядит ресурс так:

apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  annotations:
    kubernetes.io/ingress.class: nginx
  name: werf-first-app
spec:
  rules:
  - host: werf-first-app.test
    http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: werf-first-app
            port:
              number: 8000

Деплой приложения в Kubernetes

Зафиксируем в Git изменения конфигурации — добавленные ресурсы для деплоя в Kubernetes, — как делали в начале статьи:

git add .
git commit -m FIRST

Уже готовое состояние репозитория с нужными сейчас файлами также можно забрать из этого каталога репозитория werf/first-steps-example.

Запускаем деплой командой:

werf converge --repo <ИМЯ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>/werf-first-app

Если все прошло успешно — вы увидите примерно такой лог:

│ │ app/dockerfile  Successfully built 558e6bf23bb7
│ │ app/dockerfile  Successfully tagged 96c8cfca-d7db-4bf0-8351-cbdc0777c5b5:latest
│ │ ┌ Store stage into .../werf-first-app
│ │ └ Store stage into .../werf-first-app (16.85 seconds)
│ ├ Info
│ │      name: .../werf-first-app:11b3f1b95dd6a39a9473a34ba0615c513d799be7e67e48a2deeed05c-1638438736538
│ │        id: 558e6bf23bb7
│ │   created: 2021-12-02 12:52:16 +0300 MSK
│ │      size: 3.0 MiB
│ └ Building stage app/dockerfile (31.61 seconds)
└ ⛵ image app (39.62 seconds)

Release "werf-first-app" does not exist. Installing it now.

┌ Waiting for release resources to become ready
│ ┌ Status progress
│ │ DEPLOYMENT                                                                                                 REPLICAS            AVAILABLE             UP-TO-DATE                           
│ │ werf-first-app                                                                                              1/1                 0                     1                                    
│ │ │   POD                                      READY          RESTARTS            STATUS                     ---                                                                            
│ │ └── first-app-559d4f59b-j5ffv                 0/1            0                   ContainerCreating          Waiting for: available 0->1                                                    
│ └ Status progress
│ 
│ ┌ Status progress
│ │ DEPLOYMENT                                                                                                 REPLICAS            AVAILABLE             UP-TO-DATE                           
│ │ werf-first-app                                                                                              1/1                 0->1                  1                                    
│ │ │   POD                                      READY          RESTARTS            STATUS                                                                                                    
│ │ └── first-app-559d4f59b-j5ffv                 1/1            0                   ContainerCreating ->       
│ │                                                                                 Running                    
│ └ Status progress
└ Waiting for release resources to become ready (9.40 seconds)

NAME: werf-first-app
LAST DEPLOYED: Thu Dec  2 12:52:40 2021
NAMESPACE: werf-first-app
STATUS: deployed
REVISION: 1
TEST SUITE: None
Running time 60.24 seconds

Давайте убедимся, что все прошло успешно:

curl http://werf-first-app.test/ping

В ответ получим заветное:

Hello, werfer!

Мы успешно задеплоили приложение в Kubernetes-кластер!

Внесение изменений в приложение

Давайте попробуем внести изменения в наше приложение и посмотреть, как werf его пересоберёт и повторно задеплоит в кластер.

Масштабирование

Наш веб-сервер запущен в Deployment’е web-first-app. Посмотрим, сколько реплик запущено:

$ kubectl get pod
NAME                            READY   STATUS    RESTARTS   AGE
werf-first-app-559d4f59b-j5ffv   1/1     Running   0          146m

Сейчас реплика одна (смотрим на количество строк, начинающихся на werf-first-app). Вручную заменим их количество на четыре:

kubectl edit deployment werf-first-app

Откроется консольный текстовый редактор с текстом манифеста. Найдем там строку spec.replicas и заменим число реплик на четыре: spec.replicas=4. Подождем немного и снова посмотрим на количество запущенных реплик приложения:

$ kubectl get pod
NAME                            READY   STATUS    RESTARTS   AGE
werf-first-app-559d4f59b-j5ffv   1/1     Running   0          172m
werf-first-app-559d4f59b-l4wxp   1/1     Running   0          10s
werf-first-app-559d4f59b-xrnxn   1/1     Running   0          10s
werf-first-app-559d4f59b-z48qm   1/1     Running   0          10s

Сейчас мы произвели масштабирование вручную, напрямую указав количество реплик внутри кластера, минуя при этом Git. Если сейчас снова запустим werf converge:

werf converge --repo <ИМЯ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>/werf-first-app

А затем снова посмотрим на количество реплик приложения:

$ kubectl get pod
NAME                            READY   STATUS    RESTARTS   AGE
werf-first-app-559d4f59b-j5ffv   1/1     Running   0          175m

То увидим, что количество снова соответствует тому, что указано в Git-репозитории — в файле-манифесте, который мы не редактировали. Так получилось потому, что werf снова привела состояние кластера к тому, что описано в текущем Git-коммите. Этот принцип называется гитерминизмом (giterminism, от англ. Git + determinism).

Чтобы соблюсти этот принцип и сделать все правильно, нужно изменить тот же параметр количества реплик в файлах проекта в репозитории. Для этого отредактируем наш файл deployment.yaml и закоммитим изменения в репозиторий. 

Новое содержимое файла:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: werf-first-app
spec:
  # Меняем количество реплик на 4
  replicas: 4
  selector:
    matchLabels:
      app: werf-first-app
  template:
    metadata:
      labels:
        app: werf-first-app
    spec:
      imagePullSecrets:
      - name: registrysecret
      containers:
      - name: app
        image: {{ .Values.werf.image.app }}
        command: ["/app/hello.sh"]
        ports:
        - containerPort: 8000

Закоммитим изменения и пересоберем приложение командой:

werf converge --repo <ИМЯ ПОЛЬЗОВАТЕЛЯ DOCKER HUB>/werf-first-app

Если теперь посмотреть количество запущенных реплик, их будет четыре:

$ kubectl get pod
NAME                            READY   STATUS    RESTARTS   AGE
werf-first-app-559d4f59b-2fth5   1/1     Running   0          7m12s
werf-first-app-559d4f59b-7jqnv   1/1     Running   0          7m12s
werf-first-app-559d4f59b-j5ffv   1/1     Running   0          3h17m
werf-first-app-559d4f59b-n9n64   1/1     Running   0          7m12s

Давайте снова вернём одну реплику. Снова исправляем файл deployment.yaml, коммитим изменения и перезапускаем converge.

$ kubectl get pod
NAME                            READY   STATUS    RESTARTS   AGE
werf-first-app-559d4f59b-j5ffv   1/1     Running   0          3h24m

Меняем само приложение

Сейчас наше приложение отвечает Hello, werfer!. Давайте изменим эту строку и перезапустим обновленное приложение в кластере. Открываем наш hello.sh и меняем строку ответа на любую другую, например на Hello, Habr users!:

#!/bin/sh

RESPONSE="Hello, Habr users!"

while true; do
  printf "HTTP/1.1 200 OK\n\n$RESPONSE\n" | ncat -lp 8000
done

Действуем по старой схеме — коммитим изменения, перезапускаем converge и смотрим результат: 

$ curl "http://werf-first-app.test/ping"
Hello, Habr users!

Поздравляю, у нас все получилось и работает!

Выводы

В этой статье мы рассмотрели пример простейшего приложения, которое было собрано и задеплоено в кластер Kubernetes с помощью werf. 

Эта статья основана на главе «Первые шаги» нашего онлайн-самоучителя. Представляя её как максимально лаконичный практический tutorial, мы не стали останавливаться на некоторых теоретических вопросах, которые раскрыты в полном руководстве:  шаблоны и манифесты Kubernetes, основные ресурсы K8s для запуска приложений (Deployment, Service, Ingress), режимы работы werf и гитерминизм, использование Helm в werf и т. д. Ответы на них можно найти, проходя «Первые шаги» в полном самоучителе.

Надеемся, что эта статья поможет вам сделать ваши первые шаги с werf и приобрести немного опыта в части деплоя приложений в Kubernetes!

С любыми вопросами и предложениями ждем вас в комментариях к статье, а также в Telegram-каналe werf_ru, где уже более 700 участников и всегда рады помочь. Любым issues (и звёздам) всегда рад и GitHub-репозиторий werf.

P.S.

Читайте также в нашем блоге:

  • «Представляем онлайн-самоучитель по Kubernetes и деплою с werf для разработчиков»;

  • «werf v1.2 — стабильный релиз Open Source-утилиты для доставки приложений в Kubernetes».

Источник: https://habr.com/ru/company/flant/blog/597001/


Интересные статьи

Интересные статьи

Пользователи сообщили, что Google, похоже, автоматически установила приложение для уведомлений о заражении COVID-19 в Массачусетсе на некоторые Android-смартфоны. Система...
27–29 мая пройдёт онлайн-интенсив Kubernetes Мега. Чему учить будем? Мы не сделаем из вас продвинутого специалиста за три дня, а само участие в интенсиве не поднимет вашу зарплату....
В прошлой части мы поговорили о советах директору по разработке бизнес-процесса в Битрикс24, сейчас же я постараюсь дать советы руководителям отделов, поскольку по моему опыту почти всегд...
Привет, Хаброжители! С развитием микросервисов и контейнеров изменились подходы к проектированию, созданию и запуску программного обеспечения. Познакомьтесь с новыми паттернами и принципами разр...
В облегченной системе Android Go действуют повышенные требования к предустановленным приложениям — размеру и используемой памяти. Перед нами встала задача в эти требования уложиться. Мы провели р...