K8s заметки
Мои конспекты по куберу. Описал своими словами, могут быть ошибки или неточности Ссылка на официальную документацию kubernetes.io
Ниже представлена галерея архитектуры с разных сайтов, суть одна визуализация разная
Компоненты мастера (master node)
API Server (kube-scheduler)
Основная шина взаимодействия и точка входа для всех запросов. Аутентификация, валидация (линтер)
Scheduler (kube-scheduler)
Определяет на какой worker ноде создать новый под, в зависимости от требуемых ресурсов и занятости нод. Смотрит и проверяет нагрузку на ноды, по оределенной логике определяет куда назначить под
Controller (kube controller manager)
Проверяет состояние кластера по API (через kube-api) в etcd. Демон который включается в себя группы контроллеров. Занимается созданием и обслуживанием linux name-space.
Контролируют разные ячейки типо deployment, replicaset, pod. Например если удалить под, а вышего него есть replicsate, deployment с желаемым состоянием под удалится, controller manager видит желаемое состояние ячеек и поднимет новый под.
Etcd
База данных (хранилище ключ-значение). Хранятся все манифесты, текущее состояние, желаемое состояние. Любая сущность описанная в yml. Для работы необходим кворум (нечетное количество). Один master — один etcd, поэтому для отказоустойчивости желательно иметь 3 мастер ноды. В некоторых случаях выносят за пределы мастера в отдельный кластер БД.
Компоненты ноды Node (worker node)
Pod
Базовая сущность k8s, которая группирует контейнеры между собой. Внутри может содержать несколько контейнеров ( контейнеры находятся в одном namespace шарят между собой loopback интерфейс)
Kubelet
Бинарник, основной компонент k8s существует на каждой worker ноде кластера. Проверят API сервер на предмет описания новых подов, смотрим принес ли controller что нибудь новое, если есть изменения пытается применить их. Например смотрит на новые ноды которые должны быть развернуты на своей ноде. (который назначает scheduler (положил в etcd))
После того как привел к нужному состоянию передает информацию в API сервер. Также сообщает постоянно о состояних подов
Kube-proxy
Представляет собой контейнер, аналог ривер прокси, отвечает за пересылку и проксирование запросов к уже существующим сервисам или приложениям, в приватной сети самого кубера, по умолчанию использует ipvs (аналог iptables оптимизированный для k8s).
Optionals Addons
Дополнительные плагины такие как RBAC, kalico (CNI),
Сущности
Deployment -> Replicaset -> Pod
Поле kind — сущности представлены и описаны в виде yaml файлов. Записываем то состояние к которму k8s должен привести. (Мы не описываем как наливать чай, а просто говорим какую кружку, какой чай, какого цвета, какой температуры и т.д. нужен как в ansible)
В yaml файл записывают минимальный необходимый набор описаний, остальное докидывает controller
Deployment — набор сценариев который порождает другую сущность replicaset ( а он своб очередь другую сущность pod)
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
namespace: name-space
spec:
selector:
matchLabels:
app: nginx
replicas: 5
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginxdemos/hello:0.2
ports:
- containerPort: 80
livenessProbe:
httpGet:
path: /
port: 80
readinessProbe:
httpGet:
path: /
port: 80
resources:
limits:
cpu: "0.5"
memory: 128Mi
requests:
cpu: "0.5"
memory: 128Mi
Service
Используется для доступа к подам.
В моем понимании ClusterIP сервис работает как виртуальный IP для доступа к подам и проброса портов внутри кластера, т.к. к IP адресам подов нет смысла подвязываться А тут имеем статичный сервис который по лейблам сам направит на нужный под. Так же там по умолчанию выполняется балансировка нагрузки по round-robin
apiVersion: v1
kind: Service
metadata:
name: nginx-service-cluster-ip
namespace: name-space
spec:
selector:
app: nginx
ports:
- port: 80
targetPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx-service-nodeport
namespace: name-space
spec:
type: NodePort
selector:
app: nginx
ports:
- port: 80
targetPort: 80
nodePort: 30000