웹사이트 검색

Ubuntu 18.04에서 Kubeadm을 사용하여 Kubernetes 클러스터를 생성하는 방법


저자는 Write for DOnations 프로그램을 선택했습니다.

소개

Kubernetes는 대규모 컨테이너를 관리하는 컨테이너 오케스트레이션 시스템입니다. 프로덕션 환경에서 컨테이너를 실행한 경험을 바탕으로 Google에서 처음 개발한 Kubernetes는 오픈 소스이며 전 세계 커뮤니티에서 적극적으로 개발하고 있습니다.

참고: 이 튜토리얼에서는 이 기사 발행 당시 공식 지원 버전인 Kubernetes 버전 1.14를 사용합니다. 최신 버전에 대한 최신 정보는 공식 Kubernetes 문서의 최신 릴리스 정보를 참조하세요.

SaltStack. 이러한 도구를 사용하면 추가 클러스터를 만들거나 기존 클러스터를 다시 만드는 작업이 훨씬 간단해지고 오류 발생 가능성이 줄어듭니다.

이 가이드에서는 Ansible 및 Kubeadm을 사용하여 처음부터 Kubernetes 클러스터를 설정한 다음 여기에 컨테이너화된 Nginx 애플리케이션을 배포합니다.

참고: 2022년 12월 15일부터 DigitalOcean은 더 이상 제어판 또는 API를 통한 새로운 RancherOS Droplet 생성을 지원하지 않습니다. 그러나 2022년 12월 15일 이전에 생성된 기존 RancherOS Droplets는 제품 변경에도 불구하고 작동합니다. 또한 사용자 지정 이미지를 사용하여 RancherOS Droplets를 계속 스핀업할 수 있습니다. 제품 설명서에 따라 사용자 지정 이미지를 DigitalOcean으로 가져오는 방법을 알아보세요.

목표

클러스터에는 다음 물리적 리소스가 포함됩니다.

  • 하나의 마스터 노드\n마스터 노드(Kubernetes의 노드는 서버를 가리킴)는 클러스터의 상태 관리를 담당합니다. 작업자 노드에 대한 워크로드를 예약하는 구성 요소 간에 클러스터 데이터를 저장하는 Etcd를 실행합니다.\n
  • 작업자 노드 2개 작업자 노드는 워크로드(즉, 컨테이너화된 애플리케이션 및 서비스)가 실행되는 서버입니다. 작업자는 스케줄링이 완료되면 마스터가 다운되더라도 일단 할당되면 작업 부하를 계속 실행합니다. 작업자를 추가하여 클러스터의 용량을 늘릴 수 있습니다.\n

이 가이드를 완료하면 클러스터의 서버에 애플리케이션이 사용할 수 있는 충분한 CPU 및 RAM 리소스가 있는 경우 컨테이너화된 애플리케이션을 실행할 수 있는 클러스터가 준비됩니다. 웹 애플리케이션, 데이터베이스, 데몬 및 명령줄 도구를 포함한 거의 모든 기존 Unix 애플리케이션을 컨테이너화하여 클러스터에서 실행할 수 있습니다. 클러스터 자체는 각 노드에서 약 300-500MB의 메모리와 10%의 CPU를 사용합니다.

클러스터가 설정되면 웹 서버 Nginx를 클러스터에 배포하여 워크로드를 올바르게 실행하고 있는지 확인합니다.

전제 조건

  • 로컬 Linux/macOS/BSD 시스템의 SSH 키 쌍. 이전에 SSH 키를 사용한 적이 없다면 로컬 컴퓨터에서 SSH 키를 설정하는 방법에 대한 설명을 따라 설정 방법을 배울 수 있습니다.\n
  • 각각 최소 2GB RAM과 2개의 vCPU로 Ubuntu 18.04를 실행하는 서버 3대. SSH 키 쌍을 사용하여 루트 사용자로 각 서버에 SSH로 연결할 수 있어야 합니다.\n
  • 로컬 머신에 Ansible이 설치되었습니다. OS로 Ubuntu 18.04를 실행 중인 경우 공식 Ansible 설치 설명서의 "1단계 - Ansible 설치\ 섹션을 따르세요.\n
  • Ansible 플레이북에 익숙합니다. 검토를 위해 구성 관리 101: Ansible 플레이북 작성을 확인하십시오.\n
  • Docker 이미지에서 컨테이너를 시작하는 방법에 대한 지식. 복습이 필요한 경우 Ubuntu 18.04에서 Docker를 설치 및 사용하는 방법의 \5단계 - Docker 컨테이너 실행\을 참조하십시오.\n

1단계 - Workspace 디렉토리 및 Ansible Inventory 파일 설정

이 섹션에서는 작업 영역으로 사용할 로컬 컴퓨터에 디렉터리를 만듭니다. 원격 서버와 통신하고 명령을 실행할 수 있도록 Ansible을 로컬에서 구성합니다. 완료되면 서버의 IP 주소 및 각 서버가 속한 그룹과 같은 인벤토리 정보가 포함된 hosts 파일을 생성합니다.

3개의 서버 중 하나는 master_ip로 표시된 IP를 가진 마스터가 됩니다. 다른 두 서버는 작업자이며 IP는 worker_1_ipworker_2_ip입니다.

로컬 컴퓨터의 홈 디렉터리에 ~/kube-cluster라는 디렉터리를 만들고 그 안에 cd를 만듭니다.

  1. mkdir ~/kube-cluster
  2. cd ~/kube-cluster

이 디렉토리는 나머지 자습서의 작업 공간이 되며 모든 Ansible 플레이북을 포함합니다. 모든 로컬 명령을 실행할 디렉터리이기도 합니다.

nano 또는 선호하는 텍스트 편집기를 사용하여 ~/kube-cluster/hosts라는 파일을 만듭니다.

  1. nano ~/kube-cluster/hosts

클러스터의 논리적 구조에 대한 정보를 지정하는 다음 텍스트를 파일에 추가합니다.

[masters]
master ansible_host=master_ip ansible_user=root

[workers]
worker1 ansible_host=worker_1_ip ansible_user=root
worker2 ansible_host=worker_2_ip ansible_user=root

[all:vars]
ansible_python_interpreter=/usr/bin/python3

Ansible의 인벤토리 파일은 IP 주소, 원격 사용자, 명령 실행을 위한 단일 단위로 타겟팅할 서버 그룹과 같은 서버 정보를 지정하는 데 사용된다는 것을 기억하실 것입니다. ~/kube-cluster/hosts는 인벤토리 파일이 될 것이며 여기에 클러스터의 논리적 구조를 지정하는 두 개의 Ansible 그룹(마스터 및 작업자)을 추가했습니다.

마스터 그룹에는 마스터 노드의 IP(master_ip)를 나열하고 Ansible이 루트 사용자로 원격 명령을 실행하도록 지정하는 "master\라는 서버 항목이 있습니다. .

마찬가지로 작업자 그룹에는 작업자 서버에 대한 두 항목(worker_1_ipworker_2_ip)이 있습니다. ansible_user를 루트로 지정합니다.

파일의 마지막 줄은 관리 작업에 원격 서버의 Python 3 인터프리터를 사용하도록 Ansible에 지시합니다.

텍스트를 추가한 후 파일을 저장하고 닫습니다.

그룹으로 서버 인벤토리를 설정했으면 운영 체제 수준 종속성 설치 및 구성 설정 만들기로 이동하겠습니다.

2단계 - 모든 원격 서버에서 루트가 아닌 사용자 생성

이 섹션에서는 모든 서버에서 sudo 권한이 있는 루트가 아닌 사용자를 생성하여 권한이 없는 사용자로 SSH를 통해 수동으로 서버에 연결할 수 있습니다. 예를 들어 top/htop과 같은 명령으로 시스템 정보를 보거나, 실행 중인 컨테이너 목록을 보거나, 루트가 소유한 구성 파일을 변경하려는 경우에 유용할 수 있습니다. 이러한 작업은 클러스터 유지 관리 중에 일상적으로 수행되며 이러한 작업에 루트가 아닌 사용자를 사용하면 중요한 파일을 수정 또는 삭제하거나 의도치 않게 다른 위험한 작업을 수행할 위험이 최소화됩니다.

작업 공간에 ~/kube-cluster/initial.yml 파일을 생성합니다.

  1. nano ~/kube-cluster/initial.yml

다음으로 파일에 다음 play를 추가하여 모든 서버에서 sudo 권한이 있는 루트가 아닌 사용자를 만듭니다. Ansible의 플레이는 특정 서버 및 그룹을 대상으로 수행되는 단계 모음입니다. 다음 플레이는 루트가 아닌 sudo 사용자를 생성합니다.

- hosts: all
  become: yes
  tasks:
    - name: create the 'ubuntu' user
      user: name=ubuntu append=yes state=present createhome=yes shell=/bin/bash

    - name: allow 'ubuntu' to have passwordless sudo
      lineinfile:
        dest: /etc/sudoers
        line: 'ubuntu ALL=(ALL) NOPASSWD: ALL'
        validate: 'visudo -cf %s'

    - name: set up authorized keys for the ubuntu user
      authorized_key: user=ubuntu key="{{item}}"
      with_file:
        - ~/.ssh/id_rsa.pub

다음은 이 플레이북이 수행하는 작업에 대한 분석입니다.

  • 루트가 아닌 사용자 ubuntu를 생성합니다.\n
  • ubuntu 사용자가 암호 프롬프트 없이 sudo 명령을 실행할 수 있도록 sudoers 파일을 구성합니다.\n
  • 로컬 컴퓨터의 공개 키(일반적으로 ~/.ssh/id_rsa.pub)를 원격 ubuntu 사용자의 인증된 키 목록에 추가합니다. 이렇게 하면 ubuntu 사용자로 각 서버에 SSH를 통해 연결할 수 있습니다.\n

텍스트를 추가한 후 파일을 저장하고 닫습니다.

다음으로 로컬에서 다음을 실행하여 플레이북을 실행합니다.

  1. ansible-playbook -i hosts ~/kube-cluster/initial.yml

명령은 2~5분 내에 완료됩니다. 완료되면 다음과 유사한 출력이 표시됩니다.

Output
PLAY [all] **** TASK [Gathering Facts] **** ok: [master] ok: [worker1] ok: [worker2] TASK [create the 'ubuntu' user] **** changed: [master] changed: [worker1] changed: [worker2] TASK [allow 'ubuntu' user to have passwordless sudo] **** changed: [master] changed: [worker1] changed: [worker2] TASK [set up authorized keys for the ubuntu user] **** changed: [worker1] => (item=ssh-rsa AAAAB3...) changed: [worker2] => (item=ssh-rsa AAAAB3...) changed: [master] => (item=ssh-rsa AAAAB3...) PLAY RECAP **** master : ok=5 changed=4 unreachable=0 failed=0 worker1 : ok=5 changed=4 unreachable=0 failed=0 worker2 : ok=5 changed=4 unreachable=0 failed=0

이제 예비 설정이 완료되었으므로 Kubernetes 관련 종속성 설치로 이동할 수 있습니다.

3단계 — Kubernetetes의 종속성 설치

이 섹션에서는 Ubuntu의 패키지 관리자를 사용하여 Kubernetes에 필요한 운영 체제 수준 패키지를 설치합니다. 이러한 패키지는 다음과 같습니다.

  • Docker - 컨테이너 런타임입니다. 컨테이너를 실행하는 구성 요소입니다. rkt와 같은 다른 런타임에 대한 지원은 Kubernetes에서 활발히 개발 중입니다.\n
  • kubeadm - 표준 방식으로 클러스터의 다양한 구성 요소를 설치하고 구성하는 CLI 도구입니다.\n
  • kubelet - 모든 노드에서 실행되고 노드 수준 작업을 처리하는 시스템 서비스/프로그램입니다.\n
  • kubectl - API 서버를 통해 클러스터에 명령을 내리는 데 사용되는 CLI 도구입니다.\n

작업 공간에 ~/kube-cluster/kube-dependencies.yml 파일을 생성합니다.

  1. nano ~/kube-cluster/kube-dependencies.yml

이 패키지를 서버에 설치하려면 다음 플레이를 파일에 추가하십시오.

- hosts: all
  become: yes
  tasks:
   - name: install Docker
     apt:
       name: docker.io
       state: present
       update_cache: true

   - name: install APT Transport HTTPS
     apt:
       name: apt-transport-https
       state: present

   - name: add Kubernetes apt-key
     apt_key:
       url: https://packages.cloud.google.com/apt/doc/apt-key.gpg
       state: present

   - name: add Kubernetes' APT repository
     apt_repository:
      repo: deb http://apt.kubernetes.io/ kubernetes-xenial main
      state: present
      filename: 'kubernetes'

   - name: install kubelet
     apt:
       name: kubelet=1.14.0-00
       state: present
       update_cache: true

   - name: install kubeadm
     apt:
       name: kubeadm=1.14.0-00
       state: present

- hosts: master
  become: yes
  tasks:
   - name: install kubectl
     apt:
       name: kubectl=1.14.0-00
       state: present
       force: yes

플레이북의 첫 번째 플레이는 다음을 수행합니다.

  • 컨테이너 런타임인 Docker를 설치합니다.\n
  • apt-transport-https를 설치하여 외부 HTTPS 소스를 APT 소스 목록에 추가할 수 있습니다.\n
  • 키 확인을 위해 Kubernetes APT 리포지토리의 apt-key를 추가합니다.\n
  • Kubernetes APT 리포지토리를 원격 서버의 APT 소스 목록에 추가합니다.\n
  • kubeletkubeadm을 설치합니다.\n

두 번째 플레이는 마스터 노드에 kubectl을 설치하는 단일 작업으로 구성됩니다.

참고: Kubernetes 설명서에서는 환경에 최신 안정적인 Kubernetes 릴리스를 사용하도록 권장하지만 이 자습서에서는 특정 버전을 사용합니다. 이렇게 하면 Kubernetes가 빠르게 변경되고 최신 버전이 이 자습서에서 작동하지 않을 수 있으므로 단계를 성공적으로 수행할 수 있습니다.

완료되면 파일을 저장하고 닫습니다.

다음으로 로컬에서 다음을 실행하여 플레이북을 실행합니다.

  1. ansible-playbook -i hosts ~/kube-cluster/kube-dependencies.yml

완료되면 다음과 유사한 출력이 표시됩니다.

Output
PLAY [all] **** TASK [Gathering Facts] **** ok: [worker1] ok: [worker2] ok: [master] TASK [install Docker] **** changed: [master] changed: [worker1] changed: [worker2] TASK [install APT Transport HTTPS] ***** ok: [master] ok: [worker1] changed: [worker2] TASK [add Kubernetes apt-key] ***** changed: [master] changed: [worker1] changed: [worker2] TASK [add Kubernetes' APT repository] ***** changed: [master] changed: [worker1] changed: [worker2] TASK [install kubelet] ***** changed: [master] changed: [worker1] changed: [worker2] TASK [install kubeadm] ***** changed: [master] changed: [worker1] changed: [worker2] PLAY [master] ***** TASK [Gathering Facts] ***** ok: [master] TASK [install kubectl] ****** ok: [master] PLAY RECAP **** master : ok=9 changed=5 unreachable=0 failed=0 worker1 : ok=7 changed=5 unreachable=0 failed=0 worker2 : ok=7 changed=5 unreachable=0 failed=0

실행 후 Docker, kubeadmkubelet이 모든 원격 서버에 설치됩니다. kubectl은 필수 구성 요소가 아니며 클러스터 명령을 실행하는 데만 필요합니다. 마스터 노드에서만 kubectl 명령을 실행하므로 이 컨텍스트에서는 마스터 노드에만 설치하는 것이 좋습니다. 그러나 kubectl 명령은 모든 작업자 노드 또는 클러스터를 가리키도록 설치 및 구성할 수 있는 모든 시스템에서 실행할 수 있습니다.

이제 모든 시스템 종속성이 설치되었습니다. 마스터 노드를 설정하고 클러스터를 초기화합시다.

4단계 - 마스터 노드 설정

이 섹션에서는 마스터 노드를 설정합니다. 그러나 플레이북을 만들기 전에 PodPod 네트워크 플러그인과 같은 몇 가지 개념을 다루는 것이 좋습니다. 클러스터에 둘 다 포함되기 때문입니다.

포드는 하나 이상의 컨테이너를 실행하는 원자 단위입니다. 이러한 컨테이너는 파일 볼륨 및 네트워크 인터페이스와 같은 리소스를 공통적으로 공유합니다. Pod는 Kubernetes에서 예약의 기본 단위입니다. Pod의 모든 컨테이너는 Pod가 예약된 동일한 노드에서 실행되도록 보장됩니다.

각 Pod에는 고유한 IP 주소가 있으며 한 노드의 Pod는 Pod의 IP를 사용하여 다른 노드의 Pod에 액세스할 수 있어야 합니다. 단일 노드의 컨테이너는 로컬 인터페이스를 통해 쉽게 통신할 수 있습니다. 그러나 Pod 간의 통신은 더 복잡하며 한 노드의 Pod에서 다른 노드의 Pod로 트래픽을 투명하게 라우팅할 수 있는 별도의 네트워킹 구성 요소가 필요합니다.

이 기능은 포드 네트워크 플러그인에서 제공합니다. 이 클러스터의 경우 안정적이고 성능이 뛰어난 옵션인 Flannel을 사용합니다.

로컬 시스템에서 master.yml이라는 이름의 Ansible 플레이북을 만듭니다.

  1. nano ~/kube-cluster/master.yml

파일에 다음 플레이를 추가하여 클러스터를 초기화하고 Flannel을 설치합니다.

- hosts: master
  become: yes
  tasks:
    - name: initialize the cluster
      shell: kubeadm init --pod-network-cidr=10.244.0.0/16 >> cluster_initialized.txt
      args:
        chdir: $HOME
        creates: cluster_initialized.txt

    - name: create .kube directory
      become: yes
      become_user: ubuntu
      file:
        path: $HOME/.kube
        state: directory
        mode: 0755

    - name: copy admin.conf to user's kube config
      copy:
        src: /etc/kubernetes/admin.conf
        dest: /home/ubuntu/.kube/config
        remote_src: yes
        owner: ubuntu

    - name: install Pod network
      become: yes
      become_user: ubuntu
      shell: kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/a70459be0084506e4ec919aa1c114638878db11b/Documentation/kube-flannel.yml >> pod_network_setup.txt
      args:
        chdir: $HOME
        creates: pod_network_setup.txt

이 연극의 분석은 다음과 같습니다.

  • 첫 번째 작업은 kubeadm init를 실행하여 클러스터를 초기화합니다. --pod-network-cidr=10.244.0.0/16 인수를 전달하면 포드 IP가 할당될 프라이빗 서브넷이 지정됩니다. Flannel은 기본적으로 위의 서브넷을 사용합니다. 동일한 서브넷을 사용하도록 kubeadm에 지시합니다.\n
  • 두 번째 작업은 /home/ubuntu.kube 디렉토리를 생성합니다. 이 디렉터리는 클러스터에 연결하는 데 필요한 관리 키 파일과 같은 구성 정보와 클러스터의 API 주소를 보관합니다.\n
  • 세 번째 작업은 kubeadm init에서 생성된 /etc/kubernetes/admin.conf 파일을 루트가 아닌 사용자의 홈 디렉토리에 복사합니다. 이렇게 하면 kubectl을 사용하여 새로 생성된 클러스터에 액세스할 수 있습니다.\n
  • 마지막 작업은 kubectl apply를 실행하여 Flannel을 설치합니다. kubectl apply -f descriptor.[yml|json]descriptor.[yml|json]kubectl에 지시하는 구문입니다. 코드> 파일입니다. kube-flannel.yml 파일에는 클러스터에서 Flannel을 설정하는 데 필요한 개체에 대한 설명이 포함되어 있습니다.\n

완료되면 파일을 저장하고 닫습니다.

다음을 실행하여 로컬에서 플레이북을 실행합니다.

  1. ansible-playbook -i hosts ~/kube-cluster/master.yml

완료되면 다음과 유사한 출력이 표시됩니다.

Output
PLAY [master] **** TASK [Gathering Facts] **** ok: [master] TASK [initialize the cluster] **** changed: [master] TASK [create .kube directory] **** changed: [master] TASK [copy admin.conf to user's kube config] ***** changed: [master] TASK [install Pod network] ***** changed: [master] PLAY RECAP **** master : ok=5 changed=4 unreachable=0 failed=0

마스터 노드의 상태를 확인하려면 다음 명령을 사용하여 SSH로 연결합니다.

  1. ssh ubuntu@master_ip

마스터 노드 내부에서 다음을 실행합니다.

  1. kubectl get nodes

이제 다음 출력이 표시됩니다.

Output
NAME STATUS ROLES AGE VERSION master Ready master 1d v1.14.0

출력에는 마스터 노드가 모든 초기화 작업을 완료했으며 준비 상태에 있으므로 작업자 노드를 수락하고 API 서버로 전송된 작업을 실행할 수 있음을 나타냅니다. 이제 로컬 시스템에서 작업자를 추가할 수 있습니다.

5단계 - 작업자 노드 설정

클러스터에 작업자를 추가하려면 각각에 대해 단일 명령을 실행해야 합니다. 이 명령에는 마스터 API 서버의 IP 주소 및 포트, 보안 토큰과 같은 필수 클러스터 정보가 포함됩니다. 보안 토큰을 전달하는 노드만 클러스터에 가입할 수 있습니다.

작업 공간으로 돌아가서 workers.yml이라는 플레이북을 만듭니다.

  1. nano ~/kube-cluster/workers.yml

파일에 다음 텍스트를 추가하여 작업자를 클러스터에 추가합니다.

- hosts: master
  become: yes
  gather_facts: false
  tasks:
    - name: get join command
      shell: kubeadm token create --print-join-command
      register: join_command_raw

    - name: set join command
      set_fact:
        join_command: "{{ join_command_raw.stdout_lines[0] }}"


- hosts: workers
  become: yes
  tasks:
    - name: join cluster
      shell: "{{ hostvars['master'].join_command }} >> node_joined.txt"
      args:
        chdir: $HOME
        creates: node_joined.txt

플레이북의 기능은 다음과 같습니다.

  • 첫 번째 플레이는 작업자 노드에서 실행해야 하는 조인 명령을 가져옵니다. 이 명령은 다음 형식을 따릅니다.kubeadm join --token : --discovery-token-ca-cert-hash sha256: . 적절한 토큰과 해시 값으로 실제 명령을 받으면 작업은 다음 플레이가 해당 정보에 액세스할 수 있도록 이를 사실로 설정합니다.\n
  • 두 번째 플레이에는 모든 작업자 노드에서 조인 명령을 실행하는 단일 작업이 있습니다. 이 작업을 완료하면 두 개의 작업자 노드가 클러스터의 일부가 됩니다.\n

완료되면 파일을 저장하고 닫습니다.

로컬에서 다음을 실행하여 플레이북을 실행합니다.

  1. ansible-playbook -i hosts ~/kube-cluster/workers.yml

완료되면 다음과 유사한 출력이 표시됩니다.

Output
PLAY [master] **** TASK [get join command] **** changed: [master] TASK [set join command] ***** ok: [master] PLAY [workers] ***** TASK [Gathering Facts] ***** ok: [worker1] ok: [worker2] TASK [join cluster] ***** changed: [worker1] changed: [worker2] PLAY RECAP ***** master : ok=2 changed=1 unreachable=0 failed=0 worker1 : ok=2 changed=1 unreachable=0 failed=0 worker2 : ok=2 changed=1 unreachable=0 failed=0

작업자 노드를 추가하면 이제 클러스터가 완전히 설정되고 작동하며 작업자가 워크로드를 실행할 준비가 됩니다. 애플리케이션을 예약하기 전에 클러스터가 의도한 대로 작동하는지 확인합시다.

6단계 - 클러스터 확인

노드가 다운되었거나 마스터와 작업자 간의 네트워크 연결이 제대로 작동하지 않아 설정 중에 클러스터가 때때로 실패할 수 있습니다. 클러스터를 확인하고 노드가 올바르게 작동하는지 확인하십시오.

노드가 준비되었는지 확인하려면 마스터 노드에서 클러스터의 현재 상태를 확인해야 합니다. 마스터 노드에서 연결을 끊은 경우 다음 명령을 사용하여 SSH로 다시 연결할 수 있습니다.

  1. ssh ubuntu@master_ip

그런 다음 다음 명령을 실행하여 클러스터 상태를 가져옵니다.

  1. kubectl get nodes

다음과 유사한 출력이 표시됩니다.

Output
NAME STATUS ROLES AGE VERSION master Ready master 1d v1.14.0 worker1 Ready <none> 1d v1.14.0 worker2 Ready <none> 1d v1.14.0

모든 노드에 STATUS에 대한 Ready 값이 있으면 노드가 클러스터의 일부이고 워크로드를 실행할 준비가 되었음을 의미합니다.

그러나 일부 노드에 NotReadySTATUS로 있는 경우 작업자 노드가 아직 설정을 완료하지 않았음을 의미할 수 있습니다. kubectl get nodes를 다시 실행하고 새 출력을 검사하기 전에 약 5~10분 동안 기다립니다. 일부 노드의 상태가 여전히 NotReady인 경우 이전 단계에서 명령을 확인하고 다시 실행해야 할 수 있습니다.

이제 클러스터가 성공적으로 확인되었으므로 클러스터에서 예제 Nginx 애플리케이션을 예약하겠습니다.

7단계 - 클러스터에서 애플리케이션 실행

이제 컨테이너화된 모든 애플리케이션을 클러스터에 배포할 수 있습니다. 친숙함을 유지하기 위해 배포서비스를 사용하여 Nginx를 배포하여 이 애플리케이션을 클러스터에 배포하는 방법을 살펴보겠습니다. Docker 이미지 이름 및 관련 플래그(예: portsvolumes)를 변경하는 경우 다른 컨테이너화된 애플리케이션에도 아래 명령을 사용할 수 있습니다.

여전히 마스터 노드 내에서 다음 명령을 실행하여 nginx라는 배포를 만듭니다.

  1. kubectl create deployment nginx --image=nginx

배포는 클러스터의 수명 동안 포드가 충돌하더라도 정의된 템플릿을 기반으로 실행 중인 지정된 수의 포드가 항상 있도록 하는 Kubernetes 개체 유형입니다. 위의 배포는 Docker 레지스트리의 Nginx Docker 이미지에서 하나의 컨테이너로 포드를 생성합니다.

다음으로 다음 명령을 실행하여 앱을 공개적으로 노출할 nginx라는 서비스를 만듭니다. 클러스터의 각 노드에서 열린 임의의 포트를 통해 포드에 액세스할 수 있도록 하는 체계인 NodePort를 통해 그렇게 합니다.

  1. kubectl expose deploy nginx --port 80 --target-port 80 --type NodePort

서비스는 내부 및 외부 클라이언트에 클러스터 내부 서비스를 노출하는 또 다른 유형의 Kubernetes 개체입니다. 또한 여러 포드에 대한 로드 밸런싱 요청을 수행할 수 있으며 다른 구성 요소와 자주 상호 작용하는 Kubernetes의 필수 구성 요소입니다.

다음 명령을 실행합니다.

  1. kubectl get services

그러면 다음과 유사한 텍스트가 출력됩니다.

Output
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 1d nginx NodePort 10.109.228.209 <none> 80:nginx_port/TCP 40m

위 출력의 세 번째 줄에서 Nginx가 실행 중인 포트를 검색할 수 있습니다. Kubernetes는 30000보다 큰 임의의 포트를 자동으로 할당하면서 포트가 이미 다른 서비스에 바인딩되지 않았는지 확인합니다.

모든 것이 작동하는지 테스트하려면 http://worker_1_ip:nginx_port 또는 http://worker_2_ip:nginx_port 로컬 컴퓨터의 브라우저를 통해. Nginx의 친숙한 시작 페이지가 표시됩니다.

Nginx 애플리케이션을 제거하려면 먼저 마스터 노드에서 nginx 서비스를 삭제하십시오.

  1. kubectl delete service nginx

다음을 실행하여 서비스가 삭제되었는지 확인합니다.

  1. kubectl get services

다음 출력이 표시됩니다.

Output
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 1d

그런 다음 배포를 삭제합니다.

  1. kubectl delete deployment nginx

이것이 작동하는지 확인하려면 다음을 실행하십시오.

  1. kubectl get deployments
Output
No resources found.

결론

이 가이드에서는 자동화를 위해 Kubeadm 및 Ansible을 사용하여 Ubuntu 18.04에서 Kubernetes 클러스터를 성공적으로 설정했습니다.

이제 클러스터가 설정되었으므로 클러스터로 무엇을 해야 할지 궁금하다면 다음 단계는 자체 애플리케이션과 서비스를 클러스터에 편안하게 배포하는 것입니다. 다음은 프로세스를 안내할 수 있는 추가 정보가 포함된 링크 목록입니다.

  • Dockerizing applications - Docker를 사용하여 애플리케이션을 컨테이너화하는 방법을 자세히 설명하는 예제를 나열합니다.\n
  • Pod 개요 - Pod의 작동 방식 및 다른 Kubernetes 개체와의 관계에 대해 자세히 설명합니다. Pod는 Kubernetes에서 어디에나 있으므로 이를 이해하면 작업이 수월해집니다.\n
  • 배포 개요 - 배포 개요를 제공합니다. 비정상 애플리케이션의 확장 및 자동 복구를 위해 상태 비저장 애플리케이션에서 자주 사용되므로 배포와 같은 컨트롤러의 작동 방식을 이해하는 것이 유용합니다.\n
  • 서비스 개요 - Kubernetes 클러스터에서 자주 사용되는 또 다른 개체인 서비스를 다룹니다. 상태 비저장 애플리케이션과 상태 저장 애플리케이션을 모두 실행하려면 서비스 유형과 서비스 옵션을 이해하는 것이 필수적입니다.\n

살펴볼 수 있는 다른 중요한 개념은 Secrets이며 프로덕션 애플리케이션을 배포할 때 유용합니다.

Kubernetes에는 제공할 수 있는 많은 기능이 있습니다. Kubernetes 공식 문서는 개념에 대해 배우고, 작업별 가이드를 찾고, 다양한 개체에 대한 API 참조를 찾아볼 수 있는 최고의 장소입니다.