컨테이너 모니티링을 위한 SaaS 솔루션인 Datadog과 연동해 본다.
-
kt cloud 하드 디스크 추가
-
k3s 위치 변경 및 k8s trouble shooting
-
Github action 과 workflow 사용하여 도커 이미지 생성 ( GoodBye Jenkins )
-
DataDog 연동
kt cloud는 기본 20G이 하드 디스크를 제공을 하여 container 운영시 evicted 에러가 많이 발생함.
먼저 터미널로 로그인 한다.
ssh root@(본인 VM 공인 ip) -p 22222
아래 명령어를 실행한다.
root@jakelee:/# df -h | grep dev
udev 7.8G 0 7.8G 0% /dev
/dev/xvda4 17G 9.1G 6.7G 58% /
tmpfs 7.9G 0 7.9G 0% /dev/shm
/dev/loop0 112M 112M 0 100% /snap/core/12941
/dev/loop1 111M 111M 0 100% /snap/core/12834
/dev/xvda3 976M 240M 670M 27% /boot
/dev/xvda4가 기본제공되는 파티션이고 70% 이상 점유가 되어 있으면 컨테이너 POD 기동이 안될 수 있음.
kt cloud 에 로그인 한다.
server -> disk를 클릭합니다.
create disk 를 클릭합니다.
아래와 같이 값을 선택합니다.
- zone : KOR-Seoul M2 ( 현재 교육 환경은 M2 zone에 설치 )
- name : host 이름과 같이 설정 ( 식별을 편하게 하기 위함 )
- product : SSD ( 빠른 성능 )
- size : 50G
launch 버튼을 클릭하여 디스크를 생성하며 약간의 시간 소요.
state 상태가 Release라고 나오며 붉은색으로 표시됨. 이것은 아직 서버에 디스크가 연결 되지 않았다는 의미.
connect 버튼을 클릭을 하면 연결할 서버가 나오고 원하는 대상 서버를 선택합니다.
아래 메시지가 나오면 ok를 클릭합니다.
완료가 되면 status가 connect 로 나오고 kt cloud 에서는 해야 할 일은 완료 되었습니다.
터미널로 로그인 한다.
ssh root@(본인 VM 공인 ip) -p 22222
아래 명령어를 실행한다.
root@jakelee:/# fdisk -l
/dev/xvdb 라는 디스크가 추가 된걸 확인 할수 있습니다.
위에서 확인한 디바이스 파티션의 포맷을 진행합니다. ( 리눅스 파티션 ext4 )
root@jakelee:/# mkfs.ext4 /dev/xvdb
포맷이 완료되면 UUID를 확인할 수 있습니다. 위에서도 보이지만 아래의 명령어를 통해서도 UUID를 확인할 수 있습니다.
root@jakelee:/# blkid
/dev/xvdb: UUID="f7f5fb33-80f0-4eda-b103-4be9b6aa070e" TYPE="ext4"
/dev/xvda2: UUID="2feb6a8f-952a-4b49-9e39-03b712dc75d3" TYPE="swap" PARTUUID="94574b76-926a-4d85-b78c-f370c646afd9"
/dev/xvda3: UUID="2cab3d8f-b495-43a2-9ea4-db1a02bce959" TYPE="ext4" PARTUUID="375daaec-397a-4545-a75a-6ab586eed954"
/dev/xvda4: UUID="89a01c64-beb2-4de2-bd8b-7aa7146e41ee" TYPE="ext4" PARTUUID="25f58f5f-6d2a-4c4b-96e9-f8345dcf4d16"
/dev/loop0: TYPE="squashfs"
/dev/loop1: TYPE="squashfs"
/dev/xvda1: PARTUUID="6eb8e524-4b89-4dfc-9d73-d259d395f4ac"
이제 디스크를 사용하기 위해 마운트 할 차례입니다. 먼저 마운트 할 대상 폴더를 만들어줍니다.
root@jakelee:/# mkdir -p /data
자동 마운트를 위해 마운트 정보를 /etc/fstab 파일에 추가합니다.
root@jakelee:/# vi /etc/fstab
이제 마운트를 적용합니다.
root@jakelee:/# mount -a
아래 명령어를 실행하여 /data 마운트 포인트가 생성된걸 확인합니다.
root@jakelee:/# df -h | grep dev
udev 7.8G 0 7.8G 0% /dev
/dev/xvda4 17G 9.1G 6.7G 58% /
tmpfs 7.9G 0 7.9G 0% /dev/shm
/dev/loop0 112M 112M 0 100% /snap/core/12941
/dev/loop1 111M 111M 0 100% /snap/core/12834
/dev/xvdb 49G 0 49G 0% /data
/dev/xvda3 976M 240M 670M 27% /boot
먼저 /var/lib/rancher를 /data 폴더에 복사합니다.
cp -rp /var/lib/rancher /data
rancher폴더가 생성된 것을 확인 할 수 있습니다.
root@jakelee:/# ls /data
rancher
k3s 서비스의 시작 위치를 확인하기 위해 아래 명령어를 실행합니다.
root@jakelee:/# systemctl status k3s
● k3s.service - Lightweight Kubernetes
Loaded: loaded (/etc/systemd/system/k3s.service; enabled; vendor preset: enabled)
Active: active (running) since Sat 2022-04-30 12:04:31 KST; 22h ago
Docs: https://k3s.io
Process: 989 ExecStartPre=/sbin/modprobe overlay (code=exited, status=0/SUCCESS)
Process: 978 ExecStartPre=/sbin/modprobe br_netfilter (code=exited, status=0/SUCCESS)
Process: 956 ExecStartPre=/bin/sh -xc ! /usr/bin/systemctl is-enabled --quiet nm-cloud-setup.serv
Main PID: 990 (k3s-server)
Tasks: 506
서비스 위치는 /etc/systemd/system/k3s.service 이란 것을 확인 할 수 있고
vi 에디터로 /etc/systemd/system/k3s.service 를 수정합니다.
ExecStart 구문에서 --data-dir=/data/rancher/k3s 를 추가합니다.
# before
ExecStart=/usr/local/bin/k3s \
server \
'--tls-san' \
'210.106.105.165' \
# after
ExecStart=/usr/local/bin/k3s \
server \
'--data-dir=/data/rancher/k3s' \
'--tls-san' \
'210.106.105.165' \
시스템 데몬과 k3s를 재기동 합니다.
systemctl daemon-reload
systemctl restart k3s
정상기동을 확인합니다.
systemctl status k3s
신규 파티션 ( /dev/xvdb )에 disk가 사용되는지 확인 합니다.
root@jakelee:/# df -h | grep dev
udev 7.8G 0 7.8G 0% /dev
/dev/xvda4 17G 9.0G 6.8G 58% /
tmpfs 7.9G 0 7.9G 0% /dev/shm
/dev/loop0 112M 112M 0 100% /snap/core/12941
/dev/loop1 111M 111M 0 100% /snap/core/12834
/dev/xvdb 49G 6.5G 41G 14% /data
/dev/xvda3 976M 240M 670M 27% /boot
k3s 에서 evicted 된 pod를 정리한다.
먼저 pod 상태를 를 살펴 봅니다.
kubect get po --all-namespaces
아래 명령어를 실행하면 Pod가 정리되고 재기동 됩니다.
kubectl drain --delete-emptydir-data --ignore-daemonsets --force < node 이름 > && kubectl uncordon < node 이름 >
root@jakelee:~# kubectl drain --delete-emptydir-data --ignore-daemonsets --force jakelee && kubectl uncordon jakelee
node/jakelee cordoned
WARNING: ignoring DaemonSet-managed Pods: monitoring/prometheus-prometheus-node-exporter-2dgkh, kube-system/svclb-traefik-ppwjm, default/my-datadog-5vtk6
evicting pod kube-system/local-path-provisioner-84bb864455-gsm9c
argocd-applicationset-controller-66689cbf4b-czwx7
evicting pod monitoring/prometheus-grafana-75898f6f7b-bwgd6
I0501 20:52:09.033684 24024 request.go:665] Waited for 1.000050949s due to client-side throttling, not priority and fairness, request: POST:https://127.0.0.1:6443/api/v1/namespaces/monitoring/pods/alertmanager-prometheus-kube-prometheus-alertmanager-0/eviction
pod/argocd-notifications-controller-5f8c5d6fc5-7sr85 evicted
pod/argocd-server-5bbd4cfc66-rhwpj evicted
pod/coredns-96cc4f57d-jwlxm evicted
kube-prometheus-operator-85bcb96fcb-jfql6 evicted
pod/prometheus-prometheus-kube-prometheus-prometheus-0 evicted
pod/alertmanager-prometheus-kube-prometheus-alertmanager-0 evicted
I0501 20:52:19.187060 24024 request.go:665] Waited for 3.595956327s due to client-side throttling, not priority and fairness, request: GET:https://127.0.0.1:6443/api/v1/namespaces/dev/pods/dev-edu6-cc658fb7b-dr7mw
pod/mynginx-69d586ff67-m284g evicted
pod/prometheus-kube-state-metrics-77698656df-c6jl2 evicted
pod/dev-edu6-cc658fb7b-zm4dh evicted
node/jakelee evicted
node/jakelee uncordoned
disk full 이 발생한 경우는 아래 명령어를 사용하여 disk-pressure- 관련 메시지를 확인한다.
kubectl describe node < node 명 >
taint 명령어를 사용하여 해당 node를 untaint 하여 pod 가 schedule 되게 한다.
kubectl taint nodes jakelee node.kubernetes.io/disk-pressure-
github 에서도 Packages 라는 이름으로 도커 레지스트리를 기능을 지원한다.
현재 private은 500 메가 까지는 제공을 하고 있다.
docker 이미지 이름은 앞에 ghcr.io가 붙는다.
github의 본인 계정으로 이동하면 packages tab을 볼수 있다.
우리가 그동안 Jenkins 를 통하여 Docker Build 를 수행 했지만 이제는 Github의 Action , workflow 기능을 이용하여 빌드를 수행해본다.
https://github.com/shclub/edu7 를 본인의 github에 fork 한다.
Actions tab 을 클릭한다.
템플릿 목록이 나오고 먼저 Github package 에 push 하기 위해서 Publish Docker Container Template을 선택한 후 configure 를 클릭한다.
- IOS 나 Android의 경우는 search 메뉴에서 검색한다.
docker-publish.yml 화일이 아래 처럼 생기고 schedule 부분의 2개 라인만 주석 처리하고 Start commit을 클릭한다.
./github/workflows 폴더가 생성이 되고 docker-publish.yml 화일이 생성 된것을 확인 할수 있다.
다시 Actions Tab을 클릭한다.
Docker 라는 workflow 가 생성이되고 오른편에 pipeline 이 실행 되고 있는것을 확인할 수있다.
정상적으로 수행이되면 파란색으로 아이콘이 변경이되고 에러가 발생하면 붉은색으로 나온다.
해당 파이프라인 클릭 ( create Docker-publish.yml ) 하면 빌드 화면으로 넘어가고 Build를 클릭하면 오른편에 파이프라인 세부 로그를 볼 수있다.
생성된 빌드 이미지를 보기 위해서는 본인 계정을 클릭한다.
repository에서도 오른편에서 package 를 통해 확인 할 수도 있다.
Packages를 클릭하면 신규로 생성된 도커 이미지를 확인 할 수 있다.
해당 도커 이미지를 클릭하면 docker pull을 위한 도커 이미지를 명령어를 확인 할 수 있고 오른편에는 package를 설정할수 있다.
기본 설정은 public 이다.
생성된 도커를 터미널 창에서 아래와 같이 실행한다.
기본 tag는 master 이다.
root@jakelee:~# docker run ghcr.io/shclub/edu7:master
* Serving Flask app 'app' (lazy loading)
* Environment: production
WARNING: This is a development server. Do not use it in a production deployment.
Use a production WSGI server instead.
* Debug mode: off
* Running on all addresses (0.0.0.0)
WARNING: This is a development server. Do not use it in a production deployment.
* Running on http://127.0.0.1:5000
* Running on http://172.17.0.2:5000 (Press CTRL+C to quit)
GitHub package 가 아닌 Docker hub 에 push 해본다.
Actions Tab으로 이동하여 New workflow를 클릭한다.
아래의 내용을 복사한다.
name: Publish Docker image
on:
# release:
# types: [published]
push:
branches: [ master ]
# Publish semver tags as releases.
# tags: [ 'v*.*.*' ]
pull_request:
branches: [ master ]
jobs:
push_to_registry:
name: Push Docker image to Docker Hub
runs-on: ubuntu-latest
steps:
- name: Check out the repo
uses: actions/checkout@v3
- name: Log in to Docker Hub
uses: docker/login-action@f054a8b539a109f9f41c372932f1ae047eff08c9
with:
username: ${{ secrets.DOCKER_USERNAME }}
password: ${{ secrets.DOCKER_PASSWORD }}
- name: Extract metadata (tags, labels) for Docker
id: meta
uses: docker/metadata-action@98669ae865ea3cffbcbaa878cf57c20bbf1c6c38
with:
images: shclub/edu7
- name: Build and push Docker image
uses: docker/build-push-action@ad44023a93711e3deb337508980b4b5e9bcdc5dc
with:
context: .
push: true
tags: shclub/edu7
#${{ steps.meta.outputs.tags }}
labels: ${{ steps.meta.outputs.labels }}
아래와 같이 생성이 되면 화일명을 docker-hub-publish.yml로 변경을 하고 image 이름을 원하는 이름으로 변경한다.
본인 docker hub id 를 사용한다.
#before
- name: Extract metadata (tags, labels) for Docker
id: meta
uses: docker/metadata-action@98669ae865ea3cffbcbaa878cf57c20bbf1c6c38
with:
images: shclub/edu7
- name: Build and push Docker image
uses: docker/build-push-action@ad44023a93711e3deb337508980b4b5e9bcdc5dc
with:
context: .
push: true
tags: shclub/edu7
labels: ${{ steps.meta.outputs.labels }}
#after
- name: Extract metadata (tags, labels) for Docker
id: meta
uses: docker/metadata-action@98669ae865ea3cffbcbaa878cf57c20bbf1c6c38
with:
images: <본인 도커 계정>/edu7 <-- 수정
- name: Build and push Docker image
uses: docker/build-push-action@ad44023a93711e3deb337508980b4b5e9bcdc5dc
with:
context: .
push: true
tags: <본인 도커 계정>/edu7 <-- 수정
labels: ${{ steps.meta.outputs.labels }}
start commit 버튼을 클릭하면 화일이 신규로 생긴것을 확인할 수가 있고 빌드가 수행이 된다.
Actions Tab 으로 이동하면 Publish Docker image 가 생성이 되고 빌드 파이프 라인이 성공 1개 에러 1개가 발생 한 것을 확인 할 수 있다.
에러를 클릭하면 세부 파이프라인 창으로 이동을 하고 오른편 화면에 에러가 난 곳을 확장 하여 에러메시지를 확인한다.
에러 메시지는 Github Repository (edu7)에 도커 허브 credential을 만들지 않아서 발생한 에러이다.
도커 허브 Credential을 만들기 위해서 setting -> secret 으로 이동하여 Action을 클릭한다.
New Repository Secret를 클릭한다.
docker-hub-publish.yml 에 생성한 것처럼 설정을 한다.
with:
username: ${{ secrets.DOCKER_USERNAME }}
password: ${{ secrets.DOCKER_PASSWORD }}
아래와 같이 secret을 생성한다.
2개의 secret이 생성된 것을 확인 할수 있다.
Actions Tab 으로 이동하여 Publish Docker image 를 선택하고 에러난 화면을 클릭하여 세부 파이프라인 창으로 이동한다.
오른쪽 상단에 Re-run failed job을 선택한다.
Re-run jobs를 클릭한다.
다시 파이프라인을 재실행을 한다.
성공으로 빌드 된것을 확인 할 수 있다.
도커 허브로 이동하여 생성된 이미지를 확인한다.
workflow는 schedule 또는 event trigger를 통해서 동작을 하지만 수동으로 원할때만 빌드 할수 있도록 구성을 할 수 있다.
docker-hub-publish.yml 화일에서 on 아래에 아래와 같이 추가해 준다.
기존의 값은 주석 처리한다. ( jobs 아래 내용은 수정하지 않는다 )
on:
workflow_dispatch:
inputs:
name:
description: "TAG"
required: true
default: "master"
# schedule:
# - cron: '25 2 * * *'
# push:
# branches: [ master ]
# # Publish semver tags as releases.
# tags: [ 'v*.*.*' ]
# pull_request:
# branches: [ master ]
Commit을 하고 Actions Tab으로 이동하면 아래와 같이 Run workflow 버튼이 생성된 것을 확인 할 수 있다.
버튼을 클릭하면 설정한 Input 값이 나오고 Run을 하면 실행이 된다.
SaaS 형 All-In-One 모니터링 솔루션인 DataDog과 연동합니다.
브라우저에서 https://www.datadoghq.com/ 로 이동한후 Free Trial을 클릭합니다.
무료 계정은 14일간 사용이 가능하다.
처음에 나오는 항목은 datadog 서버의 위치를 선택하게 되며 이번 예제는 US5를 기준으로 설명합니다.
가입 완료 후 로그인을 할때 서버위치를 선택하고 로그인 합니다. ( US5 선택 )
Agent Setup 화면이 나오면 왼쪽 상단의 Dog 아이콘을 클릭합니다.
DataDog과 연동하기 위해서는 API / APP Key가 필요합니다.
먼저 기 생성된 API key 와 APP Key를 생성 하기 위해서 왼쪽 하단의 계정을 클릭하고 Organization Setting을 클릭합니다.
APK Key를 클릭하면 오른쪽 화면에 Key라는 값을 확인 할 수 있습니다.
Key 가 있는 라인을 클릭하면 화면이 Pop-up이 되고 Copy 버튼을 클릭하여 key를 복사합니다.
API Key는 하나가 기본적으로 생성이 되지만 APP Key는 직접 생성해야 합니다.
Application Keys를 선택하고 New Key를 클릭합니다.
Name는 원하는 값을 입력하고 Create key 버튼을 클릭합니다.
APP key가 생성되고 Copy key 버튼을 클릭하여 APP Key를 저장합니다.
이제 kubernetes 모니터링을 위해서 DataDog Agent 를 설치합니다.
먼저 터미널로 로그인 한다.
ssh root@(본인 VM 공인 ip) -p 22222
먼저 vi 에디터를 사용하여 datadog-values.yaml 화일을 생성한다.
root@jakelee:~# vi datadog-values.yaml
아래 내용을 복사하여 붙여 넣기를 한다.
# Datadog Agent with Datadog Cluster Agent and
# OrchestratorExplorer (Live Containers), Check Runners, and
# External Metrics Server enabled
targetSystem: "linux"
datadog:
site: us5.datadoghq.com
apiKey: ------
appKey: ------
# If not using secrets, then use apiKey and appKey instead
#apiKeyExistingSecret: datadog-secret
#appKeyExistingSecret: datadog-secret
clusterName: default
tags: []
kubelet:
tlsVerify: "false"
orchestratorExplorer:
enabled: true
logs:
enabled: true
containerCollectAll: true
containerCollectUsingFiles: true
apm:
portEnabled: true
socketPath: /var/run/datadog/apm.socket
hostSocketPath: /var/run/datadog/
processAgent:
enabled: true
processCollection: true
systemProbe:
enableTCPQueueLength: true
enableOOMKill: false
collectDNSStats: true
#agents:
# tolerations:
# These tolerations are needed to run the agent on master nodes
#- effect: NoSchedule
# key: node-role.kubernetes.io/controlplane
# operator: Exists
#- effect: NoExecute
# key: node-role.kubernetes.io/etcd
# operator: Exists
API Key와 APP Key를 본인의 것으로 수정합니다.
site 정보는 us5로 되어 있고 clusterName은 원하는 것으로 변경하면 됩니다.
datadog:
site: us5.datadoghq.com
apiKey: < 본인의 API key >
appKey: < 본인의 APP key >
# If not using secrets, then use apiKey and appKey instead
#apiKeyExistingSecret: datadog-secret
#appKeyExistingSecret: datadog-secret
clusterName: default
kt cloud는 kernel 버전이 낮아 아래 옵션을 true로 설정하면 에러가 발생하여 false로 설정한다.
systemProbe:
enableOOMKill: false
datadog namespace를 생성합니다.
root@jakelee:~# kubectl create namespace datadog
namespace/datadog created
secret 형식으로 api key 와 app key를 사용하기 위해서는 secret 를 생성합니다.
일반 키로 적용 했으면 SKIP.
kubectl create secret generic datadog-secrets --from-literal api-key=<본인 api key> --from-literal app-key=<본인 app key>
실제 예
kubectl create secret generic datadog-secrets --from-literal api-key=111111 --from-literal app-key=11111 -n data dog
helm repository를 추가 합니다.
helm repo add datadog https://helm.datadoghq.com
helm 차트의 최신 버전을 가져 옵니다.
helm repo update
진행하기 전에 아래 명령어를 먼저 수행한다.
kubectl config view --raw > ~/.kube/config
export KUBECONFIG=/etc/rancher/k3s/k3s.yaml
반복 작업을 하지 않기 위해 아래와 같이 실행한다.
# /etc/profile을 vi 에디터로 오픈한다.
vi /etc/profile
# 아래 구문을 추가하고 저장한다.
export KUBECONFIG=/etc/rancher/k3s/k3s.yaml
# 수정된 값을 적용한다.
source /etc/profile
helm (버전 3.x) 을 사용하여 Datadog Agent 를 deploy 합니다.
helm install -f datadog-values.yaml my-datadog datadog/datadog -n datadog
정상적으로 배포가 되었는지 pod를 조회해 본다.
root@jakelee:~# kubectl get po -n datadog
NAME READY STATUS RESTARTS AGE
my-datadog-5vtk6 3/3 Running 0 34h
my-datadog-kube-state-metrics-f9c786668-gmkfg 1/1 Running 0 168m
my-datadog-cluster-agent-77fb7d877c-n4d8v 1/1 Running 0 168m
web browser의 data dog에서 Infrastructure -> Infrastructure List로 이동한다.
Agent가 잘 작동하면 우리가 설정한 서버이름과 정보가 보인다.
서버 Metric 정보도 확인 할수 있다.
Cluster Agent를 설정하였기 때문에 kubernetes의 container 정보를 확인 할 수도 있다.
live container 를 클릭하면 좀더 자세한 k8s 컨테이너 정보를 실시간으로 확인 할 수 있다.
실시간 정보 이외에도 위 상단의 prev 버튼으로 과거의 metric 정보도 확인 할 수 있다.
인프라 Metric은 위에서 처럼 Agent를 설치하면 되지만 Application의 Log 와 Trace를 위해서는 별도 설정이 필요하다.
구성은 다음과 같다.
APM -> Docs 메뉴로 이동한다.
Container Based -> Kubernetes -> Helm Chart -> Python을 선택한다.
Agenst Setup은 이미 완료 했기 때문에 Configure your application container for APM 으로 이동한다.
오른쪽 메뉴를 다 체크를 하면 왼쪽 yaml 파일에 내용이 추가 된것을 확인할수 있다.
vm에서 먼저 테스트 해보기 위해 pip3 버전을 확인한다.
ubuntu 18 버전에서는 python 3.6이 설치 된것 을 확인 할 수 있다.
root@jakelee:~/edu7# pip3 -V
pip 9.0.1 from /usr/lib/python3/dist-packages (python 3.6)
DataDog의 python trace library 인 ddtrace 0.34.0 버전을 설치한다.
- python 3.8 에서는 최신 버전 설치 가능
root@jakelee:~/edu7# pip3 install ddtrace==0.34.0
Collecting ddtrace==0.34.0
Downloading https://files.pythonhosted.org/packages/09/ad/0ae290415ca1ba97d347915b6fe15f2d7d686260f0b177317ec05b9beda3/ddtrace-0.34.0-cp36-cp36m-manylinux1_x86_64.whl (508kB)
100% |████████████████████████████████| 512kB 2.7MB/s
Collecting msgpack>=0.5.0 (from ddtrace==0.34.0)
Downloading https://files.pythonhosted.org/packages/61/3c/2206f39880d38ca7ad8ac1b28d2d5ca81632d163b2d68ef90e46409ca057/msgpack-1.0.3.tar.gz (123kB)
100% |████████████████████████████████| 133kB 10.7MB/s
Building wheels for collected packages: msgpack
Running setup.py bdist_wheel for msgpack ... done
Stored in directory: /root/.cache/pip/wheels/b4/58/67/1a6b3c87c4b15456c801d68297a8d6e9040b1e95f3293a82cf
Successfully built msgpack
Installing collected packages: msgpack, ddtrace
Successfully installed ddtrace-0.34.0 msgpack-1.0.3
flask를 설치한다. ( kt cloud 기준 )
root@jakelee:~/edu7# pip3 install flask==0.11.1
github의 edu7 repository에서 datadog 폴더의 app.py 화일을 복사하여 저장한다.
root@jakelee:~/edu7# vi app.py
아래의 값은 datadog에서 보여지는 이름이기 때문에 적당히 변경하다.
config.env = "jake_edu" # the environment the application is in
config.service = "app" # name of your application
config.version = "0.1" # version of your application
python flask 기동시 아래와 같은 에러가 발생하면
OSError: [Errno 98] Address already in use
5000번 포트를 검색을 한 후 기존 서비스를 kill 한다.
lsof -i:5000
아래 명령어를 사용 하여 서비스를 기동한다.
DD_LOGS_INJECTION=true DD_TRACE_DEBUG=true ddtrace-run python3 app.py
실행해보자.
root@jakelee:~/edu7# DD_LOGS_INJECTION=true DD_TRACE_DEBUG=true ddtrace-run python3 app.py
2022-05-02 14:20:00,182 WARNING [werkzeug] [_internal.py:225] [dd.trace_id=0 dd.span_id=0] - * Running on all addresses.
WARNING: This is a development server. Do not use it in a production deployment.
2022-05-02 14:20:00,182 INFO [werkzeug] [_internal.py:225] [dd.trace_id=0 dd.span_id=0] - * Running on http://172.27.0.134:5000/ (Press CTRL+C to quit)
2022-05-02 14:20:18,471 INFO [__main__] [app.py:36] [dd.trace_id=7289993804914578989 dd.span_id=12183544174804120126] - Container EDU | POD Working : jakelee | v=1
2022-05-02 14:20:18,472 INFO [werkzeug] [_internal.py:225] [dd.trace_id=0 dd.span_id=0] - 127.0.0.1 - - [02/May/2022 14:20:18] "GET / HTTP/1.1" 200 -
새로운 창을 띄워 아래 명령어를 2번 실행 한다.
root@jakelee:~# curl localhost:5000
Container EDU | POD Working : jakelee | v=1
root@jakelee:~# curl localhost:5000
Container EDU | POD Working : jakelee | v=1
root@jakelee:~#
브라우저에서 DataDog으로 로그인 하고 Infrastructure -> Infrastructure List 로 이동한다.
본인의 서버를 클릭하면 오른쪽에 세부 화면이 나오고 trace를 선택하면 2개의 trace를 볼수 있다.
또한 APM -> Traces 를 통하여 진입할 수도 있다.
2개의 데이터중 하나를 클릭한다.
Live Trace를 볼수 있고 아래와 같이 Span 을 그래프 / List / Map 형태로 볼 수 있다.
로그가 수집이 되지 않으면 daemonset을 수정해야 한다.
먼저 daemonset을 조회한다.
root@jakelee:~/edu7# kubectl get daemonset
NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
my-datadog 1 1 1 1 1 kubernetes.io/os=linux 2d5h
수정 모드로 진입하여
root@jakelee:~/edu7# kubectl edit daemonset my-datadog
아래에서 LOG 관련된 값을 true로 설정한다.
- name: DD_APM_ENABLED
value: "true"
- name: DD_LOGS_ENABLED
value: "true"
- name: DD_LOGS_CONFIG_CONTAINER_COLLECT_ALL
value: "true"
- name: DD_LOGS_CONFIG_K8S_CONTAINER_USE_FILE
value: "true"
- name: DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION
value: "true"
k8s의 pod로 구성을 해보자. 구성도는 아래와 같다.
github의 shclub/edu8 리포지토리에 deployment.yaml 를 사용한다.
배포를 적용한다.
root@jakelee:~/edu7# kubectl apply -f deployment.yaml
deployment.apps/edu8 created
pod 의 로그를 확인하고 서비스 ip 와 포트를 확인 한다.
root@jakelee:~/edu7# kubectl logs -f edu8-7dddb77987-hgknh
2022-05-02 06:02:34,492 WARNING [werkzeug] [_internal.py:225] [dd.trace_id=0 dd.span_id=0] - * Running on all addresses.
WARNING: This is a development server. Do not use it in a production deployment.
2022-05-02 06:02:34,493 INFO [werkzeug] [_internal.py:225] [dd.trace_id=0 dd.span_id=0] - * Running on http://10.42.0.200:5000/ (Press CTRL+C to quit)
2022-05-02 06:03:31,391 INFO [__main__] [app.py:36] [dd.trace_id=9691429885235158795 dd.span_id=10369185742989157470] - Container EDU | POD Working : edu8-7dddb77987-hgknh | v=1
창을 하나 더 열어서 아래 명령어를 수행하면 서비스가 호출이 된다.
root@jakelee:~# curl http://10.42.0.200:5000
Container EDU | POD Working : edu8-7dddb77987-hgknh | v=1
브라우저의 DataDog에서 trace를 확인 할 수 있다.
개발 언어 마다 config 별도 설정 해야 하나?
현재 Docker Root 디렉토리를 /data로 변경한다.
도커도 위와 같이 폴더를 변경 할 수 있습니다.
- TIP
- 현재 Docker Root 디렉토리 확인
- docker info | grep "Docker Root Dir"
- 도커 status 정보
- systemctl status docker
- ExecStart로 시작하는 라인 끝에 --data-root=/data/docker 추가
- 현재 Docker Root 디렉토리 확인