-
Notifications
You must be signed in to change notification settings - Fork 3
/
docker-compose.yml
120 lines (112 loc) · 4.13 KB
/
docker-compose.yml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
version: "3.7"
services:
redis:
image: redis:alpine
container_name: redis
command: redis-server --port 6379
hostname: redis
restart: always
ports:
- "6379:6379"
rabbitmq:
container_name: rabbitmq
image: rabbitmq:3.7.14-management-alpine # RabbitMQ 관리자 페이지를 사용하기 위해 alpine 버전 사용
restart: always
ports:
- "5672:5672" # RabbitMQ 서버 포트
- "15672:15672" # RabbitMQ 관리자 페이지 포트
environment:
RABBITMQ_DEFAULT_USER: ${RABBITMQ_DEFAULT_USER}
RABBITMQ_DEFAULT_PASS: ${RABBITMQ_DEFAULT_PASS}
django:
container_name: django
build:
context: ./backend # Docker 빌드 컨텍스트를 backend 폴더로 설정
dockerfile: Dockerfile # Dockerfile 경로
restart: always
ports:
- "8000:8000"
volumes:
- ./backend:/backend # 코드 변경을 반영하기 위해 호스트와 컨테이너 간에 소스코드 공유
- staticfiles:/backend/static # static 파일을 호스트와 컨테이너 간에 공유
depends_on:
- rabbitmq # rabbitmq 컨테이너가 실행되고 나서 django 컨테이너가 실행되도록 설정
- redis # redis 컨테이너가 실행되고 나서 django 컨테이너가 실행되도록 설정
logging:
driver: "json-file" # 로그 드라이버를 json-file로 설정
options:
max-size: "10m" # 로그 파일의 최대 크기를 10MB로 설정
max-file: "3" # 최대 3개의 로그 파일 보존
environment: &common_env
SECRET_KEY: ${SECRET_KEY}
DB_DATABASE: ${DB_DATABASE}
DB_USERNAME: ${DB_USERNAME}
DB_HOST: ${DB_HOST}
DB_USER_PASSWORD: ${DB_USER_PASSWORD}
OPENAI_API_KEY: ${OPENAI_API_KEY}
NAVER_CLIENT_ID: ${NAVER_CLIENT_ID}
NAVER_CLIENT_SECRET: ${NAVER_CLIENT_SECRET}
AWS_ACCESS_KEY_ID: ${AWS_ACCESS_KEY_ID}
AWS_SECRET_ACCESS_KEY: ${AWS_SECRET_ACCESS_KEY}
AWS_STORAGE_BUCKET_NAME: ${AWS_STORAGE_BUCKET_NAME}
AWS_S3_REGION_NAME: ${AWS_S3_REGION_NAME}
RABBITMQ_DEFAULT_USER: ${RABBITMQ_DEFAULT_USER}
RABBITMQ_DEFAULT_PASS: ${RABBITMQ_DEFAULT_PASS}
AWS_REDIS_HOST: ${AWS_REDIS_HOST}
command: sh -c "/wait && pipenv run python manage.py collectstatic --no-input && pipenv run gunicorn -c gunicorn.conf.py config.asgi:application --bind 0.0.0.0:8000"
celery_worker:
container_name: celery_worker
build:
context: ./backend
dockerfile: Dockerfile
restart: always
ports: []
volumes:
- ./backend:/backend # 코드 변경을 반영하기 위해 호스트와 컨테이너 간에 소스코드 공유
depends_on:
- django
- rabbitmq
environment:
<<: *common_env
command: sh -c "pipenv run celery -A config worker --loglevel=info"
celery_beat:
container_name: celery_beat
build:
context: ./backend
dockerfile: Dockerfile
restart: always
depends_on:
- django
- rabbitmq
- celery_worker
environment:
<<: *common_env
command: sh -c "pipenv run celery -A config beat --loglevel=info"
frontend:
container_name: frontend
build:
context: ./frontend
dockerfile: Dockerfile
ports:
- "3000:3000"
depends_on:
- django # django 컨테이너가 실행되고 나서 frontend 컨테이너가 실행되도록 설정
environment:
VITE_APP_KAKAO_API_KEY: ${VITE_APP_KAKAO_API_KEY}
nginx:
container_name: nginx
build:
context: ./nginx
dockerfile: Dockerfile # Dockerfile 경로
ports:
- "80:80"
depends_on:
- django # django 컨테이너가 실행되고 나서 nginx 컨테이너가 실행되도록 설정
- frontend # frontend 컨테이너가 실행되고 나서 nginx 컨테이너가 실행되도록 설정
volumes:
- ./nginx/nginx.conf:/etc/nginx/nginx.conf # 호스트의 nginx 폴더와 컨테이너의 /etc/nginx/conf.d 폴더를 공유
- staticfiles:/staticfiles # static 파일을 호스트와 컨테이너 간에 공유
- ./nginx/log:/var/log/nginx # nginx 로그를 호스트와 컨테이너 간에 공유
volumes:
elasticsearch:
staticfiles: