티스토리 뷰
에어플로우는 airflow.cfg 에 설정을 할 수도 있지만 실행전에 export 로 환경변수로 설정하면 해당 정보를 실행 시점에 읽어서 변수에 반영합니다.
주의할 점은 버전에 따라 문서의 환경변수가 적용되지 않을 수도 있습니다. 저는 2.2.5 버전의 에어플로우를 사용하는데 문서에는 AIRFLOW__DATABASE__SQL_ALCHEMY_CONN 로 되어 있지만, AIRFLOW__CORE__SQL_ALCHEMY_CONN 으로 설정해야 설정이 적용되었습니다.
이는 airflow.cfg 설정파일을 확인해 보면 [core] 아래 sql_alchemy_conn 이 있는 것을 확인할 수 있습니다. 에어플로우는 설정 파일에 적용된 순서에 따라 파싱을 진행하기 때문에 airflow.cfg 파일을 확인하면 설정명을 이해할 수 있을 것입니다.
실행
반응형
'빅데이터 > airflow' 카테고리의 다른 글
[airflow] PythonOperator의 op_args, op_kwargs 변수 전달 (0) | 2023.07.02 |
---|---|
[airflow 운영] 에어플로우 로그 정리 (1) | 2022.10.25 |
[airflow] Xcom을 이용하여 DAG 간 데이터 전달 (0) | 2022.04.03 |
[airflow] DAG에서 사용하는 멀티 프로세스에서 발생하는 AssertionError: daemonic processes are not allowed to have children (0) | 2022.02.24 |
[airflow] 에어플로우 설치(celery executor + redis) (0) | 2021.12.20 |
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- AWS
- ubuntu
- error
- Python
- S3
- oozie
- SQL
- 알고리즘
- emr
- HDFS
- 백준
- 오류
- mysql
- Hadoop
- 하둡
- 파이썬
- hbase
- java
- Linux
- nodejs
- yarn
- build
- 하이브
- SPARK
- airflow
- bash
- 정올
- 다이나믹
- Tez
- HIVE
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함