log4j 설정을 외부에서 주입하는 방법을 정리합니다.
문제
spark 스리프트 서버를 실행할 때는 로그를 파일로 저장하고, spark beeline 을 실행할 때는 콘솔로 출력해야 했습니다. 같은 로그 설정 파일을 이용하기 때문에 하나의 파일로 두 가지 설정을 출력해야 했습니다.
해결 방법
log4j 에 기본 설정을 두고, 외부에서 설정이 주입되면 외부 설정을 이용할 수 있게 하였습니다.
다음과 같이 설정하여 외부에서 정보가 입력되지 않으면, 설정에 저장된 spark.root.logger 설정을 이용하고, 외부에서 입력되면 외부의 설정이 기본값을 덮어 써서 외부의 값을 이용하게 됩니다.
# log4j 설정
spark.root.logger=INFO,console
spark.log.dir=.
spark.log.file=spark.log
# 루트 로거
log4j.rootCategory=${spark.root.logger}
#
# console
#
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
#
# DRFA
#
log4j.appender.DRFA=org.apache.log4j.DailyRollingFileAppender
log4j.appender.DRFA.File=${spark.log.dir}/${spark.log.file}
log4j.appender.DRFA.DatePattern=.yyyy-MM-dd
log4j.appender.DRFA.layout=org.apache.log4j.PatternLayout
log4j.appender.DRFA.layout.ConversionPattern=%d{ISO8601} %p %c (%t): %m%n
스리프트 서버를 실행 할 때는 외부에서 설정을 주입하여 줍니다.
/usr/lib/jdk/bin/java \
-cp /opt/spark/conf/:/opt/spark/jars/*
-Xmx2g \
-Dspark.root.logger=INFO,DRFA \
-Dspark.log.dir=/var/log/spark \
-Dspark.log.file=spark-ubuntu-thriftserver.log \
org.apache.spark.deploy.SparkSubmit \
--class org.apache.spark.sql.hive.thriftserver.HiveThriftServer2 \
--name "Thrift JDBC/ODBC Server" spark-internal
반응형
'빅데이터' 카테고리의 다른 글
[ranger] 레인저 HDFS plugin 에서 User does not have permission for this operation 오류 (2) | 2024.10.10 |
---|---|
[airflow] 에어플로우에서 생성하는 로그의 umask 설정 (0) | 2024.06.15 |
[ranger] apache ranger 빌드 방법 정리 (0) | 2024.06.15 |
[Iceberg] 아파치 Iceberg 사용 방법. (0) | 2024.04.14 |
[jupyter] 우분투 20에 쥬피터 노트북 설치 및 pyspark 연동 하기 (0) | 2023.03.21 |