[spark] Service 'sparkDriver' could not bind on a random free port. 오류 해결
스파크쉘의 마스터를 yarn으로 설정하고 yarn 클러스터 외부의 클라이언트에서 실행할 때 다음의 오류가 발생하는 경우가 있습니다. 오류 $ ./spark-shell --master yarn Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 20/09/09 16:01:26 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 20/09/09 16:0..
빅데이터/spark
2020. 9. 13. 20:45
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 백준
- oozie
- java
- bash
- 정올
- HDFS
- Hadoop
- 하이브
- Tez
- ubuntu
- mysql
- 오류
- AWS
- 하둡
- hbase
- HIVE
- build
- airflow
- SQL
- SPARK
- Python
- emr
- Linux
- 다이나믹
- 알고리즘
- 파이썬
- nodejs
- yarn
- error
- S3
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함