티스토리 뷰
스파크쉘으르 이용하여 작업을 실행하면 작업에 필요한 라이브러리를 묶어서 hdfs에 올리고, 이 라이브러리를 사용해서 워커노드에서 작업을 처리합니다. 따라서 hdfs연결 설정이 올바르지 않으면 해당 오류가 발생합니다.
java.io.FileNotFoundException: File file:/tmp/spark-126d2844-5b37-461b-98a4-3f3de5ece91b/__spark_libs__3045590511279655158.zip
does not exist
at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:611)
해결방법
/etc/spark/spark-env.sh
에서 configuration 설정이 정확하게 연결되었는지 확인하고, mapred-site.xml
설징이 정확한지 확인합니다.
# spark-env.sh의 다음 설정을 확인합니다.
export HADOOP_HOME=${HADOOP_HOME:-/opt/hadoop}
export HADOOP_HDFS_HOME=${HADOOP_HDFS_HOME:-/opt/hadoop}
export HADOOP_MAPRED_HOME=${HADOOP_MAPRED_HOME:-/opt/hadoop}
export HADOOP_YARN_HOME=${HADOOP_YARN_HOME:-/opt/hadoop}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}
반응형
'빅데이터 > spark' 카테고리의 다른 글
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- SQL
- S3
- 백준
- AWS
- HIVE
- Python
- 파이썬
- build
- 하둡
- 정올
- ubuntu
- error
- 다이나믹
- bash
- 하이브
- airflow
- Linux
- nodejs
- Tez
- yarn
- mysql
- java
- SPARK
- 오류
- Hadoop
- emr
- HDFS
- hbase
- oozie
- 알고리즘
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함