티스토리 뷰
스파크쉘으르 이용하여 작업을 실행하면 작업에 필요한 라이브러리를 묶어서 hdfs에 올리고, 이 라이브러리를 사용해서 워커노드에서 작업을 처리합니다. 따라서 hdfs연결 설정이 올바르지 않으면 해당 오류가 발생합니다.
java.io.FileNotFoundException: File file:/tmp/spark-126d2844-5b37-461b-98a4-3f3de5ece91b/__spark_libs__3045590511279655158.zip
does not exist
at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:611)
해결방법
/etc/spark/spark-env.sh
에서 configuration 설정이 정확하게 연결되었는지 확인하고, mapred-site.xml
설징이 정확한지 확인합니다.
# spark-env.sh의 다음 설정을 확인합니다.
export HADOOP_HOME=${HADOOP_HOME:-/opt/hadoop}
export HADOOP_HDFS_HOME=${HADOOP_HDFS_HOME:-/opt/hadoop}
export HADOOP_MAPRED_HOME=${HADOOP_MAPRED_HOME:-/opt/hadoop}
export HADOOP_YARN_HOME=${HADOOP_YARN_HOME:-/opt/hadoop}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}
반응형
'빅데이터 > spark' 카테고리의 다른 글
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 오류
- 백준
- java
- 파이썬
- nodejs
- Python
- oozie
- hbase
- AWS
- Hadoop
- ubuntu
- 다이나믹
- HDFS
- 하이브
- SPARK
- bash
- 정올
- yarn
- Linux
- error
- build
- SQL
- Tez
- S3
- airflow
- emr
- HIVE
- 알고리즘
- mysql
- 하둡
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함