다음의 오류가 발생하면 해결방법은 2개가 있는 것 같다.
우선 하나는 mapreduce.tasktracker.http.threads 를 수정하는 것이고,
다른하나는 slave 파일에 호스트 정보를 추가하는 것이다.
Caused by: java.io.IOException: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
1번 mapred-site.xml 의 mapreduce.tasktracker.http.threads 값을 기본 40에서 더 큰수로 설정 하고 하둡을 재시작한다.
mapreduce.tasktracker.http.threads: 맵의 출력 데이터를 리듀스 태스크에게 제공하기 위한 태스크 트래커의 워커 스레드개수 설정
전체 클러스터에 적용되며, 잡별로 다르게 설정할 수는 없음
2번 노드 통신상의 문제일 수도 있기 때문에 slave 파일에 노드의 주소를 적어준다.
반응형
'빅데이터 > hadoop' 카테고리의 다른 글
[에러] 하둡 처리중 could only be replicated to 0 nodes instead of minReplication (=1) (0) | 2016.06.29 |
---|---|
[팁] hdfs 에 파일 업로드시 권한문제가 발생할 때 해결방법 (1) | 2016.06.16 |
[팁] JVM을 재사용하여 성능을 향상 시키기 (0) | 2016.02.12 |
[hadoop] 하둡 명령어, 자주 사용하는 커맨드(hadoop command) (0) | 2016.01.25 |
[개념] 쓰리프트 (0) | 2015.09.14 |