[hive][EMR] EMR의 하이브 작업이 쓴 파일 확인하기

2016. 9. 30. 11:26·빅데이터/hive

EMR 하이브 처리결과가 파일로 저장될 때 파일명은 

EMR에서 임의의 값으로 설정해 준다. 


hdfs://location/175508f3-1524-46ee-88c2-24722c5d5749-000XXX


이로 인하여 같은 파티션에 파일이 저장되면 어떤 잡이 해당 파일을 썻는지 알 수가 없다. 


이럴때는 하이브 잡로그를 확인하여 결과를 확인해야 한다. 


하이브 테이블 로케이션을 s3로 잡은 경우 파일은 최종적으로 

'com.amazon.ws.emr.hadoop.fs.s3n.Jets3tNativeFileSystemStore' 

클래스를 이용하여 파일이 쓰여진다. 


또한 'org.apache.hadoop.hive.ql.exec.FileSinkOperator' 클래스도 파일 쓰기에 관여하기 때문에 

이 클래스의 정보를 grep 으로 찾아보아도 된다. 


따라서 로그에서 이 클래스관련 정보를 grep 해서 찾아보면 파일의 최종위치를 알 수 있다. 



<로그 확인>

yarn logs -applicationId application_XXXX_xxxx | grep com.amazon.ws.emr.hadoop.fs.s3n.Jets3tNativeFileSystemStore


반응형
저작자표시 비영리 (새창열림)

'빅데이터 > hive' 카테고리의 다른 글

[hive] 하이브 테이블의 null 값 표현  (0) 2016.10.24
[hive][error] MetaException(message:Metastore contains multiple versions) 처리  (0) 2016.10.07
[hive] 하이브의 가상 컬럼(virtual column)을 이용하여 파일 내용 삭제  (0) 2016.09.30
[하이브] 매니지드 테이블과 익스터널 테이블 변경하기  (0) 2016.09.23
[hive] skewed 테이블  (0) 2016.09.12
'빅데이터/hive' 카테고리의 다른 글
  • [hive] 하이브 테이블의 null 값 표현
  • [hive][error] MetaException(message:Metastore contains multiple versions) 처리
  • [hive] 하이브의 가상 컬럼(virtual column)을 이용하여 파일 내용 삭제
  • [하이브] 매니지드 테이블과 익스터널 테이블 변경하기
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    yarn
    SPARK
    error
    build
    AWS
    알고리즘
    Linux
    k8s
    하둡
    S3
    airflow
    HIVE
    다이나믹
    hbase
    정올
    Hadoop
    bash
    Tez
    오류
    java
    emr
    HDFS
    파이썬
    oozie
    백준
    Python
    하이브
    ubuntu
    mysql
    nodejs
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[hive][EMR] EMR의 하이브 작업이 쓴 파일 확인하기
상단으로

티스토리툴바