[hive] Hive의 데이터를 CSV 형태의 파일로 export 하는 방법

2018. 3. 30. 16:44·빅데이터/hive

하이브의 데이터를 csv 형태로 export 하는 방법은 다음과 같다. 


다음과 같이 INSERT DIRECTORY 문을 이용화여 파일로 데이터를 작성하는 방법이다. 

데이터 양이 작을 경우에는 LOCAL 문을 추가하여 로컬에 데이터를 저장해도 되고, 

데이터 양이 많다면 hdfs 에 데이터를 저장하면 된다. 


hive -e "

INSERT OVERWRITE [LOCAL] DIRECTORY 'hdfs://hdfs_location'

ROW FORMAT DELIMITED

FIELDS TERMINATED BY ','

STORED AS TEXTFILE

SELECT * FROM temp;" 


* cli 환경에서 상요할 때는 \ 를 추가하여 개행이 되도록 설정


칼럼 헤더를 파일에 추가해야 한다면 다음과 같이 처리하는 방법도 있다. 

hive.cli.print.header 옵션을 이용하여 헤더를 출력하고, 

sed 명령어를 이용하여 칼럼간 구분자인 탭(\t)을 콤마(,)로 바꾸는 방법이다. 

그리고 출력된 데이터를 로컬파일에 저장한다. 


hive -e 'set hive.cli.print.header=true;select * from temp' | sed 's/[\t]/,/g'  > ./local_file.cav


이렇게 출력시점에 구분자를 변경해도 되고, 

CSV 서데를 이용하는 테이블을 생성하여 데이터를 저장하면 이런 변경없이도 바로 출력하면 된다. 


반응형
저작자표시 비영리 (새창열림)

'빅데이터 > hive' 카테고리의 다른 글

[hive] rank() 함수 처리중 Caused by: org.apache.hive.com.esotericsoftware.kryo.KryoException: java.lang.IndexOutOfBoundsException  (0) 2018.04.09
[hive] hive 쿼리 where 조건의 in 사용시 메타 스토어 오류  (0) 2018.04.09
[hive] 하이브에서 insert, delete, update 사용  (0) 2018.03.30
[hive] CBO처리중 힌트 사용시 오류  (0) 2018.03.29
[hive] An error occurred when trying to close the Operator running your custom script. 오류 해결방법  (0) 2018.03.20
'빅데이터/hive' 카테고리의 다른 글
  • [hive] rank() 함수 처리중 Caused by: org.apache.hive.com.esotericsoftware.kryo.KryoException: java.lang.IndexOutOfBoundsException
  • [hive] hive 쿼리 where 조건의 in 사용시 메타 스토어 오류
  • [hive] 하이브에서 insert, delete, update 사용
  • [hive] CBO처리중 힌트 사용시 오류
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    하둡
    emr
    HIVE
    java
    ubuntu
    파이썬
    정올
    Tez
    오류
    yarn
    hbase
    AWS
    알고리즘
    다이나믹
    oozie
    Hadoop
    백준
    bash
    Python
    error
    airflow
    mysql
    S3
    k8s
    Linux
    하이브
    HDFS
    build
    SPARK
    nodejs
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[hive] Hive의 데이터를 CSV 형태의 파일로 export 하는 방법
상단으로

티스토리툴바