[하이브] 파티션 복구 하기(repair partitions)

2016. 7. 11. 15:55·빅데이터/hive

하이브는 기본적으로 폴더 구조이기 때문에

다른쪽에서 처리한 데이터나, 기존에 백업해둔 파일을 복사해서

사용할 수도 있다.


hadoop fs -put 명령을 이용하여 기존 파티션 위치에 동일하게 복사하면,

데이터 조회가 가능하다.


이때 기존에 등록되어 있던 파티션인 경우는 상관없지만,

추가되는 경우 파티션을 새로 등록해주어야 한다.


ALTER TABLE ADD PARTITION

명령으로 개별적으로 추가해 줄 수도 있지만,

추가해야할 파티션이 많은 경우 다음의 명령을 이용하여 한꺼번에 처리하면 된다.


MSCK REPAIR TABLE table_name;

ALTER TABLE table_name RECOVER PARTITIONS;


위의 두 명령중 하나를 이용하면 테이블의 로케이션을 검색하여 파티션을 추가해준다.


AWS EMR 에서는 아래의 명령은 동작하지 않으므로, 위의 명령을 이용한다.

데이터가 많을 경우 처리에 시간이 좀 걸린다.



https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL#LanguageManualDDL-RecoverPartitions(MSCKREPAIRTABLE)


반응형
저작자표시 비영리 (새창열림)

'빅데이터 > hive' 카테고리의 다른 글

[hadoop][hive] 리듀서 개수 조절하는 순서  (0) 2016.09.06
[hive][개념] 하이브 서버2(hiverserver2), 비라인(beeline)  (0) 2016.08.26
[에러] hive의 INSERT .. SELECT 작업중 No input paths specified in job 에러  (0) 2016.06.29
[Tip/프로퍼티] hive에서 load 할 파일이 없을 때 발생하는 NullPointerException 회피하기  (0) 2016.01.06
[Hive] 하이브의 정렬, 집계, 유저 함수, 조인, 서브쿼리, 뷰의 정의  (0) 2015.09.14
'빅데이터/hive' 카테고리의 다른 글
  • [hadoop][hive] 리듀서 개수 조절하는 순서
  • [hive][개념] 하이브 서버2(hiverserver2), 비라인(beeline)
  • [에러] hive의 INSERT .. SELECT 작업중 No input paths specified in job 에러
  • [Tip/프로퍼티] hive에서 load 할 파일이 없을 때 발생하는 NullPointerException 회피하기
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    build
    정올
    Linux
    mysql
    Python
    HIVE
    k8s
    백준
    알고리즘
    error
    airflow
    파이썬
    SPARK
    java
    emr
    HDFS
    bash
    하이브
    Tez
    yarn
    Hadoop
    oozie
    S3
    hbase
    AWS
    nodejs
    다이나믹
    ubuntu
    하둡
    오류
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[하이브] 파티션 복구 하기(repair partitions)
상단으로

티스토리툴바