[sqoop] 스쿱을 이용하여 DB와 HDFS간 데이터 이동, import, export 예제

2017. 3. 10. 09:54·빅데이터/sqoop

스쿱은 대량의 데이터를 아파치 하둡과 RDBMS 사이에서 전송하기 위해 디자인 된 툴이다. 

- 2012년 3월 아파치 톱레벨 프로젝트로 지정

- 현재 1.4.6이 최신 버전(2017.03.10)

- 스쿱2의 최신버전은 1.99.7, 스쿱1과 호환된지 않음, 아직 정식 릴리즈 되지 않음



<주요 기능>

- import: DB -> HDFS 로 데이터를 가져온다. 

- export: HDFS -> DB 로 데이터를 가져온다. 


<import - DB의 데이터를 HDFS로 이동 시킴>

[query 옵션을 이용하는 경우]

- DB의 데이터를 쿼리로 조회하여 target-dir 위치로 복사

sqoop import \

  --connect jdbc:mysql://loclhost:7777/db?zeroDateTimeBehavior=convertToNull \

  --username scott \

  --password tiger \

  --query 'select * from sample_table WHERE $CONDITIONS' \

  --split-by column3 \

  --target-dir hdfs://localhost/user/hadoop/


[table, columns, where 옵션을 이용하는 경우 와 큐이름을 지정하는 경우]

sqoop import \

  -Dmapred.job.queue.name=queue \

  --connect jdbc:mysql://loclhost:7777/db?zeroDateTimeBehavior=convertToNull \

  --username scott \

  --password tiger \

  --table sample_table \

  --columns column1 \

  --where column3=\"eu\" \

  --target-dir hdfs://localhost/user/hadoop/



<export - HDFS의 데이터를 DB로 이동 시킴>

[insert 하기]

- HDFS의 데이터를 DB에 insert 함, export-dir 위치의 데이터를 table 에 입력

sqoop export 

  --connect jdbc:mysql://loclhost:7777/db?zeroDateTimeBehavior=convertToNull \

  --username scott \

  --password tiger \

  --table sample_table \

  --export-dir hdfs://localhost/user/hadoop/ \


[insert 하기 - 칼럼의 이름을 지정하여 입력]
sqoop export 
  --connect jdbc:mysql://loclhost:7777/db?zeroDateTimeBehavior=convertToNull \
  --username scott \
  --password tiger \
  --table sample_table \
  --export-dir hdfs://localhost/user/hadoop/ \
  --columns column1,column2,column3

[update 하기]
- update 는 upudate-key 를 지정하여 처리할 수 있다. 
- columns 를 지정하지 않으면 update-key에 지정한 컬럼을 제외한 모든 칼럼을 update 한다.
- --update-mode는 updateonly, allowinsert 가 있다. 기본값은 updateonly 이다. 
- allowinsert 는 현재는 oracle 만 지원한다. 다른 DB는 프로시저를 이용하여 처리하여야 한다. 
sqoop export 
  --connect jdbc:mysql://loclhost:7777/db?zeroDateTimeBehavior=convertToNull \
  --username scott \
  --password tiger \
  --table sample_table \
  --export-dir hdfs://localhost/user/hadoop/ \
  --columns column1,column2,column3 \
  --update-key column3 \
  --num-mappers 1

[프로시저 call 하기]
sqoop export 
  --connect jdbc:mysql://loclhost:7777/db?zeroDateTimeBehavior=convertToNull \
  --username scott \
  --password tiger \
  --call custom_proc \
  --export-dir hdfs://localhost/user/hadoop/ \
  --num-mappers 1 



스쿱 가이드 - https://sqoop.apache.org/docs/1.4.6/SqoopUserGuide.html#_introduction





반응형
저작자표시 비영리 (새창열림)

'빅데이터 > sqoop' 카테고리의 다른 글

[sqoop] sqoop 설정 정보를 옵션 파일로 전달하는 방법  (0) 2019.09.05
[sqoop] 스쿱과 mysql 연동중 Error reading primary key metadata: java.sql.SQLException: Column 'ORDINAL_POSITION' not found. 오류 처리  (0) 2017.03.10
[sqoop] 스쿱 처리중 invalid callable syntax 오류처리  (0) 2017.03.08
[sqoop] 스쿱실행중 Mixed update/insert is not supported against the target database yet 오류 처리  (0) 2017.03.08
[sqoop] sqoop 처리중 Streaming result set com.mysql.jdbc.RowDataDynamic is still active. 오류 처리  (0) 2017.03.07
'빅데이터/sqoop' 카테고리의 다른 글
  • [sqoop] sqoop 설정 정보를 옵션 파일로 전달하는 방법
  • [sqoop] 스쿱과 mysql 연동중 Error reading primary key metadata: java.sql.SQLException: Column 'ORDINAL_POSITION' not found. 오류 처리
  • [sqoop] 스쿱 처리중 invalid callable syntax 오류처리
  • [sqoop] 스쿱실행중 Mixed update/insert is not supported against the target database yet 오류 처리
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    하둡
    bash
    Linux
    백준
    build
    SPARK
    ubuntu
    정올
    Tez
    HIVE
    emr
    mysql
    Hadoop
    알고리즘
    error
    AWS
    java
    k8s
    yarn
    nodejs
    oozie
    S3
    오류
    hbase
    파이썬
    airflow
    HDFS
    하이브
    다이나믹
    Python
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[sqoop] 스쿱을 이용하여 DB와 HDFS간 데이터 이동, import, export 예제
상단으로

티스토리툴바