[hadoop] 하둡 3.0의 신규기능과 이레이져 코딩

2016. 10. 12. 23:23·빅데이터/hadoop

<하둡 3.0의 특징>

하둡 홈페이지에 기술된 특징은 다음과 같다. 


- Minimum required Java version increased from Java 7 to Java 8

- Support for erasure encoding in HDFS

- YARN Timeline Service v.2

- Shell script rewrite

- MapReduce task-level native optimization

- Support for more than 2 NameNodes.

- Default ports of multiple services have been changed.

- Support for Microsoft Azure Data Lake filesystem connector

- Intra-datanode balancer

- Reworked daemon and task heap management


하둡 3.0의 주요 특징인 이레이저 코딩은 마이크로 소프트의 여기(https://docs.microsoft.com/ko-kr/windows-server/storage/storage-spaces/storage-spaces-fault-tolerance)를 확인하면 잘 알 수 있습니다.


기존 데이터 복제 방식은 1개의 데이터를 3개의 데이터로 복제하여 저장하기 때문에 저장소가 3배 필요합니다. 이레이저 코딩은 패리티 비트를 이용하는 방식으로 1개의 데이터에 0.5개의 패리티 비트를 이용하여 저장하기 때문에 저장소가 1.5배 필요합니다. 따라서 저장소의 효율성이 증가합니다.



http://hadoop.apache.org/docs/r3.0.0-alpha1/index.html

업그레이드를 부르는 하둡 3.0 신규 기능 살펴보기

클라우데라 - 하둡 3.0

하둡 3.0 무엇이 달라졌나?

이레이저 코딩





반응형
저작자표시 비영리 (새창열림)

'빅데이터 > hadoop' 카테고리의 다른 글

[hadoop] 하둡 처리중 NoClassDefFoundError 오류가 발생하는 경우  (0) 2016.10.27
[hadoop] distcp 사용하기  (0) 2016.10.26
[hdfs] Non DFS used 용량  (0) 2016.08.25
[hadoop] HDFS의 유용한 명령어  (0) 2016.07.27
[에러] 하둡 처리중 could only be replicated to 0 nodes instead of minReplication (=1)  (0) 2016.06.29
'빅데이터/hadoop' 카테고리의 다른 글
  • [hadoop] 하둡 처리중 NoClassDefFoundError 오류가 발생하는 경우
  • [hadoop] distcp 사용하기
  • [hdfs] Non DFS used 용량
  • [hadoop] HDFS의 유용한 명령어
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    yarn
    mysql
    SPARK
    ubuntu
    다이나믹
    emr
    oozie
    Hadoop
    Python
    HIVE
    airflow
    build
    Linux
    파이썬
    S3
    하둡
    HDFS
    알고리즘
    오류
    Tez
    k8s
    nodejs
    java
    bash
    정올
    AWS
    하이브
    hbase
    error
    백준
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[hadoop] 하둡 3.0의 신규기능과 이레이져 코딩
상단으로

티스토리툴바