[hadoop] HDFS 관련 주요 면접 질문

2017. 9. 11. 14:25·빅데이터/hadoop

-HDFS의 주요 특징은?

  • 블록단위 파일 보관
    • 파일을 사용자가 지정한 단위의 블록으로 분할 하여 저장
    • 분할하여 저장하기 때문에 큰사이즈의 데이터도 저장이 가능
    • 700G 디스크가 2개 있을때 1T파일을 저장하려고 한다면 1T 디스크를 사지 않고, 파일을 분할하여 저장 가능 
  • 분산 저장 파일 시스템
    • 클러스터의 노드에 분산하여 저장이 가능
  • 레플리케이션
    • 하나의 블록을 기본 복제 단위 만큼 복사하여 저장
  • 범용장비 사용
    • 특정 장비가 아니라 일반적인 장비에서 사용이 가능


- HDFS의 구조

  • 네임노드
    • 디렉토리, 파일 정보 관리
    • 블록과 디렉토리간 매핑 정보 관리
    • 파일 시스템의 관리를 위애 fsimage와 edits를 이용
  • 데이타노드
    • 파일을 블록단위로 나누어서 저장
  • 체크포인트 노드, 세컨더리 네임노드
    • fsimage와 edits를 주기적으로 체크하여 체크포인트를 생성하고 이를 이용하여 파일의 수정사항을 관리
    • 체크포인트 노드는 fsimage를 네임노드에 업로드 하고, 세컨더리 네임노드는 업로드 하지 않는다는 차이가 있음
    • 네임노드가 죽는다고 세컨더리 네임노드가 기능을 이어가지 않음


-파일 읽기

  1. 네임노드에서 파일이 보관된 블록 위치 요청
  2. 네임노드가 블록의 위치 반환
  3. 각 데이터 노드에 파일 블록을 요청
    • 노드의 블록이 깨져 있으면 네임노드에 이를 통지하고 다른 블록을 확인

-파일 쓰기
  1. 네임노드에 파일정보를 전송하고, 파일의 블록을 써야할 노드 목록 요청
  2. 네임노드가 파일을 저장할 목록 반환
  3. 데이터 노드에 파일 쓰기 요청
  4. 데이터 노드간에 복제가 진행
- 블록을 보관할 노드 선택
  • 한 랙에 동일한 복제 블록이 존재하지 않도록 설정
  • 데이터 가용성, 읽기/쓰기 성능을 고려하여 선택

- 네임노드 데이터

  • 메모리
    • 파일 시스템 메타 데이터
      • 디렉토리, 파일명, 블록, 블록-데이터 노드 매핑 정보
  • 파일
    • edits: 변경 내역
    • fsimage: 특정시점의 스냅샷
      • 디렉토리, 파일명, 블록, 상태 정보
      • 블록-데이터 노드 매핑정보는 보관하지 않고 네임노드 재기동시 데이터 노드에게서 받음 

- 네임노드 구동과정
  1. 파일로부터 메모리에 데이터 생성
    • fsimage를 읽어와서 메모리에 로딩
    • edits 파일을 읽어와서 메모리에 변경 내역을 반영
  2. 스냅샷 생성
    • 현재의 메모리 상태를 fsimage로 내림
    • 빈 edits 생성
  3. 데이터 노드로부터 매핑정보 수신
    • 메모리에 블록-데이터 노드 매핑정보 생성
  4. 서비스 시작

- 보조 네임노드
  • edits는 최초 재시작할 때만 비어 있음
  • 운영 상태에서는 edits 파일은 계속 증가하게 됨
  • 보조 네임노드는 edits 파일을 정리하여 fsimage에 반영

하둡 HDFS 훑어보기 from beom kyun choi

- 블록, 블록 스캐너란?

  • 블록: HDFS는 데이터를 블록 단위로 구분, 기본사이즈는 128MB
  • 블록스캐너: 블록의 체크섬을 가지고 블록 오류 여부를 확인  
    • 데이터 노드는 주기적으로 블록 스캐너를 실행하여 블록의 체크섬을 확인하고 오류가 발생하면 수정

- Commodity hardware 란 무엇인가?

  • 빅데이터 처리를 위해 따로 하드웨어를 구성하지 않고 범용 하드웨어르 처리 가능

- NameNode 의 기본 포트는?

  • 네임노드의 기본포트는 하둡 설정의 hdfs-site.xml의 설정을 이용하여 변경이 가능하다. 
  • 네임노드의 기본포트는 8020이다. 
  • hdfs://localhost:8020/ 으로 접속이 가능
  • http://blog.cloudera.com/blog/2009/08/hadoop-default-ports-quick-reference/

- HDFS 클러스터 내부의 데이터 복사는 어떻게 진행되는가?

  • 하둡은 클러스터 내의 데이터 복사를 위한 DistCp 기능을 제공한다. 
  • source 위치와 destination 위치를 제공하면 MR 을 이용하여 여러 노드에서 동시에 데이터 복사를 진행하여 준다. 
  • hadoop distcp [source] [dest]
  • https://hadoop.apache.org/docs/current3/hadoop-distcp/DistCp.html


- HDFS replication factor를 갱신하는 방법은?

  • HDFS는 데이터의 분실 및 오류를 방지하기 위해서 하나의 데이터를 블록단위로 복사하여 저장한한다. 
  • 이때 복사하는 데이터의 개수를 replication factor 라고 한다. 기본 설정은 3이다. 
  • 이 설정값의 변경은 fs shell의 setrep 명령을 이용하여 변경이 가능하다. 
  • hadoop fs -setrep 3 -w /path 로 설정하면 된다. 
  • w옵션은 데이터 복사가 완료 될 때까지 대기하게 된다. 시간이 오래 걸릴 수도 있다. 


- NAS와 HDFS의 차이는?

  • NAS는 단일 서버에서 실행되고 HDFS는 클러스터 환경에서 동작한다. 
  • NAS는 데이터 저장의 목적이지만, HDFS는 저장된 데이터의 분석을 목적으로 한다. 

- HDFS에 replication factor 를 1로 주어서 복사하면 어떻게 되는가?

  • HDFS는 설정된 replication factor에 맞게 파일을 복사한다. 
  • 이부분을 1로 주게 되면 파일을 복제하여 저장하지 않고 문제가 발생했을때 파일을 잃어버리게 된다. 


https://www.dezyre.com/article/top-100-hadoop-interview-questions-and-answers-2017/159


반응형
저작자표시 비영리 (새창열림)

'빅데이터 > hadoop' 카테고리의 다른 글

[hive] tez 실행중 메모리 오류 발생  (0) 2017.09.20
[하둡]HDFS의 헬스 체크 및 커럽트 블럭 삭제하기  (0) 2017.09.18
[hadoop] 빅데이터 면접 질문  (0) 2017.09.10
[hdfs] 하둡 hdfs의 휴지통 설정하기  (0) 2017.07.24
[hadoop][fsck] HDFS의 상태를 점검 할 수 있는 명령어  (0) 2017.04.10
'빅데이터/hadoop' 카테고리의 다른 글
  • [hive] tez 실행중 메모리 오류 발생
  • [하둡]HDFS의 헬스 체크 및 커럽트 블럭 삭제하기
  • [hadoop] 빅데이터 면접 질문
  • [hdfs] 하둡 hdfs의 휴지통 설정하기
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    SPARK
    hbase
    백준
    nodejs
    Tez
    Hadoop
    다이나믹
    error
    java
    oozie
    Linux
    오류
    Python
    알고리즘
    yarn
    ubuntu
    하이브
    S3
    mysql
    AWS
    파이썬
    HDFS
    emr
    build
    HIVE
    하둡
    k8s
    정올
    airflow
    bash
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[hadoop] HDFS 관련 주요 면접 질문
상단으로

티스토리툴바