티스토리 뷰

EMR에서 하둡, 하이브 작업시 S3에 동시에 많은 요청이 들어가면 503 Slow Down 오류가 발생합니다. S3의 스펙상으로 동시에 5500개 이상의 요청이 들어가면 오류가 발생합니다. 

AmazonS3Exception: Internal Error (Service: Amazon S3; Status Code: 500; Error Code: 500 Internal Error; Request ID: A4DBBEXAMPLE2C4D)
AmazonS3Exception: Slow Down (Service: Amazon S3; Status Code: 503; Error Code: 503 Slow Down; Request ID: A4DBBEXAMPLE2C4D)

https://aws.amazon.com/ko/premiumsupport/knowledge-center/emr-s3-503-slow-down/

 

Amazon EMR에서 HTTP 503 "Slow Down" AmazonS3Exception 해결

이 오류는 Amazon Simple Storage Service(Amazon S3) 요청 빈도(버킷의 접두사당 초당 3,500개의 PUT/COPY/POST/DELETE 및 5,500개의 GET/HEAD 요청)를 초과할 때 발생합니다. 이 문제는 세 가지 방법으로 해결할 수 있습니다. Amazon S3 요청 수를 줄입니다. S3 버킷에 더 많은 접두사를 추가합니다. EMR 파일 시스템(EMRFS) 재시도 제한을 늘립니다.

aws.amazon.com

해결방법

  • 동시에 처리되는 매퍼의 개수를 줄입니다. 
    • 하이브 작업에서는 tez.grouping.max-size, tez.grouping.min-size를 조절하여 동시 작업 개수를 조정할 수 있습니다. 
  • 재작업 회수를 조절합니다. 
    • fs.s3.maxRetries 설정을 늘려서 오류 발생시 재작업을 처리하도록 합니다.
  • 하이브 작업에서는 blob 설정을 추가합니다. 
    • hive.blobstore.optimizations.enabled를 false로 설정
    • 이 설정을 이용하면 하이브 작업에서 발생하는 임시 파일을 hdfs에 쓰게 됩니다. 그리고 최종 작업 파일을 HDFS로 전송하여 중간에 발생하는 임시 파일을 줄여서 S3의 요청빈도를 줄이는 효과가 발생합니다.

 

 

반응형
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
«   2025/01   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함