[s3] S3 V4 인증 오류

2016. 11. 1. 10:56·AWS

The authorization mechanism you have provided is not supported. Please use AWS4-HMAC-SHA256.


예전에 만든 EC2서버에서 새로운 지역의 S3 이용중 위와 같은 오류가 발생할 수가 있다. 


이는 기존에는 2버전의 인증을 이용했지만, 2014년 2월 이후 생성된 지역은 4버전의 인증을 이용하기 때문에 발생한다. 


Amazon S3 supports Signature Version 4, a protocol for authenticating inbound API requests to AWS services, in all AWS regions. At this time, AWS regions created before January 30, 2014 will continue to support the previous protocol, Signature Version 2. Any new regions after January 30, 2014 will support only Signature Version 4 and therefore all requests to those regions must be made with Signature Version 4. For more information about AWS Signature Version 2, see Signing and Authenticating REST Requests in the Amazon Simple Storage Service Developer Guide.


이는 아마존이 제공하는 AWS 커맨드나 SDK를 최신버전으로 업데이트 하면 된다. 


다른 경우에는 아마존이 제공하는 방법을 따라 헤더에 인증정보를 입력하면 된다. 


http://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html


반응형
저작자표시 비영리 (새창열림)

'AWS' 카테고리의 다른 글

[AWS][S3] AWS 커맨드의 The AWS Access Key Id you provided does not exist in our records. 오류 처리  (0) 2017.03.20
[aws][s3] s3의 용량 확인하기  (0) 2016.11.23
[AWS] aws 커맨드의 sync 명령을 이용하여 s3 데이터 동기화  (0) 2016.07.01
[스크랩] aws s3 커맨드로 버켓의 용량 확인하기  (0) 2016.06.28
[AWS] aws 커맨드의 credential 파일 설정하기  (0) 2016.06.20
'AWS' 카테고리의 다른 글
  • [AWS][S3] AWS 커맨드의 The AWS Access Key Id you provided does not exist in our records. 오류 처리
  • [aws][s3] s3의 용량 확인하기
  • [AWS] aws 커맨드의 sync 명령을 이용하여 s3 데이터 동기화
  • [스크랩] aws s3 커맨드로 버켓의 용량 확인하기
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    알고리즘
    다이나믹
    HDFS
    SPARK
    ubuntu
    파이썬
    하둡
    오류
    Tez
    k8s
    yarn
    S3
    java
    build
    정올
    Python
    airflow
    백준
    AWS
    emr
    Linux
    mysql
    oozie
    hbase
    bash
    HIVE
    error
    하이브
    Hadoop
    nodejs
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[s3] S3 V4 인증 오류
상단으로

티스토리툴바