[AWS] aws 커맨드의 credential 파일 설정하기

2016. 6. 20. 13:55·AWS

AWS 커맨드에서 신임장은 S3버켓의 위치region)과 키 설정, 파일 포맷 설정에 사용된다.

매번 커맨드시에 입력하는 것이 번거롭기 때문에 신임장 파일에 저장해 놓고 사용하면된다. 


- AWS 커맨드를 이용해서 설정하는 것도 가능하고, 파일을 생성해서 사용하는 것도 가능하다. 


AWS 커맨드에서 사용하는 신임장(credential) 설정방법은 다음과 같다. 



<기본 신임장 설정>

$ aws configure
AWS Access Key ID [None]: AKIAIOSFODNN7EXAMPLE
AWS Secret Access Key [None]: wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY
Default region name [None]: us-west-2
Default output format [None]: ENTER


신임장을 여러개 놓고 사용하는 것도 가능하다. 

아래는 user2 이름으로 설정하는 방법이다. 

$ aws configure --profile user2
AWS Access Key ID [None]: AKIAI44QH8DHBEXAMPLE
AWS Secret Access Key [None]: je7MtGbClwBF/2Zp9Utk/h3yCo8nvbEXAMPLEKEY
Default region name [None]: us-east-1
Default output format [None]: text

이렇게 설정된 파일들은 사용자 홈디렉토리 아래의 
.aws/credentials, .aws/config
파일에 저장된다. 

aws 커맨드에서 사용시 --profile 옵션을 이용하여 프로파일 정보를 선택하면 된다. 
$ aws ec2 describe-instances --profile user2


http://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html


반응형
저작자표시 비영리 (새창열림)

'AWS' 카테고리의 다른 글

[s3] S3 V4 인증 오류  (0) 2016.11.01
[AWS] aws 커맨드의 sync 명령을 이용하여 s3 데이터 동기화  (0) 2016.07.01
[스크랩] aws s3 커맨드로 버켓의 용량 확인하기  (0) 2016.06.28
s3 블록파일 시스템과 s3 네이티브 파일시스템의 차이  (0) 2016.04.28
[AWS] 아마존 EC2 인스턴스의 메타정보 확인  (0) 2015.01.28
'AWS' 카테고리의 다른 글
  • [AWS] aws 커맨드의 sync 명령을 이용하여 s3 데이터 동기화
  • [스크랩] aws s3 커맨드로 버켓의 용량 확인하기
  • s3 블록파일 시스템과 s3 네이티브 파일시스템의 차이
  • [AWS] 아마존 EC2 인스턴스의 메타정보 확인
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    다이나믹
    하둡
    오류
    emr
    Linux
    파이썬
    airflow
    HDFS
    build
    HIVE
    정올
    백준
    mysql
    Hadoop
    error
    SPARK
    bash
    Tez
    하이브
    k8s
    oozie
    Python
    ubuntu
    알고리즘
    nodejs
    java
    hbase
    yarn
    S3
    AWS
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[AWS] aws 커맨드의 credential 파일 설정하기
상단으로

티스토리툴바