[oozie] 우지 워크플로우(workflow) 기본 스펙 및 실행

2019. 4. 19. 10:04·빅데이터/oozie

우지 워크플로우의 기본 스펙과 실행 방법에 대해서 알아보겠습니다.

[워크플로우 기본 스펙]

 

우지 워크플로우는 우지가 실제로 실행하는 작업의 순서를 담고 있습니다. XML 스키마에 맞춰서 작성하면 됩니다.

 

https://oozie.apache.org/docs/4.2.0/WorkflowFunctionalSpec.html#Appendix_A_Oozie_XML-Schema

 

Oozie -

::Go back to Oozie Documentation Index:: Oozie Specification, a Hadoop Workflow System (v3.1) The goal of this document is to define a workflow engine system specialized in coordinating the execution of Hadoop Map/Reduce and Pig jobs. Changelog 2015APR29 #

oozie.apache.org

워크플로우 실행에 실패하면 우지 로그 커맨드(oozie job -log)를 이용하여 오류 원인을 확인하고 수정하면 됩니다. 워크플로우가 서브 워크플로우를 실행할 수도 있고, <fork>, <join>을 이용하여 병렬로 실행할 수도 있습니다. <decision>을 이용하여 작업의 분기를 결정할 수도 있습니다. 하지만 작업 내부적으로 루프(반복문)를 처리할 수 없습니다.

 

다음은 기본적인 워크플로우 작성예시입니다.

 

<workflow-app xmlns="uri:oozie:workflow:0.5" name="workflow_sample_job">

    <parameters>
        <property>
            <name>runDate</name>
            <value>20190101</value>
        </property>
    </parameters>

    <global>
        <job-tracker>127.0.0.1:8032</job-tracker>  <!-- yarn 주소 -->
        <name-node>hdfs://127.0.0.1:8020</name-node>  <!-- 네임노드 주소 -->
        <job-xml>hadoop-conf.xml</job-xml>  <!-- 설정정보를 모아둔 파일 -->
        <configuration>
            <property>
                <name>mapred.job.queue.name</name>
                <value>queue_name</value>
            </property>
        </configuration>
    </global>

    <start to="hive_action" />  <!-- 시작노드 이름 -->

    <action name="hive_action">  <!-- action  -->
        <hive xmlns="uri:oozie:hive-action:0.5">
            <configuration>
                <property>
                    <name>hive.tez.container.size</name>
                    <value>2048</value>
                </property>
                <property>
                    <name>hive.tez.java.opts</name>
                    <value>-Xmx1600m</value>
                </property>
            </configuration>
            <script>sample.hql</script>
            <param>runTime=00</param>
        </hive>
        <ok to="end" />
        <error to="kill" />
    </action>

    <kill name="kill">
        <message>Error!!</message>
    </kill>
    
    <end name="end" />

</workflow-app>

[워크플로우 실행]

워크플로우를 실행하기 위해서는 먼저 작성한 워크플로우와 실행을 위한 쿼리파일을 HDFS에 업로드 해야 합니다. 그리고 업로드한 위치를 oozie.wf.application.path에 설정하고 run 명령을 실행하면 됩니다.

# 파일 업로드 확인 
$ hadoop fs -ls hdfs:///location/
-rw-r--r--   3 hadoop hadoop        103 2019-04-19 01:53 /location/sample.hql
-rw-r--r--   3 hadoop hadoop      10799 2019-04-19 01:53 /location/workflow.xml

# 실행 
oozie job -run -Doozie.wf.application.path=hdfs:///location/
반응형

'빅데이터 > oozie' 카테고리의 다른 글

[oozie][slf4j] SLF4J: Class path contains multiple SLF4J bindings. 오류  (1) 2019.10.25
[oozie] 우지 액션(action) 체크 설정 변경하기  (0) 2019.04.19
[oozie] 코디네이터(coordinator)의 일자 변환 EL 함수 사용법  (0) 2019.03.19
[oozie] 우지의 HDFS EL 함수 알아보기  (0) 2019.02.13
[oozie] 우지 잡의 프로퍼티 업데이트  (0) 2018.12.14
'빅데이터/oozie' 카테고리의 다른 글
  • [oozie][slf4j] SLF4J: Class path contains multiple SLF4J bindings. 오류
  • [oozie] 우지 액션(action) 체크 설정 변경하기
  • [oozie] 코디네이터(coordinator)의 일자 변환 EL 함수 사용법
  • [oozie] 우지의 HDFS EL 함수 알아보기
hs_seo
hs_seo
Hello World!
    반응형
  • hs_seo
    개발자로 살아남기
    hs_seo
  • 전체
    오늘
    어제
    • 전체 (1140)
      • 개발자 (21)
        • 개발에 유의할 점 (0)
        • 면접 (5)
      • IT 소식 (5)
        • 업계 (1)
      • java (51)
        • 디자인패턴 (3)
        • apache-common (1)
      • 개념 (47)
        • 자료구조 (4)
        • 함수형사고 (8)
        • 디자인패턴 (1)
      • 데이터분석 (1)
      • python (67)
        • 코드조각 (12)
        • 라이브러리 (2)
      • 빅데이터 (418)
        • zookeeper (5)
        • hadoop (78)
        • hdfs (12)
        • hive (127)
        • hbase (16)
        • spark (40)
        • scala (4)
        • trino (3)
        • oozie (41)
        • Hue (9)
        • R (5)
        • sqoop (6)
        • flume (3)
        • elasticsearch (2)
        • airflow (16)
        • kafka (3)
        • kubernetes (10)
        • openstack (3)
        • flink (2)
        • redis (2)
      • 빅데이터 강좌 (2)
      • 알고리즘 (131)
        • 알고리즘 (1)
        • 백준 (61)
        • 정올 (41)
        • 더블릿 (5)
        • 프로그래머스 (1)
      • 프로그래밍 언어 (30)
        • go (4)
        • js (9)
        • .Net (6)
        • Jsp (1)
        • ansible (3)
        • terraform (6)
      • Tools (56)
        • docker (2)
        • macbook (6)
        • maven (3)
        • sublime (1)
      • 프레임워크 (25)
        • [JS] angularjs (2)
        • [JS] node.js (19)
        • [Java] spring (2)
        • Android (2)
      • 데이타베이스 (43)
        • SQLD (5)
        • Oracle (1)
        • MySQL (8)
        • ADsP (2)
      • 리눅스 (25)
        • Bash (61)
      • GCP (5)
      • AWS (34)
        • EC2 (2)
        • EMR (14)
      • 정보보안기사 (4)
        • 네트워크 (1)
      • 개인 (80)
        • 업무실수 (0)
        • 책 (9)
        • 교육 (3)
        • 여행 (17)
        • 영화 (12)
        • 음악 (2)
        • 피규어 (4)
        • 게임 (3)
        • 생각 (7)
        • 기타 (10)
        • 좋은글 (5)
        • 좋은 사이트 (2)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 빅데이터-하둡,하이브로 시작하기
    • 빅데이터-스칼라, 스파크로 시작하기
    • Kaggle에서 파이썬으로 데이터 분석 시작하기
    • 쉘스크립트 개발 시작하기
    • 개발자가 데이터 분석 준전문가 되기
    • 데브쿠마
  • 공지사항

  • 인기 글

  • 태그

    파이썬
    Python
    Tez
    build
    HDFS
    알고리즘
    정올
    k8s
    다이나믹
    Linux
    하둡
    하이브
    emr
    java
    airflow
    ubuntu
    oozie
    Hadoop
    bash
    S3
    nodejs
    AWS
    백준
    오류
    HIVE
    hbase
    SPARK
    yarn
    mysql
    error
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
hs_seo
[oozie] 우지 워크플로우(workflow) 기본 스펙 및 실행
상단으로

티스토리툴바