1. DAGs 폴더 기본 저장위치 설정
    dags_folder=/var/lib/airflow/dags 
    (airflow 디렉토리 밑의 dags 폴더)
  2. Dag 추가시 Airflow 적용 시기
    dag_dir_list_interval =300
    (5분)
  3. airflow를 api 형태로 외부에서 조작
    api 섹션의 auth_backend -> airflow.api.auth.backend.basic_auth
    + basic_auth : id pw를 가지고 인증하는 방식
  4. variable에서 변수의 값이 encrypted(123***)로 만들기
    변수이름에 아래 단어들이 variable의 key에 들어가야함 password, secret, passwd, authorization, api_key, apikey, access_token

  5. 이 환경 설정 파일이 수정됐다면, 실제로 반영하려면?
    sudo systemctl restart airflow-webserver
    sudo systemctl restart airflow-scheduler

  6. metadata db의 내용을 암호화
    fernet_key
  7. 시간 세팅
    default_timezone : 스케줄러가 실행하는 시간(start_date,end_date,schedule)
    + execution_date,로그기록시간은 예외적으로 영국기준시UTC를 따라 혼동을 준다.
    + 따라서 전부다 UTC로 통일하는걸 권장
    default_ui_timezone : 웹 사용자 인터페이스(UI)에서 사용되는 기본 시간대

 

 

목표

  • yahoo finance API를 호출해서 애플 주식 정보 수집( 지난 30일)
  • redshift 상의 테이블로 1에서 받은 레코드들을 적재하고 중복 제거
  • incremental 업데이트 방식으로 매일 하루치의 데이터가 늘어나야함
  • 트랜잭션 형태 구성

간단 프로세스

  1. 임시 테이블(tem)을 임시 생성하면서 원본 테이블의 레코드를 복사(CREATE TEMP TABLE ...AS SELECT)
  2. 임시 테이블로 Yahoo finance API로 읽어온 레코드를 적재
  3. 원본 테이블 삭제하고 새로 생성
  4. 원본 테이블에 임시 테이블 내용을 복사( select distinct*를 사용해서 중복제거)

코드

# 필요한 라이브러리 및 모듈을 가져옵니다
from airflow import DAG
from airflow.decorators import task
from airflow.providers.postgres.hooks.postgres import PostgresHook
from datetime import datetime
from pandas import Timestamp

import yfinance as yf
import pandas as pd
import logging

# Redshift 연결을 가져오는 함수
def get_Redshift_connection(autocommit=True):
    hook = PostgresHook(postgres_conn_id='redshift_dev_db')
    conn = hook.get_conn()
    conn.autocommit = autocommit
    return conn.cursor()

# 특정 주식 심볼에 대한 역사적 주가를 가져오는 태스크
@task
def get_historical_prices(symbol):
    # yfinance 라이브러리를 사용하여 주식의 역사적 가격을 가져옵니다
    ticket = yf.Ticker(symbol)
    data = ticket.history()
    records = []

    # 데이터를 Redshift로 로딩하기 위해 변환 및 구조화
    for index, row in data.iterrows():
        date = index.strftime('%Y-%m-%d %H:%M:%S')
        records.append([date, row["Open"], row["High"], row["Low"], row["Close"], row["Volume"]])

    return records

# Redshift에서 테이블을 만들거나 삭제하는 함수
def _create_table(cur, schema, table, drop_first):
    if drop_first:
        cur.execute(f"DROP TABLE IF EXISTS {schema}.{table};")
    cur.execute(f"""
CREATE TABLE IF NOT EXISTS {schema}.{table} (
    date date,
    "open" float,
    high float,
    low float,
    close float,
    volume bigint
);""")

# 역사적 주식 가격을 Redshift로 로딩하는 태스크
@task
def load(schema, table, records):
    logging.info("로딩 시작")
    cur = get_Redshift_connection()
    try:
        cur.execute("BEGIN;")

        # 처음실행된 경우 예외 : 원본 테이블이 없으면 생성 , drop_first= False
        _create_table(cur, schema, table, False)

        # 1. 임시 테이블(tem)을 임시 생성하면서 원본 테이블의 레코드를 복사
        cur.execute(f"CREATE TEMP TABLE t AS SELECT * FROM {schema}.{table};")
        # 2. 임시 테이블로 Yahoo finance API로 읽어온 레코드를 적재
        for r in records:
            sql = f"INSERT INTO t VALUES ('{r[0]}', {r[1]}, {r[2]}, {r[3]}, {r[4]}, {r[5]});"
            print(sql)
            cur.execute(sql)

        # 3. 원본 테이블 삭제하고 새로 생성  , drop_first= True
        _create_table(cur, schema, table, True)

        # 4. 원본 테이블에 임시 테이블 내용을 복사
        cur.execute(f"INSERT INTO {schema}.{table} SELECT DISTINCT * FROM t;")
        cur.execute("COMMIT;")   # cur.execute("END;")
    except Exception as error:
        print(error)
        cur.execute("ROLLBACK;") 
        raise
    logging.info("로딩 완료")

# DAG를 정의합니다
with DAG(
    dag_id='UpdateSymbol_v2',
    start_date=datetime(2023, 5, 30),
    catchup=False,
    tags=['API'],
    schedule='0 10 * * *'  # DAG를 매일 오전 10:00에 실행
) as dag:

    # 주식 심볼 "AAPL"에 대한 역사적 가격을 가져오는 태스크
    results = get_historical_prices("AAPL")
    # 가져온 역사적 가격을 Redshift 테이블 "stock_info_v2"로 로딩하는 태스크
    load("본인스키마", "stock_info_v2", results)

 

실행

  • dags 폴더에 진입
    weare@DESKTOP-BE1I4GE:~/airflow-setup$ cd dags

  • 수정할 dag 파일 찾음
    weare@DESKTOP-BE1I4GE:~/airflow-setup/dags$ ls
    Backup_Airflow_Data_to_S3.py  HelloWorld.py                  Learn_TaskGroups.py         NameGenderCSVtoRedshift_v2.py  TestDAG.py                 __pycache__               get_price_GOOG.py
    Build_Summary.py              HelloWorld_v2.py               Learn_TriggerRule.py        NameGenderCSVtoRedshift_v3.py  UpdateSymbol.py            config                    plugins
    Build_Summary_v2.py           Learn_BranchPythonOperator.py  MySQL_to_Redshift.py        NameGenderCSVtoRedshift_v4.py  UpdateSymbol_v2.py         docker-compose.test.yaml  trigger_dags
    Cleanup_Log.py                Learn_Jinja.py                 MySQL_to_Redshift_v2.py     NameGenderCSVtoRedshift_v5.py  Weather_to_Redshift.py     dynamic_dags
    Gsheet_to_Redshift.py         Learn_LatestOnlyOperator.py    NameGenderCSVtoRedshift.py  SQL_to_Sheet.py                Weather_to_Redshift_v2.py  get_price_APPL.py

  • vim 편집기로 UpdateSymbol_v2.py 파일에 스키마, 레드쉬프트의 본인 스키마로 교체
    weare@DESKTOP-BE1I4GE:~/airflow-setup/dags$ vim UpdateSymbol_v2.py
  • 웹 ui(http://localhost:8080/) 에서 정상 실행 확인

목표

  • yahoo finance API를 호출해서 애플 주식 정보 수집( 지난 30일)
  • redshift 상의 테이블로 1에서 받은 레코드들을 적재
  • full refresh로 구현
  • 트랜잭션 형태를 구현

코드 

from airflow import DAG
from airflow.decorators import task
from airflow.providers.postgres.hooks.postgres import PostgresHook
from datetime import datetime
from pandas import Timestamp

import yfinance as yf
import pandas as pd
import logging


def get_Redshift_connection(autocommit=True):
    hook = PostgresHook(postgres_conn_id='redshift_dev_db')
    conn = hook.get_conn()
    conn.autocommit = autocommit
    return conn.cursor()


@task
def get_historical_prices(symbol):
    ticket = yf.Ticker(symbol)
    data = ticket.history()
    records = []

    for index, row in data.iterrows():
        date = index.strftime('%Y-%m-%d %H:%M:%S')
        records.append([date, row["Open"], row["High"], row["Low"], row["Close"], row["Volume"]])

    return records

@task
def load(schema, table, records):
    logging.info("load started")
    cur = get_Redshift_connection()
    try:
        cur.execute("BEGIN;")
        cur.execute(f"DROP TABLE IF EXISTS {schema}.{table};")
        cur.execute(f"""
CREATE TABLE {schema}.{table} (
    date date,
    "open" float,
    high float,
    low float,
    close float,
    volume bigint
);""")
        # DELETE FROM을 먼저 수행 -> FULL REFRESH을 하는 형태
        for r in records:
            sql = f"INSERT INTO {schema}.{table} VALUES ('{r[0]}', {r[1]}, {r[2]}, {r[3]}, {r[4]}, {r[5]});"
            print(sql)
            cur.execute(sql)
        cur.execute("COMMIT;")   # cur.execute("END;")
    except Exception as error:
        print(error)
        cur.execute("ROLLBACK;")
        raise

    logging.info("load done")


with DAG(
    dag_id = 'UpdateSymbol',
    start_date = datetime(2023,5,30),
    catchup=False,
    tags=['API'],
    schedule = '0 10 * * *'
) as dag:

    results = get_historical_prices("AAPL")
    load("wearealego", "stock_info", results)

 

실습

  1. 컨테이너 부팅시마다 모듈 설치를 위해 yaml 파일 수정 
    weare@DESKTOP-BE1I4GE:~/airflow-setup$ ls
    README.md  dags  docker-compose.yaml  docs  learn-airflow  logs  plugins

  2. vim 편집기로 yaml 파일 열기
    weare@DESKTOP-BE1I4GE:~/airflow-setup$ vim docker-compose.yaml

  3. 내용 수정(해당 빨간선 내용 추가) : 실습에 필요한 yfinanace 포함 기초적으로 필요한 모듈들.
  4. dags 폴더로 이동
    weare@DESKTOP-BE1I4GE:~/airflow-setup$ cd dags

  5. 내용 바꾸려는 dag인 UpdateSymbol.py 찾음
    weare@DESKTOP-BE1I4GE:~/airflow-setup/dags$ ls
    Backup_Airflow_Data_to_S3.py  HelloWorld.py                  Learn_TaskGroups.py         NameGenderCSVtoRedshift_v2.py  TestDAG.py                 __pycache__               get_price_GOOG.py
    Build_Summary.py              HelloWorld_v2.py               Learn_TriggerRule.py        NameGenderCSVtoRedshift_v3.py  UpdateSymbol.py            config                    plugins
    Build_Summary_v2.py           Learn_BranchPythonOperator.py  MySQL_to_Redshift.py        NameGenderCSVtoRedshift_v4.py  UpdateSymbol_v2.py         docker-compose.test.yaml  trigger_dags
    Cleanup_Log.py                Learn_Jinja.py                 MySQL_to_Redshift_v2.py     NameGenderCSVtoRedshift_v5.py  Weather_to_Redshift.py     dynamic_dags
    Gsheet_to_Redshift.py         Learn_LatestOnlyOperator.py    NameGenderCSVtoRedshift.py  SQL_to_Sheet.py                Weather_to_Redshift_v2.py  get_price_APPL.py

  6. vim 편집기로 UpdateSymbol.py 진입 후 본인 아이디로 수정 후 저장 
    weare@DESKTOP-BE1I4GE:~/airflow-setup/dags$ vim UpdateSymbol.py
  7. 커맨드 라인에서 test 해보자
    1) 도커 스케줄러 주소 확인
    weare@DESKTOP-BE1I4GE:~/airflow-setup$ docker ps
    CONTAINER ID   IMAGE                  COMMAND                  CREATED          STATUS                    PORTS                                       NAMES
    13c7de52342d   apache/airflow:2.5.1   "/usr/bin/dumb-init …"   12 minutes ago   Up 12 minutes (healthy)   8080/tcp                                    airflow-setup_airflow-triggerer_1
    8e40ffd79576   apache/airflow:2.5.1   "/usr/bin/dumb-init …"   12 minutes ago   Up 12 minutes (healthy)   0.0.0.0:8080->8080/tcp, :::8080->8080/tcp   airflow-setup_airflow-webserver_1
    c57811bc9ba1   apache/airflow:2.5.1   "/usr/bin/dumb-init …"   12 minutes ago   Up 12 minutes (healthy)   8080/tcp                                    airflow-setup_airflow-worker_1
    f14cc34e94be   apache/airflow:2.5.1   "/usr/bin/dumb-init …"   12 minutes ago   Up 12 minutes (healthy)   8080/tcp                                    airflow-setup_airflow-scheduler_1
    48ee152ae746   redis:latest           "docker-entrypoint.s…"   3 days ago       Up 12 minutes (healthy)   6379/tcp                                    airflow-setup_redis_1
    a5e756836619   postgres:13            "docker-entrypoint.s…"   3 days ago       Up 12 minutes (healthy)   5432/tcp                                    airflow-setup_postgres_1

    2) 스케줄러 shell 접속
    weare@DESKTOP-BE1I4GE:~/airflow-setup$ docker exec -it f14cc34e94be sh

    3) UpdateSymbol의 dag 리스트 확인
    (airflow)airflow tasks list UpdateSymbol
    /home/airflow/.local/lib/python3.7/site-packages/airflow/models/base.py:49 MovedIn20Warning: [31mDeprecated API features detected! These feature(s) are not compatible with SQLAlchemy 2.0. [32mTo prevent incompatible upgrades prior to updating applications, ensure requirements files are pinned to "sqlalchemy<2.0". [36mSet environment variable SQLALCHEMY_WARN_20=1 to show all deprecation warnings.  Set environment variable SQLALCHEMY_SILENCE_UBER_WARNING=1 to silence this message.[0m (Background on SQLAlchemy 2.0 at: https://sqlalche.me/e/b8d9)
    SELECT * FROM prod.nps WHERE DATE(created_at) = DATE('{{ execution_date }}')
    get_historical_prices
    load

    4) UpdateSymbol  dag 테스트 
    (airflow)airflow dags test UpdateSymbol 2023-05-30
    (중략)
    [2024-01-01 16:02:30,217] {dagrun.py:673} INFO - DagRun Finished: dag_id=UpdateSymbol, execution_date=2023-05-30T00:00:00+00:00, run_id=manual__2023-05-30T00:00:00+00:00, run_start_date=2023-05-30T00:00:00+00:00, run_end_date=2024-01-01 16:02:30.216874+00:00, run_duration=18720150.216874, state=success, external_trigger=False, run_type=manual, data_interval_start=2023-05-30T00:00:00+00:00, data_interval_end=2023-05-30T10:00:00+00:00, dag_hash=None

정상실행 완료!

+ Recent posts