728x90
반응형

페이스북 시계열 분석 라이브러리 : Prophet

📍 시계열 예측을 그래프(시각화)로 표현하는 모델
📍 Prophet 모델에 넣어줘야 하는 데이터 형태
- index는 날짜, Data컬럼, Adj Close(수정종가) 컬럼
- Prophet에서 사용하는 컬럼명은 ds, y 컬럼명을 사용함
     > 기존 컬럼명을 수정해야함
     > Data 컬럼명은 ds로, Adj Close 컬럼명은 y로 수정

데이터 프레임 수정

### 원본데이터에서
# - 최종 데이터 프레임 변수명 : prophet_data
prophet_data = goog_data.copy()

# - Date index는 컬럼 데이터로 변환
prophet_data.reset_index(inplace=True)

# - 훈련에 사용할 컬럼명 : Date, Adj Close
# - 훈련에 사용하지 않는 컬럼은 삭제
prophet_data.drop(["Open", "High", "Low", "Close", "Volume"], axis=1, inplace=True)

# - 훈련에 사용할 컬럼명 변경 : Data > ds, Adj Close > y
prophet_data.columns = ['ds', 'y']

# - ds 데이터 타입 변경
prophet_data["ds"] = pd.to_datetime(prophet_data["ds"])
prophet_data

 

 

Prophet 라이브러리 설치

📍Prophet 라이브러리 
- 가상환경 새로 만들어서 진행 : 버전 충돌이 많이 일어남
- 가상환경 생성 시 python 버전은 3.6 버전 사용(3.9 버전은 사용이 안되기에, 3.9 이하 버전으로 사용)
- Prophet 라이브러리는 C++ 프로그램으로 만들어져 있음
from fbprophet import Prophet

 

Prophet 모델 생성

''' 일 단위 주기성 활성화하기 '''
### prophet 모델 생성
model = Prophet(daily_seasonality=True)

''' 모델 학습 시키기 '''
model.fit(prophet_data[["ds", "y"]].iloc[:-10])

 

3년 후 예측하기

### 기존 값에 3년 후 일자를 포함해서 추출하기
future = model.make_future_dataframe(periods=365 * 3)
# future

### 예측하기
forecast = model.predict(future)
# forecast

### 시각화
model.plot(forecast)

 

# 계절성을 나타내는 그래프 
# 그려진 범위 그래프가 커질 수록 오차가 있는 것
model.plot_components(forecast)

 

728x90
반응형
728x90
반응형

시계열 분석 주식 데이터_주가 예측

https://mzero.tistory.com/146 에 이어서

 

[시계열 분석] 주가예측 / 시계열 데이터 분석 / ARIMA 모델

시계열 분석 주식 데이터_주가 예측 ''' 기본 라이브러리 ''' import datetime import matplotlib.pyplot as plt import platform from matplotlib import font_manager, rc ''' 마이너스 기호 및 한글 설정 ''' ### 마이너스 기호 사

mzero.tistory.com

 

Best Model을 이용해서 잔차 확인

📍 잔차 : 실제값과 예측값과의 차이
📍 잔차 검정 : 정상성, 정규성 등을 만족하는지 확인하는 검정
📍 검정하는 함수 : summary(), plot_diagnostics()
  • summary()

 

확인해야할 사항

Heteroskedasticity (H) : 값이 작을수록 정규분표

P>|z| : p-value 값으로 유의미한지, 아닌지 판단

 

 

 

 

 

 

 

 

 

 

  • plot_diagnostics()
    model.plot_diagnostics(figsize=(16, 8))
    plt.show()

 

3번 그래프 : 빨간색 추세선과 비슷하게 흘러가는 것이 좋음

4번 그래프 : 0을 기점으로 모두 포함 되어 있어서 정상성을 띔, 차수의 첫번 째는 계산이 안되기 때문에 0은 빠짐

 

정상성을 띄지만, 정규분포는 낮다

 

 

 

ARIMA 모델 훈련 및 테스트하기

  • 훈련 및 테스트 데이터 = 9 : 1 로 분리
    - 시계열 데이터는 train_test_split()함수를 사용하지 않는다.
    -연속성을 띄는 데이터의 특성상, 데이터를 앞/뒤의 비율로 분리한다.
    train_data = data[:int(len(data) * 0.9)]
    test_data = data[int(len(data) * 0.9):]
    
    train_data.shape, test_data.shape​


  • auto_arima : 모델 설정 및 Best Model 추출
    - auto_arima는 훈련과 동시에 베스트 모델을 생성해 준다.
    model_fit = pm.auto_arima(
        y=train_data,
        d=n_diffs,
        start_p=0, max_p=3,
        start_q=0, max_q=3,
        m=1, seasonal=False,
        stepwise=True,
        trace=True
    )​


Best Model을 이용하여 예측(Predict)하기

📍 시계열에서 예측 용어 : forecast라고 칭한다.
📍 예측 결과 : 예측데이터, 상한가(상한 바운드), 하한가(하한 바운드)
📍 결과 시각화 : 기존값과 예측값이 연결된 시각화
📍 수행방법 : forecast 함수 생성 후 predict 수행 > 예측결과 반환

 

  • 함수 생성하기
    import numpy as np
    
    """향후 예측
     - model : Best Model
     - n : 예측하려는 향후 기간 (디폴트로 1을 지정했음)
    """
    def forecast_n_step(model, n=1):
        ### 예측하기
        # - n_periods : 예측기간 (day일단위)
        # - return_conf_int : 신뢰구간 반환여부
        # - fc : 예측결과(y_pred)
        # - conf_int : 신뢰구간
        fc, conf_int = model.predict(n_periods=n, return_conf_int=True)
        
        # print(fc, conf_int)
        ### 반환값은 리스트형태로 변환해서 전달
        return (
            fc.tolist()[0:n],
            # asarray : 배열로 바꾸는 함수 / tolist : 리스트로 바꾸는 함수
            np.asarray(conf_int).tolist()[0:n]
        )

    """함수 생성하기"""
    import pandas as pd
    
    def forecast(len, model, index, data=None) :
        ### 결과값을 담아서 반환할 변수
        y_pred = []
        pred_upper = []
        pred_lower = []
    
        ###데이터(data)가 있는 경우
        if data is not None :
            for new_data in data :
                ### 예측하기 : 반복수행을 위해 함수로 생성
                fc, conf = forecast_n_step(model)
    
                ### 예측결과 리스트에 담기
                y_pred.append(fc[0])
    
                ### 상한가
                pred_upper.append(conf[0][1])
    
                ### 하한가
                pred_lower.append(conf[0][0])
    
                ### 시계열에서는 데이터별로 Model을 갱신함
                model.update(new_data)
                
        
        ###데이터(data)가 없는 경우
        else : 
            for i in range(len):
                fc, conf = forecast_n_step(model)
                
                ### 예측결과 리스트에 담기
                y_pred.append(fc[0])
    
                ### 상한가
                pred_upper.append(conf[0][1])
    
                ### 하한가
                pred_lower.append(conf[0][0])
    
                ### 시계열에서는 데이터별로 Model을 갱신함
                model.update(fc[0])
            
    
        ### 결과값에 대해서는 시리즈 타입으로
        return pd.Series(y_pred, index=index), pred_upper, pred_lower
        # return "", "", ""
  • 함수 호출하기
    '''
    함수 호출하기
     - fc : 예측결과
     - upper : 상한가
     - lower : 하한가
    '''
    
    fc, upper, lower = forecast(len(test_data), model_fit,
                               test_data.index, data=test_data)
    fc, upper, lower


  • 상한가와 하한가의 리스트 타입 데이터를 날짜를 인덱스로 하는 시리즈 타입으로 변환하기
     - 추후 시각화 시 결과값의 인덱스와 매핑하여 그리기 위함

    lower_series = pd.Series(lower, index=test_data.index)
    upper_series = pd.Series(upper, index=test_data.index)
    
    lower_series, upper_series​


  • 전체 시각화
    - 훈련데이터 및 테스트데이터 시각화
    plt.figure(figsize=(20, 6))
    plt.title("시계열 분석 결과 시각화")
    
    ### 훈련데이터 그리기
    plt.plot(train_data, label="train_data")
    
    ### 테스트 데이터 그리기
    plt.plot(test_data, label="test_data(예측 전 실제값)", c="b")
    
    ### 테스트데이터로 예측한 결과 그리기
    plt.plot(fc, label="예측결과", c="r")
    
    ### 상한가(상한 바운드) 하한가(하한 바운드) 그리기
    plt.fill_between(lower_series.index, lower_series,
                    upper_series, alpha=.9, color="k")
    
    plt.legend()
    plt.show()​

모델 성능 평가

from sklearn.metrics import mean_absolute_error, mean_squared_error
import math
  • 평균제곱오차(MSE)
    mse =  mean_squared_error(np.exp(test_data), np.exp(fc))
    mse​


  • 평균절대오차(MAE)
    mae =  mean_absolute_error(np.exp(test_data), np.exp(fc))
    mae​


  • RMSE(Root Mean Squared Error)
    - 예측값과 실제값 간의 거리를 나타내는 지표
    - 값이 작을 수록 모델의 성능이 좋다고 해석 
    rmse = math.sqrt(mean_squared_error(np.exp(test_data), np.exp(fc)))
    rmse​


  • MAPE(Mean Absolute Percentage Error)
    - 예측값과 실제값 간의 백분율 오차 평균
    mape = np.mean(np.abs(np.exp(fc) - np.exp(test_data)) / np.abs(np.exp(test_data)))
    mape * 100​


한국 증권거래소(KRX)의 주식거래일을 기준으로 1년 후 예측하기

  • 사용 라이브러리 
     - 한국증권거래소(KRX)의 주식거래일자에 대한 데이터 수집을 위한 라이브러리
     - 설치 필요 : pip install exchange_calendars
    import exchange_calendars as ecals​
  • 주식 거래일자 수집하기
    ### 원본 인덱스의 마지막 인덱스 일자 이후부터 1년치에 대한 거래일자 수집
    # 거래 시작일
    start = "2022-11-01"
    # 거래 종료일
    end = "2023-10-31"
    
    ### 한국증권거래소(KRX) code 값 : XKRX
    k = ecals.get_calendar("XKRX")
    k​


  • 시작 및 종료 기간 동안의 거래일 정보 가지고 오기 
    df =pd.DataFrame(k.schedule.loc[start:end])
    df



  • open 컬럼을 사용하기 위해 날짜 정보를 리스트에 추가하기
    date_list = []
    for i in df["open"] :
        date_list.append(i.strftime("%Y-%m-%d"))
        # print(i.strftime("%Y-%m-%d"))
    
    ### DatetimeIndex 형태로 변환하기
    date_index = pd.DatetimeIndex(date_list)
    date_index


  • 1년 후 주가 예측하기
    fc2, upper2, lower2 =forecast(len(date_index), model_fit, date_index)
    fc2


  • 상한가와 하한가의 리스트 타입 데이터를 날짜를 인덱스로 하는 시리즈 타입으로 변환하기
    - 추후 시각화 시 결과값의 인덱스와 매핑하여 그리기 위함
    lower2_series = pd.Series(lower2, index=date_index)
    upper2_series = pd.Series(upper2, index=date_index)
    
    lower2_series, upper2_series​
  • 훈련데이터 및 테스트데이터 시각화
    plt.figure(figsize=(20, 6))
    plt.title("[1년 후] 시계열 분석 결과 시각화")
    
    ### 훈련데이터 그리기
    plt.plot(train_data, label="train_data")
    
    ### 테스트 데이터 그리기
    plt.plot(test_data, label="test_data(예측 전 실제값)", c="b")
    
    ### 테스트데이터로 예측한 결과 그리기
    plt.plot(fc, label="예측결과", c="r")
    
    ### 1년 후 주가 예측 그리기
    plt.plot(fc2, label="1년 후 예측결과", c="g")
    
    ### 테스트 데이터 예측 > 상한가(상한 바운드) 하한가(하한 바운드) 그리기
    plt.fill_between(lower_series.index, lower_series,
                    upper_series, alpha=.9, color="k")
    
    ### 1년 후 예측 > 상한가(상한 바운드) 하한가(하한 바운드) 그리기
    plt.fill_between(lower2_series.index, lower2_series,
                    upper2_series, alpha=.9, color="k")
    
    plt.legend(loc="upper left")
    plt.show()
728x90
반응형
728x90
반응형

시계열 분석 주식 데이터_주가 예측

''' 기본 라이브러리 '''
import datetime
import matplotlib.pyplot as plt

import platform
from matplotlib import font_manager, rc

''' 마이너스 기호 및 한글 설정 '''
### 마이너스 기호 사용 설정
plt.rcParams["axes.unicode_minus"] = False
### OS 별 한글 설정
if platform.system() == "Windows" :
    path = "c:/Windows/Fonts/malgun.ttf"
    font_name = font_manager.FontProperties(fname=path).get_name()
    rc("font", family=font_name)

### Mac인 경우
elif platform.system() == "Darwin" :
    rc("font", family="Applegothic")

### 리눅스인 경우
elif platform.system() == "Linux" :
    path = "/usr/share/fonts/NanumGothic.ttf"
    font_name = font_manager.FontProperties(fname=path).get_name()
    rc("font", family="font_name")

else :
    print("OS 확인 불가")

10년 치 주가 정보 수집하기

📍 증권사 : yahoo finance
📍 수집 증권 : 구글 주식(GOOG) 수집 
📍 수집 기간 : 2012년 10월 31일부터 2022년 10월 31일까지 데이터 
📍 증권사 제공 라이브러리 : yfinance 라이브러리를 제공하고 있음
📍 라이브러리 설치 필요 pip install yfinance
import yfinance as yf

 

  • 데이터 수집하기
    - 시작 및 종료 기간 변수 설정
    - 날짜 타입으로 넣어야 함
    start = datetime.datetime(2012, 10, 31)
    end = datetime.datetime(2022, 10, 31)
    start, end​


  • Google(GOOG) 주식 가격 데이터 가져오기
    - 첫 번째 인자 : 가져올 주식(증권) 지정

    - start : 거래 시작일
    - end : 거래 종료일
    goog_data = yf.download("GOOG", start=start, end=end)
    goog_data​
     

 

 

 - index : 날짜 타입
 - Open : 시작가
 - High : 상한가
 - Low : 하한가
 - Close : 종가
 - Adj Close : 수정종가(분할, 배당, 배분, 신주 등이 발생한 경우 조정이 이루어짐)
 - Volume : 거래량

 

  • 전처리
    - 수정 종가 데이터만 추출하기

    data = goog_data["Adj Close"]
    data​

주식흐름(Rolling) 확인하기

📍주식 흐름
- 흐름 또는 이동이라고 칭하며, 롤링(rolling)이라는 명칭을 사용한다.
- 주식 흐름을 확인하기 위해서는 이동(rolling) 평균과 이동(rolling) 표준편차 데이터가 필요하다.
  • 50일 치에 대한 주식흐름(이동 흐름) 확인하기
    - 50일치에 이동(rolling) 평균과 표준편차 계산하기
    ### 기간 설정 : 50일
    interval = 50
    
    ### 이동평균 계산하기
    # - 주식 가격의 흐름을 유연성을 높이고 보기 좋게 하기 위해서 사용
    # - 실제 가격 흐름과 이동평균값과 차이가 보이는 부분 : 변동성이 있는 부분
    rolmean = data.rolling(interval).mean()
    rolmean
    
    ### 이동표준편차 계산하기 : 변동성의 흐름 데이
    rolstd = data.rolling(interval).std()
    rolstd


  • 원본, 이동평균, 이동평균표준편차 시각화
plt.figure(figsize=(10, 6))
plt.title("실제, 이동평균, 이동표준편차 시각화")

### 실제 주식가격 그리기
plt.plot(data, color="blue", label="실제 원본 주가")

### 50일 간격의 이동평균 그리기
plt.plot(rolmean, color="red", label=f"이동평균 {interval}일 기준")

### 50일 간격의 이동표준편차 그리기
plt.plot(rolstd, color="green", label=f"이동평균표준편차 {interval}일 기준")

plt.xlabel("Date")
plt.ylabel("best")

plt.legend()

plt.show()​

 

<시각화 해석>
* 비정상성 : 평균이 일정하지 않고 오르락내리락하는 불규칙 형태를 의미함
 - 시계열 분석 시에는 비정상성을 정상성으로 만들어서 분석을 진행한다.
- 정상성으로 만들기 위해 차수(d)라는 개념이 적용됨

- 표준화(정규화) 시키는 개념과 유사함
- 계절성을 나타내지 않는 것으로 보이며, 특징적 패턴을 보이고 있지 않음(=특정 주기성이 없음)

 

시계열 데이터 분석 모델 - ARIMA 모델

📍 시계열 분석
- 시계열 분석에서 주로 사용되는 모델은 ARIMA 모델로 오랫동안 사용되어 온 통계학적 기술통계 모델이다.
- 시계열 분석은 일반적으로 예측분석 중에서도 시간을 독립변수(X)로 사용하고, 다른 데이터를 종속변수(Y)로 사용하여 예측하는 분석 방법 이다.

📍 ARIMA(Autoregressive Integrated Moving Average)
- 시계열 분석(예측)에서 가장 널리 사용되는 모델 중 하나
- 시계열 분석은 현 시점까지의 데이터를 이용해서 앞으로 어떤 패턴의 차트를 그릴지 예측하는 분석기법이다.

 * AR(Autoregressive) : "자기상관" 이라고 칭한다.
 - 이전의 값이 이후의 값에 영향을 미치고 있는 상황(관계)

 * MA(Moving Average) : "이동평균"이라고 칭한다.
 - 특정 변수의 평균값이 지속적으로 증가한거나 감소하는 추세(추이)

📍 정상성(stationary)과 비정상성(Non-stationary)
 * 정상성
    - 평균과 분산이 일정한 형태

 * 비정상성
    - 평균과 분산이 일정하지 않은 형태
    - 시간에 따라 평균 수준이 다르거나, 특징적 패턴(Trend)이나 계절성(Seasonality)에 영향을 받는 형태
    - 예시 데이터 형태 : 겨울에 난방비 증가, 여름에 아이스크림 판매량 증가 등

   - 비정상성 데이터는 예측 범위가 너무 다양하고 많기 때문에 고려해야할 특성들이 많다.
    - 이에, 비정상성 데이터를 정상성으로 변환하여 분석을 진행한다.
    - 정상성으로 분석을 진행하며, 예측범위가 일정하게 줄어들고, 성능이 개선되는 효과를 발휘함

📍 비정상성을 정상성으로 변환하는 방법들
 - 평균의 정상화를 위한 차분 사용
 - 분산의 안정화를 위한 로그 변환 사용
 - 제곱/제곱근 변환 가용
 - 이외

 * 차분 : 비정상성을 정상성으로 만들기 위해 관측값들의 차이를 계산하여 사용하게 됨

 

시계열 정상성 확인하기 - ADF 테스트

📍  ADF 테스트(Augmented Dickey-Fuller Test)
- 시계열 데이터의 정상성 여부를 통계적인 정량 방법으로 검증하는 방법
- 귀무가설과 대립가설에 따라 결정됨
- 귀무가설 : 기존 연구이론
 - 대립가설 : 신규 연구이론(우리가 하고자 하는 것)
 - 귀무가설과 대립가설의 보편적 기준 > p-value < 0.05(증감 가능)
     : p-value < 0.05이면, 귀무가설 기각, 대립가설 채택
     : p-value > 0.05이면, 귀무가설 채택(연구 방향을 수정해야 함)
 - 시계열 분석에서는 정상성과 비정상성 데이터의 형태를 구분하는 용도로 사용됨
 - ADF 테스트 라이브러리 : statsmodels 패키지의 dfuller 라이브러리 사용
''' ADF 라이브러리 '''
from statsmodels.tsa.stattools import adfuller

''' 원본(수정종가) 데이터를 이용해서 ADF 테스트 하기 '''
result = adfuller(data.values)
result

 

  • p-value 추출하기
    - ADF 결과의 1번째 값이 > p-value 값임
    print(f"p-value : {result[1]}")​

    💡 해석
     - p-value < 0.05을 만족하지 않으므로, 귀무가설을 기각 할 수 없음. 즉, 유의미 하지 않음
     - 따라서, 구글 주식 데이터는 "비정상성" 데이터이며, 정상성으로 만들기 위한 차분 처리가 필요함
     - p-value의 값이 0.827로 0.05보다 크므로... << 이렇게 작성하면 안됨

  • 1d(1차) 차분 계산하기
     - 1d(1차) : 1칸씩 이동하면서 이전과 현재의 차이값을 사용함
     - 사용함수 : diff()
     - 차분을 계산하게되면, 최초 또는 [차분의 이동 거리]에 따라서 Nan이 발생
         > Nan은 제거하고 사용함
    dff1 = data.diff().dropna()
    dff1


  • 차분 결과 데이터 시각화 하기
    dff1.plot(figsize=(15, 5))
    plt.title("차분 결과 데이터 시각화")
    plt.show()


  • 차분 결과 데이터를 이용하여 정상성 여부 확인하기
    - ADF 테스트 하여, p-value < 0.05 확인하기
    result = adfuller(dff1.values)
    print(f"p-value : {result[1]}")
    print("p-value : %f" % result[1])

    💡 해석
     - p-value < 0.05을 만족하므로, 유의미하다.
     - 즉, 귀무가설을 기각하고 대립가설을 채택
     - 시계열 분석에서는 차분 처리를 통해 정상성 데이터로 변환되었으며,
     - 이후, ARIMA 분석을 통해 진행이 가능한 것으로 증명 되었음
     - 사용된 차분은 1차 차분을 수행하여 증명하였음

  • 차분 설명 이미지
    - 차분을 할수록 정상성을 띄게 됨

    - 그러나 너무 많은 차분은 오히려 비정상성을 띄게 할 수 있음
    - 적절한 차수를 찾아서 차분을 진행해야 함(= 하이퍼파라미터 조정)

 

ARIMA 모델의 모수(하이퍼파라미터 찾기)

📍  ARIMA 모델에서 사용되는 중요한 3개의 하이퍼파라미터
- p, d, q
- ARIMA(AR, MA, ARMA) 모델을 사용하기 위해서는 AR(자기회귀모형, p), 차분(d), MA(이동평균모형, q) 값을 결정해야 함

📍 결정 방법
1. ACF plot과 PACF plot을 통해 모수(하이퍼파라메터)를 결정할 수 있음
     → 현재 값이 과거 값과 어떤 관계(relationship)가 있는지를 보여주는 그래프로 확인
2. pmdarima 라이브러리의 ndiffs, auto_arima 함수를 사용하여 모수(하이퍼파라미터) 결정할 수 있음  
     → 주로 auto_arima 함수를 사용함
  • (방법 - 1)  ACF plot과 PACF plot을 통해 모수(하이퍼파라메터)를 결정
    ''' 사용 라이브러리 '''
    from statsmodels.graphics.tsaplots import plot_acf, plot_pacf
    
    ''' 실제 원본 데이터를 이용해서 > ACF 및 PACF 시각화 하기 '''
    plot_acf(data)
    plot_pacf(data)
    plt.show()

💡 해석

< ACF plot >
 - ACF plot에서 막대그래프가 천천히 감소되는 것으로 보임
 - 이는 주식 데이터가 주기에 따라 일정하지 않은 비정상 데이터로 판단한다.

< PACF plot >
 - 첫값을 제외한 1개 이후 파란 박스에 들어가면서, 막대 그래프가 끊기는 것으로 보임
 - 이는 자기회귀모형(AR)의 결과값이 1개 이후인, 즉 p는 1인 값을 활용하는 것이 적절하다는 의미임
 - 이동평균(MA)의 값은 AR과의 차이값이 0이 되도록 하는 것이 일반적임
 - 따라서, MA는 1이 적절함을 의미함

 

  • (방법 - 1)  1차 차분데이터로 ACF 및 PACF 시각화 하기
    plot_acf(dff1)
    plot_pacf(dff1)
    plt.show()

📍 결론
- AR(p) = 1, d = 1, MA(q) = 1이 적절
- 이때, MA(q)값은 AR - MA값을 사용하기도 한다. (q=0) - MA값은 AR - MA를 사용

 

  • (방법 - 2) pmdarima 라이브러리의 ndiffs, auto_arima 함수를 사용하여 모수(하이퍼파라미터) 결정
  • (방법 - 2) ndiffs 함수
    '''
    사용 라이브러리
    - 라이브러리 설치해야함 : pip install pmdarima
    '''
    import pmdarima as pm
    from pmdarima.arima import ndiffs
    
    '''
    ndiffs 방법 : 차수를 결정하는 함수
     - data : 원본 데이터
     - alpha : 차분 횟수를 결정하는데 사용할 p-value(유의수준)
     - test : 차분 획수를 결정하는데 사용할 테스트 방법
            : 주로 adf 테스트 방법을 사용 (kpss 테스트 방법도 있으나, 거의 사용안함)
     - max_d : 최대 차분 횟수를 제한함(이 범위 내에서 가장 적절한 차수를 결정)
    '''
    n_diffs = ndiffs(data, alpha=0.05, test="adf", max_d=6)
    print(f"결정된 차수 : {n_diffs}")​


  • (방법 - 2) auto_arima 함수
    - auto_arima 함수 사용 : p, d, q 값을 모두 추출해 준다.
    - y = 데이터 원본
    - d = 차분의 차수, 이를 지정하지 않으면 실행 시간이 매우 길어짐(기본값 None)
    - start_p(기본값 2), max_p(기본값 5) : AR(p)를 찾기 위함 범위(start_p에서 max_p까지 수행)
    - start_q(기본값 2), max_q(기본값 5) : AR(q)를 찾기 위함 범위(start_q에서 max_q까지 수행)
    - m : 계절적 특성이 있을 때 사용하는 매개변수(기본값 1) > 차수를 의미함
     - seasonal : 계절성 특성이 있을 때 사용(기본값 True)
                      : 계절성 특성이 있을 때 (True) > m의 값은 계절적 특성의 범위 차수 지정(보통 3)
                      : 계절성 특성이 없을 때 (False) > m은 1을 보통 사용
    - stepwise : 최적의 모수를 찾기 위한 알고리즘을 사용할지 여부
                       (최적의 모수 찾기 알고리즘 : 힌드만-칸다카르 알고리즘이 적용됨)
    - trace : 결과 출력 여부(기본값 False)
    model = pm.auto_arima(
        y=data,
        d=1,
        start_p=0, max_p=3,
        start_q=0, max_q=3,
        m=1, seasonal=False,
        stepwise=True,
        trace=True
    )

💡 해석

 - auto_arima를 사용한 결과에서 최적의 모델은 ARIMA(1,1,0)모형으로 결정됨
 - 모델의 설명력(결정력)이 좋을 수록 AIC 값이 작아지고,
 - 모델의 복잡도가 높아질수록 AIC값이 커짐            
 - AIC 값은 작을 수록 좋음

728x90
반응형
728x90
반응형

시계열 데이터

시간데이터 조작

  • 시간 유형 데이터 만들기
    dates = ["2020-01-01", "2020-03-01", "2021-09-01"]
    dates​



  • 시간 유형의 문자열을 날짜 타입으로 변환하기 (형변환)
    ts_dates = pd.to_datetime(dates)
    ts_dates​

 

  • 년월일 단위로 추출하기
    - to_period() : 날짜 타입의 데이터에서 특정 날짜(년, 월, 일)을 추출하고자 할 때 사용
    pr_day = ts_dates.to_period(freq="D")
    pr_day​


  • 년월 단위로 추출하기
    pr_month = ts_dates.to_period(freq="M")
    pr_month​


  • 년 단위로 추출하기
    pr_year = ts_dates.to_period(freq="Y")
    pr_year​


데이터 읽어들이기

df = pd.read_csv("./data/timeseries.csv")
df

 

  • Date 데이터를 날짜타입으로 변경하여 새로운 컬럼에 넣기
    - 새로운 컬럼 이름 : new_Date
    df['new_Date'] = pd.to_datetime(df['Date'])
    df​​

 

  • new_Date 컬럼의 0번째 데이터를 추출하기
    - 데이터 값 수정할 때는 loc, iloc 써서 가상의 메모리로 접근해야 함
    date_0 = df["new_Date"][0]
    date_1 = df.loc[0, 'new_Date']
    date_2 = df.iloc[0, 6]
    date_3 = df["new_Date"].iloc[0]
    date_4 = df["new_Date"].loc[0]
    date_0, date_1, date_2, date_3, date_4




  • 날짜 타입의 컬럼만 남기고 날짜 유형을 가지는 Date컬럼은 삭제하기
    df.drop("Date", axis=1, inplace=True)



  •  new_Data 컬럼의 데이터를 인덱스로 사용하게 하기
    - 시계열 분석을 위해서는 index를 날짜 타입의 데이터로 사용해야함
    df.set_index('new_Date', inplace=True)​

 

기간 설정하기

 📍 기간 설정하는 함수 : pd.date_range()
  - start : 설정 기간의 시작 값
  - end : 설정 기간의 끝값(None은 무한대)
  - periods : 생성할 기간의 갯수
  - freq : 시간 간격 설정(Y는 년도, M은 월, D는 일), 2Y(연도를 2년씩 증가시킴)
  - tz : 타임존(사용할 국가 지정)
  • 아래 함수 해석
    - 2020년 1월 1일을 시작값으로 종료값 없이 6개의 구간값을 출력
    - 시간 간격은 Y(년도)를 기준으로 1씩 증가시키고, 사용할 시간은 한국시간 사용
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=6,
                                freq="Y",
                                tz="Asia/Seoul")
    timestamp_df


  • 3년 단위로 기간 구성하기, 6개 기간 추출하기
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=6,
                                freq="3Y")
    timestamp_df​


  • 2개월 단위로 기간 설정, 기간은 3개
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=3,
                                freq="2M")
    timestamp_df


  • 3일 단위로 기간 설정, 기간은 6개
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=6,
                                freq="3D")
    timestamp_df


  • 2시간 간격으로 4개 기간 추출
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=4,
                                freq="2H")
    timestamp_df


  • 3분 간격으로 5개 기간 추출
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=5,
                                freq="3MIN")
    timestamp_df


  • 2초 간격으로 3개 기간 추출
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=3,
                                freq="2S")
    timestamp_df


  • 2일 2시간 2분 2초 간격으로 5개 기간 추출
    timestamp_df = pd.date_range(start="2020-01-01", 
                                end=None,
                                periods=5,
                                freq="2D 2H 2MIN 2S")
    timestamp_df


  • 인덱스를 컬럼으로 만들기
    df.reset_index(inplace=True)


  • new_Date 컬럼에서 "년", "월", "일" 따로 추출하여 새로운 컬럼으로 생성하기
    - 데이터프레임 안에 특정 날짜 타입 컬럼의 각 값에서 년/월/일 추출/변경하기 위해서는 각 값에 접근해야 함
    df["Year"] = df["new_Date"].dt.year
    df["Month"] = df["new_Date"].dt.month
    df["Day"] = df["new_Date"].dt.day
    df


  • new_Date 컬럼의 데이터를 이용해서, 0000-00(년-월) 단위로 추출하여, YM 컬럼 생성하기
    ''' 년-월 단위로 추출해서 YM 컬럼 생성하기 '''
    df["YM"] = df["new_Date"].dt.to_period(freq="M")
    
    ''' 년-월-일 단위로 추출해서 YMD 컬럼 생성하기 '''
    df["YMD"] = df["new_Date"].dt.to_period(freq="D")


  • new_Date 컬럼을 인덱스로 지정하기
    df.set_index("new_Date", inplace=True)​


  • df 데이터프레임의 0번째 행의 값을 추출
    '''
    df["2015-07-02"]
    >> 이건 불가능 !! 인덱스가 RangeIndex가 아니면 직접 접근이 안되기 때문에 오류 발생
    >> loc 또는 iloc를 사용해야함
    '''
    
    df_0 = df.iloc[0]
    df_1 = df.loc["2015-07-02"]
    
    df_0, df_1


  • 인덱스 2016-06-29 ~ 2018-06-27까지의 행 조회하기
    df.loc["2016-06-29":"2018-06-27"]


  • df 변수로 csv 파일 새로 불러들이고, new_Date 컬럼 생성
    - Date 컬럼을 날짜 타입으로 변환해서 사용
    df = pd.read_csv("./data/timeseries.csv")
    df["new_Date"] = pd.to_datetime(df["Date"])
    df.set_index("new_Date", inplace=True)
    df.drop("Date", axis=1, inplace=True)
    df​


  • 그래프 그리기
    - x축 : 인덱스 값
    - y축 : 각각 컬럼의 범위 값으로
    - 각 컬럼에 대한 선그래프 그리기(그래프 하나에 모든 컬럼의 선그래프 표현)
    df.plot()​
728x90
반응형

+ Recent posts