본문 바로가기
자격증/ADsP

ADsP 3과목 시험대비 : 앙상블, 인공신경망, 분류모델 평가지표

by doonga 2024. 5. 6.
반응형

앙상블 ★

  • 여러 가지 예측 모형을 조합하여 전체적인 분산을 감소시키는 기법
  • 성능 향상을 위한 기법

1) 보팅(Voting, 투표) : 다수결을 통해 모델을 선정

2) 배깅(Bagging) 

 : 복원추출에 기반을 둔 붓스트랩을 형성하여 학습한 후에 보팅으로 결합

 : 복원추출은 데이터가 있을 때 값을 넣었다 뺏다 하면서 데이터셋을 형성

 : 이 넣다 뺏다 하는 작업을 무한히 반복해도 특정 데이터가 선택되지 않을 확률이 36.8% ★

3) 부스팅(Boosting)

 : 잘못 분류된 데이터에 높은 가중치는 주는 방법

 : 이상치에 민감함

 : 종류 - AdaBoost, GBM, XGBoost, Light GBM

4) 랜덤포레스트

 : 배깅에 의사결정트리를 추가 - 성능이 좋아지고 이상치에 강한 모델이 됨

 

 

인공신경망

  • 인간의 뇌를 표방함, 신경망 하나하나를 퍼셉트론이라고 부름

1) 구조

 -. 단층 신경망 : 퍼셉트론이 하나밖에 없음,  Input - O(퍼셉트론) - Output

 -. 다층 신경망 : Input - O O O O - Output : 1개 이상의 은닉층 보유(다층 퍼셉트론) 

 -. 은닉층 수는 사용자가 직접 설정 

 -. 퍼셉트론은 선형회귀 모델로 되어있음 => 어차피 선형성을 띠는 한계가 있

 

2) 활성화 함수★

 . 퍼셉트론이 선형회귀 모델이기 때문에 선형성의 한계가 있어 이를 극복하기 위함 

 ①시그모이드 함수

 : 0과 1 사이의 확률 값을 가짐, 로지스특 회귀 분석과 유사함

 ② 소프트맥스 함수

 : 출력 값이 여러 개로 주어지고 목표 데이터가 여러 범주인 경우 활용한다

 ③ 하이퍼볼릭 탄젠트 함수

 : -1과 1 사이의 값을 가짐, 시그모이드 함수의 최적화 지연을 해결하는 함수

 ④ ReLU 함수

 : 기울기 소실문제를 극복함, max(0, x)

 : 경사하강법을 사용할 때 너무 조금씩 내려가서 가중치가 변경되지 않을 때 ReLU로 극복

 

3) 학습방법

 ① 순전파 : 정보가 → 방향, 앞으로 전달

 ② 역전파 : 정보를 뒤로 전달하는 역전파, y=w1x1 + w2x2 일 때 w1, w2는 가중치(=회귀계수)

 ③ 경사하강법 : 오차가 최소가 되는 가중치(w1 = 회귀계수)를 구하기 위한 최적의 해를 찾는 기법

 ④ 기울기 소실 문제

 : 시그모이드 함수를 사용하면 학습이 제대로 되지 않음

 : 경사를 꾸준히 내려가서 오차가 최소가 되는 곳으로 내려가야 되는데 천천히 내려가서 가중치 갱신인 안됨

 : 이럴 때는 ReLU 함수 사용해서 기울기 소실문제를 극복하기도 함

 

가중치의 오차를 최소로 줄이기 위해 노력해야 함

회귀분석에서는 오차를 줄이기 위해 : 최소제곱법을 사용 (이차함수)

인공신경망에서는 경사하강법을 사용

 

 

 

기타 분류모델

1) KNN : 인접에 많은 데이터가 포함되어 있는 범주로 분류함

2) 나이브베이즈 : 나이브는 독립, 베이즈 이론을 기반으로 범주에 속할 확률을 계산함

3) SVM : 선형이나 비선형 분류 혹은 회귀등에서 활용할 수 있는 모델

 

 

분류모델 평가지표

1) 오 분류표 ★

 : 혼동행렬이라고도 함

 : 표에 숫자들이 들어가고 숫자를 통해 평가지표 계산이 됨 

유튜브 : 아답터 채널에서 발

 

1) 평가지표  ★

 : 오 분류표의 값들을 활용하여 평가지표의 값들을 구할 수 있어야 함

 : 수식과 값들이 어디에 위치해 있는지 알아야 함

 

-. 재현율(Recall) : TP Rate , 민감도(Sensitivity), Hit Rate라고도 함

-. F-1 Score : Precision과 Recall의 조화 평균

 

반응형