본문 바로가기

KT AIVLE DX 3기

[KT AIVLE SCHOOL_DX] 8주차 후기 (3/20 ~ 3/24)

728x90
일자 교육내용
3/20 딥러닝_회귀
3/21 딥러닝_분류(이진분류)
3/22 딥러닝_분류(다중분류)
3/23 딥러닝_CNN
3/24 시각지능 딥러닝

# 3/20 딥러닝_회귀

오늘부터 딥러닝 수업이 시작되었습니다.
딥러닝 강의는 이전에 데이터분석 수업을 진행해 주셨던 강사님께서 진행해 주셨습니다.
첫날이었기 때문에 딥러닝을 본격적으로 나가기 전에 머신러닝을 간단하게 리뷰해 주셨고, 이후에는 회귀 모델링 방법과 이를 평가하는 방법에 대해 배웠습니다. 그리고 딥러닝을 배우면서 처음으로 접한 Hidden Layer에 대한 개념 설명을 들었습니다.


# 3/21 딥러닝_분류(이진분류)

오늘은 이진분류 모델에 대해서 배웠습니다.
전날 배웠던 회귀 모델과 다른 점이 꽤 있었는데, 우선 회귀 모델과는 달리 output layer에서 활성함수를 지정해 주어야 한다는 점이었습니다. 또한 컴파일을 할 경우에 사용하는 오차 함수(loss function) 역시 'mse'가 아닌 'binary_crossentropy' 함수를 사용한다는 점이 달랐습니다.


# 3/22 딥러닝_분류(다중분류)

오늘은 다중분류 모델에 대해서 배웠습니다.
해당 모델 역시 전날 배웠던 이진분류 모델과 차이점이 조금 있었습니다. 먼저 앞서 배웠던 두 모델과 달리 Output Layer의 노드수가 1이 아닌 Class의 수라는 점이었고, 활성함수로 'softmax'를 사용한다는 점에서 차이가 있었습니다. 이외에도 y값을 전처리해야 하기 때문에 어떻게 전처리를 하느냐에 따라 컴파일의 오차 함수(loss function)로 ‘sparse_categorical_crossentropy’, ‘categorical_crossentropy’를 선택해서 사용해야 함을 알 수 있었습니다.


# 3/23 딥러닝_CNN

오늘은 전날 배웠던 내용을 복습하고, 딥러닝 중 발생할 수 있는 과적합을 방지하기 위해 사용되는 Early Stopping에 대해 배웠습니다. Early Stopping은 딥러닝 중 반복 횟수(epoch)가 많으면 과적합이 될 수 있기 때문에 오차를 관찰해서 오차가 더 이상 줄어들지 않는 경우, 모델을 조기 종료시키는 방법입니다. 해당 방법에 대한 개념 설명과 실습을 진행한 후, 내일 배울 예정인 시각지능 딥러닝 방법 중 하나인 CNN에 대한 개념 설명을 들었습니다.


# 3/24 시각지능 딥러닝

오늘부터는 시각지능 딥러닝 수업이 시작되었습니다.
이번 수업부터는 새로운 강사님께서 수업을 진행하셨으며, 구글 코랩을 사용했습니다.
지금까지 배웠던 딥러닝에 대하여 짧게 복습하는 시간을 가졌고, 이후에는 CNN에 관한 개념 설명과 실습이 진행되었습니다. 구글 코랩의 경우, 기존에 사용하던 주피터랩에서 사용되던 함수와 약간씩 차이가 있었기 때문에 코드를 작성할 때 조금 헷갈렸습니다.


[8주차 후기]

딥러닝을 배우는 초반에는 할 만하다고 생각했었는데, 시각 자료 딥러닝에 대해 배우면서 아니었다는 것을 깨달았습니다. 다음 주에 이어서 배우게 될 텐데 수업 내용을 잘 이해할 수 있을지 걱정이 되고, 그 이후에 진행될 미니프로젝트는 더 걱정이 되는 한 주였던 것 같습니다.

728x90