| 섹션 1. 오리엔테이션 |
|
Machine/Deep learning 수업의 개요와 일정 |
|
00:10:00 |
| 섹션 2. 머신러닝의 개념과 용어와 텐서플로우 |
|
기본적인 Machine Learning 의 용어와 개념 설명 |
|
00:12:00 |
|
TensorFlow의 설치및 기본적인 operations (new) |
|
00:17:00 |
| 섹션 3. 머신러닝 알고리즘 : 선형회귀 (linear regression ; 리니어 리그레션) |
|
Linear Regression의 Hypothesis 와 cost 설명 |
|
00:13:00 |
|
TensorFlow로 간단한 linear regression을 구현 (new) |
|
00:15:00 |
| 섹션 4. 리니어 리그레션의 코스트 함수 최소화 |
|
Linear Regression의 cost 최소화 알고리즘의 원리 설명 |
|
00:16:00 |
|
Linear Regression 의 cost 최소화의 TensorFlow 구현 (new) |
|
00:15:00 |
| 섹션 5. 여러의 입력의 리니어 리그레션 |
|
multi-variable linear regression (*new) |
|
00:17:00 |
|
multi-variable linear regression을 TensorFlow에서 구현하기 (new) |
|
00:08:00 |
|
TensorFlow로 파일에서 데이타 읽어오기 (new) |
|
00:13:00 |
| 섹션 6. Logistic (Regression) Classification |
|
Logistic Classification의 가설 함수 정의 |
|
00:14:00 |
|
Logistic Regression의 cost 함수 설명 |
|
00:14:00 |
|
TensorFlow로 Logistic Classification의 구현하기 (new) |
|
00:15:00 |
| 섹션 7. 소프트맥스 리그레션 (Softmax Regression) |
|
Softmax Regression: 기본 개념 소개 |
|
00:10:00 |
|
Softmax classifier 의 cost함수 |
|
00:15:00 |
|
TensorFlow로 Softmax Classification의 구현하기 |
|
00:12:00 |
|
TensorFlow로 Fancy Softmax Classification의 구현하기 |
|
00:16:00 |
| 섹션 8. ML의 실행시의 러닝 레잇,오버피팅 방지등의 팁 |
|
학습 rate, Overfitting, 그리고 일반화 (Regularization) |
|
00:14:00 |
|
Training/Testing 데이타 셋 |
|
00:09:00 |
|
training/test dataset, learning rate, normalization |
|
00:11:00 |
|
Meet MNIST Dataset |
|
00:13:00 |
| 섹션 9. 딥러닝의 기본 개념과, 문제, 그리고 딥러닝 암흑기의 탈출 |
|
딥러닝의 기본 개념: 시작과 XOR 문제 |
|
00:17:00 |
|
딥러닝의 기본 개념2: Back-propagation 과 2006/2007 ‘딥’의 출현 |
|
00:12:00 |
|
Tensor Manipulation |
|
00:26:00 |
| 섹션 10. Neural Network 1: XOR 문제와 학습방법, 역전파(backpropagation) |
|
XOR 문제 딥러닝으로 풀기 |
|
00:15:00 |
|
특별편: 10분안에 미분 정리하기 |
|
00:09:00 |
|
딥넷트웍 학습 시키기 (backpropagation) |
|
00:18:00 |
|
Neural Net for XOR |
|
00:12:00 |
|
Tensorboard (Neural Net for XOR) |
|
00:12:00 |
| 섹션 11. Neural Network 2: ReLU 와 초기값 잘 정하기 등 |
|
Sigmoid 보다 ReLU가 더 좋아 |
|
00:17:00 |
|
Weight 초기화 잘해보자 |
|
00:12:00 |
|
Dropout 과 앙상블 |
|
00:09:00 |
|
레고처럼 넷트웍 모듈을 마음껏 쌓아 보자 |
|
00:05:00 |
|
NN, ReLu, Xavier, Dropout, and Adam |
|
00:14:00 |
| 섹션 12. 머신러닝 알고리즘 : 합성곱 신경망 CNN(Convolutional Neural Network) |
|
ConvNet의 Conv 레이어 만들기 |
|
00:16:00 |
|
ConvNet Max pooling 과 Full Network |
|
00:05:00 |
|
ConvNet의 활용예 |
|
00:12:00 |
|
TensorFlow CNN Basics |
|
00:16:00 |
|
MNIST 99% with CNN |
|
00:12:00 |
|
CNN Class, Layers, Ensemble |
|
00:10:00 |
| 섹션 13. 머신러닝 알고리즘 : 순환신경망 RNNs(Recurrent Neural Networks) |
|
NN의 꽃 RNN 이야기 |
|
00:19:00 |
|
RNN – Basics |
|
00:12:00 |
|
RNN – Hi Hello Training |
|
00:14:00 |
|
Long Sequence RNN |
|
00:11:00 |
|
Stacked RNN + Softmax Layer |
|
00:11:00 |
|
Dynamic RNN |
|
00:04:00 |
|
RNN with Time Series Data |
|
00:10:00 |
| 섹션 14. 아마존 웹서비스 (AWS) 에서 GPU로 돌려보기 |
|
TensorFlow를 AWS에서 GPU와 함께 돌려보자 |
|
00:18:00 |
| 섹션 15. AWS 에서 저렴하게 Spot Instance 사용하기 |
|
AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기 |
|
00:17:00 |
| 섹션 16. 텐서플로우용 Cloud ML Engine | Google Cloud 이용하기 |
|
Google Cloud ML with Examples 1 (KOREAN) |
|
00:21:00 |