데이터 사이언스에 대한 기본적인 개념을 정립하는 강좌입니다. 수학&통계학에서 배운 내용들이 데이터 사이언스에 어떻게 활용되는지 수식, 코드와 더불어 자세한 설명을 제공하고 있습니다. 따라서 본 수업 수강을 위해서는 선형대수학, 미분방정식 및 약간의 회귀분석 지식이 필수입니다. (질문 사항이 있으신 분은 Q&A 및 FAQ를 참조해주세요.)
추가 공지
1. 다음 강의 – 3월 9일, 16일, 23일, 30일 (토요일) 10am~1pm, 2pm~5pm (일 6시간)
- 수강 신청 종료일 2월 28일 (신청자가 많아 강의장을 변경했습니다)
- 강의장: 강남구 테헤란로 22길 9 아름다운 빌딩 6층 (역삼역 3번출구 1분거리, 하단 지도 참조)
- 회사 주요업무에 일손부족이 발생해 약속했던 3월 강의까지만 운영하고 종료됩니다.
- 향후 연 1회 정도로 특강만 개설합니다 (이후 강의 스케줄 문의 사절)
2. 본 과정의 선수 과목인 수학 & 통계학 강좌는 온라인 강의로만 운영됩니다. 통계학 석사 이상의 이해도를 갖고 있지 않으신 분은 선수 과목을 꼭 듣고 오시면 좋겠습니다.
Course Curriculum
0. Introduction | |||
빅데이터에 대한 올바른 정의 | FREE | 00:15:00 | |
머신러닝에 대한 오해 | FREE | 00:00:00 | |
딥러닝에 대한 오해 | FREE | 00:00:00 | |
데이터 사이언티스트의 업무 | FREE | 00:00:00 | |
빅데이터 예시 | FREE | 00:00:00 | |
데이터 사이언스 프로젝트 예시 | FREE | 00:00:00 | |
R 기본 코드 간단 설명 | FREE | 00:00:00 | |
1. Regression Analysis | |||
Lecture 1 – Section 0 – A/B Test | 00:00:00 | ||
Lecture 1 – Section 1 – 머신러닝에서 바라 본 Linear Regression | 00:00:00 | ||
Lecture 1 – Section 1 – 머신러닝에서 바라 본 Linear Regression (Coding) | 00:00:00 | ||
Lecture 1 – Section 2 – Regularization이란? Optimization vs. Generalization | 00:00:00 | ||
Lecture 1 – Section 2 – Regularization이란? Optimization vs. Generalization (Coding) | 00:00:00 | ||
2. Classification Analysis | |||
Lecture 2 – Section 1 – Logistic regression | 00:00:00 | ||
Lecture 2 – Section 1 – Logistic regression (Coding) | 00:00:00 | ||
Lecture 2 – Section 2 – Support Vector Machine | 00:00:00 | ||
Lecture 2 – Section 2 – Support Vector Machine (Coding) | 00:00:00 | ||
Lecture 2 – Section 3 – Precision vs. Recall | 00:00:00 | ||
Lecture 2 – Section 3 – Precision vs. Recall (Coding) | 00:00:00 | ||
3. Data Grouping | |||
Lecture 3 – Section 1 – k-Nearest Neighbor (kNN) | 00:00:00 | ||
Lecture 3 – Section 2 – k-Means | 00:00:00 | ||
Lecture 3 – Section 2 – knn & k-Means (Coding) | 00:00:00 | ||
Lecture 3 – Section 3 – Principal Component Analysis (PCA) | 00:00:00 | ||
Lecture 3 – Section 3 – PCA 1 (Coding) | 00:00:00 | ||
Lecture 3 – Section 3 – PCA 2 (Coding) | 00:00:00 | ||
4. Ensemble Models | |||
Lecture 4 – Section 1 – Decision Tree | 00:00:00 | ||
Lecture 4 – Section 2 – Bagging | 00:00:00 | ||
Lecture 4 – Section 3 – Boosting | 00:00:00 | ||
Lecture 4 – Section 4 – Ensemble 1 (Coding) | 00:00:00 | ||
Lecture 4 – Section 4 – Ensemble 2 (Coding) | 00:00:00 | ||
Lecture 4 – Appendix – Missing Data 처리법 (Coding) | 00:00:00 | ||
5. Neural Network - Basic | |||
Lecture 5 – Section 1 – Neural Network Basics | 00:00:00 | ||
Lecture 5 – Section 1 – Neural Network Basics (Coding) | 00:00:00 | ||
Lecture 5 – Section 2 – Autoencoder | 00:00:00 | ||
Lecture 5 – Section 2 – Autoencoder (Coding) | 00:00:00 | ||
Lecture 5 – TensorFlow 활용 샘플 1 (Coding) | 00:00:00 | ||
Lecture 5 – TensorFlow 활용 샘플 2 (Coding) | 00:00:00 | ||
6. Neural Network - Advanced | |||
Lecture 6 – Section 1 – Convolutional Neural Network (CNN) | 00:00:00 | ||
Lecture 6 – Section 1 – CNN (Coding) | 00:00:00 | ||
Lecture 6 – Section 2 – Recurrent Neural Network (RNN) | 00:00:00 | ||
Lecture 6 – Section 2 – RNN (Coding) | 00:00:00 | ||
7. Pattern Recognition | |||
Lecture 7 – Section 1 – Anomaly Detection | 00:00:00 | ||
Lecture 7 – Section 1 – Anomaly Detection (Coding) | 00:00:00 | ||
Lecture 7 – Section 2 – Association Rule | 00:00:00 | ||
Lecture 7 – Section 2 – Association Rule (Coding) | 00:00:00 | ||
Lecture 7 – Section 3 – Recommender System | 00:00:00 | ||
Lecture 7 – Section 3 – Recommender System (Coding) | 00:00:00 | ||
8. Reinforcement Learning | |||
Lecture 8 – Section 1 – Reinforcement Learning | 00:00:00 | ||
Lecture 8 – Section 1 – Reinforcement Learning (Coding) | 00:00:00 | ||
Lecture 8 – Section 2 – Other topics | 00:00:00 | ||
Lecture 8 – Section 2 – Other topics (Coding) | 00:00:00 |
163 STUDENTS ENROLLED