강의 소개
AI 분야를 이해하는데 기초적인 수학분야를 되짚습니다.
1.
선형대수학
2.
미적분학(기초)
3.
해석학(기초)
을 기본으로 배우고 이에 더해 함수해석학이나 위상수학의 일부 개념을 추가로 배울 수 있습니다.
또한 이를 통해서 신경망 이론에 대해 수학적인 해석이 어떻게 되는지 더 이해해볼 수 있습니다.
강의 자료
강의노트 (테렌스 타오의 선형대수학 강의 노트 번역 및 발췌)
Outdated
강의 녹화 영상 (재생목록)
대략적인 강의 목차
강의 대주제 | 소주제 | 책 몇장 | 내용 | 이유 |
주제 1: 선형 대수학 | 벡터 공간과 기저 | 선형 대수학 1장 | 벡터공간의 정의, 부분공간, 일차결합과 연립일차방정식, 기저와 차원 | 데이터의 벡터 표현과 차원 축소를 이해하기 위해 필수적 |
행렬과 행렬 연산 | 선형 대수학 2장 | 선형변환과 영공간, 상공간, 행렬의 곱과 가역성, 좌표변환 행렬 | 데이터 변환 및 선형 모델의 수학적 표현에 필수적 | |
기본 행렬 연산과 연립 일차방정식 | 선형 대수학 3장 | 기본 행렬 연산과 기본 행렬, 행렬의 랭크와 역행렬, 연립 일차 방정식의 이론적 및 계산적 측면 | 선형 시스템의 해법을 이해하고 적용하기 위해 필요 | |
행렬식 | 선형 대수학 4장 | 행렬식의 정의와 성질, 2차 및 n차 정사각 행렬의 행렬식 계산 | 선형 시스템의 해 존재 여부와 고유값 계산에 중요 | |
고윳값과 대각화 | 선형 대수학 5장 | 고윳값과 고유벡터, 대각화 가능성, 케일리-해밀턴 정리 | PCA와 같은 차원 축소 기법에 중요 | |
내적 공간 | 선형 대수학 6장 | 내적의 정의, 직교화, 수반연산자, 정규연산자 | 데이터의 유사성 측정 및 고급 행렬 연산에 중요 | |
주제 2: 미적분학 | 함수와 극한 | 미적분학 1장 | 함수의 정의와 극한, 연속성 | 연속성 및 변화율을 이해하기 위해 필요 |
도함수와 최적화 | 미적분학 3장, 4장 | 미분계수와 변화율, 도함수의 응용, 최댓값과 최솟값, 최적화 문제 | 머신러닝 모델의 손실 함수 최적화에 중요 | |
적분과 면적 | 미적분학 5장, 6장 | 정적분, 미적분학의 기본 정리, 적분 계산법 | 누적 분포 함수 및 확률 밀도 함수 계산에 필수적 | |
주제 3: 확률 및 통계 | 기본 확률 이론 | 확률 과정 2장 | 확률의 정의, 조건부 확률, 독립성 | 머신러닝 모델의 불확실성을 이해하는 데 필요 |
확률 변수와 분포 | 확률 과정 3장, 4장 | 이산 확률 변수, 연속 확률 변수, 중요한 분포들 | 데이터의 확률적 성질을 이해하는 데 필요 | |
주제 4: 고급 선형 대수학 | 특잇값 분해 및 응용 | 선형 대수학 6장 중 6.7 | 특잇값 분해와 유사역행렬 | 차원 축소 및 데이터 압축에 중요 |
조르당 표준형 | 선형 대수학 7장 | 조르당 표준형과 최소다항식 | 고급 선형 대수학 개념으로, 머신러닝 이론적 이해에 도움이 됩니다 | |
주제 5: 해석학 | 실수의 위상적 성질 | 해석학 3장 | 열린 집합, 닫힌 집합, 콤팩트 집합, 완전집합, 연결집합 | 연속성과 극한을 심화 이해하는 데 필요 |
함수의 극한과 연속 | 해석학 4장 | 함수의 극한, 연속함수, 사잇값 정리, 불연속점 | 함수 분석 및 머신러닝 모델의 연속성을 이해하는 데 필요 | |
리만 적분 | 해석학 7장 | 리만 적분의 정의와 성질, 미적분학의 기본정리 | 적분을 통한 데이터 분석 및 확률 분포 이해에 필요 | |
수열과 급수 | 해석학 2장 | 수열의 극한, 부분수열과 볼차노-바이어슈트라스 정리, 코시 수렴 판정법, 무한급수의 성질 | 수렴성을 이해하고 함수의 수렴 성질을 분석하는 데 필요 | |
함수열과 함수급수 | 해석학 6장 | 멱급수와 거듭제곱, 함수열의 고른 수렴, 고른 수렴과 미분, 함수급수, 테일러 급수 | 함수의 근사와 수렴 성질, 머신러닝에서 함수의 표현력을 이해하는 데 필요 |
여기서부터는 조~금 시간이 많이걸려서 안할지도
강의 대주제 | 소주제 | 책 몇장 | 내용 | 이유 |
주제 6: 확률 과정 및 랜덤 프로세스 | 랜덤 프로세스 소개 | 확률 과정 9장 | 랜덤 프로세스의 정의, 포아송 프로세스, 가우시안 랜덤 프로세스 | 머신러닝의 시계열 데이터 분석에 필요 |
마르코프 체인 | 확률 과정 11장 | 마르코프 과정, 이산 시간 및 연속 시간 마르코프 체인 | 강화 학습 및 시계열 예측에 필수적 | |
주제 7: 베이지안 확률과 통계 | 베이지안 확률 이론 | 프로그래머를 위한 확률론 2장 | 조건부 확률, 결합 분포, 베이즈 공식 | 베이지안 방법론은 머신러닝 모델에서 불확실성 추정과 모델 평가에 중요한 역할을 함 |
베이지안 추정 | 프로그래머를 위한 확률론 6장 | 베이즈 추정, 사전 확률과 후방 확률 | 예측 모델의 불확실성을 수학적으로 다루는 방법 이해 | |
주제 8: 확률 그래프 모델 | 확률 그래프 모델의 소개와 기초 | Probabilistic Graphical Models 1장, 2장 | 구조화된 확률 모델, 개요 및 로드맵, 확률 이론, 그래프 이론 | 확률 그래프 모델의 기본 개념과 구조 이해 |
베이지안 네트워크 표현 | Probabilistic Graphical Models 3장 | 베이지안 네트워크의 정의, 독립성 속성 활용, 그래프의 독립성 | 구조화된 확률 모델을 이해하고 구축하는 데 필수적 | |
비방향 그래프 모델 | Probabilistic Graphical Models 4장 | 마코프 네트워크, 독립성, 베이지안 네트워크와의 비교 | 비방향 그래프 모델을 이해하고 적용하는 데 중요 | |
지역적 확률 모델 | Probabilistic Graphical Models 5장 | 표 형태의 CPDs, 결정적 CPDs, 컨텍스트-특정 CPDs, 원인의 독립적 영향, 연속 변수, 조건부 베이지안 네트워크 | 지역적 특성을 고려한 모델링은 데이터의 세부 구조를 더 잘 반영할 수 있음 | |
가우시안 네트워크 모델 | Probabilistic Graphical Models 7장 | 다변량 가우시안, 가우시안 베이지안 네트워크, 가우시안 마코프 랜덤 필드 | 연속형 데이터 모델링과 가우시안 분포 기반의 확률 그래프 모델링에 중요 | |
지수 가족 | Probabilistic Graphical Models 8장 | 지수 가족, 팩터된 지수 가족, 엔트로피 및 상대 엔트로피 | 머신러닝 모델의 확률 분포를 표현하는 데 있어 지수 가족의 중요성 이해 | |
주제 9: 확률 그래프 모델 학습 | 그래프 모델 학습: 개요 | Probabilistic Graphical Models 16장 | 학습 목표, 최적화로서의 학습, 학습 작업 | 확률 그래프 모델 학습의 기본 개념과 접근 방법 이해 |
매개변수 추정 | Probabilistic Graphical Models 17장 | 최대 우도 추정, 베이지안 매개변수 추정 | 베이지안 네트워크 및 확률 그래프 모델의 매개변수 추정 방법 이해 | |
베이지안 네트워크의 구조 학습 | Probabilistic Graphical Models 18장 | 구조 점수, 구조 검색, 베이지안 모델 평균화 | 베이지안 네트워크의 구조적 학습 방법을 이해하고 적용하는 데 필요 | |
부분 관찰 데이터 | Probabilistic Graphical Models 19장 | 불완전 데이터로 매개변수 추정, 숨겨진 변수를 가진 모델 학습 | 부분 관찰 데이터와 불완전한 데이터 세트에서의 학습 방법 이해 | |
비방향 모델 학습 | Probabilistic Graphical Models 20장 | 비방향 모델의 우도 함수, 최대 (조건부) 우도 매개변수 추정, 근사 추론을 통한 학습 | 비방향 그래프 모델의 학습과 추론을 이해하고 적용하는 데 필요 | |
주제 10: 행동과 결정 | 인과관계 | Probabilistic Graphical Models 21장 | 인과 모델, 구조적 인과 식별성, 반사실적 질의 | 데이터 간의 인과 관계를 이해하고 인과 추론을 통해 의사 결정을 개선하는 데 중요 |
효용과 결정 | Probabilistic Graphical Models 22장 | 기대 효용 극대화, 효용 추정, 복잡한 결과의 효용 | 효용 이론을 바탕으로 최적의 의사결정을 내리는 방법 이해 |