AI505 Paper list for share

1. ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION https://arxiv.org/pdf/1412.6980.pdf 2. SVRG https://papers.nips.cc/paper/4937-accelerating-stochastic-gradient-descent-using-predictive-variance-reduction.pdf 3. SGD: General Analysis and Improved Rates https://arxiv.org/pdf/1901.09401.pdf 4. A CLOSER LOOK AT DEEP LEARNING HEURISTICS: LEARNING RATE RESTARTS, WARMUP AND DISTILLATION https://openreview.net/pdf?id=r14EOsCqKX 5. QSGD: Communication-Efficient SGD via Gradient Quantization and Encoding https://arxiv.org/abs/1610.02132 6. SAGA: A Fast Incremental Gradient Method With Support for Non-Strongly …

Read moreAI505 Paper list for share

AI502 Paper list for share

Presentation – Each student should select 1 paper. – Bold papers can be selected by at most 2 students. – Other papers can be selected by at most 3 student.   Implementation – Each student should select 5 papers including 1 presentation paper. – Each paper can be selected by at most 14 students. – …

Read moreAI502 Paper list for share

MIT 18.06 선형대수 – 기초 (Lec01~Lec03)

이 포스트는 MIT 길버트 스트랭 교수 (Gilbert Strang) 님의 선형대수학 강의 1장에서 3장까지의 내용을 다루고 있습니다. (‘Linear Algebra’ ; MIT 18.06). 이 포스트는 선형대수의 기초에 대해서 알고자하는 분들을 위해서 작성되었습니다. (해당 강의의 YouTube 영상 링크 : Here ) 포스트의 내용을 작성하기 위해, 마이크로소프트 One-Note 프로그램을 사용하여 수기 필기내용을 옮겼습니다. 따라서 포스트의 내용은 One-Note 에서 저장된 …

Read moreMIT 18.06 선형대수 – 기초 (Lec01~Lec03)