z '분류 전체보기' 카테고리의 글 목록 (8 Page)
본문 바로가기

분류 전체보기

(59)
[논문 리뷰] SRCNN : Image Super-Resolution Using Deep convolutional Networks (2015) SRCNN 시작하면서.. 2~3달 전부터 컴퓨터 비전 공부를 시작해보려고 그 중 하나의 방법인 gan에 대해서 한창 공부 했었습니다. 공부를 하다 보니 image generation 및 transfer 를 공부 한다기 보다는 Gan 자체에 얽매여 있었지 않았나 하는 생각이 들었습니다. 이제 제대로 딥러닝을 이용한 컴퓨터 비전 공부를 하기 위해서 딥러닝 컴퓨터 비전에서의 어떤 한 분야 씩 정해놓고 기초적인 논문을 읽고 쭉 파고 나갈까 생각하고 있습니다. 그래서 이번에 고른 분야는 저해상도 영상을 고해상도 영상으로 바꿔줄 수 있는 Super Resolution에 대해 공부하고자 합니다. 이번에는 super resolution in deep learning 에서도 가장 기본적인 SRCNN을 공부하고 리뷰해보려..
머신 러닝에서 확률 Probability in ML 불확실성 혹시 머신러닝에서의 불확실성에 대해서 생각해보신 적 있으신가요? 머신러닝에 대해서 관심 있으신 분들은 아시겠지만, 머신러닝은 불확실성과 관련이 매우 깊습니다. 주로 불확실성에 대한 해결이 목적이고, 이 뿐만 아니라 불확실성을 도구로 이용할 수 도 있습니다. 목적으로서의 불확실성 : data, 도구로서의 불확실성 : Noise .. 확률 보통 확률을 보는 관점에는 두가지가 있습니다. 빈도주의 관점 베이지안 관점 빈도주의 관점 빈도주의 관점에서는 확률을 "상대적 빈도의 극한"으로 봅니다. 이는 관심있는 사건 발생 횟수/전체 시행 횟수에서 전체 시행 횟수를 극한으로 보냈을 때 비율을 확률로 본다는 뜻입니다. $${ \lim_{n->\infty} n(E)\above 1p..
[논문 리뷰] How Does Batch Normalization Help Optimization?, 2018 배치 정규화에 대한 고찰. (How Does Batch Normalization Help Optimization?, 2018) 개요 배치 정규화는 DNN 학습의 속도 향상 및 안정에 좋은 영향을 줍니다. 이와 같은 현상에 대한 이유와 널리 퍼져있는 오해에 대해 실험을 통하여 분석하고 밝혀내고자 합니다. Abstract Batch Normalization은 DNN 학습의 속도 향상 및 안정화를 가능하게 합니다. 하지만 Batch Normalization이 널리 알려저 있음에도 불구하고 오해가 널리 퍼져 있습니다. 이 논문에서 주장하는 "오해" 는 layer's input distribution의 변화를 조정함으로써 Internal Covariate Shift를 막는 다는 것 입니다. Internal Cov..