
이제 본격적으로 인공신경망을 공부하기 전에 여러 개념들을 정리하고 넘어가 볼까 합니다. :) 머신러닝 프로세스 학습하고자 하는 가설(Hypothesis)을 수학적 표현식으로 나타내기 가설의 성능을 측정할 수 있는 손실함수 정의하기 손실함수를 최소화할 수 있는 학습 알고리즘 설계하기 gradient descent - 경사 하강법 (경사를타고 내려가는 알고리즘, 매 스텝마다 미분값 계산) Batch Gradient Descent - 전체 트레이닝 데이터를 하나의 Batch로 만들어 사용, 트레이닝 데이터 개수가 매우 많아질 수 있고, 파라미터 한 스텝을 업데이트 하는데 굉장히 많은시간이 소모 -> 최적의 파라미터를 찾는데 오랜 시간소모 Stochastic Gradient Descent - 한 스텝을 업데이트..

오늘은! 머신러닝 모델에서 가장 기본적이고 기초적이라 할 수 있는 선형회귀 모델을 공부해보려 합니다 별로 어렵지 않는내용이면서 재밌게 공부할 수 있어요! 먼저 선형회귀에대해 공부하기 전에, 머신러닝 모델 개발은 다음과 같은 프로세스를 거치게 됩니다. 학습하고자 하는 가설(Hypothesis)을 수학적 표현식으로 나타냅니다. 가설의 성능을 측정할 수 있는 손실함수(Cost Function 혹은 Loss Function)을 정의합니다. 손실함수를 최소화 할 수 있는 알고리즘을 설계합니다. 저는 머신러닝을 공부하기 전에, 도대체 어떻게 컴퓨터가 학습을 하는걸까? 라는 의문을 품고 있었습니다. 이에 대한 답은!! 비용함수(손실함수)를 최소화 하도록 만드는 것이였는데요. 말로만 들어서는 이해가 잘 안가실 수 있지..

해야지 해야지 미루기만 했던 머신러닝 공부를 얼마전부터 시작해서, 앞으로 공부한 내용을 정리할 겸 블로그에 올리려고 합니다! 책과 유튜브 머신러닝 강의를 공부한 내용을 토대로 올리는 거라 내용상 오류가 적을 것 같지만, 혹시라도 틀린 점, 잘못된 점이 있다면 알려주시면 감사하겠습니다 :) 많은 분들이 그렇겠지만, 저는 머신러닝, 딥러닝에 대해 알게되고 관심을 갖게 된 계기가 알파고와 이세돌9단의 대국이였습니다. 하지만, 이 머신러닝, 딥러닝기술이 최근 몇년사이 반짝 하고 나온게 아니라, 이전부터 많은 연구자들이 연구해오고 좌절도 겪고 하며 지금에서야 빛을 발하게 된 기술이더라구요 ㅎㅎ 연구는 약 1950년대 후반 부터 시작해서 지금까지 중간중간 여러번의 혹독한 좌절을 겪으면서, 발전해온 기술이랍니다. 지..
딥러닝을 유튜브 강의 영상과, 책을통해 공부하고 있는데, 아무래도 텐서플로 2.0 버전이 나온지 얼마 되지 않았기 때문에, 강의와 책에 나오는 코드가 많이 바뀌어 있음을 알 수 있다 ㅜㅜ 아직 강의라던지 책의 개정판을 많이 찾기가 어려운 상황이기 때문에 우선 1을 먼저 공부 한 후 2.x를 공부해야 겠다. 그런데, 정말정말 다행이도 텐서플로 2.x 버전에서 1.x 버전의 코드를 실행할 수 있게 해놓았다. 그 방법은 정말 간단하다! 단 두 줄! import tensorflow.compat.v1 as tf tf.disable_v2_behavior() tensorflow 1.x 를 실행하기 위해서는 import tensorflow as tf 로 임포트 해주는게 아니라, 위에 코드 처럼 선언해줘야 한다. 더 자..