전체 글67 4-2. Logistic regression의 Cost function, Gradient descent 앞서 다루었던 Linear regression의 Hypothesis 식에 대한 cost function은 예측값과 실제값의 차이의 제곱을 평균(MSE, Mean Square Error)으로 한 형태를 갖고 있는 아래 식과 같은 2차함수의 형태였습니다. 따라서 어떤 지점에서 시작하든 Gradient descent algorithm으로 최소가 되는 값을 찾을 수 있었습니다. (참고: https://alifestudy.tistory.com/52) 하지만, Logistic regression의 Hypothesis 식은 Linear regression과 같은 선형이 아닌, 비선형인 Sigmoid 함수이기 때문에 Linear regression과 같은 MSE를 Cost function을 사용하면 적절한 최소값을 찾.. 2023. 8. 15. 4-1. Logistic regression 지금까지 포스팅에서는 데이터를 기반으로 output을 예측하기 위해 데이터를 가장 잘 표현하는 선을 찾는 Linear regression에 대해 알아보았습니다. Linear regression으로 추정한 모델의 특징은 어떤 input이 주어졌을 때 output의 패턴이 선의 형태로 나타난다는 것이었습니다 본 글에서는 데이터를 기반으로 output을 예측하는 것은 동일하지만, 연속된 값이 아닌 둘 중 하나를 구분(binary classification)하는 데 주로 사용되는 Logistic regression에 대해 알아보겠습니다. 본 algorithm은 deep learning에서 (특히 binary classification에서) 자주 사용되는 algorithm이기도 합니다. Logistic regre.. 2023. 8. 13. 3. 여러 개의 변수를 갖는 Linear regression 지금까지는 하나의 input에 대한 linear regression을 다루었다면, 이번에는 1. Linear regression에서 잠시 제시했던 여러 변수를 input으로 하는 Linear regression을 살펴보겠습니다. Hypothesis 식과 cost function 식은 하나의 변수로 이루어진 Linear regression 식 형태와 유사하게 다음과 같이 표현할 수 있습니다. 하지만 이와 같은 다변수 Linear regression 식의 경우, 변수가 많아질수록 줄줄이 써야하고, 코드로 표현하기에도 불편함이 있습니다. 그래서 일반적으로 이와 같은 식은 Matrix(행렬)로 표현합니다. 예시로, x_1, x_2, x_3 3개의 변수로 이루어진 4개의 데이터를 가정하고 Linear regres.. 2023. 8. 6. 웰씽킹 - 켈리 최 눈에 띄고 주목한 정도에 따라 * 표시를 했습니다. 블로그 글쓴이 본인의 생각은 이렇게 표시했습니다. **책날개: 대성한 사람들을 연구하고 몸소 실천했다. 아는 것을 넘어서서 실천하는 것이 중요하다. 프롤로그 | 내가 나아가야 할 새로운 길을 깨달았다! *8 자신이 깨달은 것을 실천하며 세상을 조금 더 살 만한 곳으로 만들기 위해 노력했다: 이것이 진정한 부의 생각-자신이 하고 싶은 일을 해서 세상을 변화시킨 사람들의 공통점. 이 부분에서 저번주에 읽었던 '카카오 이야기' 책에 나온 이재웅 다음 창업주의 말이 생각났다. 크게 된 사람들은 이와 같이 다른 사람들에게 좋은 영향을 미치려는 마음을 갖고 있다. **10 우선 자신이 좋아하는 분야의 최고가 되는 것에 몰두해야 한다. 본인의 경우 일단 딥러닝, A.. 2023. 8. 5. 이전 1 2 3 4 5 6 7 ··· 17 다음