Loading...
2024. 6. 17. 21:49

L1 regularization vs. L2 regularization vs. elastic net 비교하기

1. elastic net 알고리즘 L1 regularization과 L2 regularization을 모두 사용한 regularization loss에 L1 term과 L2 term의 선형결합을 더해서 모델을 학습시키는 알고리즘   2. L1 , L2, elastic net 비교 L1, L2는 모두 계수 $\lambda$가 크면 클수록 parameter를 축소시킨다. L2는 parameter를 0으로 근사시키나 L1은 parameter를 완전하게 0으로 축소시키는 경향이 있다. L1은 무수히 많은 변수들이 있는데 영향력이 강력한 변수들은 별로 없다고 생각이 들면 대부분의 변수를 0으로 축소시켜 일부 변수만 선택하고자할때 유리함 그러나 L1은 covariate가 sample에 비해 충분히 많을 때 상관관..

2024. 2. 2. 21:45

29장 평균으로의 회귀

1. 뛰어난 자질은 유전된다 20세기 초에 우생학이 제국주의 유럽을 휩쓸었다. 우생학은 우수한 유전형질을 가진 사람과 그렇지 않은 인류가 나눠져 유전적으로 인류를 개량해야 한다는 일종의 이데올로기이다. 인종 차별의 이론적 근거를 마련하려던 우생학은 지금은 학문으로 인정받지 못한다. 하지만 당시에는 다윈의 진화론과 엮여 학문의 한 분야인 것처럼 행세했다. 다윈의 사촌동생이자 우생학의 시초로 종종 지목되는 프랜시스 골턴은 "뛰어난 자질은 유전된다"는 믿음을 확인하기 위해 영국과 유럽 대륙의 여러 유명한 가문을 조사했다. 정치인, 시인, 과학자, 종교인, 군인 및 레슬링 선수들의 가계를 살펴 라는 책으로 출판하였다. 골턴은 우수한 유전자가 흐르는 뛰어난 자질을 가진 가계가 분명히 존재한다는 것을 증명하고자 했..

2022. 1. 30. 02:59

회귀분석에서 회귀계수는 유의하지만 절편이 유의하지 않다면..?

1. 문제 회귀분석을 수행할 때 회귀계수는 유의하더라도 절편이 유의하지 않다면 어떻게 해야할까? intercept가 유의하지 않고 회귀계수가 유의하니까 추정된 회귀식을 y = 1.5295x라고 적어야할까? 아니면 y = 1.5295x + 6.4095라고 적어도 괜찮은 걸까? 정답은 후자다. 절편을 아무 근거없이 함부로 제거하면 안된다 2. 절편은 어떤 의미를 가지는가? y = a+bx라는 회귀식에서 절편 a는 어떤 의미를 가질까? 절편이라는 것은 설명변수의 위치에 의존하게 된다. '설명변수 x=0일 때 반응변수 y의 값이 상수 a와 같다' 설명변수 x가 0일때라는 점에서 절편이 갖는 의미가 생각보다 중요하지 않다 설명변수 x가 0일때 의미없다면 절편도 아무런 의미를 갖지 않게 된다. 예를 들어 생각해보면..

2022. 1. 2. 23:01

경사하강법(gradient descent)의 한계

1. 선형회귀분석 주어진 n개의 데이터에서 이들을 가장 잘 설명하는 선형모형을 찾는다 이전에는 무어펜로즈 역행렬을 이용하여 찾았다 무어펜로즈 역행렬을 이용하여 오차의 norm을 최소화하여 회귀계수 $\beta$를 찾는다. 무어펜로즈 역행렬은 컴퓨터 계산 시간 측면에서 비효율적이다 변수 수 m에 따라 $O(m^{2})$이라고 한다. 대안으로 경사하강법을 이용하여 회귀계수를 추정할 수 있다. 2. 선형회귀분석에서의 경사하강법 선형회귀분석은 위에서도 보였지만 \[y-X\beta\]의 norm을 최소화하는 $\beta$를 찾는것. 그러므로 \[y-X\beta\]의 norm을 $\beta$로 미분한 그래디언트 벡터를 구한다 그래디언트 벡터를 구하면 경사하강법을 이용하여 $\beta$에 그래디언트 벡터를 빼서 얻은..