우리는 AI 학습할 때 모델을 학습시켜보고 평가하며 안되면 다시 고쳐서 학습시켜보는 과정을 반복함. 그러나 이게 전부일까? 1. 고객 중심 VS. 개발자 중심 조금만 생각해봐도 완벽하게 훈련시키고 평가한 모델을 고객에게 줘봤자 ‘고객이 원하는 것’이 아니라면 좋아하지 않는다는 사실을 알 것 어느 것이 더 좋다는 이야기를 하고 싶은 것이 아니고 여러 관점이 있다는 것을 이해하는 것이 중요하다 고객 중심으로 고객이 원하는 것만 만든다고 잘 만들어지는 것도 아니고 반대로 잘 만들다보면 고객이 원할수도 있는거고 2. 인공신경망의 학습과정은 완벽하게 추상화할 수 없다 보통 생각하기에 AI는 인공신경망에 input을 주면 output이 바로 나오는 인상을 주기 쉬운데 사실 그렇지 않다 심지어 input을 ..
1. Bernoulli distribution coin flip, head and tail 확률변수 값이 0 또는 1로 나타나는 분포 X ~ Ber(p)라고 표시 베르누이 분포는 p라는 모수 하나만 있으면 표현이 가능하다. P(X=1) = p라 하면 자동적으로 P(X=0) = 1-p이 결정되니까 2. Categorical distribution m-sided dice Bernoulli distribution의 확장판 확률변수 값이 1,2,3,...,m중 하나를 가질 수 있는 분포 Y~ Cat(p1,p2,...,pm)으로 표시 이 분포를 표현하기 위해 필요한 parameter의 수는 m-1개이다. 왜냐하면 각 카테고리별로 확률을 부여하면 이렇게 쓸 수 있어 필요한 모수의 수가 m개같이 ..
1. entropy를 줄이는 방법 무질서도를 측정하는 측도로 무작위할수록 높은 값을 갖는다. 색이 맞은 완전한 큐브는 단 1가지의 경우의 수(state)를 가지지만 색이 흐트러져 뒤섞인 큐브는 무수히 많은 경우의 수(state)를 가진다. 열역학 제 2법칙은 닫힌 공간에서 엔트로피는 항상 증가하는 방향으로 흐른다는 것이다. 시간이 과거에서 미래로 흐르는 것도 미래가 과거보다 무작위하다는 것을 생각하면 자연스럽다 그러나 공간에 에너지를 투입하는 경우 global하게 닫힌 공간으로 확장하면 엔트로피는 증가하지만 에너지를 투입한 local한 부분에서는 엔트로피를 감소시킬 수 있다 멋진 말로는 부분 공간에서는 시간을 잠깐 거슬러 올라갈 수 있다는것? 색이 흐트러져 뒤섞인 큐브는 무작위로 뒤섞여 엔트로피가 높은 ..
내 블로그 - 관리자 홈 전환 |
Q
Q
|
---|---|
새 글 쓰기 |
W
W
|
글 수정 (권한 있는 경우) |
E
E
|
---|---|
댓글 영역으로 이동 |
C
C
|
이 페이지의 URL 복사 |
S
S
|
---|---|
맨 위로 이동 |
T
T
|
티스토리 홈 이동 |
H
H
|
단축키 안내 |
Shift + /
⇧ + /
|
* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.