Loading...
2022. 1. 31. 20:37

CNN(Convolutional Neural Network)은 왜 등장했을까?

1. Fully connected layer Neural network는 방대한 데이터를 모두 활용할 수 있도록 제한된 복잡도의 system에 압축하여 넣는 것 가장 간단한 single layer로 Perceptron이라고 부르는 Fully connected layer를 생각했다. input image에 대해 하나의 feature를 뽑기 위해 모든 pixel을 각각 서로 다른 가중치로 연결한 것이다 모든 pixel을 서로 다른 가중치의 sum을 하여 nonlinear activation function을 넣어 하나의 classification score를 뽑아낸다 2. Perceptron의 첫번째 문제점 이 간단한 모델을 먼저 matrix 형태로 바라본다면? 각 이미지 pixel 구조에 weight를 그..

데이터분석 전문가(ADP)를 위한 R프로그래밍 기초편2

1. 논리연산 Python이랑 동일함 ==은 서로 같음 != 은 서로 같지 않음 a = b는 a가 b보다 크거나 같다 2. 기본 수학 연산자 + , - , * , / 으로 더하기 빼기 곱하기 나누기 ^ 으로 n제곱 연산 > 5^3 [1] 125 > 5+3 [1] 8 > 5-3 [1] 2 > 5*3 [1] 15 > 12/3 [1] 4 > 12//3 Error: unexpected '/' in "12//" 3. 특수 논리 연산자 ! 은 부정연산 & 는 and 연산 | 은 or 연산 > 3 == 5 [1] FALSE > !(3==5) [1] TRUE > TRUE & FALSE [1] FALSE > TRUE | FALSE [1] TRUE 4. 벡터 인덱..

데이터분석 전문가(ADP)를 위한 R프로그래밍 기초편1

1. 출력함수 print() - 한번에 하나의 객체만 출력 > a print(a) [1] 3 cat() - 여러 항목을 묶어서 연결된 결과 출력 > cat('yun','dae','hyuck') yun dae hyuck > a b cat(a,b) 3 4 2. 할당연산자 a print(a) [1] 3 > a a = 5 > print(a) [1] 5 > a -> 6 Error in 6 6 -> a > print(a) [1] 6 3. 변수 목록보기 ls(), ls.str() 사용가능 > a ls() [1] "a" > ls.str() a : num 3 4. 변수 삭제하기 rm()을 사용 응용하여 rm(list=ls())로 모든 변수 목록 삭제 가능 5. 벡터 생성 c()를 사용 문자, 숫자, 논리값, 변수를 모두..

2022. 1. 30. 20:44

다익스트라 알고리즘 활용하기

1. 문제 https://programmers.co.kr/learn/courses/30/lessons/49189 코딩테스트 연습 - 가장 먼 노드 6 [[3, 6], [4, 3], [3, 2], [1, 3], [1, 2], [2, 4], [5, 2]] 3 programmers.co.kr n개의 노드가 있는 그래프가 있습니다. 각 노드는 1부터 n까지 번호가 적혀있습니다. 1번 노드에서 가장 멀리 떨어진 노드의 개수를 구하려고 합니다. 가장 멀리 떨어진 노드란 최단경로로 이동했을 때 간선의 개수가 가장 많은 노드들을 의미합니다. 노드의 개수 n, 간선에 대한 정보가 담긴 2차원 배열 vertex가 매개변수로 주어질 때 1번 노드로부터 가장 멀리 떨어진 노드가 몇 개인지를 return하도록 solution ..

조건부독립의 성질

만약 $w_{1},w_{2},...w_{n}$이 $c$가 주어질 때 서로 조건부독립이라면 \[P(w _{1},w _{2},....,w _{n}|c)= \prod _{i=1} ^{n} P(w _{i} |c)\]이다? $n=2$라고 한다면 \[P(w _{1}|w _{2} ,c)=P(w _{1} |c)\]이므로 \[\frac{P(w _{1} ,w _{2} ,c)}{P(w _{2} ,c)}=\frac{P(w _{1} ,c)}{P(c)}\] 식을 정리하면 \[\frac{P(w _{1} ,w _{2} ,c)}{P(c)}= \frac{P(w _{1} ,c)}{P(c)}\frac{P(w _{2} ,c)}{P(c)}\] 그러므로 \[P(w _{1},w _{2}|c)=P(w _{1} |c)P(w _{2} |c)\] $n=..

2022. 1. 30. 18:48

Naive bayes classifier의 개념과 핵심 아이디어

1. Naive bayes classifier bag of words로 얻은 sentence나 document를 특정 category로 분류하는 모델링중 가장 간단한 것이 naive bayes classifier d개의 문서(input)가 c개의 class에 분류될 수 있다면 특정한 문서 d는 어떤 클래스로 분류하는 것이 합리적인가? d가 주어질 때 모든 c에 대해 C=c의 조건부확률이 가장 높은 c에 분류하는 것이 합리적이다. 사후확률을 가장 높이는 maximum a posteriori 베이즈 정리를 이용하면 위 식은 아래와 같아진다. 그런데 주목할 점은 우리는 특정한 문서 d에 주목한다는 것이다. 특정한 문서 d가 뽑힐 확률 P(d)는 하나의 상수일 것이다. 상수 값은 최대화하는데 의미가 없으므로 P..