전체 글95 [이산수학] (1) Recurrence Relation Sequence와 Recurrence Relation은 우리말로 각각 수열과 점화식이다. 수열은 수의 나열을 뜻하는데, 나열된 수들간의 일관된 관계가 존재하지 않아도 괜찮다. 그러나 점화식은 이러한 수열의 항간의 일률적인 관계를 나타낸다. 곰곰히 생각해보면 점화(recurrence)는 재발한다는 뜻인데, 점화식의 일반적인 구조를 살피면 좌변에는 다음 순번의 항이 위치하고 우변은 그 전번의 항이 위치한다. 그럼 좌변의 항은 다시 그 다음 항을 나타내기 위한 우변의 전번항이 된다. 우선 First order Recurrence relation은 말그대로 1차 점화식이다. 수열 {an}을 an=s*an-1 + t 와 같은 일차식을 충족하는 항들의 나열이라고 가정할때, 이 관계식을 1차 점화식이라 부른다. 위 .. 2022. 4. 17. [탑코미디어] (6) 탑코 일본사업부 양수 장마감 이후 영업양수 공시가 게재되었습니다. 탑코미디어의 형제회사, 실질적 모회사인 탑코로부터 일본 웹툰사업부를 200억 주고 양수한다는 내용입니다. 이번 영업양수를 위해 회계법인은 DCF를 활용하여 양수가액을 감정하였습니다. 회계법인의 평가로직을 살피면서 새로운 정보를 취하고, 더불어 200억에 달하는 양수가액이 적절한지에 대해 판단해봅시다. 레진코믹스는 독특하게도 내수용 사이트보다 북미사이트의 트래픽이 더 높습니다. 이번 보고서를 통해 레진코믹스의 북미매출이 18년도 기준 105억임을 알 수 있었습니다. 아래 첨부한 레진코믹스 북미, 일본사이트의 월간트래픽을 비교해봤을 때 매출액과 트래픽의 상관성은 그리 크지 않은 것으로 보입니다. 이는 높은 무료웹툰 비중, 독자의 저조한 과금성향에 기인하는 것으로 .. 2022. 3. 12. [ML개론] (25) Multivariate Gaussian Distribution GMM을 배우기에 앞서 multinomial distribution, multivariate distribution을 배울 필요성을 느낀다. Multinomial distribution은 다음 예시를 통해 설명할 수 있다. T/F의 option이 단번에 6개 존재하는 distribution이 있다고 가정하자. 가령 부탄추에 라멘을 먹으러갔는데 무료 택1 토핑 옵션이 (숙주/마늘/파/차슈/국물진하기/면양)와 같이 존재하며 고객은 이 중 하나만을 무료로 먹을 수 있다. 그럼 특정 instance 고객1은 숙주를 선택할 수 있고, 고객2는 차슈를 선택할 것이다. 그럼 P(X1|mu)=mu_1, P(X2|mu)=mu_4가 된다. 그럼 N개의 selection이 주어진 D개의 dataset이 존재한다고 가정해보자.. 2022. 3. 1. [선형대수] (n) Covariance Matrix Multivariate distribution을 다룰 때나 Multivariate Regression을 진행할 때 필연적으로 마주치는 개념. 금융field에선 CAPM의 beta값을 계산할 때 활용되는 개념이다. input feature 2개로 구성된 data의 covariance mtx은 2by2 matrix로 이루어진다. 이는 항상 feature^2 matrix의 형태다. 가령 특정 과일을 먹었을 때 행복도를 나타낸 dataset이 존재한다고 가정해보자. sub1은 input feature 에 대해 의 행복도를 갖고 sub2, sub3는 각 , 이다. 이 때 사과와 바나나의 공분산은 어떻게 형성되는가? COV(A,B) = E(A*B) - E(A)E(B)가 공식이긴 한데 직관적으로 설명하려면, 사과와 .. 2022. 3. 1. [ML개론] (24) K-Mean Algorithm 이제 Regression을 활용한 Classification 말고 non-labeled data에 대한 Clustering을 진행해보자. 가령 좌측그림과 같이 서로 세가지의 다른 label을 지닌 data가 x1, x2에 대해 다음과 같이 산포되어있다고 가정하자. 이들은 서로 다른 label을 지닌 다른 타입의 data지만 우리가 지닌 sample dataset에는 이들의 label이 없다. 즉 이전까지 살펴본 지도학습의 경우 정답에 해당하는 label이 있었기 때문에 그 정답과 예측치의 오차를 줄이는 방식으로 classification을 진행했지만 clustering은 label이 없기 때문에 조금 다른 방향으로 학습을 진행한다. 이를 비지도학습이라 부른다. 그 중 K-Means Clustering과 .. 2022. 3. 1. [ML개론] (23) Potential Function & Belief Propagation Algorithm normalized되지 않았다든지의 이유로 PDF가 아닌 함수를 potential function이라 부른다. 가령 P(A,B,C,D)=P(A|B)P(B|C)P(C|D)P(D)와 같이 PDF이기에 factorization될 수 있는 node들이 존재하는 반면, potential fn이기에 위와같이 표기되지 못하는 함수들이 존재한다. 이는 NN에 있어 치명적인데, NN의 output값이 확률의 형태, 즉 0과 1 사이의 값이어야만 하는데 만일 적분값이 1이 되지 못한다면 이는 softmax를 통해 normalize 작업을 거쳐야 비로소 활용된다. 즉 potential fn의 형태로 weight을 곱하고 ReLU 등을 거치고 최종적으로 이를 normalize해주어 확률값을 도출해내는 것이다. 그 과정에서 p.. 2022. 3. 1. [ML개론] (22) Marginalization & Elimination 이전 글에서 Conditional prob, likelihood, most probable assignment inference를 다뤘다. 결국 특정 확률의 inference를 위해선 full joint에서부터 시작하여 이를 계속 marginalize out하여야 함을 확인했다. 가령 P(A, B, MC)의 likelihood inference를 위해선 JC, E factor에 대해 marginalize out한 full joint prob을 구해야한다. 그런데 이러한 inference algorithm을 Big-oh notation으로 평가하면 어떨까? r.v의 갯수가 늘어날수록 더 많은 multiplication으로 이어지기 때문에 연산이 늘어나게 된다. 가령 n개의 variable이 존재하고 이 중.. 2022. 2. 26. [ML개론] (21) Inference prob. based on evidence 이전글에서 Bayesian Network를 통해 Joint probability를 계산하는 방법에 대해 다뤘다. 이번엔 Likelihood, Conditional Prob., Most Probable Assignment를 inference하는 방법을 배워보자. 우선 기호를 몇가지 약속하고 살펴보자. X는 모든 node, 즉 모든 random variable을 뜻한다. Xv는 evidence로 주어진 varaible을 뜻한다. Xh는 X에서 Xv를 제외한 node들, 즉 hidden variable을 뜻한다. 가령 Xv={도둑, Mary전화}라면 도둑이 들고 Mary가 전화한 event가 관측되었음을 뜻한다. P(Xv)= Σ_Xh P(Xh,Xv)를 통해 우린 해당 evidence가 관측될 joint pro.. 2022. 2. 26. [ML개론] (20) Bayes Ball Algorithm & Factorization 앞서 살펴본 Bayesian Network의 목적은 joint probability를 계산하기 위해서다. 그럼 node들간의 관계를 나타내는 Bayesian Network를 활용하여 joint probability 계산을 더욱 쉽게 해보자. 우선 Bayes Ball Algorithm을 논하기에 앞서 Markov Blanket 개념을 알아보자. Markov Blanket이란 특정 node A에 대해 해당 node의 확률분포를 알기 위해서 필요한 최소한의 node집합을 뜻한다. 가령 node A를 알기 위해선 최소 A의 parent node, child node, child's other parent node가 필요하다. 따라서 node A 인근의 여타 node들의 집합을 markov blanket이라 명명.. 2022. 2. 26. [ML개론] (19) Bayesian Network 일전에 살펴본 Naive Bayes Classifier는 Bayes Thm에 기반한다. Bayes Thm은 P(Y|X) = P(Y)*P(X|Y) / P(X) 으로 정의된다. 이 때 만약 instance의 feature 갯수가 2개 이상일 경우, P(X1, X2, ..., Xd|Y)에 대한 데이터가 필요하다. 대략 2^d개 만큼의 데이터가 존재해야만 Y가 주어졌을 때 각 feature들의 Y/N을 알 수 있는 것이다. 그런데 이를 naive하게 feature들간의 conditional independence를 가정하여 이들을 곱의 형태로 표현한 것이 NBC다. 이 때 우리는 Y의 발생여부가 X1, X2의 확률에 미치는 영향을 위의 도식처럼 표현할 수 있다. 이 때 X1, X2는 서로 conditional .. 2022. 2. 25. [ML개론] (18) Review on Probability 본격적으로 Bayesian Network를 다루기에 앞서 확률론에 대한 기본적인 정의를 복습해보자. 확률은 빈도주의학파, 베이지언에 따라 그 정의가 다르다. 우선 빈도주의학파의 관점에선 확률이란 특정 event인 A=True가 지속적으로 발생했을 때, 이를 Law of Large Number에 의해 특정 확률로서 믿을 수 있단 것이다. 가령 가위바위보를 10000번 했을 때, 무승부를 제외한 가위의 승률이 33%인 것이 이에 해당한다. 조건부확률은 B=True인 event가 관측되었을 때, A=True일 확률을 뜻한다. 수식에서 볼 수 있듯이 사건이 관측되었기 때문에 확률세계는 B=True라는 국소지역으로 축소된다. 결합확률은 event A, B가 동시에 발생할 확률을 뜻한다. 결합확률은 조건부확률을 통.. 2022. 2. 25. [ML개론] (17) F-measure & Regularization 이전 글에서 testing을 하는 이유와 그 방법론에 대해 알아봤다. 그럼 testing의 결과는 어떻게 측정되는가? 사실 true fn과 average hypothesis를 통해서 bias와 var를 구하는 것이 가장 좋지만 이들은 계산불가하다. 따라서 우리는 performance mtx를 활용하여 error를 측정하고자 한다. 만약 우리가 classifier로 스팸필터를 설계했다고 가정해보자. 스팸필터의 핵심은 "스팸이 아닌 메일을 스팸으로 분류하면 안된다"는 것이다. 스팸메일을 일반메일로 분류하면 그냥 삭제해주면 되지만 일반메일인데 스팸메일함에 들어가 있으면 이를 놓치게 되기 때문이다. 따라서 우리는 False-positive, 즉 스팸이 아닌데 스팸이라고 판독한 1종오류를 중점적으로 측정해야한다... 2022. 2. 25. 이전 1 2 3 4 5 6 ··· 8 다음 반응형