'일상/그외'에 해당되는 글 4건

  1. 2015.12.25 [스포있음] 레옹을 다시봤다. (3)
  2. 2015.11.25 네이버 동영상 광고 생략 (2)
  3. 2014.07.02 ALL YOUR BAYES ARE BELONG TO US
  4. 2013.11.14 Coupon Collector’s Problem (2)

레옹을 오랜만에 다시보았다. 

결말부분의 레옹이 경찰들이 깔린 건물을 도망쳐 나올때 밝은 출구는 왠지 천국을 의미하는 것 같았다.



프로 중에 프로인 레옹이 뒤에서 총구를 겨누는 스탠 형사를 알아차리지 못 한건 그가 마틸다를 만나면서 인간이 되었다는 증거, 그만큼 청부업자로서의 감각이 무뎌진 것이 아니려나? 

사실, 합리적인 판단이라면 마틸다를 구하러 DEA 건물로 처들어가지도 못했겠지만.

영알못이지만 총을맞고 쓰러지는 레옹을 레옹의 시점으로 흔들리는 카메라를 이용해 표현한 것이 신기했다.


참 크리스마스와 잘 어울리는 영화라고 할 수 있겠다.

'일상 > 그외' 카테고리의 다른 글

[스포있음] 레옹을 다시봤다.  (3) 2015.12.25
네이버 동영상 광고 생략  (2) 2015.11.25
ALL YOUR BAYES ARE BELONG TO US  (0) 2014.07.02
Coupon Collector’s Problem  (2) 2013.11.14
Posted by 헬벨

댓글을 달아 주세요

  1. 덕후형 2015.12.26 20:56 신고  댓글주소  수정/삭제  댓글쓰기

    레옹! 나스에 좀 올려주삼ㅋㅋ

크롬 플러그인 adblock을 설치하고 (https://www.getadblock.com/)

옵션 - 사용자 필터 - 차단 필터에 

http://ams.rmcnmv.naver.com/ 

를 추가하면 끝.


'일상 > 그외' 카테고리의 다른 글

[스포있음] 레옹을 다시봤다.  (3) 2015.12.25
네이버 동영상 광고 생략  (2) 2015.11.25
ALL YOUR BAYES ARE BELONG TO US  (0) 2014.07.02
Coupon Collector’s Problem  (2) 2013.11.14
Posted by 헬벨

댓글을 달아 주세요

  1. 덕후형 2015.11.25 13:06 신고  댓글주소  수정/삭제  댓글쓰기

    오호 좋군요 ㅋㅋ

  2. 헬벨 2015.11.26 16:37 신고  댓글주소  수정/삭제  댓글쓰기

    광고 5초일때는 그냥 넘겼는데, 15초는 도저히 버틸수가없음ㅋㅋ

ALL YOUR BAYES ARE BELONG TO US

-Vladimir Vapnik

 

머신 러닝 수업 시간에 윤성로 교수님이 보여주신 사진이다.

교수님은 이 사진으로부터 재미있는(?) 점을 3가지 찾을 수 있다고 하였다

우선 화이트보드에 써있는 VC bound 스러운 공식, 운동이 필요해보이는 후덕한 인상의 뱁닠 교수님, 그리고 마지막으로 화이트보드에 적힌 영어 문장의 문법 오류.

belong은 동사로서 be 동사가 필요치 않다고 설명하시며, 위대한 (VC-dimension, SVM 등) 연구자라도 영어를 실수 할 수 있다고 마무리지었다.

 

하지만 알고보면 이 사진에는 statistical learning theory와 2000년대 초반 인터넷 유행어가 담겨있다.

알다시피 Bayes는 Bayes’ Theorem으로 유명한 통계학자이다.

Bayes’ Theorem

그리고 All your base are belong to us 는 Zero wing이라는 게임에서 엉터리 영어를 구사하여 유행하게 된 일종의 인터넷 드립이다. (http://mirror.enha.kr/wiki/All%20your%20base%20are%20belong%20to%20us)

1991년 비디오 게임 Zero wing

 

뱁닠 교수님 뒤에 써있는 문구는 “BAYES”로, 번역해보자면 “모든 BAYES는 우리에게 접수되었다” 라는 뜻인데, 이건 무슨 의미일까?

화이트 보드 상단의 공식은 VC-bound와 비슷한 성질을 가지고 있는, Empirical risk minimization (ERM)을 이용하였을때 예상되는 risk 의 upper bound에 대한 공식이다.

R(\tau_i) \leq R_{emp}(\tau_i) + \frac{\ln(N)-\ln(\eta)}{l}(1+\sqrt{1+\frac{2R_{emp}(\tau_i)l}{\ln(N)-\ln(\eta)}})

Training data로부터 ERM을 이용하여 risk가 최소화되도록 model을 학습한다면, 새로운 test data에 대한 risk는 위의 식에 의해 bound 된다는 뜻이다. (정확히는 1-eta의 확률로 bound된다)

Bayesian learning framework는 어떤 사후 확률(posterior) P(A|B)를 알아내기 위해 Bayes’ theorem에 의해서 prior P(A)와 likelihood P(B|A)의 곱으로 분리시키고, 모델 A에 대한 적절한 prior를 정의하는 식으로 진행된다.

반면에 ERM framework는 모델에 대한 사전 확률 prior를 정의할 필요 없이, 주어진 training data에 대해 risk가 최소화되도록하는 hypothesis를 구하는 문제이며, 이는 새로운 test data의 risk가 empirical하게 구한 risk에 bound된다는 것을 밝힘으로써 generalization 문제가 해결된다.

결론은, ERM learning framework가 Bayesian의 그것보다 우월하다는 점(prior에 대한 가정이 불필요)을 그 근거가 되는 ERM risk bound 공식과 적절한 드립을 버무려서 표현한 것이라 할 수 있다.

'일상 > 그외' 카테고리의 다른 글

[스포있음] 레옹을 다시봤다.  (3) 2015.12.25
네이버 동영상 광고 생략  (2) 2015.11.25
ALL YOUR BAYES ARE BELONG TO US  (0) 2014.07.02
Coupon Collector’s Problem  (2) 2013.11.14
Posted by 헬벨

댓글을 달아 주세요

주사위의 모든 눈이 최소 한 번씩 나오려면 주사위를 던지는 횟수의 기대 값은?

100종류의 포켓몬 스티커를 모으기 위해 평균 몇 개의 포켓몬 빵을 사먹어야 하는가?

(스티커가 나올 확률은 100종류 모두 동일하다고 가정)

 

Coupon Collector’s Problem (from http://en.wikipedia.org/wiki/Coupon_collector’s_problem)

<br /><br /> \begin{align}<br /><br /> \operatorname{E}(T)& = \operatorname{E}(t_1) + \operatorname{E}(t_2) + \cdots + \operatorname{E}(t_n)<br /><br /> = \frac{1}{p_1} + \frac{1}{p_2} +  \cdots + \frac{1}{p_n} \\<br /><br /> & = \frac{n}{n} + \frac{n}{n-1} +  \cdots + \frac{n}{1}  = n \cdot \left(\frac{1}{1} + \frac{1}{2} + \cdots + \frac{1}{n}\right) \, = \, n \cdot H_n.<br /><br /> \end{align}<br /><br />

 

주사위 눈은 6개. 총 n번을 던져 모든 주사위 눈을 모은다(collect)고 생각하자.

다음의 notation들은 (i-1)개의 주사위 눈을 이미 가진 상태에서  정의된다.

\$p_i\$ : 던진 주사위에서 새로운 주사위 눈이 나오는 확률.

\$t_i\$  : 새로운 주사위 눈이 나올 때까지 주사위를 던지는 횟수 (Geometric distribution )

\$E(t_i)\$ : (mean of Geometrix dist) \$1/{p_i}\$

 

\$p_1\$ : 첫 시행이므로 새로운 주사위 눈이 나올 확률 = 1

\$p_2\$ : (주사위 눈을 1개 보유 중) 새로운 주사위 눈이 나올 확률  = 5/6

\$p_3\$ : (주사위 눈을 2개 보유 중) 새로운 주사위 눈이 나올 확률 = 4/6

\$p_4\$ : (주사위 눈을 3개 보유 중) 새로운 주사위 눈이 나올 확률 = 3/6

\$p_5\$ : (주사위 눈을 4개 보유 중) 새로운 주사위 눈이 나올 확률 = 2/6

\$p_6\$ : (주사위 눈을 5개 보유 중) 새로운 주사위 눈이 나올 확률 = 1/6

 

주사위의 경우 \$H_n\$ 의 값이 2.45, 즉, 모든 주사위의 눈이 나올 때까지 평균 6 * 2.45 = 14.7 번 던져야 한다.

 

보시다시피 \$H_n\$ 은 조화수열의 합으로 정의되어 있으며, n의 값이 커질수록

$$ E(T) = n \cdot H_n = n \ln n + \gamma n + 1/2 + o(1), \text{as}~~n \to \infty $$ 

와 같이 근사할 수 있다.  (\$ \gamma \approx 0.5772 \$)

대략적인 기대 값 \$E(T)\$는 \$ \Theta(n\log(n))\$ 으로 증가한다고 생각하면 된다.

 

포켓몬 빵의 예에서는 대략 \$E(T) = 100* \ln(100) + 0.577*100\$ = 518.3으로,

빵을 대략 520개는 먹어야 다 모을 수 있다고 기대해 볼만 하다.

'일상 > 그외' 카테고리의 다른 글

[스포있음] 레옹을 다시봤다.  (3) 2015.12.25
네이버 동영상 광고 생략  (2) 2015.11.25
ALL YOUR BAYES ARE BELONG TO US  (0) 2014.07.02
Coupon Collector’s Problem  (2) 2013.11.14
Posted by 헬벨

댓글을 달아 주세요

  1. 해리s 2015.11.08 10:51 신고  댓글주소  수정/삭제  댓글쓰기

    오 ㅋㅋㅋ 전 요즘 Markov chain 책 독학 중인데, 익숙한 내용이네요. :)

  2. 헬벨 2015.11.08 20:23 신고  댓글주소  수정/삭제  댓글쓰기

    오 무슨책인지 알려주실수 있나요? 전 저문제만 우연히 접해서..
    Quora에 올라온 most interesting probability problems 도 링크해드립니당.
    (https://www.quora.com/Probability-statistics-1/What-are-the-most-interesting-or-popular-probability-puzzles-in-which-the-intuition-is-contrary-to-the-solution)
    아직 읽어보진 않았지만요 ㅎㅎ