"정규 분포"의 두 판 사이의 차이
2번째 줄: | 2번째 줄: | ||
* 고딩과정의 통계에서는 정규분포의 기본적인 성질과 정규분포표 읽는 방법을 배움. | * 고딩과정의 통계에서는 정규분포의 기본적인 성질과 정규분포표 읽는 방법을 배움. | ||
− | * | + | * 정규분포의 <math>N(\mu,\sigma^2)</math>의 확률밀도함수, 즉 가우시안은 다음과 같음이 알려져 있음.<br><math>\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)</math><br> |
* 이 확률밀도함수가 어떻게 해서 얻어지는가 하는 것은 일반적인 고등학교 수준에서는 약간 어려움이 있지만, 호기심이 있는 학생들은 한번 도전해 보는 것도 괜찮아 보임. | * 이 확률밀도함수가 어떻게 해서 얻어지는가 하는 것은 일반적인 고등학교 수준에서는 약간 어려움이 있지만, 호기심이 있는 학생들은 한번 도전해 보는 것도 괜찮아 보임. | ||
− | |||
− | |||
− | |||
− | |||
− | |||
18번째 줄: | 13번째 줄: | ||
* 1) <math>\Phi(x)=\Phi(-x)</math><br> 2)작은 오차가 큰 오차보다 더 나타날 확률이 커야한다. 그리고 매우 큰 오차는 나타날 확률이 매우 작아야 한다.<br> 3) <math>\int_{-\infty}^{\infty} \Phi(x)\,dx=1</math><br> 4) 관측하려는 실제값이 <math>\mu</math> 이고, n 번의 관측을 통해 <math>x_1, x_2, \cdots, x_n</math> 을 얻을 확률 <math>\Phi(\mu-x_1)\Phi(\mu-x_2)\cdots\Phi(\mu-x_n)</math>의 최대값은 <math>\mu=\frac{x_1+x_2+ \cdots+ x_n}{n}</math>에서 얻어진다.<br> | * 1) <math>\Phi(x)=\Phi(-x)</math><br> 2)작은 오차가 큰 오차보다 더 나타날 확률이 커야한다. 그리고 매우 큰 오차는 나타날 확률이 매우 작아야 한다.<br> 3) <math>\int_{-\infty}^{\infty} \Phi(x)\,dx=1</math><br> 4) 관측하려는 실제값이 <math>\mu</math> 이고, n 번의 관측을 통해 <math>x_1, x_2, \cdots, x_n</math> 을 얻을 확률 <math>\Phi(\mu-x_1)\Phi(\mu-x_2)\cdots\Phi(\mu-x_n)</math>의 최대값은 <math>\mu=\frac{x_1+x_2+ \cdots+ x_n}{n}</math>에서 얻어진다.<br> | ||
* 4번 조건을 가우스의 산술기하의 법칙이라 부르며, 관측에 있어서 관측된 여러 값들의 산술평균이 실제값이 될 개연성이 가장 높다는 가정을 하는 것임. | * 4번 조건을 가우스의 산술기하의 법칙이라 부르며, 관측에 있어서 관측된 여러 값들의 산술평균이 실제값이 될 개연성이 가장 높다는 가정을 하는 것임. | ||
− | |||
54번째 줄: | 48번째 줄: | ||
<h5>정규분포</h5> | <h5>정규분포</h5> | ||
− | 정규분포 <math>N | + | 정규분포 <math>N(\mu,\sigma^2)</math>의 확률밀도함수 |
− | + | <math>\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)</math> | |
− | + | 의 앞에 붙어 있는 상수<math>\sqrt{2\pi}</math>에 담긴 사연 | |
− | <math> | ||
− | |||
− | + | 정규분포 이야기에서 잠시 벗어나 보이는 팩토리얼 얘기를 조금 한다. 위에 있는 숫자의 근원이 여기에 있기 때문이다. 소위 [[스털링 공식]]이라고 알려져 있는 팩토리얼의 근사식은 다음과 같다. | |
− | + | <math> n! \approx \sqrt{2\pi n}\, \left(\frac{n}{e}\right)^{n}</math> | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
106번째 줄: | 88번째 줄: | ||
* [[스털링 공식]] 항목을 참조 | * [[스털링 공식]] 항목을 참조 | ||
− | + | 사실 여기엔 드무아브르에게는 다소 섭섭할만한 역사가 담겨져 있다. | |
116번째 줄: | 98번째 줄: | ||
** 라플라스의 19세기 초기 버전<br> | ** 라플라스의 19세기 초기 버전<br> | ||
확률변수 X가 이항분포 B(n,p)를 따를 때, n이 충분히 크면 X의 분포는 근사적으로 정규분포 N(np,npq)를 따른다 | 확률변수 X가 이항분포 B(n,p)를 따를 때, n이 충분히 크면 X의 분포는 근사적으로 정규분포 N(np,npq)를 따른다 | ||
− | + | ||
** 드무아브르가 18세기에 발견한 것은 이항분포에서 확률이 1/2인 경우 | ** 드무아브르가 18세기에 발견한 것은 이항분포에서 확률이 1/2인 경우 | ||
− | + | ** [[드무아브르-라플라스 중심극한정리]] 의 유도는 해당 항목을 참조. | |
− | |||
− | |||
− | |||
2009년 7월 5일 (일) 01:21 판
간단한 소개
- 고딩과정의 통계에서는 정규분포의 기본적인 성질과 정규분포표 읽는 방법을 배움.
- 정규분포의 \(N(\mu,\sigma^2)\)의 확률밀도함수, 즉 가우시안은 다음과 같음이 알려져 있음.
\(\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)\) - 이 확률밀도함수가 어떻게 해서 얻어지는가 하는 것은 일반적인 고등학교 수준에서는 약간 어려움이 있지만, 호기심이 있는 학생들은 한번 도전해 보는 것도 괜찮아 보임.
'오차의 법칙'을 통한 가우시안의 유도
- 오차 = 관측하려는 실제값 - 관측에서 얻어지는 값
- 오차의 분포를 기술하는 확률밀도함수 \(\Phi\)는 다음과 같은 성질을 만족시켜야 함.
- 1) \(\Phi(x)=\Phi(-x)\)
2)작은 오차가 큰 오차보다 더 나타날 확률이 커야한다. 그리고 매우 큰 오차는 나타날 확률이 매우 작아야 한다.
3) \(\int_{-\infty}^{\infty} \Phi(x)\,dx=1\)
4) 관측하려는 실제값이 \(\mu\) 이고, n 번의 관측을 통해 \(x_1, x_2, \cdots, x_n\) 을 얻을 확률 \(\Phi(\mu-x_1)\Phi(\mu-x_2)\cdots\Phi(\mu-x_n)\)의 최대값은 \(\mu=\frac{x_1+x_2+ \cdots+ x_n}{n}\)에서 얻어진다. - 4번 조건을 가우스의 산술기하의 법칙이라 부르며, 관측에 있어서 관측된 여러 값들의 산술평균이 실제값이 될 개연성이 가장 높다는 가정을 하는 것임.
(정리) 가우스
이 조건들을 만족시키는 확률밀도함수는 \(\Phi(x)=\frac{h}{\sqrt{\pi}}e^{-h^2x^2}\) 형태로 주어진다. 여기서 \(h\)는 확률의 정확도와 관련된 값임. (실제로는 표준편차와 연관되는 값)
(증명)
\(n=3\)인 경우에 4번 조건을 만족시키는 함수를 찾아보자.
\(\Phi(x-x_1)\Phi(x-x_2)\Phi(x-x_3)\)의 최대값은 \(x=\frac{x_1+x_2+ x_3}{3}\) 에서 얻어진다.
따라서 \(\ln \Phi(x-x_1)\Phi(x-x_2)\Phi(x-x_3)\) 의 최대값도 \(x=\frac{x_1+x_2+ x_3}{3}\) 에서 얻어진다.
미분적분학의 결과에 의해, \(x=\frac{x_1+x_2+ x_3}{3}\) 이면, \(\frac{\Phi'(x-x_1)}{\Phi(x-x_1)}+\frac{\Phi'(x-x_2)}{\Phi(x-x_2)}+\frac{\Phi'(x-x_3)}{\Phi(x-x_3)}=0\) 이어야 한다.
\(F(x)=\frac{\Phi'(x)}{\Phi(x)}\) 으로 두자.
\(x+y+z=0\) 이면, \(F(x)+F(y)+F(z)=0\) 이어야 한다.
1번 조건에 의해, \(F\) 는 기함수이다.
따라서 모든 \(x,y\) 에 의해서, \(F(x+y)=F(x)+F(y)\) 가 성립한다. 그러므로 \(F(x)=Ax\) 형태로 쓸수 있다.
이제 적당한 상수 \(B, h\) 에 의해 \(\Phi(x)=Be^{-h^2x^2}\) 꼴로 쓸 수 있다.
모든 \(n\)에 대하여 4번조건이 만족됨은 쉽게 확인할 수 있다. (증명끝)
정규분포
정규분포 \(N(\mu,\sigma^2)\)의 확률밀도함수
\(\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)\)
의 앞에 붙어 있는 상수\(\sqrt{2\pi}\)에 담긴 사연
정규분포 이야기에서 잠시 벗어나 보이는 팩토리얼 얘기를 조금 한다. 위에 있는 숫자의 근원이 여기에 있기 때문이다. 소위 스털링 공식이라고 알려져 있는 팩토리얼의 근사식은 다음과 같다.
\( n! \approx \sqrt{2\pi n}\, \left(\frac{n}{e}\right)^{n}\)
팩토리얼은 정의는 간단할지라도 n이 조금만 커지기 시작하면 계산하기가 그리 만만치 않은 녀석이다. 따라서 위의 식은 실용적인 측면에서도 매우 유용한 근사식이 된다. 드무아브르는 이 근사식을 유도한 바가 있다. 다만 \(\sqrt{2\pi}\)라는 상수를 구하지 않고 다음과 수준의 표현을 남긴다. 적당한 상수 B가 있어 다음과 같이 된다는 것을!
\( n! \approx B \sqrt{n} \left(\frac{n}{e}\right)^{n}\)
역사는 다음과 같은 이야기를 전한다.
In Miscellanea Analytica (1730) appears Stirling’s formula (wrongly attributed to Stirling) which de Moivre used in 1733 to derive the normal curve as an approximation to the binomial. In the second edition of the book in 1738 de Moivre gives credit to Stirling for an improvement to the formula. De Moivre wrote:-
I desisted in proceeding farther till my worthy and learned friend Mr James Stirling, who had applied after me to that inquiry, [discovered that c = √(2 π)].
크레딧을 스털링에게 돌린 드무아브르. 오늘날 팩토리얼의 근사식은 (드무아브르의 이름은 온데간데 없이)
- 스털링 공식 항목을 참조
사실 여기엔 드무아브르에게는 다소 섭섭할만한 역사가 담겨져 있다.
중심극한정리의 역사
- 중심극한정리는 여러 과정을 거쳐 발전
- 이항분포의 중심극한 정리
- 라플라스의 19세기 초기 버전
- 라플라스의 19세기 초기 버전
확률변수 X가 이항분포 B(n,p)를 따를 때, n이 충분히 크면 X의 분포는 근사적으로 정규분포 N(np,npq)를 따른다
- 드무아브르가 18세기에 발견한 것은 이항분포에서 확률이 1/2인 경우
- 드무아브르-라플라스 중심극한정리 의 유도는 해당 항목을 참조.
메모
이를 가지고 수능시험에도 낼 수 있는 수준의 문제를 들자면,
동전을 100회 던질 때, 앞면이 45회 이상 55회 이하 나올 확률을 구하여라.
라고 물으면,
정규분포표를 보고 0.7286이라고 대답하면 된다.
하위주제들
하위페이지
재미있는 사실
- Galton's quincunx
[[Media:|]]
- 예전 독일 마르크화에 정규분포곡선이 새겨짐
[/pages/1950958/attachments/1448292 Gauss-detail2.jpg]
관련된 단원
많이 나오는 질문
관련된 고교수학 또는 대학수학
관련된 다른 주제들
관련도서 및 추천도서
- History of the Central Limit Theorem : From Laplace to Donsker
- Fischer, Hans
- 도서내검색
- 도서검색
참고할만한 자료
- 동전던지기 시뮬레이션
- 자바애플릿
- [Historical Note on the Origin of the Normal Carve of Errors BY KARL PEARSON]
- The law of errors ('Excursions in calculus' 206~216p)
- 중심극한정리
- http://ko.wikipedia.org/wiki/
- http://en.wikipedia.org/wiki/
- http://en.wikipedia.org/wiki/Central_limit_theorem
- http://viswiki.com/en/central_limit_theorem
- http://front.math.ucdavis.edu/search?a=&t=&c=&n=40&s=Listings&q=
- http://www.ams.org/mathscinet/search/publications.html?pg4=AUCN&s4=&co4=AND&pg5=TI&s5=&co5=AND&pg6=PC&s6=&co6=AND&pg7=ALLF&co7=AND&Submit=Search&dr=all&yrop=eq&arg3=&yearRangeFirst=&yearRangeSecond=&pg8=ET&s8=All&s7=
- 다음백과사전 http://enc.daum.net/dic100/search.do?q=
- 대한수학회 수학 학술 용어집
관련기사
- [재미있는 과학이야기 통계의 기본원리 ② 가우스 분포]
- 주간한국, 2008-01-07
- 네이버 뉴스 검색 (키워드 수정)
- http://news.search.naver.com/search.naver?where=news&x=0&y=0&sm=tab_hty&query=정규분포
- http://news.search.naver.com/search.naver?where=news&x=0&y=0&sm=tab_hty&query=
- http://news.search.naver.com/search.naver?where=news&x=0&y=0&sm=tab_hty&query=
- http://news.search.naver.com/search.naver?where=news&x=0&y=0&sm=tab_hty&query=
- http://news.search.naver.com/search.naver?where=news&x=0&y=0&sm=tab_hty&query=
블로그
- 피타고라스의 창
- 구글 블로그 검색 http://blogsearch.google.com/blogsearch?q=
- 트렌비 블로그 검색 http://www.trenb.com/search.qst?q=
이미지 검색
- http://commons.wikimedia.org/w/index.php?title=Special%3ASearch&search=galton_quincunx
- http://images.google.com/images?q=galton_quincuns
- http://www.artchive.com
동영상
\(\Phi(x-x_1)+\Phi(x-x_2)+\Phi(x-x_3)\)