수학

[메타코드 강의후기] 통계 기초의 모든것 | 확률과 확률변수(3)

inthyes 2024. 7. 1. 02:16

 메타코드는 다양한 AI, 데이터분석 강의, 수학강의를 제공하는 곳입니다.
유튜브, 메타코드 사이트에서 다양한 무료 강의를 제공받으실 수 있습니다.
페이지 내에 다양한 이벤트도 포함되어 있어 AI,데이터 분석에 관심있으신 분들은 강의 수강과 더불어 다양한 이벤트도 참여해보시면 좋을 것 같습니다.


기대값 : 확률변수의 모든 값의 평균

 

이산확률변수

확률변수의 값이 x1, ...이고 X = xi일 확률이 f(xi)일 때,

i=1xif(xi)

 

연속확률변수

확률변수 X가 [l, u] 구간의 모든 값을 취하고 X의 확률밀도함수가 f(x)일 때,

E(X)=iuxf(x)dx

 

1. 기대값의 성질(a, b는 상수, X, Y는 확률변수)

E(a)=a

E(aX)=aE(X)

E(X±b)=E(X)±b

E(aX±b)=aE(X)±b

E[c1g1(x)+c2g2(X)=c1E[g1(X)]+c2E[g2(X)]

 

기대값의 성질을 왜 알아야 하는가?

남자 키 ㅍ평균의 기대값을 구한 상태에서

타국의 키 평균을 구하고자 할 때 타국의 키 평균이 대한민국 남자 키 평균보다 3cm크다는 사실이 정확하다는 가정하에, 기댓값의 성질인 E(X + b) = E(X) + b를 이용하여 해결이 가능하다.

 

연속확률변수는 왜 적분으로 푸는가?

cdf라는 확률값을 가지고 있는 함수에서 미분한 pdf가 f(x)이기 때문에 확률값을 가지고 있는 것이 아니다.

이는 확률의 정의에 맞지 않기 때문에 적분을 통해서 cdf함수로 변환해야 한다.

 

분산과 표준편차의 연산

Var(X±b)=Var(x)

Var(aX)=a2Var(X)

Var(aX±b)=a2Var(X)

 

σ(X±b)=σ(X)

σ(aX)=aσ(X)

σ(aX±b)=aσ(X)

 

공분산

Cov(X,Y)=E[(Xu1)(Yu2)]

 

상관계수 : 공분산을 각각의 표준편차의 곱으로 나누어 준 것

Corr(X,Y)=fracCov(X,Y)sd(X)sd(Y)

 

공분산과 상관계수의 성질

Cov(aX+b,cY+d)=adCov(X,Y)

Corr(aX+b,cY+d)=Corr(x,y)ac>0,Corr(X,Y)ac<0

1<=Corr(X,Y)<=1

 

두 확률변수 합의 분산

Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)

Var(XY)=Var(X)+Var(Y)2Cov(X,Y)

 

E(X+Y)=E(X)+E(Y)

 

두 확률변수가 독립일 합의 분산 중 2Cov(X, Y)에 대한 값이 0이 된다.


위 내용은 메타코드 "통계 기초의 모든것 올인원"강의의 1편 2강 : 확률과 확률변수의 "기대값" 및 "분산과 표준편차"의 요약 내용입니다.

아래 링크를 통해 통계 기초 강의 수강이 가능합니다.

 

https://metacodes.co.kr/edu/read2.nx?M2_IDX=31635&EP_IDX=8382&EM_IDX=8208

 

통계 기초의 모든것 올인원 [ 1편, 2편 ]ㅣ18만 조회수 검증

 

metacodes.co.kr

 

메타코드 사이트 내에서 통계 기초뿐만 아니라 다양한 강의 수강이 가능하며 다양한 이벤트 참여와 현직자 특강 수강이 가능합니다.


통계를 이전에도 공부했었지만 본 강의를 통해 AI와 어떻게 관련되는지, 왜 공부해야하는지에 대한 목적의식이 생겨 재밌게 공부할 수 있게되었습니다. 이전에 확률,통계를 공부하셨더라도 다시 한 번 개념을 공부하고 싶으신 분들에게 추천합니다.

 

해당 게시물은 서포터즈 지원을 받아 작성하였습니다.