* 본 블로그 포스트에서 사용된 표, 이미지 및 기타 관련 자료는 "PROBABILITY AND STATISTICAL INFERENCE 9th Edition"에서 발췌한 것입니다. 이 자료들은 내용을 요약하고 이해를 돕기 위한 참고용으로 제공됩니다. 또한, 해석 과정에서 일부 오류가 있을 수 있으니 원본을 참고하여 확인하시기 바랍니다
이론 정리
1. 예측 분포(Predictive Distribution)
1) 정의
- 베이지안 추론에서는 기존 데이터 \( X_1, X_2, \dots, X_n \) 을 기반으로 새로운 데이터의 확률 분포를 추정한다.
- 확률 밀도 함수(pdf) \( f(x|\theta) \) 와 사전 분포(prior distribution) \( h(\theta) \) 를 이용하여 예측 분포(predictive distribution) 를 정의할 수 있다.
- 예측 분포는 다음과 같이 표현된다.
\[k_1(x_1, x_2, \dots, x_n) = \int_{-\infty}^{\infty} f(x_1 | \theta) f(x_2 | \theta) \dots f(x_n | \theta) h(\theta) d\theta\]
- 이는 데이터 \( X_1, X_2, \dots, X_n \) 에 대한 확률을 가장 잘 설명하는 분포이며, 데이터의 특성을 반영한 확률 예측에 유용하다.
- 예측 분포는 종종 사후 분포(posterior distribution) 를 기반으로 계산된다.
- 즉, 주어진 데이터에서 추가적인 관측이 어떻게 분포할 것인지 를 예측하는 데 사용된다.
- 이는 결정 이론(decision theory), 베이지안 신뢰 구간(Bayesian confidence intervals) 및 사전 정보 업데이트(prior updating) 등에 중요한 역할을 한다.
2) 증명
(1) 기본 개념
- 사전 분포 \( h(\theta) \) 를 따르는 매개변수 \( \theta \) 가 존재한다고 하자.
- 데이터 \( X_1, X_2, \dots, X_n \) 이 주어졌을 때, 특정 \( x \) 에 대한 예측 분포는 다음과 같이 주어진다.
\[k_1(x | X_1, X_2, \dots, X_n) = \int f(x | \theta) p(\theta | X_1, X_2, \dots, X_n) d\theta\]
- 여기서 \( p(\theta | X_1, X_2, \dots, X_n) \) 는 사후 분포(posterior distribution)이다.
(2) 사후 분포를 통한 유도
- 베이즈 정리에 의해, 사후 분포는 다음과 같이 주어진다.
\[p(\theta | X_1, X_2, \dots, X_n) = \frac{f(X_1, X_2, \dots, X_n | \theta) h(\theta)}{p(X_1, X_2, \dots, X_n)}\]
- 따라서 예측 분포는 다음과 같이 변환된다.
\[k_1(x | X_1, X_2, \dots, X_n) = \int f(x | \theta) \frac{f(X_1, X_2, \dots, X_n | \theta) h(\theta)}{p(X_1, X_2, \dots, X_n)} d\theta\]
- 이는 확률의 법칙 에 의해 사전 확률과 가능도를 곱한 후 적분하여 구할 수 있다.
3) 예제
(1) 정규 분포의 예측 분포
- 만약 \( X \sim N(\mu, \sigma^2) \) 이고, \( \sigma^2 \) 가 감마 분포 \( \Gamma(\alpha, \beta) \) 를 따른다면,
\[k_1(x) = \int_0^\infty \frac{1}{\sqrt{2\pi\sigma^2}} e^{-x^2/(2\sigma^2)} \frac{1}{\Gamma(\alpha)\beta^\alpha} \sigma^{-2\alpha} e^{-\sigma^2/\beta} d\sigma.\]
- 위의 적분을 수행하면 t-분포(Student’s t-distribution)가 유도된다.
- 즉, 정규 분포의 평균을 모를 때, 데이터로부터 추정된 예측 분포는 t-분포를 따르게 된다.
(2) 베타-이항 분포의 예측 분포
- 만약 \( X \sim Bin(n, \theta) \) 이고, \( \theta \) 가 베타 분포 \( Beta(\alpha, \beta) \) 를 따른다면, 사후 분포는 다음과 같다.
\[p(\theta | X) = Beta(\alpha + X, \beta + n - X)\]
- 따라서 예측 분포는 베타-이항 분포(Beta-binomial distribution) 가 된다.
(3) 감마-포아송 분포의 예측 분포
- 만약 \( X \sim Poisson(\lambda) \) 이고, \( \lambda \) 가 감마 분포 \( Gamma(\alpha, \beta) \) 를 따른다면,
\[p(\lambda | X) = Gamma(\alpha + X, \beta + 1)\]
- 따라서 예측 분포는 음이항 분포(Negative binomial distribution) 가 된다.
4) 특성
1) 모수적 추론(Parametric Inference)과의 차이점
- 모수적 방법에서는 최적의 점 추정치를 선택하여 새로운 관측값을 예측한다.
- 반면 베이지안 예측 분포는 모든 가능한 매개변수 값을 고려한 사후 확률 가중 평균 을 사용한다.
- 이는 불확실성을 더 잘 반영하는 결과를 제공한다.
2) 사후 분포의 역할
- 예측 분포는 사후 분포를 기반으로 계산 된다.
- 즉, 데이터가 주어지면 사후 분포를 갱신한 후 새로운 데이터를 예측 하게 된다.
3) 데이터가 많을수록 정확도 증가
- \( n \to \infty \) 일 때, 사후 분포는 점점 더 MLE(Maximum Likelihood Estimation) 에 가까워진다.
- 따라서 충분한 데이터가 주어진다면, 베이지안 예측과 MLE 기반 예측이 수렴 하게 된다.
4) Gibbs 샘플링과 MCMC에서의 활용
- 복잡한 사후 분포를 다룰 때, 예측 분포를 직접 계산하는 것은 어렵다.
- 따라서 MCMC (Markov Chain Monte Carlo) 또는 Gibbs 샘플링을 이용하여 사후 샘플을 생성 하고 이를 기반으로 예측 분포를 근사할 수 있다.
2. 혼합 분포(Mixture Distribution)와 컴파운딩(Compounding)
1) 정의
(1) 혼합 분포(Mixture Distribution)
- 서로 다른 여러 개의 확률 분포를 가중 평균하여 하나의 새로운 분포를 생성하는 방법이다.
- 주어진 데이터가 서로 다른 하위 그룹에서 생성된 것이라면, 각 그룹별 확률 분포를 결합하여 혼합 분포를 생성할 수 있다.
- 혼합 분포는 군집 분석(Clustering), 이상 탐지(Anomaly Detection), 데이터 분류(Classification) 등에 사용된다.
- 대표적인 예로 Gaussian Mixture Model (GMM) 이 있다.
(2) 컴파운딩(Compounding)
- 특정 확률 분포의 매개변수를 또 다른 확률 분포를 사용하여 모델링하는 기법이다.
- 매개변수가 고정된 값이 아니라 확률적으로 변한다고 가정하여, 보다 유연한 확률 모델을 만들 수 있다.
- 예를 들어, 정규 분포의 분산이 감마 분포를 따른다면, 최종적으로 t-분포(Student's t-distribution) 가 유도된다.
2) 혼합 분포의 수식적 표현
(1) 이산 혼합 분포(Discrete Mixture Distribution)
- 확률 밀도 함수(PDF) 또는 확률 질량 함수(PMF)는 다음과 같이 정의된다.
\[f(x) = \sum_{i=1}^{k} w_i f_i(x)\]
- 여기서:
- \( f_i(x) \) 는 각 성분(Component)의 확률 분포이다.
- \( w_i \) 는 가중치(weight)로서, 모든 \( w_i \) 의 합은 1이어야 한다. 즉,
\[
\sum_{i=1}^{k} w_i = 1
\]
(2) 연속 혼합 분포(Continuous Mixture Distribution)
- 매개변수 \( \theta \) 가 확률적으로 변하는 경우, 확률 밀도 함수는 다음과 같이 정의된다.
\[
f(x) = \int f(x | \theta) h(\theta) d\theta
\]
- 이는 베이지안 추론(Bayesian Inference) 에서 매우 중요한 개념이며, 사전 분포(Prior Distribution) 와 사후 분포(Posterior Distribution) 를 통해 현실적인 데이터 모델링이 가능하다.
3) 컴파운딩(Compounding)의 개념
(1) 정규-감마 모델(Normal-Gamma Model)
- 평균이 고정된 정규 분포가 있고, 분산이 감마 분포를 따른다고 가정하면, 최종적으로 t-분포 가 도출된다.
- 즉, 정규 분포 \( X \sim N(\mu, \sigma^2) \) 이고, 분산 \( \sigma^2 \) 가 감마 분포 \( \Gamma(\alpha, \beta) \) 를 따른다면, 주변 분포(Marginal Distribution)는 t-분포를 따른다.
(2) 베타-이항 모델(Beta-Binomial Model)
- 이항 분포의 성공 확률 \( p \) 이 베타 분포를 따른다고 가정하면, 최종적으로 베타-이항 분포(Beta-Binomial Distribution) 가 형성된다.
- 즉, \( X \sim Bin(n, p) \) 이고, \( p \sim Beta(\alpha, \beta) \) 이면, \( X \) 의 주변 분포는 베타-이항 분포 가 된다.
(3)감마-포아송 모델(Gamma-Poisson Model)
- 포아송 분포의 평균 \( \lambda \) 이 감마 분포를 따른다면, 최종적으로 음이항 분포(Negative Binomial Distribution) 가 도출된다.
- 즉, \( X \sim Poisson(\lambda) \) 이고, \( \lambda \sim Gamma(\alpha, \beta) \) 라면, \( X \) 의 주변 분포는 음이항 분포 가 된다.
4) 혼합 분포와 컴파운딩의 증명
(1) 정규-감마 모델에서 t-분포 유도
- 정규 분포 \( X \sim N(\mu, \sigma^2) \) 와 감마 분포 \( \sigma^2 \sim \Gamma(\alpha, \beta) \) 를 가정하자.
- 주변 분포를 구하기 위해 다음 적분을 수행한다.
\[f(x) = \int_{0}^{\infty} \frac{1}{\sqrt{2\pi\sigma^2}} e^{-x^2/(2\sigma^2)} \frac{1}{\Gamma(\alpha) \beta^\alpha} \sigma^{-2\alpha} e^{-\sigma^2/\beta} d\sigma\]
- 이 적분을 수행하면 t-분포가 도출된다.
- 결과적으로, 데이터가 정규 분포를 따르지만 분산이 불확실할 경우, 예측 분포는 t-분포로 모델링된다.
(2) 감마-포아송 모델에서 음이항 분포 유도
- 포아송 분포의 평균 \( \lambda \) 가 감마 분포를 따른다고 하자.
- 주변 분포를 구하기 위해 다음 적분을 수행한다.
\[P(X = k) = \int_0^\infty P(X = k | \lambda) h(\lambda) d\lambda\]
- 이 적분을 풀면 음이항 분포 가 도출된다.
5) 혼합 분포의 실제 응용
(1) 군집 분석(Clustering)
- 서로 다른 그룹에서 생성된 데이터를 모델링할 때 사용된다.
- 예: Gaussian Mixture Model (GMM) 을 사용하여 클러스터링 수행.
(2) 이상 탐지(Anomaly Detection)
- 일반적인 데이터와 이상치(Outlier) 데이터를 구별하는 데 활용된다.
- 예: 금융 사기 탐지(Fraud Detection), 네트워크 보안 분석.
(3) 자연어 처리(Natural Language Processing)
- 여러 언어 모델을 혼합하여 보다 정교한 확률 모델을 구축할 수 있다.
- 예: 토픽 모델링(Topic Modeling)에서 Latent Dirichlet Allocation (LDA) 모델이 사용됨.
(4) 컴퓨터 비전(Computer Vision)
- 픽셀 기반 객체 검출 및 이미지 세그멘테이션(Image Segmentation)에 사용된다.
3. 몬테카를로 방법 및 MCMC (Markov Chain Monte Carlo)
1) 정의
(1) 몬테카를로 방법(Monte Carlo Method)
- 복잡한 확률적 문제를 해결하기 위해 난수를 생성하여 근사적인 해를 구하는 방법이다.
- 특히, 다차원 적분을 수행하는 경우 수학적으로 해석적인 접근이 불가능할 때 사용된다.
- 일반적으로 확률 밀도 함수(PDF)에서 샘플을 추출한 후, 이를 평균 내어 근사적인 적분 값을 계산한다.
- 대표적인 응용 사례:
- 난수 생성(Random Number Generation)
- 수치 적분(Numerical Integration)
- 베이지안 추론(Bayesian Inference)
(2) MCMC (Markov Chain Monte Carlo)
- 마르코프 체인(Markov Chain)을 기반으로 확률적 샘플링을 수행하는 방법이다.
- 복잡한 다변수 확률 분포에서 샘플을 생성하여 확률적 추론을 가능하게 한다.
- 특히, 사후 분포를 직접적으로 샘플링하기 어려운 경우 MCMC를 이용하면 효과적으로 샘플을 얻을 수 있다.
(3) MCMC의 특징
- 샘플이 마르코프 체인(Markov Chain)의 성질을 따르며, 정상 분포(Stationary Distribution) 로 수렴하는 성질이 있다.
- 대표적인 MCMC 알고리즘:
- 메트로폴리스-헤이스팅스 알고리즘(Metropolis-Hastings Algorithm)
- 깁스 샘플러(Gibbs Sampler)
2) 몬테카를로 적분 (Monte Carlo Integration)
(1) 정의
- 주어진 확률 분포 \( f(x) \) 에 대해 적분을 근사적으로 계산하는 방법이다.
- 일반적으로 다음과 같이 표현된다.
\[I = \int_{a}^{b} g(x) f(x) dx\]
- 직접 적분이 어려운 경우, 난수를 생성하여 다음과 같이 근사한다.
\[I \approx \frac{1}{N} \sum_{i=1}^{N} g(x_i)\]
여기서 \( x_i \) 는 \( f(x) \) 로부터 샘플링된 값이다.
(2) 예제: 평균 추정
- 정규 분포 \( X \sim N(0,1) \) 의 기댓값을 몬테카를로 방법으로 근사하려면,
\[E[X] \approx \frac{1}{N} \sum_{i=1}^{N} x_i, \quad x_i \sim N(0,1)\]
- 샘플 수 \( N \) 이 증가할수록 근사값이 정확해진다.
3) Gibbs 샘플러(Gibbs Sampler)
(1) 정의
- Gibbs 샘플러는 다변수 확률 분포에서 조건부 분포를 이용하여 샘플을 생성하는 MCMC 방법이다.
- 특정 변수 \( X_i \) 를 제외한 나머지 변수들이 주어진 조건에서 \( X_i \) 를 샘플링하는 방식으로 진행된다.
(2) Gibbs 샘플링 알고리즘
- 다변수 확률 분포 \( p(x_1, x_2, \dots, x_n) \) 에서 Gibbs 샘플링을 수행하는 절차:
a) 초기값 \( x^{(0)} = (x_1^{(0)}, x_2^{(0)}, \dots, x_n^{(0)}) \) 선택
b) 각 변수에 대해 순차적으로 샘플링:
\[x_1^{(t+1)} \sim p(x_1 | x_2^{(t)}, x_3^{(t)}, \dots, x_n^{(t)})\]
\[x_2^{(t+1)} \sim p(x_2 | x_1^{(t+1)}, x_3^{(t)}, \dots, x_n^{(t)})\]
\[\vdots\]
\[x_n^{(t+1)} \sim p(x_n | x_1^{(t+1)}, x_2^{(t+1)}, \dots, x_{n-1}^{(t+1)})\]
c) 충분한 샘플을 생성한 후, 수렴한 샘플을 이용하여 사후 분포를 추정
(3) Gibbs 샘플링의 장점
- 다변수 분포를 직접 샘플링하는 것이 어려운 경우, 개별 조건부 분포를 이용하여 샘플링이 가능하다.
- 다차원 공간에서 높은 확률 밀도를 가진 영역을 효율적으로 탐색할 수 있다.
4) MCMC를 이용한 베이지안 추론
(1) 사후 분포 샘플링
- 베이지안 추론에서는 사전 분포(prior distribution)와 가능도 함수(likelihood function)를 결합하여 사후 분포(posterior distribution)를 구한다.
- 그러나 사후 분포를 직접적으로 샘플링하기 어려운 경우가 많다.
- MCMC를 이용하면 사후 분포로부터 샘플을 생성하여 확률적 추론을 수행할 수 있다.
(2) 메트로폴리스-헤이스팅스 알고리즘(Metropolis-Hastings Algorithm)
- MCMC에서 가장 널리 사용되는 방법 중 하나로, 임의의 제안 분포(proposal distribution)에서 샘플을 생성한 후, 이를 수락 또는 거부하는 방식으로 진행된다.
- 다음과 같은 절차를 따른다.
a) 초기값 \( x^{(0)} \) 선택
b) 새로운 샘플 \( x^* \) 를 제안 분포 \( q(x^ | x^{(t)}) \) 에서 생성
c) 수락 확률 \( \alpha \) 계산:
\[\alpha = \min \left( 1, \frac{p(x^*) q(x^{(t)} | x^*)}{p(x^{(t)}) q(x^* | x^{(t)})} \right)\]
d) 확률 \( \alpha \) 에 따라 샘플을 업데이트:
- \( x^{(t+1)} = x^* \) (확률 \( \alpha \) 로 수락)
- \( x^{(t+1)} = x^{(t)} \) (확률 \( 1-\alpha \) 로 유지)
5) MCMC의 응용
(1) 베이지안 통계 분석
- 복잡한 사후 분포를 샘플링하여 베이지안 추론을 수행하는 데 활용됨.
(2) 기계 학습 및 딥러닝
- Bayesian Neural Networks에서 불확실성을 모델링하는 데 사용됨.
(3) 컴퓨터 비전
- 이미지 분할(Image Segmentation), 객체 검출(Object Detection) 등에서 활용됨.
(4) 자연어 처리(NLP)
- 텍스트 모델링 및 주제 분석(Topic Modeling)에서 사용됨.
6) 연습문제
(1) 베이지안 추론에서 Gibbs 샘플러를 활용한 샘플링 방법을 구현하라.
(2) 몬테카를로 방법을 이용하여 \(\pi\) 값을 근사하는 코드를 작성하라.
(3) MCMC를 이용하여 정규 분포의 평균과 분산을 추정하는 알고리즘을 설계하라.
4. 계층 베이지안 모델 (Hierarchical Bayes Models)
1) 정의
(1) 계층 베이지안 모델(Hierarchical Bayesian Models, HBM)
- 계층 베이지안 모델은 베이지안 추론에서 사전 분포(prior distribution) 자체가 또 다른 확률 분포(하이퍼분포, hyperprior distribution)를 따르는 모델이다.
- 즉, 한 수준의 매개변수가 또 다른 확률 분포를 가지며, 이러한 관계가 계층적으로 확장된다.
- 이는 데이터의 불확실성을 다단계로 모델링할 수 있어 보다 유연한 통계적 분석이 가능하다.
- 계층적 구조는 그룹 간 차이를 반영할 수 있어 군집 분석, 다수준 모델링, 의학 연구, 경제 분석 등에서 많이 사용된다.
(2) 계층 베이지안 모델의 특징
- 데이터가 서로 독립적이지 않고, 공유된 사전 정보 를 가질 수 있는 문제에 적합하다.
- 불확실성을 다단계로 모델링함으로써 보다 일반화된 결과를 도출할 수 있다.
- Shrinkage(수축 효과): 데이터가 적을 경우, 개별 추정값이 전체 평균으로 수렴하는 경향이 나타난다.
2) 계층 베이지안 모델의 수식적 표현
(1) 기본적인 계층 베이지안 모델
- 계층 베이지안 모델은 다음과 같은 형태를 가진다.
\[f(y|\theta), \quad h(\theta|\tau), \quad g(\tau)\]
- 여기서:
- \( f(y|\theta) \) 는 데이터 \( y \) 의 가능도(likelihood).
- \( h(\theta|\tau) \) 는 매개변수 \( \theta \) 의 사전 분포.
- \( g(\tau) \) 는 하이퍼매개변수 \( \tau \) 의 사전 분포(hyperprior distribution).
(2) 예제: 계층적 정규 모델
- 데이터 \( Y_i \) 가 정규 분포를 따른다고 가정하자.
\[Y_i \sim N(\theta_i, \sigma^2)\]
- 각 \( \theta_i \) 는 다시 평균이 \( \mu \), 분산이 \( \tau^2 \) 인 정규 분포를 따른다.
\[\theta_i \sim N(\mu, \tau^2)\]
- 상위 매개변수 \( \mu \) 와 \( \tau^2 \) 에 대해서도 사전 분포를 설정할 수 있다.
\[\mu \sim N(\mu_0, \sigma_0^2), \quad \tau^2 \sim InvGamma(\alpha, \beta)\]
- 이 경우, 최종적으로 사후 분포 를 계산하여 \( \theta_i \) 들을 추론할 수 있다.
3) 계층 베이지안 모델의 추론 과정
(1) 사후 분포 계산
- 베이즈 정리를 적용하여 사후 분포를 계산한다.
\[p(\theta | y) \propto p(y | \theta) p(\theta | \tau) p(\tau)\]
- 계층적 모델에서는 사후 분포가 다층으로 구성되며, MCMC (Markov Chain Monte Carlo) 나 Gibbs 샘플링 과 같은 방법을 사용하여 샘플링을 수행한다.
(2) Shrinkage (수축 효과)
- 데이터가 적을 경우, 개별 \( \theta_i \) 들이 전체 평균 \( \mu \) 로 수렴하는 효과가 나타난다.
- 예를 들어, 병원의 암 발생률을 분석할 때, 개별 병원의 샘플 크기가 작으면 해당 병원의 암 발생률이 전체 평균 발생률에 수렴하는 경향을 보인다.
(3) Gibbs 샘플링을 이용한 추론
- Gibbs 샘플러를 사용하면 계층적 모델에서 개별 매개변수를 반복적으로 샘플링하여 사후 분포를 근사할 수 있다.
- 각 샘플링 과정은 다음과 같이 이루어진다.
1. \( \theta_i \sim p(\theta_i | y_i, \mu, \tau^2) \)
2. \( \mu \sim p(\mu | \theta_i, \tau^2) \)
3. \( \tau^2 \sim p(\tau^2 | \theta_i, \mu) \)
4) 예제
(1) 다수준 회귀 모델(Multilevel Regression Model)
- 특정 지역의 평균 수입을 분석한다고 가정하자.
- 지역별 수입 분포가 존재하며, 이를 계층적 베이지안 모델로 표현할 수 있다.
\[y_{ij} \sim N(\mu_j, \sigma^2)\]
\[\mu_j \sim N(\mu, \tau^2)\]
- 여기서 \( j \) 는 지역을 의미하며, 최종적으로 전체 평균 \( \mu \) 와 각 지역의 평균 \( \mu_j \) 를 추정할 수 있다.
(2) 의학 연구에서의 활용
- 환자별 치료 효과를 모델링할 때, 병원별 평균 효과를 계층적으로 설정할 수 있다.
- 이를 통해 병원 간 차이를 반영한 보다 정확한 분석이 가능하다.
5) 계층 베이지안 모델의 실제 응용
(1) 군집 분석(Clustering)
- 여러 개의 그룹을 계층적으로 분석하는 데 사용된다.
(2) 베이지안 신경망(Bayesian Neural Networks)
- 신경망의 가중치를 확률적으로 모델링하여 일반화 성능을 향상시킨다.
(3) 추천 시스템(Recommendation Systems)
- 사용자별 선호도를 계층적으로 모델링하여 보다 개인화된 추천을 제공할 수 있다.
연습문제
(1) 포아송 분포를 따르는 데이터 \( X \sim Poisson(\theta) \), \( \theta \sim Gamma(\alpha, \beta) \) 의 예측 분포를 유도하라.
(2) 베타 분포를 이용한 이항 분포의 예측 분포를 계산하라.
(3) 감마-포아송 분포에서 음이항 분포가 나오는 과정을 수식적으로 증명하라.
(4) MCMC를 이용하여 정규 분포의 평균과 분산을 예측하는 알고리즘을 설계하라.
(5) 베이지안 추론을 이용한 혼합 모델링
- 정규 분포의 평균이 다시 정규 분포를 따른다고 가정할 때, 최종적인 주변 분포를 유도하라.
(6) 베타-이항 분포의 유도
- \( X \sim Bin(n, p) \), \( p \sim Beta(\alpha, \beta) \) 일 때, \( X \) 의 주변 분포를 계산하라.
(7) 음이항 분포의 베이지안 모델링
- 감마-포아송 분포에서 \( X \sim Poisson(\lambda) \), \( \lambda \sim Gamma(\alpha, \beta) \) 를 가정하고 음이항 분포를 유도하라.
(8) 계층적 베이지안 모델을 이용하여 다수준 회귀 모델을 구현하라.
(9) Gibbs 샘플링을 사용하여 정규-정규 모델의 사후 분포를 추정하는 코드를 작성하라.
'통계' 카테고리의 다른 글
| 7.2 Confidence Intervals for the Difference of Two Means (0) | 2025.01.03 |
|---|---|
| 7.1 Confidence Intervals for Means (0) | 2025.01.03 |
| 6.8 Bayesian Estimation (0) | 2025.01.03 |
| 6.7 Sufficient Statistics (0) | 2025.01.03 |
| 6.6 Asymptotic Distributions of Maximum Likelihood Estimators (0) | 2025.01.03 |