- 有料閲覧
- 文献概要
- 1ページ目
- 参考文献
はじめに
英国の牧師・数学者であったThomas Bayesは「ベイズの定理」を確立した.彼の論文「An Essay towards solving a Problem in the Doctrine of Chances」は,その死の2年後の1763年に,彼の友人であり数学者・物理学者・天文学者であったPierre-Simon Laplaceによって発表された1).Laplaceはベイズの定理を拡張・一般化し,パリとロンドンにおける新生児の男女比の推定に用いたことが知られている.
その後,ベイズの定理に基づくベイズ統計学はほとんど顧みられることなく,20世紀においては,Ronald A. Fisher,Jerzy Splawa-Neyman,Egon S. Pearson,Karl Pearsonらが先導する頻度論派統計学が主流となっていた.
1970年代に入ってベイズ統計学の理論的発展は進んだ.また,1980年代のコンピューター,特にパーソナルコンピューター(personal computer:PC)の普及と同時にマルコフ連鎖モンテカルロ(Markov Chain Monte Carlo:MCMC)シミュレーションが導入され,ベイズの定理に基づくさまざまな統計解析を実施することが可能となった2).1990年代には英国ケンブリッジ大学のMRC(Medical Research Council)Biostatistics Unitを中心にしてBayesian Inference Using Gibbs Sampling(BUGS)3)が開発され,実用化が進んだ.以降,医学の分野でもベイズ統計の普及が進み,人口統計,適応的デザイン臨床試験,メタアナリシスなど多数の分野で用いられている.
ベイズの定理では,仮説Hが正しい確率P(H)が,データを得た際に変動し,データを得た際のその仮説が正しい確率P(H|D)は,その仮説が正しい場合にそのようなデータを得る確率P(D|H)とデータを得る前の仮説が正しい確率P(H)の積に比例するということになる.式で表すと次のようになる.
P(H|D)=P(D|H)P(H)/P(D)
分母のP(D)はそのようなデータを得る確率であるが,さまざまな仮説が正しい確率を比較する場合には共通の値になるので,積の計算であるP(D|H)P(H)だけを問題にすればよいことになる.仮説は無数に設定可能であるのに対し,データは実測値として固定されたものである.無数の仮説を設定すれば,そのうちで,正しい確率が一番高い仮説を知ることができる.伝統的な頻度論派の統計学では,帰無仮説を一つ設定し,その下でそのようなデータを得る確率をP値として計算することを行っている.このような帰無仮説有意検定(null hypothesis significance testing:NHST)の問題点についての認識が広がったこともベイズ統計学の普及を促進した要因の一つである.
ベイズの定理は,人工知能(artificial intelligence:AI)も含む,確率が問題となるようなあらゆる解析に適用されている.医学の分野での応用もネットワークメタアナリシスのような複雑なモデルにまで広がっているが,原型は非常にシンプルである.本稿では,スクリーニング検査の有効性評価のためにその理解が必須と考えられる感度・特異度・陽性的中率・陰性的中率などベイズ統計に属する概念について解説する.
Copyright © 2018, Igaku-Shoin Ltd. All rights reserved.