FOCUS
複合現実Mixed Reality,拡張現実Augmented Reality,仮想現実Virtual Realityによる空間認識医用画像手術支援
杉本 真樹
1,2
,
志賀 淑之
2
,
安部 光洋
2
,
日下部 将史
3
,
脊山 泰治
4
Maki SUGIMOTO
1,2
1国際医療福祉大学大学院医療福祉学研究科
2NTT東日本関東病院泌尿器科
3NTT東日本関東病院放射線部
4都立墨東病院外科
pp.975-985
発行日 2017年8月20日
Published Date 2017/8/20
DOI https://doi.org/10.11477/mf.1407211707
- 有料閲覧
- 文献概要
- 1ページ目
- 参考文献
- サイト内被引用
はじめに
医用画像解析のソフトウェア技術が進み,患者MDCTの3Dボリュームデータから臓器や病変の解剖学的形状を関心領域(ROI)として抽出し,ポリゴンモデルに書き出して臨床現場や学術領域で活用することが,容易かつ迅速に行われている1,2).具体的には医用画像の標準フォーマットであるDICOMから,ポリゴン化されたデータを3D的にあらゆる方向から提示しながらカンファレンスや手術計画,術中画像提示,学術発表などに利用されている.その際にvolume renderingなどによる3D画像表示の陰影表現のみでは,平面モニタ上で解剖学的な奥行きを正確に理解するのは困難であった.また実際の解剖を正確に空間認識として理解するには,平面的な情報を二次元的モニタ上でマウスなどの入力インターフェイスで画像を移動回転させたり,頭の中だけで立体像を想像するだけでは不十分であり,熟練度に差異が生じていた.空間認識とは本来,ユーザーも頭を動かしたり実際に移動しながら,空間的位置や移動距離,平衡感覚などを同時に体感する必要がある.そこで近年,患者個別の解剖に忠実な空間認識の再現が重要視されており,仮想現実(virtual reality:VR),拡張現実(augmented reality:AR),複合現実(mixed reality:MR)などの技術を医用画像解析や手術支援に応用し,空間認識を向上させる研究が進んでいる3〜5).
本稿では,VR, AR, MRによる空間認識向上をめざした医用画像手術支援につき,実例を交えて報告する.
Copyright © 2017, Igaku-Shoin Ltd. All rights reserved.