JP2016145978A - X線撮影学習システム - Google Patents
X線撮影学習システム Download PDFInfo
- Publication number
- JP2016145978A JP2016145978A JP2016014470A JP2016014470A JP2016145978A JP 2016145978 A JP2016145978 A JP 2016145978A JP 2016014470 A JP2016014470 A JP 2016014470A JP 2016014470 A JP2016014470 A JP 2016014470A JP 2016145978 A JP2016145978 A JP 2016145978A
- Authority
- JP
- Japan
- Prior art keywords
- image
- ray
- phantom
- imaging
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000002601 radiography Methods 0.000 title abstract description 13
- 238000003384 imaging method Methods 0.000 claims abstract description 91
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 49
- 238000011156 evaluation Methods 0.000 claims description 16
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000004088 simulation Methods 0.000 description 34
- 230000001133 acceleration Effects 0.000 description 29
- 239000003550 marker Substances 0.000 description 26
- 238000012549 training Methods 0.000 description 25
- 238000002474 experimental method Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 14
- 238000003745 diagnosis Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000004907 flux Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 210000004705 lumbosacral region Anatomy 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241000218666 Metasequoia Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 210000000534 thyroid cartilage Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Instructional Devices (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
【課題】ARを用いたX線撮影支援システムを利用したX線撮影学習システムを提供する。【解決手段】X線撮影学習システムであって、X人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、1又は複数のモーションセンサを所定位置に装着した人体ファントムと、モーションセンサの位置及び向きに関する情報からデータベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段とを具備するX線撮影学習システム【選択図】図1
Description
本発明は、X線撮影学習システムに関する。特に本発明は、ARを用いたX線撮影学習システムに関する。
単純X線撮影は画像診断において最も基本的な検査であり、単純X線撮影に対する要望も診断法・治療法の進歩とともに変化している。通常、臨床では、骨・関節の形態、骨組織や軟部組織の異常、腫瘤などを明瞭に描出させることが求められている。そこで、診療放射線技師は、その目的を果たすために必要な撮影方法を理解し、適切かつ迅速に撮影体位(以下、ポジショニングとする)と、それに合ったX線束の中心線を設定する技術が必要となる。しかし、人体は複雑な構造をしているため、少しのポジショニング不良やX線束の中心線の誤りにより目的とする部位の描出が出来ない場合がある。診療放射線技師養成機関におけるX線撮影実習は、X線撮影技術に関する資料や書籍に基づいてポジショニングブロックや角度計を用いてX線撮影用のファントムの撮影を行う。X線束の中心線は、臨床と同様に入射角度をX線管球に付属されている角度計で設定し、入射位置を腸骨稜や甲状軟骨等の基準となる点や線を頼りに設定することで学習する。しかし、ポジショニングにおいて、特に斜位の学習では、ファントムを適正角度に作られたポジショニングブロック上に乗せたり角度計を見ながら学習するため、臨床に則した学習できるとは限らない。
近年、医療分野におけるコンピュータ支援技術の必要性が高まってきている。特に、AR(拡張現実:Augmented Reality)という、PCに接続されたカメラからPC画面を通じて、人間の視界に画像や文字などを重ねて表示する技術は、医療分野の手術支援で様々な研究開発が行われている。
従来、対象領域の撮像に使用する撮像部と、対象領域の付加情報を取得するセンサ部のそれぞれの位置(3次元、2次元いずれも可)を検出(座標およびオリエンテーション)し、同位置情報を利用することによって、撮像部により得られた対象領域の像と、センサ部によりえられた対象領域の付加情報を、同じ視点から、あるいは一定の関係を有する異なった視点からの像として併せて呈示する拡張現実感呈示システムが知られている(例えば、特許文献1参照。)。特許文献1に記載の拡張現実感呈示システムによれば、対象領域の撮像により得られた像に、対象領域の付加的な分布情報を併せて呈示することができる。
従来、診療放射線技師教育におけるポジショニング(撮影体位)の学習は、人体ファントムの撮影を行い、撮影された画像を評価することでポジショニングの良し悪しや、画像診断を学ぶ。
従来の撮影実習では、人体ファントムの撮影自体のほかに、フィルム現像機もしくはディジタル画像読取装置まで移動し、フィルム現像処理もしくは画像読取処理したのち、画像の評価をすることで、はじめて今回のポジショニングが良かったのか悪かったのか知ることができた。また、画像診断上、適切な画像を得るには、どのようにポジショニングを改善すれば良いか、撮影者は記憶に頼った曖昧な判断になってしまっていた。
また、体幹部の斜位撮影など、 あらかじめ角度の設定にクッションを差し入れて撮影した場合、クッションを入れたままでは、撮影者は体位角度の体得が困難であった。
また、ファントムとしては人骨入りのファントムが最も好ましいところ、それほど人骨入りのファントムは出回っておらず、X線を用いずに十分に経験を積むことができるには至っていないという問題もある。
従来、診療放射線技師教育におけるポジショニング(撮影体位)の学習は、人体ファントムの撮影を行い、撮影された画像を評価することでポジショニングの良し悪しや、画像診断を学ぶ。
従来の撮影実習では、人体ファントムの撮影自体のほかに、フィルム現像機もしくはディジタル画像読取装置まで移動し、フィルム現像処理もしくは画像読取処理したのち、画像の評価をすることで、はじめて今回のポジショニングが良かったのか悪かったのか知ることができた。また、画像診断上、適切な画像を得るには、どのようにポジショニングを改善すれば良いか、撮影者は記憶に頼った曖昧な判断になってしまっていた。
また、体幹部の斜位撮影など、 あらかじめ角度の設定にクッションを差し入れて撮影した場合、クッションを入れたままでは、撮影者は体位角度の体得が困難であった。
また、ファントムとしては人骨入りのファントムが最も好ましいところ、それほど人骨入りのファントムは出回っておらず、X線を用いずに十分に経験を積むことができるには至っていないという問題もある。
しかし、特許文献1においては、ARをX線撮影実習の学習支援に用いることは念頭に置いておらず、ARをX線撮影実習の学習支援に用いた技術開発が望まれる。
したがって、本発明の目的は、ARを用いたX線撮影学習システムを提供することにある。
本発明者らは、上記課題を解消するため鋭意検討した結果、所定のマーカーを撮像する撮像部と、仮想物体を作成する仮想物体画像作成部と、マーカーを基準点にし、被写体と仮想物体とを基準点に応じた予め定められた領域に重畳表示する表示部とを備えるX線撮像支援システムを用いたX線撮影学習システムにより上記目的を達成し得ることを知見し、本発明を完成した。
すなわち、本発明は、人体ファントムを用いて模擬X線撮影を行い、所望のX線撮影を行えたか否かを判定することでX線撮影の技術を学習するX線撮影学習システムであって、人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、
1又は複数のモーションセンサを所定位置に装着した人体ファントムと、
上記モーションセンサの位置及び向きに関する情報から上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、
上記疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段と、
を具備することを特徴とするX線撮影学習システムを提供するものである。
また、上記人体ファントムが、内部にフィルムの貼り付け可能な口腔模型である、上記X線撮影学習システムを提供するものである。
さらに、X線撮影に際しての所望の画像ごとにファントムの位置及び方向並びに手順を記したワーキングシートが格納されたシート格納手段と、
該ワーキングシートと学習者が設定した撮影位置及び方向並びに手順とを対比して、学習者の選択が適切であったか否かを評価する評価手段と、
を具備する上記X線撮影学習システムを提供するものである。
すなわち、本発明は、人体ファントムを用いて模擬X線撮影を行い、所望のX線撮影を行えたか否かを判定することでX線撮影の技術を学習するX線撮影学習システムであって、人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、
1又は複数のモーションセンサを所定位置に装着した人体ファントムと、
上記モーションセンサの位置及び向きに関する情報から上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、
上記疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段と、
を具備することを特徴とするX線撮影学習システムを提供するものである。
また、上記人体ファントムが、内部にフィルムの貼り付け可能な口腔模型である、上記X線撮影学習システムを提供するものである。
さらに、X線撮影に際しての所望の画像ごとにファントムの位置及び方向並びに手順を記したワーキングシートが格納されたシート格納手段と、
該ワーキングシートと学習者が設定した撮影位置及び方向並びに手順とを対比して、学習者の選択が適切であったか否かを評価する評価手段と、
を具備する上記X線撮影学習システムを提供するものである。
本発明に係るX線撮影学習システムによれば、ARを用いたX線撮影支援システムを提供できる。
以下、本発明をさらに詳細に説明する。
本発明のX線撮影学習システムは、人体ファントムを用いて模擬X線撮影を行い、所望のX線撮影を行えたか否かを判定することでX線撮影の技術を学習するX線撮影学習システムである。
そして、人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、
1又は複数のモーションセンサを所定位置に装着した人体ファントムと、
上記モーションセンサの位置及び向きに関する情報から上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、
上記疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段と、を具備する。
以下詳細に説明する。
本発明のX線撮影学習システムは、人体ファントムを用いて模擬X線撮影を行い、所望のX線撮影を行えたか否かを判定することでX線撮影の技術を学習するX線撮影学習システムである。
そして、人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、
1又は複数のモーションセンサを所定位置に装着した人体ファントムと、
上記モーションセンサの位置及び向きに関する情報から上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、
上記疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段と、を具備する。
以下詳細に説明する。
(人体ファントム)
本発明で用いられる人体ファントム1は、1又は複数のモーションセンサを所定位置に装着した人体ファントムである。具体的には図1に示すように、人骨の腰椎を含み人体の下腹部部分を模したファントム(市販品を用いることもできる、例えば京都科学社製)であって、モーションセンサとして、小型軽量な9軸モーションセンサ10を取り付けてなる。
ここで 9軸モーションセンサは、3軸の加速度センサ、3軸のジャイロセンサ、3軸の地磁気センサを搭載した小型のセンサモジュールからなるセンサであり、市販品、例えば商品名「IMU―Z 2」ZMP社製等を用いることもできる。また、本実施形態においては、Bluetooth(登録商標)等による無線接続によって,手軽に位置情報の測定を行うことができるように設定されている。尚、シリアル通信による有線接続よって電波環境の厳しい場所でも信頼性の高い測定を行うことも可能である。
本発明で用いられる人体ファントム1は、1又は複数のモーションセンサを所定位置に装着した人体ファントムである。具体的には図1に示すように、人骨の腰椎を含み人体の下腹部部分を模したファントム(市販品を用いることもできる、例えば京都科学社製)であって、モーションセンサとして、小型軽量な9軸モーションセンサ10を取り付けてなる。
ここで 9軸モーションセンサは、3軸の加速度センサ、3軸のジャイロセンサ、3軸の地磁気センサを搭載した小型のセンサモジュールからなるセンサであり、市販品、例えば商品名「IMU―Z 2」ZMP社製等を用いることもできる。また、本実施形態においては、Bluetooth(登録商標)等による無線接続によって,手軽に位置情報の測定を行うことができるように設定されている。尚、シリアル通信による有線接続よって電波環境の厳しい場所でも信頼性の高い測定を行うことも可能である。
・加速度センサ
加速度の測定を目的としたセンサである。物体を移動した場合、加速や減速に伴って物体に加速度がかかる。ここで、加速度とは単位時間当たりの速度の変化率のことであるが、加速度センサは物体の運動速度の変化に伴うに加速度を検出して、物体がどのような向きであるかを判定するために用いる。内部には 1 方向の加速度を検出できる素子が6個配置され、X・Y・Z の3軸において正負の加速度を検出し、適切な信号処理を行うことによって傾きや動き、振動や衝撃といったさまざまな情報が得られる。A−D変換され、ディジタル信号として出力されるため、電気ノイズの影響を受けにくい計測が可能である。また、加速度センサは重力による地面方向への加速度も検出し、加速度センサから取得できる加速度は、物体にかけられている加速度と重力加速度の合力である。取得できる値の単位は重力加速度を基準としたG(1.0Gは約 9.8m/s2)である。
加速度センサにはいくつかの方式があるが、本実施形態においては量産性に優れ、一般的にコンデンサの静電容量が温度に対する変動が少ない、静電容量型の加速度センサを用いた。
加速度の測定を目的としたセンサである。物体を移動した場合、加速や減速に伴って物体に加速度がかかる。ここで、加速度とは単位時間当たりの速度の変化率のことであるが、加速度センサは物体の運動速度の変化に伴うに加速度を検出して、物体がどのような向きであるかを判定するために用いる。内部には 1 方向の加速度を検出できる素子が6個配置され、X・Y・Z の3軸において正負の加速度を検出し、適切な信号処理を行うことによって傾きや動き、振動や衝撃といったさまざまな情報が得られる。A−D変換され、ディジタル信号として出力されるため、電気ノイズの影響を受けにくい計測が可能である。また、加速度センサは重力による地面方向への加速度も検出し、加速度センサから取得できる加速度は、物体にかけられている加速度と重力加速度の合力である。取得できる値の単位は重力加速度を基準としたG(1.0Gは約 9.8m/s2)である。
加速度センサにはいくつかの方式があるが、本実施形態においては量産性に優れ、一般的にコンデンサの静電容量が温度に対する変動が少ない、静電容量型の加速度センサを用いた。
・ジャイロセンサ(角速度センサ)
X・Y・Zの3軸方向の角速度を検出するセンサの一種である。角速度とは、ある物体の角度が単位時間当たりどれだけ変化しているかを表す物理量である。つまり、物体がどれだけの速さで回転しているのかを検出している。回転速度の単位は rad/sである。センサ内部には質量をもった弾性体が組み込まれていて、電気的に振動させられている。振動している弾性体は外部から回転運動を受けると運動量に比例した力が発生する。この力をコリオリ力といい、コリオリ力による弾性体の位置変化は加速度センサと同様に静電容量の変化として計測できる。このように動きを検知するセンサの代表として加速度センサがよく知られているが、ジャイロセンサは加速度センサでは反応しない回転の動きを測定するものである。
X・Y・Zの3軸方向の角速度を検出するセンサの一種である。角速度とは、ある物体の角度が単位時間当たりどれだけ変化しているかを表す物理量である。つまり、物体がどれだけの速さで回転しているのかを検出している。回転速度の単位は rad/sである。センサ内部には質量をもった弾性体が組み込まれていて、電気的に振動させられている。振動している弾性体は外部から回転運動を受けると運動量に比例した力が発生する。この力をコリオリ力といい、コリオリ力による弾性体の位置変化は加速度センサと同様に静電容量の変化として計測できる。このように動きを検知するセンサの代表として加速度センサがよく知られているが、ジャイロセンサは加速度センサでは反応しない回転の動きを測定するものである。
・地磁気センサ
磁石や電流が発する磁気や地磁気などの大きさ、向きを検知するセンサである。地磁気センサには2 軸型と3軸型がある。例えば、北方向を検出する場合、前後・左右方向の地磁気を検出する。地磁気が水平方向にどちらを向いているかを調べるだけでよいため、このような用途であれば2 軸型を使用する。しかし2軸型は地面に対して水平に使用する必要があり、傾けてしまうと水平方向が正確に検出できないため誤差が生じる。そこで 3軸型では前後・左右方向に加えて上下方向の地磁気を検出するセンサを搭載している。方位計測の原理は地上における地磁気の方向を北として,その方向を磁気センサで検出する。地球は磁気的に見かけ上,大きな一つの棒磁石とみなされるので、例えば北半球の地上では地球内部のS極に引き付けられるように方位磁石のN局が向く。この向きは赤道にほぼ水平であるが極地に近づくと地球内部の磁極に向かって地面方向に向く。3軸地磁気センサでは直交する X・Y・Z軸の磁気強度を計測し、それぞれの軸のベクトルの向きと大きさを合成することで地磁気の方向を決定する。仮に2つの方向の磁気センサの出力が 0のときは残る磁気センサの軸方向が北となり、そのセンサの出力が最大の方向が地磁気の極の3次元的な方向を指す。
磁石や電流が発する磁気や地磁気などの大きさ、向きを検知するセンサである。地磁気センサには2 軸型と3軸型がある。例えば、北方向を検出する場合、前後・左右方向の地磁気を検出する。地磁気が水平方向にどちらを向いているかを調べるだけでよいため、このような用途であれば2 軸型を使用する。しかし2軸型は地面に対して水平に使用する必要があり、傾けてしまうと水平方向が正確に検出できないため誤差が生じる。そこで 3軸型では前後・左右方向に加えて上下方向の地磁気を検出するセンサを搭載している。方位計測の原理は地上における地磁気の方向を北として,その方向を磁気センサで検出する。地球は磁気的に見かけ上,大きな一つの棒磁石とみなされるので、例えば北半球の地上では地球内部のS極に引き付けられるように方位磁石のN局が向く。この向きは赤道にほぼ水平であるが極地に近づくと地球内部の磁極に向かって地面方向に向く。3軸地磁気センサでは直交する X・Y・Z軸の磁気強度を計測し、それぞれの軸のベクトルの向きと大きさを合成することで地磁気の方向を決定する。仮に2つの方向の磁気センサの出力が 0のときは残る磁気センサの軸方向が北となり、そのセンサの出力が最大の方向が地磁気の極の3次元的な方向を指す。
・オイラー角
3次元の回転は、モーションセンサの座標軸(X・Y・Z)を回転軸とする3つの回転で合成することで表すことができる。その時の3つの回転角をオイラー角(Euler angle)という。
オイラー角の3つの角度をθ,φ,λとすると以下の様に説明できる。
天頂角θ:基準となる座標系(以下親座標系)からみてZ軸が傾いている角度を表す。
方位角φ:親座標系の Z軸を回転軸とし、Z 軸がどれだけ回転した位置にあるかを表す。回転角λ:自分の Z軸を回転軸とし、X・Y軸がどれだけ回転した位置にあるかを表す。
3次元の回転は、モーションセンサの座標軸(X・Y・Z)を回転軸とする3つの回転で合成することで表すことができる。その時の3つの回転角をオイラー角(Euler angle)という。
オイラー角の3つの角度をθ,φ,λとすると以下の様に説明できる。
天頂角θ:基準となる座標系(以下親座標系)からみてZ軸が傾いている角度を表す。
方位角φ:親座標系の Z軸を回転軸とし、Z 軸がどれだけ回転した位置にあるかを表す。回転角λ:自分の Z軸を回転軸とし、X・Y軸がどれだけ回転した位置にあるかを表す。
(X線撮影学習システム)
・X線画像データベース
本発明においては、人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースを構築する。
データベースは、まず、イメージプロセッシングプログラム(たとえばMRIcro等)を用いて、100〜1000枚の画像を(たとえば512枚)のボリュームデータを 1つのデータ集合体として保存する。ボリュームデータは以下の様にして取得する。
1)設定したポジショニング条件に従って人体ファントムの回転処理、投影処理を行う。
2)任意の角度でのポジショニングにおける X 線画像をシミュレーション画像として取得する。
3)適当なソフト(たとえばImagej等)を用いて画像処理を行い、Rawdataであるシミュレーション画像をブラウザで表示可能な TIFF形式に変換する。
4)プログラムの実行を行い、シミュレーション画像を取得し表示する。
・X線画像データベース
本発明においては、人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースを構築する。
データベースは、まず、イメージプロセッシングプログラム(たとえばMRIcro等)を用いて、100〜1000枚の画像を(たとえば512枚)のボリュームデータを 1つのデータ集合体として保存する。ボリュームデータは以下の様にして取得する。
1)設定したポジショニング条件に従って人体ファントムの回転処理、投影処理を行う。
2)任意の角度でのポジショニングにおける X 線画像をシミュレーション画像として取得する。
3)適当なソフト(たとえばImagej等)を用いて画像処理を行い、Rawdataであるシミュレーション画像をブラウザで表示可能な TIFF形式に変換する。
4)プログラムの実行を行い、シミュレーション画像を取得し表示する。
・3次元ボリュームデータの取得
撮影は、以下の条件で行うことができる。なお、この場合の撮影には上記のモーションセンサの備えられていない人体ファントムを用いた。
ファントムを MDCT によって撮影することで得られた 3次元ボリュームデータをシミュレーションの作成に用いる。
撮像には64列 MDCTを用い、撮影条件はたとえば以下の通りとすることができるが、本発明においてはこの例に制限されず、それぞれのファントムに応じた最適な条件を選択することができる。
管電圧80[kV]
管電流450[mA]
有効視野256×256[mm]
スライス厚0.5[mm]
画素サイズ512×512[pixels]
撮影は、以下の条件で行うことができる。なお、この場合の撮影には上記のモーションセンサの備えられていない人体ファントムを用いた。
ファントムを MDCT によって撮影することで得られた 3次元ボリュームデータをシミュレーションの作成に用いる。
撮像には64列 MDCTを用い、撮影条件はたとえば以下の通りとすることができるが、本発明においてはこの例に制限されず、それぞれのファントムに応じた最適な条件を選択することができる。
管電圧80[kV]
管電流450[mA]
有効視野256×256[mm]
スライス厚0.5[mm]
画素サイズ512×512[pixels]
ついで得られたボリュームデータをバイナリデータへ変換する。
撮像にて得られたボリュームデータは、医療画像ファイルである512枚の DICOM データであり、一般的に使用できる形式ではないのでこの DICOM データのうちバイナリデータのみを読み出し、3次元CT画像とする。バイナリデータへの変換は画像処理フリーウェアである MRIcro等を用いて行い、保存した。
撮影におけるX 線管の位置や人体ファントムのポジショニングは、本発明のシステムが、腰椎などの撮影を行う際に傾ける角度に応じたシミュレーション画像をリアルタイムに画面表示させることを目的としている。よってファントムの平行移動はないものと仮定し,加速度センサから取得した角度情報による回転処理を行う。
ブッキー台を使用して撮影を行うため撮影台天板から検出器までの距離を計測し、X 線管から撮影台天板までの距離を測定値に設定する。また、原点の位置を撮影台とし、検出器の位置は原点から Y 方向に所定距離(単位はピクセルとする)だけ離れた平面として設定する。
ファントムのポジショニングにおける回転処理では、3次元画像処理によるシミュレーションを行った。計算プログラムではX・Y・Z軸を回転軸として角度が0°以外のときに3軸それぞれに回転処理を行った。X軸を基準とした場合Y-Z平面上の座標において、X軸である原点を中心に回転処理を行う。このときの回転処理前後の座標は以下の式で表される。ここで回転角度θ、回転処理前の座標(Y,Z)、回転処理後の座標(Y‘,Z‘)とする。このように,Y 軸,Z 軸に関しても同様に回転処理を行う.
Y’=Ycosθ+Zsinθ
Z’=−Ysinθ+Zcosθ
撮像にて得られたボリュームデータは、医療画像ファイルである512枚の DICOM データであり、一般的に使用できる形式ではないのでこの DICOM データのうちバイナリデータのみを読み出し、3次元CT画像とする。バイナリデータへの変換は画像処理フリーウェアである MRIcro等を用いて行い、保存した。
撮影におけるX 線管の位置や人体ファントムのポジショニングは、本発明のシステムが、腰椎などの撮影を行う際に傾ける角度に応じたシミュレーション画像をリアルタイムに画面表示させることを目的としている。よってファントムの平行移動はないものと仮定し,加速度センサから取得した角度情報による回転処理を行う。
ブッキー台を使用して撮影を行うため撮影台天板から検出器までの距離を計測し、X 線管から撮影台天板までの距離を測定値に設定する。また、原点の位置を撮影台とし、検出器の位置は原点から Y 方向に所定距離(単位はピクセルとする)だけ離れた平面として設定する。
ファントムのポジショニングにおける回転処理では、3次元画像処理によるシミュレーションを行った。計算プログラムではX・Y・Z軸を回転軸として角度が0°以外のときに3軸それぞれに回転処理を行った。X軸を基準とした場合Y-Z平面上の座標において、X軸である原点を中心に回転処理を行う。このときの回転処理前後の座標は以下の式で表される。ここで回転角度θ、回転処理前の座標(Y,Z)、回転処理後の座標(Y‘,Z‘)とする。このように,Y 軸,Z 軸に関しても同様に回転処理を行う.
Y’=Ycosθ+Zsinθ
Z’=−Ysinθ+Zcosθ
次に2次元投影処理を行う。通常、X 線管焦点からの X 線束は平行ではなく放射状に広がり、人体は立体構造をしているため、X線投影画像はもとの構造情報に拡大を生じた画像となる。よって本発明においてもX線の幾何学的な拡大を考慮したX線画像を計算するため透視投影法による RaySum 投影処理を行うのが好ましい。2次元投影はX線管から放出されたX線が検出器に検出されるまでに通過する各画素の画素値(ボクセル値)とその画素値(ボクセル)を通過した距離の積の総和で算出する。
X線管の座標(Xs, Ys, Zs)、検出器の座標(Xd, Yd, Zd)とする。このときX線管から検出器までの距離Lは以下の式で表される.
X線管の座標(Xs, Ys, Zs)、検出器の座標(Xd, Yd, Zd)とする。このときX線管から検出器までの距離Lは以下の式で表される.
次に、X線管から検出器に向かうX線をLで割ると、単位ベクトルの集合となり、X線の進む方向を表す単位ベクトル(Xp、Yp、Zp)tは以下の式で表される。ここでtは転置を表す。
最後にX線がボクセル内に入射した面からボクセル内に入射した面からボクセル内を通過する座標 X・Y・Z軸上の各平面までの距離を比較し、最短距離を単位ベクトル(Xp、Yp、Zp)tで割ることでX線がボクセル内を通過した距離Lminを取得した。任意のi番目に通過したボクセルの画素値をf(Xi、Yi、Zi)としたとき投影値 D(X, Z)は以下の式で表される。
上記の計算によりX線の投影値 D(X, Z)を求め,シミュレーション画像を作成することができる。
得られたシミュレーション画像は通常の手法によりTIF形式へ変換する。
得られたシミュレーション画像は通常の手法によりTIF形式へ変換する。
そして得られたシミュレーション画像を基に撮影の学習を行うための手段として、上記疑似撮像画像取得手段と上記判定手段とを具備する。
(疑似撮像画像取得手段)
本手段は、上記モーションセンサを設置した人体ファントムを用いて疑似撮影を行うに際して、この人体ファントムの位置及び向きに関する情報を算出し、次に算出したデータから上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像とする、手段である。
(疑似撮像画像取得手段)
本手段は、上記モーションセンサを設置した人体ファントムを用いて疑似撮影を行うに際して、この人体ファントムの位置及び向きに関する情報を算出し、次に算出したデータから上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像とする、手段である。
・モーションセンサによる位置及び向きに関する情報の算出
モーションセンサは、図1に示すように、モーションセンサのX軸がファントムに対して,水平になるように取り付ける。
モーションセンサで読み取ったデータをグラフで表示し、同時に キューブモデルを表示することのできるアプリケーションとしてCube viewer(商品名)等を用いて、オイラー角を表示する。ただし、この測定値であるオイラー角と実際の角度値を比較すると10°以上異なる結果であったため、モーションセンサから得られるlog値から角度を算出することにした。一般的に、計測角度はセンサ内のジャイロセンサもしくは加速度センサのlog 値から斜位角度の算出を行うことができる。ジャイロセンサは回転していない時の出力をゼロ点とし、その点から求めた角速度値を積分することで斜位角度を求める。しかし、ジャイロセンサにはゼロ点が徐々に変化する特性(ドリフト)がある。ドリフトは、周囲の温度や経過時間によって起こる現象で、ドリフトが発生すると静止しているはずの状態で計測値が変化していく。実際に Cube viewer にてファントムに取り付けたモーションセンサの角度を変えながらジャイロセンサの log 値を観察したところ,安定する値を得ることができなかったため、加速度センサの log 値から斜位角度を算出する。
モーションセンサが水平な状態にあると仮定すると、この時点で加わる加速度は Z 軸方向のみに 1[G]≒約9.8[m/s2 ]である。X 軸を中心にモーションセンサが回転すると、Y 軸方向にも加速度がかかり始める。また、Y軸を中心にセンサが回転すれば、X軸方向に加速度がかかり始める。つまり、重力の大きさとモーションセンサから取得されたX軸、Y軸方向の加速度のlog値(検出ベクトル値)の合計から三角関数を用いて角度を算出する。ここでX軸中心の回転検出での重力の大きさは下記式に示す取りである。
モーションセンサは、図1に示すように、モーションセンサのX軸がファントムに対して,水平になるように取り付ける。
モーションセンサで読み取ったデータをグラフで表示し、同時に キューブモデルを表示することのできるアプリケーションとしてCube viewer(商品名)等を用いて、オイラー角を表示する。ただし、この測定値であるオイラー角と実際の角度値を比較すると10°以上異なる結果であったため、モーションセンサから得られるlog値から角度を算出することにした。一般的に、計測角度はセンサ内のジャイロセンサもしくは加速度センサのlog 値から斜位角度の算出を行うことができる。ジャイロセンサは回転していない時の出力をゼロ点とし、その点から求めた角速度値を積分することで斜位角度を求める。しかし、ジャイロセンサにはゼロ点が徐々に変化する特性(ドリフト)がある。ドリフトは、周囲の温度や経過時間によって起こる現象で、ドリフトが発生すると静止しているはずの状態で計測値が変化していく。実際に Cube viewer にてファントムに取り付けたモーションセンサの角度を変えながらジャイロセンサの log 値を観察したところ,安定する値を得ることができなかったため、加速度センサの log 値から斜位角度を算出する。
モーションセンサが水平な状態にあると仮定すると、この時点で加わる加速度は Z 軸方向のみに 1[G]≒約9.8[m/s2 ]である。X 軸を中心にモーションセンサが回転すると、Y 軸方向にも加速度がかかり始める。また、Y軸を中心にセンサが回転すれば、X軸方向に加速度がかかり始める。つまり、重力の大きさとモーションセンサから取得されたX軸、Y軸方向の加速度のlog値(検出ベクトル値)の合計から三角関数を用いて角度を算出する。ここでX軸中心の回転検出での重力の大きさは下記式に示す取りである。
よって傾きの角度は下記式の通りである。
このようにモーションセンサの傾きを把握すると共に、モーションセンサを設置した位置を記録し、人体ファントムの位置及び向きを把握する。ついでデータベースから、この位置及び向きにもっとも近いデータを抽出する。
(判定手段)
本手段は、上記疑似撮像画像が所望の撮像画像であるか否かを判定する手段である。判定は、抽出されたデータと、所望の画像とが一致するか否かで行う。ここで所望の画像とは、たとえば特定の疾患の診断時に取るべき画像のことを意味し、あらかじめ上記のデータベースに種々疾患時に取得するべき画像との関連付けを行っておき、抽出した画像がその画像であるか否かによって判断することができる。
(判定手段)
本手段は、上記疑似撮像画像が所望の撮像画像であるか否かを判定する手段である。判定は、抽出されたデータと、所望の画像とが一致するか否かで行う。ここで所望の画像とは、たとえば特定の疾患の診断時に取るべき画像のことを意味し、あらかじめ上記のデータベースに種々疾患時に取得するべき画像との関連付けを行っておき、抽出した画像がその画像であるか否かによって判断することができる。
ここで、本発明において好ましいコンピュータシステムについて説明する。
本発明のシステムにおいては、画像のシミュレーションを行うシミュレーションサーバ(Simulation Server、通常のパーソナルコンピュータと同様に中央処理演算装置CPU、記録媒体HDD等、メモリを具備し、モニタ等の表示手段も具備するコンピュータシステム)とこのシミュレーションサーバに格納されたセンサ値に従って表示を行うセンサ制御プログラム(Sensor PC)からなるシステムを使用するのが好ましい。
センサ制御プログラムは、上記X線画像データベースと疑似撮像画像取得手段と判定手段とを具備する。
シミュレーションサーバでは上述の通り取得したボリュームデータからシミュレーション画像をあらかじめ生成しておく。
シミュレーションサーバで行われる処理の流れを以下に述べる。
1) ボリュームデータのシミュレーションプログラムへの入力
シミュレーションサーバに取得したボリュームデータを格納する。
2) シミュレーション画像の出力
シミュレーション画像の取得をX軸方向、Y軸方向にそれぞれ±1°毎に行い、作成したシミュレーション画像を出力する。
3) シミュレーション画像の蓄積
作成したシミュレーション画像をシミュレーションサーバ内に蓄積する.
4) TIFF 画像への変換
蓄積した画像を一括で TIFF 画像に変換する。
5) シミュレーション画像の転送
蓄積した全てのシミュレーション画像をセンサ制御プログラムに転送する.
次にセンサ制御プログラムで行われている流れを以下に述べる
1) センサと PC の Bluetooth(登録商標) 接続
腰椎ファントムに装着したモーションセンサとセンサ制御プログラムの格納されたシミュレーションサーバとを無線連結する。
2) log ファイルの書き出し・読み込み
Sensor logger(センサ接続プログラム)にて取得したセンサ値をリアルタイムにてlogファイルに書き出し,書き出された log ファイルを読み込む.
3) log 値の角度変換
読み込んだlog値を上述の手法により角度情報に変換する。
4) シミュレーション画像の選択と出力
シミュレーションサーバで作成したシミュレーション画像を 3)の角度情報に従って
選択し抽出する。次に、取得したTIFF形式のシミュレーション画像を表示すると共に、所望の画像であるか否かの判定を行い、所望の画像である場合にはその旨、そうでない場合にもその旨の表示をモニタ画面上に表示する。
本発明のシステムにおいては、画像のシミュレーションを行うシミュレーションサーバ(Simulation Server、通常のパーソナルコンピュータと同様に中央処理演算装置CPU、記録媒体HDD等、メモリを具備し、モニタ等の表示手段も具備するコンピュータシステム)とこのシミュレーションサーバに格納されたセンサ値に従って表示を行うセンサ制御プログラム(Sensor PC)からなるシステムを使用するのが好ましい。
センサ制御プログラムは、上記X線画像データベースと疑似撮像画像取得手段と判定手段とを具備する。
シミュレーションサーバでは上述の通り取得したボリュームデータからシミュレーション画像をあらかじめ生成しておく。
シミュレーションサーバで行われる処理の流れを以下に述べる。
1) ボリュームデータのシミュレーションプログラムへの入力
シミュレーションサーバに取得したボリュームデータを格納する。
2) シミュレーション画像の出力
シミュレーション画像の取得をX軸方向、Y軸方向にそれぞれ±1°毎に行い、作成したシミュレーション画像を出力する。
3) シミュレーション画像の蓄積
作成したシミュレーション画像をシミュレーションサーバ内に蓄積する.
4) TIFF 画像への変換
蓄積した画像を一括で TIFF 画像に変換する。
5) シミュレーション画像の転送
蓄積した全てのシミュレーション画像をセンサ制御プログラムに転送する.
次にセンサ制御プログラムで行われている流れを以下に述べる
1) センサと PC の Bluetooth(登録商標) 接続
腰椎ファントムに装着したモーションセンサとセンサ制御プログラムの格納されたシミュレーションサーバとを無線連結する。
2) log ファイルの書き出し・読み込み
Sensor logger(センサ接続プログラム)にて取得したセンサ値をリアルタイムにてlogファイルに書き出し,書き出された log ファイルを読み込む.
3) log 値の角度変換
読み込んだlog値を上述の手法により角度情報に変換する。
4) シミュレーション画像の選択と出力
シミュレーションサーバで作成したシミュレーション画像を 3)の角度情報に従って
選択し抽出する。次に、取得したTIFF形式のシミュレーション画像を表示すると共に、所望の画像であるか否かの判定を行い、所望の画像である場合にはその旨、そうでない場合にもその旨の表示をモニタ画面上に表示する。
(効果)
本発明のX線撮影学習システムによれば、撮影学習者はX線を使うことなく、人体ファントムもしくは被検者に装着秘したモーションセンサ(加速度センサ)による位置情報をもとに、あらかじめ CT 装置により撮影した人体ファントムの断層画像情報より作成したあらゆる角度における X 線撮影のシミュレーション画像とリアルタイムにマッチングさせることで、撮影体位に応じた X 線画像を観察することができ、最適な体位角度を調整し、学習することができる。これにより撮影者は最適な体位角度をリアルタイムに体験することができ、体幹部の下に自身の握りこぶしを入れるなどして、最適な角度を体得しやすくなる。
また、本発明は、近年では入手困難な本学所有の人骨入り人体ファントムをあらかじめ CT スキャンすることで、撮影学習者は実際に人骨を用いていないファントムを使用しても、人骨を使用した人体ファントムを用いた場合と同様の評価を目安に適切な体位角度を体得することが可能なシステムである。
さらに、学生間で、モーションセンサを装着することで、実際の撮影の雰囲気と体位角度の違いよる X 線画像の変化を、X 線を使用せずに学習することができる。
本発明のX線撮影学習システムによれば、撮影学習者はX線を使うことなく、人体ファントムもしくは被検者に装着秘したモーションセンサ(加速度センサ)による位置情報をもとに、あらかじめ CT 装置により撮影した人体ファントムの断層画像情報より作成したあらゆる角度における X 線撮影のシミュレーション画像とリアルタイムにマッチングさせることで、撮影体位に応じた X 線画像を観察することができ、最適な体位角度を調整し、学習することができる。これにより撮影者は最適な体位角度をリアルタイムに体験することができ、体幹部の下に自身の握りこぶしを入れるなどして、最適な角度を体得しやすくなる。
また、本発明は、近年では入手困難な本学所有の人骨入り人体ファントムをあらかじめ CT スキャンすることで、撮影学習者は実際に人骨を用いていないファントムを使用しても、人骨を使用した人体ファントムを用いた場合と同様の評価を目安に適切な体位角度を体得することが可能なシステムである。
さらに、学生間で、モーションセンサを装着することで、実際の撮影の雰囲気と体位角度の違いよる X 線画像の変化を、X 線を使用せずに学習することができる。
(ワーキングシート)
さらに、X線撮影に際しての所望の画像ごとにファントムの位置及び方向並びに手順を記したワーキングシートが格納されたシート格納手段と、
該ワーキングシートと学習者が設定した撮影位置及び方向並びに手順とを対比して、学習者の選択が適切であったか否かを評価する評価手段と、
を具備するのが好ましい。
後述するワークシートに沿ったプログラムを上述のシステムに導入し、このワークシートに沿った撮影及び評価を行うことで学習支援をより効率よく行うことができる。
さらに、X線撮影に際しての所望の画像ごとにファントムの位置及び方向並びに手順を記したワーキングシートが格納されたシート格納手段と、
該ワーキングシートと学習者が設定した撮影位置及び方向並びに手順とを対比して、学習者の選択が適切であったか否かを評価する評価手段と、
を具備するのが好ましい。
後述するワークシートに沿ったプログラムを上述のシステムに導入し、このワークシートに沿った撮影及び評価を行うことで学習支援をより効率よく行うことができる。
<歯科用のX線撮影学習システム>
本発明のX線撮影学習システムは、歯科用に用いることもでき、その場合、上記人体ファントムが、内部にフィルムの貼り付け可能な口腔模型である、のが好ましい。
この点については上述したX線撮影学習システムと同様であり、口腔模型型の人体ファントムを用いる点で異なる。
(口腔模型)
口腔模型は図5に示すように、人体の頭部とほぼ同等に構成されており、且つ口が開いた状態となされている。このように構成することで口腔内にフィルムを貼り付けて撮影実習を行うことが可能となり、より実際の撮影態様に近い形でシミュレーションを行うことができる。
また、図6及び7に示す手順に従い画像取得を行い、またその結果を入力して判定することで手順通りに撮影を行うことができるようになる。
さらに図8に示す手順に従い、画像の評価を行うことで、学習効果を高めることが可能である。
本発明のX線撮影学習システムは、歯科用に用いることもでき、その場合、上記人体ファントムが、内部にフィルムの貼り付け可能な口腔模型である、のが好ましい。
この点については上述したX線撮影学習システムと同様であり、口腔模型型の人体ファントムを用いる点で異なる。
(口腔模型)
口腔模型は図5に示すように、人体の頭部とほぼ同等に構成されており、且つ口が開いた状態となされている。このように構成することで口腔内にフィルムを貼り付けて撮影実習を行うことが可能となり、より実際の撮影態様に近い形でシミュレーションを行うことができる。
また、図6及び7に示す手順に従い画像取得を行い、またその結果を入力して判定することで手順通りに撮影を行うことができるようになる。
さらに図8に示す手順に従い、画像の評価を行うことで、学習効果を高めることが可能である。
以下に、本発明に用いることのできる撮影システム及び撮影実習について説明する。
(撮影システム)
本発明に用いることができるARを用いたX線撮影支援システムは、例えば、ARを用いたX線撮影実習の学習支援システムである。当該システムは、学習者が従来の学習方法よりもポジショニング角度とX線束の中心線を感覚的に設定する技術を習得することを実現するためにARを利用するものである。具体的には、ファントムを用いたポジショニング実習において、撮影寝台上に、ファントムと専用マーカーを撮影できる位置にwebカメラを設置する。そして、カメラ映像内に体位角度を示すような3次元CG(Computer Graphics)を3Dモデリングソフト(Metasequoia:メタセコイア)により作成する。次に、作成した3次元CGをwebカメラ映像内で表示するためのマーカーを作成する。更に、webカメラ映像内に映し出されたマーカーを起点に作成した3次元CGが表示されるようなAR環境を「AR Tool Kit」により作成する。そして、撮影室寝台にてファントム、マーカー、webカメラの位置調整を行い、実習を最適化する。この場合において、webカメラを寝台に設置し、寝台上に置かれたPCモニタを見ながらポジショニングを行うものである。
(撮影システム)
本発明に用いることができるARを用いたX線撮影支援システムは、例えば、ARを用いたX線撮影実習の学習支援システムである。当該システムは、学習者が従来の学習方法よりもポジショニング角度とX線束の中心線を感覚的に設定する技術を習得することを実現するためにARを利用するものである。具体的には、ファントムを用いたポジショニング実習において、撮影寝台上に、ファントムと専用マーカーを撮影できる位置にwebカメラを設置する。そして、カメラ映像内に体位角度を示すような3次元CG(Computer Graphics)を3Dモデリングソフト(Metasequoia:メタセコイア)により作成する。次に、作成した3次元CGをwebカメラ映像内で表示するためのマーカーを作成する。更に、webカメラ映像内に映し出されたマーカーを起点に作成した3次元CGが表示されるようなAR環境を「AR Tool Kit」により作成する。そして、撮影室寝台にてファントム、マーカー、webカメラの位置調整を行い、実習を最適化する。この場合において、webカメラを寝台に設置し、寝台上に置かれたPCモニタを見ながらポジショニングを行うものである。
[X線撮影実習について]
診療放射線技師の業務は多岐にわたるが、単純X線撮影領域の業務には多くの診療放射線技師が関与している。診療放射線技師養成機関におけるX線撮影技術の学習方法には大きく2つあり、書籍や資料を用いた講義形式と、ファントムを用いて実際にX線撮影を行う実習形式の授業がある。ここでは、単純X線撮影とX線撮影実習について説明する。
診療放射線技師の業務は多岐にわたるが、単純X線撮影領域の業務には多くの診療放射線技師が関与している。診療放射線技師養成機関におけるX線撮影技術の学習方法には大きく2つあり、書籍や資料を用いた講義形式と、ファントムを用いて実際にX線撮影を行う実習形式の授業がある。ここでは、単純X線撮影とX線撮影実習について説明する。
放射線診療において、単純X線撮影によって得られる画像(以下、X線画像とする)は目的とする検査部位の三次元形態が二次元の平面に投影されたものである。X線画像は解剖学的所見から骨・関節の形態の観察や腫瘤の発見などに用いられ、診断に有用であるためには検査部位が他の臓器や骨に邪魔されずに描出されたものである必要がある。特に、経過観察が必要な場合やX線画像から骨等を標準規格に照らし合わせて計測する場合などは、X線照射条件や少しのポジショニング不良やX線束の中心線のずれにより過去の画像との比較や計測が困難になることもあるため、正確な診断ができなくなる恐れがある。管電圧や管電流、照射時間等のX線照射条件においては、法令によって義務付けられている撮影記録簿により、ある程度決まった設定を行うことが出来るが、ポジショニングやX線束の中心線の設定に関しては診療放射線技師の技量によるものが大きい。また、ポジショニングやX線束の中心線の設定をやり直して再撮影を行うことも出来るが、被験者に無駄な被ばくをさせる上、同じ姿勢を保持する時間が長びくことによる身体的な負担や時間の拘束、被ばくの不安などによる精神的な負担を負わせてしまうことにも繋がるため、ポジショニング及びX線束の中心線を適切かつ迅速に設定する技術が必要である。
診療放射線技師養成機関におけるX線撮影実習では、撮影部位の解剖、撮影条件、ポジショニングやX線の中心線、得られる画像やシェーマ等が載っているX線撮影技術に関する資料や書籍等を参考にしながら、ポジショニングブロックや角度計を用いてX線撮影用のファントムを撮影する。
通常、X線束の中心線は、臨床と同じように管球に付属されている角度計で入射角度を設定し、入射位置を腸骨稜や甲状軟骨等の基準を頼りに設定することにより学習する。被写体の正面像や側面像のポジショニングは、ファントムの形状より学生自身の感覚により設定し、斜位像は適正角度に設定されたポジショニングブロックや角度計を使用することにより学習する。正面や側面に比べて習得が難しいのが斜位であるが、特に、斜位の中でも臨床における撮影頻度も多く習得が困難なものが腰椎斜位と頸椎斜位である。腰椎斜位はファントムをあらかじめ適正角度に設定されたポジショニングブロック上に乗せて角度を設定し、頚椎斜位は角度計を横向きに保持して角度を設定して学習する(図3、図4。なお、図中の線はX線束の中心線である。)。これらの方法では、他の撮影部位や撮影体位と同様にポジショニング角度を容易に得ることが出来るが、臨床に則した学習が出来るとは限らない。
[ARについて]
ARとは「Augmented Reality」の略であり、「拡張現実」とも呼ばれている。現実の環境内にコンピュータの生成する仮想物体を、あたかもそれがそこにあるかのように重ね合わせて提示する技術である。基本的な仕組みとしては、PCに接続されたカメラでマーカーを読み取り、そのマーカーから取得した3次元座標系と表示させたい仮想物体の3次元座標系を一致させることにより、任意の位置に重ね合わせて表示させるというものである(図5)。
ARとは「Augmented Reality」の略であり、「拡張現実」とも呼ばれている。現実の環境内にコンピュータの生成する仮想物体を、あたかもそれがそこにあるかのように重ね合わせて提示する技術である。基本的な仕組みとしては、PCに接続されたカメラでマーカーを読み取り、そのマーカーから取得した3次元座標系と表示させたい仮想物体の3次元座標系を一致させることにより、任意の位置に重ね合わせて表示させるというものである(図5)。
また、マーカーを利用することなく、現実の環境内に存在する特定の物体や、その環境自体を空間的に認識することで仮想物体の表示位置を特定するというマーカーレス型のものもある。しかし、特定の物体や空間的な認識では、計算量が多くなるためハードウェアの能力の要求が高くなる点と、位置合わせの精度等の面で課題がある。そのため、本実施形態では、表示したい場所へ正確に仮想物体を表示できることや、すぐに利用できるOSSのライブラリが公開されている、比較的取り組みやすいマーカー型のものを利用した。
[仮想物体について]
本実施の形態に係るシステムで使用する全ての仮想物体は、株式会社テトラフェイスが提供しているWindows(登録商標)用3DCGソフトウェアのMetasequoia(メタセコイア、商品名)で作成できる。
本実施の形態に係るシステムで使用する全ての仮想物体は、株式会社テトラフェイスが提供しているWindows(登録商標)用3DCGソフトウェアのMetasequoia(メタセコイア、商品名)で作成できる。
3DCGとは、「3-Dimensional Computer Graphics」の略称で、3次元CG、3Dグラフィックス 、三次元グラフィックスとも呼ばれており、架空の空間や立体等の3Dの存在をPC画面に投影して描画した画像や映像のことである。
[本実施の形態に係るシステムの構築について]
近年、ARは様々な分野で応用されている。特に、医療分野において、患部を映した映像上に仮想物体を表示し、手術に必要となる情報を医師に提示する手術支援としての活用事例がある。そこで、本実施の形態ではX線撮影実習にARを活用することで角度計とX線束の中心線を示す仮想物体をPC画面上に表示し、それを見ながらファントムのポジショニングとX線束の中心線を設定して撮影することで、ポジショニング角度とX線束の中心線を感覚的に設定する技術を学習することが可能なシステムを構築した。ここでは、システムの構築、システムの構築手順として、ARToolkitのインストール、マーカーの作成、そのマーカーを認識するために必要なパターンファイルの作成、そして、PC画面上に角度計とX線束の中心線を示す仮想物体を表示させたまでの詳細について述べる。
近年、ARは様々な分野で応用されている。特に、医療分野において、患部を映した映像上に仮想物体を表示し、手術に必要となる情報を医師に提示する手術支援としての活用事例がある。そこで、本実施の形態ではX線撮影実習にARを活用することで角度計とX線束の中心線を示す仮想物体をPC画面上に表示し、それを見ながらファントムのポジショニングとX線束の中心線を設定して撮影することで、ポジショニング角度とX線束の中心線を感覚的に設定する技術を学習することが可能なシステムを構築した。ここでは、システムの構築、システムの構築手順として、ARToolkitのインストール、マーカーの作成、そのマーカーを認識するために必要なパターンファイルの作成、そして、PC画面上に角度計とX線束の中心線を示す仮想物体を表示させたまでの詳細について述べる。
本システムはPCとWebカメラを2台ずつ同じものを使用した。
(システム構築手順)
本システムは、ARToolKitをインストールしたPCに接続したWebカメラでマーカーを映し、PC画面上にMetasequoiaで作成した仮想物体を表示するというものである。
本システムは、ARToolKitをインストールしたPCに接続したWebカメラでマーカーを映し、PC画面上にMetasequoiaで作成した仮想物体を表示するというものである。
C/C++用のライブラリであるARToolKitの開発環境には、Microsoft社の公式サイト(http://www.visualstudio.com/ja-jp/products/visual-studio-express-vs)で無償配布されている Visual C++ 2008 Express Edition日本語版を使用した。また、ARToolKitの3DCG処理には、3DCG・プログラミングライブラリであるOpenGLおよびOpenGLのユーティリティライブラリであるGLUTが使われている。OpenGLは標準ライブラリとしてVCの中に含まれているがGLUTは含まれていないため、OpenGLの公式サイト(http://user.xmission.com/~nate/glut.html)からダウンロードした。同様に、ARToolKitを起動する際、Microsoft社が提供するC言語ランタイムライブラリである「msvcp71.dll」と「msvcr71.dll」が必要となるが、Windows7(登録商標)には付属されていないため、(株)ベクターの提供するサイト(vectorhttp://www.vector.co.jp/soft/win95/util/se435079.html)からダウンロードした。
Metasequoiaで作成した仮想物体はMQO形式のファイルとして保存されるため、ARToolKitのプログラムで表示させるには工学ナビ(http://kougaku-navi.net/ARToolKit.html)が公開しているMQO形式のファイルを読み込みOpenGLで表示させるためのC/C++用のライブラリである「GLMetaseq.h」「GLMetaseq.c」をダウンロードする必要がある。しかし、「GLMetaseq.h」をインクルードする際にエラーが頻発し、ネット上でも数多くのエラーについての報告があったため、工学ナビ(http://kougaku-navi.net/ARToolKit.html)が公開しているサンプルプログラムである「AR_Tachikoma」をダウンロードし、本システムに最適化させた。その他、本システムに必要なソフトウェアも適宜ダウンロード等し、PC等にインストールした。
(マーカーの作成)
ARToolKitで使用するマーカーには、黒色の外枠のある正方形であり、ソースコード上で黒枠の領域と内側の領域の比を「黒枠の領域:内側の領域:黒枠の領域=1:2:1」にするという条件がある。
ARToolKitで使用するマーカーには、黒色の外枠のある正方形であり、ソースコード上で黒枠の領域と内側の領域の比を「黒枠の領域:内側の領域:黒枠の領域=1:2:1」にするという条件がある。
また、外枠の内側に白色および黒色以外の色があると、カメラの色の視認性や、作成したマーカーを印刷するプリンターの色の再現性がマーカーの認識に影響を及ぼす可能性がある。更に、マーカーの大きさや内側の領域の図柄のデザインに条件は無いが、図柄のデザインが「H」や「I」のように左右対称だとマーカーを認識する際に座標系の方向が反転してしまい、表示させる仮想物体の向きが反転することがある。本システムで使用したマーカーは、Windows(登録商標)の描画、色付け、画像の編集を行うプログラムである「ペイント」で作成したものを普通紙に印刷した。
ARToolKitは、プログラムを実行する際、マーカーの図柄の情報を記録したファイル(以下、パターンファイルとする)を読み込んでいる。ARToolKitにはマーカーをカメラで撮影することでパターンファイルが作成できる「mk_patt.exe」というファイルが付属されている。本システムでは「patt.v」というパターンファイルを作成して使用した。
次に、工学ナビ(http://kougaku-navi.net/ARToolKit/)で配布されている「AR_Tachikoma.zip」を解凍して得られる「AR_Tachikoma」等のファイルを用い、所定の処理を実行することで仮想物体をマーカー上に表示させる。
[システムの評価]
本システムを学習支援に活用することで、学習者は従来の学習方法よりもX線束の中心線とポジショニング角度を感覚的に設定する技術を学習することが期待できる。そこで、本システムと従来の学習方法の学習効果の差を比較し、本システムの学習効果を評価するために実験を行った。実験方法と手順を以下に述べる。更に、実験時の外観と本システムを使用した際のカメラ映像画面を図3〜図4に示す。
本システムを学習支援に活用することで、学習者は従来の学習方法よりもX線束の中心線とポジショニング角度を感覚的に設定する技術を学習することが期待できる。そこで、本システムと従来の学習方法の学習効果の差を比較し、本システムの学習効果を評価するために実験を行った。実験方法と手順を以下に述べる。更に、実験時の外観と本システムを使用した際のカメラ映像画面を図3〜図4に示す。
研究対象者に対して、紙に書いたIDを封筒に入れた状態で無作為に配布し、IDの番号によりA(5名)及びB(5名)の2つのグループに分けた。
Aグループは頸椎斜位について10分間以内で教科書と角度計を併用する従来の学習方法で学習した後、2分間の休憩を挟み、3分間以内で撮影を行った。次に、腰椎斜位を10分間以内で教科書と本システムを併用して学習した後、2分間の休憩を挟み、3分間以内で撮影を行った。Bグループは腰椎斜位について10分間以内で教科書とポジショニングブロックを併用する従来の学習方法で学習した後、2分間の休憩を挟み、3分間以内で撮影を行った。次に、頸椎斜位を10分間以内で教科書と本システムを併用して学習した後、2分間の休憩を挟み、3分間以内で撮影を行った。すなわち、実験1回目の各グループの学習方法は、Aグループが「頚椎斜位:教科書と角度計、腰椎斜位:教科書と本システム」であり、Bグループが「頚椎斜位:教科書と本システム、腰椎斜位:教科書とポジショニングブロック」である。なお、撮影はCRにて行った。
約2週間後、各グループについて、頸椎斜位と腰椎斜位を入れ替えて再度同じ手順で実験を行った。実験2回目の各グループの学習方法は、Aグループが「頚椎斜位:教科書と本システム、腰椎斜位:教科書とポジショニングブロック」であり、Bグループが「頚椎斜位:教科書と角度計、腰椎斜位:教科書と本システム」である。その後、研究対象者から本システムについてアンケート調査し、アンケートの集計、取得した画像の評価を行った。
本研究は2回に分けて実験を行ったが、1回目の実験から約2週間空けて2回目の実験を行うことで、従来の方法で学習した記憶がそのまま残った状態で本システムで学習すること、また、本システムで学習した記憶がそのまま残った状態で従来の方法で学習することを避けるためである。更に、各撮影部位について、本システムを初めに使用したか後に使用したかによる差が取得した画像に出るかを確認するためである。
なお、本システムで表示したポジショニング角度とX線束の中心線は実験で使用した教科書に基づいて作成した。腰椎斜位のポジショニング角度は、本実験で使用した教科書では30〜45度と記してあったため、おおよそ中間となる35度とした。X線束の中心線は、左右の腸骨稜から2横指上の線と、本システムで示したブッキー台から垂直方向に伸びる線から頭尾方向に平行移動した線の交わる点とした(図5)。頚椎斜位のポジショニング角度も本実験で使用した教科書と同様に50度とし、X線束の中心線は、入射位置を咽頭隆起とし、入射角度を尾頭方向に10度とした。
(評価方法)
本システムを使用することによる学習効果の評価を行うため、アンケート調査を行った。更に、腰椎斜位を20度から50度、頸椎斜位を40度から70度の間で5度ずつ変えて撮影して取得したファントム画像を、臨床現場での勤務年数が10年以上の診療放射線技師3名に診断上の有用性を評価してもらい、その評価を基準に研究対象者が取得した画像を評価した。
本システムを使用することによる学習効果の評価を行うため、アンケート調査を行った。更に、腰椎斜位を20度から50度、頸椎斜位を40度から70度の間で5度ずつ変えて撮影して取得したファントム画像を、臨床現場での勤務年数が10年以上の診療放射線技師3名に診断上の有用性を評価してもらい、その評価を基準に研究対象者が取得した画像を評価した。
本システムを使用することによる学習効果の評価を行うため、アンケート調査を行った。アンケートの内容は、5件法のうち択一式が14問、複数回答可が2問、自由記述が1問の計17問とした。択一式の5件法では、質問1−1(名義尺度)以外を間隔尺度として1〜5の選択肢をスコアリングした。アンケート調査の内容は表1のとおりである。
臨床現場での勤務年数が10年以上の診療放射線技師3名に、腰椎斜位は20度から50度、頸椎斜位は40度から70度の間で5度ずつ変えて撮影して取得した画像について診断上の正確さを評価してもらい、その評価を基準に研究対象者が本システムを使用した際と従来の学習ツールを使用した際に取得した画像のポジショニング角度を判断し、診断に有意であるかを評価した。X線束の中心線に関しては、X線管球に付いている角度計にて入射角度を設定したことと入射点は画像から判断しにくいため、アンケート調査の評価のみとした。撮影したファントムは外来で訪れてきたスクリーニング目的の一般的な中年男性もしくは女性とし、診断上の正確さは3段階(○:撮影終了、△:患者の状況により撮影終了、×:再撮影)とした。表2〜表3に評価の内容を示す。
アンケート調査の結果から、各項目についての考察を述べる。
(現在の学習状況の把握)
ポスター掲示により研究対象者を募集した結果、放射線学を学習して2年(現3年生)が60%、3年(現4年生)が20%、4年(現M1)が20%となった。このことから、実験開始から終了までの間で、研究対象者全員が授業でのX線撮影実習を経験しているということが言える。更に、病院実習を経験していない学生としている学生が60%と40%であり、研究対象者の臨床経験の有無に偏りはないと言える。
ポスター掲示により研究対象者を募集した結果、放射線学を学習して2年(現3年生)が60%、3年(現4年生)が20%、4年(現M1)が20%となった。このことから、実験開始から終了までの間で、研究対象者全員が授業でのX線撮影実習を経験しているということが言える。更に、病院実習を経験していない学生としている学生が60%と40%であり、研究対象者の臨床経験の有無に偏りはないと言える。
経験したポジショニング体位について、体幹部以外で学習が困難であるスカイラインビューとスカプラYを経験したという回答が体幹部に比べて少なかった。このことから、今後、体幹部以外の学習が困難な体位や部位にも本システムを応用することにより、本システムのX線撮影実習の学習支援システムとしての使用価値が更に高まると考える。
自己学習方法について、ファントム等を使った学習をしているという回答が、書籍や参考書といった紙面での学習をしているという回答の三分の一しか得られなかった。このことから、臨床に必要となるポジショニング角度やX線束の中心線を感覚的に設定する技術の学習を、効率的かつ興味を持って自己学習に取り組めるようなシステムが必要であると考える。
1回目の実験開始前の自己学習時間と、1回目の実験開始から2回目の実験終了までの間の自己学習時間について、全くなし、30分未満という回答がそれぞれ90%、80%となり、3時間以上という回答がそれぞれ10%得となった。このことから、本実施の形態において行ったアンケート調査の結果や2回の実験で取得した画像について、研究対象者の自己学習時間の変化による影響は無いと考える。
(システムの評価)
腰椎斜位と頚椎斜位の仮想物体の視認性について、肯定的な回答がそれぞれ80%、60%という結果に留まった。これは、ポジショニング時に研究対象者の手や肘が少しでもマーカーと被ると仮想物体が表示出来なくなることや、実際にX線束の中心線を設定するときに、部屋を暗くするとカメラがマーカーを認識できなくなり、仮想物体が表示できない等の理由が考えられる。更に、質問項目の5−1で仮想物体の色合いや仮想物体のデザインについての意見が得られたことから、暗闇で発光するマーカーの作成、マーカーを貼り付ける位置の変更、仮想物体を改良してブッキー台やファントムとの相性を良くすること等で仮想物体の視認性が向上すると考える。
腰椎斜位と頚椎斜位の仮想物体の視認性について、肯定的な回答がそれぞれ80%、60%という結果に留まった。これは、ポジショニング時に研究対象者の手や肘が少しでもマーカーと被ると仮想物体が表示出来なくなることや、実際にX線束の中心線を設定するときに、部屋を暗くするとカメラがマーカーを認識できなくなり、仮想物体が表示できない等の理由が考えられる。更に、質問項目の5−1で仮想物体の色合いや仮想物体のデザインについての意見が得られたことから、暗闇で発光するマーカーの作成、マーカーを貼り付ける位置の変更、仮想物体を改良してブッキー台やファントムとの相性を良くすること等で仮想物体の視認性が向上すると考える。
頚椎斜位と腰椎斜位の学習時のPC画面の見やすさについても、肯定的な回答がそれぞれ70%と60%という結果に留まった。これは、使用したカメラとPCの性能により、カメラ映像画面の大きさに制限があったことなどが関係していると考えられる。更に、質問項目5−1で頚椎斜位の学習時にPC画面が見にくいときがあるという回答が得られたこともあり、頚椎斜位については否定的な回答が30%となった。これは、実験室の環境によりPCやカメラの置く位置に制限があったことが原因である。解決策としては、google社が開発した、ARに対応したディスプレイを頭部に装着するメガネ型デバイス「Google Glass」等を本システムに応用すること等で画面の見やすさが向上すると考える。
(満足度)
ポジショニング角度、X線束の中心線を感覚的に理解出来たかという質問について、共に90%から肯定的な意見が得られた。更に、学習支援システムとして満足したかという質問についても、90%から肯定的な意見が得られた。したがって、本システムはX線撮影実習の学習支援システムとして使用することに有用であり、ポジショニング角度、X線束の中心線を感覚的に理解できると言える。
ポジショニング角度、X線束の中心線を感覚的に理解出来たかという質問について、共に90%から肯定的な意見が得られた。更に、学習支援システムとして満足したかという質問についても、90%から肯定的な意見が得られた。したがって、本システムはX線撮影実習の学習支援システムとして使用することに有用であり、ポジショニング角度、X線束の中心線を感覚的に理解できると言える。
(従来の学習方法との比較)
従来の学習方法と比較した本システムを用いた学習時間、撮影時間について、肯定的な回答がそれぞれ100%、80%となった。また、ポジショニング角度、X線束の中心線を感覚的に理解できたかという質問についても肯定的な意見がそれぞれ90%、80%となった。したがって、本システムは従来の学習方法と比較しても、X線撮影実習の学習支援システムとして使用することが有用であり、ポジショニング角度、X線束の中心線を感覚的に理解できると言える。
従来の学習方法と比較した本システムを用いた学習時間、撮影時間について、肯定的な回答がそれぞれ100%、80%となった。また、ポジショニング角度、X線束の中心線を感覚的に理解できたかという質問についても肯定的な意見がそれぞれ90%、80%となった。したがって、本システムは従来の学習方法と比較しても、X線撮影実習の学習支援システムとして使用することが有用であり、ポジショニング角度、X線束の中心線を感覚的に理解できると言える。
(本システムに関する意見)
本システムを用いることで、ARという目新しい技術を取り入れることで従来の学習方法よりも興味を持って取り組めた学習時に両手が自由に使える、ポジショニングブロックに頼らずに自分の手で覚えようとする、等の肯定的な意見が得られた。また、仮想物体の視認性とPC画面の見やすさについて多くの意見が得られたことや、リアルタイムで角度が数値として表示される、仮想物体の示した通りに設定できたときに仮想物体の色が変わる、または音が鳴るという、本システムに取り入れることで学習支援システムとしての価値を高めることが期待できるようなアイデアが得られたことから、今後、機能の改善、追加をしていくことで、さらにX線撮影実習の学習効果の向上に寄与で出来ると考える。
本システムを用いることで、ARという目新しい技術を取り入れることで従来の学習方法よりも興味を持って取り組めた学習時に両手が自由に使える、ポジショニングブロックに頼らずに自分の手で覚えようとする、等の肯定的な意見が得られた。また、仮想物体の視認性とPC画面の見やすさについて多くの意見が得られたことや、リアルタイムで角度が数値として表示される、仮想物体の示した通りに設定できたときに仮想物体の色が変わる、または音が鳴るという、本システムに取り入れることで学習支援システムとしての価値を高めることが期待できるようなアイデアが得られたことから、今後、機能の改善、追加をしていくことで、さらにX線撮影実習の学習効果の向上に寄与で出来ると考える。
[取得した画像の評価]
研究対象者が本実験で取得した画像と、あらかじめ用意しておいた、腰椎斜位は20度から50度、頸椎斜位は40度から70度の間で5度ずつ変えて撮影して取得した画像を比較し、研究対象者が本実験で取得した画像のポジショニング角度を求めた。なお、頚椎斜位は椎間孔の形状、腰椎斜位はドッグラインの形状から判断した。表4〜表7に各グループの取得した画像のポジショニング角度を示す。
研究対象者が本実験で取得した画像と、あらかじめ用意しておいた、腰椎斜位は20度から50度、頸椎斜位は40度から70度の間で5度ずつ変えて撮影して取得した画像を比較し、研究対象者が本実験で取得した画像のポジショニング角度を求めた。なお、頚椎斜位は椎間孔の形状、腰椎斜位はドッグラインの形状から判断した。表4〜表7に各グループの取得した画像のポジショニング角度を示す。
また、表2、表3について、○が10点、△が6点、×が0点として各角度を点数化したものを表8にまとめた。
なお、頚椎に関しては評価に使用したファントムのCT画像をImage Jで計測したところ、椎体が正中から左側に7.027度ずれていた。本実験では頚椎斜位をRAOで撮影したため、椎体のずれを考慮して点数化し、40度未満は0点とした。更に、表8の各角度ごとの点数を表4〜表7の各角度に当てはめたものを表9〜表10
以上より、頚椎斜位は、Aグループ、Bグループともに従来の学習方法で学習するよりも本システムを使用して学習した方が点数が高くなった。このことから、従来の学習方法で学習するよりも本システムを使用して学習した方が学習効果が高いと言える。腰椎斜位は、A、Bグループともに全画像の角度が30度〜45度の間に収まった。そのため、取得した画像からは学習効果の差は得られなかった。これは、腰椎斜位学習時の透明なブッキー台と本システムの仮想物体の相性が、頚椎斜位学習時のブッキー台と比べると良くなかったからであると考える。そのため、アンケート調査の結果と同様に、仮想物体やマーカーの改良の改良が今後の本システムのX線撮影実習の学習支援システムとしての価値の向上に欠かせないものであると言える。
本実施形態では、X線撮影実習にARを活用することで角度計とX線束の中心線を示す仮想物体をPC画面上に表示し、それを見ながらファントムのポジショニングとX線束の中心線を設定して撮影することで、臨床で必要となる適切かつ迅速に撮影を行うためのポジショニング角度とX線束の中心線を感覚的に設定する技術を学習することが可能なシステムを構築した。更に、本システムと従来の学習方法を頚椎斜位と腰椎斜位の学習に用いて学習効果を比較し、アンケート調査と本実験で取得した画像の評価を行った。アンケート調査の結果から、本システムは従来の学習方法と比較してX線撮影実習の学習支援システムとして使用することが有用であり、ポジショニング角度、X線束の中心線を感覚的に学習出来ると考える。また、本実験で取得した画像の評価の結果から、従来の学習方法と比較して頚椎斜位には学習効果が得られたものの、腰椎斜位から学習効果の差は得られなかった。これは、腰椎斜位学習時の透明なブッキー台と本システムの仮想物体の相性が、頚椎斜位学習時のブッキー台と比べると良くなかったからであると考える。今後、仮想物体やマーカーの改良を行い、新たな機能を追加していくことで、更にX線撮影実習の学習効果の向上に寄与で出来ると考えられる。
以上、本発明の実施の形態及び実施例を説明したが、上記に記載した実施の形態及び実施例は特許請求の範囲に係る発明を限定するものではない。また、実施の形態及び実施例の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。
Claims (3)
- 人体ファントムを用いて模擬X線撮影を行い、所望のX線撮影を行えたか否かを判定することでX線撮影の技術を学習するX線撮影学習システムであって、
X人骨入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、
1又は複数のモーションセンサを所定位置に装着した人体ファントムと、
上記モーションセンサの位置及び向きに関する情報から上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、
上記疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段と、
を具備することを特徴とするX線撮影学習システム。
- 上記人体ファントムが、内部にフィルムの貼り付け可能な口腔模型である、
請求項1記載のX線撮影学習システム。
- さらに、X線撮影に際しての所望の画像ごとにファントムの位置及び方向並びに手順を記したワーキングシートが格納されたシート格納手段と、
該ワーキングシートと学習者が設定した撮影位置及び方向並びに手順とを対比して、学習者の選択が適切であったか否かを評価する評価手段と、
を具備する請求項1記載のX線撮影学習システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015014875 | 2015-01-29 | ||
JP2015014875 | 2015-01-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016145978A true JP2016145978A (ja) | 2016-08-12 |
Family
ID=56686213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016014470A Pending JP2016145978A (ja) | 2015-01-29 | 2016-01-28 | X線撮影学習システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016145978A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101849773B1 (ko) * | 2016-12-28 | 2018-04-18 | 극동대학교 산학협력단 | 교육용 방사선영상 시뮬레이션 시스템 및 그 방법 |
WO2018155973A3 (ko) * | 2017-02-24 | 2018-10-25 | 주식회사 브이알애드 | 가상현실 기반 방사선학 실습 장치 및 방법 |
CN109147414A (zh) * | 2018-09-29 | 2019-01-04 | 南昌航空大学 | 一种可用于射线dr成像检测的虚拟现实训练系统及方法 |
KR101948675B1 (ko) * | 2016-12-20 | 2019-02-15 | 광주보건대학산학협력단 | 엑스레이 촬영 실습장치 |
CN110070788A (zh) * | 2019-03-18 | 2019-07-30 | 叶哲伟 | 一种基于混合现实的人体3d经络穴位可视化方法 |
WO2019146876A1 (ko) * | 2018-01-25 | 2019-08-01 | 극동대학교 산학협력단 | 방사선촬영 오류를 검출할 수 있는 모의 방사선촬영장치 |
JP6936452B1 (ja) * | 2020-12-04 | 2021-09-15 | 茨城県 | X線撮影学習装置、x線撮影学習プログラム及びx線撮影学習システム |
-
2016
- 2016-01-28 JP JP2016014470A patent/JP2016145978A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101948675B1 (ko) * | 2016-12-20 | 2019-02-15 | 광주보건대학산학협력단 | 엑스레이 촬영 실습장치 |
KR101849773B1 (ko) * | 2016-12-28 | 2018-04-18 | 극동대학교 산학협력단 | 교육용 방사선영상 시뮬레이션 시스템 및 그 방법 |
WO2018155973A3 (ko) * | 2017-02-24 | 2018-10-25 | 주식회사 브이알애드 | 가상현실 기반 방사선학 실습 장치 및 방법 |
US11157131B2 (en) | 2017-02-24 | 2021-10-26 | Vrad Inc. | Virtual reality-based radiology practice apparatus and method |
WO2019146876A1 (ko) * | 2018-01-25 | 2019-08-01 | 극동대학교 산학협력단 | 방사선촬영 오류를 검출할 수 있는 모의 방사선촬영장치 |
CN109147414A (zh) * | 2018-09-29 | 2019-01-04 | 南昌航空大学 | 一种可用于射线dr成像检测的虚拟现实训练系统及方法 |
CN109147414B (zh) * | 2018-09-29 | 2024-03-12 | 南昌航空大学 | 一种可用于射线dr成像检测的虚拟现实训练系统及方法 |
CN110070788A (zh) * | 2019-03-18 | 2019-07-30 | 叶哲伟 | 一种基于混合现实的人体3d经络穴位可视化方法 |
JP6936452B1 (ja) * | 2020-12-04 | 2021-09-15 | 茨城県 | X線撮影学習装置、x線撮影学習プログラム及びx線撮影学習システム |
JP2022089206A (ja) * | 2020-12-04 | 2022-06-16 | 茨城県 | X線撮影学習装置、x線撮影学習プログラム及びx線撮影学習システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016145978A (ja) | X線撮影学習システム | |
CN110494921B (zh) | 利用三维数据增强患者的实时视图 | |
JP6623226B2 (ja) | 顎の動きの追跡 | |
US8294709B2 (en) | Method and apparatus for integrating three-dimensional and two-dimensional monitors with medical diagnostic imaging workstations | |
JP5538862B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
CN108697402A (zh) | 在三维图像中确定深度脑刺激电极的旋转方位 | |
Henseler et al. | Validation of the Kinect device as a new portable imaging system for three-dimensional breast assessment | |
CN101394791A (zh) | 医用图像的处理方法 | |
US20050151730A1 (en) | Method, system and computer program for stereoscopic viewing of 3d medical images | |
US10078906B2 (en) | Device and method for image registration, and non-transitory recording medium | |
JP2005521960A5 (ja) | ||
Gong et al. | A cost effective and high fidelity fluoroscopy simulator using the image-guided surgery toolkit (IGSTK) | |
JP2017042247A (ja) | 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム | |
Costa et al. | Augmented reality-assisted ultrasound breast biopsy | |
Costa et al. | Ultrasound training simulator using augmented reality glasses: An accuracy and precision assessment study | |
Condino et al. | Hybrid spine simulator prototype for X-ray free pedicle screws fixation training | |
Moura et al. | Real-scale 3D models of the scoliotic spine from biplanar radiography without calibration objects | |
Cosson et al. | Geometric validation of a computer simulator used in radiography education | |
Hsung et al. | Recording natural head position using cone beam computerized tomography | |
JP2010240141A (ja) | 情報処理装置、画像診断システム、および診断用画像の表示制御方法 | |
Jayaprakash | On the integral use of foundational concepts in verifying validity during skull-photo superimposition | |
JP6936452B1 (ja) | X線撮影学習装置、x線撮影学習プログラム及びx線撮影学習システム | |
KR101834081B1 (ko) | 3d 영상 디스플레이 방법 및 3d 영상을 이용한 방사선 촬영 가이드 시스템 및 방법 | |
KR102345827B1 (ko) | 의료 영상 촬영 시뮬레이션 방법 | |
KR20210144663A (ko) | 수술 동안 원격 카메라의 배향을 위한 유저 인터페이스 엘리먼트 |