JP2014131552A - 医療支援装置 - Google Patents
医療支援装置 Download PDFInfo
- Publication number
- JP2014131552A JP2014131552A JP2013000662A JP2013000662A JP2014131552A JP 2014131552 A JP2014131552 A JP 2014131552A JP 2013000662 A JP2013000662 A JP 2013000662A JP 2013000662 A JP2013000662 A JP 2013000662A JP 2014131552 A JP2014131552 A JP 2014131552A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tumor
- marker
- patient
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】術者が治療や手術に集中でき、また、医療器具をその位置にかかわらず常に視認することができ、さらに、ディスプレイ上の映像に、ほとんどタイムラグが発生することなく医療器具を表示することが可能な医療支援装置を提供する。
【解決手段】外科処置対象部位としての腫瘍Fを含む患者の術野に設けられたAR認識用マーカMKと、術野をAR認識用マーカMKとともに撮影するカメラ20と、カメラ20で撮影中の映像を表示するディスプレイ30と、ディスプレイ30上に表示されるカメラ20が撮影中の映像に、腫瘍Fについての3次元的位置情報を、撮影中のAR認識用マーカMKの位置及び姿勢に基づいて重畳して表示するAR画像処理装置40とを備える。
【選択図】図1
【解決手段】外科処置対象部位としての腫瘍Fを含む患者の術野に設けられたAR認識用マーカMKと、術野をAR認識用マーカMKとともに撮影するカメラ20と、カメラ20で撮影中の映像を表示するディスプレイ30と、ディスプレイ30上に表示されるカメラ20が撮影中の映像に、腫瘍Fについての3次元的位置情報を、撮影中のAR認識用マーカMKの位置及び姿勢に基づいて重畳して表示するAR画像処理装置40とを備える。
【選択図】図1
Description
本発明は、ディスプレイ上に表示されたカメラで撮影中の映像に、患者の腫瘍や膿胞等の外科処置対象部位の3次元的位置情報を重畳表示して医療行為を支援する医療支援装置に関する。
脳外科,整形外科,耳鼻科が、治療や手術の対象とする臓器や器官、及びこれらにできる腫瘍や膿胞等(外科処置対象部位)の位置や形状が比較的一定している。このため、治療や手術前に撮影した患者のCTスキャナ(コンピュータ断層撮影装置)の画像データ(DICOMデータ)を医療用画像処理ソフトウェアに読み込んで患者の立体的CT画像を作製し、この中から腫瘍や膿胞等を特定し、これをソフトウェアの画面上に表示して、この画像を参考にしながら治療や手術を行うことが可能となる。
しかし、腫瘍や膿胞等の治療や手術には、これらの3次元的位置を把握する必要があるため、術野とソフトウェアの画面とを見比べながら正確な手術を行うには、術者に充分な経験とスキルが要求される。このため、経験とスキルの不足を補うべく、さまざまな医療支援装置が開発されている。
この医療支援装置の1つに、モーションキャプチャを利用したものがある(例えば、特許文献1参照)。
モーションキャプチャを利用した代表的なものは、ドリル,メス,ピンセット等の医療器具を2台のカメラで捉え、これら医療器具の立体的なイメージ画像を、治療や手術の前にCTスキャナから取得した、腫瘍や膿胞等を含む患者の立体的CT画像にディスプレイ上で重畳表示するものである。
しかし、上述のモーションキャプチャを利用したものは、以下のような問題がある。
(1)原理的には、ディスプレイ上の映像で、医療器具のイメージ画像と、腫瘍や膿胞等を含む患者の立体的CT画像の双方が見られるため、治療や手術の際に、術野を見ることなく、ディスプレイ上の映像を見るだけで十分ではあるが、術野とディスプレイ上の映像とは、見た目では大きな差異があるため、実際の手術等の医療行為に際しては、術野とディスプレイ上の映像等の双方を見る必要が生じる。このため、術者が治療や手術に集中することができない。
(2)医療器具とカメラとの間に、術者の腕や体の一部が入り込むと、医療器具のイメージ画像が表示できなくなる。つまり、医療器具の位置によっては、そのイメージ画像を表示することができない場合がある。
(3)キャプチャした医療器具のイメージ画像を立体的CT画像に重畳表示する際にタイムラグが生じる。
本発明は、上述した事情に鑑みてなされたものであり、カメラが撮影中のディスプレイ上の映像に、AR画像処理装置で作製した腫瘍や膿胞等の外科処置対象部位を重畳表示させることができる医療支援装置であって、術者が治療や手術に集中でき、また、医療器具をその位置にかかわらず常に視認することができ、さらに、ディスプレイ上の映像に、ほとんどタイムラグが発生することなく医療器具を表示することが可能な医療支援装置を提供することにある。
請求項1に係る発明は、医療支援装置において、外科処置対象部位を含む患者の術野に設けられたAR認識用マーカと、前記術野を前記AR認識用マーカとともに撮影するカメラと、前記カメラで撮影中の映像を表示するディスプレイと、前記ディスプレイ上に表示される前記カメラが撮影中の映像に、前記外科処置対象部位についての3次元的位置情報を、撮影中の前記AR認識用マーカの位置及び姿勢に基づいて重畳して表示するAR画像処理装置と、を備える、ことを特徴とする。
請求項2に係る発明は、請求項1に係る医療支援装置において、前記3次元的位置情報は、前記AR認識用マーカとともに撮影された患者のCT画像データを医療用画像処理ソフトウェアに読み込んで得られた患者の立体的CT画像から特定されて着色された立体的イメージ画像である、ことを特徴とする。
請求項3に係る発明は、請求項2に係る医療支援装置において、前記AR画像処理装置は、コンピュータハードウェアにインストールされたARソフトウェアを有し、前記ARソフトウェアは、前記立体的イメージ画像を含む前記立体的CT画像を3Dオブジェクトとして取り込んで、前記AR認識用マーカの位置及び姿勢を基準として前記ディスプレイに表示する、ことを特徴とする。
請求項4に係る発明は、請求項2又は3に係る医療支援装置において、前記AR認識用マーカとして、予め登録した画像を使用する、ことを特徴とする。
請求項5に係る発明は、請求項4に係る医療支援装置において、前記予め登録した画像が、患者の前記立体的CT画像の一部分である、ことを特徴とする。
請求項6に係る発明は、請求項2又は3に係る医療支援装置において、前記AR認識用マーカとして、患者に取り付けられた造影剤入りの専用のマーカを使用する、ことを特徴とする。
請求項7に係る発明は、請求項6に係る医療支援装置において、前記造影剤入りの専用のマーカが患者に対して着脱自在であり、前記立体的CT画像の前記造影剤入りマーカと、前記カメラが撮影中の前記造影剤入りマーカとの位置を合わせるための造影剤入りの校正用マーカを、患者の少なくとも3箇所に設けた、ことを特徴とする。
請求項8に係る発明は、請求項3ないし7のいずれか1項に係る医療支援装置において、前記ARソフトウェアとして、前記カメラが撮影中の映像から3次元の空間構造を認識して記憶することが可能なものを使用する、ことを特徴とする。
請求項9に係る発明は、請求項1ないし8のいずれか1項に係る医療支援装置において、前記ディスプレイが、前記カメラと一体のヘッドマウント型のディスプレイである、ことを特徴とする。
請求項10に係る発明は、請求項9に係る医療支援装置において、前記ヘッドマウント型のディスプレイに光学透過型のディスプレイを使用し、患者の術野の透過像に患者の前記3次元的位置情報を重畳表示する、ことを特徴とする。
請求項1の発明によれば、外科処置対象部位についての3次元的位置情報を、カメラが撮影中の映像に、ディスプレイ上で重畳表示することができるので、術者は、外科処置対象部位の治療や手術を、ディスプレイ上の映像に集中した状態で行うことができる。また、モーションキャプチャとは異なり、手術等に使用するメス、ピンセット等の医療器具を、その位置にかかわらず常にディスプレイ上の映像で視認することができる。さらに、モーションキャプチャとは異なり、実際の医療器具の動きとディスプレイ上の映像に表示される医療器具の動きとの間にタイムラグが発生することがほとんどない。
請求項2の発明によれば、患者の腫瘍や膿胞等の外科処置対象部位の位置や形を示す3次元的位置情報が、着色された立体的イメージ画像で表示されるので、術者は外科処置対象部位を他の部位と容易に判別することができる。
請求項3の発明によれば、ARソフトウェアという既存のソフトウェアを利用し、AR認識用マーカ及び立体的イメージ画像を含む立体的CT画像全体を3Dオブジェクトとして取り込んで使用するため、これらの間の3次元的位置関係が保たれる。
請求項4の発明によれば、AR認識用の専用のマーカを設ける必要がないので、専用のマーカを患者に取り付けることが不可能であったり、取り付けが可能であっても位置精度を確保することができなかったりする場合に有効である。
請求項5の発明によれば、予め登録した画像が患者の前記立体的CT画像の一部分であるので、外科処置対象部位を高い位置精度で表示することができる。
請求項6の発明によれば、AR認識用マーカとして、造影剤入りの専用のマーカを使用するので、マーカレス型のものと比較してAR認識用マーカとしての被認識性が向上する。
請求項7の発明によれば、造影剤入りの専用のマーカを、CT画像の撮影後に取り外して、治療や手術の際に再び取り付けた場合でも、校正用マーカを使用して、専用のマーカの位置合わせをすることができる。
請求項8の発明によれば、AR認識用マーカがカメラの撮影画像フレームから外れても、患者の腫瘍や膿胞等の外科処置対象部位の位置や形を示す3次元的位置情報を表示し続けることができる。
請求項9の発明によれば、ディスプレイが、カメラと一体に構成されたヘッドマウント型であるので、術者は視点を不要に移動させることなく治療や手術に専念することが可能となる。
請求項10の発明によれば、術者はカメラを通した映像ではなく、直接透過像で術野を見ることができるので、自然で奥行き感のある違和感のない術野を見ながら治療や手術に専念することが可能となる。
本発明に係る医療支援装置は、脳外科,整形外科,耳鼻科等に好適に用いられる。これら脳外科,整形外科,耳鼻科等は、その治療や手術の対象となる腫瘍や膿胞等ができる臓器や器官の位置や形状が比較的一定していて、位置ずれや変形が発生しにくいからである。臓器や器官の位置ずれや変形が発生すると、後述する、治療や手術等において、カメラが撮影中の映像内の外科処置対象部位に、AR画像処理装置による外科処置対象部位の立体的イメージ画像をディスプレイ上で重畳表示した際に、両者が一致しないで、ずれてしまうからである。
以下、本発明を適用した実施形態を、図面に基づいて詳述する。なお、各図面において、同じ符号を付した部材等は、同一又は類似の構成のものであり、これらについての重複説明は適宜省略するものとする。また、各図面においては、説明に不要な部材等は適宜、図示を省略している。
<実施形態1>
<実施形態1>
図1〜図4を参照して本発明を適用した実施形態1に係る医療支援装置1について説明する。
図1は、医療支援装置1の概略構成を説明する図である。
なお、以下では、医療支援装置1を、患者の頭部Aの脳B(図4(A)参照)にできた外科処置対象部位としての腫瘍Fを切除するための手術に使用する場合を例に説明する。
図1に示すように、医療支援装置1は、AR認識用マーカMKと、カメラ20と、ディスプレイ30と、AR画像処理装置40とを備えて構成されている。
ここで、本実施形態の医療支援装置1は、AR認識用マーカMKとして患者の耳Eを使用している。後述する立体的CT画像C1中の一部分である耳Eを登録してAR認識用マーカMKとして使用している。すなわち、本実施形態のAR画像処理装置40は、AR認識用マーカMKとして、専用のマーカを使用しないで、患者の耳Eを使用する、いわゆるマーカレス型と呼ばれるものである。なお、AR認識用マーカMKとして、認識精度を確保できるのであれば、上述の耳Eに代えて、患者の他の部位を使用することも可能である。
なお、図1中に二点鎖線で示す切断線Sは、手術に際して、頭部Aの頭皮Cや頭蓋骨Dを切断する際のガイドとなる線であり、頭蓋骨Dのうち、この切断線Sによって切りとられる部分を一部Daとし、残りの部分を残余部Dbとする。
医療支援装置1は、CTスキャナで、患者の頭部Aを断層撮影して取得したデータを使用する。
CTスキャナは、X線等の放射線を利用して患者の頭部Aを走査し、コンピュータを用いて処理することにより、頭部AのCT画像データ(DICOMデータ)を取得し、出力する。さらに、出力されたCT画像データを、別のコンピュータ(コンピュータハードウェア)10にインストールされた医療用画像処理ソフトウェア11に読み込んで、ボリュームレンダリングを行って、図2に示す患者の頭部Aの立体的CT画像G1を作製する。
なお、図1中の実物の頭部A、脳B、腫瘍F、AR認識用マーカMKは、図2中では、立体的CT画像G1の一部として表示された頭部A1、脳B1、腫瘍F1、AR認識用マーカMK1に対応する。また、図3中では、立体的CT画像G2の一部として表示された頭部A2、脳B2、腫瘍F2、AR認識用マーカMK2に対応する。さらに、図4(B)中では、ディスプレイ30上の映像G3の一部として表示された頭部A3、脳B3、腫瘍F3、AR認識用マーカMK3に対応する。
カメラ20は、患者の術野近傍を撮影するものである。すなわち、頭部A、AR認識用マーカMK等を撮影し、そのデータをAR画像処理装置40に転送するものである。
ディスプレイ30は、カメラ20で撮影された映像G3(図4(B)参照)を表示するとともに、この映像にAR画像処理装置40で処理した腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示するものである。
AR画像処理装置40には、ARソフトウェア41がインストールされている。AR画像処理装置40は、このARソフトウェアにより、上述の医療用画像処理ソフトウェア11で作製された立体的CT画像G1内の腫瘍F1の位置や形を特定し、着色して他の臓器等との差別化を図り、さらに、着色された腫瘍Fの3次元的位置情報としての立体的イメージ画像である腫瘍F2を含む立体的CT画像G2を、3Dオブジェクトとして取り込む。
AR画像処理装置40は、さらに、取り込んだ腫瘍Fの立体的イメージ画像である腫瘍F2を、カメラ20が撮影中の映像G3内のAR認識用マーカMK3の位置及び姿勢に基づいて座標変換し、このAR認識用マーカMK3との3次元的位置関係を保ちながら、カメラ20が撮影中のディスプレイ30上の映像G3にリアルタイムで重畳表示する。
次に、上述の構成の医療支援装置1の操作手順(使用方法)について説明する。
(1)CTスキャナによって、頭部AのCT撮影を行う。
(2)取得したCT画像データ(DICOMデータ)を出力する。さらに、出力されたCT画像データを別のコンピュータ10にインストールされた医療用画像処理ソフトウェア11に読み込んで、このソフトウェアでボリュームレンダリングされた患者の立体的CT画像G1(図2参照)を作製する。
(3)立体的CT画像G1内の腫瘍F1の位置や形を特定し、医療用画像処理ソフトウェア11により着色する。着色された腫瘍Fの3次元的位置情報としての立体的イメージ画像である腫瘍F2を含む立体的CT画像G2を得る。
このときの着色は、図3に示すように、腫瘍F1の全体に着色するのではなく、手術時に実際に術野に見える部分に対して着色し、例えば、脳B2の一部によって隠される部分については着色しないようにする。これにより、実際の手術中に、腫瘍Fの視認が容易となる。なお、腫瘍F1の全体を着色するようにしてもよい。
また、着色時に、立体的CT画像G2から、腫瘍F2、AR認識用マーカMK2以外の臓器等(例えば、脳B2、頭部A2等)は、透明化する。これにより、図4(B)に示す、ディスプレイ30上の映像G3に、脳B2等の不要な部分が重畳されて映像G3が見にくくなることを防止することができる。なお、脳B2等の透明化に際し、透明化せずに残しておいた方が好都合な部位は、その部分を例えば、半透明にして映像G3中に表示するようにしてもよい。
(4)立体的CT画像G2を3Dオブジェクトとして、AR画像処理装置40にインストールされているARソフトウェア41に取り込む(立体的CT画像G2をAR認識用マーカMK1の座標系に取り込む。)。
以上により、手術の前準備が完了する。
つづいて、実際に頭部Aの腫瘍Fを切除する際の手順を示す。
(5)図4(A)に示すように、メス等の医療器具を使用して、頭皮Cを切断線Sに沿って馬蹄形に切断してめくり、さらに、頭蓋骨Dの一部D1を切断線Sに沿って切断して取り外し、脳B及び腫瘍Fを露出させる。
(6)カメラ20で、AR認識用マーカMKを含む術野を撮影し、ARソフトウェア11により、図4(B)に示すように、カメラ20が撮影中のディスプレイ30上の映像G3に、映像G3中のAR認識用マーカMK3を基準として、立体的CT画像G2中の腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示する。
(7)術者は、ディスプレイ30上の術野の映像G3に重畳表示された腫瘍Fの立体的イメージ画像である腫瘍F2をガイドとして手術を行う。術者は、映像G3に集中し、メス,ピンセット等の医療器具を使用して、腫瘍Fを切除する。その後、切除部の縫合等の後処理を経て、手術を終了する。
以上説明した、医療支援装置1によると、以下のような作用・効果を奏する。
(I)ディスプレイ30に、カメラ20が撮影中の映像G3と、立体的CT画像G2中の腫瘍Fの立体的イメージ画像である腫瘍F2とを重畳して表示することができるので、術者は、ディスプレイ30に集中して手術を行うことができる。
(II)手術時に術者が手に持つメス,ピンセット等の医療器具は、モーションキャプチャとは異なり、撮影中の映像G3に実際のものとほぼ同じように表示され、術者の意に反して突然、映像G3中から消えたりするおそれがない。
(III) 術野の映像G3に重畳表示される腫瘍Fの立体的イメージ画像である腫瘍F2は、カメラ20によってライブ撮影中の映像G3に対して、ほとんどタイムラグが発生することなく重畳表示されるので、術者は違和感なくディスプレイ30の映像G3に集中して手術を行うことができる。
(IV)患者の腫瘍Fの位置や形を示す3次元的位置情報が、着色された立体的イメージ画像(腫瘍F2)で表示されるので、術者は外科処置対象部位の腫瘍Fを他の部位と容易に判別することができる。
(V)ARソフトウェアという既存のソフトウェアを利用し、AR認識用マーカMK2及び立体的イメージ画像である腫瘍F2を含む立体的CT画像G2全体を3Dオブジェクトとして取り込んで使用するため、これらの間の3次元的位置関係が保たれる。
(VI)AR認識用マーカMKとして、患者の耳Eを使用していて、専用のマーカを設ける必要がないので、専用のマーカを患者に取り付けることが不可能であったり、取り付けが可能であっても位置精度を確保することができなかったりする場合に有効である。
上述の本実施形態において、ARソフトウェア41として、カメラ20が撮影中の映像から3次元の空間構造を認識して記憶することが可能なものを使用するとよい。
この場合には、AR認識用マーカMKがカメラ20の撮影画像フレームから外れても、患者の腫瘍Fの位置や形を示す3次元的位置情報を表示し続けることが可能となる。
上述の本実施形態では、カメラ20とディスプレイ30とが別体に構成されている場合について説明したが、これに代えて、ディスプレイ30として、カメラ20と一体のヘッドマウント型のディスプレイ(不図示)を使用するようにしてもよい。
この場合には、術者は視点を不要に移動させることなく治療や手術に専念することが可能となる。
さらに、上述のヘッドマウント型のディスプレイにおいて、光学透過型のディスプレイを使用し、患者の術野の透過像に患者の前記3次元的位置情報を重畳表示するようにしてもよい。
この場合には、術者はカメラを通した映像ではなく、直接透過像で術野を見ることができるので、自然で奥行き感のある違和感のない術野を見ながら治療や手術に専念することが可能となる。
ただし、この場合には、カメラ20が撮影している術野の映像G3と術者が見ている透過像とを完全に一致させるキャリブレーション機構が必要となる。
上述の本実施形態において、立体的CT画像G2に、CT画像データを基に作製した、血管や神経の走行状態を表示するようにしてもよい。
この場合には、例えば、メス等の医療器具によって腫瘍Fを切除する際に、血管や神経の位置を的確に把握することができるので、これら血管や神経を不用意に傷つけてしまうことを確実に防止することができる。
上述の本実施形態では、ディスプレイ30上に表示されるカメラ20で撮影中の映像に重畳する画像として、ARソフトウェアで処理した着色された腫瘍F(外科処置対象部位)を説明した。さらに、これに加え、外科処置対象部位として、例えば、他の色に着色された切断線Sを重畳するようにしてもよい。
この場合には、場合には、従来とは異なり、頭皮Cや頭蓋骨Dに直接、切断線Sを描く必要がなくなる。
<実施形態2>
<実施形態2>
図5〜図8を参照して本発明を適用した実施形態1に係る医療支援装置2について説明する。
図5は、医療支援装置2の概略構成を説明する図である。
なお、以下では、医療支援装置2を、患者の頭部Aの脳B(図8(A)参照)にできた外科処置対象部位としての腫瘍Fを切除するための手術に使用する場合を例に説明する。
図5に示すように、医療支援装置2は、AR認識用マーカMKと、カメラ20と、ディスプレイ30と、AR画像処理装置40とを備えて構成されている。
なお、図5中に二点鎖線で示す切断線Sは、手術に際して、頭部Aの頭皮Cや頭蓋骨Dを切断する際のガイドとなる線であり、頭蓋骨Dのうち、この切断線Sによって切りとられる部分を一部Daとし、残りの部分を残余部Dbとする。
AR認識用マーカMKは、専用のマーカであり、例えば、2cm×2cm×0.5cm程度の正方形の、造影剤入りの板状に形成されている。AR認識用マーカMKの表面には、カメラ20による認識の対象となるための特定のパターンを持った図形、すなわち、正方形の4辺を縁取る額縁状の図形が形成されている。このように、AR認識用マーカMKは、造影剤がCTスキャナによって認識され、また、額縁状の特定のパターンがカメラ20によって認識されるようになっている。AR認識用マーカMKは、本実施形態では、患者の頭部Aの後側における切断線Sの外側近傍に取り付けられている。
医療支援装置2は、CTスキャナで、AR認識用マーカMKを含む患者の頭部Aを断層撮影して取得したデータを使用する。
CTスキャナは、X線等の放射線を利用して患者の頭部Aを走査し、コンピュータを用いて処理することにより、頭部AのCT画像データ(DICOMデータ)を取得し、出力する。さらに、出力されたCT画像データを、別のコンピュータにインストール10された医療用画像処理ソフトウェア11に読み込んで、ボリュームレンダリングを行って、図6に示す患者の頭部Aの立体的CT画像G1を作製する。
なお、図5中の実物の頭部A、脳B、腫瘍F、AR認識用マーカMKは、図6中では、立体的CT画像G1の一部として表示された頭部A1、脳B1、腫瘍F1、AR認識用マーカMK1に対応する。また、図7中では、立体的CT画像G2の一部として表示された頭部A2、脳B2、腫瘍F2、AR認識用マーカMK2に対応する。さらに、図8(B)中では、ディスプレイ30上の映像G3の一部として表示された頭部A3、脳B3、腫瘍F3、AR認識用マーカMK3に対応する。
カメラ20は、患者の術野近傍を撮影するものである。すなわち、頭部A、AR認識用マーカMK等を撮影し、そのデータをAR画像処理装置40に転送するものである。
ディスプレイ30は、カメラ20で撮影された映像G3(図8(B)参照)を表示するとともに、この映像にAR画像処理装置40で処理した腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示するものである。
AR画像処理装置40には、ARソフトウェア41がインストールされている。AR画像処理装置40は、このARソフトウェアにより、上述の医療用画像処理ソフトウェア11で作製された立体的CT画像G1内の腫瘍F1の位置や形を特定し、着色して他の臓器等との差別化を図り、さらに、着色された腫瘍Fの3次元的位置情報としての立体的イメージ画像である腫瘍F2を含む立体的CT画像G2を、3Dオブジェクトとして取り込む。
AR画像処理装置40は、さらに、取り込んだ腫瘍Fの立体的イメージ画像である腫瘍F2を、カメラ20が撮影中の映像G3内のAR認識用マーカMK3の位置及び姿勢に基づいて座標変換し、このAR認識用マーカMK3との3次元的位置関係を保ちながら、カメラ20が撮影中のディスプレイ30上の映像G3にリアルタイムで重畳表示する。
次に、上述の構成の医療支援装置2の操作手順(使用方法)について説明する。
(1)CTスキャナによって、頭部AのCT撮影を行う。
(2)取得したCT画像データ(DICOMデータ)を出力する。さらに、出力されたCT画像データを別のコンピュータ10にインストールされた医療用画像処理ソフトウェア11に読み込んで、このソフトウェアでボリュームレンダリングされた患者の立体的CT画像G1(図6参照)を作製する。
(3)立体的CT画像G1内の腫瘍F1の位置や形を特定し、医療用画像処理ソフトウェア11により着色する。着色された腫瘍Fの3次元的位置情報としての立体的イメージ画像である腫瘍F2を含む立体的CT画像G2を得る。
このときの着色は、図7に示すように、腫瘍F1の全体に着色するのではなく、手術時に実際に術野に見える部分に対して着色し、例えば、脳B2の一部によって隠される部分については着色しないようにする。これにより、実際の手術中に、腫瘍Fの視認が容易となる。なお、腫瘍F1の全体を着色するようにしてもよい。
また、着色時に、立体的CT画像G2から、腫瘍F2、AR認識用マーカMK2以外の臓器等(例えば、脳B2、頭部A2等)は、透明化する。これにより、図8(B)に示す、ディスプレイ30上の映像G3に、脳B2等の不要な部分が重畳されて映像G3が見にくくなることを防止することができる。なお、脳B2等の透明化に際し、透明化せずに残しておいた方が好都合な部位は、その部分を例えば、半透明にして映像G3中に表示するようにしてもよい。
(4)立体的CT画像G2を3Dオブジェクトとして、AR画像処理装置40にインストールされているARソフトウェア41に取り込む(立体的CT画像G2をAR認識用マーカMK1の座標系に取り込む。)。
以上により、手術の前準備が完了する。
つづいて、実際に頭部Aの腫瘍Fを切除する際の手順を示す。
(5)図8(A)に示すように、メス等の医療器具を使用して、頭皮Cを切断線Sに沿って馬蹄形に切断してめくり、さらに、頭蓋骨Dの一部D1を切断線Sに沿って切断して取り外し、脳B及び腫瘍Fを露出させる。
(6)カメラ20で、AR認識用マーカMKを含む術野を撮影し、ARソフトウェア11により、図8(B)に示すように、カメラ20が撮影中のディスプレイ30上の映像G3に、映像G3中のAR認識用マーカMK3を基準として、立体的CT画像G2中の腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示する。
(7)術者は、ディスプレイ30上の術野の映像G3に重畳表示された腫瘍Fの立体的イメージ画像である腫瘍F2をガイドとして手術を行う。術者は、映像G3に集中し、メス,ピンセット等の医療器具を使用して、腫瘍Fを切除する。その後、切除部の縫合等の後処理を経て、手術を終了する。
以上説明した、医療支援装置によると、以下のような作用・効果を奏する。
(I)ディスプレイ30に、カメラ20が撮影中の映像G3と、立体的CT画像G2中の腫瘍Fの立体的イメージ画像である腫瘍F2とを重畳して表示することができるので、術者は、ディスプレイ30に集中して手術を行うことができる。
(II)手術時に術者が手に持つメス,ピンセット等の医療器具は、モーションキャプチャとは異なり、撮影中の映像G3に実際のものとほぼ同じように表示され、術者の意に反して突然、映像G3中から消えたりするおそれがない。
(III) 術野の映像G3に重畳表示される腫瘍Fの立体的イメージ画像である腫瘍F2は、カメラ20によってライブ撮影中の映像G3に対して、ほとんどタイムラグが発生することなく重畳表示されるので、術者は違和感なくディスプレイ30の映像G3に集中して手術を行うことができる。
(IV)患者の腫瘍Fの位置や形を示す3次元的位置情報が、着色された立体的イメージ画像(腫瘍F2)で表示されるので、術者は外科処置対象部位としての腫瘍Fを他の部位と容易に判別することができる。
(V)ARソフトウェアという既存のソフトウェアを利用し、AR認識用マーカMK2及び立体的イメージ画像である腫瘍F2を含む立体的CT画像G2全体を3Dオブジェクトとして取り込んで使用するため、これらの間の3次元的位置関係が保たれる。
(VI)AR認識用マーカMKとして、造影剤入りの専用のマーカを使用するので、マーカレス型のものと比較してAR認識用マーカとしての被認識性が向上する。
(VII) AR認識用マーカMKとして、造影剤入りの専用のマーカを使用するので、マーカレス型のものと比較して、計算量が少なくて済むため、AR画像処理装置40の構成をハード的にもまたソフト的にも簡略化することができる。
上述の本実施形態において、ARソフトウェア41として、カメラ20が撮影中の映像から3次元の空間構造を認識して記憶することが可能なものを使用するとよい。
この場合には、AR認識用マーカMKがカメラ20の撮影画像フレームから外れても、患者の腫瘍Fの位置や形を示す3次元的位置情報を表示し続けることが可能となる。
上述の本実施形態では、カメラ20とディスプレイ30とが別体に構成されている場合について説明したが、これに代えて、ディスプレイ30として、カメラ20と一体のヘッドマウント型のディスプレイ(不図示)を使用するようにしてもよい。
この場合には、術者は視点を不要に移動させることなく治療や手術に専念することが可能となる。
さらに、上述のヘッドマウント型のディスプレイにおいて、光学透過型のディスプレイを使用し、患者の術野の透過像に患者の前記3次元的位置情報を重畳表示するようにしてもよい。
この場合には、術者はカメラを通した映像ではなく、直接透過像で術野を見ることができるので、自然で奥行き感のある違和感のない術野を見ながら治療や手術に専念することが可能となる。
ただし、この場合には、カメラ20が撮影している術野の映像G3と術者が見ている透過像とを完全に一致させるキャリブレーション機構が必要となる。
上述の本実施形態において、立体的CT画像G2に、CT画像データを基に作製した、血管や神経の走行状態を表示するようにしてもよい。
この場合には、例えば、メス等の医療器具によって腫瘍Fを切除する際に、血管や神経の位置を的確に把握することができるので、これら血管や神経を不用意に傷つけてしまうことを確実に防止することができる。
上述の本実施形態では、ディスプレイ30上に表示されるカメラ20で撮影中の映像に重畳する画像として、ARソフトウェアで処理した着色された腫瘍F(外科処置対象部位)を説明した。さらに、これに加え、外科処置対象部位として、例えば、他の色に着色された切断線Sを重畳するようにしてもよい。
この場合には、場合には、従来とは異なり、頭皮Cや頭蓋骨Dに直接、切断線Sを描く必要がなくなる。
<実施形態3>
<実施形態3>
図9〜図12を参照して本発明を適用した実施形態1に係る医療支援装置3について説明する。
図9は、医療支援装置3の概略構成を説明する図である。
なお、以下では、医療支援装置3を、患者の頭部Aの脳B(図12(A)参照)にできた外科処置対象部位としての腫瘍Fを切除するための手術に使用する場合を例に説明する。
図9に示すように、医療支援装置3は、AR認識用マーカMKと、カメラ20と、ディスプレイ30と、AR画像処理装置40とを備えて構成されている。
なお、図9中に二点鎖線で示す切断線Sは、手術に際して、頭部Aの頭皮Cや頭蓋骨Dを切断する際のガイドとなる線であり、頭蓋骨Dのうち、この切断線Sによって切りとられる部分を一部Daとし、残りの部分を残余部Dbとする。
AR認識用マーカMKは、専用のマーカであり、例えば、2cm×2cm×0.5cm程度の正方形の、造影剤入りの板状に形成されている。AR認識用マーカMKの表面には、カメラ20による認識の対象となるための特定のパターンを持った図形、すなわち、正方形の4辺を縁取る額縁状の図形が形成されている。このように、AR認識用マーカMKは、造影剤がCTスキャナによって認識され、また、額縁状の特定のパターンがカメラ20によって認識されるようになっている。AR認識用マーカMKは、本実施形態では、患者の頭部Aの後側における切断線Sの外側でかつ切断線Sの近傍、つまり残余部D2の周縁部に着脱可能に取り付けられている。この取り付け部分は、予め頭髪を剃り落としておく。AR認識用マーカMKは、例えば、CTスキャナによる撮影の前に、両面テープ(不図示)によって頭皮Cに直接貼着する。
なお、後述するように、AR認識用マーカMKは、CTスキャナによる頭部Aの撮影に先だって頭部Aに取り付けられ、撮影後は一旦取り外され、手術時に、再度、同じ位置に位置合わせして取り付けられる。
次に説明する複数の校正用マーカKは、AR認識用マーカMKを上述の位置合わせする際に使用されるものである。
校正用マーカKは、CTスキャナによる読み取りが可能な、例えば、点状(スポット状)のX線造影剤によって構成されていて、図示例では、頭皮Cの表面の、切断線Sよりも外側で、かつ切断線Sに近接する位置に、5箇所(少なくとも3箇所)設けられている。
5つの校正用マーカKは、これらをほぼ切断線Sに沿うように、次々と直線で結んだ領域(5角形の領域〉Rを仮定すると、術野におけるこの領域R内に、腫瘍Fが位置するように配置されている。
なお、上述では、校正用マーカKが5つある場合を例示したが、校正用マーカKは、少なくとも3つあれば足る。ただし、この場合は、3つの校正用マーカKは、これらを結んでできる3角形の領域内に腫瘍Fが位置するように配置されているものとする。
医療支援装置3は、CTスキャナで、AR認識用マーカMKを含む患者の頭部Aを断層撮影して取得したデータを使用する。
CTスキャナは、X線等の放射線を利用して患者の頭部Aを走査し、コンピュータを用いて処理することにより、頭部AのCT画像データ(DICOMデータ)を取得し、出力する。さらに、出力されたCT画像データを、別のコンピュータ10にインストールされた医療用画像処理ソフトウェア11に読み込んで、ボリュームレンダリングを行って、図6に示す患者の頭部Aの立体的CT画像G1を作製する。
なお、図9中の実物の頭部A、脳B、腫瘍F、AR認識用マーカMK、校正用マーカKは、図10中では、立体的CT画像G1の一部として表示された頭部A1、脳B1、腫瘍F1、AR認識用マーカMK1、校正用マーカK1に対応する。また、図11中では、立体的CT画像G2の一部として表示された頭部A2、脳B2、腫瘍F2、AR認識用マーカMK2、校正用マーカK2に対応する。さらに、図12(B)中では、ディスプレイ30上の映像G3の一部として表示された頭部A3、脳B3、腫瘍F3、AR認識用マーカMK3、校正用マーカK3に対応する。
カメラ20は、患者の術野近傍を撮影するものである。すなわち、頭部A、AR認識用マーカMK、複数の校正用マーカK等を撮影し、そのデータをAR画像処理装置40に転送するものである。
ディスプレイ30は、カメラ20で撮影された映像G3(図12(B)参照)を表示するとともに、この映像にAR画像処理装置40で処理した腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示するものである。
AR画像処理装置40には、ARソフトウェア41がインストールされている。AR画像処理装置40は、このARソフトウェアにより、上述の医療用画像処理ソフトウェア11で作製された立体的CT画像G1内の腫瘍F1の位置や形を特定し、着色して他の臓器等との差別化を図り、さらに、着色された腫瘍Fの3次元的位置情報としての立体的イメージ画像である腫瘍F2を含む立体的CT画像G2を、3Dオブジェクトとして取り込む。
AR画像処理装置40は、さらに、取り込んだ腫瘍Fの立体的イメージ画像である腫瘍F2を、カメラ20が撮影中の映像G3内のAR認識用マーカMK3の位置及び姿勢に基づいて座標変換し、このAR認識用マーカMK3との3次元的位置関係を保ちながら、カメラ20が撮影中のディスプレイ30上の映像G3にリアルタイムで重畳表示する。
次に、上述の構成の医療支援装置3の操作手順(使用方法)について説明する。
なお、以下では、CTスキャナによる撮影と、手術とが異なる日に行われる場合を例に説明する。これに伴い、CTスキャナによる撮影時に頭部Aに取り付けたAR認識用マーカMKを、撮影後に一旦取り外し、手術時に再度取り付けることになる。このため、手術時には、AR認識用マーカMKの位置合わせが必要となり、上述の複数の校正用マーカKはこのために使用されることになる。
(1)図9に示すように、患者の頭部Aの頭皮Cに複数の校正用マーカKを設ける。
校正用マーカKは、切断線Sの近傍でかつ切断線Sの外側に、ほぼ切断線Sに沿って5箇所に設ける。このとき、5つの校正用マーカKは、術野においてこれらを順次に結んで形成される領域R内に、腫瘍Fが位置するように配置する。
校正用マーカKは、切断線Sの近傍でかつ切断線Sの外側に、ほぼ切断線Sに沿って5箇所に設ける。このとき、5つの校正用マーカKは、術野においてこれらを順次に結んで形成される領域R内に、腫瘍Fが位置するように配置する。
(2)頭皮CにAR認識用マーカMKを切断線Sの外側でかつ切断線Sの近傍に両面テープで貼着する。
(3)CTスキャナによって、頭部AのCT撮影を行う。撮影後、AR認識用マーカMKを取り外す。
(4)取得したCT画像データ(DICOMデータ)を出力する。さらに、出力されたCT画像データを別のコンピュータ10にインストールされた医療用画像処理ソフトウェア11に読み込んで、このソフトウェアでボリュームレンダリングされた患者の立体的CT画像G1(図10参照)を作製する。
(5)立体的CT画像G1内の腫瘍F1の位置や形を特定し、医療用画像処理ソフトウェア11により着色する。着色された腫瘍Fの3次元的位置情報としての立体的イメージ画像である腫瘍F2を含む立体的CT画像G2を得る。
なお、このときの着色は、図11に示すように、腫瘍F1の全体に着色するのではなく、手術時に実際に術野に見える部分に対して着色し、例えば、脳B2の一部によって隠される部分については着色しないようにする。これにより、実際の手術中に、腫瘍Fの視認が容易となる。なお、腫瘍F1の全体を着色するようにしてもよい。
また、着色時に、立体的CT画像G2から、腫瘍F2、AR認識用マーカMK2、校正用マーカK2以外の臓器等(例えば、脳B2、頭部A2等は、透明化する。これにより、図12(B)に示す、後のディスプレイ30上の映像G3に、脳B2等の不要な部分が重畳されて映像G3が見にくくなることを防止することができる。なお、脳B2等の透明化に際し、透明化せずに残しておいた方が好都合な部位は、その部分を半透明にして映像G3中に表示するようにしてもよい。
(6)立体的CT画像G2を3Dオブジェクトとして、AR画像処理装置40にインストールされているARソフトウェア41に取り込む(立体的CT画像G2をAR認識用マーカMK1の座標系に取り込む。)。
以上は、手術日以前に行われる。手術日の当日は、以下のような手順となる。
(7)患者の頭部AにAR認識用マーカMKを再び取り付けて、カメラ12で術野付近を撮影する。ARソフトウェアにより、カメラ20が撮影中の術野付近の映像G3に患者の立体的CT画像G2を、ディスプレイ30上の映像G3中に重畳表示する。
(8)AR認識用マーカMKの位置合わせを行う。
カメラ20が撮影中の術野付近の映像G3の校正用マーカK3と、立体的CT画像G2内の校正用マーカK2が3次元的に完全に一致するように、カメラ20の位置や角度を調整する。この状態でカメラ20を固定し、頭部Aに取り付けられたAR認識用マーカMKの位置や姿勢を微調整して、立体的CT画像G2内のAR認識用マーカMK2に映像G3中のAR認識用マーカMK3を完全に一致させてその位置に固定する。
以上により、手術の前準備が完了する。
つづいて、実際に頭部Aの腫瘍Fを切除する際の手順を示す。
(9)図12(A)に示すように、メス等の医療器具を使用して、頭皮Cを切断線Sに沿って馬蹄形に切断してめくり、さらに、頭蓋骨Dの一部D1を切断線Sに沿って切断して取り外し、脳B及び腫瘍Fを露出させる。
(10)カメラ20で、AR認識用マーカMKを含む術野を撮影し、ARソフトウェア
11により、図12(B)に示すように、カメラ20が撮影中のディスプレイ30上の映像G3に、映像G3中のAR認識用マーカMK3を基準として、立体的CT画像G2中の腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示する。
(11)術者は、ディスプレイ30上の術野の映像G3に重畳表示された腫瘍Fの立体的イメージ画像である腫瘍F2をガイドとして手術を行う。術者は、映像G3に集中し、メス,ピンセット等の医療器具を使用して、腫瘍Fを切除する。その後、切除部の縫合等の後処理を経て、手術を終了する。
以上説明した、医療支援装置によると、以下のような作用・効果を奏する。
(I)ディスプレイ30に、カメラ20が撮影中の映像G3と、立体的CT画像G2中の腫瘍Fの立体的イメージ画像である腫瘍F2とを重畳して表示することができるので、術者は、ディスプレイ30に集中して手術を行うことができる。
(II)手術時に術者が手に持つメス,ピンセット等の医療器具は、モーションキャプチャとは異なり、撮影中の映像G3に実際のものとほぼ同じように表示され、術者の意に反して突然、映像G3中から消えたりするおそれがない。
(III) 術野の映像G3に重畳表示される腫瘍Fの立体的イメージ画像である腫瘍F2は、カメラ20によってライブ撮影中の映像G3に対して、ほとんどタイムラグが発生することなく重畳表示されるので、術者は違和感なくディスプレイ30の映像G3に集中して手術を行うことができる。
(IV)患者の腫瘍Fの位置や形を示す3次元的位置情報が、着色された立体的イメージ画像(腫瘍F2)で表示されるので、術者は外科処置対象部位としての腫瘍Fを他の部位と容易に判別することができる。
(V)ARソフトウェアという既存のソフトウェアを利用しAR認識用マーカMK2及び立体的イメージ画像である腫瘍F2を含む立体的CT画像G2全体を3Dオブジェクトとして取り込んで使用するため、これらの間の3次元的位置関係が保たれる。
(VI)AR認識用マーカMKとして、造影剤入りの専用のマーカを使用するので、マーカレス型のものと比較してAR認識用マーカとしての被認識性が向上する。
(VII) AR認識用マーカMKとして、造影剤入りの専用のマーカを使用するので、マーカレス型のものと比較して、計算量が少なくて済むため、AR画像処理装置40の構成をハード的にもまたソフト的にも簡略化することができる。
(VIII)AR認識用マーカMKが着脱自在であるので、患者の好適な部位(例えば、位置変化や変形が発生しにくい部位)への着脱、及び位置決めが容易である。
(IX)AR認識用マーカMKが着脱自在であるので、CT画像データを取得するためのCTスキャナによる撮影から、実際の手術までに時間間隔が開くような場合に、AR認識用マーカMKを一旦取り外して再度取り付けることが容易であるので、取り付けたままの場合と比較して、患者の負担を低威することができる。
(X)立体的CT画像G2中の校正用マーカK2と、カメラ20が撮影中のディスプレイ30上の校正用マーカK2とを位置合わせすることにより、立体的CT画像G2全体と、ディスプレイ30上の映像G3全体との位置合わせすることができ、この状態で、立体的CT画像G2中のAR認識用マーカMK2に対して、ディスプレイ30上のAR認識用マーカMK3を位置合わせすることで、ディスプレイ30上の映像G3中に、高い精度で、腫瘍Fの立体的イメージ画像である腫瘍F2を重畳表示することができる。
(XI)複数の校正用マーカKが、これらを直線で結んでできる領域R内に腫瘍Fが位置するように配置されているので、立体的CT画像G2中の校正用マーカK2と、カメラ20が撮影中の映像G3中の校正用マーカK3とを合わせることにより、例えば、腫瘍Fが領域Rの外部にある場合と比較して、立体的CT画像G2中の腫瘍F2と、カメラ20が撮影中の腫瘍F3とをより高い精度で位置合わせすることが可能となる。
上述の本実施形態において、ARソフトウェア41として、カメラ20が撮影中の映像から3次元の空間構造を認識して記憶することが可能なものを使用するとよい。
この場合には、AR認識用マーカMKがカメラ20の撮影画像フレームから外れても、患者の腫瘍Fの位置や形を示す3次元的位置情報を表示し続けることが可能となる。
上述の本実施形態では、カメラ20とディスプレイ30とが別体に構成されている場合について説明したが、これに代えて、ディスプレイ30として、カメラ20と一体のヘッドマウント型のディスプレイ(不図示)を使用するようにしてもよい。
この場合には、術者は視点を不要に移動させることなく治療や手術に専念することが可能となる。
さらに、上述のヘッドマウント型のディスプレイにおいて、光学透過型のディスプレイを使用し、患者の術野の透過像に患者の前記3次元的位置情報を重畳表示するようにしてもよい。
この場合には、術者はカメラを通した映像ではなく、直接透過像で術野を見ることができるので、自然で奥行き感のある違和感のない術野を見ながら治療や手術に専念することが可能となる。
ただし、この場合には、カメラ20が撮影している術野の映像G3と術者が見ている透過像とを完全に一致させるキャリブレーション機構が必要となる。
上述の本実施形態において、立体的CT画像G2に、CT画像データを基に作製した、血管や神経の走行状態を表示するようにしてもよい。
この場合には、例えば、メス等の医療器具によって腫瘍Fを切除する際に、血管や神経の位置を的確に把握することができるので、これら血管や神経を不用意に傷つけてしまうことを確実に防止することができる。
上述の本実施形態では、ディスプレイ30上に表示されるカメラ20で撮影中の映像に重畳する画像として、ARソフトウェアで処理した着色された腫瘍F(外科処置対象部位)を説明した。さらに、これに加え、外科処置対象部位として、例えば、他の色に着色された切断線Sを重畳するようにしてもよい。
この場合には、場合には、従来とは異なり、頭皮Cや頭蓋骨Dに直接、切断線Sを描く必要がなくなる。
上述の本実施形態において、図9に示す造影剤からなる5個のうちの3個以上を使用して、これをAR認識用マーカとして使用することも可能である。この場合には、AR認識用マーカMKを省略することもできる。
上述の3つの実施形態においては、脳外科の腫瘍切除手術を例に述べたが、整形外科の人工関節取り付け手術におけるドリルの穿孔方向を示す矢印状の立体的イメージ画像(3次元的位置情報)をARソフトウェアの3Dオブジェクトとして取り込み、ディスプレイ上の術野の映像に重畳表示することも可能である。
1 実施形態1の医療支援装置
2 実施形態2の医療支援装置
3 実施形態3の医療支援装置
10 医療用画像処理ソフトウェア11がインストールされたコンピュータ
11 医療用画像処理ソフトウェア
20 カメラ
30 ディスプレイ
40 AR画像処理装置
41 ARソフトウェア
A 頭部
B 脳
C 頭皮
D 頭蓋骨
F 腫瘍(外科処置対象部位)
F1 立体的CT画像G1中の腫瘍(外科処置対象部位)
F2 立体的CT画像G2中の腫瘍(外科処置対象部位)
F3 ディスプレイ30の映像G3中の腫瘍(外科処置対象部位)
G1 立体的CT画像
G2 腫瘍Fの立体的イメージ画像である腫瘍F2を含む立体的CT画像
G3 ディスプレイ上の映像
K 校正用マーカ
K1 立体的CT画像G1中の校正用マーカ
K2 立体的CT画像G2中の校正用マーカ
K3 ディスプレイ30の映像G3中の校正用マーカ
MK AR認識用マーカ
MK1 立体的CT画像G1中のAR認識用マーカ
MK2 立体的CT画像G2中のAR認識用マーカ
MK3 ディスプレイ30の映像G3中のAR認識用マーカ
R 領域
S 切断線
2 実施形態2の医療支援装置
3 実施形態3の医療支援装置
10 医療用画像処理ソフトウェア11がインストールされたコンピュータ
11 医療用画像処理ソフトウェア
20 カメラ
30 ディスプレイ
40 AR画像処理装置
41 ARソフトウェア
A 頭部
B 脳
C 頭皮
D 頭蓋骨
F 腫瘍(外科処置対象部位)
F1 立体的CT画像G1中の腫瘍(外科処置対象部位)
F2 立体的CT画像G2中の腫瘍(外科処置対象部位)
F3 ディスプレイ30の映像G3中の腫瘍(外科処置対象部位)
G1 立体的CT画像
G2 腫瘍Fの立体的イメージ画像である腫瘍F2を含む立体的CT画像
G3 ディスプレイ上の映像
K 校正用マーカ
K1 立体的CT画像G1中の校正用マーカ
K2 立体的CT画像G2中の校正用マーカ
K3 ディスプレイ30の映像G3中の校正用マーカ
MK AR認識用マーカ
MK1 立体的CT画像G1中のAR認識用マーカ
MK2 立体的CT画像G2中のAR認識用マーカ
MK3 ディスプレイ30の映像G3中のAR認識用マーカ
R 領域
S 切断線
Claims (10)
- 外科処置対象部位を含む患者の術野に設けられたAR認識用マーカと、
前記術野を前記AR認識用マーカとともに撮影するカメラと、
前記カメラで撮影中の映像を表示するディスプレイと、
前記ディスプレイ上に表示される前記カメラが撮影中の映像に、前記外科処置対象部位についての3次元的位置情報を、撮影中の前記AR認識用マーカの位置及び姿勢に基づいて重畳して表示するAR画像処理装置と、を備える、
ことを特徴とする医療支援装置。 - 前記3次元的位置情報は、前記AR認識用マーカとともに撮影された患者のCT画像データを医療用画像処理ソフトウェアに読み込んで得られた患者の立体的CT画像から特定されて着色された立体的イメージ画像である、
ことを特徴とする請求項1に記載の医療支援装置。 - 前記AR画像処理装置は、コンピュータハードウェアにインストールされたARソフトウェアを有し、
前記ARソフトウェアは、前記立体的イメージ画像を含む前記立体的CT画像を3Dオブジェクトとして取り込んで、前記AR認識用マーカの位置及び姿勢を基準として前記ディスプレイに表示する、
ことを特徴とする請求項2に記載の医療支援装置。 - 前記AR認識用マーカとして、予め登録した画像を使用する、
ことを特徴とする請求項2又は3に記載の医療支援装置。 - 前記予め登録した画像が、患者の前記立体的CT画像の一部分である、
ことを特徴とする請求項4に記載の医療支援装置。 - 前記AR認識用マーカとして、患者に取り付けられた造影剤入りの専用のマーカを使用する、
ことを特徴とする請求項2又は3に記載の医療支援装置。 - 前記造影剤入りの専用のマーカが患者に対して着脱自在であり、
前記立体的CT画像の前記造影剤入りマーカと、前記カメラが撮影中の前記造影剤入りマーカとの位置を合わせるための造影剤入りの校正用マーカを、患者の少なくとも3箇所に設けた、
ことを特徴とする請求項6に記載の医療支援装置。 - 前記ARソフトウェアとして、前記カメラが撮影中の映像から3次元の空間構造を認識して記憶することが可能なものを使用する、
ことを特徴とする請求項3ないし7のいずれか1項に記載の医療支援装置。 - 前記ディスプレイが、前記カメラと一体のヘッドマウント型のディスプレイである、
ことを特徴とする請求項1ないし8のいずれか1項に記載の医療支援装置。 - 前記ヘッドマウント型のディスプレイに光学透過型のディスプレイを使用し、患者の術野の透過像に患者の前記3次元的位置情報を重畳表示する、
ことを特徴とする請求項9に記載の医療支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013000662A JP2014131552A (ja) | 2013-01-07 | 2013-01-07 | 医療支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013000662A JP2014131552A (ja) | 2013-01-07 | 2013-01-07 | 医療支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014131552A true JP2014131552A (ja) | 2014-07-17 |
Family
ID=51410954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013000662A Pending JP2014131552A (ja) | 2013-01-07 | 2013-01-07 | 医療支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014131552A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6095032B1 (ja) * | 2016-03-03 | 2017-03-15 | 株式会社菊池製作所 | 合成画像提示システム |
JP2020507383A (ja) * | 2017-02-02 | 2020-03-12 | エルビット・システムズ・リミテッド | 医療用拡大高解像度撮像及び追跡法 |
JP2020522827A (ja) * | 2017-04-21 | 2020-07-30 | ザ ユナイテッド ステイツ ガバメント アズ リプレゼンティド バイ ザ デパートメント オブ ヴェテランズ アフェアーズ | 外科ナビゲーションにおける拡張現実の使用 |
KR20210156703A (ko) * | 2020-06-18 | 2021-12-27 | 주식회사 디엠에프 | 3차원 안면 스캔데이터 및 ar 글래스를 이용한 실시간 가시화 서비스 제공 방법 |
JP2022103224A (ja) * | 2017-02-21 | 2022-07-07 | ノバラッド コーポレーション | 医療処置のための拡張現実表示とタグ付け |
US11948265B2 (en) | 2021-11-27 | 2024-04-02 | Novarad Corporation | Image data set alignment for an AR headset using anatomic structures and data fitting |
US11989341B2 (en) | 2020-01-16 | 2024-05-21 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US11989338B2 (en) | 2018-11-17 | 2024-05-21 | Novarad Corporation | Using optical codes with augmented reality displays |
US12016633B2 (en) | 2020-12-30 | 2024-06-25 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US12033741B2 (en) | 2020-10-28 | 2024-07-09 | Novarad Corporation | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient |
-
2013
- 2013-01-07 JP JP2013000662A patent/JP2014131552A/ja active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017153827A (ja) * | 2016-03-03 | 2017-09-07 | 株式会社菊池製作所 | 合成画像提示システム |
JP6095032B1 (ja) * | 2016-03-03 | 2017-03-15 | 株式会社菊池製作所 | 合成画像提示システム |
JP7280188B2 (ja) | 2017-02-02 | 2023-05-23 | エルビット・システムズ・リミテッド | 医療用拡大高解像度撮像方法及び撮像システム |
JP2020507383A (ja) * | 2017-02-02 | 2020-03-12 | エルビット・システムズ・リミテッド | 医療用拡大高解像度撮像及び追跡法 |
US11823374B2 (en) | 2017-02-02 | 2023-11-21 | Elbit Systems Ltd. | Magnified high resolution imaging and tracking for medical use |
JP2022103224A (ja) * | 2017-02-21 | 2022-07-07 | ノバラッド コーポレーション | 医療処置のための拡張現実表示とタグ付け |
US11883118B2 (en) | 2017-04-21 | 2024-01-30 | United States Government As Represented By The Department Of Veterans Affairs | Using augmented reality in surgical navigation |
JP2020522827A (ja) * | 2017-04-21 | 2020-07-30 | ザ ユナイテッド ステイツ ガバメント アズ リプレゼンティド バイ ザ デパートメント オブ ヴェテランズ アフェアーズ | 外科ナビゲーションにおける拡張現実の使用 |
US11989338B2 (en) | 2018-11-17 | 2024-05-21 | Novarad Corporation | Using optical codes with augmented reality displays |
US11989341B2 (en) | 2020-01-16 | 2024-05-21 | Novarad Corporation | Alignment of medical images in augmented reality displays |
KR102458276B1 (ko) | 2020-06-18 | 2022-10-25 | 주식회사 디엠에프 | 3차원 안면 스캔데이터 및 ar 글래스를 이용한 실시간 가시화 서비스 제공 방법 |
KR20210156703A (ko) * | 2020-06-18 | 2021-12-27 | 주식회사 디엠에프 | 3차원 안면 스캔데이터 및 ar 글래스를 이용한 실시간 가시화 서비스 제공 방법 |
US12033741B2 (en) | 2020-10-28 | 2024-07-09 | Novarad Corporation | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient |
US12016633B2 (en) | 2020-12-30 | 2024-06-25 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US11948265B2 (en) | 2021-11-27 | 2024-04-02 | Novarad Corporation | Image data set alignment for an AR headset using anatomic structures and data fitting |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014131552A (ja) | 医療支援装置 | |
CN109996511B (zh) | 用于引导进程的系统 | |
Bichlmeier et al. | The virtual mirror: a new interaction paradigm for augmented reality environments | |
EP3395282B1 (en) | Endoscopic view of invasive procedures in narrow passages | |
ES2292593T3 (es) | Sistema de guiado. | |
JP2019115664A (ja) | 医療手技におけるナビゲーションを補助するための拡張現実の使用 | |
US7774044B2 (en) | System and method for augmented reality navigation in a medical intervention procedure | |
US9918798B2 (en) | Accurate three-dimensional instrument positioning | |
US7570987B2 (en) | Perspective registration and visualization of internal areas of the body | |
US20150049174A1 (en) | System and method for non-invasive patient-image registration | |
WO2018012080A1 (ja) | 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム | |
EP3420413A1 (en) | A method and system for displaying holographic images within a real object | |
CN111356395A (zh) | 用于在程序期间帮助可视化的系统和方法 | |
TW201717837A (zh) | 強化實境之外科導航 | |
CN108348295A (zh) | 机动全视野适应性显微镜 | |
US20040152975A1 (en) | Image registration | |
Gsaxner et al. | Augmented reality in oral and maxillofacial surgery | |
US10951837B2 (en) | Generating a stereoscopic representation | |
Vogt | Real-Time Augmented Reality for Image-Guided Interventions | |
CN111631814B (zh) | 术中血管立体定位导航系统及方法 | |
Chen et al. | Video-guided calibration of an augmented reality mobile C-arm | |
DeLisi et al. | Image‐guided transorbital procedures with endoscopic video augmentation | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
US20220233247A1 (en) | System and method for tracking positioning of medical instrument by using augmented reality | |
JP2009201701A (ja) | 術具誘導手術支援装置 |