JP2014212904A - 医用投影システム - Google Patents
医用投影システム Download PDFInfo
- Publication number
- JP2014212904A JP2014212904A JP2013091865A JP2013091865A JP2014212904A JP 2014212904 A JP2014212904 A JP 2014212904A JP 2013091865 A JP2013091865 A JP 2013091865A JP 2013091865 A JP2013091865 A JP 2013091865A JP 2014212904 A JP2014212904 A JP 2014212904A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- medical
- dimensional image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 39
- 230000003287 optical effect Effects 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 description 15
- 210000004204 blood vessel Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000002595 magnetic resonance imaging Methods 0.000 description 7
- 238000001356 surgical procedure Methods 0.000 description 7
- 230000003902 lesion Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000037237 body shape Effects 0.000 description 3
- 230000000747 cardiac effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000010349 pulsation Effects 0.000 description 3
- 230000000241 respiratory effect Effects 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
Images
Classifications
-
- A61B19/00—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01T—MEASUREMENT OF NUCLEAR OR X-RADIATION
- G01T1/00—Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
- G01T1/16—Measuring radiation intensity
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Nuclear Medicine (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
【課題】 被検体の動きを検知して、検知した動きを投影画像に反映することが可能な医用投影システムを提供する。【解決手段】 被検体の光学的な画像を取得する被検体光学画像取得部と、前記光学的な画像に基づいて、前記被検体の体型あるいは体勢を深度画像として推定する深度画像推定部と、前記深度画像より、前記被検体の体表の位置を算出する体表位置算出部と、前記被検体の画像のシリーズに基づいて、前記体表の位置における前記被検体の3次元画像を生成する3次元画像生成部と、該3次元画像生成部により得られた3次元画像を前記被検体へ投影する投影部と、前記被検体のいずれかの位置に設けられ赤外線を発信する赤外線発信器を備え、前記被検体光学画像取得部は、赤外線発信器により発信された赤外線を検出し、該検出した赤外線に基づいて、前記被検体の体動量を算出する体動量算出部とを備え、該体動量により、前記3次元画像の投影方向をずらす。【選択図】 図1
Description
本発明は、医用投影システムに係り、特に、被検体の動きに追従して好適に投影方向を変更する技術に関する。
医用画像診断装置の一つである磁気共鳴イメージング(以下、MRIという。)装置では、IVMR(Interventional MRI)と呼ばれ、MRI装置による撮像と同時に手術を行う技術がある。そのような技術に関する従来例として、特許文献1がある。特許文献1では、手術の対象となる腫瘍などの対象部位と手術器具との現在の位置関係、又は予測される将来の位置関係を算出するための技術が開示されている。
しかしながら、特許文献1では、被検体へ所望の画像を投影する技術に関しては開示されていない。従って、被検体へ所望の画像を投影する際に、被検体が動くことに関しては、記載がない。
本発明の目的は、手術しながら、3次元画像を被検体へ投影する際に、被検体の動きを検知して、検知した動きを投影画像に反映することが可能な医用投影システムを提供することにある。
上記の課題を解決するために、本発明によれば、被検体の光学的な画像を取得する被検体光学画像取得部と、前記光学的な画像に基づいて、前記被検体の体型あるいは体勢を深度画像として推定する深度画像推定部と、前記深度画像より、前記被検体の体表の位置を算出する体表位置算出部と、前記被検体の画像のシリーズに基づいて、前記体表の位置における前記被検体の3次元画像を生成する3次元画像生成部と、該3次元画像生成部により得られた3次元画像を前記被検体へ投影する投影部と、前記被検体のいずれかの位置に設けられ赤外線を発信する赤外線発信器を備え、前記被検体光学画像取得部は、赤外線発信器により発信された赤外線を検出し、該検出した赤外線に基づいて、前記被検体の体動量を算出する体動量算出部とを備え、該体動量により、前記3次元画像の投影方向をずらすことを特徴とする医用投影システムが提供される。
本発明によれば、手術しながら、3次元画像を被検体へ投影する際に、被検体の動きを検知して、検知した動きを投影画像に反映することが可能な医用投影システムを提供できる。
以下、添付図面に従って本発明に係る医用画像表示装置の好ましい実施形態について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。
先ず、図1を用い、医用画像表示装置1のハードウェアの一般的な構成を説明する。医用画像表示装置1は、CPU(Central Processing Unit)2、主メモリ3、記憶装置4、表示メモリ5、表示装置6、マウス8に接続されたコントローラ7、キーボード9、ネットワークアダプタ10が、システムバス11によって信号送受可能に接続されて構成される。医用画像表示装置1は、ネットワーク12を介して医用画像撮影装置13や医用画像データベース14と信号送受可能に接続される。ここで、「信号送受可能に」とは、電気的、光学的に有線、無線を問わずに、相互にあるいは一方から他方へ信号送受可能な状態を示す。
CPU2は、各構成要素の動作を制御する装置である。CPU2は、記憶装置4に格納されるプログラムやプログラム実行に必要なデータを主メモリ3にロードして実行する。記憶装置4は、医用画像撮影装置13により撮影された医用画像情報を格納する装置であり、具体的にはハードディスク等である。また、記憶装置4は、フレキシブルディスク、光(磁気)ディスク、ZIPメモリ、USBメモリ等の可搬性記録媒体とデータの受け渡しをする装置であっても良い。医用画像情報はLAN(Local Area Network)等のネットワーク12を介して医用画像撮影装置13や医用画像データベース14から取得される。また、記憶装置4には、CPU2が実行するプログラムやプログラム実行に必要なデータが格納される。主メモリ3は、CPU2が実行するプログラムや演算処理の途中経過を記憶するものである。
表示メモリ5は、液晶ディスプレイやCRT(Cathode Ray Tube)等の表示装置6に表示するための表示データを一時格納するものである。マウス8やキーボード9は、操作者が医用画像表示装置1に対して操作指示を行う操作デバイスである。マウス8はトラックパッドやトラックボールなどの他のポインティングデバイスであっても良い。コントローラ7は、マウス8の状態を検出して、表示装置6上のマウスポインタの位置を取得し、取得した位置情報等をCPU2へ出力するものである。ネットワークアダプタ10は、医用画像表示装置1をLAN、電話回線、インターネット等のネットワーク12に接続するためのものである。
医用画像撮影装置13は、被検体の断層画像等の医用画像情報を取得する装置である。医用画像撮影装置13は、例えば、MRI装置やX線CT装置、超音波診断装置、シンチレーションカメラ装置、PET装置、SPECT装置など、である。医用画像データベース14は、医用画像撮影装置13によって撮影された医用画像情報を記憶するデータベースシステムである。
次に図1を用い、本発明の実施例1に係る医用画像撮影装置の構成を説明する。3Dセンサー15は、例えばカメラから成り、光学的に被検体の位置に関する情報(体型、体勢)を取得するためのものである。3Dセンサー15は、位置情報を取得するために、被検体の光学的な深度画像を取得する。CPU2は、深度画像を用いて、被検体の位置に関する情報(体型、体勢)の算出を行う。投影装置16は、CPU2で演算した被検体の位置に関する情報に基づいて、被検体の体表の位置に被検体の3次元画像を投影するためのものである。赤外線発生装置17は、CPU2に接続され、その制御の下に赤外線を発生するもので、遠隔で被検体の位置の変化がわかるようにして、被検体の体動を検出するためのものである。
CPU2が後述する方法を実行することにより、被検体の体位に合わせた3次元画像が作成され、作成された3次元画像は表示装置6に表示され、投影装置16によって被検体の体表に表示される。なお、ここでは体表への表示としたが、例えばヘッドマウントディスプレイでもよく、現実の風景の上に医用画像を重ねて表示する方式であればよい。
次に図2を用い、本発明の実施例1に係る医用画像撮影装置の処理の流れを説明する。以下、図2の各ステップを説明する。
(ステップ201)
術者は、医用画像撮影装置13を起動する。
術者は、医用画像撮影装置13を起動する。
(ステップ202)
術者は、3Dセンサー15を動かし、光学的に被検体の位置(体型、体勢)に関する情報を取得する。より具体的には3Dセンサー15は、位置に関する情報を取得するために、被検体の深度画像を取得する。取得された深度画像は、CPU2へ送られる。そして、その深度画像から、CPU2は、被検体の位置(体型、体勢)に関する情報を推定する。
術者は、3Dセンサー15を動かし、光学的に被検体の位置(体型、体勢)に関する情報を取得する。より具体的には3Dセンサー15は、位置に関する情報を取得するために、被検体の深度画像を取得する。取得された深度画像は、CPU2へ送られる。そして、その深度画像から、CPU2は、被検体の位置(体型、体勢)に関する情報を推定する。
(ステップ203)
CPU2は、医用画像撮影装置13により得られた画像から、3次元画像を生成する。より具体的に、CPU2は、医用画像撮影装置13によって取得され、医用画像データベース14に格納されている画像のシリーズを選択し、それらをMIP処理し、全身の血管を強調した3次元画像を生成する。
CPU2は、医用画像撮影装置13により得られた画像から、3次元画像を生成する。より具体的に、CPU2は、医用画像撮影装置13によって取得され、医用画像データベース14に格納されている画像のシリーズを選択し、それらをMIP処理し、全身の血管を強調した3次元画像を生成する。
(ステップ204)
CPU2は、ステップ202で取得した深度画像と、ステップ203で作成した3次元画像の位置合わせを行う。この処理の説明図を図3に示す。左から順番に、ステップ202で取得した深度画像、ステップ203で取得した3次元画像、深度画像と3次元画像を重ね合わせた重畳画像である。これによれば、深度画像で得た被検体の位置に関する情報に基づいて、3次元画像のスケールを被検体の各部位において変更し、深度画像と3次元画像を重ね合わせる。
CPU2は、ステップ202で取得した深度画像と、ステップ203で作成した3次元画像の位置合わせを行う。この処理の説明図を図3に示す。左から順番に、ステップ202で取得した深度画像、ステップ203で取得した3次元画像、深度画像と3次元画像を重ね合わせた重畳画像である。これによれば、深度画像で得た被検体の位置に関する情報に基づいて、3次元画像のスケールを被検体の各部位において変更し、深度画像と3次元画像を重ね合わせる。
(ステップ205)
CPU2は、ステップ204により位置合わせした3次元画像を、被検体の上側に設置した投影装置16を使い、被検体の体表へ投影する。
CPU2は、ステップ204により位置合わせした3次元画像を、被検体の上側に設置した投影装置16を使い、被検体の体表へ投影する。
(ステップ206)
術者は、ステップ205で体表に表示した医用画像を参照しながら、被検体の血管にカテーテルを挿入する。
術者は、ステップ205で体表に表示した医用画像を参照しながら、被検体の血管にカテーテルを挿入する。
(ステップ207)
CPU2は、ステップ206で挿入したカテーテルの位置を検出する。この処理の説明図を図4に示す。カテーテルには、先端の位置を発信するために、体動検出手段として、例えば赤外線発生装置17が装着されている。この赤外線発生装置17から発生する赤外線を3Dセンサー15によって検出する。CPU2は、3Dセンサー15によって検出した赤外線をもとに、カテーテルの先端の位置を算出する。さらに、ステップ204で重ね合わせた深度画像と3次元画像を重ね合わせたものに、カテーテルの位置を重ね合わせる。そして、ステップ205と同様に、被検体の体表に3次元画像およびカテーテルの位置を投影する。
CPU2は、ステップ206で挿入したカテーテルの位置を検出する。この処理の説明図を図4に示す。カテーテルには、先端の位置を発信するために、体動検出手段として、例えば赤外線発生装置17が装着されている。この赤外線発生装置17から発生する赤外線を3Dセンサー15によって検出する。CPU2は、3Dセンサー15によって検出した赤外線をもとに、カテーテルの先端の位置を算出する。さらに、ステップ204で重ね合わせた深度画像と3次元画像を重ね合わせたものに、カテーテルの位置を重ね合わせる。そして、ステップ205と同様に、被検体の体表に3次元画像およびカテーテルの位置を投影する。
(ステップ208)
CPU2は、被検体の体動を検出する。より具体的には、被検体が動くと、ステップ206で挿入したカテーテルが、被検体の血管内で停止する。このとき、被検体の呼吸動、拍動によって、被検体の血管が更に動く。すると、カテーテルは、被検体の血管内にあるので、血管の動きに合わせて、カテーテルの先端が動く。この動きをステップ207と同様の方法により検出する。より具体的には、カテーテルの先端に装着された赤外線発生装置17より、赤外線を発信し、その赤外線を、3Dセンサー15により検出する。そして、CPU2は、被検体の呼吸動、拍動による動きを算出する。
CPU2は、被検体の体動を検出する。より具体的には、被検体が動くと、ステップ206で挿入したカテーテルが、被検体の血管内で停止する。このとき、被検体の呼吸動、拍動によって、被検体の血管が更に動く。すると、カテーテルは、被検体の血管内にあるので、血管の動きに合わせて、カテーテルの先端が動く。この動きをステップ207と同様の方法により検出する。より具体的には、カテーテルの先端に装着された赤外線発生装置17より、赤外線を発信し、その赤外線を、3Dセンサー15により検出する。そして、CPU2は、被検体の呼吸動、拍動による動きを算出する。
そして、算出したカテーテルの位置の動きに合わせて、被検体の体表への3次元画像の投影位置を変更する。
以上の方法によって、心臓カテーテル手術において、既に撮影された医用画像を用いて、手術を支援する際に、カテーテルの動きを検出して投影画像に反映させることができるので、その動きに応じた操作が可能になり、より安全に施術を行うことができる。
実施例2でも、心臓カテーテル手術の例を示す。ただし、実施例1では、撮影済みの医用画像の処理結果を、体表に表示したが、実施例2では、被検体の画像のシリーズを、リアルタイムに撮像して取得する画像撮像手段を備え、得られた3次元画像を体表に投影する例である。
次に図5を用い、本発明の実施例2に係る医用画像撮影装置の処理の流れを説明する。
(ステップ501)
実施例1におけるステップ201と同様である。
実施例1におけるステップ201と同様である。
(ステップ502)
術者は、医用画像撮影装置に3Dセンサー15を装着し、光学的に被検体の体位に関する情報をとる。より具体的には3Dセンサー15は、位置情報を取得するために、被検体の光学的な深度情報を取得する。そして、その深度情報から、CPU2は、被検体の体位に関する情報を推定する。
術者は、医用画像撮影装置に3Dセンサー15を装着し、光学的に被検体の体位に関する情報をとる。より具体的には3Dセンサー15は、位置情報を取得するために、被検体の光学的な深度情報を取得する。そして、その深度情報から、CPU2は、被検体の体位に関する情報を推定する。
(ステップ503)
CPU2は、医用画像撮影装置13より、3次元画像を取得する。例えば、MRI装置を用いて、TOFシーケンスで画像を撮像する。撮像した画像に対して、MIP処理を行い、血管を強調する。
CPU2は、医用画像撮影装置13より、3次元画像を取得する。例えば、MRI装置を用いて、TOFシーケンスで画像を撮像する。撮像した画像に対して、MIP処理を行い、血管を強調する。
(ステップ504〜507)
実施例1におけるステップ204〜ステップ207と同様である。
実施例1におけるステップ204〜ステップ207と同様である。
(ステップ508)
実施例と同様に、カテーテルの位置の変化に合わせて、3次元画像の投影位置を変更する。さらに、撮像を繰り返し、常に最新の画像を投影する。
実施例と同様に、カテーテルの位置の変化に合わせて、3次元画像の投影位置を変更する。さらに、撮像を繰り返し、常に最新の画像を投影する。
以上の方法によって、心臓カテーテル手術において、常に最新の医用画像を用いて、手術を支援するための血管画像とカテーテルの位置を体表に表示する場合において、更に呼吸動、拍動などの動きを検出して投影画像に反映させることができるので、その動きに応じた操作が可能になり、より安全に施術を行うことができる。
実施例3は、腹部病変に対して、手術ナビゲーションを行う例であり、被検体の手術範囲も被検体に投影される例である。
次に図6を用い、本発明の実施例3に係る医用画像撮影装置の処理の流れを説明する。
(ステップ601、ステップ602)
実施例1におけるステップ201、202と同様である。
実施例1におけるステップ201、202と同様である。
(ステップ603)
CPU2は、既存の画像の画像処理を行う。例えば、医用画像撮像装置13によって取得された画像のセットを選択して、Filter処理し、病変を強調した3次元画像を生成する。このとき、病変を手術する際に、切除する範囲を決定し、画像上にマークを入れる。
CPU2は、既存の画像の画像処理を行う。例えば、医用画像撮像装置13によって取得された画像のセットを選択して、Filter処理し、病変を強調した3次元画像を生成する。このとき、病変を手術する際に、切除する範囲を決定し、画像上にマークを入れる。
(ステップ604、ステップ605)
実施例1におけるステップ204、205と同様である。ただし、ステップ601で入力した切除範囲も被検体の体表に投影する。
実施例1におけるステップ204、205と同様である。ただし、ステップ601で入力した切除範囲も被検体の体表に投影する。
(ステップ606)
被検体の体表に、体動検出システムを設置する。体動検出システムとしては、実施例1、2と同様に、赤外線発生装置を装着している。被検体の体動に合わせて赤外線を発信し、この赤外線を3Dセンサー15で検出する。CPU2は、3Dセンサー15によって検出した赤外線の発信位置に基づいて、体動量を検出する。更に、ステップ602で検出した被検体の深度画像の位置座標に体動量を加算し、体動後の深度画像を算出する。体動後の深度画像に、ステップ604の医用画像を重ね合わせ、ステップ605と同様に被検体の体表に医用画像及び切除範囲を投影する。
被検体の体表に、体動検出システムを設置する。体動検出システムとしては、実施例1、2と同様に、赤外線発生装置を装着している。被検体の体動に合わせて赤外線を発信し、この赤外線を3Dセンサー15で検出する。CPU2は、3Dセンサー15によって検出した赤外線の発信位置に基づいて、体動量を検出する。更に、ステップ602で検出した被検体の深度画像の位置座標に体動量を加算し、体動後の深度画像を算出する。体動後の深度画像に、ステップ604の医用画像を重ね合わせ、ステップ605と同様に被検体の体表に医用画像及び切除範囲を投影する。
以上の方法によって、腹部病変の手術において、既に撮影された医用画像を用いて、手術を支援するための医用画像と病変の切除範囲を体表に表示する場合において、更に被検体の呼吸動、拍動などの動きを検出して投影画像に反映させることができるので、その動きに応じた操作が可能となり、より安全に施術を行うことができる。
なお、図7は上述した本発明の実施例の要旨を説明するための図であり、体内に挿入された赤外線発生装置が17aから17bへ移動した場合、移動したことを、3Dセンサー15により検出し、CPU2により、投影する3次元画像の投影方向をどの程度変更させれば良いかを計算し、投影装置16に備えられた治具により、16aから16bへ投影装置16により投影する3次元画像の方向を変更することを示したものである。
本発明は、MRI装置、これを用いたネットワークシステム及びこれを用いた操作者の呼出方法に適用される。
15 3Dセンサー、16 投影装置、17 体動検出センサー
Claims (3)
- 被検体の光学的な画像を取得する被検体光学画像取得部と、前記光学的な画像に基づいて、前記被検体の体型あるいは体勢を深度画像として推定する深度画像推定部と、前記深度画像より、前記被検体の体表の位置を算出する体表位置算出部と、前記被検体の画像のシリーズに基づいて、前記体表の位置における前記被検体の3次元画像を生成する3次元画像生成部と、該3次元画像生成部により得られた3次元画像を前記被検体へ投影する投影部と、前記被検体のいずれかの位置に設けられ赤外線を発信する赤外線発信器を備え、
前記被検体光学画像取得部は、赤外線発信器により発信された赤外線を検出し、該検出した赤外線に基づいて、前記被検体の体動量を算出する体動量算出部とを備え、該体動量により、前記3次元画像の投影方向をずらすことを特徴とする医用投影システム。 - 請求項1に記載の医用投影システムにおいて、
前記被検体の画像のシリーズを、リアルタイムに撮像して取得する画像撮像手段を備えたことを特徴とする医用投影システム。 - 請求項1に記載の医用投影システムにおいて、
前記被検体の手術範囲も前記被検体に投影されることを特徴とする医用投影システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013091865A JP2014212904A (ja) | 2013-04-25 | 2013-04-25 | 医用投影システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013091865A JP2014212904A (ja) | 2013-04-25 | 2013-04-25 | 医用投影システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014212904A true JP2014212904A (ja) | 2014-11-17 |
Family
ID=51939255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013091865A Pending JP2014212904A (ja) | 2013-04-25 | 2013-04-25 | 医用投影システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014212904A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017080159A (ja) * | 2015-10-29 | 2017-05-18 | パイオニア株式会社 | 画像処理装置及び画像処理方法、並びにコンピュータプログラム |
JP2019042519A (ja) * | 2015-09-28 | 2019-03-22 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
CN114760925A (zh) * | 2019-12-03 | 2022-07-15 | 佳能株式会社 | 放射线摄像系统、放射线摄像方法、医学摄像系统和程序 |
-
2013
- 2013-04-25 JP JP2013091865A patent/JP2014212904A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019042519A (ja) * | 2015-09-28 | 2019-03-22 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
US11026763B2 (en) | 2015-09-28 | 2021-06-08 | Fujifilm Corporation | Projection mapping apparatus |
JP2017080159A (ja) * | 2015-10-29 | 2017-05-18 | パイオニア株式会社 | 画像処理装置及び画像処理方法、並びにコンピュータプログラム |
CN114760925A (zh) * | 2019-12-03 | 2022-07-15 | 佳能株式会社 | 放射线摄像系统、放射线摄像方法、医学摄像系统和程序 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107016717B (zh) | 用于患者的透视视图的系统和方法 | |
JP5430203B2 (ja) | 画像処理装置、画像処理方法 | |
EP3108266B1 (en) | Estimation and compensation of tracking inaccuracies | |
CN107106241B (zh) | 用于对外科器械进行导航的系统 | |
JP6071282B2 (ja) | 情報処理装置、超音波撮影装置および情報処理方法 | |
US11185305B2 (en) | Intertial device tracking system and method of operation thereof | |
US8886286B2 (en) | Determining and verifying the coordinate transformation between an X-ray system and a surgery navigation system | |
JP5417609B2 (ja) | 医用画像診断装置 | |
JP5837261B2 (ja) | マルチカメラ装置追跡 | |
EP3737295A1 (en) | Three-dimensional imaging and modeling of ultrasound image data | |
US11213273B2 (en) | Integration of ultrasound and x-ray modalities | |
JP5631453B2 (ja) | 画像処理装置、画像処理方法 | |
JP2011125570A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US10799100B2 (en) | Image processing device, method, and program | |
US11127153B2 (en) | Radiation imaging device, image processing method, and image processing program | |
KR101993384B1 (ko) | 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템 | |
KR20150145106A (ko) | 의료 영상 정합 방법 및 그 장치 | |
JP2007185278A (ja) | 手術支援装置 | |
JP2003199726A (ja) | 磁気共鳴撮像方法およびmr装置 | |
CN114287955A (zh) | Ct三维图像生成方法、装置与ct扫描系统 | |
RU2727244C2 (ru) | Устройство для визуализации объекта | |
JP6689666B2 (ja) | 超音波撮像装置 | |
JP2014212904A (ja) | 医用投影システム | |
JP5485853B2 (ja) | 医用画像表示装置及び医用画像誘導方法 | |
JP2010051615A (ja) | 磁気共鳴イメージング装置 |