JP6392192B2 - 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム - Google Patents

画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム Download PDF

Info

Publication number
JP6392192B2
JP6392192B2 JP2015190659A JP2015190659A JP6392192B2 JP 6392192 B2 JP6392192 B2 JP 6392192B2 JP 2015190659 A JP2015190659 A JP 2015190659A JP 2015190659 A JP2015190659 A JP 2015190659A JP 6392192 B2 JP6392192 B2 JP 6392192B2
Authority
JP
Japan
Prior art keywords
image
alignment
boundary
simulation
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015190659A
Other languages
English (en)
Other versions
JP2017063908A (ja
Inventor
宮本 仁樹
仁樹 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2015190659A priority Critical patent/JP6392192B2/ja
Priority to US15/259,753 priority patent/US10631948B2/en
Publication of JP2017063908A publication Critical patent/JP2017063908A/ja
Application granted granted Critical
Publication of JP6392192B2 publication Critical patent/JP6392192B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)

Description

本発明は、映像に含まれる対象物と対象物に関連するシミュレーション画像との位置合せを行う画像位置合せ装置、画像位置合せ装置の作動方法およびプログラムに関するものである。
近年、3次元医用画像を用いた手術シミュレーションが盛んに行われている。手術シミュレーションとは、医用画像から手術対象となる組織、臓器およびその周辺構造を可視化し、実際の手術で行われる手技をシミュレーションするものである。例えば、肝臓の部分切除シミュレーションでは、CT(Computed Tomography)画像あるいはMRI(Magnetic Resonance Imaging)画像の断層画像から、肝臓、門脈、静脈、動脈、体表、骨および腫瘍といった組織を抽出し、これらを3次元画像として可視化して、手術時の術野から見たシミュレーション画像を生成する。その後、シミュレーション画像を用いて、肝臓内にある腫瘍を切除する範囲をコンピュータで計算して、手術計画を立てて手術を行う。
一方、シミュレーション画像を、手術中に参照したいという要求がある。このため、シミュレーション画像を紙に印刷して手術室に持ち込んだり、手術室に設置されたディスプレイに表示したりすることが行われている。そして医師は、実際の患者の術部を見ながら、確認のために紙に印刷したあるいはディスプレイに表示したシミュレーション画像を見ながら手術を行う。
しかしながら、患者とシミュレーション画像とを交互に見ながら手術を行うことは、非常に煩わしい。このため、手術中に手術の対象部位を撮影して複数の画像からなる映像を取得し、映像にシミュレーション画像を重畳して表示する手法が提案されている。例えば、特許文献1には、光学センサあるいは磁気センサを、術部を撮影するカメラ、術具、もしくは臓器に直接取り付け、それらの相対位置関係をキャリブレーション、すなわち初期位置合せし、初期位置合せ後のカメラの位置および向きの変更、並びに臓器の移動に対して、シミュレーション画像を移動させることにより、手術の対象となる部位とシミュレーション画像とを位置合せして重畳表示する手法が提案されている。
また、手術の対象となる部位にマーカを配置し、マーカの位置をセンサにより検出して、手術の対象部位とシミュレーション画像とを位置合せし、ヘッドマウントディスプレイに表示する手法(特許文献2参照)、および手術の対象部位にマーカを埋め込み、これをセンサにより検出して手術の対象部位とシミュレーション画像とを位置合せし、モニタに表示する手法も提案されている(特許文献3参照)。
一方、センサ等を用いることなく、撮影された患者の画像とシミュレーション画像とを位置合せする手法も提案されている。例えば、特許文献4においては、3次元画像から臓器モデルを生成し、超音波画像にリアルタイムで臓器モデルを重畳させて表示する際に、超音波画像の各フレームと臓器モデルとの間のアフィン変換関数を求め、これに基づいて臓器モデルを変換して超音波画像に重畳させる手法が提案されている。また、特許文献5においては、骨の画像と骨の輪郭からなるテンプレートとの位置合せを行う手法が提案されている。また、特許文献6には、3次元画像のワイヤフレームモデルと対象物との位置合せを行う手法も提案されている。さらに、特許文献7には、超音波画像に輪郭モデルを重畳して超音波画像と輪郭モデルとを位置合せする手法が提案されている。
特開2013−202313号公報 特開2010−259497号公報 特開2010−200894号公報 特開2012−205899号公報 特開2012−518520号公報 特開2007−268259号公報 特開2008−068086号公報
上記特許文献5から7に記載の手法により、対象物とテンプレートあるいはワイヤフレームモデル等のシミュレーション画像との位置合せを容易に行うことができる。しかしながら、特許文献5から7に記載された手法は、対象物とシミュレーション画像とを初期位置合せした後の位置合せに関するものである。ここで、対象物を撮影する際には、カメラを手で持っている限り、カメラを完全に静止することは難しく、表示された映像内において対象物が移動する。このため、映像に含まれる対象物とシミュレーション画像とを、操作者が手動で初期位置合せする作業は非常に困難である。とくに、シミュレーション画像が対象物と重なっていると、対象物が見にくくなるため、初期位置合せが非常に困難なものとなる。
本発明は上記事情に鑑みなされたものであり、映像に含まれる対象物とシミュレーション画像との初期位置合せを、容易に行うことができるようにすることを目的とする。
本発明による第1の画像位置合せ装置は、撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得する画像取得手段と、
対象物に関連するシミュレーション画像を取得するシミュレーション画像取得手段と、
シミュレーション画像の境界を表す境界画像を取得する境界画像取得手段と、
映像およびシミュレーション画像を表示手段に表示する表示制御手段と、
第1の位置合せの指示により、映像に含まれる対象物とシミュレーション画像との第1の位置合せを行う第1の位置合せ手段とを備え、
表示制御手段は、少なくとも第1の位置合せの指示が行われている間、シミュレーション画像に代えて、境界画像を表示手段に表示することを特徴とするものである。
「シミュレーション画像」とは、対象物に関連し、かつ対象物の外形を表す情報を含む任意の画像を意味する。例えば、対象物を手術の対象部位とした場合において、対象部位の3次元形状を表す画像、並びに対象部位および対象部位に含まれる構造物の3次元形状を表す画像等をシミュレーション画像として用いることができる。なお、PET(Positron Emission Tomography)検査またはNM(Nuclear Medical)検査(核医学検査)等により取得される機能3次元画像等の画像であっても、対象物の外形を表す情報を含むものであれば、シミュレーション画像として用いることができる。
「第1の位置合せの指示」とは、シミュレーション画像を平行移動、回転移動、拡大縮小および向きの少なくとも1つを変更して、映像に含まれる対象物にシミュレーション画像を一致させる指示を意味する。なお、「向きを変更する」とは、表示手段の表示面に平行なあるいは表示面に沿った軸の周りにシミュレーション画像を回転させることを意味する。一方、「回転移動」とは、表示手段の表示面に直交する軸の回りの回転を意味する。
「第1の位置合せ」とは、上述した初期位置合せに限定されるものではなく、第1の位置合せの終了後、後述する第2の位置合せが行われている最中に改めて第1の位置合せの指示に応じて位置合せを行う場合も、第1の位置合せに含めるものとする。
「シミュレーション画像の境界」とは、表示手段に表示されたシミュレーション画像にいて、シミュレーション画像とシミュレーション画像以外の部分との境界を意味する。なお、シミュレーション画像が3次元画像である場合、シミュレーション画像の向きを変更すると、シミュレーション画像の形が変更される場合がある。このような場合、向きの変更に応じた境界を抽出して境界画像を生成する。
「少なくとも第1の位置合せの指示が行われている間、シミュレーション画像に代えて境界画像を表示する」とは、第1の位置合せの指示が行われている間、すなわち操作者が第1の位置合せの操作を行っている間にのみ境界画像を表示するものであってもよく、第1の位置合せの指示を中断した状態においても、第1の位置合せが終了するまで、境界画像を表示し続けることも含む。
なお、本発明による第1の画像位置合せ装置においては、第1の位置合せの結果に基づいて、映像に含まれる対象物とシミュレーション画像との第2の位置合せを行う第2の位置合せ手段をさらに備えるものとし、
表示制御手段を、第2の位置合せが行われた映像に含まれる対象物とシミュレーション画像とを表示手段に重畳表示するものとしてもよい。
この場合、表示制御手段を、第2の位置合せ時に、境界画像の表示の指示により、シミュレーション画像に代えて境界画像を表示手段に表示するものとしてもよい。
本発明による第2の画像位置合せ装置は、撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得する画像取得手段と、
対象物に関連するシミュレーション画像を取得するシミュレーション画像取得手段と、
シミュレーション画像の境界を表す境界画像を取得する境界画像取得手段と、
映像およびシミュレーション画像を表示手段に表示する表示制御手段と、
第1の位置合せの指示により、映像に含まれる対象物とシミュレーション画像との第1の位置合せを行う第1の位置合せ手段と、
第1の位置合せの結果に基づいて、映像に含まれる対象物とシミュレーション画像との第2の位置合せを行う第2の位置合せ手段とを備え、
表示制御手段は、第2の位置合せが行われた映像に含まれる対象物とシミュレーション画像とを表示手段に重畳表示し、境界画像の表示の指示により、シミュレーション画像に代えて、境界画像を表示手段に表示することを特徴とするものである。
なお、本発明による第1および第2の画像位置合せ装置においては、境界画像取得手段を、シミュレーション画像の境界を抽出して境界画像を生成するものとしてもよい。
また、本発明による第1および第2の画像位置合せ装置においては、境界画像は破線からなるものであってもよく、透明画像からなるものであってもよい。
「境界画像が破線からなる」とは、境界画像が複数の線分からなることを意味する。なお、線分と線分との間隔および線分の長さは一定である必要はなく、一点鎖線あるいは二点鎖線のように、線分と線分との間隔および線分の長さが変化するものであってもよい。
「透明画像」とは、映像に重畳表示した際に、映像における境界画像と重なる部分を視認できる画像を意味する。例えば、境界画像に対してあらかじめ定められた透明度を設定することにより、境界画像を透明画像とすることができる。
また、本発明による第1および第2の画像位置合せ装置においては、対象物が少なくとも1つの構造物を含む場合、シミュレーション画像を、対象物および少なくとも1つの構造物の3次元形状を表す画像としてもよい。
この場合、境界画像を、対象物の境界および少なくとも1つの構造物の3次元形状を表す画像としてもよい。
本発明による第1の画像位置合せ装置は、撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得し、
対象物に関連するシミュレーション画像を取得し、
シミュレーション画像の境界を表す境界画像を取得し、
映像およびシミュレーション画像を表示手段に表示し、
第1の位置合せの指示により、映像に含まれる対象物とシミュレーション画像との第1の位置合せを行い、
少なくとも第1の位置合せの指示が行われている間、シミュレーション画像に代えて、境界画像を表示手段に表示することを特徴とするものである。
本発明による第2の画像位置合せ装置は、撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得し、
対象物に関連するシミュレーション画像を取得し、
シミュレーション画像の境界を表す境界画像を取得し、
映像およびシミュレーション画像を表示手段に表示し、
第1の位置合せの指示により、映像に含まれる対象物とシミュレーション画像との第1の位置合せを行い、
第1の位置合せの結果に基づいて、映像に含まれる対象物とシミュレーション画像との第2の位置合せを行い、
第2の位置合せが行われた映像に含まれる対象物とシミュレーション画像とを表示手段に重畳表示し、境界画像の表示の指示により、シミュレーション画像に代えて、境界画像を表示手段に表示することを特徴とするものである。
なお、本発明による第1および第2の画像位置合せ方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、少なくとも第1の位置合せの指示が行われている間、シミュレーション画像に代えて境界画像が表示される。このため、境界画像を用いて対象物との第1の位置合せを行うことにより、シミュレーション画像に邪魔されることなく、対象物と境界画像とを容易に位置合せすることができる。
第2の位置合せの際に、境界画像の表示の指示によりシミュレーション画像に代えて境界画像を表示することにより、シミュレーション画像に邪魔されることなく、対象物と境界画像とが位置合せされているかを容易に確認することができる。また、境界画像を表示することにより、シミュレーション画像に邪魔されることなく、対象物の状態を確認することができる。
本発明の実施形態による画像位置合せ装置を適用した、手術支援システムの概要を示すハードウェア構成図 タブレット端末に位置合せプログラムをインストールすることにより実現された画像位置合せ装置の概略構成を示す図 シミュレーション画像を示す図 境界画像の例を示す図 境界画像の例を示す図 境界画像の例を示す図 本実施形態において行われる処理を示すフローチャート 第1の位置合せの際にディスプレイに表示される術中画像を示す図 不変位置を中心とした領域の設定を説明するための図 現在表示されている術中映像の初期術中画像に対する位置のずれを説明するための図 シミュレーション画像と術中映像との重畳表示を説明するための図
以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の第1の実施形態による画像位置合せ装置を適用した、手術支援システムの概要を示すハードウェア構成図である。図1に示すように、このシステムでは、本実施形態による画像位置合せ装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
3次元画像撮影装置2は、被検体7の手術の対象となる部位を撮影することにより、その部位を表す3次元画像V0を生成する装置であり、具体的には、CT装置、MRI装置、およびPET装置等である。この3次元画像撮影装置2により生成された3次元画像V0は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体7の手術の対象部位は肝臓であり、3次元画像撮影装置2はCT装置であり、被検体7の腹部の3次元画像V0が生成されるものとする。なお、手術の対象部位である肝臓が対象物となる。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された3次元画像V0等の画像データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式やネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
画像位置合せ装置1は、1台のコンピュータに、本発明の画像位置合せプログラムをインストールしたものである。本実施形態においては、コンピュータは、装置の操作者である医師が直接操作するネットワーク4と無線接続されたタブレット端末である。位置合せプログラムは、DVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からタブレット端末にインストールされる。もしくは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてタブレット端末にダウンロードされ、インストールされる。
図2はタブレット端末に画像位置合せプログラムをインストールすることにより実現された画像位置合せ装置の概略構成を示す図である。図2に示すように、画像位置合せ装置1は、標準的なタブレット端末の構成として、CPU(Central Processing Unit)11、メモリ12、ストレージ13、カメラ14、液晶等のディスプレイ15、タッチパネル式の入力部16、およびモーションセンサ17を備えている。
ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した3次元画像V0および画像位置合せ装置1での処理によって生成された画像を含む各種情報が記憶されている。
カメラ14は、レンズ、CCD(Charge Coupled Device)等の撮像素子および取得した画像に画質を向上させるための処理を行う画像処理部等を備える。医師は画像位置合せ装置1、すなわちタブレット端末のカメラ14を用いて、手術中の被検体7における手術の対象部位である、開腹された被検体7の肝臓を撮影することにより、撮影時刻が異なる2以上の画像からなる、肝臓を含む術中の術中映像L0を取得する。術中映像L0は所定のフレームレートによる術中画像T0が連続する動画像となる。なお、カメラ14が撮影手段に対応する。
モーションセンサ17は、タブレット端末のある位置を基準としたx軸、y軸およびz軸の3軸の加速度、3軸の角速度および3軸の傾きを検出する9軸のモーションセンサである。これにより、モーションセンサ17は、タブレット端末の動き、すなわちカメラ14の動きを検出する。モーションセンサ17が検出した加速度、角速度および傾きは動き情報としてCPU11に出力され、必要な処理に使用される。
また、メモリ12には、画像位置合せプログラムが記憶されている。画像位置合せプログラムは、CPU11に実行させる処理として、術中映像L0および3次元画像V0を取得する画像取得処理、術中映像L0に含まれる対象物である肝臓のシミュレーション画像S0を取得するシミュレーション画像取得処理、シミュレーション画像の境界を表す境界画像B0を取得する境界画像取得処理、初期位置合せ、すなわち第1の位置合せの指示により、術中映像L0に含まれる肝臓とシミュレーション画像S0との初期位置合せである第1の位置合せを行う第1の位置合せ処理、第1の位置合せの結果に基づいて、術中映像L0に含まれる肝臓とシミュレーション画像S0との第2の位置合せを行う第2の位置合せ処理、術中映像L0、シミュレーション画像S0および境界画像B0をディスプレイ15に表示する表示制御処理を規定している。
そして、CPU11がプログラムに従いこれらの処理を実行することで、タブレット端末は、画像取得部21、シミュレーション画像取得部22、境界画像取得部23、第1の位置合せ部24、第2の位置合せ部25および表示制御部26として機能する。なお、画像位置合せ装置1は、画像取得処理、シミュレーション画像取得処理、境界画像取得処理、第1の位置合せ処理、第2の位置合せ処理および表示制御処理をそれぞれ行うプロセッサを備えるものであってもよい。
画像取得部21は、3次元画像V0およびカメラ14により撮影された手術中の被検体7の対象部位を含む術中映像L0を取得する。画像取得部21は、3次元画像V0が既にストレージ13に記憶されている場合には、ストレージ13から取得するようにしてもよい。なお、本実施形態においては、術中映像L0は、開腹された被検体7の上方から医師が肝臓を撮影することにより取得される。
シミュレーション画像取得部22は、手術の対象部位である肝臓のシミュレーション画像を生成する。このため、シミュレーション画像取得部22は、まず3次元画像V0から手術の対象部位である肝臓並びに肝臓に含まれる肝動脈、肝静脈および病変を抽出する。シミュレーション画像取得部22は、3次元画像V0中の各画素が、肝臓並びに肝臓に含まれる動脈、静脈および病変(以下肝臓等とする)を示す画素であるか否かを識別する識別器を備える。識別器は、肝臓等を含む複数のサンプル画像を、例えばアダブースティングアルゴリズム等の手法を用いて機械学習することにより取得される。シミュレーション画像取得部22は、識別器を用いて3次元画像V0から肝臓等を抽出する。
そして、シミュレーション画像取得部22は、肝臓等の3次元形状を表す画像をシミュレーション画像S0として生成する。具体的には、抽出した肝臓等をあらかじめ定めた投影面に投影した投影像を、シミュレーション画像S0として生成する。ここで、投影面としては、例えば、被検体7の肝臓を正面から臨む面とすればよい。なお、投影の具体的な方法としては、例えば、公知のボリュームレンダリングの手法等を用いる。
この際、肝臓並びに肝臓に含まれる肝動脈、肝静脈および病変毎に異なる色を定義してシミュレーション画像S0を生成してもよく、異なる透明度を定義してシミュレーション画像S0を生成してもよい。例えば、肝動脈を赤色、肝静脈を青色、病変を緑色としたり、肝臓の不透明度を0.1、肝動脈および肝静脈の不透明度を0.5、病変の不透明度を0.8としたりしてもよい。これにより、図3に示すようなシミュレーション画像S0が生成される。このように、シミュレーション画像S0において、肝臓並びに肝臓に含まれる肝動脈、肝静脈および病変毎に異なる色または不透明度を定義することにより、肝臓並びに肝臓に含まれる肝動脈、肝静脈および病変を容易に識別することができる。なお、異なる色および異なる透明度の双方を定義してシミュレーション画像S0を生成してもよい。生成されたシミュレーション画像S0はストレージ13に保存される。
境界画像取得部23は、シミュレーション画像S0の境界を抽出して境界画像B0を生成することにより境界画像B0を取得する。本実施形態においては、シミュレーション画像S0は肝臓の3次元形状を表す投影像である。このため、境界画像取得部23は、シミュレーション画像S0をトゥーンレンダリングの手法を用いて2次元に描画して肝臓の2次元画像を生成し、その境界からあらかじめ定められた範囲を境界画像B0として生成する。図4は境界画像B0を示す図である。図4に示すように、境界画像B0はシミュレーション画像S0に含まれる肝臓の境界を表すものとなっている。なお、境界画像B0の色は術中映像L0に含まれる肝臓の色とは異なるものとすることが好ましい。例えば、白色および黄色等の人体の内部組織の色とは異なる比較的明るい色とすることが好ましい。
また、境界画像取得部23は、トゥーンレンダリングの手法に代えて、3次元画像V0を投影してシミュレーション画像S0を生成する際に、投影面に向かうベクトルとシミュレーション画像S0における表面の法線ベクトルとの内積が90度に近い値となるシミュレーション画像S0の表面の領域のみを、境界画像B0として生成してもよい。また、3次元画像V0においてシミュレーション画像S0の領域を単一色で塗りつぶし、単一色のシミュレーション画像S0における隣接する画素との相違が大きい部分を境界として抽出し、抽出した境界からあらかじめ定められた範囲の領域を境界画像B0として生成してもよい。また、3次元画像V0を投影面に投影してシミュレーション画像S0を生成する際の深度情報であるzバッファを用いてもよい。この場合、zバッファを参照し、投影面に向かう方向における深さが大きく変化する部分をシミュレーション画像S0の境界として抽出し、抽出した境界からあらかじめ定められた範囲の領域を境界画像B0として生成してもよい。
また、境界画像取得部23は、図5に示すように、破線からなる境界画像B0を生成してもよい。なお、図5においては、線分と線分との間が等間隔の破線により境界画像B0を生成しているが、一点鎖線あるいは二点鎖線のように、線分と線分との間隔および線分の長さが変化するものであってもよい。また、術中映像L0に重畳表示した際に、術中映像L0における境界画像と重なる部分を視認できるように、境界画像B0を半透明となるように生成してもよい。この場合、透明度はあらかじめ定められた値に設定すればよい。また、境界画像取得部23は、図6に示すように、シミュレーション画像S0に含まれる肝臓並びに肝臓に含まれる動脈、静脈および病変のうち、肝臓のみの境界を有し、境界の内部に肝臓以外の動脈、静脈および病変のシミュレーション画像を含む境界画像B0を生成してもよい。
以下、第1の位置合せ部24、第2の位置合せ部25および表示制御部26の説明と併せて、本実施形態において行われる処理について説明する。
図7は本実施形態において行われる処理を示すフローチャートである。なお、シミュレーション画像S0および境界画像B0は既に生成されて、ストレージ13に保存されているものとする。まず、被検体7の手術対象部位である肝臓が撮影されて術中映像L0が取得される(ステップST1)。なお、術中映像L0は例えば30fps等の所定のフレームレートにより順次取得される複数の術中画像T0からなる。そして、表示制御部26がシミュレーション画像S0を術中映像L0に重畳してディスプレイ15に表示する(ステップST2)。なお、この段階においては、シミュレーション画像S0はディスプレイ15におけるあらかじめ定められた位置に表示される。
続いて、第1の位置合せ部24が、第1の位置合せの指示がなされたか否かの監視を開始し(ステップST3)、ステップST3が肯定されると、表示制御部26がシミュレーション画像S0に代えて境界画像B0を術中映像L0に重畳表示する(ステップST4)。次いで、第1の位置合せ部24が、医師による第1の位置合せの指示を受け付ける(ステップST5)。これにより、第1の位置合せ部24が初期位置合せである第1の位置合せを行う。
図8は第1の位置合せの際にディスプレイ15に表示される画像を示す図である。第1の位置合せ時においては、表示制御部26は、術中映像L0に境界画像B0を重畳して、ディスプレイ15に表示する。表示された境界画像B0は、入力部16の操作、すなわちディスプレイ15へのタッチ操作により、平行移動、回転および拡大縮小が可能となっている。なお、画像が存在する平面にx軸およびy軸を、画像に直交する方向にz軸を設定した場合、回転は3軸の任意の方向に可能となっている。なお、xy平面における回転以外の回転、すなわちx軸および/またはy軸の周りの回転がなされた場合、シミュレーション画像S0の投影面が変化する。このため、シミュレーション画像取得部22は、投影面が変化した場合、シミュレーション画像S0を改めて生成し、境界画像取得部23は境界画像B0を改めて生成する。なお、第1の位置合せ時には、できるだけ術野全体が術中映像L0に含まれるように、タブレット端末の位置を調整することが好ましい。
医師は、ディスプレイ15に表示された術中映像L0および境界画像B0を見ながら、境界画像B0の位置が、術中映像L0に含まれる肝臓の位置と一致するように、境界画像B0を平行移動、回転および拡大縮小する。そして、境界画像B0の位置が、術中映像L0に含まれる肝臓の位置と一致した時点で、入力部16を用いて第1の位置合せ終了の指示を行うことにより、第1の位置合せが完了する。なお、第1の位置合せ終了の指示は、入力部16の操作により、終了指示を行うボタンをディスプレイ15に表示させたり、ダブルタップ等の所定の操作により行うようにすればよい。これにより、第1の位置合せ終了時にディスプレイ15に表示されていた術中映像L0の1つのフレームである術中画像T0が初期術中画像T1としてストレージ13に保存される。
なお、本実施形態においては、手術の対象部位は肝臓であり、手術中に肝臓は切除されて移動する可能性がある。このため、本実施形態においては、第1の位置合せ終了時にディスプレイ15に初期術中画像T1を表示しておき、手術中に移動しない不変位置の指定を受け付ける。例えば、図9に示す初期術中画像T1において、鉗子30等の手術用具が存在する部位は手術中には移動しない。また、肝臓の左葉を切除する場合、肝臓の右葉は手術中には移動しない。このため、本実施形態においては、入力部16により鉗子30のエッジ上の位置O1あるいは肝臓の右葉の位置O2等、手術中に移動しない不変位置の指定を受け付け、不変位置をストレージ13に保存しておく。
続いて、第1の位置合せ部24は、第1の位置合せ終了の指示がなされたか否かを判断する(ステップST6)。なお、ステップST6の処理は第2の位置合せ部25が行うようにしてもよい。ステップST6が否定されるとステップST5に戻り、引き続き第1の位置合せの指示が受け付けられる。ステップST6が肯定されると、表示制御部26が、境界画像B0に代えて、シミュレーション画像S0を術中映像L0に重畳表示し(ステップST7)、第2の位置合せ部25が初期位置合せである第1の位置合せの結果に基づいて、第2の位置合せを行う(ステップST8)。
第1の位置合せ後、医師は手術を進める。手術中、医師はタブレット端末を被検体7の上方に保持しておくことはできないため、タブレット端末による対象部位の撮影は一時的に中断され、その後、病変の位置の確認等、必要な時にタブレット端末を用いての対象部位の撮影が行われる。この際、タブレット端末の位置は第1の位置合せを行った位置から移動され、対象部位の撮影が再度行われることとなる。このような状況においては、カメラ14は、初期術中画像T1とは位置がずれるため、ディスプレイ15に表示される術中映像L0は、図10に示すように、初期術中画像T1に対して位置がずれることとなる。第2の位置合せ部25は、術中映像L0に含まれる、手術中における不変位置に基づいて、初期術中画像T1と術中映像L0に含まれる新たに取得された術中画像T0との相対的な位置の相違を表す位置情報を取得する。
まず、第2の位置合せ部25は、位置情報を取得するために、不変位置を基準として、術中画像T0と初期術中画像T1とのテンプレートマッチングを行う。なお、テンプレートマッチングの手法としては、図9に示すように不変位置O1,O2を中心とした領域A1,A2を初期術中画像T1に設定し、領域A1、A2と術中画像T0との対応関係に基づいて、術中画像T0の初期術中画像T1に対する平行移動成分、回転成分および拡大率の少なくとも1つを位置情報として算出する手法を用いることができる。なお、回転とは、上記z軸の周り(すなわちxy平面における)2次元的な回転を意味する。
ここで、位置情報は、現在表示されている術中画像T0の初期術中画像T1に対する相対的な位置の相違を表すものである。このため、位置情報は、現在のカメラ14の位置と、第1の位置合せ時のカメラ14の位置との相対的な位置の相違に相当するものとなる。
第2の位置合せ部25は、位置情報を用いて初期術中画像T1と術中画像T0とを位置合せし、この位置合せの結果を用いて第2の位置合せを行う。すなわち、位置合せされた術中画像T0にシミュレーション画像S0を重畳表示する。この際、シミュレーション画像S0は、位置情報に基づいて、平行移動、回転および/または拡大縮小される。これにより、図11に示すように、シミュレーション画像S0は、初期術中画像T1と位置合せした位置と同様の位置において、術中映像L0に重畳表示されることとなる。
次いで、表示制御部26が、医師によるシミュレーション画像S0または境界画像B0の表示の指示がなされたか否かを判定する(ステップST9)。ステップST9が否定されるとステップST8に戻り、引き続き第2の位置合せが行われる。ステップST9が肯定されると、表示制御部26は、術中映像L0に重畳されて現在表示されている画像に代えて、指示された画像を表示し(ステップST10)、ステップST8に戻る。第2の位置合せ部25は引き続き第2の位置合せを行う。ここで、術中映像L0に重畳されてシミュレーション画像S0が表示されていた場合には、表示制御部26は境界画像B0を表示する。また、術中映像L0に重畳されて境界画像B0が表示されていた場合には、表示制御部26はシミュレーション画像S0を表示する。
このように、本実施形態においては、少なくとも第1の位置合せの指示が行われている間、シミュレーション画像S0に代えて境界画像B0を表示するようにしたものである。このため、境界画像B0を用いて対象物である肝臓との第1の位置合せを行うことにより、シミュレーション画像S0に邪魔されることなく、対象物と境界画像B0とを容易に第1の位置合せすることができる。
また、第2の位置合せの際に、境界画像B0の表示の指示によりシミュレーション画像S0に代えて境界画像G0を表示することにより、シミュレーション画像S0に邪魔されることなく、肝臓とシミュレーション画像S0とが位置合せされているかを容易に確認することができる。また、境界画像B0を表示することにより、シミュレーション画像S0に邪魔されることなく肝臓の状態を核にすることができる。
なお、上記実施形態においては、第1の位置合せの指示があった場合に境界画像B0を術中映像L0に重畳表示しているが、第1の位置合せの指示の前から、境界画像B0を術中映像L0に重畳表示してもよい。
また、上記実施形態においては、第1の位置合せの指示があった場合に境界画像B0を術中映像L0に重畳表示しているが、第1の位置合せの指示、すなわち境界画像B0を平行移動、回転および拡大縮小等すべく、医師が入力部16による操作を行っている間にのみ、境界画像B0を術中映像L0に重畳表示し、操作を中断している間は、境界画像B0に代えてシミュレーション画像S0を術中映像L0重畳表示してもよい。
また、上記実施形態においては、第1の位置合せの終了指示があると、シミュレーション画像S0を術中映像L0に重畳表示しているが、引き続き境界画像B0を術中映像L0に重畳表示してもよい。
また、上記実施形態においては、第1の位置合せ時において、境界画像B0を術中映像L0に重畳表示しているが、シミュレーション画像S0を術中映像L0に重畳表示して、第1の位置合せを行うようにしてもよい。この場合、第2の位置合せ時において、シミュレーション画像S0または境界画像B0の表示の指示がなされた場合、シミュレーション画像S0に代えて境界画像B0を術中映像L0に重畳表示してもよい。
また、上記実施形態において、第2の位置合せが行われている間に、シミュレーション画像S0と肝臓との位置がずれてくる場合がある。このような場合、医師は改めて第1の位置合せの指示を入力部16から行えばよい。これにより、第1の位置合せ部24により、改めて第1の位置合せが行われることとなる。
また、上記実施形態においては、タブレット端末に術中映像L0およびシミュレーション画像S0または境界画像B0を重畳表示しているが、術中映像L0をヘッドマウントディスプレイに表示する際の第1の位置合せ時においても、シミュレーション画像S0に代えて境界画像B0を術中映像L0に重畳表示してもよい。また、術中映像L0を、手術台の上部に設置されたカメラにより撮影し、撮影により取得した画像を手術室内あるいは手術室外のディスプレイに表示する際の第1の位置合せを行う場合にも、シミュレーション画像S0に代えて境界画像B0を術中映像L0に重畳表示してもよい。この場合、本実施形態による画像位置合せ装置1はコンピュータにインストールされ、コンピュータにおいて術中映像L0と境界画像B0との初期記位置合せが行われ、その後の第2の位置合せにおいて、コンピュータに接続されたヘッドマウントディスプレイまたはコンピュータのディスプレイに、術中映像L0とシミュレーション画像S0とが重畳表示される。
また、上記実施形態においては、シミュレーション画像S0として、3次元画像V0から抽出した肝臓の投影像を用いているが、肝臓の外形の情報が含まれていれば、これに限定されるものではなく、PET検査または核医学検査等により取得される機能3次元画像をシミュレーション画像として用いてもよい。また、シミュレーション画像S0に、切除位置を表す線、矢印等の記号、あるいは切除位置周囲の部位および組織名等の文字情報を加えてもよい。
また、上記実施形態においては、シミュレーション画像取得部22においてシミュレーション画像S0を生成しているが、画像位置合せ装置1とは別個に設けられたシミュレーション画像取得装置において、シミュレーション画像S0を生成するようにしてもよい。この場合、シミュレーション画像取得部22は、シミュレーション画像S0を生成する必要がなくなるため、装置の構成を簡易なものとすることができる。
また、上記実施形態においては、境界画像取得部23において境界画像B0を生成しているが、画像位置合せ装置1とは別個に設けられた境界画像取得装置において、境界画像B0を生成するようにしてもよい。この場合、境界画像取得部23は、境界画像B0を生成する必要がなくなるため、装置の構成を簡易なものとすることができる。
また、上記実施形態においては、シミュレーション画像S0から生成した境界画像B0を平行移動、回転移動、拡大縮小および向きを変更して第1の位置合せを行っているが、各種方向を向いた複数のシミュレーション画像から生成した複数の境界画像B0を用意しておき、第1の位置合せ時の術中映像L0に含まれる対象部位の向きに最も一致した向きの境界画像B0を選択して第1の位置合せを行うようにしてもよい。
また、上記実施形態においては、肝臓に含まれる肝動脈等を抽出してシミュレーション画像S0に含めるようにしているが、手術の対象部位である肝臓のみを抽出し、肝臓のみの3次元形状を表す画像をシミュレーション画像S0として用いるようにしてもよい。
また、上記実施形態においては、手術対象部位として肝臓を用いているが、これに限定されるものではなく、任意の部位を手術の対象とする場合における、術中映像L0と境界画像B0とを第1の位置合せする際に、本発明を適用することができる。
また、上記実施形態においては、人体における手術の対象となる部位を対象物としているが、人体以外を被写体とする映像に含まれる対象物と対象物のシミュレーション画像S0との位置合せを行う際に、シミュレーション画像S0に代えてシミュレーション画像S0から生成した対象物の境界画像B0を用いるようにしてもよい。
以下、本発明の実施形態の効果について説明する。
破線からなる境界画像または透明画像からなる境界画像を生成することにより、対象物と境界画像との境界が見やすくなるため、第1の位置合せをさらに容易に行うことができる。
1 画像位置合せ装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 カメラ
15 ディスプレイ
16 入力部
17 モーションセンサ
21 画像取得部
22 シミュレーション画像取得部
23 境界画像取得部
24 第1の位置合せ部
25 第2の位置合せ部
26 表示制御部

Claims (13)

  1. 撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得する画像取得手段と、
    前記対象物に関連するシミュレーション画像を取得するシミュレーション画像取得手段と、
    前記シミュレーション画像の境界を表す境界画像を取得する境界画像取得手段と、
    前記映像および前記シミュレーション画像を表示手段に表示する表示制御手段と、
    第1の位置合せの指示により、前記映像に含まれる前記対象物と前記シミュレーション画像との第1の位置合せを行う第1の位置合せ手段とを備え、
    前記表示制御手段は、少なくとも前記第1の位置合せの指示が行われている間、前記シミュレーション画像に代えて、前記境界画像を前記表示手段に表示することを特徴とする画像位置合せ装置。
  2. 前記第1の位置合せの結果に基づいて、前記映像に含まれる前記対象物と前記シミュレーション画像との第2の位置合せを行う第2の位置合せ手段をさらに備え、
    前記表示制御手段は、前記第2の位置合せが行われた前記映像に含まれる前記対象物と前記シミュレーション画像とを前記表示手段に重畳表示する請求項1記載の画像位置合せ装置。
  3. 前記表示制御手段は、前記第2の位置合せ時に、前記境界画像の表示の指示により、前記シミュレーション画像に代えて前記境界画像を前記表示手段に表示する請求項2記載の画像位置合せ装置。
  4. 撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得する画像取得手段と、
    前記対象物に関連するシミュレーション画像を取得するシミュレーション画像取得手段と、
    前記シミュレーション画像の境界を表す境界画像を取得する境界画像取得手段と、
    前記映像および前記シミュレーション画像を表示手段に表示する表示制御手段と、
    第1の位置合せの指示により、前記映像に含まれる前記対象物と前記シミュレーション画像との第1の位置合せを行う第1の位置合せ手段と、
    前記第1の位置合せの結果に基づいて、前記映像に含まれる前記対象物と前記シミュレーション画像との第2の位置合せを行う第2の位置合せ手段とを備え、
    前記表示制御手段は、前記第2の位置合せが行われた前記映像に含まれる前記対象物と前記シミュレーション画像とを前記表示手段に重畳表示し、前記境界画像の表示の指示により、前記シミュレーション画像に代えて、前記境界画像を前記表示手段に表示することを特徴とする画像位置合せ装置。
  5. 前記境界画像取得手段は、前記シミュレーション画像の境界を抽出して前記境界画像を生成する請求項1から4のいずれか1項記載の画像位置合せ装置。
  6. 前記境界画像は破線からなる請求項1から5のいずれか1項記載の画像位置合せ装置。
  7. 前記境界画像は透明画像からなる請求項1から6のいずれか1項記載の画像位置合せ装置。
  8. 前記対象物が少なくとも1つの構造物を含む場合、前記シミュレーション画像は、前記対象物および前記少なくとも1つの構造物の3次元形状を表す画像である請求項1から7のいずれか1項記載の画像位置合せ装置。
  9. 前記境界画像は、前記対象物の境界および前記少なくとも1つの構造物の3次元形状を表す画像である請求項8記載の画像位置合せ装置。
  10. 画像取得手段が、撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得し、
    シミュレーション画像取得手段が、前記対象物に関連するシミュレーション画像を取得し、
    境界画像取得手段が、前記シミュレーション画像の境界を表す境界画像を取得し、
    表示制御手段が、前記映像および前記シミュレーション画像を表示手段に表示し、
    第1の位置合せ手段が、第1の位置合せの指示により、前記映像に含まれる前記対象物と前記シミュレーション画像との第1の位置合せを行い、
    前記表示制御手段が、少なくとも前記第1の位置合せの指示が行われている間、前記シミュレーション画像に代えて、前記境界画像を前記表示手段に表示することを特徴とする画像位置合せ装置の作動方法。
  11. 画像取得手段が、撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得し、
    シミュレーション画像取得手段が、前記対象物に関連するシミュレーション画像を取得し、
    境界画像取得手段が、前記シミュレーション画像の境界を表す境界画像を取得し、
    表示制御手段が、前記映像および前記シミュレーション画像を表示手段に表示し、
    第1の位置合せ手段が、第1の位置合せの指示により、前記映像に含まれる前記対象物と前記シミュレーション画像との第1の位置合せを行い、
    第2の位置合せ手段が、前記第1の位置合せの結果に基づいて、前記映像に含まれる前記対象物と前記シミュレーション画像との第2の位置合せを行い、
    前記表示制御手段が、前記第2の位置合せが行われた前記映像に含まれる前記対象物と前記シミュレーション画像とを前記表示手段に重畳表示し、前記境界画像の表示の指示により、前記シミュレーション画像に代えて、前記境界画像を前記表示手段に表示することを特徴とする画像位置合せ装置の作動方法。
  12. 撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得する手順と、
    前記対象物に関連するシミュレーション画像を取得する手順と、
    前記シミュレーション画像の境界を表す境界画像を取得する手順と、
    前記映像および前記シミュレーション画像を表示手段に表示する手順と、
    第1の位置合せの指示により、前記映像に含まれる前記対象物と前記シミュレーション画像との第1の位置合せを行う手順と、
    少なくとも前記第1の位置合せの指示が行われている間、前記シミュレーション画像に代えて、前記境界画像を前記表示手段に表示する手順とをコンピュータに実行させることを特徴とする画像位置合せプログラム。
  13. 撮影の対象物を含む、撮影時刻が異なる2以上の画像からなる映像を取得する手順と、
    前記対象物に関連するシミュレーション画像を取得する手順と、
    前記シミュレーション画像の境界を表す境界画像を取得する手順と、
    前記映像および前記シミュレーション画像を表示手段に表示する手順と、
    第1の位置合せの指示により、前記映像に含まれる前記対象物と前記シミュレーション画像との第1の位置合せを行う手順と、
    前記第1の位置合せの結果に基づいて、前記映像に含まれる前記対象物と前記シミュレーション画像との第2の位置合せを行う手順と、
    前記第2の位置合せが行われた前記映像に含まれる前記対象物と前記シミュレーション画像とを前記表示手段に重畳表示し、前記境界画像の表示の指示により、前記シミュレーション画像に代えて、前記境界画像を前記表示手段に表示する手順とをコンピュータに実行させることを特徴とする画像位置合せプログラム。
JP2015190659A 2015-09-29 2015-09-29 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム Active JP6392192B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015190659A JP6392192B2 (ja) 2015-09-29 2015-09-29 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム
US15/259,753 US10631948B2 (en) 2015-09-29 2016-09-08 Image alignment device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015190659A JP6392192B2 (ja) 2015-09-29 2015-09-29 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017063908A JP2017063908A (ja) 2017-04-06
JP6392192B2 true JP6392192B2 (ja) 2018-09-19

Family

ID=58409594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015190659A Active JP6392192B2 (ja) 2015-09-29 2015-09-29 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム

Country Status (2)

Country Link
US (1) US10631948B2 (ja)
JP (1) JP6392192B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL245339A (en) * 2016-04-21 2017-10-31 Rani Ben Yishai Method and system for verification of registration
JP6433632B1 (ja) * 2017-05-19 2018-12-05 株式会社オプティム コンピュータシステム、被験者診断支援方法及びプログラム
EP4280991A1 (en) * 2021-01-19 2023-11-29 Covidien LP System and method for transparent overlay in surgical robotic system

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US7693563B2 (en) * 2003-01-30 2010-04-06 Chase Medical, LLP Method for image processing and contour assessment of the heart
JP2008520312A (ja) * 2004-11-23 2008-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターベンション手順の間の画像表示用の画像処理システム及び方法
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
US7855723B2 (en) 2006-03-21 2010-12-21 Biosense Webster, Inc. Image registration using locally-weighted fitting
DE502006002892D1 (de) * 2006-08-14 2009-04-02 Brainlab Ag Registrierung von MR-Daten anhand generischer Modelle
US7889912B2 (en) 2006-09-15 2011-02-15 The General Electric Company Method for real-time tracking of cardiac structures in 3D echocardiography
US8788012B2 (en) * 2006-11-21 2014-07-22 General Electric Company Methods and apparatus for automatically registering lesions between examinations
DE102007001684B4 (de) * 2007-01-11 2023-01-26 Sicat Gmbh & Co. Kg Bildregistrierung
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US20090012390A1 (en) * 2007-07-02 2009-01-08 General Electric Company System and method to improve illustration of an object with respect to an imaged subject
DE102009006147A1 (de) * 2008-12-23 2010-06-24 Siemens Aktiengesellschaft Modellgenerator für kardiologische Erkrankungen
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
WO2010099360A1 (en) 2009-02-25 2010-09-02 Mohamed Rashwan Mahfouz Customized orthopaedic implants and related methods
JP2010200894A (ja) 2009-03-02 2010-09-16 Tadashi Ukimura 手術支援システム及び手術ロボットシステム
JP5476036B2 (ja) 2009-04-30 2014-04-23 国立大学法人大阪大学 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
WO2012037181A1 (en) * 2010-09-17 2012-03-22 Siemens Corporation Magnetic resonance elastography for ultrasound image simulation
US20120253170A1 (en) 2011-03-29 2012-10-04 Samsung Electronics Co., Ltd. Method and apparatus for generating medical image of body organ by using 3-d model
CA2862369A1 (en) * 2011-12-30 2013-07-04 Philip D. GOLE Image-overlay medical evaluation devices and techniques
JP2013202313A (ja) 2012-03-29 2013-10-07 Panasonic Corp 手術支援装置および手術支援プログラム
DE102012220115A1 (de) * 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
US9129422B2 (en) * 2013-02-25 2015-09-08 Siemens Aktiengesellschaft Combined surface reconstruction and registration for laparoscopic surgery
JP6145870B2 (ja) * 2013-05-24 2017-06-14 富士フイルム株式会社 画像表示装置および方法、並びにプログラム
CN111481292A (zh) * 2014-01-06 2020-08-04 博迪维仁医疗有限公司 手术装置及其使用方法
US9848799B2 (en) * 2014-06-25 2017-12-26 Biosense Webster (Israel) Ltd Real-time generation of MRI slices
US9547940B1 (en) * 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
US10667796B2 (en) * 2014-09-22 2020-06-02 General Electric Company Method and system for registering a medical image with a graphical model
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging

Also Published As

Publication number Publication date
JP2017063908A (ja) 2017-04-06
US10631948B2 (en) 2020-04-28
US20170091554A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6463038B2 (ja) 画像位置合せ装置、方法およびプログラム
US10154823B2 (en) Guiding system for positioning a patient for medical imaging
EP2637593B1 (en) Visualization of anatomical data by augmented reality
US8611988B2 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US7774044B2 (en) System and method for augmented reality navigation in a medical intervention procedure
CN111568548B (zh) 基于混合实境的手术导航图像成像方法
WO2016182550A1 (en) Method and system for registration of 2d/2.5d laparoscopic and endoscopic image data to 3d volumetric image data
JP2010274044A (ja) 手術支援装置、手術支援方法及び手術支援プログラム
JP6806655B2 (ja) 放射線撮像装置、画像データ処理装置及び画像処理プログラム
Liu et al. Global and local panoramic views for gastroscopy: an assisted method of gastroscopic lesion surveillance
US20230114385A1 (en) Mri-based augmented reality assisted real-time surgery simulation and navigation
JP2007151965A (ja) 医用画像処理装置、医用画像処理プログラム、及び医用画像処理方法
JP6493877B2 (ja) 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
WO2014050019A1 (ja) 仮想内視鏡画像生成装置および方法並びにプログラム
JP6392192B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム
JP6461024B2 (ja) 画像位置合せ装置、方法およびプログラム
US20220218435A1 (en) Systems and methods for integrating imagery captured by different imaging modalities into composite imagery of a surgical space
JP2019126654A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6392190B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム
US20230277035A1 (en) Anatomical scene visualization systems and methods
JP2005046394A (ja) 医用画像表示装置
JP7469961B2 (ja) 画像処理装置及び画像処理用コンピュータプログラム
Lin et al. Augmented‐reality‐based surgical navigation for endoscope retrograde cholangiopancreatography: A phantom study

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180822

R150 Certificate of patent or registration of utility model

Ref document number: 6392192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250