JP6342128B2 - 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 - Google Patents

画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 Download PDF

Info

Publication number
JP6342128B2
JP6342128B2 JP2013173883A JP2013173883A JP6342128B2 JP 6342128 B2 JP6342128 B2 JP 6342128B2 JP 2013173883 A JP2013173883 A JP 2013173883A JP 2013173883 A JP2013173883 A JP 2013173883A JP 6342128 B2 JP6342128 B2 JP 6342128B2
Authority
JP
Japan
Prior art keywords
image
region
unit
area
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013173883A
Other languages
English (en)
Other versions
JP2015041370A (ja
Inventor
由紀 岩中
由紀 岩中
三田 雄志
雄志 三田
快行 爰島
快行 爰島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2013173883A priority Critical patent/JP6342128B2/ja
Priority to PCT/JP2014/072025 priority patent/WO2015025955A1/ja
Publication of JP2015041370A publication Critical patent/JP2015041370A/ja
Priority to US14/948,588 priority patent/US10304187B2/en
Application granted granted Critical
Publication of JP6342128B2 publication Critical patent/JP6342128B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/485Diagnostic techniques involving fluorescence X-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/30Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from X-rays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/32Transforming X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、画像処理装置、方法、及びプログラム、並びに、立体画像表示装置に関する。
従来、複数の異なる位置に設けられた撮像装置を用いて同一の対象物を撮影し、取得した複数の画像に基づいて各々の画像における対象物の対応点を探索する手法(ステレオマッチング)が提案されている。基準となる一の撮像装置により撮影された画像を基準画像、その他の撮像装置で撮影された画像を参照画像と称すると、ステレオマッチングは、基準画像の注目領域(少なくとも1つの画素を含む領域)に対応する参照画像の領域を探索することを意味する。
一般的なステレオマッチングでは、画像特徴の類似度と視差の連続性を画像全体で最適化して注目領域に対応する参照画像の領域を探索する。すなわち、参照画像において注目領域と画像特徴が似ている領域を候補領域として探索し(類似度の最適化)、候補領域のうち、基準画像における注目領域と隣接する画素(隣接画素)との視差が連続になるような候補領域を、注目領域に対応する領域として選択する(連続性の最適化)。画像特徴としては、一般的に画素値、SSD(Some Of Square Distance)、SAD(Some Of Absolute Distance)などが用いられる。
従来技術として、基準画像における1つの画素(注目画素)に対して複数の対応点が探索された場合、注目画素とそれぞれの対応点に基づく距離値(注目距離値)を算出し、注目距離値と注目画素の周囲にある複数画素の距離値(隣接距離値)の差が最小となる対応点を選択する方法が知られている(従来技術1)。また、対象物の境界をまたいで視差の連続性が評価されないように、エッジ強度が高い領域では視差の連続性を評価しない方法が知られている(従来技術2)。さらに、画像のセグメンテーションにより対象物の領域を検出し、その検出領域内で対応点探索を行なう方法も考えられる(従来技術3)。
特開2009−205193号公報
Jaesik Park, Hyeongwoo Kim, Yu-Wing Tai, Michael S. Brown and Inso Kweon:"High Quality Depth Map Upsampling for 3D TOF Cameras", Computer Vision(ICCV), 2011 IEEE International Conference, page.1623-1630, 2011.
しかしながら、上記従来技術1および2は、画像全体で対応点位置を最適化する方法であるため、画像中の対象物の領域(対象物領域)が小さい場合には、対象物領域よりも大きな面積を占める背景領域に生じた誤差(ノイズ等による誤差)の影響を受け易い。これにより、対象物領域の対応点位置が正しく求められない場合がある。
また、上記従来技術3のようにセグメンテーションにより対象物領域を検出する方法では、基準画像と参照画像の両方で対象物領域を高精度に抽出することが難しいため、対応点位置が正しく求められない場合がある。
本発明が解決しようとする課題は、一の視差画像の対象物領域に対応する他の視差画像の領域を高精度に探索可能な画像処理装置、方法、及びプログラム、並びに、立体画像表示装置を提供することである。
実施形態の画像処理装置は、第1取得部と第1算出部と第2算出部と選択部とを備える。第1取得部は、第1撮影方向で対象物を撮影した第1画像、および、第1撮影方向とは異なる第2撮影方向で対象物を撮影した第2画像を取得する。第1算出部は、画像の特徴を表す特徴情報に基づいて、第1画像および第2画像の各々に含まれる複数の画素ごとに、当該画素が対象物の領域に含まれるかどうかの尤度を算出する。第2算出部は、尤度に基づいて、第1画像における注目領域と、第2画像のうち注目領域に対応する対応領域の候補である候補領域と、の類似の程度を算出する。選択部は、類似の程度に基づいて、対応領域となる候補領域を選択する。
実施形態のX線診断装置の構成例を示す図。 実施形態の第1撮影位置及び第2撮影位置を説明するための図。 実施形態の基準画像の一例を示す図。 実施形態の参照画像の一例を示す図。 実施形態の画像処理部の構成例を示す図。 実施形態の第1算出部の詳細な構成の一例を示す図。 実施形態の画素値と尤度との関係の一例を示す図。 実施形態の第2算出部の詳細な構成の一例を示す図。 実施形態の注目領域と候補領域との関係を示す図。 実施形態の非類似度に関する重みを説明するための図。 実施形態の非連続性に関する重みを説明するための図。 実施形態のレンダリング血管画像の一例を示す図。 実施形態の第1合成画像の一例を示す図。 実施形態の画像処理部の動作例を示すフローチャート。 変形例の第2算出部の詳細な構成の一例を示す図。
以下、添付図面を参照しながら、本発明に係る画像処理装置、方法、及びプログラム、並びに、立体画像表示装置の実施形態を詳細に説明する。以下の実施形態では、冠動脈など血管のX線撮影を行うX線診断装置に本発明を適用した場合について説明するが、これに限られるものではない。
図1は、本実施形態に係るX線診断装置100の構成の一例を示す図である。図1の示すように、本実施形態に係るX線診断装置100は、高電圧発生器11と、X線管12と、X線絞り装置13と、天板14と、Cアーム15と、X線検出器16とを備える。また、X線診断装置100は、Cアーム回転・移動機構17と、天板移動機構18と、Cアーム・天板機構制御部19と、絞り制御部20と、システム制御部21と、入力部22と、表示部23とを備える。また、X線診断装置100は、画像データ生成部24と、記憶部25と、マスク画像生成部26と、差分画像生成部27と、画像処理部28とを備える。また、X線診断装置100は、インジェクター30をさらに備える。
インジェクター30は、被検体Pに挿入されたカテーテル(血管に挿入される器具の一例)から造影剤を注入するための装置である。ここで、インジェクター30からの造影剤注入は、後述するシステム制御部21を介して受信した注入指示に従って実行される。具体的には、インジェクター30は、後述するシステム制御部21から受信する造影剤の注入開始指示や、注入停止指示、さらに、注入速度などを含む造影剤注入条件に応じた造影剤注入を実行する。なお、インジェクター30は、操作者が直接インジェクター30に対して入力した注入指示に従って注入開始や、注入停止を実行することも可能である。
高電圧発生器11は、システム制御部21による制御の下、高電圧を発生し、発生した高電圧をX線管12に供給する。X線管12は、高電圧発生器11から供給される高電圧を用いて、X線を発生する。
X線絞り装置13は、絞り制御部20による制御の下、X線管12が発生したX線を、被検体Pの関心領域に対して選択的に照射されるように絞り込む。例えば、X線絞り装置13は、スライド可能な4枚の絞り羽根を有する。X線絞り装置13は、絞り制御部20による制御の下、これらの絞り羽根をスライドさせることで、X線管12が発生したX線を絞り込んで被検体Pに照射させる。なお、X線管12と、X線絞り装置13とをまとめてX線管装置とも呼ぶ。天板14は、被検体Pを載せるベッドであり、図示しない寝台の上に配置される。なお、被検体Pは、X線診断装置100に含まれない。
X線検出器16は、被検体Pを透過したX線を検出する。例えば、X線検出器16は、マトリックス状に配列された検出素子を有する。各検出素子は、被検体Pを透過したX線を電気信号に変換して蓄積し、蓄積した電気信号に基づいて生成した投影データを画像データ生成部24に送信する。例えばX線検出器16は、蓄積した電気信号に対して、電流・電圧変換やA(Analog)/D(Digital)変換、パラレル・シリアル変換を行い、投影データを生成する。
ここでは、X線管12、X線絞り装置13、および、X線検出器16は、被検体Pに対するX線透視によって投影データを生成する「X線透視撮影部」に対応していると考えることもできる。
Cアーム15は、X線管12、X線絞り装置13及びX線検出器16を保持する。X線管12及びX線絞り装置13とX線検出器16とは、Cアーム15により被検体Pを挟んで対向するように配置される。
Cアーム回転・移動機構17は、Cアーム15を回転及び移動させるための機構であり、天板移動機構18は、天板14を移動させるための機構である。Cアーム・天板機構制御部19は、システム制御部21による制御の下、Cアーム回転・移動機構17及び天板移動機構18を制御することで、Cアーム15の回転や移動、天板14の移動を調整する。絞り制御部20は、システム制御部21による制御の下、X線絞り装置13が有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。
ここで、Cアーム・天板機構制御部19は、システム制御部21による制御の下、Cアーム回転・移動機構17を駆動して撮像系(X線管12、X線絞り装置13、X線検出器16)が装着されたCアーム15を所定の角度範囲内で往復スライド移動させることにより、両眼立体視に好適な2つの撮影位置(第1撮影位置、第2撮影位置)を設定することができる。
図2(a)は、上端部近傍にX線検出器16が取り付けられる一方、下端部近傍にX線管12およびX線絞り装置13(以下、「X線発生器」と称する場合がある)が取り付けられたCアーム15の往復スライド移動の方向(矢印)を示したものであり、図2(b)は、このとき設定される両眼立体視に好適な第1撮影位置Ra(以下の説明では「第1視点」と称する場合がある)および第2撮影位置Rb(以下の説明では「第2視点」と称する場合がある)を示している。以下の説明では、第1撮影位置Raの撮影方向を「第1撮影方向」と称し、第2撮影位置Rbの撮影方向を「第2撮影方向」と称する場合がある。
すなわち、Cアーム・天板機構制御部19が、システム制御部21による制御の下、Cアーム回転・移動機構17を駆動して、Δθの角度範囲内におけるCアーム15の往復スライド運動を高速で行うことにより、X線発生器およびX線検出器16(撮像系)は被検体Pの周囲でCアーム15と共に高速往復移動し、例えば、所定の撮影間隔Δdだけ離れた高速往復の折り返し点において第1撮影位置Ra(第1視点)および第2撮影位置Rb(第2視点)が設定される。なお、第1視点および第2視点の設定はこれに限られるものではない。
図1に戻って説明を続ける。画像データ生成部24は、X線検出器16から供給される投影データに基づいて画像データを生成する。本実施形態における画像データ生成部24は、第1視点(第1撮影位置Ra)におけるX線透視時(第1撮影方向のX線透視時)にX線検出器16から供給される投影データに基づいて、第1視点に対応する画像データ(以下、「第1の画像データ」と称する場合がある)を生成し、生成した第1の画像データを、後述の記憶部25が有する画像データ保存部51に格納する。また、画像データ生成部24は、第2視点(第2撮影位置Rb)におけるX線透視時(第2撮影方向のX線透視時)にX線検出器16から供給される投影データに基づいて、第2視点に対応する画像データ(以下、「第2の画像データ」と称する場合がある)を生成し、生成した第2の画像データを、後述の記憶部25が有する画像データ保存部52に格納する。
記憶部25は、各種のデータを記憶する。本発明に関するものとしては、記憶部25は、3次元ボリュームデータ保存部40、画像データ保存部51および52を有する。
3次元ボリュームデータ保存部40は、例えば心臓の冠動脈にガイドワイヤやカテーテルなどの器具を挿入して、冠動脈の狭くなった部分、または、つまっている部分を広げるPCI治療の前(術前)に、予め生成された3次元血管画像(血管のボリュームデータ)を記憶する。例えばX線診断装置100は、DA(Digital Angiography)撮影やDSA(Digital Subtraction Angiography)撮影などによって、3次元血管画像を再構成するための複数の2次元投影データを収集し、収集した2次元投影データを再構成して3次元血管画像を生成することもできる。そして、生成した3次元血管画像を3次元ボリュームデータ保存部40に格納することもできる。なお、これに限らず、例えば外部装置(例えばX線CT装置)から取得した3次元血管画像を3次元ボリュームデータ保存部40に格納する形態であってもよい。
なお、DA(Digital Angiography)撮影とは、X線検出器が検出したX線の情報に基づいて、造影剤により血管および臓器が強調された血管造影画像をデジタル処理により生成する撮影方法を指す。また、DSA(Digital Subtraction Angiography)撮影とは、X線検出器が造影剤注入前に検出したX線の情報および造影剤注入後に検出したX線の情報に基づいて、造影剤注入前後それぞれの画像を作成し、造影剤注入後の血管造影画像からの注入前の画像を差し引くことで、造影剤がいきわたった対象物(この例では血管)のみの画像をデジタル処理により生成する撮影方法を指す。
画像データ保存部51は、画像データ生成部24によって生成された第1の画像データを記憶する。この画像データ保存部51には、第1の画像データが一定の時間間隔で収集されて、時系列に保存されることとする。
画像データ保存部52は、画像データ生成部24によって生成された第2の画像データを記憶する。この画像データ保存部52には、第2の画像データが一定の時間間隔で収集されて、時系列に保存されることとする。
マスク画像生成部26は、画像データ保存部51に格納された第1の画像データを元に、PCI治療前における第1の画像データ(カテーテルなどの器具が被検体Pに挿入される前の状態における第1の画像データ)を、第1視点に対応するマスク画像として生成する。また、マスク画像生成部26は、画像データ保存部52に格納された第2の画像データを元に、PCI治療前における第2の画像データを、第2視点に対応するマスク画像として生成する。
差分画像生成部27は、PCI治療時に、マスク画像生成部26により生成された第1視点に対応するマスク画像と、画像データ保存部51に格納された最新の第1の画像データとをサブストラクションすることにより、図3のようにカテーテルなどの器具(対象物)のみが映り込んだ第1視点に対応する画像(以下の説明では、「基準画像」と称する場合がある)を生成する。この基準画像は、第1撮影方向で対象物を撮影した画像であると捉えることができ、請求項の「第1画像」に対応している。本実施形態における基準画像は、対象物が血管に挿入されていない状態の被検体Pに対する第1撮影方向のX線透視により生成された投影データに基づく画像と、対象物が血管に挿入された状態の被検体Pに対する第1撮影方向のX線透視により生成された投影データに基づく画像との差分画像であると考えることができる。
また、差分画像生成部27は、マスク画像生成部26により生成された第2視点に対応するマスク画像と、画像データ保存部52に格納された最新の第2の画像データとをサブストラクションすることにより、図4のようにカテーテルなどの器具のみが映り込んだ第2視点に対応する画像(以下の説明では、「参照画像」と称する場合がある)を生成する。この参照画像は、第2撮影方向で対象物を撮影した画像であると捉えることができ、請求項の「第2画像」に対応している。本実施形態における参照画像は、対象物が血管に挿入されていない状態の被検体Pに対する第2撮影方向のX線透視により生成された投影データに基づく画像と、対象物が血管に挿入された状態の被検体Pに対する第2撮影方向のX線透視により生成された投影データに基づく画像との差分画像であると考えることができる。以上のようにして差分画像生成部27によって生成された基準画像および参照画像は、後述の画像処理部28に供給される。
画像処理部28は、差分画像生成部27から供給された画像に基づく画像処理を行う。例えば、画像処理部28は、基準画像の注目領域(少なくとも1つの画素を含む領域)に対応する参照画像の領域(対応領域)を探索し、その探索結果を利用して、新たな視点(以下の説明では、「中間視点」と称する場合がある)に対応する差分画像(この例ではカテーテルなどの器具のみが映り込んだ画像、以下の説明では「中間画像」と称する場合がある)を生成することもできる。画像処理部28の詳細な内容については後述する。
入力部22は、X線診断装置100を操作する医師や技師などの操作者から各種指示を受け付ける。例えば、入力部22は、マウス、キーボード、ボタン、トラックボール、ジョイスティックなどを有する。入力部22は、操作者から受け付けた指示を、システム制御部21に転送する。例えば、入力部22は、X線画像における任意の領域を指定するための指定指示を受け付ける。
表示部23は、操作者の指示を受け付けるためのGUI(Graphical User Interface)や、画像処理部28により生成された画像などを表示する。例えば、表示部23は、モニタを有する。なお、表示部23は、複数のモニタを有してもよい。
システム制御部21は、操作者の操作に基づいてX線診断装置100全体を制御する装置である。
次に、本実施形態に係る画像処理部28について説明する。本実施形態に係る画像処理部28は、上述の基準画像および参照画像において、基準画像の注目領域に対応する参照画像の領域(対応領域)を探索する装置である。注目領域とは、少なくとも1つの画素を含む領域である。
まず、エネルギー最小化による一般的な対応点探索について説明する。対応点探索の方針としては、注目領域と画像特徴が類似しており、かつ注目領域の視差と注目領域に隣接する領域(隣接領域)の視差が近くなるような領域を対応点位置として求める。すなわち、画像特徴が類似している領域を候補領域とし、候補領域のうち、注目領域の視差と隣接領域の視差とが滑らかになるような候補領域を、対応点位置(対応領域)として選択する。一般的な対応点探索手法としては注目領域と候補領域との類似の程度と、注目領域の視差と隣接領域の視差との連続の程度との加算によるエネルギーを定義し、画像全体でこのエネルギーが最小となるように各注目領域の対応点位置を探索する。類似の程度とは画像特徴の差で定義され、画像特徴としては画素値などが用いられる。以下の説明では、この類似の程度を「非類似度」と称して説明するが、例えば「類似度」と称しても構わない。また、注目領域の位置とその対応点位置との差は視差と呼ばれ、視差の連続の程度は、注目領域の視差とその隣接領域の視差との差で定義される。以下の説明では、この連続の程度を「非連続性」と称して説明するが、例えば「連続性」と称しても構わない。したがって、エネルギーEは、以下の式1のように定義される。
Figure 0006342128
上記式1において、pは基準画像における注目領域、p’は、参照画像のうち注目領域に対応する領域(対応領域)の候補を示す候補領域、Pは、基準画像中の注目領域の全体集合、N(p)は注目領域に隣接する領域の全体集合、T(p)は注目領域の画素値、T(p’)は候補領域の画素値、D(p)は注目領域の視差、D(q)は注目領域に隣接する領域の視差をそれぞれ示している。上記式1の右辺における第1項は、各注目領域に対応する非類似度の総和(第1コスト)、第2項は、各注目領域に対応する非連続性の総和(第2コスト)を表す。
上記式1によって表されるエネルギー関数では、各注目領域の非類似度と非連続性がすべて等しく評価されている。よって、画像に含まれる対象物の領域(以下の説明では、「対象物領域」と称する場合がある)が小さい場合には、対象物領域よりも大きな面積を示す背景領域に生じた誤差の影響を受けやすく、対象物領域の対応点位置が正確に求まらない場合がある。そこで、本実施形態に係る画像処理部28では、第1コストと第2コストの計算において、後述の尤度に基づく重み付けを行うことで、対象物領域に含まれる可能性が高い注目領域に対応する非類似度と非連続性の影響度(エネルギー関数に対する影響度)を高めて、対象物領域が小さい場合でも対応点探索を高精度に行うことを実現している。以下、具体的な内容を説明する。
図5は、本実施形態に係る画像処理部28の構成の一例を示すブロック図である。図5に示すように、画像処理部28は、第1取得部101と、第1算出部102と、第2算出部103と、選択部104と、第3算出部105と、設定部106と、第1生成部107と、第2取得部108と、第2生成部109と、合成部110と、表示制御部111とを備える。
第1取得部101は、差分画像生成部27により生成された基準画像と参照画像とを取得する。また、第1取得部101は、後述のエピポーラ線を特定するための情報(例えば上述の第1視点(第1撮影位置Ra)や第2視点(第2撮影位置Rb)を示す情報)を、例えばシステム制御部21から取得することもできる。
第1算出部102は、画像の特徴を表す特徴情報に基づいて、基準画像および参照画像の各々に含まれる複数の画素ごとに、当該画素が対象物領域に含まれるかどうかの尤度(当該画素が対象物領域に含まれる可能性の度合い)を算出する。そして、第1算出部102は、すべての画素の尤度を特定した尤度マップを作成する。より具体的には以下のとおりである。
図6は、第1算出部102の詳細な構成の一例を示す図である。図6に示すように、第1算出部102は、尤度算出部201と記憶部202とを有する。尤度算出部201は、基準画像および参照画像の各々に含まれる複数の画素ごとに、当該画素の画素値(請求項の「特徴情報」の一例)に基づいて、当該画素の尤度を算出する。
記憶部202は、画素値に対する尤度を予め記憶している。この例では、尤度は、0から1の範囲の連続的な値であり、対象物領域に含まれる確率が高い画素値に対して大きな値の尤度が設定される。
図7は、画素値と尤度との関係の一例を説明するための図である。図7(a)は、画素値の頻度を示す図である。実線401は、対象物領域に含まれる画素の画素値の頻度を示し、破線402は、背景領域に含まれる画素の画素値の頻度を示す。図7(b)は、画素値と尤度との関係を示す尤度関数403の一例を示す図であり、対象物領域の画素値の頻度が最大となる画素値(peak)以上で尤度が1になるように設定されている。また、対象物領域の画素値分布の標準偏差をσとすると、peak−3σ以下となる画素値では尤度が0になるように設定され、peak−3σとpeakの間の画素値に対する尤度は、以下の式2に示すpeak−3σとpeakとを結ぶ1次関数により求めることができる。
Figure 0006342128
この例では、記憶部202には、上記尤度関数403が予め記憶されており、第1算出部102は、上記尤度関数403に基づいて、基準画像および参照画像の各々に含まれる複数の画素ごとに、当該画素の画素値に対応する尤度を求める。このようにして、第1算出部102は、基準画像および参照画像の各々に含まれる各画素の尤度を算出し、基準画像を構成する複数の画素の各々の尤度を特定可能な基準画像の尤度マップと、参照画像を構成する複数の画素の各々の尤度を特定可能な参照画像の尤度マップとを作成する。
なお、以上においては、尤度算出部201は、画素値に基づいて尤度を算出すると述べたが、これに限らず、例えば階調値や輝度値などの画像の特徴を表す特徴情報に基づいて尤度を算出してもよい。また、本実施形態のように、カテーテルやガイドワイヤなどの血管に挿入される器具が対象物である場合は、画像中の血管が含まれる領域が対象物領域である可能性が高いと考えることができるので、例えば画像中の各画素が属するオブジェクトを特定する情報(例えば血管情報など)に基づいて尤度を算出することもできる。この場合、血管情報などの情報が請求項の「特徴情報」に対応すると捉えることができる。また、例えば「人物」が対象物である場合は、画像に含まれる顔特徴情報(例えば顔に含まれる眼や鼻などの各特徴点を示す情報、顔の輪郭を示す情報、肌色を示す情報など)などに基づいて尤度を算出することもできる。この場合、例えば顔特徴情報が請求項の「特徴情報」に対応すると捉えることができる。さらに、例えば画像のうち、ユーザが対象物領域として指定した領域を示すユーザ情報に基づいて尤度を算出することもできる。この場合、上記ユーザ情報が請求項の「特徴情報」に対応すると捉えることができる。
図5に戻って説明を続ける。第2算出部103に対しては、第1取得部101より基準画像と参照画像が入力され、第1算出部102より上述の尤度マップが入力される。また、この例では、第2算出部103に対しては、第1取得部101より後述のエピポーラ線を特定するための情報(例えば第1視点や第2視点を示す情報)も入力される。第2算出部103は、基準画像と参照画像の尤度に基づいて、基準画像における注目領域と、参照画像のうち、注目領域に対応する領域を示す対応領域の候補である候補領域との非類似度を算出する。より具体的には、第2算出部103は、注目領域と候補領域との画素値の差分に対して、基準画像と参照画像の尤度に基づく重み付けを行って注目領域と候補領域との非類似度を算出する。以下、詳細な内容について説明する。
図8は、第2算出部103の詳細な構成の一例を示す図である。図8に示すように、第2算出部103は、第1指定部301と、第2指定部302と、第1コスト算出部303と、第2コスト算出部304と、記憶部305と、第3コスト算出部306とを備える。
第1指定部301は、第1取得部101より入力された基準画像において、少なくとも1つの画素からなる注目領域を指定(設定)する。より具体的には、第1指定部301は、基準画像に含まれる複数の注目領域を指定する。この例では、基準画像を構成する複数の画素の各々が注目領域に相当し、第1指定部301は、基準画像を構成する複数の画素の各々を、注目領域として順番に(例えば左上の画素からラスタースキャンの順番に)指定する。
第2指定部302は、参照画像のうち、基準画像における注目領域の位置に基づいて決まるエピポーラ線上に存在する複数の領域を、当該注目領域に対応する複数の前記候補領域として指定する。より具体的には、上記エピポーラ線は、第1視点と第2視点との位置関係、および、基準画像における注目領域の位置に基づいて決定される。以上のようにして、第2指定部302は、第1指定部301により指定された注目領域ごとに、当該注目領域に対応する複数の候補領域を指定する。以下、一の注目領域に対応する複数の候補領域の求め方について具体的に説明する。
図9は、注目領域と候補領域の関係を示した図である。第1指定部301により画素pが注目領域として指定されると、画素pに対応する候補領域p’は破線501に示すようなエピポーラ線上に求まる。このエピポーラ線501は、第1視点と第2視点との位置関係、および、画素pの位置に基づいて算出される。図9の例では、第2指定部302は、エピポーラ線501上のすべての画素を、画素pに対応する候補領域として指定することもできる。
図8に戻って説明を続ける。第1コスト算出部303に対しては、第1算出部102より基準画像と参照画像の尤度マップが入力され、第2指定部302より注目領域と候補領域が入力される。第1コスト算出部303は、注目領域と候補領域との画素値の差分に対して、尤度に基づく重み付けを行って非類似度(類似度であると捉えてもよい)を算出し、各注目領域に対応する非類似度の総和を示す第1コストを算出する。第1コストは、例えば以下の式3により算出することができる。ここでは、注目領域と候補領域との組み合わせに応じた数の第1コストが算出されることになる。
Figure 0006342128
上記式3において、pは注目領域、p’は候補領域、T(p)は注目領域の画素値、T(p’)は候補領域の画素値、αpp’は非類似度に関する重みをそれぞれ示す。ここで、例えば対象物領域に含まれる確率が高い(尤度が高い)注目領域に関しては、当該注目領域と候補領域との画素値の差分に乗算する重みαpp’の値を大きくすることで、当該注目領域に対応する非類似度を後述のエネルギー(第3コスト)へ大きく反映させることもできる。つまり、第1コスト算出部303(第2算出部103)は、注目領域が対象物領域に含まれる確率が高いほど、上記画素値の差分に乗算される重みが大きくなるように重み付けを行う(重みαpp’を設定する)こともできる。この場合、重みαpp’は、例えば以下の式4により算出することもできる。
Figure 0006342128
上記式4において、L(p)は注目領域の尤度を示す。上記式4で表される重みαpp’は、注目領域が対象物領域に含まれる確率が高い(尤度が高い)場合に大きな値を示す。つまり、注目領域が対象領域に含まれる確率が高い場合は、候補領域の尤度に関わらず、重みαpp’は大きくなる。一方、注目領域が背景領域に含まれる確率が高い場合(注目領域が対象領域に含まれる確率が低い場合)は、候補領域の尤度に関わらず、重みαpp’は小さくなる。
しかしながら、例えば画像に発生したノイズによって、対象物領域に含まれる確率が高い注目領域と、対応領域とすべき候補領域(対象物領域に含まれる確率が高く、かつ、当該注目領域の画素値に近い画素値を有する候補領域)との画素値が大きく異なる場合もあり得る。このような場合、当該注目領域と、対応領域とすべき候補領域との非類似度が大きくなるために、当該候補領域では後述のエネルギー(第3コスト)を最小にしない場合が発生する。これにより、対応領域とすべき候補領域の代わりに、背景領域に含まれる確率が高く、かつ、当該注目領域の画素値に近い画素値を有する候補領域が、対応領域として選ばれてしまうおそれがある。
そこで、本実施形態では、注目領域および候補領域の各々が対象物領域に含まれる確率が高い場合には、重みαpp’の値を小さく設定することで、上記問題を解決している。つまり、第1コスト算出部303(第2算出部103)は、注目領域および候補領域の各々が対象物領域に含まれる確率が高いほど、上記画素値の差分に乗算される重みが小さくなるように重み付けを行う(重みαpp’を設定する)こともできる。本実施形態における重みαpp’は、例えば以下の式5により算出することもできる。なお、これに限らず、例えば上記式4で表される重みαpp’を採用して第1コストを算出することもできる。
Figure 0006342128
上記式5において、L(p’)は候補領域の尤度を示す。図10は、上記式5により表される重みαpp’を説明するための図である。図10において、p,pはそれぞれ注目領域を示し、p’,p’はそれぞれ候補領域を示す。破線601は、pの位置に基づいて決まるエピポーラ線を表し、破線602は、pの位置に基づいて決まるエピポーラ線を表している。図10の例では、注目領域pは対象物領域に含まれるので、候補領域が対象領域に含まれる場合に重みαpp’は小さくなる。一方、注目領域pは背景領域に含まれるので、候補領域が対象物領域に含まれる場合であっても、背景領域に含まれる場合であっても、重みαpp’は小さくなる。
以上のように、対象物領域に含まれる確率が高い注目領域の非類似度を、優先的に後述のエネルギー(第3コスト)に加味させることによって、対象物領域の対応点探索を高精度に行うことができる。前述したように、尤度は、0から1の連続的な値であるため、上述の重みαpp’も0から1の連続的な値となる。ここでは、非類似度とは、注目領域の画素値と、当該注目領域に対応する複数の候補領域のうちの何れか1つの候補領域の画素値との差分に対して、上述の重みαpp’を乗算した結果であると定義される。そして、注目領域に対応する複数の候補領域のうち、当該注目領域との画素値差が同じであっても重みαpp’が大きくなる候補領域ほど、非類似度は大きくなる。
図8に戻って説明を続ける。第2コスト算出部304に対しては、第1指定部301より注目領域、第1算出部102より基準画像の尤度マップ、記憶部305より隣接領域(基準画像のうち注目領域に隣接する領域)の視差が入力される。ここで、記憶部305は、隣接領域の視差を予め保持しており、注目領域の位置に応じて隣接領域の視差を出力する。
第2コスト算出部304は、注目領域と隣接領域との視差の差分に対して、尤度に基づく重み付けを行って視差の非連続性(連続性であると捉えてもよい)を算出し、各注目領域に対応する視差の非連続性の総和を示す第2コストを算出する。第2コストは、例えば以下の式6により算出することができる。ここでは、注目領域と候補領域との組み合わせに応じた数の第2コストが算出されることになる。
Figure 0006342128
上記式6において、pは注目領域、qは隣接領域、Pは基準画像中の注目領域の全体集合、N(p)は隣接領域の全体集合、D(p)は注目領域の視差、D(q)は隣接領域の視差、βpqは非連続性に関する重みをそれぞれ示す。本実施形態では、注目領域および隣接領域の各々が共に対象物領域に含まれる確率が高い場合に、当該注目領域の視差と隣接領域の視差との差分に対して乗算する重みβpqの値を大きくする。これにより、対象物領域の視差の非連続性を後述のエネルギー(第3コスト)へ大きく反映させることができる。つまり、第2コスト算出部304(第2算出部103)は、注目領域および隣接領域の各々が対象物領域に含まれる確率が高いほど、上記視差の差分に乗算される重みが大きくなるように重み付けを行う(重みβpqを設定する)こともできる。本実施形態におけるβpqは、例えば以下の式7により算出することもできる。
Figure 0006342128
上記式7において、L(p)は注目領域の尤度、L(q)は隣接領域の尤度をそれぞれ示す。上記式7からも理解されるように、非連続性に関する重みβpqは、注目領域および隣接領域の各々が共に対象物領域に含まれる確率が高い場合に大きな値を示す。
図11は、非連続性に関する重みβpqを説明するための図である。図11において、pは注目領域、qは隣接領域をそれぞれ示す。図11の例では、注目領域pは対象物領域に含まれ、かつ、注目領域pの上下に隣接する画素は、対象物領域に含まれる隣接領域なので、重みβpqは大きくなる一方、その他の隣接領域では重みβpqは小さくなる。
以上のように、対象物領域の視差の非連続性を、優先的に後述のエネルギー(第3コスト)に加味させることによって、対象物領域の対応点探索を高精度に行うことができる。前述したように、尤度は、0から1の連続的な値であるため、上述のβpqも0から1の連続的な値となる。ここでは、視差の非連続性とは、注目領域の視差と、当該注目領域に隣接する複数の領域(隣接領域)の各々の視差との差分ごとに、対応する重みβpqとの乗算結果を求め、その乗算結果を合計したものであると定義することができる。そして、注目領域が対象物領域に含まれ、かつ、対象物領域に含まれる隣接領域の視差との差が大きいほど上述の第2コストは大きくなる。
図8に戻って説明を続ける。第3コスト算出部306に対しては、第1コスト算出部303より第1コスト、第2コスト算出部304より第2コストが入力される。第3コスト算出部306は、第1コストと第2コストに基づいて第3コストを算出する。本実施形態における第3コストは、第1コストと第2コストとの重み付き加算により求められ、例えば以下の式8により算出することもできる。
Figure 0006342128
上記式8において、ωは第1コストの重みを示しており、ωを大きく設定すると第3コストにおける第1コストの割合が大きくなる。例えば、背景領域の画素値と対象物領域の画素値との差が大きい場合には、ωを小さく設定することで、第1コストと第2コストとの割合を均等に評価することができる。
以上のように、第2算出部103は、各々の注目領域に対応する非類似度の総和を示す第1コストと、各々の注目領域に対応する視差の非連続性の総和を示す第2コストとに基づく第3コスト(エネルギー)を算出する。ここでは、注目領域と候補領域との組み合わせに応じた数の第3コストが算出されることになる。
図5に戻って説明を続ける。選択部104は、上述の第3コスト(エネルギー)が最小になるように、複数の注目領域ごとに一の候補領域を選択する。このとき、注目領域ごとに選択された候補領域が当該注目領域の対応領域として決定される。本実施形態における選択部104は、第2算出部103により最小の第3コストが算出されたときの各注目領域に対応する候補領域を、当該注目領域の対応領域として選択する。
第3算出部105は、注目領域の位置と対応領域の位置との差に基づいて、注目領域の3次元位置(空間位置)を算出する。一般的なテレビジョンによって、視点の異なる画像から3次元情報を復元することができる。
設定部106は、所望の視点位置(第1視点および第2視点とは異なる視点、以下の説明では「中間視点」と称する場合がある)の撮影情報を取得する。ここでの撮影情報とは、上述のX線透視撮影部の撮影角度(アーム角)などを含み、例えば設定部106は、システム制御部21から、中間視点に対応する撮影情報を取得することもできる。そして、設定部106は、上述のX線透視撮影部の撮影角度を少なくとも含むパラメータを設定する。所望の視点位置の数(中間視点の数)は任意に変更可能であり、例えば1つでもよいし、複数でもよい。例えば複数の中間視点を設定する場合においては、設定部106は、中間視点ごとに、当該中間視点に対応する撮影情報を取得してパラメータを設定することになる。以下の説明では、中間視点の撮影方向を、「中間撮影方向」と称する場合がある。
第1生成部107は、第3算出部105で求めた注目領域の空間位置と、設定部106で設定したパラメータとに基づいて、全ての注目領域に関して、中間視点から観察した画像(中間視点に対応する画像)における画像座標を算出し、中間視点に対応する画像(以下の説明では、「中間画像」と称する場合がある)を生成する。本実施形態における第1生成部107は、ガイドワイヤやカテーテルなどの器具(対象物の一例)のみが映り込んだ中間画像を生成することになる。この中間画像は、中間撮影方向で対象物を撮影した画像であると捉えることができ、請求項の「中間画像」に対応している。
第2取得部108は、上述の3次元ボリュームデータ保存部40に格納された3次元血管画像を取得する。
第2生成部109に対しては、第2取得部108より3次元血管画像が入力され、第1取得部101より第1視点および第2視点を示す情報が入力され、設定部106より中間視点を示す情報が入力される。第2生成部109は、上述の第1視点(第1撮影方向)、第2視点(第2撮影方向)、および、中間視点(中間撮影方向)の各々から、3次元血管画像をレンダリング(ボリュームレンダリング)して、第1視点(第1撮影方向)に対応する第1レンダリング血管画像、第2視点(第2撮影方向)に対応する第2レンダリング血管画像、および、中間視点(中間撮影方向)に対応する第3レンダリング血管画像を生成する。なお、ボリュームデータ(この例では3次元血管画像)をレンダリングする際には、公知の様々なボリュームレンダリング技術を利用することができる。図12は、第1視点に対応する第1レンダリング血管画像の一例を示す模式図である。
合成部110は、上述の基準画像と、第2生成部109により生成された第1レンダリング血管画像とを合成して第1合成画像を生成する。図13は、第1合成画像の一例を示す模式図である。同様に、合成部110は、上述の参照画像と、第2生成部109により生成された第2レンダリング血管画像とを合成して第2合成画像を生成する。さらに、合成部110は、上述の中間画像と、第2生成部109により生成された第3レンダリング血管画像とを合成して第3合成画像を生成する。
表示制御部111は、第1合成画像と第2合成画像と第3合成画像とを含む立体画像を表示部23に表示する制御を行う。ここでは、「立体画像」とは、互いに視差を有する複数の視差画像を含む画像であり、視差とは、異なる方向から見ることによる見え方の差をいう。
なお、本実施形態の画像処理部28は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した画像処理部28の各部の機能(第1取得部101、第1算出部102、第2算出部103、選択部104、第3算出部105、設定部106、第1生成部107、第2取得部108、第2生成部109、合成部110、および、表示制御部111)は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、上述の各部の機能のうちの少なくとも一部を専用のハードウェア回路(例えば半導体集積回路等)で実現することもできる。
図14は、本実施形態の画像処理部28の動作例を示すフローチャートである。図14に示すように、まず第1取得部101は、差分画像生成部27から基準画像および参照画像を取得する(ステップS101)。次に、第1算出部102は、基準画像および参照画像の各々に含まれる複数の画素ごとに、当該画素の画素値に基づいて尤度を算出し(ステップS102)、上述の尤度マップを作成する。次に、第2算出部103は、ステップS101で取得した基準画像および参照画像と、ステップS102で作成した尤度マップとに基づいて、上述の第3コスト(エネルギー)を算出する(ステップS103)。次に、選択部104は、第3コストが最小になるように、複数の注目領域の各々に対応する候補領域を選択し、各注目領域の対応領域を決定する(ステップS104)。
次に、第3算出部105は、注目領域の位置と対応領域の位置との差に基づいて、注目領域の3次元位置(空間位置)を算出する(ステップS105)。次に、設定部106は、所望の視点位置(中間視点)のパラメータ(少なくとも撮影角度を含む)を設定する(ステップS106)。次に、第1生成部107は、ステップS105で求めた注目領域の空間位置と、ステップS106で設定したパラメータとに基づいて、中間画像を生成する(ステップS107)。次に、第2生成部109は、各視点(上述の第1視点、第2視点、および、中間視点)から、3次元血管画像をレンダリングして、各視点に対応するレンダリング血管画像(この例では、第1レンダリング血管画像、第2レンダリング血管画像、および、第3レンダリング血管画像)を生成する(ステップS108)。次に、合成部110は、合成処理を行う(ステップS109)。前述したように、本実施形態における合成部110は、上述の基準画像と、第1レンダリング血管画像とを合成して第1合成画像を生成する。また、合成部110は、上述の参照画像と、第2レンダリング血管画像とを合成して第2合成画像を生成する。さらに、合成部110は、上述の中間画像と、第3レンダリング血管画像とを合成して第3合成画像を生成する。
次に、表示制御部111は、ステップS109の合成処理で得られた合成画像(視差画像)を含む立体画像を表示部23に表示する制御を行う(ステップS110)。
以上に説明したように、本実施形態では、対象物領域に含まれる確率が高い注目領域の非類似度を優先的に上述の第3コストに反映させるとともに、対象物領域の視差の非連続性を優先的に上述の第3コストに反映させることによって、対象物領域の対応点探索を高精度に行うことができる。そして、対象物領域の対応点が精度良く求まることにより、他の視点(第1視点および第2視点とは異なる所望の視点)に対応する対象物の視差画像を精度良く作ることができる。したがって、例えばPCI治療時にカテーテルなどの器具を対象物として立体視したい場合において、本実施形態の構成は格別に有効である。
なお、本実施形態の構成は、例えば心臓の冠動脈にガイドワイヤやカテーテルなどの器具を挿入して、冠動脈の狭くなった部分、または、つまっている部分を広げるPCI治療時にカテーテルなどの器具を対象物として立体視する場合の他、例えば脳などの動かない臓器の血管にガイドワイヤやカテーテルなどの器具を挿入して、血管の狭くなった部分、または、つまっている部分を広げるPCI治療時にカテーテルなどの器具を対象物として立体視する場合においても適用可能である。また、本実施形態の構成は、例えば収集角度の違う複数の血管造影像から3次元血管像を再構成し、これに基づき血管計測結果(例えば血管長、血管径、血管狭窄率、分岐角度)を提供するCV−3D(TM)に対しても適用可能である。
以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
(変形例)
以下、変形例を記載する。以下の変形例同士は任意に組み合わせることが可能である。
(1)変形例1
例えば上述の第3コストの算出において、視差の非連続性が考慮されない形態であってもよい。例えば図15に示すように、第2算出部801は、第1指定部301と、第2指定部302と、第1コスト算出部303と、第3コスト算出部802とを備え、上述の第2コスト算出部304および記憶部305を含まない形態であってもよい。第3コスト算出部802に対しては、第1コスト算出部303より第1コストが入力され、第3コスト算出部802は、第1コストに基づいて第3コストを算出する。例えば第3コスト算出部802は、入力された第1コストを、第3コストとして算出することもできる。
(2)変形例2
上述の実施形態では、本発明が適用される立体画像表示装置として、3Dロードマップ画像を表示する機能を有するX線診断装置を例に挙げて説明したが、本発明が適用される立体画像表示装置はこれに限られるものではない。
例えば画像中に含まれた特定の色(例えば青色等)の部分を、他の画像に置換するクロマキー技術を利用する立体画像表示装置に対して本発明を適用することもできる。例えば人物などの対象物を撮影する際に、青色の布などを用いた青い背景(ブルーバック)を用いて、複数の視点から撮影を行って得られた複数の画像のうちの何れかを上記基準画像とし、基準画像以外の他の画像を参照画像とすることもできる(さらに別の視点に対応する画像を用意することもできる)。この場合でも、上述の実施形態と同様に、対象物領域に含まれる確率が高い注目領域の非類似度を優先的に上述の第3コストに反映させるとともに、対象物領域の視差の非連続性を優先的に上述の第3コストに反映させることによって、対象物領域の対応点探索を高精度に行うことができる。そして、対象物領域の対応点が精度良く求まることにより、他の視点に対応する対象物(例えばブルーバックの手前に存在する人物等)の視差画像を精度良く作ることができる。これにより、この立体画像表示装置を観察する観察者は、背景以外の領域に存在する人物等の対象物の立体視を好適に行うことが可能になる。
(プログラム)
上述の画像処理部28で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の画像処理部28で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。さらに、上述の画像処理部28で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
28 画像処理部
100 X線診断装置
101 第1取得部
102 第1算出部
103 第2算出部
104 選択部
105 第3算出部
106 設定部
107 第1生成部
108 第2取得部
109 第2生成部
110 合成部
111 表示制御部
201 尤度算出部
202 記憶部
301 第1指定部
302 第2指定部
303 第1コスト算出部
304 第2コスト算出部
305 記憶部
306 第3コスト算出部

Claims (13)

  1. 第1撮影方向で対象物を撮影した第1画像、および、前記第1撮影方向とは異なる第2撮影方向で前記対象物を撮影した第2画像を取得する第1取得部と、
    画像の特徴を表す特徴情報に基づいて、前記第1画像および前記第2画像の各々に含まれる複数の画素ごとに、当該画素が前記対象物の領域に含まれるかどうかの尤度を算出する第1算出部と、
    前記尤度に基づいて、前記第1画像における注目領域と、前記第2画像のうち前記注目領域に対応する対応領域の候補である候補領域と、の類似の程度を算出する第2算出部と、
    前記類似の程度に基づいて、前記対応領域となる前記候補領域を選択する選択部と、を備える、
    画像処理装置。
  2. 前記第2算出部は、前記注目領域と前記候補領域との画素値の差分に対して、前記尤度に基づく重み付けを行って前記類似の程度を算出する、
    請求項1に記載の画像処理装置。
  3. 前記第1画像に含まれる複数の前記注目領域を指定する第1指定部と、
    前記第2画像のうち、前記第1画像における前記注目領域の位置に基づいて決まるエピポーラ線上に存在する複数の領域を、当該注目領域に対応する複数の前記候補領域として指定する第2指定部と、をさらに備え、
    前記第2算出部は、各々の前記注目領域に対応する前記類似の程度の総和を示す第1コストに基づく第3コストを算出し、
    前記選択部は、前記第3コストが最小となるように、複数の前記注目領域ごとに一の前記候補領域を選択する、
    請求項2に記載の画像処理装置。
  4. 前記第2算出部は、前記注目領域が前記対象物の領域に含まれる確率が高いほど、前記画素値の差分に乗算される重みが大きくなるように重み付けを行う、
    請求項2に記載の画像処理装置。
  5. 前記第2算出部は、前記注目領域および前記候補領域の各々が前記対象物の領域に含まれる確率が高いほど、前記画素値の差分に乗算される重みが小さくなるように重み付けを行う、
    請求項2に記載の画像処理装置。
  6. 前記第2算出部は、前記注目領域と、前記注目領域に隣接する領域を示す隣接領域との視差の差分に対して、前記尤度に基づく重み付けを行って視差の連続の程度を算出し、
    前記選択部は、前記類似の程度と前記連続の程度とに基づいて、前記対応領域となる前記候補領域を選択する、
    請求項1に記載の画像処理装置。
  7. 前記第1画像に含まれる複数の前記注目領域を指定する第1指定部と、
    前記第2画像のうち、前記第1画像における前記注目領域の位置に基づいて決まるエピポーラ線上に存在する複数の領域を、当該注目領域に対応する複数の前記候補領域として指定する第2指定部と、をさらに備え、
    前記第2算出部は、各々の前記注目領域に対応する前記類似の程度の総和を示す第1コストと、各々の前記注目領域に対応する前記連続の程度の総和を示す第2コストとに基づく第3コストを算出し、
    前記選択部は、前記第3コストが最小となるように、複数の前記注目領域ごとに一の前記候補領域を選択する、
    請求項6に記載の画像処理装置。
  8. 前記第2算出部は、前記注目領域および前記候補領域の各々が前記対象物の領域に含まれる確率が高いほど、前記視差の差分に乗算される重みが大きくなるように重み付けを行う、
    請求項6に記載の画像処理装置。
  9. 前記対象物は、血管に挿入する器具であり、
    前記第1画像は、前記対象物が血管に挿入されていない状態の被検体に対する前記第1撮影方向のX線透視により生成された投影データに基づく画像と、前記対象物が血管に挿入された状態の前記被検体に対する前記第1撮影方向のX線透視により生成された投影データに基づく画像との差分画像であり、
    前記第2画像は、前記対象物が血管に挿入されていない状態の前記被検体に対する前記第2撮影方向のX線透視により生成された投影データに基づく画像と、前記対象物が血管に挿入された状態の前記被検体に対する前記第2撮影方向のX線透視により生成された投影データに基づく画像との差分画像である、
    請求項1に記載の画像処理装置。
  10. 前記注目領域と前記対応領域との位置の差に基づいて、前記注目領域の3次元位置を算出する第3算出部と、
    前記被検体に対するX線透視によって投影データを生成するX線透視撮影部の少なくとも撮影角度を含むパラメータを設定する設定部と、
    前記3次元位置と前記パラメータとに基づいて、前記第1撮影方向および前記第2撮影方向とは異なる中間撮影方向に対応する前記差分画像を示す中間画像を生成する第1生成部と、
    前記対象物が血管に挿入されていない状態における血管のボリュームデータを示す3次元血管画像を取得する第2取得部と、
    前記第1撮影方向、前記第2撮影方向、前記中間撮影方向の各々から、前記3次元血管画像をレンダリングして、前記第1撮影方向に対応する第1レンダリング血管画像、前記第2撮影方向に対応する第2レンダリング血管画像、および、前記中間撮影方向に対応する第3レンダリング血管画像を生成する第2生成部と、
    前記第1画像と前記第1レンダリング血管画像とを合成した第1合成画像、前記第2画像と前記第2レンダリング血管画像とを合成した第2合成画像、および、前記中間画像と前記第3レンダリング血管画像とを合成した第3合成画像を生成する合成部と、
    前記第1合成画像と前記第2合成画像と前記第3合成画像とを含む立体画像を表示部に表示する制御を行う表示制御部と、を備える、
    請求項9に記載の画像処理装置。
  11. 像の特徴を表す特徴情報に基づいて、第1撮影方向において対象物が描出された第1画像および前記第1撮影方向とは異なる第2撮影方向において前記対象物が描出された第2画像の各々に含まれる複数の画素ごとに、当該画素が前記対象物の領域に含まれるかどうかの尤度を算出し、
    前記尤度に基づいて、前記第1画像における注目領域と、前記第2画像のうち前記注目領域に対応する対応領域の候補である候補領域と、の類似の程度を算出し、
    前記類似の程度に基づいて、前記対応領域となる前記候補領域を選択する、
    画像処理方法。
  12. コンピュータを、
    第1撮影方向で対象物を撮影した第1画像、および、前記第1撮影方向とは異なる第2撮影方向で前記対象物を撮影した第2画像を取得する取得手段と、
    画像の特徴を表す特徴情報に基づいて、前記第1画像および前記第2画像の各々に含まれる複数の画素ごとに、当該画素が前記対象物の領域に含まれるかどうかの尤度を算出する第1算出手段と、
    前記尤度に基づいて、前記第1画像における注目領域と、前記第2画像のうち前記注目領域に対応する対応領域の候補である候補領域と、の類似の程度を算出する第2算出手段と、
    前記類似の程度に基づいて、前記対応領域となる前記候補領域を選択する選択手段として機能させる、
    画像処理プログラム。
  13. 複数の視差画像を含む立体画像を表示する表示部と、
    第1撮影方向で対象物を撮影した第1画像、および、前記第1撮影方向とは異なる第2撮影方向で前記対象物を撮影した第2画像を取得する第1取得部と、
    画像の特徴を表す特徴情報に基づいて、前記第1画像および前記第2画像の各々に含まれる複数の画素ごとに、当該画素が前記対象物の領域に含まれるかどうかの尤度を算出する第1算出部と、
    前記尤度に基づいて、前記第1画像における注目領域と、前記第2画像のうち前記注目領域に対応する対応領域の候補である候補領域と、の類似の程度を算出する第2算出部と、
    前記類似の程度に基づいて、前記対応領域となる前記候補領域を選択する選択部と、
    前記注目領域と前記対応領域との位置の差に基づいて、前記注目領域の3次元位置を算出する第3算出部と、
    前記対象物を撮影する撮影部の少なくとも撮影角度を含むパラメータを設定する設定部と、
    前記3次元位置と前記パラメータとに基づいて、前記第1撮影方向および前記第2撮影方向とは異なる中間撮影方向で前記対象物を撮影した中間画像を生成する生成部と、
    前記第1画像と前記第2画像と前記中間画像とを含む前記立体画像を前記表示部に表示する制御を行う表示制御部と、を備える、
    立体画像表示装置。
JP2013173883A 2013-08-23 2013-08-23 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 Expired - Fee Related JP6342128B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013173883A JP6342128B2 (ja) 2013-08-23 2013-08-23 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
PCT/JP2014/072025 WO2015025955A1 (ja) 2013-08-23 2014-08-22 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US14/948,588 US10304187B2 (en) 2013-08-23 2015-11-23 Image processing apparatus and method, computer program product, and stereoscopic image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013173883A JP6342128B2 (ja) 2013-08-23 2013-08-23 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Publications (2)

Publication Number Publication Date
JP2015041370A JP2015041370A (ja) 2015-03-02
JP6342128B2 true JP6342128B2 (ja) 2018-06-13

Family

ID=52483725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013173883A Expired - Fee Related JP6342128B2 (ja) 2013-08-23 2013-08-23 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Country Status (3)

Country Link
US (1) US10304187B2 (ja)
JP (1) JP6342128B2 (ja)
WO (1) WO2015025955A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6342128B2 (ja) * 2013-08-23 2018-06-13 キヤノンメディカルシステムズ株式会社 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
KR20160089600A (ko) * 2015-01-19 2016-07-28 삼성디스플레이 주식회사 표시 장치
JP6877109B2 (ja) 2016-04-13 2021-05-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN107233106A (zh) * 2017-06-01 2017-10-10 上海交通大学 多角度造影下血管对应位置关系检索方法及系统
JP7098288B2 (ja) 2017-08-07 2022-07-11 キヤノン株式会社 放射線撮像システム
CN114140315A (zh) * 2021-11-01 2022-03-04 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质
CN116245835B (zh) * 2023-02-13 2023-12-01 数坤科技股份有限公司 图像检测方法、装置、电子设备和存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
JPH0810246A (ja) 1994-06-30 1996-01-16 Shimadzu Corp 回転型x線撮影装置
FR2751109B1 (fr) * 1996-07-09 1998-10-09 Ge Medical Syst Sa Procede de localisation d'un element d'interet contenu dans un objet tridimensionnel, en particulier lors d'un examen de stereotaxie en mammographie
JP4424797B2 (ja) * 1999-11-26 2010-03-03 富士通株式会社 立体形状検出方法
JP4314001B2 (ja) 2001-11-05 2009-08-12 株式会社日立メディコ 画像表示装置
FI116750B (fi) * 2002-08-28 2006-02-15 Instrumentarium Corp Lääketieteellisen röntgenkuvauksen menetelmä ja järjestely
WO2004114221A1 (en) 2003-06-24 2004-12-29 Philips Intellectual Property & Standards Gmbh Device to generate a three-dimensional image of a moved object
US7720282B2 (en) * 2005-08-02 2010-05-18 Microsoft Corporation Stereo image segmentation
JP4886716B2 (ja) 2008-02-26 2012-02-29 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5138431B2 (ja) 2008-03-17 2013-02-06 富士フイルム株式会社 画像解析装置および方法並びにプログラム
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
JP2011034178A (ja) * 2009-07-30 2011-02-17 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011090465A (ja) * 2009-10-21 2011-05-06 Fujitsu Ltd 物体位置推定装置および物体位置推定プログラム
JP5200042B2 (ja) 2010-02-26 2013-05-15 日本放送協会 視差推定装置およびそのプログラム
JP5526233B2 (ja) * 2010-06-28 2014-06-18 富士フイルム株式会社 立体視用画像撮影装置およびその制御方法
JP5561786B2 (ja) * 2011-03-30 2014-07-30 Kddi株式会社 3次元形状モデル高精度化方法およびプログラム
JP2012247364A (ja) 2011-05-30 2012-12-13 Panasonic Corp ステレオカメラ装置、ステレオカメラシステム、プログラム
JP2013012045A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置及びコンピュータプログラム
US8867825B2 (en) * 2011-08-30 2014-10-21 Thompson Licensing Method and apparatus for determining a similarity or dissimilarity measure
JP2013076621A (ja) * 2011-09-30 2013-04-25 Nippon Hoso Kyokai <Nhk> 距離指標情報推定装置及びそのプログラム
DE102011083876B4 (de) * 2011-09-30 2018-12-27 Siemens Healthcare Gmbh Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung und Röntgensystem
EP2791904A4 (en) * 2011-12-08 2015-08-05 Intel Corp TECHNIQUES FOR EFFICIENTLY CONNECTING STEREO BLOCKS FOR GESTURE RECOGNITION
JP6342128B2 (ja) * 2013-08-23 2018-06-13 キヤノンメディカルシステムズ株式会社 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US9392262B2 (en) * 2014-03-07 2016-07-12 Aquifi, Inc. System and method for 3D reconstruction using multiple multi-channel cameras

Also Published As

Publication number Publication date
US20160078620A1 (en) 2016-03-17
WO2015025955A1 (ja) 2015-02-26
JP2015041370A (ja) 2015-03-02
US10304187B2 (en) 2019-05-28

Similar Documents

Publication Publication Date Title
JP6342128B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP6534998B2 (ja) 医療画像を表示する方法及び装置
US9202301B2 (en) Medical image display apparatus and X-ray diagnosis apparatus
US10945708B2 (en) Method and apparatus for registration of medical images
JP6118325B2 (ja) 最適なトモグラフィスライスの自動選択を備えた対話式ライブセグメンテーション
JP5491914B2 (ja) 画像表示装置およびx線診断装置
JP7387270B2 (ja) 医用画像処理装置、学習方法、x線診断装置、医用画像処理方法、およびプログラム
JP2012205899A (ja) 3次元的モデルを利用した身体臓器の映像生成方法及び装置並びにコンピュータ読み取り可能な記録媒体
CN107787203B (zh) 图像配准
US10092264B2 (en) Image processing apparatus, image processing method, radiation imaging system, and non-transitory computer-readable storage medium
CN111657978A (zh) 解剖体表示与实况图像的配对
KR20140007772A (ko) 감산 혈관 조영의 획득을 위한 방법
JP2009106530A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像診断装置
US20180185000A1 (en) Image processing device, radiation imaging system, image processing method, and image processing program
JP4493436B2 (ja) 画像読影支援方法および装置ならびにプログラム
CN108430376B (zh) 提供投影数据集
JP7167564B2 (ja) X線撮影装置およびx線撮影装置の作動方法
JP6716197B2 (ja) 画像処理装置およびx線診断装置
US8103075B2 (en) Method for providing extended possibilities when imaging a patient&#39;s heart
JP6640550B2 (ja) X線診断装置
KR101876643B1 (ko) 2d 형광 투시 영상과 3d ct 영상 정합 기반의 치료 가이딩 시스템 및 방법
JP2009240723A (ja) 画像処理装置、画像処理方法及びx線診断装置
JP2012187342A (ja) 医用画像診断装置および医用画像処理装置
KR102534981B1 (ko) 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템
US20240164733A1 (en) Subtraction imaging

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160713

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180516

R150 Certificate of patent or registration of utility model

Ref document number: 6342128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees