JP7277131B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7277131B2
JP7277131B2 JP2018243767A JP2018243767A JP7277131B2 JP 7277131 B2 JP7277131 B2 JP 7277131B2 JP 2018243767 A JP2018243767 A JP 2018243767A JP 2018243767 A JP2018243767 A JP 2018243767A JP 7277131 B2 JP7277131 B2 JP 7277131B2
Authority
JP
Japan
Prior art keywords
image
distance
resolution
region
deformation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018243767A
Other languages
English (en)
Other versions
JP2020103464A (ja
Inventor
啓太 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018243767A priority Critical patent/JP7277131B2/ja
Priority to PCT/JP2019/049333 priority patent/WO2020137677A1/ja
Publication of JP2020103464A publication Critical patent/JP2020103464A/ja
Priority to US17/344,748 priority patent/US11880987B2/en
Application granted granted Critical
Publication of JP7277131B2 publication Critical patent/JP7277131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本明細書の開示は、画像処理装置、画像処理方法、及びプログラムに関する。
医用分野において、互いに異なる時刻に撮像された2つの原画像(以下、参照画像と比較画像)を比較する際に用いられる技術として、画像間の経時変化を差分で表す画像(以下、差分画像)を取得するサブトラクション技術が知られている。
サブトラクション技術において、撮像対象の経時変化を適切に捉える差分画像を生成するためには、その前処理として参照画像と比較画像の各画素を適切に対応付ける位置合わせ処理を正確に行う必要がある。
非特許文献1には、原画像と、画像中のある特定の領域の抽出処理を行った結果とを併せて位置合わせ処理に利用することで、処理精度を高める方法が開示されている。この技術では、前記抽出領域の輪郭からの距離を表す画像(以下、距離画像)を計算し、位置合わせ処理の中で原画像と距離画像の両方を同時に用いることで、位置合わせ精度を高めている。
Min Chen,et.al."Distance Transforms in Multi Channel MR Image Registration" Proc SPIE Int Soc Opt Eng. 2011 Mar 11:2011(7962):79621D.
しかしながら、非特許文献1に記載の技術では、位置合わせ処理の中で原画像と所定の部位を抽出した結果に基づく距離画像の2種類の画像を同時に用いているため、処理に係る計算コストが高くなってしまうという課題があった。
本明細書の開示は、異なる時点で撮像された2つの画像をより高い精度、且つより低い計算コストで位置合わせすることを目的とする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。
本明細書に開示の画像処理装置は、被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部と、前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第1の画像より解像度が低い第1の距離画像を生成し、前記第2の画像において抽出される前記所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第2の画像より解像度が低い第2の距離画像を生成する生成部と、前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出部と、前記第1の変形情報に基づいて前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出部と、を備えることを特徴とする。
本明細書の開示によれば、異なる時点で撮像された2つの画像をより高い精度、且つより低い計算コストで位置合わせができる。
第1の実施形態に係る画像処理装置の機能の構成を示す図である。 画像処理装置の処理手順の例を示すフローチャートである。 画像処理装置により生成される画像の一例を示す図である。
以下、図面を参照して、本明細書に開示の画像処理装置の実施形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本明細書に開示の画像処理装置の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。
<第1の実施形態>
第1の実施形態に係る画像処理装置は、コンピュータ断層撮影装置(以下、CT(Computed Tomography)装置と呼ぶ)などの種々の画像撮像装置(モダリティ)によって取得される複数の3次元画像の表示を行う装置である。本実施形態に係る画像処理装置は、異なる時点で撮像された2つの3次元画像間で対応する2次元断層画像や、2つの2次元断層画像から生成される差分画像を表示するために、画像間の対応位置を計算する位置合わせ機能を有している。さらに、本実施形態に係る画像処理装置は、対応位置を求める過程において、原画像と併せて、所定の解剖学的領域を抽出した結果から計算する距離画像を多重解像度位置合わせ処理の中で利用することを特徴とする。
本実施形態においては、CT装置で撮像された画像に含まれる骨部の位置合わせ処理を行う例について記載する。なお、その他のモダリティによって得られた画像、またはその他の解剖学的構造の位置合わせを行う場合にも、同様の処理を行うことで、本実施形態の効果を得られる。
以下、図1を用いて本実施形態の画像処理装置の構成及び処理を説明する。
図1は、本実施形態の画像処理装置を含む画像処理システム(医用画像処理システムともいう)の構成例を示すブロック図である。画像処理システムは、その機能的な構成として、画像処理装置10、ネットワーク21、及びデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能に接続されている。ネットワーク21は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)を含む。
データベース22は、被検体の画像や該画像に関連付けられた情報を保持し、管理する。画像処理装置10は、ネットワーク21を介してデータベース22で保持されている画像を取得することが可能である。画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、及び制御部37を備える。
通信IF31(通信部)は、LANカードなどにより構成され、外部装置(例えば、データベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムを記憶する。RAM33は、揮発性のメモリなどにより構成され、各種情報をデータとして一時的に記憶する。記憶部34は、HDD(Hard Disk Drive)などにより構成され、各種情報をデータとして記憶する。操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば、医師)からの指示を各種装置に入力する。
表示部36は、ディスプレイなどにより構成され、各種情報をユーザに表示する。制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を制御する。制御部37は、その機能的な構成として、取得部51、抽出部52、生成部53、変更部54、第1の算出部55、第2の算出部56、及び表示制御部57を備える。
取得部51は、位置合わせ処理対象となる参照画像と比較画像をデータベース22から取得する。すなわち、取得部51は、被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部の一例に相当する。なお、本実施形態では、参照画像に比べて過去に撮像した画像を比較画像とする。これらの画像は、各種モダリティにより取得された被検体の3次元の画像である。本実施形態では、この画像がCT画像である例を説明するが、他の種類の画像であってもよい。すなわち、参照画像と比較画像の2つの画像は、3次元の画像あるいは2次元の画像であれば画像の種類に依らず適用可能であって、比較を行う対象の画像であればいずれの画像であってもよい。すなわち、同一被検体を撮像したものであってもよいし、他人同士の画像、例えば、健常者と患者の画像などであってもよい。また、異なるモダリティの画像であってもよい。
抽出部52は、取得部51で取得した参照画像と比較画像の夫々に関して、当該画像から被検体の所定の部位を示す領域を抽出する。
生成部53は、参照画像と比較画像に関する抽出部52で抽出した被検体の所定の部位を示す領域の夫々について、抽出領域に基づく距離値を算出し、第1の距離画像と第2の距離画像を生成する。より具体的には、抽出部52で抽出した領域の情報を利用して、例えば抽出領域の輪郭からの距離値に基づいた画素値を2つの画像中の各画素において算出し、第1の距離画像と第2の距離画像を生成する。すなわち、生成部53は、第1の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第1の距離画像を第1の画像から生成する。また、第2の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第2の距離画像を第2の画像から生成する。
変更部54は、入力された画像を予め設定された解像度に変更する。本実施形態では、第1の距離画像と第2の距離画像に対して解像度を低下させる処理を行う。
第1の算出部55は、生成部53により生成された第1の距離画像と第2の距離画像、または変更部54により生成された画像に基づいて、参照画像と比較画像で対応する位置を示す情報として第1の画像変形情報を算出する。すなわち、第1の距離画像と第2の距離画像を位置合わせすることにより第1の変形情報を算出する。
第2の算出部56は、取得部51で取得した参照画像と比較画像と、第1の算出部55で算出した第1の画像変形情報に基づいて、参照画像と比較画像で対応する位置を示す情報として第2の画像変形情報を算出する。すなわち、第2の算出部56は、第1の変形情報に基づいて、第1の画像と第2の画像を位置合わせすることにより第2の変形情報を算出する。
すなわち、本実施形態における位置合わせ処理は、低解像度化された距離画像と原画像(参照画像と比較画像)に基づいて、多段階(多重解像度)で行う。本実施形態における位置合わせ処理の基本的な考え方は、Coarse-to-Fineと呼ばれる考え方に基づくものである。この考え方では、まず大まかな位置合わせ処理を行った後に、その結果を次の位置合わせ処理に利用し、詳細な位置合わせを行う。つまり、段階的に複数の位置合わせ処理を繋げる形を取ることによって、高精度な位置合わせを行う。
後述の図2のフローチャートに示すステップS105では、まず全体の大まかな位置合わせを行うために、低解像度の距離画像を用いて、1段階目の画像変形情報として第1の画像変形情報を計算する。そして、ステップS106では、2段階目の位置合わせ処理としてより詳細な位置合わせを行うために、1段階目の処理で用いた距離画像よりも高い解像度の参照画像と比較画像を用いて位置合わせ処理を行い、第2の画像変形情報を計算する。
表示制御部57は、第2の算出部56により算出した結果に基づいて、入力された画像のうち少なくとも2つ以上の画像を、対応位置の比較を容易に行えるような表示形態で、表示部36の画像表示領域内に表示させる。例えば、参照画像と比較画像に加え、第1の変形情報もしくは第2の変形情報に基づいて比較画像を変形させた変形画像と、参照画像と変形画像との差分を示す差分画像との少なくとも一方を表示部に表示させる。
上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33をワーク領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。
例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。
次に、図2を用いて、図1の画像処理装置10の処理の例について説明する。
図2は、画像処理装置10の処理手順の例を示すフローチャートである。本実施形態では骨部の解剖学的特徴に基づいて位置合わせする例を説明するが、本実施形態はその他の部位を設定する場合にも適用可能である。
(ステップS101:画像の取得/表示)
ステップS101において、ユーザが操作部35を介して画像の取得を指示すると、取得部51は、ユーザが指定した参照画像と比較画像をデータベース22から取得し、RAM33に格納する。すなわち、ステップS101は、被検体を異なる時刻に撮像した第1の画像と第2の画像を取得する画像取得工程の一例に相当する。またこのとき、表示制御部57は、データベース22から取得された画像を表示部36の画像表示領域内に表示させてもよい。
(ステップS102:各画像の解剖学的構造(骨部)領域の抽出)
ステップS102において、抽出部52は、取得部51で取得した参照画像と比較画像の夫々について、被検体の所定の部位を示す領域(解剖学的構造領域)を抽出する。本実施形態において、被検体の所定の部位を示す領域とは、位置合わせの対象である骨部の領域を表す。なお、骨部の領域は例えば、肋骨、胸骨または骨盤のように細分化して抽出してもよい。この場合、例えば特開2017-192691に記載の、画素値の連続性を表す特徴量を取得する方法を用いることで骨領域をさらに細分化して抽出することができる。また、被検体の所定の部位を示す領域は上記に限定されず、例えば肝臓、肺野または脳などの臓器でもよい。この領域抽出には、例えば、閾値処理やグラフカット等を利用した各種臓器領域抽出手法など、既知の手法を用いればよい。
例えば、CT画像から骨部の領域を抽出する場合には、非造影の検査画像であれば、画像上で骨領域の画素値がその他の領域の画素値よりも高いことを利用して、ある閾値(例えば150[H.U.])以上の画素値を抽出することで大まかに抽出できる。すなわち、所定の閾値以上の画素値を抽出することにより被検体の所定の部位を示す領域を抽出する。
その後、抽出領域の抜けを埋めるために、穴埋め処理やクロージング処理などのモルフォロジー演算を用いて図形整形を行っても良い。また、この抽出処理には、原画像の画素値のみならず、原画像から計算できる既知の特徴量の値を用いても良い。なお、位置合わせの対象となる領域データが予め用意されている場合には、ここで当該画像の読み込みを行ってもよい。また、上記の領域抽出後の処理は行われなくてもよい。
また、本実施形態において、抽出した領域に対応する画素(前景画素/図形画素)には画素値=255などの既定の画素値が格納されるものとし、抽出されなかった領域に対応する画素(背景画素)にも画素値=0などの規定の画素値が格納されるものとする。
つまり、本ステップS102で抽出したある被検体の所定の部位を示す領域を表す画像では、抽出領域内部、および、外部には、夫々一定の値が格納されるため、夫々の領域の画素値の分布は一様のものとなる。すなわち、抽出した領域内の画素と抽出した領域外の画素とに互いに異なる2値の画素値を格納することにより被検体の所定の部位を示す領域を抽出する。なお、抽出された領域内部と領域外部とで格納する所定の画素値は上記に限定されず、さらに、抽出された領域内部と領域外部の一部において所定の画素値とは異なる画素値が格納されてもよい。
領域抽出に関する画像処理が終わった後、抽出部52は、参照画像と比較画像の夫々の画像について、被検体の所定の部位を示す領域を抽出した結果と、図3(a)に示すような領域抽出の結果を反映させた画像をRAM33に格納する。
(ステップS103:距離画像の生成)
ステップS103において、生成部53は、参照画像と比較画像においてステップS102で抽出した領域の情報に基づいて、各画素で当該領域の輪郭からの距離値を計算する。そして算出された距離値に基づいて第1の距離画像と第2の距離画像を生成して、RAM33に格納する。すなわち、第1の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第1の距離画像を第1の画像から生成する。また、第2の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第2の距離画像を第2の画像から生成する。この計算は、参照画像と比較画像の夫々に対して抽出結果を反映させた画像に関して行うものとし、抽出領域に対する距離変換処理などの既知の手法を用いればよい。図3を用いて説明すると、図3(a)のように2値で領域抽出を行った画像に対して距離変換処理などを行い図3(b)のような距離画像を生成する。
なお、本実施形態では、抽出領域の輪郭からのユークリッド距離を画像の各画素で計算するものとするが、マンハッタン距離など、その他の距離指標を用いてもよい。また、図形画素の輪郭付近の値が高くなるように、輪郭からの距離値の逆数や、シグモイド変換などの既知の値変換を行ってもよい。さらに、距離値に対して正負の符号を与えて、抽出領域の内側(前景/図形、画素値=255の領域)と外側(背景、画素値=0の領域)を区別する符号付き距離を計算してもよく、符号なしの距離を用いても構わない。
上記のような処理を行うことにより生成される距離画像(図3(b))は、ステップS102で生成される領域抽出の結果を反映させた画像(図3(a))と比較して、抽出領域の内側(前景)と外側(背景)について、異なる濃度値を持つ特徴がある。
具体的には、図3(a)が2値画像であるのに対して、図3(b)は多値画像となる。例えば、図3(b)に示す距離画像は、抽出された領域内の画素において、抽出された領域の輪郭からのユークリッド距離が長くなるにつれて大きい画素値を有する。このとき、抽出された領域内の画素についてシグモイド変換などの既知の値変換を行うことにより、抽出された領域の輪郭からのユークリッド距離が所定値以上の画素がほぼ一律に同じ画素値になるように変換してもよい。
あるいは、距離画像は、抽出された領域内の画素において、抽出された領域の輪郭からのユークリッド距離の長さが第1の範囲に含まれる画素には第1の画素値を格納し、第1の範囲に含まれる画素よりもユークリッド距離が長い、第2の範囲に含まれる画素には前記第1の画素値よりも大きい第2の画素値を格納してもよい。
また、距離画像は、抽出された領域外の画素において、抽出された領域の輪郭からのユークリッド距離が長くなるにつれて小さい画素値を有する。このとき、抽出された領域外の画素についてシグモイド変換などの既知の値変換を行うことにより抽出された領域の輪郭からのユークリッド距離が所定値以上の画素がほぼ一律に同じ画素値になるように変換してもよい。
あるいは、抽出された領域外の少なくとも一部の画素において、抽出された領域の輪郭からのユークリッド距離の長さが第1の範囲に含まれる画素には第1の画素値を格納し、第1の範囲に含まれる画素よりもユークリッド距離が長い、第2の範囲に含まれる画素には第1の画素値よりも小さい第2の画素値を格納してもよい。なお、上記の濃度値の変換方法等は一例であってこれに限定されない。
上記に示すような濃淡表現によって、位置合わせ処理における位置ずれに対するキャプチャレンジが広がるという効果がある。すなわち、距離画像を位置合わせ処理に用いることで、より大きな位置ずれに対応できるため、初期の位置ずれが大きい場合にも位置合わせ精度の向上が期待できる。
なお、本実施形態においては、ステップS102で抽出した領域の輪郭からの距離値に基づいた距離画像を用いているが、当該領域の重心からの距離に基づいた画像など、その他の場所を基準として計算できる距離を用いても良い。あるいは、SIFT(Scale-invariant feature transform)などの既知の特徴量を用いて、画像から特徴点を抽出する既知の手法により特定した1つ以上の特徴点に基づいて、距離画像を生成してもよい。このとき、特徴点を計算する際に用いる画像は、抽出部52で領域抽出した結果を反映させた画像であってもよく、取得部51で取得した原画像(参照画像と比較画像)であってもよい。なお、取得部51で取得した原画像から特徴点を直接計算する場合には、前記ステップS102の領域抽出処理を省略してもよい。
(ステップS104:画像の低解像度化)
ステップS104において、変更部54は、生成部53で生成した第1の距離画像と第2の距離画像に対して解像度を低下させる処理を行い、画像の大きさを入力画像よりも小さくした画像を生成し、RAM33に格納する。
本実施形態では、低解像度化処理は、参照画像と比較画像の夫々の距離画像に関して行うものとするが、この処理は、ステップS101や、ステップS102の後に行っても良く、夫々の処理に合わせて段階的に複数回行っても良い。すなわち、参照画像と比較画像の解像度を低減し、その解像度が低減された画像から被検体の所定の部位を抽出するようなフローでもよい。
つまり、ステップS102からS104の順序は上記に限定されず、第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ第1の画像より解像度が低い第1の距離画像が生成されればよい。また、第2の画像において抽出される前記領域の輪郭からの距離に基づいた画素値を有し、且つ第2の画像より解像度が低い第2の距離画像が生成されればよい。
なお、領域抽出を行うステップと画像の低解像度化のステップの順番は、位置合わせ対象となる解剖構造の領域抽出処理の精度との兼ね合いを考慮して、適応的に決定することが望ましい。
例えば肋骨や胸骨など、細かい構造物を抽出したい場合には、領域抽出処理の前に解像度を下げ過ぎてしまうと抽出処理が困難になる可能性があるため距離画像に対して解像度変更を行うフローが望ましい。
一方で、肺野や肝臓、または骨盤などの比較的大きい構造物を抽出したい場合には、低い解像度の画像でも比較的容易に領域を抽出できるため、抽出処理の前に画像の解像度を下げてもよい。このようにすることによって、細かいノイズを除去することができる。また、後段の領域抽出処理や距離計算処理の計算コストを下げることができるため、処理の高速化が期待できる。
あるいは、ステップS102において、所定の情報(例えば、位置合わせ対象の臓器名などの部位情報)を入力情報として受付け、所定の情報毎に予め決定したステップの順番で処理をしてもよい。例えば、位置合わせ対象臓器として骨盤が指定された場合は低解像度化の後に解剖学的構造領域の抽出と距離画像生成を行う。また、位置合わせ対象臓器として肋骨が指定された場合には解剖学的構造領域の抽出と距離画像生成の後に低解像度化の処理を行う。すなわち、ステップS102は、被検体の所定の部位の情報を取得する部位情報取得工程の一例に相当する。このようにすることで、入力として与えられる所定の情報に基づいて、適切な処理手順に自動で切替えることができる。
(ステップS105:距離画像を用いた位置合わせ)
ステップS105において、第1の算出部55は、ステップS104で生成した低解像度の第1の距離画像および第2の距離画像に基づいて、参照画像と比較画像の位置合わせ処理を行う。すなわち、第1の画像変形情報として、低解像度の第1の距離画像の各画素について、低解像度の第2の距離画像で対応する位置を計算する。ここで、第1の画像変形情報は、例えば、低解像度の第1の距離画像と同じ解像度の情報であり、低解像度の第1の距離画像の各画素における(低解像度の第2の距離画像の対応画素への)変位ベクトルを保持する変位場画像として生成できる。なお、ステップS104の画像の低解像度化の処理がステップS103の距離画像生成処理よりも前に行われている場合には、ステップS103の出力画像が低解像度の距離画像であるため、その出力画像を用いればよい。
そして、第1の算出部55は、第1の画像変形情報と、第1の画像変形情報に基づいて比較画像を参照画像に合わせるように画像変形を行うことで生成した画像(第1の変形画像)をRAM33に格納する。なお、この第1の変形画像は必ずしも生成する必要はなく、第1の画像変形情報を出力、保存するだけでもよい。あるいは、第1の画像変形情報を入力として用いた処理を実行し、その結果を第2の算出部56に出力するだけでもよい。
さて、本実施形態で行われる多段階の位置合わせのうち、ステップS105で行う1段階目の位置合わせ処理に低解像度の距離画像を用いるのには次の理由がある。この1段階目の位置合わせ処理は、上述の通り、大まかな位置合わせを目的としているため、詳細な情報を持つ高解像度の画像は処理に適していない。
この理由は、位置合わせ前の初期の段階においては、2つの画像の位置は大きくずれていることも多く、そのような場合において、高解像度の画像の各画素単位の値の一致/不一致の情報は、位置合わせ処理におけるノイズとなってしまうためである。すなわち、位置合わせ処理における局所解に陥るリスクが高くなってしまう。解像度の低い画像を用いることには、大まかな画像情報を重点的に利用するという効果があるため、位置合わせ処理の初期段階に低解像度の画像を用いることにはメリットがある。
さらに、解像度を下げた画像を使うことによって、処理対象の画素数が削減されるため、計算コストの削減も期待できる。これらのメリットは、画像ピラミッドなどを用いた一般的な多重解像度の位置合わせと同じである。
次に、本実施形態では、初期の状態で位置合わせ誤差が大きい場合にも対応するために、低い解像度での位置合わせ処理を行う際に、参照画像や比較画像などの原画像の代わりに距離画像を用いることとする。被検体の所定の部位を示す領域を抽出した結果から計算できる距離画像を用いることにより、大まかな対応位置を計算する際に、被検体の所定の部位を示す領域に特化した処理が実現できる。
例えば、骨部の位置合わせを行う場合には、骨以外の臓器が写っている原画像を用いるのではなく、骨領域を抽出した結果の距離画像を利用することで、より重点的に骨領域の位置合わせ処理ができる。ここで抽出結果の画像を直接使うのではなく、距離画像を用いるのは、距離画像の方が、より大きな初期の位置合わせ誤差に対応できるためである。
なお、この2つの距離画像(参照画像の距離画像と比較画像の距離画像)間の位置合わせ処理は、アフィン変換のような線形的な位置合わせ手法や、FFD(Free Form Deformation)、LDDMM(Large Deformation Diffeomorphic Metric Mapping)などの非線形的な位置合わせ手法により実行されてもよく、これらの組合せで実行されてもよい。
さらには、それらの位置合わせ処理や位置合わせ処理の組み合わせを複数回繰り返して行ってもよい。また、本ステップS105の距離画像を用いた位置合わせ処理自体も多重解像度の枠組みで処理をしてもよい。
(ステップS106:原画像を用いた位置合わせ)
ステップS106において、第1の画像変形情報に基づいて、参照画像と比較画像を位置合わせすることにより第2の画像変形情報を算出する。具体的には、第1の画像変形情報を算出した後、第2の算出部56は、第1の画像変形情報を初期値として、1段階目の処理で用いた画像よりも高い解像度の原画像を用いて、位置合わせ処理を行い、より詳細な変形情報である第2の画像変形情報を得る。すなわち、第2の画像変形情報として、参照画像の各画素について、比較画像で対応する位置を計算する。ここで、第2の画像変形情報は、例えば、参照画像と同じ解像度の情報であり、参照画像の各画素における(比較画像の対応画素への)変位ベクトルを保持する変位場画像として生成できる。なお、この詳細な位置合わせ処理に関しても、上述の既知の位置合わせ手法を用いればよく、第1の画像変形情報を計算した方法と異なる方法であっても構わない。参照画像と比較画像を原画像のまま比較する方法以外に、ノイズ除去やエッジ強調などの前処理を夫々の画像に施した後の画像を用いて位置合わせしてもよい。また、参照画像と比較画像が異なるモダリティで得られた画像の場合には、例えば相互情報量を用いた異モダリティ間位置合わせの各種手法を用いてもよい。第1の画像変形情報は低い解像度の画像で計算されているものであるため、2段階目の位置合わせ処理で用いる位置合わせ手法の必要に応じて、変形情報の解像度を2段階目の処理で用いる画像の解像度と合わせてもよい。
ここで、ステップS106の位置合わせに高い解像度の距離画像を用いないのには、距離画像には次のデメリットが考えられるためである。距離画像や被検体の所定の部位を示す領域の抽出結果に基づいた位置合わせは、その性質上、位置合わせ処理の精度が領域抽出処理の精度に強く依存してしまうという点がある。これは、領域抽出処理の精度が十分に高く、処理がロバストである場合には問題にならないが、領域抽出処理の結果に見落としや拾い過ぎがある場合には、詳細な位置合わせ処理において問題になる可能性がある。
例えば、領域抽出処理において、ある解剖学的構造の細かい構造を表す領域を見落としている場合、当該領域は位置合わせ処理の対象として扱われないため、抽出処理で見落とした領域の位置合わせができなくなってしまうという問題が生じる。一般に、ある解剖構造を抽出する問題を考えると、細かい構造を自動抽出することは困難であることが想像できる。
したがって、位置合わせ処理に求められる精度に対して領域抽出処理の精度が足りない場合には、詳細な位置合わせを行う段階では、より情報量の多い原画像などを用いる方が好ましいと考えられる。これらのことから、大まかな位置合わせを行う処理と詳細な位置合わせを行う処理を組み合わせる場合には、夫々の段階で最適な画像を選択することで、全体の処理性能を高められることが分かる。本実施形態においては、大まかな位置合わせを行うために、骨部の輪郭からの距離画像を用いて、詳細な位置合わせを行う際には、より情報量の多い原画像を用いることで、精度の高い位置合わせ処理を実現している。
なお、本ステップの位置合わせ処理は、原画像のみを用いるのではなく、非特許文献1の方法を用いても構わない。この場合においても、ステップS105の処理によって、位置合わせ対象の位置ずれが小さくなっているため、最終的な位置合わせ結果を得るまでの計算コストを下げられる効果は保たれる。
最後に、第2の算出部56は、第2の画像変形情報と、第2の画像変形情報に基づいて比較画像を参照画像に合わせるように画像変形を行うことで生成した画像(変形画像)をRAM33に格納する。なお、この変形画像は必ずしも生成する必要はなく、前記第2の画像変形情報を出力、保存するだけでもよい。あるいは、第2の画像変形情報を入力として用いた処理を実行し、その結果を出力するだけでもよい。一例では、参照画像と変形画像の差分を計算した結果を出力してもよい。また、前記第2の変形情報に基づいて、比較画像上のROI(Region of Interest)に対応する参照画像上のROIの導出を行ってもよい。あるいは、前記第2の変形情報に基づいて、第1の画像の各スライスに略対応する第2の画像のスライスを同定し、その対応情報を出力する構成であってもよい。
(ステップS107:位置合わせ結果に基づいた画像表示)
ステップS107において、表示制御部57は、入力画像である参照画像と比較画像に併せて、変形画像を画像表示領域内に表示させる。このとき、2つの画像間の差を表す画像、すなわち差分画像(例えば、参照画像から変形画像を引いたもの)を計算し、画像表示領域内に表示させてもよい。
本実施形態によれば、多重解像度の位置合わせ処理に低解像度の距離画像と高解像度の原画像の両方を段階的に利用することで、異なる時点で撮像された2つの画像をより低い計算コストで、より高い精度の位置合わせ結果をユーザに提供できる効果がある。
本実施形態によれば、多重解像度の位置合わせ処理の枠組みの中で、原画像よりも大まかな位置合わせに適している距離画像と、原画像とを組み合わせて利用することで、より低い計算コストで、精度の高い位置合わせ結果をユーザに提供できる。
(変形例)
上記の実施形態では、ステップS105の処理において第1の算出部55が第1の変形情報を算出する処理を行う前に、原画像よりも解像度の低い距離画像を生成し、当該位置合わせ処理に用いる例を示した。しかし、低い計算コストで大まかな位置合わせを行うための該変形情報を計算するまでの手順は必ずしもこれに限らない。例えば、解像度の変更を位置合わせ処理の前に行うのではなく、ステップS105の位置合わせ処理の中で同等の効果が得られる方法を用いながら変形情報を計算してもよい。より具体的には、ステップS105における位置合わせ処理の中で、処理対象の第1の距離画像と第2の距離画像の比較を行う際に、少なくとも一方の画像(例えば、第1の距離画像)をサンプリングして参照することで処理対象の画素を削減する方法を用いてもよい。例えば、第1の変形情報の計算を行う際に、第1の距離画像を原画像の解像度よりも低くなるようにサンプリングして参照し、サンプリングした位置(画素)において第1の距離画像と第2の距離画像の対応位置の計算を行ってもよい。このとき、前記第1の変形情報の解像度は、第1の距離画像と同じになる。すなわち、前記第2の変形情報の解像度よりも低くなることから、第1の実施形態と同様に、より低い計算コストで精度の高い位置合わせ結果をユーザに提供できる効果を保てる。
<その他の実施形態>
また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
10 画像処理装置
21 ネットワーク
22 データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
37 制御部
51 取得部
52 抽出部
53 生成部
54 変更部
55 第1の算出部
56 第2の算出部
57 表示制御部

Claims (19)

  1. 被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部と、
    前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第1の画像より解像度が低い第1の距離画像を生成し、前記第2の画像において抽出される前記所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第2の画像より解像度が低い第2の距離画像を生成する生成部と、
    前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出部と、
    前記第1の変形情報に基づいて前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出部と、
    を備えることを特徴とする画像処理装置。
  2. 被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部と、
    前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第1の距離画像と、前記第2の画像において抽出される前記所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第2の距離画像を生成する生成部と、
    前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出部と、
    前記第1の変形情報に基づいて前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出部と、
    を備え、
    前記第1の変形情報の解像度が前記第2の変形情報の解像度より低いことを特徴とする画像処理装置。
  3. 前記第1の算出部と前記第2の算出部は、前記第1の画像と前記第2の画像のうち、一方の画像に比べて過去に撮像された方の画像を前記一方の画像に対して変形することにより前記第1の変形情報と前記第2の変形情報を算出することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記生成部は、所定の閾値以上の画素値を抽出することにより前記所定の部位を示す領域を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記生成部は、前記所定の部位を示す領域の輪郭からのユークリッド距離に基づいた画素値を有する前記距離画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  6. 前記生成部は、前記所定の部位を示す領域内の少なくとも一部の画素の画素値は、前記ユークリッド距離が長くなるにつれて大きくなるように前記距離画像を生成することを特徴とする請求項に記載の画像処理装置。
  7. 前記生成部は、前記所定の部位を示す領域内の前記ユークリッド距離が所定値以上の画素は一律に同じ画素値を有する前記距離画像を生成することを特徴とする請求項またはに記載の画像処理装置。
  8. 前記生成部は、前記所定の部位を示す領域外の少なくとも一部の画素の画素値は、前記ユークリッド距離が長くなるにつれて小さくなるように前記距離画像を生成することを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  9. 前記生成部は、前記所定の部位を示す領域外の前記ユークリッド距離が所定値以上の画素は一律に同じ画素値を有する前記距離画像を生成することを特徴とする請求項に記載の画像処理装置。
  10. 前記第2の算出部は、前記第1の変形情報を初期値として前記第2の変形情報を算出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  11. 前記第1の変形情報もしくは前記第2の変形情報に基づいて前記第2の画像を変形させた変形画像と、前記第1の画像と前記変形画像との差分を示す差分画像との少なくとも一方を表示部に表示させる表示制御部をさらに備えることを特徴とする請求項1乃至1のいずれか1項に記載の画像処理装置。
  12. 前記所定の部位は、骨部、肝臓、肺野または脳のうち少なくとも1つであることを特徴とする請求項1乃至1のいずれか1項に記載の画像処理装置。
  13. 被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する画像取得工程と、
    前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第1の画像より解像度が低い第1の距離画像を生成し、前記第2の画像において抽出される前記領域の輪郭からの距離に基づいた画素値を有し、且つ前記第2の画像より解像度が低い第2の距離画像を生成する生成工程と、
    前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出工程と、
    前記第1の変形情報に基づいて、前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出工程と、
    を備えることを特徴とする画像処理方法。
  14. 前記生成工程は、前記第1の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第1の距離画像を生成し、且つ前記第2の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第2の距離画像を生成することを特徴とする請求項1に記載の画像処理方法。
  15. 前記生成工程は、前記第1の画像において、前記第1の画像の解像度を低減した後に前記領域を抽出し、前記領域の輪郭からの距離に基づいた画素値を有する前記第1の距離画像を生成し、且つ前記第2の画像において、前記第2の画像の解像度を低減した後に前記領域を抽出し、前記領域の輪郭からの距離に基づいた画素値を有する前記第2の距離画像を生成することを特徴とする請求項1に記載の画像処理方法。
  16. 前記被検体の所定の部位の情報を取得する部位情報取得工程をさらに備え、
    前記生成工程は、前記取得した前記被検体の部位が、肋骨または胸骨である場合には、前記第1の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第1の距離画像を生成し、且つ前記第2の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第2の距離画像を生成することを特徴とする請求項1乃至1のいずれか1項に記載の画像処理方法。
  17. 前記生成工程は、前記取得した前記被検体の部位が、肺野、肝臓または骨盤である場合には、前記第1の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第1の距離画像を生成し、且つ前記第2の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第2の距離画像を生成することを特徴とする請求項1に記載の画像処理方法。
  18. 被検体を撮像した第1の画像と第2の画像を位置合わせする方法であって、
    前記第1の画像から生成された、前記被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第1の距離画像と、前記第2の画像から生成された、前記被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第2の距離画像と、を位置合わせすることにより前記第1の画像及び前記第2の画像の解像度よりも低い解像度の第1の変形情報を算出する第1の位置合わせ工程と、
    前記第1の位置合わせ工程により取得される前記第1の変形情報を用いて、前記第1の画像と、前記第2の画像を位置合わせすることにより前記第1の変形情報よりも高い解像度を有する第2の変形情報を算出する第2の位置合わせ工程と、
    を備えることを特徴とする画像処理方法。
  19. 請求項1乃至1のいずれか1項に記載の画像処理装置の各手段をコンピュータに実行させることを特徴とするプログラム。
JP2018243767A 2018-12-26 2018-12-26 画像処理装置、画像処理方法、及びプログラム Active JP7277131B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018243767A JP7277131B2 (ja) 2018-12-26 2018-12-26 画像処理装置、画像処理方法、及びプログラム
PCT/JP2019/049333 WO2020137677A1 (ja) 2018-12-26 2019-12-17 画像処理装置、画像処理方法、及びプログラム
US17/344,748 US11880987B2 (en) 2018-12-26 2021-06-10 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243767A JP7277131B2 (ja) 2018-12-26 2018-12-26 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020103464A JP2020103464A (ja) 2020-07-09
JP7277131B2 true JP7277131B2 (ja) 2023-05-18

Family

ID=71129769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243767A Active JP7277131B2 (ja) 2018-12-26 2018-12-26 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11880987B2 (ja)
JP (1) JP7277131B2 (ja)
WO (1) WO2020137677A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580832B2 (en) * 2020-10-23 2023-02-14 Himax Technologies Limited Motion detection system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508746A (ja) 2002-12-04 2006-03-16 コンフォーミス・インコーポレイテッド Mriにおける等方性撮像用の複数撮像平面の融合並びに等方性又は近似的等方性撮像を用いた量的画像解析
JP2007064617A (ja) 2005-08-26 2007-03-15 Linde Ag 深冷空気分離によるクリプトン及び/又はキセノンの製造法
US20110069063A1 (en) 2009-07-29 2011-03-24 Siemens Corporation Catheter rf ablation using segmentation-based 2d-3d registration
JP2014054476A (ja) 2012-09-14 2014-03-27 Fujifilm Corp 骨塩量計測装置および方法
CN103914814A (zh) 2012-12-28 2014-07-09 北京思创贯宇科技开发有限公司 一种ct冠脉图像与xa造影图像的图像融合方法及系统
JP2015096196A (ja) 2013-11-11 2015-05-21 株式会社東芝 医用画像処理装置および医用画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08103439A (ja) * 1994-10-04 1996-04-23 Konica Corp 画像の位置合わせ処理装置及び画像間処理装置
US20070049817A1 (en) * 2005-08-30 2007-03-01 Assaf Preiss Segmentation and registration of multimodal images using physiological data
DE102012204977B4 (de) * 2012-03-28 2017-05-18 Siemens Healthcare Gmbh Verfahren zur iterativen Bildrekonstruktion für Bi-Modale CT-Daten sowie entsprechende Recheneinheit, Computertomographiesystem, Computerprogramm und Datenträger
US20190000318A1 (en) * 2015-12-28 2019-01-03 Metritrack, Inc. System and method for the coregistration of medical image data
CN109715070B (zh) * 2016-08-31 2023-05-05 佳能株式会社 图像处理装置、图像处理方法和程序

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508746A (ja) 2002-12-04 2006-03-16 コンフォーミス・インコーポレイテッド Mriにおける等方性撮像用の複数撮像平面の融合並びに等方性又は近似的等方性撮像を用いた量的画像解析
JP2007064617A (ja) 2005-08-26 2007-03-15 Linde Ag 深冷空気分離によるクリプトン及び/又はキセノンの製造法
US20110069063A1 (en) 2009-07-29 2011-03-24 Siemens Corporation Catheter rf ablation using segmentation-based 2d-3d registration
JP2014054476A (ja) 2012-09-14 2014-03-27 Fujifilm Corp 骨塩量計測装置および方法
CN103914814A (zh) 2012-12-28 2014-07-09 北京思创贯宇科技开发有限公司 一种ct冠脉图像与xa造影图像的图像融合方法及系统
JP2015096196A (ja) 2013-11-11 2015-05-21 株式会社東芝 医用画像処理装置および医用画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BORGEFORS, Gunilla,Hierarchical Chamfer Matching: A Parametric Edge Matching Algorithm,IEEE transactions on pattern analysis and machine intelligence,IEEE,1988年,vol.10, No.6,pp.849-865

Also Published As

Publication number Publication date
JP2020103464A (ja) 2020-07-09
US20210304425A1 (en) 2021-09-30
WO2020137677A1 (ja) 2020-07-02
US11880987B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
CN112967236B (zh) 图像的配准方法、装置、计算机设备和存储介质
US10304158B2 (en) Image processing apparatus, image processing method and non-transitory computer-readable medium with calculation of information representing direction of target tissue and with estimating of depicting appearance of target tissue
EP2916738B1 (en) Lung, lobe, and fissure imaging systems and methods
EP3611699A1 (en) Image segmentation using deep learning techniques
US7907768B2 (en) Method and apparatus for probabilistic atlas based on shape modeling technique
JP5749735B2 (ja) X線放射線写真における骨抑制
KR20200092489A (ko) 딥러닝을 이용한 3차원 전신 골격 모델 생성 장치 및 방법
JP2005169077A (ja) 第1データセットのデータポイントを第2データセットのデータポイントと関係付ける変換を見つける方法、およびその方法を実行するコンピュータプログラム
JP2016189946A (ja) 医用画像位置合わせ装置および方法並びにプログラム
JP7277131B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9286688B2 (en) Automatic segmentation of articulated structures
US11138736B2 (en) Information processing apparatus and information processing method
JP2004188202A (ja) デジタル胸部放射線写真の自動分析方法
JP4571378B2 (ja) 画像処理方法および装置並びにプログラム
Kumar et al. Semiautomatic method for segmenting pedicles in vertebral radiographs
Zhong et al. Action learning for 3D point cloud based organ segmentation
Starzynski et al. Morphing algorithm for building individualized 3D skeleton model from CT data
JP2005305048A (ja) 患者位置決め装置および患者位置決め方法
JP2022052210A (ja) 情報処理装置、情報処理方法及びプログラム
CN117495893B (zh) 一种基于主动轮廓模型的颅骨剥离方法
JP7346027B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Trabelsi et al. 3D Active Shape Model for CT-scan liver segmentation
Jarc et al. A multistage registration method using texture features
Song et al. Multi-modality liver image registration based on multilevel B-splines free-form deformation and L-BFGS optimal algorithm
García et al. Peripheral nerve segmentation using speckle removal and bayesian shape models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7277131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151