JP5925576B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP5925576B2
JP5925576B2 JP2012098109A JP2012098109A JP5925576B2 JP 5925576 B2 JP5925576 B2 JP 5925576B2 JP 2012098109 A JP2012098109 A JP 2012098109A JP 2012098109 A JP2012098109 A JP 2012098109A JP 5925576 B2 JP5925576 B2 JP 5925576B2
Authority
JP
Japan
Prior art keywords
image
region
unit
organ
tubular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012098109A
Other languages
English (en)
Other versions
JP2013223674A (ja
Inventor
子盛 黎
子盛 黎
栗原 恒弥
恒弥 栗原
和喜 松崎
和喜 松崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012098109A priority Critical patent/JP5925576B2/ja
Priority to PCT/JP2012/079801 priority patent/WO2013161112A1/ja
Publication of JP2013223674A publication Critical patent/JP2013223674A/ja
Application granted granted Critical
Publication of JP5925576B2 publication Critical patent/JP5925576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Description

本発明は、複数枚の画像間の位置を合わせる技術に関する。
2次元または3次元の複数枚の画像間で位置を合わせる技術は、様々な分野において重要な技術である。例えば、医用画像の分野では、CT画像、MR画像、PET画像、超音波画像など、様々な種類の3次元画像の位置を合わせて、重ね合わせて表示するために、画像位置合わせ技術が利用される。このような表示方法はフュージョン画像表示と呼ばれており、画像の特徴を生かした表示が可能となる。たとえば、CT画像は詳細な形状の表示に適しており、PET画像は代謝や血流などの体の機能の表示に適している(例えば、特許文献1参照)。
さらに、同一患者の経過を観察するためには、時系列に取得した医用画像の位置を合わせることによって、病変部の状態を観察して、疾病の有無や状況の診断を容易に実施できるようにすることができる。ただし、異なる時期に医用画像を撮影する場合、患者の体勢や呼吸状態などの変化によって、対象臓器の位置も変化する。臓器の位置関係の変化に対応するため、画像全体ではなく、臓器領域だけを用いて位置合わせを実施する方法が提案されている(例えば、特許文献2参照)。
2次元または3次元画像の位置合わせにおいては、固定される画像を参照画像と呼び、位置合わせのために座標変換される画像を浮動画像と呼ぶ。画像間の位置合わせの手法としては、画像類似度を用いた反復的位置合わせ法と、ランドマークを用いた位置合わせ法が一般的に知られている。
画像類似度に基づいた位置合わせ法においては、浮動画像に対して座標変換を実施し、変換された浮動画像と参照画像との間の類似度を求め、類似度が最大となる座標変換を繰り返し計算によって求める。画像間の類似度として、SSD(Sum of Squared Difference)や相互情報量(非特許文献1参照)などが一般に用いられている。
ランドマークに基づいた位置合わせ法においては、医用画像中の特徴的な部位に対して設定されるランドマークペアの位置情報を用いて、位置合わせの幾何変換パラメータを求める。ランドマークを用いた位置合わせに関する技術として、臓器血管の分岐点を用いた位置合わせ方法が提案されている(例えば、特許文献3参照)。画像特徴点を抽出する技術としては、例えば非特許文献2に記載されているものがある。
特開2009−112468号公報 特開2007−29502号公報 特開2011−120709号公報
F. Maes, A. Collignon, D. Vandermeulen, G. Marchal, and P. Suetens, "Multi-modality image registration maximization of mu-tual information", In Proceedings of MMBIA, pp. 14-22, 1996. K. Mikolajczyk and C. Schmid, "A performance evalua-tion of local descriptors", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 27, No. 10, pp. 1615-1630, 2005.
上述の画像類似度に基づいた位置合わせ法においても、ランドマークに基づいた位置合わせ法においても、それぞれに克服されていない課題が存在する。
画像類似度を用いた位置合わせ法においては、臓器領域、例えば肝実質の輝度値が全体的に低く、均一であるため、画像間の対応領域、すなわち、肝臓同士の画像類似度を正確に求めるのが困難である。そのため、位置合わせの精度が低下し、または位置合わせが失敗する可能性がある。
ランドマークを用いた位置合わせ方法においては、分岐点の位置を高精度に推定し、血管を正確にグラフ表現することが必要とされる。しかし、臓器血管、例えば肝臓血管を正確に抽出することは現実的に非常に困難である。
本発明は、上記のような課題に鑑みてなされたものであり、位置合わせ処理のロバスト性と精度が高い画像処理技術を提供することを目的とする。
本発明に係る画像処理装置は、位置合わせする画像それぞれから臓器領域を抽出し、参照画像(第1画像)から抽出した臓器領域のなかで輝度が閾値以上の領域からサンプリング点を抽出し、そのサンプリング点における参照画像と浮動画像(第2画像)の間の類似度にしたがって、位置合わせを実施する。
本発明に係る画像処理装置は、輝度値が全体的に低く、かつ均一である臓器全体の画素ではなく、統計的に輝度値の高い部分(例えば臓器の管状部分)を含む領域のサンプル点を用いて位置合わせを実施する。これにより、対象臓器における画像類似度を精度よく計算し、安定的かつ高精度な位置合わせ処理を実施できる。また、臓器血管を高精度に抽出しなくても、画像位置合わせの精度を高めることができる。
上記した以外の課題、構成、および効果は、以下の実施形態の説明により明らかになるであろう。
実施形態1に係る画像処理装置100の論理的な構成を示すブロック図である。 画像処理装置100のハードウェア構成を示すブロック図である。 画像処理装置100の全体動作を説明するフローチャートである。 画像処理装置100が処理する各画像の例を示す図である。 図3のステップS203において管状領域抽出部14が肝臓血管とその隣接領域を抽出する処理を説明するフローチャートである。 図3のステップS204において管状領域サンプリング部15がサンプリング点を抽出する処理を説明するフローチャートである。 管状領域サンプリング部15が抽出するサンプリング点のデータ構造を3次元画像の例として示すデータ構造図である。 位置合わせ部10の処理を説明するフローチャートである。 実施形態2に係る画像処理装置100の機能ブロック図である。 初期幾何変換情報設定部20の動作を説明するフローチャートである。 画像特徴点検出部2001と2011が抽出する画像特徴点のデータ構造を、3次元画像の例として示すデータ構造図である。 実施形態3に係る画像処理装置100の論理的な構成を示すブロック図である。 実施形態3に係る画像処理装置100の全体動作を説明するフローチャートである。
<実施の形態1:構成および動作>
図1は、本発明の実施形態1に係る画像処理装置100の論理的な構成を示すブロック図である。画像処理装置100は、参照画像11と浮動画像12を互いに位置合わせする装置であり、臓器領域抽出部13および17、管状領域抽出部14、管状領域サンプリング部15、位置合わせ部10を備える。
臓器領域抽出部13は参照画像11を取得し、そのなかから臓器が存在する領域(臓器領域)を抽出する。管状領域抽出部14は、臓器領域抽出部13が抽出した臓器領域のなかから、閾値以上の輝度を有する領域を、管状領域として抽出する。管状領域サンプリング部15は、管状領域抽出部14が抽出した管状領域のなかからサンプリング点を抽出して位置合わせ部10に出力する。臓器領域抽出部17は浮動画像12を取得し、そのなかから臓器領域抽出部13と同じ臓器領域を抽出して位置合わせ部10に出力する。位置合わせ部10は、各部から受け取った画像部分にしたがって位置合わせを実施し、その結果を位置合わせ済浮動画像16として出力する。これら動作の詳細は後述する。
臓器領域抽出部13、管状領域抽出部14、管状領域サンプリング部15、位置合わせ部10は、これらの機能を実現する回路デバイスなどのハードウェアを用いて構成することもできるし、これらの機能を実装したプログラムをCPU(Central Processing Unit)などの演算装置が実行することによって各機能を構成することもできる。本実施形態1では、図2において後述するように、プログラムとして各機能部を実装することとする。
図2は、画像処理装置100のハードウェア構成を示すブロック図である。画像処理装置100は、一般的な計算機上に実装することができる。画像処理装置100は、CPU40、ROM(Read Only Memory)41、RAM(Random Access Memory)42、記憶装置43、画像入力部44、媒体入力部45、入力制御部46、画像生成部47を備える。これら機能部は、データバス48によって相互に接続される。
CPU40は、ROM41またはRAM42に記憶されたプログラムを実行することによって、各種処理を実行する。ROM41とRAM42は、各種処理を実行するために必要なプログラムおよびデータを記憶する。ROM41は、読出専用の記憶媒体である。RAM42は、データの読み書きが可能な記憶媒体である。
記憶装置43は、入力画像などを格納する磁気記憶装置である。記憶装置43は、不揮発性半導体記憶媒体(例えば、フラッシュメモリ)を備えてもよい。また、ネットワークなどを介して接続された外部記憶装置を利用してもよい。
CPU40が実行するプログラムを、記憶媒体50(例えば、光ディスク)に格納しておき、媒体入力部45(例えば、光ディスクドライブ)がそのプログラムを読み込んでRAM42に格納することができる。記憶装置43に当該プログラムを格納しておき、記憶装置43からそのプログラムをRAM42にロードしてもよい。また、ROM41にあらかじめプログラムを記憶させておいてもよい。
CPU40が各プログラムを実行することにより、臓器領域抽出部13、管状領域抽出部14、管状領域サンプリング部15、位置合わせ部10が機能する。
画像入力部44は、画像撮像装置49が撮影した画像が入力されるインターフェースである。CPU40は、画像撮像装置49から入力された画像を用いて各処理を実行する。
媒体入力部45は、記憶媒体50に記憶されたデータおよびプログラムを読み出す。記憶媒体50から読み出されたデータおよびプログラムは、CPU40によって、RAM42または記憶装置43に格納される。
入力制御部46は、入力装置51(例えば、キーボード)から、ユーザによって入力された操作入力を受け付けるインターフェースである。入力制御部46が受けた操作入力は、CPU40によって処理される。
画像生成部47は、図1に示す位置合わせ部10によって位置合わせ処理がされた浮動画像12から画像データを生成し、生成された画像データをディスプレイ52に送る。ディスプレイ52は、その画像を画面表示する。
図3は、画像処理装置100の全体動作を説明するフローチャートである。以下、図3の各ステップについて説明する。
臓器領域抽出部13と17は、それぞれ参照画像11と浮動画像12を取得する(S201)。臓器領域抽出部13は参照画像11の臓器領域画像を抽出し、臓器領域抽出部17は浮動画像12の臓器領域画像を抽出する(S202)。臓器領域抽出部17が抽出した浮動画像の臓器領域画像は、位置合わせ部10に入力される。ステップS202の詳細は後述する。
管状領域抽出部14は、臓器領域抽出部13が抽出した参照画像11の臓器領域画像を受け取り、そのなかからサンプリング候補領域として、管状の部位が存在している領域(管状領域)に相当する画像領域を抽出する(S203)。管状領域とは、例えば当該臓器の血管部分や、当該臓器が肺であれば気管支部分に相当する領域である。ステップS203の詳細は後述する。
管状領域サンプリング部15は、参照画像11の管状領域において、参照画像11と浮動画像12の画像類似度を計算するためのサンプリング点を抽出し、位置合わせ部10に出力する(S204)。ステップS204の詳細は後述する。
位置合わせ部10は、参照画像11の管状領域から抽出されたサンプリング点の座標を、浮動画像12の臓器領域画像上において対応する点の座標へ、幾何変換する(S205)。位置合わせ部10は、参照画像11と浮動画像12それぞれの対応する領域間の画像類似度を計算し(S206)、その画像類似度を最大化する(S207)する。位置合わせ部10は、画像類似度を最大化する幾何変換情報1005を取得する(S208)。位置合わせ部10は、幾何変換情報1005を用いて、浮動画像12に対して幾何変換を実施して位置合わせ済浮動画像16を生成し、出力する(S209)。ステップS205〜S209の詳細については後述する。
図4は、画像処理装置100が処理する各画像の例を示す図である。ステップS201において、臓器領域抽出部13は参照画像1101を取得し、臓器領域抽出部17は浮動画像1102を取得する。ステップS202において、臓器領域抽出部13は参照画像1101から臓器領域を抽出し、臓器領域抽出部17は浮動画像1102から臓器領域を抽出する。画像1103と1106は、それぞれ臓器領域を抽出した結果を示す。ステップS203において、管状領域抽出部14は画像1103から管状領域を抽出する。画像1104はその結果を示す。ステップS204において、管状領域サンプリング部15は画像1104からサンプリング点を抽出する。画像1105はその結果を示す。
<実施の形態1:臓器領域抽出部>
臓器領域抽出部13と17は、それぞれ参照画像11と浮動画像12から、位置合わせ対象となる臓器に相当する画像領域を抽出する。臓器領域を抽出する手法については、例えば公知のグラフカット法を用いることができる。グラフカット法は、領域分割問題をエネルギー最小化ととらえ、画像から作成されるグラフにおいて定義したエネルギーが最小となるように、グラフを切断するアルゴリズムを用いて、領域境界を求める手法である。グラフカット法の他に、領域拡張法(region growing)や閾値処理などの手法を用いることもできる。
以下の説明では、肝臓が存在している画像領域を位置合わせの対象として処理する例を説明する。すなわち臓器領域抽出部13と17は、参照画像11と浮動画像12から、それぞれの肝臓領域に相当する画像領域を抽出する。
<実施の形態1:管状領域抽出部>
臓器領域抽出部13が抽出した肝臓領域には、肝臓血管に相当する画像領域や、肝臓血管を含まない肝実質に相当する画像領域などが含まれている。管状領域抽出部14は、画像類似度の計算に用いるサンプリング候補領域を肝臓領域から抽出する。
位置合わせの対象となる領域は、解剖学的に特徴的な画像データを用いることが望ましい。特徴的な画像データの画素値は、一般的に広範囲にわたって分布する。肝実質領域の画素値(CT値など)は全体的に低輝度かつ単調であるため、画素値のヒストグラムが偏り、位置合わせ処理における画像類似度計算に用いることは望ましくない。肝臓領域においては、特徴的な画像データを有する画像領域として、肝臓血管とその周辺領域(血管に隣接する肝実質領域)を含む画像領域が考えられる。すなわち、管状領域抽出部13の処理内容は、肝臓血管領域だけを抽出することではなく、肝臓血管と血管に隣接する肝実質領域を同時に抽出することである。そのため、高精度な領域分割や正確な血管グラフ化などの処理は必要としない。
図5は、図3のステップS203において管状領域抽出部14が肝臓血管とその隣接領域を抽出する処理を説明するフローチャートである。以下、図5の各ステップについて説明する。
管状領域抽出部14は、臓器領域抽出部13が抽出した肝臓領域画像データを取得する(S301)。管状領域抽出部14は、肝臓領域画像の画素値を、下記式1にしたがって所定範囲内に収まるように変換する(S302)。例えば、(0)〜(200)HU(Hounsfield Unit: CT値の単位)に変換する。式1のI(x) とI’(x)はそれぞれ変換前後の画素値であり、IminとImaxはそれぞれ変換範囲の最小値、例えば0(HU)、と最大値、例えば、200(HU)である。
Figure 0005925576
管状領域抽出部14は、肝臓領域画像に対し、例えばガウシアンフィルタを用いて、平滑化処理を実施する(S303)。管状領域抽出部14は、平滑化された肝臓領域画像の画素値の平均値μと標準偏差σを算出し(S304)、これらを用いて下記式2にしたがって閾値Tを計算する(S305)。管状領域抽出部14は、計算した閾値Tを用いて、肝臓領域画像データの画素値に対する閾値処理を実施する(S306)。すなわち、各画素の輝度値と閾値Tとを比較し、閾値Tを上回る輝度値を持つ画素を、血管領域の候補となる画像領域として抽出する。
Figure 0005925576
管状領域抽出部14は、ステップS306で得られた画像領域に対して、ダイレーション(dilation)処理やエロージョン(erosion)処理といったモーフォロジー(Morphology)演算処理によって、それぞれ孤立の画素の除去や不連続な画素の接続などを実施する(S307)。以上の処理により、位置合わせのサンプリング候補領域となる肝臓血管領域が抽出される。管状領域抽出部14は、抽出結果を管状領域サンプリング部15に出力する(S308)。
<実施の形態1:管状領域サンプリング部>
管状領域サンプリング部15は、管状領域抽出部14が参照画像11から抽出した、サンプリング候補領域となる管状領域から、画像類似度の計算に用いる画素をサンプリングする。
図6は、図3のステップS204において管状領域サンプリング部15がサンプリング点を抽出する処理を説明するフローチャートである。以下、図6の各ステップについて説明する。
管状領域サンプリング部15は、管状領域抽出部14が抽出した肝臓血管領域画像(サンプリングの候補となる領域の画像)を取得する(S401)。管状領域サンプリング部15は、肝臓血管領域画像の全画素の座標を取得して、座標リストを作成する(S402)。
管状領域サンプリング部15は、得られた肝臓血管領域画像の画素数を、画像類似度計算用の所定サンプル数と比較する(S403)。所定サンプル数とは、画像の類似度を求めるために使用するサンプル数である。この所定サンプル数は実験的に設定してもよく、ユーザが指定入力する値を用いてもよい。
肝臓血管領域画像の画素数が所定サンプル数より多い場合には、計算負荷を削減するため、管状領域サンプリング部15はランダムサンプリング処理を実施する。具体的には、ステップS402で作成した座標リストからランダムにサンプリング点の候補となる画素の座標を選定し(S405)、選択された画素の数を所定サンプル数と同じにする。
管状領域サンプリング部15は、得られたサンプリング点候補の各々の座標を、画素領域内において、[−0.5,0.5]の範囲内の乱数で移動させて、新しい座標を生成する(S406)。
肝臓血管領域画像の画素数が所定サンプル数より少ない場合には、ランダムサンプリング処理によって、サンプリング点の候補を所定サンプル数まで増加し(S404)、ステップS406を実施する。
管状領域サンプリング部15は、各サンプリング点の新しい座標位置の輝度値に対し、対応する原座標の位置の近傍画素からの距離に応じた重み付きの補間演算により算出する(S407)。サンプリング点候補の座標位置の輝度値をそのまま位置合わせにおいて用いると、位置合わせのために用いる評価関数が非連続となる場合があるため、本ステップによりランダムサンプリングした画素の輝度値を補正することとしたものである。管状領域サンプリング部15は、サンプリングした点の画素データを位置合わせ部10に出力する(S408)。
図7は、管状領域サンプリング部15が抽出するサンプリング点のデータ構造を3次元画像の例として示すデータ構造図である。Nはサンプル数である。各サンプル点は、参照画像11の3次元座標(X,Y,Z)、同座標における参照画像11の輝度値I(X,Y,Z)を有する。サンプリング点の座標は、ステップS404〜S405において抽出された点の座標である。サンプリング点の輝度値は、ステップS406において算出された輝度値である。
<実施の形態1:位置合わせ部>
位置合わせ部10は、座標幾何変換部1001、画像類似度算出部1002、画像類似度最大化部1003、浮動画像幾何変換部1004を備える。これら各機能部の動作については次の図8で説明する。
図8は、位置合わせ部10の処理を説明するフローチャートである。以下、図8の各ステップについて説明する。
座標幾何変換部1001は、管状領域サンプリング部15が参照画像11の肝臓血管領域からサンプリングした点の画素データを取得し(S601)、さらに臓器領域抽出部17が浮動画像12から抽出した肝臓領域の画像データを取得する(S602)。
座標幾何変換部1001は、幾何変換情報1005の初期値を設定する(S603)。幾何変換情報1005の初期値は、ユーザが指定入力してもよく、まったく幾何変換しない、すなわち恒等変換を初期値としてもよい。
座標幾何変換部1001は、参照画像11のサンプリング点の座標に対して、幾何変換情報1005を用いて座標変換を実施する(S604)。本ステップは、参照画像11のサンプリング点に対応する、浮動画像12上の肝臓領域における画像データの座標を計算するためのものである。
参照画像11のサンプリング点に対応する座標変換後の浮動画像12のサンプリング点が、位置合わせ対象である浮動画像12の肝臓領域以外の位置に割り当てられる、すなわち、肝臓領域のマスク以外に出る可能性がある。この場合には、座標幾何変換部1001は、マスク外の対応サンプリング点を除外して、ステップS404〜S405と同様のランダムサンプリング処理によって参照画像11から新たにサンプリング点を追加し、改めて浮動画像12上の対応するサンプリング点を求める(S605)。
幾何変換部1001は、浮動画像12の各対応サンプリング点に対し、ステップS407と同様の補間演算により、そのサンプリング点の輝度値を算出する。幾何変換部1001は、得られた輝度値とサンプリング点の座標を、図7で説明したサンプリング点データ構造に格納する(S606)。
画像類似度算出部1002は、参照画像11のサンプリング点データと、幾何変換後の浮動画像12の対応サンプリング点データを取得する。画像類似度算出部1002は、これらのサンプリング点データを所定の評価関数に適用して、参照画像11と浮動画像12の間の画像類似度を演算する(S607)。画像類似度としては、非特許文献2に記載されている相互情報量を使用することができる。
画像類似度最大化部1003は、画像類似度算出部1002が算出した、参照画像11と浮動画像12の間の画像類似度を取得する。画像類似度最大化部1003は、参照画像11と浮動画像12の間の画像類似度が最大(または極大)となる幾何変換パラメータを求めるため、収束計算を実施する(S608)。
ステップS608において画像類似度が収束していない場合は、より高い画像類似度を得るため、画像類似度最大化部1003は幾何変換情報1005を更新する(S609)。そして、更新された幾何変換情報1005を用い、ステップS604〜S608を改めて実施する。
ステップS608において画像類似度が収束している場合は、浮動画像幾何変換部1004は、求められた幾何変換情報1005を用いて浮動画像12を幾何変換し、位置合わせ済浮動画像16を生成する(S610)。以上の処理によって、位置合わせ部10の処理が完了する。
<実施の形態1:まとめ>
以上のように、本実施形態1に係る画像処理装置100は、参照画像11と浮動画像12からそれぞれ臓器領域を抽出し、参照画像11の臓器領域か管状部分を含む領域を抽出し、管状領域から抽出されたサンプル点と浮動画像12の対応するサンプル点を用いて画像類似度を算出する。これにより、対象臓器について精度よく画像類似度を計算することができるので、安定的かつ高精度な位置合わせ処理を実現できる。
また、本実施形態1に係る画像処理装置100は、管状部位とその周辺部位を含む画像領域を管状領域として抽出するので、臓器血管を高精度に抽出しなくても、精度よく画像位置合わせを実行することができる。
本実施形態1において、管状領域抽出部14は、式2にしたがって管状領域を抽出するための閾値を設定するが、これに代えてユーザが手動で同閾値を指定入力することもできる。この場合は管状領域抽出部14がその指定入力にしたがって抽出を実施する。すなわち管状領域抽出部14は、本実施形態1における「閾値設定部」として動作することができる。
本実施形態1は、肝臓領域を位置合わせの対象の例として説明したが、他の臓器(例えば、肺、心臓など)や他のモダリティ画像についても本実施形態1で説明した手法を適用することができる。以下の実施形態についても同様である。
<実施の形態2>
本発明の実施形態2では、画像特徴点を用いて幾何変換の初期値を設定する構成例を説明する。これにより、位置合わせの精度やロバスト性をさらに向上させることを図る。幾何変換の初期値を設定する構成の他は実施形態1と概ね同様であるため、以下では差異点を中心に説明する。
図9は、本実施形態2に係る画像処理装置100の機能ブロック図である。実施形態1で説明した構成に加えて、位置合わせ部10よりも前段に、浮動画像12の管状領域抽出処理(管状領域抽出部18)と初期幾何変換情報の設定処理(初期幾何変換情報設定部20)を追加している。その他の構成は実施形態1と同様である。
管状領域抽出部18、初期幾何変換情報設定部20、および初期幾何変換情報設定部20が備える各機能部は、これらの機能を実現する回路デバイスなどのハードウェアを用いて構成することもできるし、これらの機能を実装したプログラムをCPUなどの演算装置が実行することによって各機能を構成することもできる。
管状領域抽出部18は、管状領域抽出部14と同様の手順を用いて、浮動画像12の臓器領域から管状領域を抽出する。
初期幾何変換情報設定部20は、幾何変換情報1005の初期値を設定する機能部であり、画像特徴点検出部2001および2011、特徴点対応付け部2002、幾何変換情報推定部2003を備える。
図10は、初期幾何変換情報設定部20の動作を説明するフローチャートである。以下、図10の各ステップについて説明する。
臓器領域抽出部13と17は、それぞれ参照画像11と浮動画像12を取得する(S701)。臓器領域抽出部13と17は、参照画像11と浮動画像12からそれぞれ、臓器領域画像、例えば、肝臓領域画像を抽出する(S702)。抽出された参照画像11と浮動画像12それぞれの肝臓領域画像は、管状領域抽出部14と18に入力される。
管状領域抽出部14と18は、肝臓領域画像から参照画像11と浮動画像12それぞれの肝臓血管領域画像を抽出する(S703)。抽出された各肝臓血管領域画像は、それぞれ画像特徴点検出部2001と2011に入力される。
画像特徴点検出部2001と2011は、各肝臓血管領域画像における画像特徴点を検出し、各特徴点の特徴量を記録する(S704)。記録形式については後述の図11で説明する。参照画像11と浮動画像12それぞれの肝臓血管領域画像から得られた画像特徴点および特徴量は、特徴点対応付け部2002に入力される。
特徴点対応付け部2002は、参照画像11の肝臓血管領域上の特徴点に対応する、浮動画像12の肝臓血管領域上の点を探索する(S705)。具体的に説明すると、参照画像11中のある特徴点Pと浮動画像12中のある特徴点Pの特徴量をそれぞれ、VとVすると、特徴量間ユークリッド距離dは下記式3により算出される。Mは特徴量の次元である。
Figure 0005925576
特徴点対応付け部2002は、参照画像11の肝臓血管領域におけるある1点の特徴点の特徴量について、浮動画像12の肝臓血管領域に含まれる全ての特徴点の特徴量との間の距離dを算出し、その中で最もdが最小となる特徴点同士を、互いに対応する点として検出する。
距離dが大きい対応点ペアは信頼性が低いと判断できるため、特徴点対応付け部2002は、実験的に設定した閾値を上回る距離を有する対応点ペアは、誤対応ペアとして以後の処理対象から除外する(S706)。各肝臓血管領域から検出された対応点ペアは幾何変換情報推定部2003に入力される。
幾何変換情報推定部2003は、対応点ペアの位置情報を用いて、対応点間の座標変換のパラメータを決定する(S707)。幾何変換のパラメータを設定する手法としては、例えば、対応点ペアの座標に対して、対応点間の幾何距離の2乗和を最小とする公知のSVD(singular value decomposition)法を適用することができる。
幾何変換情報推定部2003は、得られた幾何変換のパラメータを、幾何変換情報1005の初期値として、位置合わせ部10に出力する(S708)。
図11は、画像特徴点検出部2001と2011が抽出する画像特徴点のデータ構造を、3次元画像の例として示すデータ構造図である。Vは特徴量ベクトルであり、Lは特徴点の数である。
画像特徴点の検出手法と記述手法については、非特許文献2に記載されている手法を用いることができる。例えば、画像局所領域における輝度の勾配方向を記述するSIFT(Scale−Invariant Feature Transform)特徴点を検出および記述する手法を用いることができる。位置合わせ対象となる画像が3次元画像である場合には、画像特徴点の検出と特徴量記述手法を、2次元から3次元へ拡張すればよい。
位置合わせ処理におけるサンプリング候補領域画像が肝臓血管領域画像であるため、画像特徴点の検出と記述する処理は画像全体に対して実施する必要はなく、管状領域抽出部14と18が抽出した肝臓血管領域画像データに対して実施すればよい。
<実施の形態2:まとめ>
以上のように、本実施形態2に係る画像処理装置100は、参照画像11と浮動画像12それぞれの管状領域から画像特徴点を抽出して特徴点同士を対応付け、その対応点の位置情報を用いて、幾何変換情報1005の初期値を設定する。これにより、位置合わせ処理の精度とロバスト性を向上させることができる。
<実施の形態3>
本発明の実施形態3では、位置合わせの結果と肝臓血管領域の抽出結果を重ねて画面表示することによってユーザが各結果を目視確認し、ユーザが幾何変換情報1005を手動入力して位置合わせ結果を修正する構成例を説明する。位置合わせ結果を修正する点以外の構成については実施形態1〜2と同様であるため、以下では差異点を中心に説明する。なお記載の便宜上、以下では実施形態1の構成において位置合わせ結果を修正する機能を追加した構成例を説明する。
図12は、本実施形態3に係る画像処理装置100の論理的な構成を示すブロック図である。図12に示す画像処理装置100は、実施形態1で説明した構成に加えて、管状領域抽出部18、画像表示部31、幾何変換情報手動入力部32を備える。
管状領域抽出部18については実施形態2で説明したものと同様である。位置合わせ部10は、位置合わせ済浮動画像10に加えて、幾何変換を実施した後の浮動画像12の管状領域画像(位置合わせ済浮動画像管状領域33)を出力する。画像表示部31は、これら画像を重ね合わせて画面表示する。幾何変換情報手動入力部32は、幾何変換情報1005を手動調整するための操作入力を受け取り、幾何変換情報1005に反映する。
幾何変換情報手動入力部32は、その機能を実現する回路デバイスなどのハードウェアを用いて構成することもできるし、その機能を実装したプログラムをCPUなどの演算装置が実行することによって各機能を構成することもできる。画像表示部31は、ディスプレイなどの表示デバイスを用いて構成することができる。
図13は、本実施形態3に係る画像処理装置100の全体動作を説明するフローチャートである。以下、図13の各ステップについて説明する。
臓器領域抽出部13と臓器領域抽出部17は、それぞれ参照画像11と浮動画像12を取得し、臓器領域を抽出する(S1301)。管状領域抽出部14と18は、参照画像11と浮動画像12の臓器領域からそれぞれ管状領域を抽出する(S1302)。管状領域サンプリング部15、位置合わせ部10は、実施形態1で説明した手法により位置合わせ処理を実行する(S1303)。位置合わせ部10は、浮動画像12とその管状領域に対して、位置合わせの結果得られた幾何変換パラメータを用いて幾何変換を実施する(S1304)。
位置合わせ部10は、位置合わせ済浮動画像16とその管状領域画像(位置合わせ済浮動画像管状領域33)を生成し(S1305)、画像表示部31に入力する。一方、参照画像11と、管状領域抽出部14から抽出された参照画像11の管状領域画像も、画像表示部31に入力される。
画像表示部31は、参照画像データ11と位置合わせ済浮動画像データ16を重ねて表示することができる。さらに画像表示部31は、抽出された参照画像11の管状領域画像を参照画像11の上に色を変えて透過的に重ねる。また、位置合わせ済の浮動画像管状領域33を位置合わせ済浮動画像16の上に色を変えて透過的に重ねる(S1306)。
医師などのユーザは、画像表示部31上に表示された結果を見ながら、位置合わせ処理が正確に行われたかどうかをチェックする(S1307)。位置合わせ処理が正確に実行されていないと判断される場合には、ユーザは幾何変換情報手動入力部32に幾何変換パラメータを手動で入力し(S1308)、幾何変換情報1005を手動更新することにより、位置合わせ結果を手動修正する。浮動画像幾何変換部1004は、手動更新された幾何変換情報1005を受け取り、これを用いてステップS1304〜S1307が繰り返し実施される。
<実施の形態3:まとめ>
以上のように、本実施形態3に係る画像処理装置100は、参照画像11とその管状領域、位置合わせ済浮動画像16と位置合わせ済浮動画像管状領域33を重ねて画面表示する。ユーザはその表示結果を見ながら幾何変換情報1005を手動調整することにより、位置合わせの結果を手動修正することができる。
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることもできる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の構成を追加・削除・置換することもできる。
上記各構成、機能、処理部、処理手段等は、それらの一部や全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置、ICカード、SDカード、DVD等の記録媒体に格納することができる。
10:位置合わせ部、11:参照画像、12:浮動画像、13:臓器領域抽出部、14:管状領域抽出部、15:管状領域サンプリング部、16:位置合わせ済浮動画像、17:臓器領域抽出部、18:管状領域抽出部、20:初期幾何変換情報設定部、31:画像表示部、32:幾何変換情報手動入力部、100:画像処理装置。

Claims (10)

  1. 第1画像と第2画像を取得する画像取得部と、
    前記第1画像と前記第2画像それぞれのなかで、位置合わせ対象である臓器が存在している領域を抽出する臓器領域抽出部と、
    前記臓器領域抽出部が前記第1画像から抽出した臓器領域のなかからサンプリングする領域を決定するための閾値を定める閾値設定部と、
    前記臓器領域抽出部が前記第1画像から抽出した臓器領域において、輝度が前記閾値以上である領域をサンプリング候補領域として抽出する領域抽出部と、
    前記領域抽出部が抽出した前記サンプリング候補領域からサンプリング点を抽出するサンプリング部と、
    前記サンプリング点に対応する位置における前記第1画像と前記第2画像の間の類似度を算出し、その類似度にしたがって、前記第1画像と前記第2画像の間で位置合わせを実施する位置合わせ部と、
    前記位置合わせの結果を出力する出力部と、
    を備えることを特徴とする画像処理装置。
  2. 前記閾値設定部は、前記臓器領域の輝度値の領域平均と領域分散を用いて前記閾値を設定する
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記サンプリング部は、前記サンプリング候補領域からランダムに画素を選択することにより、前記サンプリング候補領域から前記サンプリング点を抽出する
    ことを特徴とする請求項1記載の画像処理装置。
  4. 前記サンプリング部は、
    前記サンプリング候補領域からランダムに選択した画素の座標をさらにその画素領域内においてランダムに移動させて複数のランダム座標を設定し、
    前記ランダムに選択した画素と各前記ランダム座標の画素との間で画像補間処理を実施して求めた輝度値を、前記ランダムに選択した画素の輝度値の補正後の値として改めて採用する
    ことを特徴とする請求項1記載の画像処理装置。
  5. 前記閾値設定部は、前記閾値を手動指定する指定入力にしたがって前記閾値を設定する ことを特徴とする請求項1記載の画像処理装置。
  6. 前記臓器領域抽出部は、
    前記第1画像と前記第2画像それぞれのなかで、管状の部位を有する特定の臓器が存在している特定臓器領域を抽出し、
    前記領域抽出部は、
    前記第1画像と前記第2画像の双方から、前記特定臓器領域において輝度が前記閾値以上である領域を、前記管状の部位が存在する管状領域として抽出し、
    前記画像処理装置は、
    前記第1画像と前記第2画像から抽出された前記管状領域から特徴点を抽出する特徴点検出部をさらに備え、
    前記位置合わせ部は、
    前記第1画像と前記第2画像それぞれにおける各前記特徴点に対応する点を探索し、探索の結果得られた各対応点の位置を合わせることにより、前記第1画像と前記第2画像の間で位置合わせを実施する
    ことを特徴とする請求項1記載の画像処理装置。
  7. 前記臓器領域抽出部は、
    前記第1画像と第2画像それぞれのなかで、管状の部位を有する特定の臓器が存在している特定臓器領域を抽出し、
    前記領域抽出部は、
    前記第1画像と前記第2画像の双方から、前記特定臓器領域において輝度が前記閾値以上である領域を、前記管状の部位が存在する管状領域として抽出し、
    前記画像処理装置は、
    前記第1画像、前記第2画像、および前記領域抽出部が前記第1画像と前記第2画像それぞれから抽出した前記管状領域を重ね合わせて表示する表示部を備えている
    ことを特徴とする請求項1記載の画像処理装置。
  8. 前記表示部は、
    前記第1画像、前記領域抽出部が前記第1画像から抽出した前記管状領域、前記位置合わせ済の前記第2画像、および前記位置合わせ済の前記第2画像から前記領域抽出部が抽出した前記管状領域を、重ね合わせて表示する
    ことを特徴とする請求項7記載の画像処理装置。
  9. 前記位置合わせ部は、
    前記第2画像、および前記領域抽出部が前記第2画像から抽出した前記管状領域に対する幾何変換を実施するための変換パラメータを指定する入力を受け取り、
    その変換パラメータにしたがって、前記第2画像、および前記領域抽出部が前記第2画像から抽出した前記管状領域に対する幾何変換を実施し、
    前記表示部は、
    前記幾何変換後の前記第2画像、前記幾何変換後の前記第2画像上の前記管状領域、前記第1画像、および前記領域抽出部が前記第1画像から抽出した前記管状領域を、重ね合わせて表示する
    ことを特徴とする請求項7記載の画像処理装置。
  10. 第1画像と第2画像を取得する画像取得ステップ、
    前記第1画像と第2画像それぞれのなかで、位置合わせ対象である臓器が存在している領域を抽出する臓器領域抽出ステップ、
    前記臓器領域抽出ステップで前記第1画像から抽出した臓器領域のなかからサンプリングする領域を決定するための閾値を定める閾値設定ステップ、
    前記臓器領域抽出ステップで前記第1画像から抽出した臓器領域において、輝度が前記閾値以上である領域をサンプリング候補領域として抽出する領域抽出ステップ、
    前記領域抽出ステップで抽出した前記サンプリング候補領域からサンプリング点を抽出するサンプリングステップ、
    前記サンプリング点に対応する位置における前記第1画像と前記第2画像の間の類似度を算出し、その類似度にしたがって、前記第1画像と前記第2画像の間で位置合わせを実施する位置合わせステップ、
    前記位置合わせの結果を出力する出力ステップ、
    を有することを特徴とする画像処理方法。
JP2012098109A 2012-04-23 2012-04-23 画像処理装置、画像処理方法 Active JP5925576B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012098109A JP5925576B2 (ja) 2012-04-23 2012-04-23 画像処理装置、画像処理方法
PCT/JP2012/079801 WO2013161112A1 (ja) 2012-04-23 2012-11-16 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012098109A JP5925576B2 (ja) 2012-04-23 2012-04-23 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2013223674A JP2013223674A (ja) 2013-10-31
JP5925576B2 true JP5925576B2 (ja) 2016-05-25

Family

ID=49482473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012098109A Active JP5925576B2 (ja) 2012-04-23 2012-04-23 画像処理装置、画像処理方法

Country Status (2)

Country Link
JP (1) JP5925576B2 (ja)
WO (1) WO2013161112A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6478557B2 (ja) * 2014-10-15 2019-03-06 大阪瓦斯株式会社 探査方法
JP6482250B2 (ja) * 2014-11-20 2019-03-13 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016170624A (ja) * 2015-03-12 2016-09-23 富士通株式会社 補正装置、補正方法および補正プログラム
JP7245256B2 (ja) * 2018-03-02 2023-03-23 コーニンクレッカ フィリップス エヌ ヴェ 画像レジストレーションの認定
JP7125312B2 (ja) * 2018-09-07 2022-08-24 富士フイルムヘルスケア株式会社 磁気共鳴撮像装置、画像処理装置、及び、画像処理方法
CN110893108A (zh) * 2018-09-13 2020-03-20 佳能医疗系统株式会社 医用图像诊断装置、医用图像诊断方法及超声波诊断装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583857B2 (en) * 2005-08-24 2009-09-01 Siemens Medical Solutions Usa, Inc. System and method for salient region feature based 3D multi modality registration of medical images
JP5835680B2 (ja) * 2007-11-05 2015-12-24 株式会社東芝 画像位置合わせ装置
JP5478832B2 (ja) * 2008-03-21 2014-04-23 株式会社東芝 医用画像処理装置、及び医用画像処理プログラム

Also Published As

Publication number Publication date
JP2013223674A (ja) 2013-10-31
WO2013161112A1 (ja) 2013-10-31

Similar Documents

Publication Publication Date Title
JP6129310B2 (ja) 画像処理装置および画像処理方法
Li et al. Optimal surface segmentation in volumetric images-a graph-theoretic approach
CN110766730B (zh) 图像配准及随访评估方法、存储介质及计算机设备
EP3444781B1 (en) Image processing apparatus and image processing method
Häme et al. Semi-automatic liver tumor segmentation with hidden Markov measure field model and non-parametric distribution estimation
JP5334692B2 (ja) 制約されたマージナル空間学習を使用して3d解剖学的オブジェクトを検出するための方法およびシステム
KR102205898B1 (ko) 의료영상들을 정합하는 방법 및 장치
JP5925576B2 (ja) 画像処理装置、画像処理方法
US10210612B2 (en) Method and system for machine learning based estimation of anisotropic vessel orientation tensor
US9367924B2 (en) Method and system for segmentation of the liver in magnetic resonance images using multi-channel features
Gao et al. Automatic segmentation of coronary tree in CT angiography images
KR20150045885A (ko) 초음파 및 ct 영상의 정합에 관한 시스템 및 작동 방법
US10748282B2 (en) Image processing system, apparatus, method and storage medium
JP2017064370A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2016007270A (ja) 医用画像処理装置
JP2008212396A (ja) 画像処理装置およびそのプログラム
CN109801276B (zh) 一种计算心胸比的方法及装置
US11200443B2 (en) Image processing apparatus, image processing method, and image processing system
US8306354B2 (en) Image processing apparatus, method, and program
EP4156096A1 (en) Method, device and system for automated processing of medical images to output alerts for detected dissimilarities
US20190392552A1 (en) Spine image registration method
Chen et al. Functional region annotation of liver CT image based on vascular tree
WO2020031071A1 (en) Internal organ localization of a subject for providing assistance during surgery
KR20150026354A (ko) 의료영상들을 정합하는 방법 및 장치
Selvan et al. Extraction of airways with probabilistic state-space models and bayesian smoothing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160420

R151 Written notification of patent or utility model registration

Ref document number: 5925576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250