JP2011095921A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2011095921A
JP2011095921A JP2009248088A JP2009248088A JP2011095921A JP 2011095921 A JP2011095921 A JP 2011095921A JP 2009248088 A JP2009248088 A JP 2009248088A JP 2009248088 A JP2009248088 A JP 2009248088A JP 2011095921 A JP2011095921 A JP 2011095921A
Authority
JP
Japan
Prior art keywords
image
area
objects
region
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009248088A
Other languages
English (en)
Inventor
Yuta Nakano
雄太 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009248088A priority Critical patent/JP2011095921A/ja
Publication of JP2011095921A publication Critical patent/JP2011095921A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】他の領域と特徴の似ている画像領域であっても、当該画像領域における正しいオブジェクトの識別を行えるようにする。
【解決手段】特徴量算出部113では、画像分割部112で分割された画像の各領域から特徴量を算出し、対応付け手段(114及び115)では、当該特徴量に基づいて各領域に1又は複数のオブジェクトを対応付ける。そして、オブジェクト選択部116では、対応付け手段により1つの領域に対して複数のオブジェクトが対応付けられた場合、当該1つの領域に対応付けられた各オブジェクトへの帰属確率と、当該1つの領域の近傍に位置する近傍領域に係る近傍領域情報とに基づいて、複数のオブジェクトの中から1つのオブジェクトを選択して当該1つの領域に対応付ける。そして、領域統合部117では、画像において同じ種類のオブジェクトが対応付けられた領域を統合する。
【選択図】図1

Description

本発明は、入力された画像の処理を行う画像処理装置、当該画像処理装置による画像処理方法、当該画像処理方法をコンピュータに実行させるためのプログラム、及び、当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体に関する。
近年、医療検査機器の技術開発に伴って、莫大なデータが画像や動画として生成されるようになり、それらのデータに基づき診断を行う医師の負荷が甚大なものとなっている。そのような状況の中、画像内に含まれるオブジェクトを自動で識別することで、画像内に描画された病変などをコンピュータにより認識する手法の開発が進められ、医療画像の異常認識への応用が進められている。
従来、画像内の領域に対して、オブジェクトへの対応付けを行う手法の1つとして、自己組織化マップを用いる手法が知られている(例えば、下記の特許文献1及び特許文献2参照)。この自己組織化マップは、複数の代表ベクトルが2次元空間上に配列された特徴空間を有し、学習により、特徴の似ているベクトルが近くに配置されるような特徴空間を構築する手法である。そして、自己組織化マップで構築した特徴空間にオブジェクトを割り当てておくことで、ある領域が特徴空間中のどこに写像されたかによって、領域とオブジェクトとの対応付けを行うことができる。
特開2005−63307号公報 特開2004−62605号公報
しかしながら、従来の技術では、対応付けるオブジェクトが異なっているにも関わらず、特徴の似た領域が存在する場合、正しい対応付けを行うことが困難となる課題がある。
具体的に、特許文献1の技術では、そのような領域が存在する場合に無理に対応付けを行わず、不明クラスとすることで誤った対応付けを避ける工夫をしている。しかしながら、特許文献1の技術では、不明クラスとなった領域がオブジェクトに対応付けられないまま最終的な識別結果とされてしまうので、特徴が似ているにも関わらず、不明クラスの孤立した領域となってしまう。
また、特許文献2の技術では、孤立した領域に対して、面積や隣接領域との共有輪郭線などの情報を利用して周辺領域と統合することで、正しい対応付けを行う工夫をしている。しかしながら、特許文献2の技術では、統合処理に関して面積や隣接領域との共有輪郭線の長さだけを統合の判断材料としており、領域の特徴は考慮されていない。
これらの手法では、自己組織化マップにおいて、複数の異なるオブジェクトに対応する領域が同じ代表ベクトルに写像される場合に、その領域の特徴と画像空間での特徴との両方を考慮した総合的なオブジェクトの識別ができなかった。
本発明は、このような問題点に鑑みてなされたものであり、他の領域と特徴の似ている画像領域であっても、当該画像領域における正しいオブジェクトの識別を行えるようにすることを目的とする。
本発明の画像処理装置は、入力された画像の処理を行う画像処理装置であって、前記画像を複数の領域に分割する分割手段と、前記分割手段により分割された複数の領域における各領域から特徴量を算出する特徴量算出手段と、前記特徴量算出手段により算出された特徴量に基づいて、前記各領域に1又は複数のオブジェクトを対応付ける対応付け手段と、前記対応付け手段により1つの領域に対して複数のオブジェクトが対応付けられた場合、当該1つの領域に対応付けられた各オブジェクトへの帰属確率と、当該1つの領域の近傍に位置する近傍領域に係る近傍領域情報とに基づいて、前記複数のオブジェクトの中から1つのオブジェクトを選択し、当該1つの領域に当該1つのオブジェクトを対応付ける選択手段と、前記画像において同じ種類のオブジェクトが対応付けられた領域を統合する統合手段とを有する。
また、本発明は、上述した画像処理装置による画像処理方法、当該画像処理方法をコンピュータに実行させるためのプログラム、及び、当該プログラムを記憶するコンピュータ読み取り可能な記憶媒体を含む。
本発明によれば、他の領域と特徴の似ている画像領域であっても、当該画像領域における正しいオブジェクトの識別を行うことができる。
本発明の第1の実施形態に係る画像処理システムの概略構成の一例を示す模式図である。 本発明の第1の実施形態に係る画像処理装置による画像処理方法における学習プロセス処理の一例を示すフローチャートである。 本発明の第1の実施形態に係る画像処理装置による画像処理方法における検出プロセス処理の一例を示すフローチャートである。 図1に示す特徴空間作成部で作成した自己組織化マップの一例を示す模式図である。 本発明の第1の実施形態を示し、OCT断層画像の一例を示す模式図である。 本発明の第2の実施形態を示し、OCT断層画像の一例を示す模式図である。 本発明の第3の実施形態を示し、OCT断層画像の一例を示す模式図である。
本発明は、画像内の領域から算出される特徴量が似ているためにその特徴量のみではオブジェクトを正しく識別することが困難な領域に対して、領域同士の位置関係や近傍領域も含めた帰属確率を考慮して、オブジェクトを正しく識別できるようにしたものである。
具体的に、下記に示す本発明を実施するための形態では、近年、その利用が進んでいる光干渉断層計(以下、「OCT」と称する)による網膜断層画像を対象とし、この断層画像から、オブジェクトとして解剖学的構造や病変を識別する手法について説明する。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理システムの概略構成の一例を示す模式図である。
画像処理システム100は、図1に示すように、画像処理装置110、画像取得装置120、及び、保存装置130を有して構成されている。
画像処理装置110は、入力された画像(本実施形態では、OCT断層画像)の処理を行うものである。この画像処理装置110は、画像取得部111、画像分割部112、特徴量算出部113、特徴空間作成部114、特徴ベクトル写像部115、オブジェクト選択部116、領域統合部117、及び、画像表示部118を有して構成されている。この画像処理装置110は、画像取得装置120及び保存装置130と通信可能に接続されている。
画像取得部111は、画像取得装置120或いは保存装置130から処理対象の画像(本実施形態では、OCT断層画像)を取得し、取得した画像を画像処理装置110内の画像分割部112に入力する処理を行う。
画像分割部112は、画像取得部111で取得され入力された画像を複数の領域に分割する処理を行う。
特徴量算出部113は、画像分割部112により分割された複数の領域における各領域から特徴量を算出する処理を行う。
特徴空間作成部114は、画像分割部112により分割された複数の領域における各領域にオブジェクトを対応付けるための特徴空間を作成する処理を行う。そして、特徴空間作成部114は、オブジェクトを認識するための自己組織化マップを作成する。さらに、特徴空間作成部114は、作成した自己組織化マップ上の代表ベクトルに対して、各オブジェクトの帰属確率を算出して割り当てる処理を行う。
特徴ベクトル写像部115は、特徴量算出部113において各領域から算出された特徴量(特徴量ベクトル)を、特徴空間作成部114により作成された自己組織化マップ上の代表ベクトルに写像する。この際、代表ベクトルには、オブジェクトへの帰属確率が割り当てられているため、入力ベクトルに対する各オブジェクトへの帰属確率が決められ、その値によって各領域にオブジェクトが対応付けられる。
この特徴空間作成部114及び特徴ベクトル写像部115は、例えば、特徴量算出部113により算出された特徴量に基づいて、画像分割部112により分割された複数の領域における各領域に1又は複数のオブジェクトを対応付ける対応付け手段を構成する。
オブジェクト選択部116は、対応付け手段により1つの領域に対して複数のオブジェクトが対応付けられた場合、当該1つの領域に対応付けられた各オブジェクトへの帰属確率と、当該1つの領域の近傍に位置する近傍領域に係る近傍領域情報とに基づいて、複数のオブジェクトの中から1つのオブジェクトを選択する。そして、オブジェクト選択部116は、当該1つの領域に選択した当該1つのオブジェクトを対応付ける処理を行う。
領域統合部117は、処理対象の画像において同じ種類のオブジェクトが対応付けられた領域を統合する処理を行う。そして、領域統合部117は、統合された領域を最終的なオブジェクトの領域として、画像表示部118に統合処理の結果得られた画像を表示する。
画像取得装置120は、不図示の操作者による操作に基づいて、不図示の被写体である被検眼の撮影を行い、必要に応じて、得られた画像(本実施形態では、OCT断層画像)を画像処理装置110や保存装置130へ送信する。
保存装置130は、画像処理装置110において画像処理される画像(本実施形態では、OCT断層画像)を保存するものである。
次に、図2及び図3のフローチャートを参照して、本実施形態の画像処理装置110が実行する具体的な処理手順について説明する。
具体的に、本実施形態の処理は、被検眼の網膜色素上皮や白斑のオブジェクトにラベル付けを行ったOCT断層画像に基づき自己組織化マップを作成する学習プロセス(図2)と、作成した自己組織化マップに基づき新たに入力されたOCT断層画像中の網膜色素上皮や白斑のオブジェクトを検出する検出プロセス(図3)とに分けられる。
図2は、本発明の第1の実施形態に係る画像処理装置による画像処理方法における学習プロセス処理の一例を示すフローチャートである。具体的に、図2に示す学習プロセス処理では、自己組織化マップを作成すると同時に、当該自己組織化マップ上の代表ベクトルに対して被検眼の網膜色素上皮や白斑への帰属確率を割り当てる。
<ステップS201>
図2のステップS201において、まず、画像取得部111は、被検眼の網膜色素上皮や白斑のラベル付けがされ、保存装置130に保存されている画像(本実施形態では、OCT断層画像)を取得する。なお、OCT断層画像に対するラベル付けは、予め医者等によって行われているものとする。その後、画像分割部112は、画像取得部111で取得した画像(OCT断層画像)を複数の領域に分割する処理を行う。
具体的に、本実施形態の画像分割部112では、例えば、画像取得部111で取得した画像の各画素を1つの領域として画素数分だけ分割する。そして、ラベル付けされた領域の中から、網膜色素上皮の領域、白斑の領域及びその他の領域を30サンプルずつ、つまり30画素ずつ選び、合計90サンプルの学習データセットとする。この学習データの選び方としては、画像特徴において多様性が高くなるように、できるだけ多くの症例や病変部から選択する。また、その他の領域のサンプルについては、網膜色素上皮及び白斑以外でOCT断層画像内に存在する、例えば神経線維層や外顆粒層などのオブジェクトから選択する。また、サンプル数は、画像特徴の観点から、考えられる網膜色素上皮や白斑の領域のパターン分、例えば本実施形態では30サンプルずつ選択し、その他の領域に関しては、例えば網膜色素上皮や白斑のサンプル数と数を合わせて30サンプルとする。但し、領域の分割方法は、前述したものに限定されるものではない。例えば、画像の端から5×5ピクセルのブロック状に分割し、それぞれのブロックを1つの領域としてもよい。また、ブロックのサイズや形状はどのようなものを設定してもよく、各領域が同じサイズ、形状である必要もない。
<ステップS202>
続いて、ステップS202において、特徴量算出部113は、ステップ201で画像分割された各領域から、輝度情報(輝度値)を用いて特徴量を算出する処理を行う。
具体的に、本実施形態では、各画素を1つの領域として設定しているため、輝度情報(輝度値)を用いて特徴量を算出する際には、例えば、当該各画素とその周辺領域の画素も含めた9×9の画素領域を特徴量の算出対象領域としている。また、本実施形態では、算出する特徴量として、階調特徴量、統計特徴量、エッジ特徴量を用いている。
具体的に、階調特徴量は、各領域における輝度値の特徴を数値化したものである。また、統計特徴量は、各領域における輝度値の分布特徴を数値化したものである。なお、統計特徴量には、ヒストグラムの特徴を数値化したものも含まれる。また、エッジ特徴量は、各領域におけるエッジ成分を数値化したものである。
本実施形態では、階調特徴量として、輝度値の平均、最大値、最小値を適用し、統計特徴量として、輝度値の標準偏差、中央値、最頻値を適用し、エッジ特徴量として、各領域のsobel成分を適用する。ここで、sobel成分は、領域内のsobel成分に対して、階調特徴量、統計特徴量を算出したものである。本実施形態では、各領域に対して、輝度値の平均値、最大値、最小値、標準偏差、中央値、最頻値、sobel成分の平均値、標準偏差を算出し、8次元ベクトルとして以下のステップでの特徴量とする。
なお、ステップ202で算出される特徴量の種類は、これらに限定されるものではなく、領域における何らかの特徴を数値化したものであれば、如何なるものを用いてもよい。例えば、各領域におけるHaarウェーブレット成分の総量などのテクスチャ特徴量を用いてもよい。また、算出する特徴量の数に制限はなく、特徴量が少なくとも1つ算出されればよい。
<ステップS203>
続いて、ステップS203において、特徴空間作成部114は、被検眼の網膜色素上皮と白斑の領域を認識するための自己組織化マップを作成する。
具体的に、ステップS203では、まず、特徴空間作成部114は、入力ベクトルと同じ次元数の代表ベクトルをランダムに作成し、これを4×4の2次元空間上に配列する。そして、特徴空間作成部114は、入力ベクトルと各代表ベクトルとのユークリッド距離を計算し、最も近い代表ベクトルを選択する(以後、この処理を「写像する」と称する)。そして、特徴空間作成部114は、写像された代表ベクトルをVklとし、その近傍にある代表ベクトルVij(i=k−1,k,k+1:j=l−1,l,l+1)を、ベクトルの各次元の値が入力ベクトルに近づくように更新する。具体的に、特徴空間作成部114は、写像された代表ベクトルとその近傍の代表ベクトルを、下記の(1)式に従って更新する。
Figure 2011095921
(1)式のように、代表ベクトルの更新は、更新前の代表ベクトル(Vijold)と入力ベクトル(vinput)との差に学習係数αを掛けた更新量を、更新前の代表ベクトル(Vijold)に加えることで行われる。この代表ベクトルの更新を繰り返すことで、2次元空間上に特徴の似た代表ベクトルが集まった配列をもつ自己組織化マップが構築される。
本実施形態では、事前の予備実験において自己組織化マップが収束していく様子から、学習係数αの値を学習開始時に0.05とし、学習データセットの90(30×3)領域を1周入力する度に0.001ずつ減らしていくこととする。学習は、予備実験より、代表ベクトルの更新を学習データセット10周分、つまり900回行って終了とする。
<ステップS204>
続いて、ステップS204において、特徴空間作成部114は、ステップ203で作成した自己組織化マップ上の16本の代表ベクトルに対して、被検眼の網膜色素上皮、白斑及びその他の各領域の帰属確率を算出する。これにより、各代表ベクトルへ帰属確率の割り当てが行われる。
具体的に、まず、特徴空間作成部114は、学習データセットとして用いられた、ラベル付けされた90領域全てを、ステップS203で構築した自己組織化マップに写像する。次に、特徴空間作成部114は、各代表ベクトルごとに、写像された領域の数をラベルごとにカウントすることで、被検眼の網膜色素上皮、白斑及びその他の各領域の帰属確率を算出する。
ここで、上述した帰属確率の算出方法の詳細について以下に説明する。
マップ上のある代表ベクトルをVij(i=0〜3,j=0〜3)とする。そして、代表ベクトルVijに写像される領域数がNijであり、そのうちnRijが網膜色素上皮とラベルされた領域数、nEijが白斑とラベルされた領域数、nOijがその他とラベルされた領域数とする。このとき、代表ベクトルVijに対するラベルごとの帰属確率は、網膜色素上皮についてはnRij/Nij、白斑についてはnEij/Nij、その他についてはnOij/Nijとなる。ここで、nRij、nEij、nOijの和はNijであり、さらにNijを全ての代表ベクトルについて和をとったカウント数の合計は90となる。
特徴空間作成部114では、このようにして作成した自己組織化マップ、及び、算出した各代表ベクトルのオブジェクトへの帰属確率を互いに関連付けて、学習結果として保存装置130に保存する。
図4は、図1に示す特徴空間作成部114で作成した自己組織化マップの一例を示す模式図である。
図4に示す自己組織化マップに学習データセットを写像すると、代表ベクトルV03及びV13には、網膜色素上皮のみが写像され、網膜色素上皮への帰属確率1.0が割り当てられる。また、代表ベクトルV33には、白斑のみが写像され、白斑への帰属確率1.0が割り当てられる。また、代表ベクトルV23には、網膜色素上皮と白斑の双方が写像され、その割合は1対1なので、網膜色素上皮への帰属確率0.5、及び、白斑への帰属確率0.5の双方が割り当てられる。また、図4に示す、代表ベクトルV03、V13、V23及びV33以外の代表ベクトルには、網膜色素上皮と白斑は写像されず、帰属確率が割り当てられないか、その他の領域への帰属確率が割り当てられる。
なお、本実施形態における帰属確率の算出方法は、これらの手法に限定されるものではなく、代表ベクトルに写像される領域数や画像におけるオブジェクトの割合などを重みとして帰属確率に反映させる方法などを用いてもよい。また、本実施形態では、特徴空間作成部114において自己組織化マップを用いているが、この手法に限定されるものではない。例えば、k最近傍法などのクラスタリング手法のように、ある特徴空間に写像する手法については、写像空間におけるクラスタ中心からの距離から帰属確率を求めることができるため、特徴空間作成部114において用いる手法として適用することができる。また、ベイジアンネットワークなども、出力される確率を帰属確率として扱うことで、特徴空間作成部114において用いる手法として適用することができる。
次に、図3のフローチャートを参照して検出プロセスの具体的な処理手順を説明する。
図3は、本発明の第1の実施形態に係る画像処理装置による画像処理方法における検出プロセス処理の一例を示すフローチャートである。具体的に、図3に示す検出プロセス処理では、まず、画像内の各領域に対して、網膜色素上皮もしくは白斑を対応付ける。さらに、網膜色素上皮及び白斑の双方に対応付けられる可能性のある画像内の領域に対して、近傍領域の情報を加味して帰属確率を再計算することで、より対応付けられる可能性の高い方のオブジェクトを選択する。
<ステップS301>
図3のステップS301において、まず、画像取得部111は、画像取得装置120で撮像された画像(本実施形態では、OCT断層画像)を取得する。その後、画像分割部112は、ステップS201と同様の手法を用いて、画像取得部111で取得した画像(OCT断層画像)を複数の領域に分割する処理を行う。
<ステップS302>
続いて、ステップS302において、特徴量算出部113は、ステップS301で画像分割された各領域から、ステップS202と同様の手法を用いて、特徴量を算出する処理を行う。具体的に、ステップS302では、ステップS202で作成したものと同じ8次元の特徴量ベクトルを算出する。
<ステップS303>
続いて、ステップS303において、まず、特徴ベクトル写像部115は、ステップS204において保存装置130に保存された自己組織化マップを取得する。そして、特徴ベクトル写像部115は、ステップS302において各領域から算出された特徴量(特徴量ベクトル)を、当該自己組織化マップ上の代表ベクトルに写像する。この際、代表ベクトルには、オブジェクトへの帰属確率が割り当てられているため、入力ベクトルに対する網膜色素上皮及び白斑への帰属確率が決められ、その値によってオブジェクトが対応付けられる。
本実施形態では、各代表ベクトル及び入力ベクトルにおいて、帰属確率0.3以上のオブジェクトを対応付けることとする。つまり、ステップS204で説明した帰属確率より、図4に示す自己組織化マップにおける点線で囲まれた範囲には、網膜色素上皮が対応付けられた代表ベクトル(V03,V13,V23)が配置される。また、図4に示す自己組織化マップにおける実線で囲まれた範囲には、白斑が対応付けられた代表ベクトル(V23,V33)が配置される。この際、重複した範囲にある代表ベクトルV23には、網膜色素上皮と白斑との両方のオブジェクトが対応付けられている。即ち、これらの代表ベクトルに写像された入力ベクトルには、本実施形態の場合、網膜色素上皮か白斑、もしくは両方のオブジェクトが対応付けられる。
入力ベクトルを自己組織化マップに写像した後、本ステップにおいて、最後に、特徴ベクトル写像部115は、オブジェクトが対応付けられた領域について、画像空間中で同じ代表ベクトルに写像された領域が隣り合っていた場合には当該領域を統合する。本実施形態では、ステップS301において、画素単位の領域分割を行っているので、8近傍に同じ代表ベクトルに写像された画素が存在していた場合にこれらを統合する。そして、帰属確率が等しい領域(本実施形態では、画素)を集めた領域を次のステップの入力とする。
<ステップS304>
続いて、ステップS304において、特徴ベクトル写像部115(或いはオブジェクト選択部116)は、ステップS303で対応付けたオブジェクトの数を調べて、複数のオブジェクトが対応付けられた領域が存在するか否かを判断する。本実施形態では、具体的に、図4に示す代表ベクトルV23に写像された領域が存在するか否かが判断され、当該領域に対してはステップS305において処理され、その他の領域に関してはステップS306において処理される。
<ステップS305>
ステップ304の判断の結果、複数のオブジェクトが対応付けられた領域が存在する場合には、ステップ305に進む。
ステップS305に進むと、オブジェクト選択部116は、複数のオブジェクトが対応付けられた領域を対象として、当該対象領域の帰属確率と近傍領域の情報とを用いて、複数のオブジェクトの中から当該対象領域に対応付ける1つのオブジェクトを選択する。本例では、ステップS303において特徴ベクトル写像部115で網膜色素上皮と白斑との両方のオブジェクトが対応付けられた領域を対象として、当該対象領域の帰属確率と近傍領域の情報を用いて、網膜色素上皮か白斑のどちらかのオブジェクトを選択する。
第1の実施形態のステップ305における具体的な処理方法について、図5を用いて以下に説明する。
図5は、本発明の第1の実施形態を示し、OCT断層画像の一例を示す模式図である。
図5に示すOCT断層画像おいて、画像領域N1は、例えば図4の代表ベクトルV13に写像された領域であり、網膜色素上皮のオブジェクトに対応付けられている領域である。また、画像領域N2は、例えば図4の代表ベクトルV33に写像された領域であり、白斑のオブジェクトに対応付けられている領域である。画像領域U1及びU2は、例えば図4の代表ベクトルV23に写像された領域であり、網膜色素上皮と白斑の双方のオブジェクトに対応付けられている領域である。また、画像領域N1、N2、U1及びU2以外の画像領域は、例えば図4の代表ベクトルV03、V13、V23及びV33以外の代表ベクトルに写像されており、本例では、オブジェクトが対応付けられていない。
そして、本実施形態では、オブジェクト選択部116は、まず、複数のオブジェクトが対応付けられている画像領域U1及びU2について、各領域の近傍にある領域を求める。具体的に、図5に示す例では、画像領域U1についての近傍領域は画像領域N1であり、画像領域U2についての近傍領域は画像領域N2となる。この近傍領域の影響を考慮して、各領域の帰属確率を再評価した値(以後、「帰属指標」と称する)をF( )とすると、例えばオブジェクト選択部116は、画像領域U1の網膜色素上皮への帰属指標を下記の(2)式のように計算する。また、例えばオブジェクト選択部116は、画像領域U1の白斑への帰属指標を下記の(3)式のように計算する。
Figure 2011095921
ここで、(2)式のPU1(R)は、領域U1の網膜色素上皮への帰属確率を表し、(3)式のPU1(E)は、領域U1の白斑への帰属確率を表している。また、(2)式のPN1(R)は、領域N1の網膜色素上皮への帰属確率を表し、(3)式のPN1(E)は、領域N1の白斑への帰属確率を表している。
同様に、領域U2について帰属指標を求めると、以下の(4)式及び(5)式のようになる。
Figure 2011095921
ここで、ステップS204の説明より、PN1(R)=1、PN1(E)=0、PN2(R)=0、PN2(E)=1、PU1(R)=PU1(E)=PU2(R)=PU2(E)=0.5の場合に、これらの値を(2)式〜(5)式に代入し、算出したそれぞれの帰属指標の大小関係を表すと、FU1(R)>FU1(E)、FU2(R)<FU2(E)となる。この場合、オブジェクト選択部116は、画像領域U1については網膜色素上皮のオブジェクトを選択して対応付け、画像領域U2については白斑のオブジェクトを選択して対応付ける。
なお、本実施形態では、複数のオブジェクトが対応付けられた対象領域と接している領域を近傍領域としているが、これに限定されるものではない。例えば、重心間の距離がしきい値以下の領域を近傍領域としてもよい。
<ステップS306>
ステップ304において複数のオブジェクトが対応付けられた領域が存在しないと判断された場合、或いはステップ305の処理が終了した場合には、ステップ306に進む。
ステップ306に進むと、領域統合部117は、OCT断層画像のオブジェクトが対応付けられた全領域に対して、近傍領域を調べて、同じ種類のオブジェクトに対応付けられた領域が存在する場合には、当該領域を統合する。そして、領域統合部117は、統合された領域を最終的なオブジェクトの領域として、画像表示部118に統合処理の結果得られたOCT断層画像を表示する。
なお、本実施形態では、2次元のOCT断層画像を用いた場合を例として説明したが、例えば、3次元ボリュームデータを用いて3次元領域を単位としても同様に扱うことができる。
本実施形態によれば、特徴の似ている画像領域について、当該画像領域の帰属確率に加えてその近傍領域の帰属確率も考慮することにより、当該画像領域における正しいオブジェクトの識別を行うことができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
第2の実施形態は、図3のステップS305において、選択対象となるオブジェクトへの帰属確率をもつ近傍領域が複数存在した場合、複数の近傍領域情報を一元的に扱い、帰属指標を算出して、オブジェクトを選択する実施形態である。このように、複数の近傍領域情報を一元的に扱うことで、オブジェクトが隣り合う画像においても正しくオブジェクトを識別することができる。
なお、図3のフローチャートにおいて、ステップS305以外の処理は、第1の実施形態と同様であるため、その説明は省略する。
<ステップS305>
第2の実施形態では、図3のステップS305において、オブジェクト選択部116は、ステップS304において特徴ベクトル写像部115で複数のオブジェクトが対応付けられた領域を対象として、当該対象領域の近傍領域情報を用いて帰属指標を算出する。そして、オブジェクト選択部116は、複数のオブジェクトの中から当該対象領域に対応付ける1つのオブジェクトを選択する。
第2の実施形態のステップ305における具体的な処理方法について、図6を用いて以下に説明する。
図6は、本発明の第2の実施形態を示し、OCT断層画像の一例を示す模式図である。
図6に示すOCT断層画像おいて、画像領域N3は、例えば図4の代表ベクトルV13に写像された領域であり、網膜色素上皮のオブジェクトに対応付けられている領域である。また、画像領域N4及びN5は、例えば図4の代表ベクトルV33に写像された領域であり、白斑のオブジェクトに対応付けられている領域である。また、画像領域U3は、代表ベクトルV23に写像された領域であり、網膜色素上皮と白斑の双方のオブジェクトに対応付けられている領域である。また、画像領域N3、N4、N5及びU3以外の画像領域は、例えば図4の代表ベクトルV03、V13、V23及びV33以外の代表ベクトルに写像されており、本例では、オブジェクトが対応付けられていない。
以下の説明においては、この場合の画像領域U3における網膜色素上皮及び白斑のオブジェクトに対する帰属指標を計算する場合について説明を行う。本実施形態では、帰属指標の算出の際に、対象領域における近傍領域との共有輪郭線長の割合を近傍領域情報として用いる。
ここで、画像領域U3の輪郭線長をLU3とし、画像領域U3における画像領域N3、N4及びN5と共有する輪郭線長を、それぞれ、LN3、LN4及びLN5とする。すると、共有輪郭線長の割合は、CN3=LN3/LN3、CN4=LN4/LU3、CN5=LN5/LU3となる。
これを用いると、画像領域U3における網膜色素上皮及び白斑に対する帰属指標FU3(R)及びFU3(E)は、それぞれ、下記の(6)式及び(7)式で算出される。
Figure 2011095921
ここで、ステップS204の説明を流用して、PN3(R)=1、PN3(E)=0、PN4(R)=0、PN4(E)=1、PN5(R)=0、PN5(E)=1、PU3(R)=PU3(E)=0.5となるものとする。
また、図6に示す例では、それぞれの輪郭線長の割合は、CN3=0.5、CN4=0.2、CN5=0.1と算出される。これらの値を(6)式及び(7)式に代入し、算出したそれぞれの帰属指標の大小関係を表すと、FU3(R)>FU3(E)となる。この場合、オブジェクト選択部116は、画像領域U3については網膜色素上皮のオブジェクトを選択して対応付ける。
なお、本実施形態では、(6)式及び(7)式を用いて帰属指標を計算しているが、この算出方法に限定されるものではない。例えば、各近傍領域との重心間の距離を考慮して、画像領域U3と、画像領域N3、N4及びN5との重心間の距離を、それぞれ、DN3、DN4及びDN5として、以下の(8)式及び(9)式を用いて帰属指標を計算してもよい。
Figure 2011095921
また、近傍領域との面積比を考慮して、画像領域U3と、画像領域N3、N4及びN5との面積比を、それぞれ、SN3、SN4及びSN5として、(8)式及び(9)式のDN3、DN4及びDN5と同様に掛け合わせてもよい。
本実施形態によれば、選択対象となるオブジェクトへの帰属確率をもつ近傍領域が複数存在した場合、対象となる画像領域の帰属確率と複数の近傍領域の情報を一元的に扱って帰属指標を計算することにより、当該画像領域における正しいオブジェクトの識別を行うことができる。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
第3の実施形態は、図3のステップS305において、選択対象となるオブジェクトへの帰属確率をもつ近傍領域が複数存在し、且つ、対象となるオブジェクトのとりうる形状や存在しやすい位置、大きさについて予め知識がある場合、その知識を反映した帰属指標を算出する実施形態である。このように、オブジェクトに関する知識を帰属指標に反映させることで、複雑な構造のオブジェクトや大きさに差のあるオブジェクトを正しく識別することができる。
なお、図3のフローチャートにおいて、ステップS305以外の処理は、第1の実施形態と同様であるため、その説明は省略する。
<ステップS305>
第3の実施形態では、図3のステップS305において、オブジェクト選択部116は、ステップS304において特徴ベクトル写像部115で複数のオブジェクトが対応付けられた領域を対象として、当該対象領域の近傍領域情報を用いて帰属指標を算出する。そして、オブジェクト選択部116は、複数のオブジェクトの中から当該対象領域に対応付ける1つのオブジェクトを選択する。
第3の実施形態のステップ305における具体的な処理方法について、図7を用いて以下に説明する。
図7は、本発明の第3の実施形態を示し、OCT断層画像の一例を示す模式図である。
図7のOCT断層画像は、上述した実施形態における網膜色素上皮及び白斑のオブジェクトに加えて、外顆粒層及び外網状層のオブジェクトを含む4つのオブジェクトを対象としている。そして、図7のOCT断層画像は、図2のフローチャートに従って自己組織化マップを構築し、図3のフローチャートにおけるステップS301〜ステップS304までの処理を行った結果の画像である。
図7に示すOCT断層画像おいて、帰属確率より、画像領域N6には網膜色素上皮、画像領域N7には白斑、画像領域N8には外顆粒層、画像領域N9には外網状層の各オブジェクトが対応付けられている。また、画像領域U4は、本来、白斑の領域であるが、特徴が似ているため、白斑と外顆粒層の2つのオブジェクトが対応付けられており、ステップS305におけるオブジェクト選択対象領域となっている。
以下の説明においては、画像領域U4について、白斑と外顆粒層、外網状層との形状や存在しやすい位置関係を考慮して、それぞれの帰属指標を計算する場合について説明を行う。オブジェクトの形状については、白斑は塊状であり、外顆粒層及び外網状層は層状である。また、大きさについては、一般的に外顆粒層及び外網状層に対して白斑は小さい。そのため、白斑は外顆粒層及び外網状層に囲まれて存在することが多い。
第2の実施形態で説明した(6)式及び(7)式のように、対象領域と近傍領域の帰属確率を同等に扱うとき、画像領域U4のように白斑と外顆粒層の両方が対応付けられた領域について帰属指標を計算すると、白斑を囲む外顆粒層の方が対応するオブジェクトとして選ばれやすい。そこで、複数のオブジェクトが対応付けられている領域に関する重み係数をwt、近傍領域に関する重み係数をwnとして導入する。ここで、画像領域U4の白斑と外顆粒層に対する帰属確率をそれぞれ、PU4(E)、PU4(O)とする。また、画像領域U4の近傍領域にあたる画像領域N7及びN8の、当該画像領域U4の白斑及び外顆粒層に対する帰属確率をそれぞれ、PN7(E)、PN7(O)、PN8(E)、PN8(O)とする。また、画像領域U4について画像領域N7及びN8と共有する輪郭線の割合をそれぞれ、CN7及びCN8とする。この場合、画像領域U4の白斑及び外顆粒層に対する帰属指標FU4(E)及びFU4(O)は、以下の(10)式及び(11)式のように計算される。
Figure 2011095921
ここで、(10)式及び(11)式において、それぞれの値が、PU4(E)=0.6、PU4(O)=0.4、PN7(E)=0.8、PN7(O)=0.2、PN8(E)=0.2、PN8(O)=0.8、CN7=0.3、CN8=0.7の場合に、重み係数wt、wnをそれぞれ1.0として、第2の実施形態と同様に計算すると、FU4(E)<FU4(O)となる。この場合、オブジェクト選択部116は、画像領域U4について外顆粒層のオブジェクトを選択して対応付ける。
しかしながら、この場合、白斑は外顆粒層に囲まれて存在することが多いということを考慮して、近傍領域の影響を受けすぎないように重み係数wtの値を大きくすることで、対象領域の帰属確率を重視した帰属指標を算出することもできる。具体的には、wt=2.0、wn=1.0とし、これを(10)式及び(11)式に代入して帰属指標を計算すると、FU4(E)>FU4(O)となる。この場合、オブジェクト選択部116は、画像領域U4について白斑のオブジェクトを選択して対応付ける。
本実施形態によれば、対象となるオブジェクトのとりうる形状や存在しやすい位置、大きさなどについて予め知識がある場合、その知識を反映して帰属指標を算出することにより、対象となる画像領域における正しいオブジェクトの識別を行うことができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
なお、前述した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
110:画像処理装置、111:画像取得部、112:画像分割部、113:特徴量算出部、114:特徴空間作成部、115:特徴ベクトル写像部、116:オブジェクト選択部、117:領域統合部、118:画像表示部、120:画像取得装置、130:保存装置

Claims (7)

  1. 入力された画像の処理を行う画像処理装置であって、
    前記画像を複数の領域に分割する分割手段と、
    前記分割手段により分割された複数の領域における各領域から特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段により算出された特徴量に基づいて、前記各領域に1又は複数のオブジェクトを対応付ける対応付け手段と、
    前記対応付け手段により1つの領域に対して複数のオブジェクトが対応付けられた場合、当該1つの領域に対応付けられた各オブジェクトへの帰属確率と、当該1つの領域の近傍に位置する近傍領域に係る近傍領域情報とに基づいて、前記複数のオブジェクトの中から1つのオブジェクトを選択し、当該1つの領域に当該1つのオブジェクトを対応付ける選択手段と、
    前記画像において同じ種類のオブジェクトが対応付けられた領域を統合する統合手段と
    を有することを特徴とする画像処理装置。
  2. 前記対応付け手段は、前記特徴量算出手段により算出された特徴量に基づいて、前記各領域に1つのオブジェクトを対応付ける場合には、当該1つのオブジェクトへの前記帰属確率を算出し、前記各領域に複数のオブジェクトを対応付ける場合には、当該複数のオブジェクトの全てのオブジェクトへの前記帰属確率を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記対応付け手段は、前記各領域に前記各オブジェクトを対応付けるための特徴空間を作成する作成手段を含むことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記近傍領域情報は、前記1つの領域と前記近傍領域との位置関係の情報と、前記近傍領域における前記各オブジェクトへの帰属確率の情報を含むものであり、
    前記選択手段は、前記近傍領域情報に含まれる当該位置関係の情報および当該帰属確率の情報のうちの少なくとも1つを用いて、前記1つの領域に前記1つのオブジェクトを対応付けることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 入力された画像の処理を行う画像処理装置による画像処理方法であって、
    前記画像を複数の領域に分割する分割ステップと、
    前記分割ステップにより分割された複数の領域における各領域から特徴量を算出する特徴量算出ステップと、
    前記特徴量算出ステップにより算出された特徴量に基づいて、前記各領域に1又は複数のオブジェクトを対応付ける対応付けステップと、
    前記対応付けステップにより1つの領域に対して複数のオブジェクトが対応付けられた場合、当該1つの領域に対応付けられた各オブジェクトへの帰属確率と、当該1つの領域の近傍に位置する近傍領域に係る近傍領域情報とに基づいて、前記複数のオブジェクトの中から1つのオブジェクトを選択し、当該1つの領域に当該1つのオブジェクトを対応付ける選択ステップと、
    前記画像において同じ種類のオブジェクトが対応付けられた領域を統合する統合ステップと
    を有することを特徴とする画像処理方法。
  6. 入力された画像の処理を行う画像処理装置による画像処理方法をコンピュータに実行させるためのプログラムであって、
    前記画像を複数の領域に分割する分割ステップと、
    前記分割ステップにより分割された複数の領域における各領域から特徴量を算出する特徴量算出ステップと、
    前記特徴量算出ステップにより算出された特徴量に基づいて、前記各領域に1又は複数のオブジェクトを対応付ける対応付けステップと、
    前記対応付けステップにより1つの領域に対して複数のオブジェクトが対応付けられた場合、当該1つの領域に対応付けられた各オブジェクトへの帰属確率と、当該1つの領域の近傍に位置する近傍領域に係る近傍領域情報とに基づいて、前記複数のオブジェクトの中から1つのオブジェクトを選択し、当該1つの領域に当該1つのオブジェクトを対応付ける選択ステップと、
    前記画像において同じ種類のオブジェクトが対応付けられた領域を統合する統合ステップと
    をコンピュータに実行させるためのプログラム。
  7. 請求項6に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2009248088A 2009-10-28 2009-10-28 画像処理装置、画像処理方法及びプログラム Pending JP2011095921A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009248088A JP2011095921A (ja) 2009-10-28 2009-10-28 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009248088A JP2011095921A (ja) 2009-10-28 2009-10-28 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2011095921A true JP2011095921A (ja) 2011-05-12

Family

ID=44112772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009248088A Pending JP2011095921A (ja) 2009-10-28 2009-10-28 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2011095921A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018044806A (ja) * 2016-09-13 2018-03-22 株式会社日立ハイテクノロジーズ 画像診断支援装置、画像診断支援方法及び試料分析システム
WO2019163699A1 (ja) * 2018-02-20 2019-08-29 日本電気株式会社 特徴抽出装置、特徴抽出方法、照合システム、および記憶媒体
JP2019192215A (ja) * 2018-02-21 2019-10-31 株式会社トプコン 深層学習を用いた網膜層の3d定量解析
US11087169B2 (en) * 2018-01-12 2021-08-10 Canon Kabushiki Kaisha Image processing apparatus that identifies object and method therefor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018044806A (ja) * 2016-09-13 2018-03-22 株式会社日立ハイテクノロジーズ 画像診断支援装置、画像診断支援方法及び試料分析システム
WO2018051777A1 (ja) * 2016-09-13 2018-03-22 株式会社日立ハイテクノロジーズ 画像診断支援装置、画像診断支援方法及び試料分析システム
CN109564683A (zh) * 2016-09-13 2019-04-02 株式会社日立高新技术 图像诊断辅助装置、图像诊断辅助方法及试料分析系统
US11176668B2 (en) 2016-09-13 2021-11-16 Hitachi High-Tech Corporation Image diagnosis assisting apparatus, image diagnosis assisting method and sample analyzing system
CN109564683B (zh) * 2016-09-13 2023-07-04 株式会社日立高新技术 图像诊断辅助装置、图像诊断辅助方法及试料分析系统
US11087169B2 (en) * 2018-01-12 2021-08-10 Canon Kabushiki Kaisha Image processing apparatus that identifies object and method therefor
WO2019163699A1 (ja) * 2018-02-20 2019-08-29 日本電気株式会社 特徴抽出装置、特徴抽出方法、照合システム、および記憶媒体
JPWO2019163699A1 (ja) * 2018-02-20 2021-01-07 日本電気株式会社 特徴抽出方法、照合システム、およびプログラム
US11379999B2 (en) 2018-02-20 2022-07-05 Nec Corporation Feature extraction method, comparison system, and storage medium
JP2019192215A (ja) * 2018-02-21 2019-10-31 株式会社トプコン 深層学習を用いた網膜層の3d定量解析

Similar Documents

Publication Publication Date Title
Murugesan et al. A hybrid deep learning model for effective segmentation and classification of lung nodules from CT images
JP6528608B2 (ja) 診断装置、及び診断装置における学習処理方法、並びにプログラム
JP7558243B2 (ja) 特徴点検出
JP5576782B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN108764358B (zh) 一种太赫兹图像识别方法、装置、设备及可读存储介质
JP5683888B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US10275677B2 (en) Image processing apparatus, image processing method and program
CN110070531B (zh) 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置
CN108537784A (zh) 一种基于深度学习的ct图肺结节检测方法
US8682048B2 (en) Image processing device, image processing method, computer-readable recording device
CN111047609A (zh) 肺炎病灶分割方法和装置
JP6704933B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2015092904A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2024187937A1 (zh) 血管重建方法、装置、计算机设备和可读存储介质
CN107506795A (zh) 一种面向图像匹配的局部灰度直方图特征描述子建立方法和图像匹配方法
Song et al. Automatic lung nodule segmentation and intra-nodular heterogeneity image generation
CN116229189B (zh) 基于荧光内窥镜的图像处理方法、装置、设备及存储介质
JP2011095921A (ja) 画像処理装置、画像処理方法及びプログラム
JPWO2007013300A1 (ja) 異常陰影候補検出方法及び異常陰影候補検出装置
KR102665603B1 (ko) 스테레오 매칭을 위한 하드웨어 디스패러티 평가
Al Shehhi et al. An Automatic Cognitive Graph‐Based Segmentation for Detection of Blood Vessels in Retinal Images
CN117765330A (zh) 基于mri图像的数据标注方法及系统
JP6132485B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
JP2005198890A (ja) 異常陰影判定方法、異常陰影判定装置およびそのプログラム