JP2004174219A - Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method - Google Patents

Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method Download PDF

Info

Publication number
JP2004174219A
JP2004174219A JP2003182673A JP2003182673A JP2004174219A JP 2004174219 A JP2004174219 A JP 2004174219A JP 2003182673 A JP2003182673 A JP 2003182673A JP 2003182673 A JP2003182673 A JP 2003182673A JP 2004174219 A JP2004174219 A JP 2004174219A
Authority
JP
Japan
Prior art keywords
self
mapping
output units
image
neighborhood area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003182673A
Other languages
Japanese (ja)
Other versions
JP3996555B2 (en
Inventor
Kazuto Sato
和人 佐藤
Hirokazu Madokoro
洋和 間所
Sakura Kadowaki
さくら 門脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003182673A priority Critical patent/JP3996555B2/en
Publication of JP2004174219A publication Critical patent/JP2004174219A/en
Application granted granted Critical
Publication of JP3996555B2 publication Critical patent/JP3996555B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus etc., that objectively, efficiently, and automatically extracts the outline of an object of interest in, for example, an image for medical use. <P>SOLUTION: The image processing apparatus performs an optimum outline extraction on an image, from which an area of interest, such as a diagnosing portion, etc., can be observed appropriately, by smoothing a rough initial outline by using two different self-systemizing maps of a near learning area using the X- and Y-coordinate information of the initial outline as learning data. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えば磁気共鳴映像装置(Magnetic Resonance Imaging device)等の医用画像診断装置に組み込まれる、又は医療用ワークステーション等によって提供される画像処理装置等に関する。
【0002】
【従来の技術】
医用画像は、被検体についての多くの臨床情報を画像により提供するものであり、疾病の診断、治療や手術計画等を初めとする多くの医療行為において重要な役割を果たしている。医用画像は、医療用画像機器(例えば、超音波診断装置、X線CT装置、核医学診断装置、磁気共鳴診断装置等)によって収集されたデータに、当該医療用画像機器に内蔵される、又は医療用ワークステーション等によって実現される画像処理装置により、所定の画像処理を施すことで生成される。
【0003】
この医用画像を利用した診断では、より客観性の高い診断を実現するために、臓器や病変部の特徴を生かして例えばMR画像を組織分類し、その形態を定量的に画像診断するための評価法を確立する必要がある。脳萎縮の診断における脳組織の輪郭抽出を例にとれば、脳組織は個体差が大きく、一様な処理では輪郭を抽出することはできないため、マニュアル操作にて注目する輪郭線を抽出する等の処理によるのが現状である。従来用いられている代表的な手法としては、スネークモデルを用いた輪郭抽出法、ニューラルエッジ検出器を用いた輪郭抽出法がある。スネークモデルを用いた輪郭抽出法は、濃淡画像を与えられたとき、本来現れるエッジが欠けたり途切れた場合であっても、これらを修復しながら脳表面の輪郭を抽出することができる利点がある。また、ニューラルエッジ検出器を用いた輪郭抽出法は、医師等の専門家が辿った輪郭から作成した理想的なエッジ像と入力画像とを階層型ニューラルネットワークに学習させることにより、専門医による輪郭とよく一致する輪郭抽出を実現できる利点がある。
【0004】
しかしながら、スネークモデルを用いた輪郭抽出法では、抽出処理を自動化することは困難である。これは、画像の濃度による制約と抽出対象との輪郭形状に関する制約のバランスを決定するパラメータが、画像毎に微妙な調整を必要とするからである。また、初期輪郭の統計モデルの作成も困難であり、従って操作者によって与えられる初期輪郭モデルの内容により抽出精度も大きく異なるため、客観性に乏しい。
【0005】
また、ニューラルエッジ検出器を用いた輪郭抽出法では、教師データとして与えられる理想的なエッジ像(教師データ)の内容が、医師等の専門家毎に異なるため、輪郭抽出結果の再現性・客観性が乏しい。また、当該手法の輪郭抽出精度は、階層型ニューラルネットワークに入力する特徴量とネットワーク構成(中間層ユニットの数)に依存することから、抽出対象となる画像毎の設定を必要とし、操作者への負担が大きい。
【0006】
これらの手法が抱える問題は、診断部位が脳である場合に限らず、客観的基準かつ効率的な輪郭抽出法が確立されていない診断部位についても同様である。
【0007】
【発明が解決しようとする課題】
本発明は、上記事情を鑑みてなされたもので、例えば医用画像において、客観的基準かつ効率的に、関心対象の輪郭を自動的に抽出する画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体を提供することを目的としている。
【0008】
【課題を解決するための手段】
本発明は、上記目的を達成するため、次のような手段を講じている。
【0009】
本発明の第1の視点は、被検体の所定部位に関する第1の画像を記憶する記憶手段と、前記第1の画像に基づいて、前記所定部位の第1の輪郭線を抽出する第1の輪郭線抽出手段と、前記第1の輪郭線を構成する各画素の位置を入力とし、個別の重み係数に基づく対応付けにより複数の出力ユニットと当該複数の出力ユニットの中から決定される勝者ユニットとを取得する自己写像手段であって、前記勝者ユニットに基づく学習近傍領域に存在する前記出力ユニットのそれぞれに対応する前記重み係数を、前記学習近傍領域を収束させながら更新する自己写像を繰り返し実行する自己写像手段と、繰り返し実行された前記自己写像により取得された前記複数の出力ユニットに対応する前記重み係数のそれぞれに基づいて、前記所定部位の第2の輪郭線を含む第2の画像を生成する第2の画像生成手段と、を具備することを特徴とする画像処理装置である。
【0010】
本発明の第2の視点は、第1の視点に係る装置において、前記自己写像手段は、前記学習近傍領域の初期設定を第1のサイズとして前記自己写像を繰り返し実行する第1の自己写像手段と、前記学習近傍領域の初期設定を第2のサイズとして前記自己写像を繰り返し実行する第2の自己写像手段と、を有し、前記第2の画像生成手段は、前記第1の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、前記第2の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、に基づいて前記第2の輪郭線を含む前記第2の画像を生成すること、を特徴とするものである。
【0011】
本発明の第3の視点は、第1又は第2の視点に係る装置において、前記複数の出力ユニットの数は任意に設定可能であることを特徴とするものである。
【0012】
本発明の第4の視点は、第1又は第2の視点に係る装置において、前記学習近傍領域のサイズは任意に設定可能であることを特徴とするものである。
【0013】
本発明の第5の視点は、第1乃至第4のうちいずれかの視点に係る装置において、前記複数の出力ユニットは、閉空間を形成することを特徴とするものである。
【0014】
本発明の第6の視点は、第1乃至第5のうちいずれの視点に係る装置において、前記学習近傍領域は、前記自己写像の進行に従って線形に収束することを特徴とするものである。
【0015】
本発明の第7の視点は、被検体の所定部位に関する第1の画像に基づいて、前記所定部位の第1の輪郭線を抽出する第1の輪郭線抽出ステップと、前記第1の輪郭線を構成する各画素の位置を入力とし、個別の重み係数に基づく対応付けにより複数の出力ユニットと当該複数の出力ユニットの中から決定される勝者ユニットとを取得するものであって、前記勝者ユニットに基づく学習近傍領域に存在する前記出力ユニットのそれぞれに対応する前記重み係数を、前記学習近傍領域を収束させながら更新する自己写像を繰り返し実行する自己写像ステップと、繰り返し実行された前記自己写像により取得された前記複数の出力ユニットに対応する前記重み係数のそれぞれに基づいて、前記所定部位の第2の輪郭線を含む第2の画像を生成する第2の画像生成ステップと、を具備することを特徴とする画像処理方法である。
【0016】
本発明の第8の視点は、第7の視点に係る方法において、前記自己写像ステップは、前記学習近傍領域の初期設定を第1のサイズとして前記自己写像を繰り返し実行する第1の自己写像ステップと、前記学習近傍領域の初期設定を第2のサイズとして前記自己写像を繰り返し実行する第2の自己写像ステップと、を有し、前記第2の画像生成ステップにおいては、前記第1の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、前記第2の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、に基づいて前記第2の輪郭線を含む前記第2の画像を生成すること、を特徴とするものである。
【0017】
本発明の第9の視点は、第7又は第8の視点に係る方法において、前記複数の出力ユニットの数は任意に設定可能であることを特徴とするものである。
【0018】
本発明の第10の視点は、第7又は第8の視点に係る方法において、前記学習近傍領域のサイズは任意に設定可能であることを特徴とするものである。
【0019】
本発明の第11の視点は、第7乃至第10のうちいずれかの視点に係る方法において、前記複数の出力ユニットは、閉空間を形成することを特徴とするものである。
【0020】
本発明の第12の視点は、第7乃至第11のうちいずれかの視点に係る方法において、前記学習近傍領域は、前記自己写像の進行に従って線形に収束することを特徴とするものである。
【0021】
本発明の第13の視点は、コンピュータに、被検体の所定部位に関する第1の画像に基づいて、前記所定部位の第1の輪郭線を抽出する第1の輪郭線抽出ステップと、前記第1の輪郭線を構成する各画素の位置を入力とし、個別の重み係数に基づく対応付けにより複数の出力ユニットと当該複数の出力ユニットの中から決定される勝者ユニットとを取得するものであって、前記勝者ユニットに基づく学習近傍領域に存在する前記出力ユニットのそれぞれに対応する前記重み係数を、前記学習近傍領域を収束させながら更新する自己写像を繰り返し実行する自己写像ステップと、繰り返し実行された前記自己写像により取得された前記複数の出力ユニットに対応する前記重み係数のそれぞれに基づいて、前記所定部位の第2の輪郭線を含む第2の画像を生成する第2の画像生成ステップと、を実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0022】
本発明の第14の視点は、第13の視点に係る記録媒体において、前記自己写像ステップは、前記学習近傍領域の初期設定を第1のサイズとして前記自己写像を繰り返し実行する第1の自己写像ステップと、前記学習近傍領域の初期設定を第2のサイズとして前記自己写像を繰り返し実行する第2の自己写像ステップと、を有し、前記第2の画像生成ステップにおいては、前記第1の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、前記第2の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、に基づいて前記第2の輪郭線を含む前記第2の画像を生成すること、を特徴とするものである。
【0023】
本発明の第15の視点は、第13又は第14の視点に係る記録媒体において、前記複数の出力ユニットの数は任意に設定可能であることを特徴とするものである。
【0024】
本発明の第16の視点は、第13又は14の視点に係る記録媒体において、前記学習近傍領域のサイズは任意に設定可能であることを特徴とするものである。
【0025】
本発明の第17の視点は、第13乃至第16のうちいずれかの視点に係る記録媒体において、前記複数の出力ユニットは、閉空間を形成することを特徴とするものである。
【0026】
本発明の第18の視点は、第13乃至第17のうちいずれかの視点に係る記録媒体において、前記学習近傍領域は、前記自己写像の進行に従って線形に収束することを特徴とするものである。
【0027】
このような構成によれば、例えば医用画像において、客観的基準かつ効率的に、関心対象の輪郭を自動的に抽出する画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体を実現することができる。
【0028】
【発明の実施の形態】
以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
【0029】
本実施形態に係る画像処理装置は、例えば診断部位等の関心領域を好適に観察することができる画像を対象に、おおまかな初期輪郭のX、Y座標情報を学習データとする近傍領域の異なる二つの自己組織化マップ(Self-Organizing Map:以下「SOM」と称する。)を用いて、前記おおまかな初期輪郭のスムージングを行い、最適な輪郭抽出を行うものである。以下においては、説明を具体的にするため、脳萎縮の診断に供する頭部MR画像のT強調水平断において、おおまかな初期輪郭と上矢状静脈洞エッジ情報のX、Y座標を学習データとし、大脳縦裂特徴点と組織の境界とがあいまいな初期輪郭のスムージングを行い、最適な脳表面輪郭を自動抽出する場合を例とする。
【0030】
しかしながら、本発明の技術的思想は、これに限定されない。例えば、輪郭抽出の対象とする画像は、X線CT画像等の他の断層画像でもよく、また、脳以外の診断においても有益であることは、言うまでもない。
【0031】
図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。同図に示すように、画像処理装置10は、MRIデータベース11、組織カラーマップ記憶部12、学習フェーズ13、SOM重み記憶部15、生成フェーズ17、統合フェーズ19、脳表面輪郭線画像記憶部21を具備している。
【0032】
MRIデータベース11は、被検体(患者)毎の複数のMR画像を格納している。
【0033】
組織カラーマップ記憶部12は、診断に供するMR画像に対して、組織の自動分類法を適用することで得られる組織カラーマップを記憶している。組織の自動分類法とは、診断に供するMR画像の画像特性を自己写像することで、画像を組織毎に分類するものである。この組織の自動分類法については、後で詳しく説明する。
【0034】
学習フェーズ13は、前処理部130、自己学習部131を有している。前処理部130は、SOMの入力としての学習データを設定するため、所定の前処理を行う。具体的には、前処理部130は、組織カラーマップを脳組織と背景とに分類した2値化画像の生成、脳の仮想中心Cの算出、仮想中心Cから脳組織の上半球を対象とするフィルター処理、8近傍オペレータによる初期輪郭の抽出、上矢状静脈洞のエッジ情報の抽出、SOM処理のための学習データ生成を実行する。この学習データは、SOMの入力となるデータであり、8近傍オペレータによって抽出された初期輪郭と上記エッジ情報とを合成して生成される脳の大まかな輪郭線である(図3参照)。
【0035】
自己学習部131は、前処理部130によって生成された学習データに基づいて、所定の重み係数によって自己学習を繰り返し、組織輪郭の座標及び上矢状静脈洞のエッジ情報の座標を学習する。すなわち、自己学習部131は、学習データ上のX、Y座標を入力とし、位相構造の重み係数を逐次更新しながら、初期近傍領域を1/8近傍領域としたSOM処理、及び初期近傍領域を3/4近傍領域としたSOM処理を行う。各SOMによる写像先であるマッピング層は、最初のユニットと最終のユニットが近傍として連結した閉空間とする。自己学習部131によって実行されるSOMについては、後で詳しく説明する。
【0036】
SOM重み記憶部15は、SOM処理により得られた位相構造の重み係数分布を格納する。
【0037】
生成フェーズ17は、重みプロット部170、線形補間部171を有している。重みプロット部170は、初期近傍領域が1/8のSOM処理によって得られた重み係数と初期近傍領域が3/4のSOM処理によって得られた重み係数をそれぞれ画像スケールに変換してX、Y座標にプロットする。線形補間部171は、X、Y座標にプロットされた代表点を線形補間し、各SOM処理に対応する輪郭線を生成する(以下、1/8近傍領域SOM処理に対応する輪郭線を「初期近傍領域1/8の輪郭線」と、3/4近傍領域SOM処理に対応する輪郭線を「初期近傍領域3/4の輪郭線」と、それぞれ呼ぶことにする。)。
【0038】
統合フェーズ19は、基準点抽出部190、輪郭線統合部191、画像合成部192を有している。基準点抽出部190は、初期近傍領域1/8の輪郭線と初期近傍領域3/4の輪郭線とを重ね合わせ、例えば初期近傍領域1/8の輪郭線上において、大脳縦裂特徴点を抽出する。輪郭線統合部191は、基準点抽出部190によって抽出された基準点と初期近傍領域1/8の輪郭線と初期近傍領域3/4の輪郭線に基づいて、初期近傍領域1/8の輪郭線と初期近傍領域3/4の輪郭線とを統合し脳輪郭線画像を生成する。
【0039】
画像合成部192は、必要に応じて、診断に供するMR画像(組織カラーマップの原画像)と脳輪郭線画像とを合成した合成画像を生成する。
【0040】
脳表面輪郭線画像記憶部21は、画像合成部192によって生成された合成画像、脳輪郭線画像等を格納し、要求に応じて図示していない表示部等に出力する。
【0041】
なお、図1においては、MRIデータベース11、組織カラーマップ記憶部12、SOM重み記憶部15をそれぞれ個別に表現した。しかしながら、単一のメモリによって各構成を実現する構成であってもよい。また、MRIデータベース11や組織カラーマップ記憶部12を本画像処理装置10と別体として設け、ネットワークを介してMR画像や組織カラーマップを取得する構成であってもよい。
【0042】
(自己組織化マップ:Self−Organizing Map)
次に、自己組織化マップ(SOM)について説明する。SOMは、入力データの位相を保存し、トポロジカルなマッピングを行うものであり、その学習過程では、明示的な教師を必要としない。
【0043】
一般のSOMは、図2に示すように、入力ユニットを含む入力層と、出力ユニットを含むマッピング層との二層からなる。典型的なSOMの学習アルゴリズムは、次の様である。
【0044】
(1)wij(1≦i≦n)を時刻tにおける入力ユニットiから出力ユニットjへの重み係数とする。ユニットの重み係数を乱数で初期化し、ノードjの近傍の初期範囲を大きく設定する。
【0045】
(2)x(1≦i≦n)を時刻tにおけるノードiへの入力とする。
【0046】
(3)入力データと出力ノードjとのユークリッド距離dを次の式(1)にて計算する。
【0047】
【数1】

Figure 2004174219
【0048】
(4)ユークリッド距離dが最小となる出力ユニットを検索する。
【0049】
(5)N(t)で定義される近傍に含まれるユニットへの重み係数を、次の式(2)にて更新する。
ij(t+1)=wij(t)+α(t)(x(t)−wij(t))(2)
ここで、α(t)は学習率係数(0<α<1)、N(t)は近傍領域のサイズであり、時間とともに減少させる。
【0050】
(6)上記(2)〜(5)の処理を繰り返す。
【0051】
本実施形態においては、初期輪郭線と上矢状静脈洞のエッジ部分とを合成して生成される脳の大まかな輪郭線を構成する複数の点(画素)の一部又は全部を、当該患者の脳の輪郭線を代表する代表点と見なす。この代表点を学習データとするSOM処理を繰り返し実行することで、より客観性の高い代表点を取得する。特に、以下に説明する例は、二種類のSOM処理を実行しその結果を合成することで、対象の複雑さに応じた輪郭抽出を実現するものである。二種類のSOM処理の一方は「初期近傍領域が3/4のSOM処理」と呼ばれ、他方は「初期近傍領域が1/8のSOM処理」と呼ばれる。
【0052】
初期近傍領域が3/4のSOM処理では、図3に示すように、学習データ上の所定の各画素に関するX座標及びY座標を入力層における入力とし、所定の各重み係数によって、マッピング層における各出力ユニットに写像し、その中から最適な出力ユニット(勝者ユニット)を選択するSOM処理が繰り返し実行される。その際、各SOM処理においては、学習近傍領域内に存在する出力ユニットに対応する各重み係数の更新が実行される。ここで、学習近傍領域とは、得られた勝者ユニットを少なくとも含む領域であり、学習回数の進行に従って収束するものである。また、初期近傍領域とは、学習近傍領域の初期設定を意味する。本SOM処理では、初期近傍領域を、出力ユニット総数の3/4として設定し、所定の直線又は曲線に従って収束させる。
【0053】
定量的な例により、上記初期近傍領域が3/4のSOM処理の内容をより詳しく説明すると、次のようである。すなわち、学習データ上の所定画素の座標(x,y)を入力とし、当該所定画素に対して式(1)に基づいてユークリッド距離dを算出する。ここで、iは1≦i≦最大学習回数(100000回)を満たす整数、jは1≦j≦マッピング層の出力ユニット総数(1000ユニット)を満たす整数である。算出されたユークリッド距離dが最小となるユニットを勝者ユニットとし、勝者ユニット及び当該勝者ユニットを中心とした近傍領域内の出力ユニット(近傍ユニット)に対して式(2)に基づいて重み係数を更新する。今の場合、初期近傍領域が3/4であるから、当該領域内に存在する出力ユニットの総数は750ユニットとなる。
【0054】
このように学習近傍領域を収束させつつ、当該領域内に存在する出力ユニットに対応する重み係数を式(2)によって逐次更新しながら、学習データ上の各画素についてのSOM処理を複数回(例えば100000回)実行する。最終的に、学習データ上の各画素の座標は、それぞれ所定の出力ユニットに収束するようになる。
【0055】
また、初期近傍領域が1/8のSOM処理では、図3に示すように、初期近傍領域を最初に出力ユニット総数の1/8として設定し、所定の直線又は曲線に従って収束させながら、同様の処理をおこなう。
【0056】
なお、本実施形態では、図4(a)に示すように、各SOM処理における複数の出力ユニットは、第1出力ユニット(最初の出力ユニット)と第1000出力ユニット(最後の出力ユニット)とが連結された閉空間を構成している。これにより、第1000出力ユニットは、第1出力ユニットの近傍ユニットとして判断され、式(2)による重み係数の更新に影響することになる。この様に閉空間の出力ユニットを採用するのは、抽出しようとする輪郭が閉曲線であるからである。これにより、第1出力ユニットと第1000出力ユニットとの相関度合いが高くなり、より精度の高い結果を得ることができる。
【0057】
また、処理の収束性の観点から、学習回数が進行するに従って、各SOM処理における近傍領域のサイズ及び学習率係数を線形で減少させることが好ましい。
【0058】
(組織カラーマップの作成)
本画像処理装置10は、輪郭抽出の前段の処理として、組織カラーマップを作成し、組織カラーマップ記憶部12内に格納する。この組織カラーマップは、上記SOM処理を利用した組織の自動分類法により、例えば次のように生成される。
【0059】
すなわち、図4(b)に示すように、組織分類の対象となるMR画像(以下、「分類対象画像」と称する。図7(a)参照。)に対して、ランダムに抽出される複数の局所ブロックに関する4つの特徴量(注目画素の輝度値、局所ブロックを構成する各画素の輝度値の平均値、注目画素の輝度値と局所ブロックを構成する画素の輝度値の最大値との差、注目画素の輝度値と局所ブロックを構成する画素の輝度値の最小値との差)を入力層における入力とし、所定の重み係数によって患者の所定部位の組織分布を分類対象画像の特徴空間における画像の位相特性として自己写像する。この自己写像により、入力としての各局所ブロックは、SOM処理により背景(BG)、脳脊髄液(CSF)、白質(WM)、灰白質(GM)の4つの出力ユニットA、B、C及びDのいずれかに写像される。
【0060】
すなわち、いまx1=注目画素の輝度値、x2=局所ブロックを構成する各画素の輝度値の平均値、x3=注目画素の輝度値と局所ブロックを構成する画素の輝度値の最大値との差、x4=注目画素の輝度値と局所ブロックを構成する画素の輝度値の最小値との差、とする。各局所ブロックにおける各特徴量x(ただし、iは1≦i≦4を満たす整数)を入力し、式(1)に基づいて、初期設定の重み係数wijによってユークリッド距離dを算出する。なお、今の場合、j=1が出力ユニットCSFに対応、j=2が出力ユニットGMに対応、j=3が出力ユニットWM、j=4が出力ユニットBGに対応するものとして、jは1≦j≦4を満たす整数とする。
【0061】
入力は、算出されたユークリッド距離d、d、d、dのうち、最小のものに対応する出力ユニットに写像される。なお、当該自己写像においてユークリッド距離が最小になる出力ユニットは、勝者ユニットと呼ばれる。
【0062】
また、この抽出された局所ブロックに対するSOM処理は、式(2)によって逐次重み係数を更新しながら、複数回(例えば1000000回)実行される。この様に、重み係数を更新しながら、SOM処理を複数回繰り返し学習する。学習が進むに従って、各局所ブロックは、所定の出力ユニットに収束するようになる。
【0063】
このSOM処理の結果と、図7(a)に示す分類対象画像において生成される、各画素を注目画素とする複数の局所ブロック(3×3画素)の4つの特徴量とに基づいて、分類対象画像の各画素を背景(BG)、脳脊髄液(CSF)、白質(WM)、灰白質(GM)のいずれかに組織分類し、各画素に所定の色を割り当てることで、図7(b)に示す組織カラーマップを生成することができる。
【0064】
次に、上記のように構成した画像処理装置10によって実行される輪郭抽出処理について、図5、図6を参照しながら説明する。
【0065】
図5、図6は、画像処理装置10が実行する輪郭抽出処理の流れを示したフローチャートである。図5において、まず、前段の処理として、既述の手法により組織カラーマップを作成し、組織カラーマップ記憶部12に格納する(ステップS1)。学習フェーズ13の前処理部130は、組織カラーマップ記憶部12から図7(b)に示す組織カラーマップを読み出し、所定の閾値処理によって当該組織カラーマップを脳組織と背景とに2値化した2値化画像を生成する(図7(c)参照)。また、前処理部130は、生成した2値化画像に対して、脳組織のXY射影から脳の仮想中心C(C,C)を算出する(ステップS2)。
【0066】
次に、前処理部130は、仮想中心Cから脳組織の上半球を対象にフィルター処理を施し(ステップS3)、仮想中心Cから画像上方向に走査して、輪郭始点Sを求め、8近傍オペレータにより脳の大まかな初期輪郭を抽出する(ステップS4)。ここで、8近傍オペレータによる初期輪郭の抽出とは、例えば、輪郭始点Sに接する8個の画素に関して、画素値(輝度値)が最も近い画素を輪郭と判断し、この輪郭と判断された画素に接する8個の画素に関しても、同様の判断を逐次繰り返して輪郭を抽出するものである。すなわち、輪郭始点Sを中心とする第1近傍(3×3)内の画素に対して、背景領域に隣接する脳組織上の画素を順次抽出する処理である。
【0067】
次に、前処理部130は、上矢状静脈洞のエッジ情報を抽出(ステップS5)、当該エッジ情報と抽出した上記初期輪郭とを合成し、学習データを生成する(図3参照)。自己学習部131は、生成された学習データ上の各画素のX座標x及びY座標yをSOMに入力し、既述の初期近傍領域が3/4のSOM処理及び初期近傍領域が1/8のSOM処理を実行し、各SOM処理における各勝者ユニットを決定する(ステップS7)。このSOM処理による自己学習は、式(2)に従って逐次重み係数を更新しながら、信頼できる結果が得られる適当な回数(例えば、100000回)繰り返される(ステップS8)。
【0068】
次に、重みプロット部170は、上記初期近傍領域が3/4のSOM処理によって得られた各重み係数を画像空間上の対応する座標にプロットし、各座標間を線形補間部171が線形補間することで当該初期近傍領域3/4の輪郭線を生成する。また、同様の処理により、初期近傍領域1/8の輪郭線を生成する(ステップS9)。これにより、各SOM処理によって得られた高精度の代表点に基づく各輪郭線が得られる。
【0069】
次に、統合フェーズ19の基準点抽出部190は、図8(a)に示す初期近傍領域3/4の輪郭線と図8(b)に示す初期近傍領域1/8の輪郭線とを図8(c)に示す様に重ね合わせ(ステップS10)、初期近傍領域1/8の輪郭線上において、大脳縦裂特徴点を基準点Dとして抽出する(ステップS11)。
【0070】
次に、輪郭線統合部191は、基準点抽出部190によって抽出された基準点Dに基づいて、初期近傍領域1/8の輪郭線と初期近傍領域3/4の輪郭線とを合成し脳輪郭線を生成する(ステップS12、ステップS13)。すなわち、輪郭線統合部191は、図9に示す様に、上記基準点D(大脳縦裂特徴点)から輪郭線を左右に走査し、初期近傍領域3/4の輪郭線との一つ目の左交点をL、二つ目の左交点をLとし、初期近傍領域3/4の輪郭線との一つ目の右交点をR、二つ目の右交点をRとする。得られたL−R間の輪郭線は初期近傍領域1/8の輪郭線とし、それ以外は初期近傍領域3/4の輪郭線として合成することで、脳輪郭線を生成する。なお、この様にL−R間の領域を初期近傍領域1/8の輪郭線とするのは、複雑な輪郭を持つ大脳縦裂特徴点に対応する領域を、より微細な構造を反映することができる輪郭初期近傍領域1/8の輪郭線で表すためである。また、L−R間以外の領域を初期近傍領域3/4の輪郭線とするのは、比較的複雑な輪郭を持たない領域を、曲線のスムーズな初期近傍領域3/4の輪郭線で表すためである。
【0071】
本実施形態に係る画像処理装置によれば、個々の画像特性から大まかな初期輪郭を抽出し学習データとすることにより、組織の境界があいまいな画像に対しても最適な輪郭を、迅速かつ簡便に自動抽出することができる。従って、医師等に対して有益な診断情報を効率的に提供することができ、診断の質の向上に寄与することができる。
【0072】
また、本実施形態に係る画像処理装置では、SOM処理によって得られる内部的な基準に基づいて、輪郭の抽出が行われる。すなわち、従来の様に輪郭抽出のための基準ベクトルを外部に持つ必要がないことから、対象画像毎に複雑なパラメータの主観的設定を必要としない。従って、客観性の高い輪郭抽出を自動的に実行することができる。
【0073】
実施形態において初期近傍領域が3/4のSOM処理と初期近傍領域が1/8のSOM処理とを実行した様に、本画像処理装置は、学習近傍領域及びマッピング層ユニット数を任意に設定することができる。従って、輪郭線のスムージング度合いを任意に設定することができ、その結果組織の複雑さの程度に合わせた最適な輪郭抽出を実現することができる。
【0074】
本実施形態に係る画像処理装置では、マッピング層ユニットは、組織の境界領域線を多角形近似する頂点となっている。従って、再帰的処理により組織の境界があいまいでかつ不連続な画像において連続する境界線を抽出することができる。
【0075】
以上、本発明を実施形態に基づき説明したが、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変形例及び修正例についても本発明の範囲に属するものと了解される。例えば以下に示すように、その要旨を変更しない範囲で種々変形可能である。
【0076】
本実施形態で説明した輪郭抽出処理は、当該方法をコンピュータに実行させるプログラムによって、パーソナルコンピュータやワークステーション等によっても実現することができる。この場合、コンピュータに当該方法を実行させることのできるプログラムは、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することができる。
【0077】
また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組合わせた効果が得られる。さらに、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0078】
【発明の効果】
以上本発明によれば、例えば医用画像において、客観的基準かつ効率的に、関心対象の輪郭を自動的に抽出する画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体を実現できる。
【図面の簡単な説明】
【図1】図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。
【図2】図2は、一般的な自己組織化マップ(SOM)処理を説明するための図である。
【図3】図3は、本実施形態に係る画像処理装置が実施する自己組織化マップ(SOM)処理を説明するための図である。
【図4】図4(a)は、本実施形態に係る画像処理装置が実施する自己組織化マップ(SOM)処理を説明するための図である。図4(b)は、組織の自動分類法において実施される自己組織化マップ(SOM)処理を説明するための図である。
【図5】図5は、画像処理装置10が実行する輪郭抽出処理の流れを示したフローチャートである。
【図6】図6は、画像処理装置10が実行する輪郭抽出処理の流れを示したフローチャートである。
【図7】図7(a)は、組織の自動分類法の対象とする分類対象画像(MR画像)を示した写真である。図7(b)は、組織の自動分類法によって得られる組織カラーマップを示した写真である。図7(c)は、組織カラーマップを2値化して得られる2値化画像を示した写真である。
【図8】図8(a)は、初期近傍領域3/4の輪郭線を模式的に示した図である。図8(b)は、初期近傍領域1/8の輪郭線を模式的に示した図である。図8(c)は、初期近傍領域3/4の輪郭線と初期近傍領域1/8の輪郭線とを重ね合わせた画像を模式的に示した図である。
【図9】図9は、図8(c)の基準点Dの近傍の拡大図である。
【符号の説明】
10…画像処理装置
11…MRIデータベース
12…組織カラーマップ記憶部
13…学習フェーズ
15…SOM重み記憶部
17…生成フェーズ
19…統合フェーズ
21…脳表面輪郭線画像記憶部
130…前処理部
131…自己学習部
170…重みプロット部
171…線形補間部
190…基準点抽出部
191…輪郭線統合部
192…画像合成部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing device incorporated in a medical image diagnostic device such as a magnetic resonance imaging device, or provided by a medical workstation or the like.
[0002]
[Prior art]
Medical images provide a great deal of clinical information about a subject in the form of images, and play an important role in many medical activities such as disease diagnosis, treatment and surgical planning. The medical image is embedded in the medical imaging device in data collected by a medical imaging device (for example, an ultrasound diagnostic device, an X-ray CT device, a nuclear medicine diagnostic device, a magnetic resonance diagnostic device, or the like), or It is generated by performing predetermined image processing by an image processing device realized by a medical workstation or the like.
[0003]
In the diagnosis using medical images, in order to realize a more objective diagnosis, for example, an MR image is tissue-classified utilizing characteristics of organs and lesions, and evaluation for quantitative image diagnosis of the form is performed. Law needs to be established. Taking the extraction of the outline of brain tissue in the diagnosis of brain atrophy as an example, since the brain tissue has large individual differences and cannot be extracted with uniform processing, the contour line of interest is extracted manually. At present, it is based on the processing of. Representative methods conventionally used include a contour extraction method using a snake model and a contour extraction method using a neural edge detector. The contour extraction method using the snake model has the advantage that, when a grayscale image is given, even if the originally appearing edges are missing or cut off, the contours of the brain surface can be extracted while restoring them. . In addition, the contour extraction method using a neural edge detector is a method in which a layered neural network learns an ideal edge image and an input image created from a contour traced by a specialist such as a physician. There is an advantage that contour extraction that matches well can be realized.
[0004]
However, it is difficult to automate the extraction processing by the contour extraction method using the snake model. This is because the parameters that determine the balance between the restriction on the density of the image and the restriction on the contour shape of the extraction target require fine adjustment for each image. Also, it is difficult to create a statistical model of the initial contour, and the extraction accuracy greatly varies depending on the contents of the initial contour model given by the operator, and therefore, the objectivity is poor.
[0005]
Also, in the contour extraction method using a neural edge detector, the content of an ideal edge image (teacher data) given as teacher data differs for each specialist such as a doctor. Poor sex. In addition, since the contour extraction accuracy of the method depends on the feature amount input to the hierarchical neural network and the network configuration (the number of intermediate layer units), setting for each image to be extracted is required, and the operator is instructed. Burden is great.
[0006]
The problems involved in these methods are not limited to the case where the diagnostic site is the brain, but also apply to a diagnostic site for which an objective reference and an efficient contour extraction method have not been established.
[0007]
[Problems to be solved by the invention]
The present invention has been made in view of the above circumstances, and includes, for example, an image processing apparatus, an image processing method, and an image processing method for automatically extracting an outline of a target of interest in a medical image, objectively and efficiently. It is an object of the present invention to provide a recording medium for storing a program to be executed by a computer.
[0008]
[Means for Solving the Problems]
The present invention employs the following means to achieve the above object.
[0009]
According to a first aspect of the present invention, there is provided a storage unit configured to store a first image related to a predetermined part of a subject, and a first contour extracting a first contour line of the predetermined part based on the first image. A contour extracting means, and a plurality of output units and a winner unit determined from the plurality of output units by associating the position of each pixel constituting the first contour with an input based on an individual weighting coefficient; Self-mapping means for obtaining the weight coefficient corresponding to each of the output units present in the learning neighborhood area based on the winner unit, and repeatedly executing the self-mapping updating while converging the learning neighborhood area. Based on each of the weighting factors corresponding to the plurality of output units acquired by the self-mapping that is repeatedly executed. An image processing apparatus characterized by comprising a second image generating means for generating a second image including a contour line, the.
[0010]
According to a second aspect of the present invention, in the apparatus according to the first aspect, the self-mapping unit is configured to repeatedly execute the self-mapping using the initial setting of the learning neighborhood area as a first size. And a second self-mapping unit that repeatedly executes the self-mapping with the initial setting of the learning neighborhood area set to a second size, wherein the second image generation unit includes the first self-mapping unit. The second contour line based on the weighting factors corresponding to the plurality of output units obtained by the second self-mapping unit and the weighting factors corresponding to the plurality of output units obtained by the second self-mapping unit. And generating the second image including the following.
[0011]
According to a third aspect of the present invention, in the device according to the first or second aspect, the number of the plurality of output units can be arbitrarily set.
[0012]
According to a fourth aspect of the present invention, in the device according to the first or second aspect, the size of the learning neighborhood area can be arbitrarily set.
[0013]
A fifth aspect of the present invention is the device according to any one of the first to fourth aspects, wherein the plurality of output units form a closed space.
[0014]
According to a sixth aspect of the present invention, in the device according to any one of the first to fifth aspects, the learning neighborhood area converges linearly as the self-mapping progresses.
[0015]
A seventh viewpoint of the present invention is a first contour line extracting step of extracting a first contour line of the predetermined part based on a first image related to a predetermined part of the subject, and the first contour line. The input of the position of each pixel that constitutes, and obtains a plurality of output units and a winner unit determined from the plurality of output units by association based on individual weight coefficients, wherein the winner unit The self-mapping step of repeatedly executing a self-mapping that updates the weighting coefficients corresponding to each of the output units present in the learning neighborhood area based on the self-mapping while converging the learning neighborhood area, and the self-mapping repeatedly executed. A second image generating a second image including a second contour line of the predetermined part based on each of the obtained weighting factors corresponding to the plurality of output units. An image processing method characterized by comprising the image generation step.
[0016]
According to an eighth aspect of the present invention, in the method according to the seventh aspect, the self-mapping step is a first self-mapping step of repeatedly executing the self-mapping with an initial setting of the learning neighborhood area being a first size. And a second self-mapping step of repeatedly executing the self-mapping by setting the initial setting of the learning neighborhood area to a second size. In the second image generation step, the first self-mapping is performed. The second contour based on the weighting factors corresponding to the plurality of output units obtained by the means and the weighting factors corresponding to the plurality of output units obtained by the second self-mapping means. Generating the second image including a line.
[0017]
According to a ninth aspect of the present invention, in the method according to the seventh or eighth aspect, the number of the plurality of output units can be arbitrarily set.
[0018]
According to a tenth aspect of the present invention, in the method according to the seventh or eighth aspect, the size of the learning neighborhood area can be arbitrarily set.
[0019]
An eleventh aspect of the present invention is the method according to any one of the seventh to tenth aspects, wherein the plurality of output units form a closed space.
[0020]
According to a twelfth aspect of the present invention, in the method according to any one of the seventh to eleventh aspects, the learning neighborhood area linearly converges as the self-mapping progresses.
[0021]
According to a thirteenth aspect of the present invention, a first contour line extracting step of extracting a first contour line of the predetermined part based on a first image related to the predetermined part of the subject, The input of the position of each pixel constituting the contour line of, to obtain a plurality of output units and a winner unit determined from the plurality of output units by association based on an individual weight coefficient, A self-mapping step of repeatedly executing a self-mapping that updates the weighting coefficients corresponding to each of the output units present in the learning neighborhood area based on the winner unit while converging the learning neighborhood area; and A second contour including a second contour line of the predetermined portion based on each of the weighting factors corresponding to the plurality of output units acquired by self-mapping; A computer-readable recording medium recording an image processing program for executing a second image generation step of generating an image.
[0022]
A fourteenth aspect of the present invention is the recording medium according to the thirteenth aspect, wherein the self-mapping step is a first self-mapping that repeatedly executes the self-mapping with the initial setting of the learning neighborhood area as a first size. And a second self-mapping step of repeatedly executing the self-mapping with the initial setting of the learning neighborhood area set to a second size. In the second image generation step, the first self-mapping step is performed. The second weighting coefficient corresponding to the plurality of output units obtained by the mapping means and the weighting coefficient corresponding to the plurality of output units obtained by the second self-mapping means; Generating the second image including an outline.
[0023]
According to a fifteenth aspect of the present invention, in the recording medium according to the thirteenth or fourteenth aspect, the number of the plurality of output units can be arbitrarily set.
[0024]
According to a sixteenth aspect of the present invention, in the recording medium according to the thirteenth or fourteenth aspect, the size of the learning neighborhood area can be arbitrarily set.
[0025]
A seventeenth aspect of the present invention is the recording medium according to any one of the thirteenth to sixteenth aspects, wherein the plurality of output units form a closed space.
[0026]
According to an eighteenth aspect of the present invention, in the recording medium according to any one of the thirteenth to seventeenth aspects, the learning neighborhood area converges linearly as the self-mapping progresses. .
[0027]
According to such a configuration, for example, in a medical image, an image processing apparatus and an image processing method for automatically extracting an outline of a target of interest in an objective standard and efficiently, and a program for causing a computer to execute the image processing are provided. A storage medium for storing can be realized.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same functions and configurations are denoted by the same reference numerals, and repeated description will be made only when necessary.
[0029]
The image processing apparatus according to the present embodiment targets an image in which a region of interest, such as a diagnostic region, can be suitably observed, and uses different X and Y coordinate information of rough initial contours as learning data. The rough initial contour is smoothed by using one Self-Organizing Map (hereinafter referred to as "SOM") to extract an optimal contour. In the following, in order to make the description specific, the T 2 In the emphasized horizontal section, the rough initial contour and the X and Y coordinates of the upper sagittal sinus edge information are used as learning data, and the initial contour in which the longitudinal cerebral fissure feature point and the boundary of the tissue are ambiguous is smoothed. The case where the surface contour is automatically extracted is taken as an example.
[0030]
However, the technical idea of the present invention is not limited to this. For example, the image to be subjected to contour extraction may be another tomographic image such as an X-ray CT image, and it is needless to say that the image is useful in diagnosis other than the brain.
[0031]
FIG. 1 is a block diagram of an image processing apparatus 10 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 10 includes an MRI database 11, a tissue color map storage unit 12, a learning phase 13, an SOM weight storage unit 15, a generation phase 17, an integration phase 19, and a brain surface contour image storage unit 21. Is provided.
[0032]
The MRI database 11 stores a plurality of MR images for each subject (patient).
[0033]
The tissue color map storage unit 12 stores a tissue color map obtained by applying an automatic tissue classification method to an MR image to be used for diagnosis. The automatic tissue classification method is to classify images for each tissue by self-mapping image characteristics of MR images to be used for diagnosis. The automatic classification method of this organization will be described later in detail.
[0034]
The learning phase 13 includes a pre-processing unit 130 and a self-learning unit 131. The preprocessing unit 130 performs predetermined preprocessing to set learning data as an input of the SOM. Specifically, the preprocessing unit 130 generates a binarized image in which the tissue color map is classified into a brain tissue and a background, calculates a virtual center C of the brain, and targets the upper hemisphere of the brain tissue from the virtual center C. Filter processing, extraction of an initial contour by an 8-neighbor operator, extraction of edge information of the superior sagittal sinus, and generation of learning data for SOM processing. The learning data is input data of the SOM, and is a rough outline of the brain generated by synthesizing the edge information with the initial outline extracted by the 8-neighbor operator (see FIG. 3).
[0035]
The self-learning unit 131 repeats self-learning with a predetermined weighting coefficient based on the learning data generated by the preprocessing unit 130, and learns the coordinates of the tissue contour and the coordinates of the edge information of the superior sagittal sinus. That is, the self-learning unit 131 receives the X and Y coordinates on the learning data as input, sequentially updates the weighting factor of the phase structure, sets the initial neighborhood area to the 1/8 neighborhood area, and executes the SOM processing. SOM processing is performed for a region near 3/4. The mapping layer to which each SOM is mapped is a closed space in which the first unit and the last unit are connected as neighbors. The SOM executed by the self-learning unit 131 will be described later in detail.
[0036]
The SOM weight storage unit 15 stores the weight coefficient distribution of the phase structure obtained by the SOM processing.
[0037]
The generation phase 17 includes a weight plot unit 170 and a linear interpolation unit 171. The weight plotting unit 170 converts the weighting factor obtained by the SOM processing of the initial neighborhood area by と and the weighting factor obtained by the SOM processing of the initial neighborhood area by / into image scales, respectively. Plot the coordinates. The linear interpolation unit 171 linearly interpolates the representative points plotted on the X and Y coordinates and generates an outline corresponding to each SOM processing (hereinafter, an outline corresponding to the 8 neighborhood area SOM processing is referred to as “initial The outline corresponding to the 1/4 neighborhood area SOM processing and the outline corresponding to the 3/4 neighborhood area SOM process are referred to as the "outline of the initial neighborhood area 3/4."
[0038]
The integration phase 19 includes a reference point extraction unit 190, a contour line integration unit 191, and an image synthesis unit 192. The reference point extraction unit 190 superimposes the contour line of the initial neighborhood region 1/8 and the contour line of the initial neighborhood region 3/4, and extracts, for example, a longitudinal cerebral fissure feature point on the contour line of the initial neighborhood region 1/8. I do. Based on the reference point extracted by the reference point extraction unit 190, the contour line of the initial neighborhood area 1/8, and the contour line of the initial neighborhood area 3/4, the contour line integration unit 191 generates the contour of the initial neighborhood area 1/8. The line and the contour of the initial neighborhood 3/4 are integrated to generate a brain contour image.
[0039]
The image synthesizing unit 192 generates a synthesized image obtained by synthesizing an MR image (original image of a tissue color map) and a brain contour image as needed.
[0040]
The brain surface outline image storage unit 21 stores the synthesized image, the brain outline image, and the like generated by the image synthesis unit 192, and outputs them to a display unit (not shown) or the like as required.
[0041]
In FIG. 1, the MRI database 11, the tissue color map storage unit 12, and the SOM weight storage unit 15 are individually represented. However, a configuration in which each configuration is realized by a single memory may be used. Further, the MRI database 11 and the tissue color map storage unit 12 may be provided separately from the image processing apparatus 10 to acquire an MR image and a tissue color map via a network.
[0042]
(Self-Organizing Map)
Next, a self-organizing map (SOM) will be described. SOM preserves the phase of input data and performs topological mapping, and does not require an explicit teacher in the learning process.
[0043]
As shown in FIG. 2, a general SOM has two layers: an input layer including an input unit, and a mapping layer including an output unit. A typical SOM learning algorithm is as follows.
[0044]
(1) w ij Let (1 ≦ i ≦ n) be the weighting factor from input unit i to output unit j at time t. The weight coefficient of the unit is initialized with random numbers, and the initial range near node j is set large.
[0045]
(2) x i (1 ≦ i ≦ n) is an input to the node i at the time t.
[0046]
(3) Euclidean distance d between input data and output node j j Is calculated by the following equation (1).
[0047]
(Equation 1)
Figure 2004174219
[0048]
(4) Euclidean distance d j Find the output unit that minimizes.
[0049]
(5) N c The weight coefficient for the unit included in the neighborhood defined by (t) is updated by the following equation (2).
w ij (T + 1) = w ij (T) + α (t) (x i (T) -w ij (T)) (2)
Here, α (t) is a learning rate coefficient (0 <α <1), N c (T) is the size of the neighborhood area, which decreases with time.
[0050]
(6) The above processes (2) to (5) are repeated.
[0051]
In the present embodiment, a part or all of a plurality of points (pixels) constituting a rough outline of the brain generated by synthesizing the initial outline and the edge portion of the superior sagittal sinus are determined by the patient. Is considered as a representative point representing the outline of the brain. By repeatedly executing the SOM process using this representative point as learning data, a more objective representative point is obtained. In particular, the example described below implements contour extraction according to the complexity of the target by executing two types of SOM processing and synthesizing the results. One of the two types of SOM processing is referred to as “SOM processing in which the initial neighborhood area is /”, and the other is referred to as “SOM processing in which the initial neighborhood area is 8”.
[0052]
In the SOM processing in which the initial neighborhood area is 3/4, as shown in FIG. 3, the X-coordinate and the Y-coordinate of each predetermined pixel on the learning data are input to the input layer, and the predetermined weighting coefficients are used for the mapping layer. SOM processing for mapping to each output unit and selecting an optimum output unit (winner unit) from the output units is repeatedly executed. At that time, in each SOM process, updating of each weight coefficient corresponding to an output unit existing in the learning neighborhood area is executed. Here, the learning neighborhood area is an area including at least the obtained winner unit, and converges as the number of times of learning progresses. Further, the initial neighborhood area means the initial setting of the learning neighborhood area. In the present SOM processing, the initial neighborhood area is set as / of the total number of output units, and is converged according to a predetermined straight line or curve.
[0053]
The details of the SOM processing in which the initial neighborhood area is 3/4 will be described in more detail with reference to a quantitative example. That is, the coordinates (x i , Y i ) Is input, and the Euclidean distance d is calculated for the predetermined pixel based on Expression (1). j Is calculated. Here, i is an integer satisfying 1 ≦ i ≦ maximum number of learning times (100,000 times), and j is an integer satisfying 1 ≦ j ≦ the total number of output units of the mapping layer (1000 units). The calculated Euclidean distance d j Is defined as the winner unit, and the weight coefficient is updated based on the equation (2) for the winner unit and the output unit (neighboring unit) in the vicinity area centered on the winner unit. In this case, since the initial neighborhood area is 3/4, the total number of output units existing in the area is 750 units.
[0054]
As described above, the SOM processing for each pixel on the learning data is performed a plurality of times (for example, while the weighting coefficient corresponding to the output unit existing in the learning area is converged while the weighting coefficient corresponding to the output unit existing in the area is sequentially updated by the equation (2)). 100000 times). Eventually, the coordinates of each pixel on the learning data converge on a predetermined output unit.
[0055]
Also, in the SOM processing in which the initial neighborhood area is 1/8, as shown in FIG. 3, the initial neighborhood area is first set as 1/8 of the total number of output units, and converged according to a predetermined straight line or curve. Perform processing.
[0056]
In the present embodiment, as shown in FIG. 4A, a plurality of output units in each SOM process include a first output unit (first output unit) and a 1000th output unit (last output unit). It forms a connected closed space. As a result, the 1000th output unit is determined as a neighboring unit of the first output unit, and affects the updating of the weight coefficient according to equation (2). The reason why the output unit of the closed space is adopted in this way is that the contour to be extracted is a closed curve. Thereby, the degree of correlation between the first output unit and the 1000th output unit is increased, and a more accurate result can be obtained.
[0057]
Further, from the viewpoint of the convergence of the process, it is preferable to linearly decrease the size of the neighboring region and the learning rate coefficient in each SOM process as the number of times of learning progresses.
[0058]
(Creating an organization color map)
The image processing apparatus 10 creates a tissue color map and stores it in the tissue color map storage unit 12 as a process prior to the outline extraction. This tissue color map is generated, for example, as follows by an automatic tissue classification method using the above-described SOM processing.
[0059]
That is, as shown in FIG. 4B, a plurality of randomly extracted MR images (hereinafter, referred to as “classification target images”; see FIG. 7A) are targeted for tissue classification. Four feature amounts relating to the local block (the luminance value of the pixel of interest, the average value of the luminance values of the pixels forming the local block, the difference between the luminance value of the pixel of interest and the maximum value of the luminance values of the pixels forming the local block, The difference between the luminance value of the target pixel and the minimum luminance value of the pixels constituting the local block) is used as an input in the input layer, and the tissue distribution of a predetermined part of the patient in a feature space of the classification target image is determined using a predetermined weighting coefficient. Self-mapping as the phase characteristic of By this self-mapping, each local block as input is converted into four output units A, B, C and D of the background (BG), cerebrospinal fluid (CSF), white matter (WM) and gray matter (GM) by SOM processing. Is mapped to any of
[0060]
That is, x1 = the luminance value of the target pixel, x2 = the average value of the luminance values of the pixels forming the local block, x3 = the difference between the luminance value of the target pixel and the maximum luminance value of the pixels forming the local block. , X4 = the difference between the luminance value of the pixel of interest and the minimum luminance value of the pixels forming the local block. Each feature x in each local block i (Where i is an integer that satisfies 1 ≦ i ≦ 4), and based on the equation (1), the initially set weight coefficient w ij By the Euclidean distance d j Is calculated. In this case, j = 1 corresponds to the output unit CSF, j = 2 corresponds to the output unit GM, j = 3 corresponds to the output unit WM, j = 4 corresponds to the output unit BG, and j is 1 It is an integer satisfying ≦ j ≦ 4.
[0061]
The input is the calculated Euclidean distance d 1 , D 2 , D 3 , D 4 Are mapped to the output unit corresponding to the smallest one. Note that the output unit that minimizes the Euclidean distance in the self-mapping is called a winner unit.
[0062]
The SOM processing on the extracted local block is executed a plurality of times (for example, 1,000,000 times) while sequentially updating the weighting coefficient by the equation (2). As described above, the SOM processing is repeatedly performed a plurality of times while updating the weight coefficient. As the learning progresses, each local block converges on a predetermined output unit.
[0063]
Based on the result of the SOM processing and four feature amounts of a plurality of local blocks (3 × 3 pixels) each of which is a pixel of interest generated in the classification target image shown in FIG. Tissue classification of each pixel of the target image into one of the background (BG), cerebrospinal fluid (CSF), white matter (WM), and gray matter (GM), and assigning a predetermined color to each pixel, FIG. The tissue color map shown in b) can be generated.
[0064]
Next, the contour extraction processing executed by the image processing apparatus 10 configured as described above will be described with reference to FIGS.
[0065]
FIG. 5 and FIG. 6 are flowcharts illustrating the flow of the contour extraction processing executed by the image processing apparatus 10. In FIG. 5, first, as a preceding process, a tissue color map is created by the above-described method and stored in the tissue color map storage unit 12 (step S1). The preprocessing unit 130 of the learning phase 13 reads the tissue color map shown in FIG. 7B from the tissue color map storage unit 12, and binarizes the tissue color map into a brain tissue and a background by a predetermined threshold process. A binarized image is generated (see FIG. 7C). Further, the preprocessing unit 130 applies a virtual center C (C) to the generated binarized image from the XY projection of the brain tissue. x , C y ) Is calculated (step S2).
[0066]
Next, the preprocessing unit 130 performs a filtering process on the upper hemisphere of the brain tissue from the virtual center C (step S3), scans the image upward from the virtual center C, finds the contour start point S, A rough initial contour of the brain is extracted by the operator (step S4). Here, extraction of the initial contour by the 8-neighbor operator refers to, for example, regarding eight pixels in contact with the contour start point S, a pixel having the closest pixel value (luminance value) is determined to be a contour, and a pixel determined to be the contour is determined. The same determination is repeated for the eight pixels in contact with. That is, for pixels in the first neighborhood (3 × 3) centered on the contour start point S, pixels on the brain tissue adjacent to the background region are sequentially extracted.
[0067]
Next, the preprocessing unit 130 extracts edge information of the superior sagittal sinus (step S5), and combines the edge information with the extracted initial contour to generate learning data (see FIG. 3). The self-learning unit 131 calculates the X coordinate x of each pixel on the generated learning data. i And Y coordinate y i Is input to the SOM, and the SOM processing in which the above-described initial neighborhood area is 3/4 and the SOM processing in which the initial neighborhood area is 1/8 are executed, and each winner unit in each SOM processing is determined (step S7). The self-learning by the SOM process is repeated an appropriate number of times (for example, 100,000 times) to obtain a reliable result while sequentially updating the weighting coefficient according to the equation (2) (step S8).
[0068]
Next, the weight plotting unit 170 plots the respective weighting coefficients obtained by the SOM processing in which the initial neighborhood area is 3/4 on the corresponding coordinates in the image space, and the linear interpolation unit 171 linearly interpolates between the coordinates. By doing so, a contour line of the initial neighborhood area 3/4 is generated. Further, a contour line of the initial neighborhood area 1/8 is generated by the same processing (step S9). Thereby, each contour line based on the highly accurate representative points obtained by each SOM process is obtained.
[0069]
Next, the reference point extraction unit 190 of the integration phase 19 draws a contour line of the initial neighboring area 3/4 shown in FIG. 8A and a contour line of the initial neighboring area 1/8 shown in FIG. As shown in FIG. 8 (c), the cerebral longitudinal fissure feature point is extracted as a reference point D on the contour line of the initial neighborhood area 1/8 (step S11).
[0070]
Next, based on the reference point D extracted by the reference point extraction unit 190, the contour line integration unit 191 combines the contour of the initial neighborhood area 1/8 and the contour of the initial neighborhood area 3/4, and An outline is generated (step S12, step S13). That is, as shown in FIG. 9, the contour line integration unit 191 scans the contour line from the reference point D (the cerebral longitudinal fissure feature point) to the left and right, and compares the contour line with the contour line of the initial neighboring area 3/4. L at the left intersection of 1 , The second left intersection is L 2 And the first right intersection with the contour line of the initial neighborhood area 3/4 is R 1 , The second right intersection is R 2 And L obtained 2 -R 2 The outline between them is the outline of the initial neighborhood area 1/8, and the rest is synthesized as the outline of the initial neighborhood area 3/4, thereby generating the brain outline. Note that L 2 -R 2 The region between them is defined as the contour line of the initial neighborhood region 1/8. The region corresponding to the longitudinal cerebral fissure feature point having a complicated contour is defined as the contour initial neighborhood region 1 / that can reflect a finer structure. This is because it is represented by eight contour lines. Also, L 2 -R 2 The reason for defining the area other than the area as the contour of the initial neighborhood area 3/4 is to represent the area having no relatively complicated contour by the contour of the smooth initial neighborhood area 3/4.
[0071]
According to the image processing apparatus according to the present embodiment, a rough initial contour is extracted from individual image characteristics and used as learning data, so that an optimum contour can be quickly and easily obtained even for an image having an ambiguous tissue boundary. Can be automatically extracted. Therefore, useful diagnostic information can be efficiently provided to doctors and the like, which can contribute to improvement in the quality of diagnosis.
[0072]
Further, in the image processing apparatus according to the present embodiment, contour extraction is performed based on an internal reference obtained by the SOM processing. That is, since there is no need to have a reference vector for contour extraction outside as in the related art, there is no need to subjectively set complicated parameters for each target image. Therefore, highly objective contour extraction can be automatically executed.
[0073]
As in the embodiment, the image processing apparatus arbitrarily sets the number of learning neighboring regions and the number of mapping layer units, as in the case where the SOM processing in which the initial neighboring region is / and the SOM processing in which the initial neighboring region is 1 / are performed in the embodiment. be able to. Therefore, it is possible to arbitrarily set the degree of smoothing of the contour, and as a result, it is possible to realize optimal contour extraction according to the degree of complexity of the tissue.
[0074]
In the image processing device according to the present embodiment, the mapping layer unit is a vertex that approximates the boundary area line of the tissue with a polygon. Therefore, a continuous boundary line can be extracted in a discontinuous image in which the boundary between tissues is ambiguous and discontinuous by the recursive processing.
[0075]
As described above, the present invention has been described based on the embodiments. However, in the scope of the concept of the present invention, those skilled in the art can come up with various modified examples and modified examples. It is understood that it belongs to the scope of the present invention. For example, as shown below, various modifications can be made without changing the gist.
[0076]
The contour extraction processing described in the present embodiment can also be realized by a personal computer, a workstation, or the like by a program that causes a computer to execute the method. In this case, the program that can cause the computer to execute the method can be stored in a recording medium such as a magnetic disk (floppy disk, hard disk, and the like), an optical disk (CD-ROM, DVD, and the like), a semiconductor memory, and distributed. it can.
[0077]
In addition, the embodiments may be implemented in appropriate combinations as much as possible, in which case the combined effects can be obtained. Further, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effects described in the column of the effect of the invention can be solved. When at least one of the above is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0078]
【The invention's effect】
According to the present invention, for example, an image processing apparatus and an image processing method for automatically extracting an outline of a target of interest in an objective standard and efficiently in a medical image, and a program for causing a computer to execute the image processing are stored. Recording medium that can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an image processing apparatus 10 according to an embodiment.
FIG. 2 is a diagram for explaining a general self-organizing map (SOM) process;
FIG. 3 is a diagram for explaining a self-organizing map (SOM) process performed by the image processing apparatus according to the embodiment;
FIG. 4A is a diagram illustrating a self-organizing map (SOM) process performed by the image processing apparatus according to the embodiment. FIG. 4B is a diagram for describing a self-organizing map (SOM) process performed in the automatic tissue classification method.
FIG. 5 is a flowchart illustrating a flow of an outline extraction process performed by the image processing apparatus 10;
FIG. 6 is a flowchart illustrating a flow of an outline extraction process performed by the image processing apparatus 10;
FIG. 7A is a photograph showing a classification target image (MR image) to be subjected to the automatic tissue classification method. FIG. 7B is a photograph showing a tissue color map obtained by an automatic tissue classification method. FIG. 7C is a photograph showing a binarized image obtained by binarizing the tissue color map.
FIG. 8A is a diagram schematically illustrating an outline of an initial vicinity region 3/4. FIG. 8B is a diagram schematically illustrating the contour of the initial vicinity area 1/8. FIG. 8C is a diagram schematically showing an image in which the outline of the initial neighborhood area 3/4 and the outline of the initial neighborhood area 1/8 are superimposed.
FIG. 9 is an enlarged view near a reference point D in FIG. 8C.
[Explanation of symbols]
10 ... Image processing device
11 ... MRI database
12 ... Tissue color map storage
13 ... Learning phase
15 ... SOM weight storage unit
17… Generation phase
19 ... Integration phase
21: Brain surface contour image storage
130 ... Pre-processing unit
131 ... Self-learning unit
170 ... weight plot section
171: Linear interpolation unit
190: Reference point extraction unit
191 ... Contour line integration unit
192 ... Image synthesis unit

Claims (18)

被検体の所定部位に関する第1の画像を記憶する記憶手段と、
前記第1の画像に基づいて、前記所定部位の第1の輪郭線を抽出する第1の輪郭線抽出手段と、
前記第1の輪郭線を構成する各画素の位置を入力とし、個別の重み係数に基づく対応付けにより複数の出力ユニットと当該複数の出力ユニットの中から決定される勝者ユニットとを取得する自己写像手段であって、前記勝者ユニットに基づく学習近傍領域に存在する前記出力ユニットのそれぞれに対応する前記重み係数を、前記学習近傍領域を収束させながら更新する自己写像を繰り返し実行する自己写像手段と、
繰り返し実行された前記自己写像により取得された前記複数の出力ユニットに対応する前記重み係数のそれぞれに基づいて、前記所定部位の第2の輪郭線を含む第2の画像を生成する第2の画像生成手段と、
を具備することを特徴とする画像処理装置。
Storage means for storing a first image relating to a predetermined part of the subject;
First contour line extraction means for extracting a first contour line of the predetermined part based on the first image;
Self-mapping in which the position of each pixel constituting the first contour line is input, and a plurality of output units and a winner unit determined from the plurality of output units are obtained by association based on individual weighting factors. Means, the weighting coefficients corresponding to each of the output units present in the learning neighborhood area based on the winner unit, self-mapping means repeatedly executing self-mapping updating while converging the learning neighborhood area,
A second image that generates a second image including a second contour line of the predetermined portion based on each of the weighting factors corresponding to the plurality of output units acquired by the self-mapping that is repeatedly executed. Generating means;
An image processing apparatus comprising:
前記自己写像手段は、前記学習近傍領域の初期設定を第1のサイズとして前記自己写像を繰り返し実行する第1の自己写像手段と、前記学習近傍領域の初期設定を第2のサイズとして前記自己写像を繰り返し実行する第2の自己写像手段と、を有し、
前記第2の画像生成手段は、前記第1の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、前記第2の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、に基づいて前記第2の輪郭線を含む前記第2の画像を生成すること、
を特徴とする請求項1記載の画像処理装置。
The self-mapping means includes first self-mapping means for repeatedly executing the self-mapping with the initial setting of the learning neighborhood area as a first size, and the self-mapping means with the initial setting of the learning neighborhood area as a second size. And a second self-mapping means for repeatedly executing
The second image generating means includes: a weighting coefficient corresponding to the plurality of output units obtained by the first self-mapping means; and a plurality of output units obtained by the second self-mapping means. Generating the second image including the second contour based on the corresponding weighting factor;
The image processing apparatus according to claim 1, wherein:
前記複数の出力ユニットの数は任意に設定可能であることを特徴とする請求項1又は2記載の画像処理装置。The image processing apparatus according to claim 1, wherein the number of the plurality of output units can be arbitrarily set. 前記学習近傍領域のサイズは任意に設定可能であることを特徴とする請求項1又は2記載の画像処理装置。3. The image processing apparatus according to claim 1, wherein the size of the learning neighborhood area can be arbitrarily set. 前記複数の出力ユニットは、閉空間を形成することを特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 4, wherein the plurality of output units form a closed space. 前記学習近傍領域は、前記自己写像の進行に従って線形に収束することを特徴とする請求項1乃至5のうちいずれか一項記載の画像処理装置。The image processing apparatus according to claim 1, wherein the learning neighborhood area converges linearly with the progress of the self-mapping. 被検体の所定部位に関する第1の画像に基づいて、前記所定部位の第1の輪郭線を抽出する第1の輪郭線抽出ステップと、
前記第1の輪郭線を構成する各画素の位置を入力とし、個別の重み係数に基づく対応付けにより複数の出力ユニットと当該複数の出力ユニットの中から決定される勝者ユニットとを取得するものであって、前記勝者ユニットに基づく学習近傍領域に存在する前記出力ユニットのそれぞれに対応する前記重み係数を、前記学習近傍領域を収束させながら更新する自己写像を繰り返し実行する自己写像ステップと、
繰り返し実行された前記自己写像により取得された前記複数の出力ユニットに対応する前記重み係数のそれぞれに基づいて、前記所定部位の第2の輪郭線を含む第2の画像を生成する第2の画像生成ステップと、
を具備することを特徴とする画像処理方法。
A first contour line extraction step of extracting a first contour line of the predetermined part based on a first image related to the predetermined part of the subject;
The position of each pixel constituting the first contour is input, and a plurality of output units and a winner unit determined from the plurality of output units are acquired by association based on individual weighting factors. Self-mapping step of repeatedly executing a self-mapping that updates the weighting coefficients corresponding to each of the output units present in the learning neighborhood area based on the winner unit while converging the learning neighborhood area,
A second image that generates a second image including a second contour line of the predetermined portion based on each of the weighting factors corresponding to the plurality of output units acquired by the self-mapping that is repeatedly executed. Generating step;
An image processing method comprising:
前記自己写像ステップは、前記学習近傍領域の初期設定を第1のサイズとして前記自己写像を繰り返し実行する第1の自己写像ステップと、前記学習近傍領域の初期設定を第2のサイズとして前記自己写像を繰り返し実行する第2の自己写像ステップと、を有し、
前記第2の画像生成ステップにおいては、前記第1の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、前記第2の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、に基づいて前記第2の輪郭線を含む前記第2の画像を生成すること、
を特徴とする請求項7記載の画像処理方法。
The self-mapping step includes a first self-mapping step of repeatedly executing the self-mapping with the initial setting of the learning neighborhood area as a first size, and the self-mapping step with the initial setting of the learning neighborhood area as a second size. A second self-mapping step of repeatedly executing
In the second image generation step, the weight coefficients corresponding to the plurality of output units obtained by the first self-mapping unit and the plurality of output units obtained by the second self-mapping unit Generating the second image including the second contour line based on the weight coefficient corresponding to
The image processing method according to claim 7, wherein:
前記複数の出力ユニットの数は任意に設定可能であることを特徴とする請求項7又は8記載の画像処理方法。9. The image processing method according to claim 7, wherein the number of the plurality of output units can be arbitrarily set. 前記学習近傍領域のサイズは任意に設定可能であることを特徴とする請求項7又は8記載の画像処理方法。9. The image processing method according to claim 7, wherein the size of the learning neighborhood area can be arbitrarily set. 前記複数の出力ユニットは、閉空間を形成することを特徴とする請求項7乃至10のうちいずれか一項記載の画像処理方法。The image processing method according to claim 7, wherein the plurality of output units form a closed space. 前記学習近傍領域は、前記自己写像の進行に従って線形に収束することを特徴とする請求項7乃至11のうちいずれか一項記載の画像処理方法。The image processing method according to claim 7, wherein the learning neighborhood area linearly converges as the self-mapping progresses. コンピュータに、
被検体の所定部位に関する第1の画像に基づいて、前記所定部位の第1の輪郭線を抽出する第1の輪郭線抽出ステップと、
前記第1の輪郭線を構成する各画素の位置を入力とし、個別の重み係数に基づく対応付けにより複数の出力ユニットと当該複数の出力ユニットの中から決定される勝者ユニットとを取得するものであって、前記勝者ユニットに基づく学習近傍領域に存在する前記出力ユニットのそれぞれに対応する前記重み係数を、前記学習近傍領域を収束させながら更新する自己写像を繰り返し実行する自己写像ステップと、
繰り返し実行された前記自己写像により取得された前記複数の出力ユニットに対応する前記重み係数のそれぞれに基づいて、前記所定部位の第2の輪郭線を含む第2の画像を生成する第2の画像生成ステップと、
を実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
On the computer,
A first contour line extraction step of extracting a first contour line of the predetermined part based on a first image related to the predetermined part of the subject;
The position of each pixel constituting the first contour is input, and a plurality of output units and a winner unit determined from the plurality of output units are acquired by association based on individual weighting factors. Self-mapping step of repeatedly executing a self-mapping that updates the weighting coefficients corresponding to each of the output units present in the learning neighborhood area based on the winner unit while converging the learning neighborhood area,
A second image that generates a second image including a second contour line of the predetermined portion based on each of the weighting factors corresponding to the plurality of output units acquired by the self-mapping that is repeatedly executed. Generating step;
And a computer-readable recording medium storing an image processing program for executing the program.
前記自己写像ステップは、前記学習近傍領域の初期設定を第1のサイズとして前記自己写像を繰り返し実行する第1の自己写像ステップと、前記学習近傍領域の初期設定を第2のサイズとして前記自己写像を繰り返し実行する第2の自己写像ステップと、を有し、
前記第2の画像生成ステップにおいては、前記第1の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、前記第2の自己写像手段により取得された前記複数の出力ユニットに対応する前記重み係数と、に基づいて前記第2の輪郭線を含む前記第2の画像を生成すること、
を特徴とする請求項13記載のコンピュータ読み取り可能な記録媒体。
The self-mapping step includes a first self-mapping step of repeatedly executing the self-mapping with the initial setting of the learning neighborhood area as a first size, and the self-mapping step with the initial setting of the learning neighborhood area as a second size. A second self-mapping step of repeatedly executing
In the second image generation step, the weight coefficients corresponding to the plurality of output units obtained by the first self-mapping unit and the plurality of output units obtained by the second self-mapping unit Generating the second image including the second contour line based on the weight coefficient corresponding to
14. The computer readable recording medium according to claim 13, wherein:
前記複数の出力ユニットの数は任意に設定可能であることを特徴とする請求項13又は14記載のコンピュータ読み取り可能な記録媒体。15. The computer-readable recording medium according to claim 13, wherein the number of the plurality of output units can be arbitrarily set. 前記学習近傍領域のサイズは任意に設定可能であることを特徴とする請求項13又は14記載のコンピュータ読み取り可能な記録媒体。The computer-readable recording medium according to claim 13, wherein the size of the learning neighborhood area can be arbitrarily set. 前記複数の出力ユニットは、閉空間を形成することを特徴とする請求項13乃至16のうちいずれか一項記載のコンピュータ読み取り可能な記録媒体。17. The computer-readable recording medium according to claim 13, wherein the plurality of output units form a closed space. 前記学習近傍領域は、前記自己写像の進行に従って線形に収束することを特徴とする請求項13乃至17のうちいずれか一項記載のコンピュータ読み取り可能な記録媒体。18. The computer-readable recording medium according to claim 13, wherein the learning neighborhood area converges linearly with the progress of the self-mapping.
JP2003182673A 2002-10-01 2003-06-26 Image processing apparatus, image processing method, and recording medium storing program for causing computer to execute image processing Expired - Fee Related JP3996555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003182673A JP3996555B2 (en) 2002-10-01 2003-06-26 Image processing apparatus, image processing method, and recording medium storing program for causing computer to execute image processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002289310 2002-10-01
JP2003182673A JP3996555B2 (en) 2002-10-01 2003-06-26 Image processing apparatus, image processing method, and recording medium storing program for causing computer to execute image processing

Publications (2)

Publication Number Publication Date
JP2004174219A true JP2004174219A (en) 2004-06-24
JP3996555B2 JP3996555B2 (en) 2007-10-24

Family

ID=32715631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003182673A Expired - Fee Related JP3996555B2 (en) 2002-10-01 2003-06-26 Image processing apparatus, image processing method, and recording medium storing program for causing computer to execute image processing

Country Status (1)

Country Link
JP (1) JP3996555B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079897A (en) * 2006-09-28 2008-04-10 Dainippon Printing Co Ltd Medical image processing system
JP2010514524A (en) * 2006-12-29 2010-05-06 ベラソン インコーポレイテッド Ultrasound harmonic imaging system and method
CN102414716A (en) * 2009-04-28 2012-04-11 皇家飞利浦电子股份有限公司 Microdissection method and information processing system
JP2020503923A (en) * 2016-12-21 2020-02-06 エレクタ、インク.Elekta, Inc. Atlas-based automatic segmentation enhanced by online learning
KR20200013380A (en) * 2018-07-30 2020-02-07 주식회사 모두의연구소 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same
JP2020525953A (en) * 2018-01-19 2020-08-27 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. Human body contour keypoint detection method, image processing method, apparatus and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125779A (en) * 1990-09-18 1992-04-27 Toshiba Corp Picture processing method
JPH06233761A (en) * 1993-02-09 1994-08-23 Hitachi Medical Corp Image diagnostic device for medical purpose
JPH07284090A (en) * 1994-04-08 1995-10-27 Olympus Optical Co Ltd Picture classifying device
JPH11213127A (en) * 1998-01-23 1999-08-06 Tokyo Inst Of Technol Method and device for processing image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125779A (en) * 1990-09-18 1992-04-27 Toshiba Corp Picture processing method
JPH06233761A (en) * 1993-02-09 1994-08-23 Hitachi Medical Corp Image diagnostic device for medical purpose
JPH07284090A (en) * 1994-04-08 1995-10-27 Olympus Optical Co Ltd Picture classifying device
JPH11213127A (en) * 1998-01-23 1999-08-06 Tokyo Inst Of Technol Method and device for processing image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佐藤和人 他: "「自己組織化マップを用いた頭部MRIスライス画像のクラス分類と領域分割」", 電気学会情報処理研究会資料, vol. Vol.IP-01,No.11-17, JPN4007002590, 2001, JP, pages 27 - 30, ISSN: 0000878799 *
間所洋和 他: "「自己写像特性を用いた頭部MR画像の組織分類」", 電子情報通信学会技術研究報告, vol. 102, no. 577, JPN4007002589, 17 January 2003 (2003-01-17), JP, pages 93 - 98, ISSN: 0000878800 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079897A (en) * 2006-09-28 2008-04-10 Dainippon Printing Co Ltd Medical image processing system
JP2010514524A (en) * 2006-12-29 2010-05-06 ベラソン インコーポレイテッド Ultrasound harmonic imaging system and method
CN102414716A (en) * 2009-04-28 2012-04-11 皇家飞利浦电子股份有限公司 Microdissection method and information processing system
JP2020503923A (en) * 2016-12-21 2020-02-06 エレクタ、インク.Elekta, Inc. Atlas-based automatic segmentation enhanced by online learning
JP2020525953A (en) * 2018-01-19 2020-08-27 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. Human body contour keypoint detection method, image processing method, apparatus and device
US11113560B2 (en) 2018-01-19 2021-09-07 Beijing Sensetime Technology Development Co., Ltd. Body contour key point detection methods, apparatuses, and devices
KR20200013380A (en) * 2018-07-30 2020-02-07 주식회사 모두의연구소 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same
KR102108630B1 (en) 2018-07-30 2020-05-07 주식회사 모두의연구소 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same

Also Published As

Publication number Publication date
JP3996555B2 (en) 2007-10-24

Similar Documents

Publication Publication Date Title
US11645746B2 (en) Dental image segmentation and registration with machine learning
JP5660432B2 (en) Area data editing device, area data editing method, program, and recording medium
US7529396B2 (en) Method, computer program product, and apparatus for designating region of interest
US7953260B2 (en) Predicting movement of soft tissue of the face in response to movement of underlying bone
JP5486197B2 (en) Vertebral center detecting device, method and program
JP2018509216A (en) Automatic 3D segmentation and cortical surface reconstruction from T1 MRI
JP5301197B2 (en) Sectional image display apparatus and method, and program
JP2007537811A (en) How to detect nodules
Chang et al. 3D segmentation of maxilla in cone-beam computed tomography imaging using base invariant wavelet active shape model on customized two-manifold topology
US9629599B2 (en) Imaging device, assignment system and method for assignment of localization data
CN106960439B (en) A kind of vertebrae identification device and method
CN116982077A (en) System and method for automatically segmenting patient-specific anatomy for pathology-specific measurements
JP5105997B2 (en) Medical image processing apparatus, medical image diagnostic apparatus, and program
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
Bodzioch et al. New approach to gallbladder ultrasonic images analysis and lesions recognition
JP4668289B2 (en) Image processing apparatus and method, and program
JP3996555B2 (en) Image processing apparatus, image processing method, and recording medium storing program for causing computer to execute image processing
JP2004174218A (en) Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
JP2021511575A (en) Automatic segmentation process of 3D medical images by one or several neural networks through structured convolution according to the anatomical geometry of 3D medical images
WO2020203552A1 (en) Line structure extraction device, method and program, and learned model
JP4473578B2 (en) Method and apparatus for forming an isolated visualized body structure
JP4807819B2 (en) Image processing device
JP2004174217A (en) Image processing apparatus, image processing method, and recording medium which stores program according to which computer perform pertinent image processing
JP6745633B2 (en) Image processing apparatus, image processing method, and program
CN106934785B (en) Medical image segmentation method for liver model in robot virtual training system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees