JP2004174220A - Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method - Google Patents

Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method Download PDF

Info

Publication number
JP2004174220A
JP2004174220A JP2003182674A JP2003182674A JP2004174220A JP 2004174220 A JP2004174220 A JP 2004174220A JP 2003182674 A JP2003182674 A JP 2003182674A JP 2003182674 A JP2003182674 A JP 2003182674A JP 2004174220 A JP2004174220 A JP 2004174220A
Authority
JP
Japan
Prior art keywords
image
images
self
mapping
output units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003182674A
Other languages
Japanese (ja)
Inventor
Kazuto Sato
和人 佐藤
Hirokazu Madokoro
洋和 間所
Sakura Kadowaki
さくら 門脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003182674A priority Critical patent/JP2004174220A/en
Publication of JP2004174220A publication Critical patent/JP2004174220A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus etc., that automatically extracts a sliced image of interest required for diagnosis etc., based on an anatomic standard. <P>SOLUTION: The image processing apparatus automatically selects the sliced image of interest which is appropriate for diagnosing encephalatrophy out of a set of cephalic MR images by inputting the T<SB>2</SB>-emphasized horizontal cross sections of the cephalic MR images and catching an anatomic structure as the phase characteristics of the images, and then, recursively self-mapping through SOM processing. The apparatus acquires three output units by performing SOM processing by using the MR images as the input. Then the apparatus produces weight-visualized images corresponding to the acquired output units and calculates the feature quantity of each weight-visualized image. In addition, the apparatus decides a winner unit from the feature quantity and selects the MR image corresponding to the winner unit as a candidate. When the MR image selected as the candidate meets a prescribed condition, the apparatus selects the MR image as the sliced image of interest. When the image does not meet the condition, the apparatus performs a similar processing by again inputting the MR image and performing learning by repeating the self-mapping. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えば磁気共鳴映像装置(Magnetic Resonance Imaging device)等の医用画像診断装置に組み込まれる、又は医療用ワークステーション等によって提供される画像処理装置等に関する。
【0002】
【従来の技術】
医用画像は、被検体についての多くの臨床情報を画像により提供するものであり、疾病の診断、治療や手術計画等を初めとする多くの医療行為において重要な役割を果たしている。医用画像は、医療用画像機器(例えば、超音波診断装置、X線CT装置、核医学診断装置、磁気共鳴診断装置等)によって収集されたデータに、当該医療用画像機器に内蔵される、又は医療用ワークステーション等によって実現される画像処理装置により、所定の画像処理を施すことで生成される。
【0003】
この医用画像を利用した診断では、複数枚の画像の中から、診断部位を含む関心領域(Region of Interest :以下「ROI」と称する。)が好適に現れている画像(以下、「関心スライス画像」と称する。)に注目する。医用画像を利用した脳萎縮の診断を例にとれば、医師は、一般に頭部MR画像のT強調水平断を対象とし、側脳室前角が現れる数枚のスライス画像に注目する。関心スライス画像の選択手法は、診断部位によって様々である。例えば、上記脳萎縮を診断する場合では、医師がMR画像上に現れる脳の解剖学的構造を目視で確認しながら、マニュアル操作により、脳萎縮の診断に必要な関心スライス画像を選択している。
【0004】
しかしながら、脳構造は個人により微妙な差異があり、脳の解剖図譜に基づいて作成された標準脳地図を参照し、関心スライス画像をマニュアル操作にて選択するのは困難である。特に、前頭葉萎縮の程度を定量的に解析するためには、個人の脳構造に合わせて関心スライス画像を選択する必要がある。しかし、従来のマニュアル操作による選択法では、その選択根拠は医師毎に異なるため、客観的な定量的評価を行うことはできない。この事情は、診断部位が脳である場合に限らず、客観的基準に基づく関心スライス画像の選択法が確立されていない診断部位についても同様である。
【0005】
【発明が解決しようとする課題】
本発明は、上記事情を鑑みてなされたもので、診断等に必要な関心スライス画像を解剖学的基準に基づいて自動抽出する画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体を提供することを目的としている。
【0006】
【課題を解決するための手段】
本発明は、上記目的を達成するため、次のような手段を講じている。
【0007】
本発明の第1の視点は、被検体の所定部位に関する複数の第1の画像を記憶する記憶手段と、前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として自己写像する自己写像手段であって、前記所定の重み係数を逐次更新して前記自己写像を所定回数繰り返して複数の出力ユニットを取得する自己写像手段と、前記複数の出力ユニットに基づいて、前記複数の第1の画像の中から、診断において注目すべきROIを含む少なくとも一枚の第2の画像を選択する選択手段とを具備することを特徴とする画像処理装置である。
【0008】
本発明の第2の視点は、被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として自己写像するステップであって、前記所定の重み係数を逐次更新して前記自己写像を所定回数繰り返して複数の出力ユニットを取得する自己写像ステップと、前記複数の出力ユニットに基づいて、前記複数の第1の画像の中から、診断において注目すべきROIを含む少なくとも一枚の第2の画像を選択する選択ステップとを具備することを特徴とする画像処理方法である。
【0009】
本発明の第3の視点は、コンピュータに、被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として自己写像するステップであって、前記所定の重み係数を逐次更新して前記自己写像を所定回数繰り返して複数の出力ユニットを取得する自己写像ステップと、前記複数の出力ユニットに基づいて、前記複数の第1の画像の中から、診断において注目すべきROIを含む少なくとも一枚の第2の画像を選択する選択ステップとを実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0010】
このような構成によれば、診断等に必要な関心スライス画像を解剖学的基準に基づいて自動抽出する画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体を実現することができる。
【0011】
【発明の実施の形態】
以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
【0012】
本実施形態に係る画像処理装置は、例えば被検体の複数の断層画像から、診断部位等のROIを好適に観察することができる関心スライス画像を、解剖学的構造情報に基づいて、自動選択するものである。以下においては、説明を具体的にするため、脳萎縮の診断において、所定の被検体に関する頭部MR画像のT強調水平断の中から、側脳室前角の観察に好適な関心スライス画像のセットを自動選択する場合を例とする。
【0013】
しかしながら、本発明の技術的思想は、これに限定されない。例えば、選択対象とする画像は、X線CT画像等の他の断層画像でもよく、また、脳以外の診断においても有益であることは、言うまでもない。
【0014】
図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。同図に示すように、画像処理装置10は、MRIデータベース11、学習フェーズ13、重み・構造記憶部15、判断フェーズ17、分類フェーズ19、関心スライス候補セット記憶部21を具備している。
【0015】
MRIデータベース11は、被検体(患者)毎の複数のMR画像を格納している。
【0016】
学習フェーズ13は、前処理部130、自己学習部131を有している。前処理部130は、自己学習に入力値として使用する複数のMR画像を粗視化する。ここでは、2×2画素の局所グリッドを用いる。この前処理部130による粗視化は一種の圧縮処理であり、処理速度の向上及びノイズ低減の観点から実行される。自己学習部131は、粗視化された複数のMR画像を入力値として自己組織化マップ処理を実行し、複数の出力ユニットにマッピングする処理を複数回繰り返し実行することにより、患者の所定部位の位相構造を学習する。この自己学習部131によって実行される自己組織化マップについては、後で詳しく説明する。
【0017】
重み・構造記憶部15は、自己組織化マップにより得られた位相構造の重み係数分布を格納する。この重み係数分布は、自己組織化マップ処理を行う毎に、後述する式(2)に基づいて逐次更新される。
【0018】
判断フェーズ17は、可視化画像生成部170、特徴抽出部171、勝者ユニット決定部172を有している。可視化画像生成部170は、重み・構造記憶部15に格納された情報に基づいて、位相構造の重み係数分布画像を可視化した画像(以下、「重み可視化像」と称する。)を生成する。特徴抽出部171は、可視化画像生成部170によって生成された重み可視化像における特徴量を抽出する。ここで、特徴量とは、重み可視化像やMR画像において、被検体毎に決定することができる固有の物理量であり、例えば入力としてのMR画像が脳画像である場合には、脳の大きさ、脳中心部の高輝度領域、側脳室前角の形状及びテクスチャー等である。勝者ユニット決定部172は、特徴抽出部171によって抽出された特徴量に基づいて、勝者ユニットを決定する。
【0019】
分類フェーズ19は、関心スライス候補セット選択部190、絞り込み判断部191を有している。関心スライス候補セット選択部190は、学習済み自己組織化マップに粗視化後の画像セットを入力し、勝者ユニットで発火する複数のスライス画像を選択する。以下、この発火する複数のスライス画像を「関心スライス候補セット」と称する。絞り込み判断部191は、重み可視化像間の類似度を算出し、この変化に基づいて関心スライス候補の更なる絞り込みを実行するか否かの判断を行う。
【0020】
関心スライス候補セット記憶部21は、関心スライス候補セットを一時的に記憶する。絞り込み判断部191によって類似しないと判断された場合には、関心スライス候補セット記憶部21に記憶されている関心スライス候補セットは、再度学習フェーズ13にフィードバックされ、さらなる絞り込みを受ける。一方、絞り込み判断部191によって類似すると判断された場合には、関心スライス候補セット記憶部21に記憶されている関心スライス候補セットは、関心スライス画像として図示していない表示部等に出力される。
【0021】
なお、図1においては、MRIデータベース11、重み・構造記憶部15、関心スライス候補セット記憶部21をそれぞれ個別に表現したが、単一のメモリによって各構成を実現する構成であってもよい。
【0022】
(自己組織化マップ:Self-Organizing Map)
次に、自己組織化マップ(以下、「SOM」と称する。)について説明する。SOMは、入力データの位相を保存し、トポロジカルなマッピングを行うものであり、その学習過程では、明示的な教師を必要としない。
【0023】
一般のSOMは、図2(a)に示すように、入力ユニットを含む入力層と、出力ユニットを含むマッピング層との二層からなる。典型的なSOMの学習アルゴリズムは、次の様である。
【0024】
(1)wij(1≦i≦n)を時刻tにおける入力ユニットiから出力ユニットjへの重み係数とする。ユニットの重み係数を乱数で初期化し、ノードjの近傍の初期範囲を大きく設定する。
【0025】
(2)x(1≦i≦n)を時刻tにおけるノードiへの入力とする。
【0026】
(3)入力データと出力ノードjとのユークリッド距離dを次の式(1)にて計算する。
【0027】
【数1】

Figure 2004174220
【0028】
(4)ユークリッド距離dが最小となる出力ユニットを検索する。
【0029】
(5)N(t)で定義される近傍に含まれるユニットへの重み係数を、次の式(2)にて更新する。
ij(t+1)=wij(t)+α(t)(x(t)−wij(t))(2)
ここで、α(t)は学習率係数(0<α<1)、N(t)は近傍領域のサイズであり、時間とともに減少させる。
【0030】
(6)上記(2)〜(5)の処理を繰り返す。
【0031】
本実施形態において実行されるSOMでは、図2(b)に示すように、例えば128×128画素に粗視化されたMR画像のセットを入力とし、所定の重み係数によって所定部位の解剖学的構造を各MR画像の位相特性として自己写像する。この自己写像により、入力としての各MR画像は、SOMの自己学習により3つの出力ユニットA、B、Cのいずれかに写像される。なお、本実施形態において、出力ユニットを3つとするのは、類似度を比較する際に外部から判断基準を必要としない最小の構成が3つであるという理由による。
【0032】
すなわち、各MR画像の各画素値x(だだし、iは1≦i≦128×128を満たす整数)が入力ユニットに入力されると、式(1)に基づいて、初期設定の重み係数wijによってユークリッド距離dを算出する。なお、今の場合、j=1が出力ユニットAに対応、j=2が出力ユニットBに対応、j=3が出力ユニットCに対応するものとして、jは1≦j≦3を満たす整数とする。
【0033】
入力値は、算出されたユークリッド距離d、d、dのうち、最小のものに対応する出力ユニットが保持する重み係数wijに写像される。また、この粗視化されたMR画像のセットに対するSOM処理は、式(2)によって逐次重み係数を更新しながら、複数回(例えば10000回)実行される。学習が進むに従って、例えば図4(a)に示すように、各MR画像は、所定の出力ユニットに収束することになる。
【0034】
次に、上記のように構成した画像処理装置10の関心スライス画像の選択処理について、図3を参照しながら説明する。
【0035】
図3は、画像処理装置10が実行する関心スライス画像の選択処理の流れを示したフローチャートである。図3において、まず、診断対象としての被検体に関するMR画像のセット(ここでは、56枚のMR画像のセット)がMRIデータベース11から読み出され、前処理部130において粗視化される(ステップS1)。この前処理としての粗視化は、処理速度の向上及びノイズの低減を目的とする。ここでは、2×2画素の局所グリットを用いる。すなわち、今の場合MR画像を256×256画素とすれば、当該前処理により128×128画素に粗視化される。
【0036】
次に、自己学習は、粗視化されたMR画像セットを入力し、既述のSOM処理によって、式(2)によって重み係数を更新しながら脳構造の位相特性を自己写像する(ステップS2)。このSOM処理は、信頼できる結果が得られるまで複数回、例えば10000回実行されるものとする(ステップS3)。
【0037】
次に、可視化画像生成部170は、10000回のSOM処理によって最終的に更新された重み係数wijを、得られた各出力ユニットA、B、C毎に可視化した画像を生成する(ステップS4)。すなわち、10000回のSOM処理の結果、例えば図4(a)に示すように、出力ユニットAに対応するMR画像として、No.1〜No.17のMR画像が得られたとする。可視化画像生成部170は、重み・構造記憶部15に格納された情報に基づいて、このNo.1〜No.17のMR画像のそれぞれに対応する更新された重み係数wijが重畳された重み可視化像を生成する。また、出力ユニットBについてはNo.18〜No.44のMR画像により、出力ユニットCについてはNo.45〜No.56のMR画像により、各重み可視化像を生成する。
【0038】
図5(a)は、10000回のSOM処理後に得られる重み可視化像の一例を示した図である。各出力ユニットに対応する重み可視化像は、対応するMR画像(例えば出力ユニットAの場合、No.1〜No.17のMR画像)の重み情報を全て含むものとなっている。
【0039】
次に、特徴抽出部171は、各出力ユニットに対応する各重み可視化像において、特徴量の算出を行う(ステップS5)。ここで、特徴量とは、脳の大きさ、脳中心部の高輝度領域、側脳室前角の形状及びテクスチャー等であり、診断対象に応じて予め決定される。
【0040】
次に、勝者ユニット決定部172は、この算出された特徴量が最も望ましい値を有する出力ユニットを勝者ユニットとして決定する。(ステップS6)。なお、図5(a)の例では、出力ユニットBを勝者ユニットとして決定している。
【0041】
次に、関心スライス画像候補セット選択部190は、学習済みのSOMに粗視化されたMR画像セットを入力し、勝者ユニット(今の場合、出力ユニットB)で発火するMR画像を選択する(ステップS7)。以下、このように勝者ユニットで発火するMR画像のセットを、「関心スライス候補セット」と称する。
【0042】
次に、絞り込み判断部191は、重み可視化像間の類似度を計算し(ステップS8)、当該類似度を比較しその変化に基づいて各重み可視化像が類似するか否かの判断を行う(ステップS9)。絞り込み判断部191によって類似すると判断された場合には、関心スライス画像候補セットは、関心スライス画像のセットとして表示部等に出力される(ステップS10)。一方、絞り込み判断部191によって類似しないと判断された場合には、関心スライス候補セットは、再度ステップS2に移行し、当該ステップS2〜ステップS8までの処理を繰り返すことで、さらなる絞り込みを受ける。
【0043】
図4(b)、及び図5(b)、(c)は、ステップS2〜ステップS8までの処理を繰り返しによって実行される関心スライス候補セットの絞り込みを説明するための図である。図4(b)において、SOMによる10000回の学習に基づいて、No.18〜No.44までの画像が関心スライス候補セットとして選択されたとする。これに対し、絞り込み判断部191がステップS9において類似しないと判断された場合には、このNo.18〜No.44までの画像を入力として、再度SOMによる10000回の学習を実行し、例えば出力ユニットBを勝者ユニットとして決定する(図4(b)、図5(b)参照)。この出力ユニットBで発火する画像、例えばNo.24〜No.38までの画像が関心スライス候補セットとして選択される(図5(b))。この絞り込みは、関心スライス候補セットを構成する各関心スライス画像が、診断部位を含むものとなるまで(今の例であれば、例えば側脳室前角を含むまで)繰り返される(図4(b)、図5(c))。
【0044】
なお、ステップS8における類似度計算は、画像全体(すなわち、全ての画素)を対象としてもよいが、効率化の観点から、例えば特定の領域のみを対象とする構成であってもよい。
【0045】
また、ステップS9における類似度に基づく判断には、大きく二つの手法がある。一つは、外部情報として閾値を設け、これとの大小関係にて判断するものである。もう一つは、類似度の変化の履歴を取得し、その変化の度合いによって内部処理的に判断するものである。すなわち、重み可視化像間の類似度を比較し繰り返し処理実行する。
【0046】
本実施形態では、いずれの手法によって判断してもよいが、関心スライス画像の選択に客観性を持たせる観点からすれば、内部処理的な判断を採用することが好ましい。
【0047】
以上述べた構成によれば、以下の効果を得ることができる。
【0048】
本画像処理装置では、複数のMR画像を入力としてSOM処理を行い、その学習結果に基づいて関心スライス画像のセットを選択する。従って、医師等の操作者主観に頼ることなく自動的に関心スライス画像のセットを迅速且つ簡便に選択することができ、より客観性の高い診断を実現させることができる。
【0049】
本画像処理装置は、複数の画像を入力としてSOM処理を行うことで、解剖学的構造の位相変化を抽出し、これに基づいて関心スライス画像のセットを選択するものである。従って、入力する医用画像に限定はなく、どのような医用画像であっても、高い客観性にて自動的に関心スライス画像のセットを選択することができる。
【0050】
本画像処理装置は、入力する各医用画像に含まれる画像空間上の位相特性を自己写像することができる。従って、例えば磁気共鳴診断装置の撮影パラメータ(T、T、PD等)、スライス幅、撮像枚数等に関係なく、入力する各医用画像を、解剖学的構造の位相特性に基づいて分類することができる。
【0051】
本画像処理装置によれば、例えば臨床現場で撮像される頭部MR画像の個々の画像特性(解剖学的構造の位相変化)のみを用いて、脳萎縮の定量的診断に必要な関心スライス画像を自動的に選択することができる。従って、加齢に伴う脳萎縮の定量的解析及び脳の健康年齢を推定するための基盤を提供することができる。このような基盤を提供することは、高齢化が急速に進む中、高齢者が健康で生き生きと生活するための健康管理に関する自己予防意識及び動機付けに寄与するものである。
【0052】
以上、本発明を実施形態に基づき説明したが、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変形例及び修正例についても本発明の範囲に属するものと了解される。例えば、本実施形態で説明した画像処理方法は、当該方法をコンピュータに実行させるプログラムによって、パーソナルコンピュータやワークステーション等によっても実現することができる。この場合、コンピュータに当該方法を実行させることのできるプログラムは、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することができる。
【0053】
さらに、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組合わせた効果が得られる。さらに、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0054】
【発明の効果】
以上本発明によれば、診断等に必要な関心スライス画像を解剖学的基準に基づいて自動抽出する画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体を実現できる。
【図面の簡単な説明】
【図1】図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。
【図2】図2(a)、(b)は、SOMの概念を説明するための図である。
【図3】図3は、画像処理装置10が実行する関心スライス画像の選択処理の流れを示したフローチャートである。
【図4】図4(a)は、SOM処理を説明するための図である。図4(b)は、関心スライス画像選択処理における絞り込みを説明するための図である。
【図5】図5は、関心スライス画像選択処理における絞り込みを説明するための図である。
【符号の説明】
10…画像処理装置
11…MRIデータベース
13…学習フェーズ
15…重み・構造記憶部
17…判断フェーズ
19…分類フェーズ
21…関心スライスセット候補記憶部
130…前処理部
131…自己学習部
170…可視化画像生成部
171…特徴抽出部
172…勝者ユニット決定部
190…関心スライスセット候補選択部
191…絞り込み判断部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing device incorporated in a medical image diagnostic device such as a magnetic resonance imaging device, or provided by a medical workstation or the like.
[0002]
[Prior art]
Medical images provide a great deal of clinical information about a subject in the form of images, and play an important role in many medical activities such as disease diagnosis, treatment and surgical planning. The medical image is embedded in the medical imaging device in data collected by a medical imaging device (for example, an ultrasound diagnostic device, an X-ray CT device, a nuclear medicine diagnostic device, a magnetic resonance diagnostic device, or the like), or It is generated by performing predetermined image processing by an image processing device realized by a medical workstation or the like.
[0003]
In the diagnosis using the medical image, an image in which a region of interest (Region of Interest: hereinafter referred to as “ROI”) including a diagnostic region suitably appears from a plurality of images (hereinafter, “interest slice image”) "). Taking the diagnosis of brain atrophy using medical images as an example, the physician generally directed to T 2 enhancement horizontal cross-sectional of the head MR image, focusing on the several sheets of slice images lateral ventricles anterior horn appears. There are various methods for selecting a slice image of interest depending on the diagnosis site. For example, in the case of diagnosing the above-mentioned brain atrophy, a doctor selects a slice image of interest necessary for the diagnosis of brain atrophy by manual operation while visually checking the anatomical structure of the brain appearing on the MR image. .
[0004]
However, there are subtle differences in brain structure among individuals, and it is difficult to manually select a slice image of interest by referring to a standard brain map created based on the anatomical chart of the brain. In particular, in order to quantitatively analyze the degree of frontal lobe atrophy, it is necessary to select a slice image of interest according to the brain structure of an individual. However, in the conventional selection method by manual operation, since the basis for the selection differs for each doctor, an objective quantitative evaluation cannot be performed. This situation is not limited to the case where the diagnosis site is the brain, but also applies to the diagnosis site where the method of selecting the slice image of interest based on the objective criterion has not been established.
[0005]
[Problems to be solved by the invention]
The present invention has been made in view of the above circumstances, and has an image processing apparatus and an image processing method for automatically extracting a slice image of interest necessary for diagnosis or the like based on an anatomical standard, and causes a computer to execute the image processing. It is intended to provide a recording medium for storing a program.
[0006]
[Means for Solving the Problems]
The present invention employs the following means to achieve the above object.
[0007]
According to a first aspect of the present invention, there is provided a storage unit configured to store a plurality of first images related to a predetermined part of a subject, and the anatomy of the predetermined part is input using a predetermined weighting factor based on the plurality of first images. Self-mapping means for self-mapping a dynamic structure as a phase characteristic of each of the first images, and sequentially updating the predetermined weighting coefficient and repeating the self-mapping a predetermined number of times to obtain a plurality of output units. Means, and selecting means for selecting at least one second image including a ROI to be noticed in diagnosis from the plurality of first images based on the plurality of output units. It is an image processing apparatus characterized by the following.
[0008]
According to a second aspect of the present invention, a plurality of first images related to a predetermined part of a subject are input, and an anatomical structure of the predetermined part is determined as a phase characteristic of each first image by a predetermined weighting factor. Self-mapping step of sequentially updating the predetermined weighting coefficient and repeating the self-mapping a predetermined number of times to obtain a plurality of output units, based on the plurality of output units, A selecting step of selecting at least one second image including an ROI to be noticed in diagnosis from one image.
[0009]
According to a third aspect of the present invention, a plurality of first images relating to a predetermined part of the subject are input to a computer, and the anatomical structure of the predetermined part is phased by using a predetermined weighting factor. Self-mapping as a characteristic, self-mapping step of sequentially updating the predetermined weighting coefficient and repeating the self-mapping a predetermined number of times to obtain a plurality of output units, based on the plurality of output units, A selecting step of selecting at least one second image including an ROI to be noticed in diagnosis from among the plurality of first images, and a computer-readable recording medium storing an image processing program for executing the selecting step. is there.
[0010]
According to such a configuration, an image processing apparatus and an image processing method for automatically extracting a slice image of interest necessary for diagnosis or the like based on an anatomical reference, and a recording medium storing a program for causing a computer to execute the image processing Can be realized.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same functions and configurations are denoted by the same reference numerals, and repeated description will be made only when necessary.
[0012]
The image processing apparatus according to the present embodiment automatically selects, for example, a slice image of interest from which a plurality of tomographic images of a subject can be suitably observed for an ROI of a diagnostic region or the like based on anatomical structure information. Things. In the following, to give a specific description, in the diagnosis of brain atrophy, given from the T 2 enhancement horizontal cross-sectional of the head MR image related to the subject, a suitable interest slice images to observe the lateral ventricle anterior horn An example in which the set is automatically selected.
[0013]
However, the technical idea of the present invention is not limited to this. For example, the image to be selected may be another tomographic image such as an X-ray CT image, and it is needless to say that the image is useful for diagnosis other than the brain.
[0014]
FIG. 1 is a block diagram of an image processing apparatus 10 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 10 includes an MRI database 11, a learning phase 13, a weight / structure storage unit 15, a determination phase 17, a classification phase 19, and an interested slice candidate set storage unit 21.
[0015]
The MRI database 11 stores a plurality of MR images for each subject (patient).
[0016]
The learning phase 13 includes a pre-processing unit 130 and a self-learning unit 131. The preprocessing unit 130 coarsely coarsens a plurality of MR images used as input values for self-learning. Here, a local grid of 2 × 2 pixels is used. The coarse-graining performed by the pre-processing unit 130 is a kind of compression processing, and is performed from the viewpoint of improving processing speed and reducing noise. The self-learning unit 131 performs a self-organizing map process using a plurality of coarse-grained MR images as input values, and repeatedly performs a process of mapping to a plurality of output units a plurality of times to thereby obtain a predetermined region of a patient. Learn the topological structure. The self-organizing map executed by the self-learning unit 131 will be described later in detail.
[0017]
The weight / structure storage unit 15 stores the weight coefficient distribution of the phase structure obtained from the self-organizing map. Each time the self-organizing map process is performed, the weight coefficient distribution is sequentially updated based on Expression (2) described later.
[0018]
The determination phase 17 includes a visualized image generation unit 170, a feature extraction unit 171, and a winner unit determination unit 172. The visualized image generation unit 170 generates an image (hereinafter, referred to as a “weight visualized image”) in which the weighted coefficient distribution image of the phase structure is visualized based on the information stored in the weight / structure storage unit 15. The feature extracting unit 171 extracts a feature amount in the weighted visualized image generated by the visualized image generating unit 170. Here, the feature amount is a unique physical amount that can be determined for each subject in a weight visualization image or an MR image. For example, when the MR image as an input is a brain image, the size of the brain , A high brightness area in the central part of the brain, the shape and texture of the anterior horn of the lateral ventricle. The winner unit determination unit 172 determines a winner unit based on the feature amount extracted by the feature extraction unit 171.
[0019]
The classification phase 19 includes an interest slice candidate set selection unit 190 and a narrowing-down determination unit 191. The interested slice candidate set selection unit 190 inputs the coarse-grained image set to the learned self-organizing map, and selects a plurality of slice images to be fired by the winner unit. Hereinafter, the plurality of firing slice images will be referred to as “interesting slice candidate set”. The refinement determination unit 191 calculates the degree of similarity between the weighted visualized images, and determines whether to further refine the interest slice candidates based on this change.
[0020]
The interested slice candidate set storage unit 21 temporarily stores the interested slice candidate set. If the narrowing-down judging unit 191 determines that they are not similar, the interest slice candidate set stored in the interest slice candidate set storage unit 21 is fed back to the learning phase 13 again, and is further narrowed down. On the other hand, when the narrowing-down determination unit 191 determines that the images are similar, the interest slice candidate set stored in the interest slice candidate set storage unit 21 is output to a display unit (not shown) or the like as a slice image of interest.
[0021]
In FIG. 1, the MRI database 11, the weight / structure storage unit 15, and the interested slice candidate set storage unit 21 are individually represented, but a configuration in which each configuration is realized by a single memory may be used.
[0022]
(Self-Organizing Map)
Next, a self-organizing map (hereinafter, referred to as “SOM”) will be described. SOM preserves the phase of input data and performs topological mapping, and does not require an explicit teacher in the learning process.
[0023]
As shown in FIG. 2A, a general SOM has two layers: an input layer including an input unit, and a mapping layer including an output unit. A typical SOM learning algorithm is as follows.
[0024]
(1) Let w ij (1 ≦ i ≦ n) be the weighting factor from input unit i to output unit j at time t. The weight coefficient of the unit is initialized with random numbers, and the initial range near node j is set large.
[0025]
(2) Let x i (1 ≦ i ≦ n) be the input to node i at time t.
[0026]
(3) the Euclidean distance d j between the input data and the output node j is calculated by the following formula (1).
[0027]
(Equation 1)
Figure 2004174220
[0028]
(4) the Euclidean distance d j searches the output unit to be minimized.
[0029]
(5) The weight coefficient for the unit included in the neighborhood defined by N c (t) is updated by the following equation (2).
w ij (t + 1) = w ij (t) + α (t) (x i (t) −w ij (t)) (2)
Here, α (t) is the learning rate coefficient (0 <α <1), and N c (t) is the size of the neighborhood area, and decreases with time.
[0030]
(6) The above processes (2) to (5) are repeated.
[0031]
In the SOM executed in the present embodiment, as shown in FIG. 2B, a set of MR images coarse-grained to, for example, 128 × 128 pixels is input, and an anatomical image of a predetermined part is determined by a predetermined weighting coefficient. The structure is self-mapped as a phase characteristic of each MR image. By this self-mapping, each MR image as an input is mapped to one of the three output units A, B and C by self-learning of the SOM. In the present embodiment, the reason why the number of output units is three is that there are three minimum configurations that do not require an external criterion when comparing similarities.
[0032]
That is, when each pixel value x i (where i is an integer satisfying 1 ≦ i ≦ 128 × 128) of each MR image is input to the input unit, the weight coefficient of the initial setting is calculated based on the equation (1). The Euclidean distance dj is calculated by w ij . In this case, j = 1 corresponds to the output unit A, j = 2 corresponds to the output unit B, j = 3 corresponds to the output unit C, and j is an integer satisfying 1 ≦ j ≦ 3. I do.
[0033]
The input value is mapped to the weight coefficient w ij held by the output unit corresponding to the smallest one of the calculated Euclidean distances d 1 , d 2 , and d 3 . The SOM processing on the set of the coarse-grained MR images is executed a plurality of times (for example, 10,000 times) while sequentially updating the weighting coefficient by Expression (2). As the learning progresses, each MR image converges to a predetermined output unit, for example, as shown in FIG.
[0034]
Next, a process of selecting a slice image of interest of the image processing apparatus 10 configured as described above will be described with reference to FIG.
[0035]
FIG. 3 is a flowchart illustrating a flow of the process of selecting a slice image of interest performed by the image processing apparatus 10. In FIG. 3, first, a set of MR images (here, a set of 56 MR images) of a subject as a diagnosis target is read from the MRI database 11 and coarse-grained in the preprocessing unit 130 (step). S1). The coarse-graining as the pre-processing aims at improving the processing speed and reducing noise. Here, a local grid of 2 × 2 pixels is used. In other words, in this case, if the MR image is 256 × 256 pixels, the preprocessing is coarsely grained to 128 × 128 pixels.
[0036]
Next, in the self-learning, a coarse-grained MR image set is input, and the phase characteristics of the brain structure are self-mapped by the above-described SOM processing while updating the weighting coefficient by the equation (2) (step S2). . This SOM processing is performed a plurality of times, for example, 10,000 times, until a reliable result is obtained (step S3).
[0037]
Next, the visualized image generation unit 170 generates an image in which the weight coefficient w ij finally updated by the 10,000 SOM processes is visualized for each of the obtained output units A, B, and C (step S4). ). That is, as a result of the SOM processing of 10,000 times, for example, as shown in FIG. 1 to No. It is assumed that 17 MR images have been obtained. Based on the information stored in the weight / structure storage unit 15, the visualized image generation unit 170 1 to No. A weight visualized image on which the updated weight coefficient w ij corresponding to each of the 17 MR images is superimposed is generated. For the output unit B, No. 18-No. According to the MR image of No. 44, the output unit C is No. 45-No. Each weight visualization image is generated from 56 MR images.
[0038]
FIG. 5A is a diagram illustrating an example of a weight visualization image obtained after 10,000 SOM processes. The weight visualization image corresponding to each output unit includes all the weight information of the corresponding MR image (for example, in the case of the output unit A, the MR images No. 1 to No. 17).
[0039]
Next, the feature extracting unit 171 calculates a feature amount in each weight visualized image corresponding to each output unit (step S5). Here, the feature amount is the size of the brain, a high-brightness region in the central part of the brain, the shape and texture of the anterior horn of the lateral ventricle, and is determined in advance depending on the diagnosis target.
[0040]
Next, the winner unit determination unit 172 determines an output unit whose calculated feature amount has the most desirable value as a winner unit. (Step S6). In the example of FIG. 5A, the output unit B is determined as a winner unit.
[0041]
Next, the interest slice image candidate set selection unit 190 inputs the MR image set coarse-grained to the learned SOM, and selects an MR image to be fired by the winner unit (the output unit B in this case) ( Step S7). Hereinafter, such a set of MR images fired by the winner unit will be referred to as an “interest slice candidate set”.
[0042]
Next, the narrow-down determination unit 191 calculates the similarity between the weight visualized images (step S8), compares the similarities, and determines whether or not each weight visualized image is similar based on the change (step S8). Step S9). When the narrowing-down determination unit 191 determines that they are similar, the interest slice image candidate set is output to the display unit or the like as a set of interest slice images (step S10). On the other hand, when the narrowing-down determination unit 191 determines that they are not similar, the interested slice candidate set shifts to step S2 again, and is further narrowed down by repeating the processing from step S2 to step S8.
[0043]
FIGS. 4B, 5B, and 5C are diagrams for explaining the narrowing down of the set of interest slice candidates, which is performed by repeatedly performing the processing from step S2 to step S8. In FIG. 4B, based on the 10,000 times of learning by SOM, No. 18-No. It is assumed that up to 44 images have been selected as a candidate slice set of interest. On the other hand, if the narrowing-down determination unit 191 determines that there is no similarity in step S9, this No. 18-No. With the input of up to 44 images, learning is performed again 10,000 times by SOM, and for example, the output unit B is determined as the winner unit (see FIGS. 4B and 5B). An image which is fired by the output unit B, for example, 24-No. Up to 38 images are selected as a candidate slice set of interest (FIG. 5B). This narrowing down is repeated until each slice image of interest constituting the candidate slice set of interest includes a diagnostic region (in this example, for example, includes the anterior horn of the lateral ventricle) (FIG. 4B ), FIG. 5 (c)).
[0044]
The similarity calculation in step S8 may be performed on the entire image (that is, all pixels), but may be performed on only a specific region, for example, from the viewpoint of efficiency.
[0045]
There are roughly two methods for determining based on the similarity in step S9. One is to provide a threshold value as external information and make a judgment based on the magnitude relationship with the threshold value. The other is to acquire a history of a change in similarity and make an internal process determination based on the degree of the change. That is, the similarity between the weight visualized images is compared, and the processing is repeatedly performed.
[0046]
In the present embodiment, the determination may be made by any method. However, from the viewpoint of giving the objectivity to the selection of the slice image of interest, it is preferable to employ internal processing.
[0047]
According to the configuration described above, the following effects can be obtained.
[0048]
In this image processing apparatus, SOM processing is performed with a plurality of MR images as inputs, and a set of slice images of interest is selected based on the learning result. Therefore, a set of slice images of interest can be automatically and quickly selected without relying on the subjectivity of an operator such as a doctor, and a more objective diagnosis can be realized.
[0049]
The image processing apparatus extracts a phase change of an anatomical structure by performing a SOM process using a plurality of images as input, and selects a set of slice images of interest based on the phase change. Therefore, the input medical image is not limited, and a set of slice images of interest can be automatically selected with high objectivity regardless of the type of medical image.
[0050]
The image processing apparatus can self-map a phase characteristic in an image space included in each input medical image. Therefore, for example, regardless of the imaging parameters (T 1 , T 2 , PD, etc.) of the magnetic resonance diagnostic apparatus, the slice width, the number of captured images, and the like, each input medical image is classified based on the phase characteristics of the anatomical structure. be able to.
[0051]
According to the image processing apparatus, for example, a slice image of interest required for quantitative diagnosis of brain atrophy using only individual image characteristics (phase change of anatomical structure) of a head MR image captured at a clinical site Can be automatically selected. Therefore, it is possible to provide a basis for quantitative analysis of cerebral atrophy with aging and estimating the healthy age of the brain. Providing such a base contributes to self-prevention awareness and motivation for health management for the elderly to live healthy and lively as the population ages rapidly.
[0052]
As described above, the present invention has been described based on the embodiments. However, in the scope of the concept of the present invention, those skilled in the art can come up with various modified examples and modified examples. It is understood that it belongs to the scope of the present invention. For example, the image processing method described in the present embodiment can also be realized by a personal computer, a workstation, or the like by a program that causes a computer to execute the method. In this case, the program that can cause the computer to execute the method can be stored in a recording medium such as a magnetic disk (floppy disk, hard disk, and the like), an optical disk (CD-ROM, DVD, and the like), a semiconductor memory, and distributed. it can.
[0053]
Further, each embodiment may be implemented in combination as appropriate as much as possible, in which case the combined effect is obtained. Further, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effects described in the column of the effect of the invention can be solved. When at least one of the above is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0054]
【The invention's effect】
According to the present invention, an image processing apparatus, an image processing method, and a recording medium for storing a program for causing a computer to execute the image processing are provided. realizable.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an image processing apparatus 10 according to an embodiment.
FIGS. 2A and 2B are diagrams for explaining the concept of SOM.
FIG. 3 is a flowchart illustrating a flow of a process of selecting a slice image of interest performed by the image processing apparatus 10;
FIG. 4A is a diagram for explaining SOM processing. FIG. 4B is a diagram for describing narrowing down in the slice of interest image selection processing.
FIG. 5 is a diagram for explaining narrowing down in a slice image of interest selection process;
[Explanation of symbols]
Reference Signs List 10 image processing device 11 MRI database 13 learning phase 15 weight / structure storage unit 17 determination phase 19 classification phase 21 interest slice set candidate storage unit 130 preprocessing unit 131 self-learning unit 170 visualized image Generating unit 171 Feature extracting unit 172 Winner unit determining unit 190 Interest slice set candidate selecting unit 191 Narrowing down determining unit

Claims (18)

被検体の所定部位に関する複数の第1の画像を記憶する記憶手段と、
前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として自己写像する自己写像手段であって、前記所定の重み係数を逐次更新して前記自己写像を所定回数繰り返して複数の出力ユニットを取得する自己写像手段と、
前記複数の出力ユニットに基づいて、前記複数の第1の画像の中から、診断において注目すべき関心領域を含む少なくとも一枚の第2の画像を選択する選択手段と、
を具備することを特徴とする画像処理装置。
Storage means for storing a plurality of first images related to a predetermined part of the subject;
Self-mapping means for inputting the plurality of first images and self-mapping an anatomical structure of the predetermined site as a phase characteristic of each of the first images by a predetermined weighting factor; Self-mapping means to sequentially update the self-mapping a predetermined number of times to obtain a plurality of output units,
Selecting means for selecting, from the plurality of first images, at least one second image including a region of interest to be noted in diagnosis based on the plurality of output units;
An image processing apparatus comprising:
前記複数の出力ユニットは、三つの出力ユニットであることを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the plurality of output units are three output units. 前記選択手段は、前記複数の出力ユニットのそれぞれに対応する前記所定の重み係数を画像化した第3の画像を、前記出力ユニット毎に生成する第3の画像生成手段と、
前記各第3の画像における特徴量を計算する特徴量計算手段と、
前記各特徴量に基づいて前記複数の出力ユニットの中から勝者ユニットを決定し、前記複数の第1の画像のうち、前記自己写像において前記勝者ユニットに対応する少なくとも一枚の画像を候補画像とする候補画像判定手段と、
前記勝者ユニットに対応する前記第3の画像とその他の前記第3の画像が類似するか否かを判定する類似判定手段と、を有し、
前記類似判定手段が類似すると判定した場合には、前記候補画像判定手段は、前記候補画像を前記第2の画像とし、前記類似判定手段が類似しないと判定した場合には、前記自己写像手段は、前記勝者ユニットに対応する少なくとも一枚の前記候補画像を入力として前記自己写像を再度実行すること、
を特徴とする請求項1又は2記載の画像処理装置。
A third image generation unit configured to generate, for each of the output units, a third image obtained by imaging the predetermined weight coefficient corresponding to each of the plurality of output units;
Feature value calculating means for calculating a feature value in each of the third images;
A winner unit is determined from the plurality of output units based on each of the feature amounts, and among the plurality of first images, at least one image corresponding to the winner unit in the self-mapping is set as a candidate image. Candidate image determining means for performing
A similarity determination unit configured to determine whether or not the third image corresponding to the winner unit and other third images are similar,
When the similarity determination unit determines that the images are similar, the candidate image determination unit sets the candidate image as the second image, and when the similarity determination unit determines that they are not similar, the self-mapping unit determines Re-executing the self-mapping with at least one candidate image corresponding to the winner unit as an input,
The image processing apparatus according to claim 1, wherein:
前記勝者ユニットに対応する少なくとも一枚の前記第2の画像を入力として前記自己写像を再度実行する場合には、前記類似判定手段は、前記第3の画像間の類似度を算出し、当該類似度の変化に基づいて前記判定を実行することを特徴とする請求項3記載の画像処理装置。In a case where the self-mapping is executed again using at least one of the second images corresponding to the winner unit as an input, the similarity determination unit calculates a similarity between the third images, and calculates the similarity. The image processing apparatus according to claim 3, wherein the determination is performed based on a change in degree. 前記第1の画像は、磁気共鳴画像、X線CT画像、超音波断層像、核医学断層像のうちのいずれかであることを特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。The method according to claim 1, wherein the first image is one of a magnetic resonance image, an X-ray CT image, an ultrasonic tomographic image, and a nuclear medicine tomographic image. Image processing device. 前記複数の第1の画像のそれぞれを粗視化する粗視化手段をさらに具備し、
前記自己写像手段は、粗視化された前記複数の第1の画像を入力として、前記自己写像を実行すること、
を特徴とする請求項1乃至5のうちいずれか一項記載の画像処理装置。
Coarse-graining means for coarse-graining each of the plurality of first images, further comprising:
The self-mapping unit executes the self-mapping by using the plurality of first images coarse-grained as input,
The image processing apparatus according to claim 1, wherein:
被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として自己写像するステップであって、前記所定の重み係数を逐次更新して前記自己写像を所定回数繰り返して複数の出力ユニットを取得する自己写像ステップと、
前記複数の出力ユニットに基づいて、前記複数の第1の画像の中から、診断において注目すべき関心領域を含む少なくとも一枚の第2の画像を選択する選択ステップと、
を具備することを特徴とする画像処理方法。
Inputting a plurality of first images relating to a predetermined part of the subject and self-mapping an anatomical structure of the predetermined part as a phase characteristic of each of the first images using a predetermined weighting factor; A self-mapping step of sequentially updating the weighting coefficient of and repeating the self-mapping a predetermined number of times to obtain a plurality of output units,
A selecting step of selecting at least one second image including a region of interest to be noted in diagnosis from the plurality of first images based on the plurality of output units;
An image processing method comprising:
前記複数の出力ユニットは、三つの出力ユニットであることを特徴とする請求項7記載の画像処理方法。The image processing method according to claim 7, wherein the plurality of output units are three output units. 前記選択ステップは、前記複数の出力ユニットのそれぞれに対応する前記所定の重み係数を画像化した第3の画像を、前記出力ユニット毎に生成する第3の画像生成ステップと、
前記各第3の画像における特徴量を計算する特徴量計算ステップと、
前記各特徴量に基づいて前記複数の出力ユニットの中から勝者ユニットを決定し、前記複数の第1の画像のうち、前記自己写像において前記勝者ユニットに対応する少なくとも一枚の画像を候補画像とする候補画像判定ステップと、
前記勝者ユニットに対応する前記第3の画像と、他の前記第3の画像とが類似するか否かを判定する類似判定ステップと、
前記候補画像を入力として前記自己写像を再度実行する再度実行ステップと、
を有し、
前記類似判定ステップにおいて類似すると判定された場合には、前記候補画像判定ステップにおいて前記候補画像が前記第2の画像とし、前記類似判定ステップにおいて類似しない判定された場合には、前記再度実行ステップを実行すること、
を特徴とする請求項7又は8記載の画像処理方法。
A third image generation step of generating, for each of the output units, a third image obtained by imaging the predetermined weighting factor corresponding to each of the plurality of output units;
A feature value calculating step of calculating a feature value in each of the third images;
A winner unit is determined from the plurality of output units based on each of the feature amounts, and among the plurality of first images, at least one image corresponding to the winner unit in the self-mapping is set as a candidate image. Candidate image determination step to be performed,
A similarity determining step of determining whether or not the third image corresponding to the winner unit is similar to another third image;
A re-execution step of re-executing the self-mapping with the candidate image as an input,
Has,
If it is determined in the similarity determination step that the images are similar, the candidate image is determined to be the second image in the candidate image determination step, and if it is determined that the images are not similar in the similarity determination step, the execution step is performed again. To do,
9. The image processing method according to claim 7, wherein:
前記勝者ユニットに対応する少なくとも一枚の前記第2の画像を入力として前記自己写像を再度実行する場合には、前記類似判定においては、前記第3の画像間の類似度を算出し、当該類似度の変化に基づいて前記判定を実行することを特徴とする請求項9記載の画像処理方法。When the self-mapping is executed again with at least one second image corresponding to the winner unit as an input, in the similarity determination, a similarity between the third images is calculated, and the similarity is calculated. The image processing method according to claim 9, wherein the determination is performed based on a change in degree. 前記第1の画像は、磁気共鳴画像、X線CT画像、超音波断層像、核医学断層像のうちのいずれかであることを特徴とする請求項7乃至10のうちいずれか一項記載の画像処理方法。The said 1st image is any one of a magnetic resonance image, an X-ray CT image, an ultrasonic tomographic image, and a nuclear medicine tomographic image, The Claims any one of Claims 7-10 characterized by the above-mentioned. Image processing method. 前記複数の第1の画像のそれぞれを粗視化する粗視化ステップをさらに具備し、
前記自己写像ステップでは、粗視化された前記複数の第1の画像を入力として、前記自己写像を実行すること、
を特徴とする請求項7乃至11のうちいずれか一項記載の画像処理方法。
A coarse-graining step of coarse-graining each of the plurality of first images;
In the self-mapping step, the self-mapping is performed by using the plurality of coarse-grained first images as input.
The image processing method according to claim 7, wherein:
コンピュータに、
被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として自己写像するステップであって、前記所定の重み係数を逐次更新して前記自己写像を所定回数繰り返して複数の出力ユニットを取得する自己写像ステップと、
前記複数の出力ユニットに基づいて、前記複数の第1の画像の中から、診断において注目すべき関心領域を含む少なくとも一枚の第2の画像を選択する選択ステップと、
を実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
On the computer,
Inputting a plurality of first images relating to a predetermined part of the subject and self-mapping an anatomical structure of the predetermined part as a phase characteristic of each of the first images using a predetermined weighting factor; A self-mapping step of sequentially updating the weighting coefficient of and repeating the self-mapping a predetermined number of times to obtain a plurality of output units,
A selecting step of selecting at least one second image including a region of interest to be noted in diagnosis from the plurality of first images based on the plurality of output units;
And a computer-readable recording medium storing an image processing program for executing the program.
前記複数の出力ユニットは、三つの出力ユニットであることを特徴とする請求項13記載のコンピュータ読み取り可能な記録媒体。14. The computer-readable recording medium according to claim 13, wherein the plurality of output units are three output units. 前記選択ステップは、前記複数の出力ユニットのそれぞれに対応する前記所定の重み係数を画像化した第3の画像を、前記出力ユニット毎に生成する第3の画像生成ステップと、
前記各第3の画像における特徴量を計算する特徴量計算ステップと、
前記各特徴量に基づいて前記複数の出力ユニットの中から勝者ユニットを決定し、前記複数の第1の画像のうち、前記自己写像において前記勝者ユニットに対応する少なくとも一枚の画像を候補画像とする候補画像判定ステップと、
前記勝者ユニットに対応する前記第3の画像と、他の前記第3の画像とが類似するか否かを判定する類似判定ステップと、
前記候補画像を入力として前記自己写像を再度実行する再度実行ステップと、
を有し、
前記類似判定ステップにおいて類似すると判定された場合には、前記候補画像判定ステップにおいて前記候補画像が前記第2の画像とし、前記類似判定ステップにおいて類似しない判定された場合には、前記再度実行ステップを実行すること、
を特徴とする請求項13又は14記載のコンピュータ読み取り可能な記録媒体。
A third image generation step of generating, for each of the output units, a third image obtained by imaging the predetermined weighting factor corresponding to each of the plurality of output units;
A feature value calculating step of calculating a feature value in each of the third images;
A winner unit is determined from the plurality of output units based on each of the feature amounts, and among the plurality of first images, at least one image corresponding to the winner unit in the self-mapping is set as a candidate image. Candidate image determination step to be performed,
A similarity determining step of determining whether or not the third image corresponding to the winner unit is similar to another third image;
A re-execution step of re-executing the self-mapping with the candidate image as an input,
Has,
If it is determined in the similarity determination step that the images are similar, the candidate image is determined to be the second image in the candidate image determination step, and if it is determined that the images are not similar in the similarity determination step, the execution step is performed again. To do,
The computer-readable recording medium according to claim 13, wherein:
前記勝者ユニットに対応する少なくとも一枚の前記第2の画像を入力として前記自己写像を再度実行する場合には、前記類似判定においては、前記第3の画像間の類似度を算出し、当該類似度の変化に基づいて前記判定を実行することを特徴とする請求項15記載のコンピュータ読み取り可能な記録媒体。When the self-mapping is executed again with at least one second image corresponding to the winner unit as an input, in the similarity determination, a similarity between the third images is calculated, and the similarity is calculated. The computer-readable recording medium according to claim 15, wherein the determination is performed based on a change in degree. 前記第1の画像は、磁気共鳴画像、X線CT画像、超音波断層像、核医学断層像のうちのいずれかであることを特徴とする請求項13乃至16のうちいずれか一項記載のコンピュータ読み取り可能な記録媒体。17. The device according to claim 13, wherein the first image is any one of a magnetic resonance image, an X-ray CT image, an ultrasonic tomographic image, and a nuclear medicine tomographic image. Computer readable recording medium. 前記複数の第1の画像のそれぞれを粗視化する粗視化ステップをさらに具備し、
前記自己写像ステップでは、粗視化された前記複数の第1の画像を入力として、前記自己写像を実行すること、
を特徴とする請求項13乃至17のうちいずれか一項記載のコンピュータ読み取り可能な記録媒体。
A coarse-graining step of coarse-graining each of the plurality of first images;
In the self-mapping step, the self-mapping is performed by using the plurality of coarse-grained first images as input.
The computer-readable recording medium according to any one of claims 13 to 17, wherein:
JP2003182674A 2002-10-01 2003-06-26 Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method Pending JP2004174220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003182674A JP2004174220A (en) 2002-10-01 2003-06-26 Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002289311 2002-10-01
JP2003182674A JP2004174220A (en) 2002-10-01 2003-06-26 Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method

Publications (1)

Publication Number Publication Date
JP2004174220A true JP2004174220A (en) 2004-06-24

Family

ID=32715632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003182674A Pending JP2004174220A (en) 2002-10-01 2003-06-26 Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method

Country Status (1)

Country Link
JP (1) JP2004174220A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044441A1 (en) * 2006-10-10 2008-04-17 Hitachi Medical Corporation Medical image diagnostic apparatus, medical image measuring method, and medical image measuring program
JP2008157640A (en) * 2006-12-20 2008-07-10 Fujifilm Ri Pharma Co Ltd Analytical method for time-serial data as to brain image data, program, and recording medium
JP2011031040A (en) * 2009-07-31 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
US8112144B2 (en) 2006-03-30 2012-02-07 National University Corporation Shizuoka University Apparatus for determining brain atrophy, method of determining brain atrophy and program for determining brain atrophy
KR101194292B1 (en) * 2010-09-28 2012-10-29 삼성메디슨 주식회사 Ultrasound system for displaying slice about object and method thereof
KR101540946B1 (en) * 2013-07-17 2015-07-31 삼성전자주식회사 Method and apparatus for selecting a seed area for tracking nerve fibers in a brain
US11191526B2 (en) 2018-02-06 2021-12-07 Samsung Medison Co., Ltd. Ultrasound diagnosis apparatus and method of controlling the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125779A (en) * 1990-09-18 1992-04-27 Toshiba Corp Picture processing method
JPH06233761A (en) * 1993-02-09 1994-08-23 Hitachi Medical Corp Image diagnostic device for medical purpose
JPH07284090A (en) * 1994-04-08 1995-10-27 Olympus Optical Co Ltd Picture classifying device
JPH11213127A (en) * 1998-01-23 1999-08-06 Tokyo Inst Of Technol Method and device for processing image
JP2001092980A (en) * 1999-09-24 2001-04-06 Nec Corp Method and device for extracting contour
JP2002109541A (en) * 2000-09-28 2002-04-12 Institute Of Tsukuba Liaison Co Ltd Comparison/authentication device of image and its method
JP2002245449A (en) * 2001-02-19 2002-08-30 Rikogaku Shinkokai Adaptive nonlinear mapping device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125779A (en) * 1990-09-18 1992-04-27 Toshiba Corp Picture processing method
JPH06233761A (en) * 1993-02-09 1994-08-23 Hitachi Medical Corp Image diagnostic device for medical purpose
JPH07284090A (en) * 1994-04-08 1995-10-27 Olympus Optical Co Ltd Picture classifying device
JPH11213127A (en) * 1998-01-23 1999-08-06 Tokyo Inst Of Technol Method and device for processing image
JP2001092980A (en) * 1999-09-24 2001-04-06 Nec Corp Method and device for extracting contour
JP2002109541A (en) * 2000-09-28 2002-04-12 Institute Of Tsukuba Liaison Co Ltd Comparison/authentication device of image and its method
JP2002245449A (en) * 2001-02-19 2002-08-30 Rikogaku Shinkokai Adaptive nonlinear mapping device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佐藤和人 他: "「自己組織化マップを用いた頭部MRIスライス画像のクラス分類と領域分割」", 電気学会情報処理研究会資料, vol. Vol.IP-01,No.11-17, JPN4007002414, 2001, JP, pages 27 - 30, ISSN: 0000815980 *
間所洋和 他: "「自己写像特性を用いた頭部MR画像の組織分類」", 電子情報通信学会技術研究報告, vol. 102, no. 577, JPN4007002589, 17 January 2003 (2003-01-17), JP, pages 93 - 98, ISSN: 0000815981 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8112144B2 (en) 2006-03-30 2012-02-07 National University Corporation Shizuoka University Apparatus for determining brain atrophy, method of determining brain atrophy and program for determining brain atrophy
WO2008044441A1 (en) * 2006-10-10 2008-04-17 Hitachi Medical Corporation Medical image diagnostic apparatus, medical image measuring method, and medical image measuring program
JPWO2008044441A1 (en) * 2006-10-10 2010-02-04 株式会社日立メディコ Medical image diagnostic apparatus, medical image measurement method, and medical image measurement program
JP2008157640A (en) * 2006-12-20 2008-07-10 Fujifilm Ri Pharma Co Ltd Analytical method for time-serial data as to brain image data, program, and recording medium
JP2011031040A (en) * 2009-07-31 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
KR101194292B1 (en) * 2010-09-28 2012-10-29 삼성메디슨 주식회사 Ultrasound system for displaying slice about object and method thereof
KR101540946B1 (en) * 2013-07-17 2015-07-31 삼성전자주식회사 Method and apparatus for selecting a seed area for tracking nerve fibers in a brain
US9569840B2 (en) 2013-07-17 2017-02-14 Samsung Electronics Co., Ltd. Method and apparatus for selecting seed area for tracking nerve fibers in brain
US11191526B2 (en) 2018-02-06 2021-12-07 Samsung Medison Co., Ltd. Ultrasound diagnosis apparatus and method of controlling the same

Similar Documents

Publication Publication Date Title
CN110232383B (en) Focus image recognition method and focus image recognition system based on deep learning model
CN108498075B (en) Personalized assessment of bone health
US8380013B2 (en) Case image search apparatus, method and computer-readable recording medium
US10734107B2 (en) Image search device, image search method, and image search program
Sugimori Classification of computed tomography images in different slice positions using deep learning
JP6800975B2 (en) Systems and methods for associating medical images with patients
JP2016531709A (en) Image analysis technology for diagnosing disease
US11756292B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
JP2019212296A (en) Medical information processing device, method and program
JP6914233B2 (en) Similarity determination device, method and program
CN110910342B (en) Analysis of skeletal trauma by using deep learning
Hess et al. Deep learning for multi-tissue segmentation and fully automatic personalized biomechanical models from BACPAC clinical lumbar spine MRI
JP2004174218A (en) Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
JP2004174220A (en) Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
WO2021187483A1 (en) Document creation assistance device, method, and program
US20210279879A1 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
US11893735B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
WO2021177357A1 (en) Information processing device, information processing method, and information processing program
EP3667674A1 (en) Method and system for evaluating images of different patients, computer program and electronically readable storage medium
JP5390393B2 (en) Sample-based filter
JP2004174217A (en) Image processing apparatus, image processing method, and recording medium which stores program according to which computer perform pertinent image processing
CN113164142B (en) Similarity determination device, method, and program
Majid et al. Automatic Diagnosis of Coronavirus Using Conditional Generative Adversarial Network (CGAN)
WO2022220081A1 (en) Document creation assistance device, document creation assistance method, and document creation assistance program
Ramos Analysis of medical images to support decision-making in the musculoskeletal field

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070605