JP2006235971A - Image referencing apparatus and method for classifying and searching for image - Google Patents
Image referencing apparatus and method for classifying and searching for image Download PDFInfo
- Publication number
- JP2006235971A JP2006235971A JP2005049320A JP2005049320A JP2006235971A JP 2006235971 A JP2006235971 A JP 2006235971A JP 2005049320 A JP2005049320 A JP 2005049320A JP 2005049320 A JP2005049320 A JP 2005049320A JP 2006235971 A JP2006235971 A JP 2006235971A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- self
- mapping
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 42
- 210000003484 anatomy Anatomy 0.000 claims abstract description 19
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000002059 diagnostic imaging Methods 0.000 claims description 5
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000009206 nuclear medicine Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 230000008520 organization Effects 0.000 description 10
- 210000004556 brain Anatomy 0.000 description 5
- 208000004552 Lacunar Stroke Diseases 0.000 description 4
- 206010051078 Lacunar infarction Diseases 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 208000006011 Stroke Diseases 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 206010008118 cerebral infarction Diseases 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 206010020772 Hypertension Diseases 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 208000018152 Cerebral disease Diseases 0.000 description 1
- 206010061216 Infarction Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 206010072731 White matter lesion Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 208000026106 cerebrovascular disease Diseases 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000001631 hypertensive effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000007574 infarction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は、例えば磁気共鳴映像装置(Magnetic Resonance Imaging device)に代表される医用画像機器等に組み込まれる、又は医療用ワークステーション等によって実現される画像参照装置(ビューア)及び画像分類検索方法に関する。 The present invention relates to an image reference device (viewer) and an image classification search method that are incorporated in a medical imaging device represented by, for example, a magnetic resonance imaging device, or realized by a medical workstation or the like.
近年、医用画像機器の高度化に伴って、医用画像の質および量において情報量が飛躍的に増大しており、一回の撮影でスライス画像を数十枚から百枚程度も取得することができる。また、高度化された医用画像機器の導入により、多種多様な画像診断が実施されている。例えば、最近の脳ドックでは、無症候性脳梗塞や大脳白質病変などを早期に発見し、それらの脳疾患と密接な関係にある生活習慣の改善を促すことで、その後の症候性の脳梗塞発生を未然に防ぐことも目的の1つに挙げられている。無症候性脳梗塞の大半は、ラクナ梗塞と呼ばれ、主として穿通枝領域にできる1cm下の小さな梗塞で直径約3〜10mm、不整形,不均質,T1強調水平断では低信号域を,T2強調水平断では高信号域を呈すると定義されている。このようなラクナ梗塞は、高血圧群において脳卒中の発生と深く関連していると考えられており、MR画像上にラクナ梗塞を認め、かつ、高血圧症であった場合には、将来脳卒中を起こす危険性が約10倍高いという報告があることから、適切な血圧管理や生活習慣の改善指導によって、その後に起こり得る重篤な脳卒中の発生を予防できる可能性があると考えられる。 In recent years, with the advancement of medical imaging equipment, the amount of information has increased dramatically in terms of the quality and quantity of medical images, and it is possible to acquire several tens to hundreds of slice images in one shot. it can. In addition, various types of image diagnosis have been performed with the introduction of sophisticated medical image equipment. For example, recent cerebral docks detect asymptomatic cerebral infarction and cerebral white matter lesions at an early stage, and promote lifestyle changes that are closely related to those cerebral diseases, so that subsequent symptomatic cerebral infarction One of the purposes is to prevent the occurrence. The majority of asymptomatic cerebral infarction is called lacunar infarction, which is mainly a small infarct under 1 cm formed in the penetrating region, about 3-10 mm in diameter, irregular, heterogeneous, low signal area in T1-weighted horizontal section, T2 It is defined as a high signal area in the emphasized horizontal section. Such lacunar infarction is considered to be deeply related to the occurrence of stroke in the hypertensive group. If lacunar infarction is observed on MR images and if it has hypertension, the risk of future stroke Since there is a report that the sex is about 10 times higher, it is considered that there is a possibility that the occurrence of serious stroke that can occur afterwards can be prevented by appropriate blood pressure management and lifestyle improvement guidance.
脳ドッグ等にも用いられる脳のMR画像は、最も多くスクリーニングが行われる部位である。脳のスクリーニングでは、まず病変を丁寧に探すところから始めなくてはならない。実際には、図13に示した各ステップをほとんど無意識的に繰り返し、鑑別診断をいくつか考え、それに合った所見がないかと自問自答しながら読影していくことになる。特に、ラクナ梗塞等の微小な病巣を発見するには、現在の画像と過去に撮影された画像を比較し経時変化を調べることが重要で、かつ強調種や撮影方向を変えて比較読影することが要求される。 MR images of the brain used for brain dogs and the like are the most frequently screened parts. Brain screening must begin with a careful search for lesions. In practice, each step shown in FIG. 13 is almost unconsciously repeated, and several differential diagnoses are considered, and interpretation is performed while asking himself / herself whether there is a finding suitable for it. In particular, in order to find minute lesions such as lacunar infarction, it is important to compare the current image with images taken in the past and examine changes over time. Is required.
この様に近年の画像診断において、撮影された画像から診断目的に沿った関心画像を選択しながら読影することが要求される医師の負担は、膨大の一途をたどっている。日常診療において、目的とする画像の類似性に関する判断を医師に分かり易い形式で伝えることは、医師の読影作業の負担を軽減し効率的な読影作業を進める上で重要といえる。一般に、従来の画像管理システムでは、検索と分類という2つのアプローチが採用されている。画像の検索は、画像に付加されたテキスト情報(キーワードや説明文)によって検索を行う方法と、画像の内容情報(色やテクスチャなどの特徴量)の類似度によって検索を行う方法がある。画像の内容情報を用いた類似検索は、画像全体の色、模様や画像内のオブジェクトの色、形、位置および画像内の直線の長さ、傾き、位置のような特徴量で検索が可能である。一方、画像の分類にも、画像に付加されたテキスト情報を利用して分類を行う方法と画像の内容情報を用いて分類を行う方法がある。画像の内容情報を用いた分類として類似シーン分類があり、画像全体や画像のブロック分割領域の色やテクスチャの特徴量によってクラスタリングが可能である。 As described above, in recent image diagnosis, the burden on a doctor who is required to interpret an image while selecting an image of interest in accordance with the purpose of diagnosis from the captured image is enormous. In daily medical care, it is important to convey the judgment regarding the similarity of the target image to the doctor in an easy-to-understand format in order to reduce the burden of the doctor's interpretation work and promote efficient interpretation work. In general, in a conventional image management system, two approaches of search and classification are adopted. There are two methods for searching for an image: a method for searching by text information (keywords and explanations) added to the image, and a method for searching by the similarity of image content information (features such as colors and textures). Similarity search using image content information can be searched by features such as the color of the entire image, the pattern, the color, shape and position of the object in the image, and the length, inclination, and position of the straight line in the image. is there. On the other hand, image classification includes a method of performing classification using text information added to an image and a method of performing classification using image content information. There is a similar scene classification as a classification using image content information, and clustering is possible according to the color of the entire image or the block division area of the image and the feature amount of the texture.
しかしながら、上記従来の画像管理システムは、例えば以下に示すような問題点を有する。 However, the conventional image management system has the following problems, for example.
例えば画像検索においてテキスト情報を採用するのか画像の内容情報を採用するのかは、各病院又は医師によって任意に選択される。従って、従来のシステムにおいて画像の分類及び検索に用いられる基準は、病院、医師毎にばらつきがあり、客観性及び互換性に乏しい。 For example, whether to use text information or image content information in an image search is arbitrarily selected by each hospital or doctor. Therefore, the criteria used for image classification and retrieval in the conventional system vary among hospitals and doctors, and the objectivity and compatibility are poor.
また、テキスト情報又は画像の内容情報を用いて実行される従来の分類は、自由度が少なく、膨大な枚数の画像を管理することは困難である。例えば、テキスト情報を用いた分類・検索では、同一ヘッダ情報が付された画像は、解剖学的構造差異が存在する場合であっても同一の画像として分類・検索されてしまう。従って、所望の診断画像にアクセスするのが困難となる場合があり、また同時に検索された複数の診断画像を人為的に区別使用とすれば、多大な労力が必要とされる。 Further, the conventional classification executed using text information or image content information has a low degree of freedom, and it is difficult to manage an enormous number of images. For example, in classification / search using text information, images with the same header information are classified / searched as the same image even if there is an anatomical structural difference. Accordingly, it may be difficult to access a desired diagnostic image, and if a plurality of diagnostic images retrieved simultaneously are used artificially, a great deal of labor is required.
なお、本願に関連する公知文献としては、例えば次のようなものがある。
本発明は、上記事情を鑑みてなされたもので、客観性及び互換性の高い分類・検索、及び人為的作業負担が少なく所望の画像に容易にアクセスすることができる分類・検索を実行可能な画像参照装置及び画像分類検索方法を提供することを目的としている。 The present invention has been made in view of the above circumstances, and can perform classification / retrieval with high objectivity and compatibility, and classification / retrieval that can easily access a desired image with less human work load. An object is to provide an image reference device and an image classification search method.
本発明は、上記目的を達成するため、次のような手段を講じている。 In order to achieve the above object, the present invention takes the following measures.
本発明の第1の視点は、被検体の所定部位に関する複数の第1の画像を記憶する記憶手段と、前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する自己写像手段と、前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する画像生成手段と、計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する分割手段と、前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する判断手段と、を具備し、前記判断手段が前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返すこと、を具備することを特徴とする画像参照装置である。 According to a first aspect of the present invention, storage means for storing a plurality of first images relating to a predetermined part of a subject and the plurality of first images as inputs, and an anatomy of the predetermined part by a predetermined weighting factor. By executing a self-mapping with a target structure as a phase characteristic of each of the first images, and outputting a plurality of output units each composed of the classified first images. A second image corresponding to each output unit is generated by imaging a self-mapping unit for classifying the first image and the predetermined weighting factor used for the self-mapping, and the second image Image generating means for calculating a correlation coefficient indicating the similarity between images, dividing means for dividing the plurality of output units obtained into at least two groups based on the calculated correlation coefficient; Self-mapping A determination means for determining whether or not to repeatedly execute the self-mapping based on the calculated correlation coefficient and the result of the division, and the determination means repeatedly executes the self-mapping. When it is determined, the self-mapping, the generation of the second image, the calculation of the correlation coefficient, the division, and the determination are repeated.
本発明の第2の視点は、被検体の所定部位に関する複数の第1の画像と、前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力する自己写像に用いられる前記所定の重み係数を画像化することで、当該自己写像によって得られる複数の出力ユニットのそれぞれ第2の画像と、前記各出力ユニットに対応する前記第2の画像と当該各出力ユニットを構成する前記第1の画像とを対応付けた接続情報テーブルと、を記憶する記憶手段と、前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための選択手段と、前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する検索手段と、検索された前記第1の画像を出力する出力手段と、を具備する画像参照装置である。 According to a second aspect of the present invention, a plurality of first images relating to a predetermined part of a subject and the plurality of first images are input, and an anatomical structure of the predetermined part is determined by a predetermined weighting factor. As the phase characteristic of the first image, the predetermined weighting factor used for the self-mapping that outputs a plurality of output units each composed of the classified first images is imaged, so that the self-mapping A connection information table associating each second image of the plurality of output units obtained by the above, the second image corresponding to each output unit, and the first image constituting each output unit; Storage means for storing, selection means for selecting one of the second images corresponding to each output unit, and selection from the storage means based on the connection information table An image reference device comprising: search means for searching for the first image constituting the output unit corresponding to the second image that has been searched; and output means for outputting the searched first image. is there.
本発明の第3の視点は、被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する第1のステップと、前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する第2のステップと、計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する第3のステップと、前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する第4のステップと、前記第4のステップにおいて前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返す第5のステップと、を具備することを特徴とする画像分類検索方法である。 According to a third aspect of the present invention, a plurality of first images relating to a predetermined part of the subject are input, and an anatomical structure of the predetermined part is set as a phase characteristic of each first image by a predetermined weighting factor. Performing a self-mapping to output a plurality of output units each composed of the classified first images, thereby classifying the plurality of input first images; A second image corresponding to each output unit is generated by imaging the predetermined weight coefficient used for self-mapping, and a correlation coefficient indicating a similarity between the second images is calculated. A second step, a third step of dividing the obtained plurality of output units into at least two groups based on the calculated correlation coefficient; and the phase calculated as a result of the self-mapping. Number of relationships, previous A fourth step of determining whether or not to repeatedly execute the self-mapping based on a result of the division; and if it is determined to repeatedly execute the self-mapping in the fourth step, the self-mapping, And a fifth step of repeating the generation of the second image, the calculation of the correlation coefficient, the division, and the determination.
以上本発明によれば、客観性及び互換性の高い分類・検索、及び人為的作業負担が少なく所望の画像に容易にアクセスすることができる分類・検索を実行可能な画像参照装置及び画像分類検索方法を実現することができる。 As described above, according to the present invention, an image reference device and an image classification search capable of executing classification / retrieval with high objectivity and compatibility, and classification / retrieval that can easily access a desired image with less human work load. A method can be realized.
以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.
図1は、本実施形態に係る画像参照装置1のブロック構成図を示している。同図に示すように、画像参照装置1は、ダイジェスト画像記憶部2、DICOM原画像記憶部3、操作部4、表示部5、送受信部6、学習・分類部7、探索空間組織化部8、制御部9を具備している。
FIG. 1 is a block diagram of an
ダイジェスト画像記憶部2は、学習・分類部7において生成されたダイジェスト画像、複数のダイジェスト画像を線形結合して生成されるラベル画像を記憶する。このダイジェスト画像の生成、及びダイジェスト画像、ラベル画像を用いた画像管理については、後で詳しく説明する。
The digest
DICOM原画像記憶部3は、医用画像機器によりDICOM規格に従って取得され当該画像参照装置1における処理の入力情報等として用いられる原画像(DICOM原画像)を格納している。本実施形態では、説明を具体的にするために、DICOM原画像記憶部3に記憶されているDICOM原画像は、磁気共鳴映像装置によって取得された被検体(患者)毎の複数の脳画像であるとする。
The DICOM original
操作部4は、操作者からの各種指示、条件、関心領域(ROI)の設定指示、後述するDICOM原画像の分類とダイジェスト画像の生成、ダイジェスト画像を用いた探索空間の組織化に関する指示等を当該装置1にとりこむためのトラックボール、各種スイッチ、マウス、キーボード等を有している。
The
表示部5は、DICOM原画像、ダイジェスト画像、ラベル画像等を所定の形態にて表示する。また、表示部5は、DICOM原画像とダイジェスト画像との関連を示す接続情報テーブル(後述)等を所定の形態にて表示する。
The
送受信部6は、ネットワークを介して他の装置と画像データを含む情報の送受信を行う。
The transmission /
学習・分類部7は、DICOM原画像記憶部3に記憶された複数のDICOM原画像を入力値とし、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として、自己組織化マップ(以下、「SOM」とも称する。)を用いて自己写像する。これにより、入力した複数のDICOM原画像は、解剖学的構造を基準として分類される。
The learning /
探索空間組織化部8は、学習・分類部7において実行された各SOMでの重み係数を用いてダイジェスト画像を生成する。また、探索空間組織化部8は、ダイジェスト画像を用いて、DICOM原画像が配置された探索空間を組織化する。
The search space organizing
制御部9は、当該画像参照措置を構成する各ユニットを動的又は静的に制御する。特に、制御部9は、DICOM原画像分類・ダイジェスト画像生成、及び探索画像組織化(共に後述)において、ダイジェスト画像記憶部2、DICOM原画像記憶部3、操作部4、表示部5、学習・分類部7、探索空間組織化部8等を統括的に制御する。
The
図2は、学習・分類部7、探索空間組織化部8の構成を説明するためのブロック図である。同図に示すように、学習・分類部7は、自己学習部11、部分問題分割部13、部分問題学習部15、再学習判断部17を有している。また、探索空間組織化部8は、探索空間管理部19、ダイジェスト画像生成部21、接続情報テーブル作成部23、SOM管理ラベル生成部25、画像対応部27を有している。
FIG. 2 is a block diagram for explaining the configuration of the learning / classifying
自己学習部11は、複数のMR画像を入力値としてSOMを実行し、複数の出力ユニットにマッピングすることにより、患者の所定部位の位相構造を学習する。この自己学習部11によって実行されるSOMについては、後で詳しく説明する。
The self-
部分問題分割部13は、自己学習部11、部分問題学習部15によるSOMで得られた写像結果(複数の出力ユニット)を二つの部分問題に分割する。ここで、部分問題とは、さらに階層的に展開されるSOMの対象を意味する。この分割は、所定のルールに従って、SOM毎に取得されるダイジェスト画像間の類似度を示す相関係数を比較することにより実行される。
The
部分問題学習部15は、部分問題分割部13によって分割された各部分問題に属するDICOM原画像を入力値としてSOMを実行し、複数の出力ユニットにマッピングすることにより、患者の所定部位の位相構造を再学習する。この再学習は、再学習判断部17の判断結果に応じて、繰り返し実行される。
The
再学習判断部17は、部分問題学習部15におけるSOMによって得られたダイジェスト画像間の相関係数を比較し、SOMを用いた再学習を実施するか否かを決定する。
The relearning
探索空間管理部19は、操作部4から入力された指示に応答して、組織化された探索空間を管理する。より具体的には、操作部4からの操作によって選択されたダイジェスト画像(又はDICOM原画像)に関連付けられたDICOM原画像(又はダイジェスト画像)を、接続情報テーブルに基づいて読み出す等の管理を実行する。
The search
ダイジェスト画像生成部21は、SOMを通じて得られる重み係数を画像化したダイジェスト画像を出力ユニット毎に生成する。また、ダイジェスト画像生成部21は、生成されたダイジェスト画像間の相関係数を計算する。
The digest
接続情報テーブル作成部23は、各ユニットに対応するダイジェスト画像と各ユニットに分類された(各ユニットを構成する)複数枚のDICOM原画像とを対応付けると共に、当該対応付けられたDICOM原画像のヘッダ情報に基づいて、どのダイジェスト画像がどのDICOM原画像に接続されているのかを示す接続情報テーブルを作成する。
The connection information
SOM管理ラベル生成部25は、ダイジェスト画像を線形結合してラベル画像を生成する。
The SOM management
画像対応部27は、各DICOM原画像のプライベートタグに対応するダイジェスト画像を書き込む。書き込まれたダイジェスト画像は、SOM管理ラベルとして、後述する検索処理において用いられる。
The
なお、図1においては、ダイジェスト画像記憶部2、DICOM原画像記憶部3をそれぞれ別の構成としたが、これに拘泥されることなく、単一のハードウェアによって実現する構成であってもよい。また、同じく図1において、説明を解りやすくするため、自己学習部11、部分問題学習部15を別の構成要素としたが、これに拘泥されることなく、単一の学習部とするようにしてもよい。
In FIG. 1, the digest
(自己組織化マップ:Self-Organizing Map)
次に、SOMについて説明する。SOMは、入力データの位相を保存し、トポロジカルなマッピングを行うものであり、その学習課程では、明示的な教師を必要としない。
(Self-Organizing Map)
Next, SOM will be described. The SOM preserves the phase of input data and performs topological mapping, and does not require an explicit teacher in the learning process.
一般のSOMは、図3に示すように、入力ユニットを含む入力層と、出力ユニットを含むマッピング層との二層からなる。典型的なSOMの学習アルゴリズムは、次の様である。 As shown in FIG. 3, a general SOM is composed of two layers: an input layer including an input unit and a mapping layer including an output unit. A typical SOM learning algorithm is as follows.
(1)wij(1≦i≦n)を時刻tにおける入力ユニットiから出力ユニットjへの重み係数とする。ユニットの重み係数を乱数で初期化し、ノードjの近傍の初期範囲を大きく設定する。 (1) Let w ij (1 ≦ i ≦ n) be a weighting factor from input unit i to output unit j at time t. The unit weighting factor is initialized with a random number, and the initial range near node j is set large.
(2)xi(1≦i≦n)を時刻tにおけるノードiへの入力とする。 (2) Let x i (1 ≦ i ≦ n) be an input to node i at time t.
(3)入力データと出力ノードjとのユークリッド距離djを次の式(1)にて計算する。
(4)ユークリッド距離djが最小となる出力ユニットを検索する。 (4) the Euclidean distance d j searches the output unit to be minimized.
(5)Nc(t)で定義される近傍に含まれるユニットへの重み係数を、次の式(2)にて更新する。
wij(t+1)=wij(t)+α(t)(xi(t)−wij(t)) (2)
ここで、α(t)は学習率係数(0<α<1)、Nc(t)は近傍領域のサイズであり、時間とともに減少させる。
(5) The weighting factor for the unit included in the vicinity defined by N c (t) is updated by the following equation (2).
w ij (t + 1) = w ij (t) + α (t) (x i (t) −w ij (t)) (2)
Here, α (t) is the learning rate coefficient (0 <α <1), and N c (t) is the size of the neighboring region, and decreases with time.
(6)上記(2)〜(5)の処理を繰り返す。 (6) The processes (2) to (5) are repeated.
本実施形態に係る画像参照装置1は、上記SOMを用いて、具体的には次の様な処理を実行する。
Specifically, the
(a)自己学習部11は、図4に示すように複数のDICOM原画像(例えばm枚)を入力値とし、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として、出力ユニット数が5ユニットの1次元SOMを用いて自己写像する。
(A) The self-
(b)ダイジェスト画像生成部21は、上記(a)でのSOMに用いられた重み係数を画像することで、各出力ユニットに対応するダイジェスト画像を生成する。また、ダイジェスト画像生成部21は、隣接するダイジェスト画像間の類似度を表す相関係数を計算する。
(B) The digest
(c)部分問題分割部13は、隣接するダイジェスト画像間の相関係数を比較し、相関係数が最も小さいユニットの境界で、上記(a)における写像結果を2つの部分問題に分割する(すなわち、2つのグループA1、A2に分割する)。
(C) The
(d)部分問題学習部15は、図4に示すように、部分問題分割部13によって分割されたグループA1に属する複数のDICOM原画像(例えばn枚)を入力値とし、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として、出力ユニット数が5ユニットの1次元SOMを用いて自己写像する。グループA2に属する複数のDICOM原画像(m−n枚)についても同様の処理を行う。
(D) As shown in FIG. 4, the
(e)ダイジェスト画像生成部21は、上記(d)でのSOMに用いられた重み係数を画像することで、各出力ユニットに対応するダイジェスト画像を生成する。また、ダイジェスト画像生成部21は、生成したダイジェスト画像間の類似度を表す相関係数を計算する。
(E) The digest
(f)再学習判断部17は、グループA1についてのSOMによって得られた各出力ユニットに対応するダイジェスト画像間の相関係数を比較し、さらに階層的なSOMを用いた再学習を実施するか否かを判断する。この判断においては、マップ層ユニット間(ダイジェスト画像間)の相関係数に着目した下記の再学習ルールを採用する。なお、グループA2についても同様の処理が実行される。
(F) Whether the relearning
<ルール1>相関係数の最も低い境界で、ユニットが1:4に分割される場合(図5(a)参照)。
<
・1ユニット:独立とみなし、再学習は行わない。 • 1 unit: Considered independent and does not relearn.
・4ユニット:相関係数に関係なく再学習を行う。 -4 units: Re-learning is performed regardless of the correlation coefficient.
<ルール2>相関係数の最も低い境界で、ユニットが2:3に分割される場合(図5(b)参照)。
<
・1度目の学習で2:3に分割された場合、それぞれ必ず再学習を行う。 ・ When the learning is divided into 2: 3 in the first learning, re-learning is always performed.
・2ユニット:2つのユニット間の相関係数が「0.95」以上ならば、2ユニットは独立とみなし、再学習は行わない。 • 2 units: If the correlation coefficient between two units is “0.95” or more, 2 units are regarded as independent and relearning is not performed.
・2つのユニット間の相関係数が「0.95」以下ならば、再学習を行う。 If the correlation coefficient between the two units is “0.95” or less, relearning is performed.
・3ユニット:相関係数がすべて「0.95」以上ならば、3ユニットは独立とみなし、再学習は行わない。 ・ 3 units: If all correlation coefficients are “0.95” or more, 3 units are regarded as independent and relearning is not performed.
・全ての相関係数の中で「0.95」以下があれば、再学習を行う。 -If there is "0.95" or less among all correlation coefficients, relearning is performed.
<ルール3>
・操作者とのインタラクティブなやり取りの中で、「終了」を決定する。
<
・ Decide “end” in interactive interaction with the operator.
・発火しないユニットが出現するまで、部分問題として再学習可能。 -Re-learn as a partial problem until a unit that does not fire appears.
(g)再学習判断部17によってさらに階層的な再学習を実施すると判断された場合には、上記(c)〜(f)の処理が繰り返される。一方、再学習判断部17によってさらに階層的な再学習を実施しないと判断された場合には、DICOM原画像分類・ダイジェスト画像生成処理を終了する。
(G) When it is determined by the relearning
上記(a)〜(g)の一連の処理によって最終的に取得される複数のDICOM原画像は、図6に示すように最終的に所定の配列によって分類される。この最終結果として得られるDICOM原画像の配列は、「解剖学的構造情報の位相構造が似ている程相互に近くに配置される。」、「解剖学的構造情報の位相構造が非似である程相互に遠くに配置される。」という2つの特性をもつ。この配列の基準は、解剖学的位相構造を自己写像するSOMを用いているため、極めて客観的な基準に従ったものと言える。 The plurality of DICOM original images finally acquired by the series of processes (a) to (g) are finally classified by a predetermined arrangement as shown in FIG. The sequence of the DICOM original images obtained as a result of this is “arranged closer to each other as the phase structure of the anatomical structure information is similar”, “the phase structure of the anatomical structure information is dissimilar. It has two characteristics, “they are arranged far away from each other.” Since the SOM that self-maps the anatomical phase structure is used as the standard for this arrangement, it can be said that the standard follows an extremely objective standard.
この様に、本画像参照装置1によって実行されるSOMは、判断結果に応じて繰り返し実行される。図6に示したように、SOMの繰り返しにより展開される処理は、階層的な展開と捉えることもできる。以下、SOMの繰り返しによる階層的展開を、繰り返し回数が少なくなるに従って「上位である」とし、繰り返し回数が多くなるに従って「下位である」とする。
In this way, the SOM executed by the
また、各SOMでの重み係数を用いて生成された各出力ユニットに対応するダイジェスト画像は、各出力ユニットを構成する各DICOM原画像の内容が何らかの情報として反映されており、従って出力ユニットに属する複数のDICOM原画像を代表するという特性を有する。従って、操作者は、ダイジェスト画像を観察することで、各出力ユニットを構成する多大な枚数に及ぶDICOM原画像を全て観察することなしに、各DICOM原画像の情報を間接的に取得することができる。このダイジェスト画像の特性を利用して、本画像参照装置1は、DICOM原画像の検索利便性を図っている。この内容については、後で詳しく説明する。
The digest image corresponding to each output unit generated using the weighting coefficient in each SOM reflects the contents of each DICOM original image constituting each output unit as some information, and therefore belongs to the output unit. It has the characteristic of representing a plurality of DICOM original images. Therefore, the operator can indirectly acquire the information of each DICOM original image by observing the digest image without observing all the DICOM original images of each output unit. it can. By utilizing the characteristics of the digest image, the present
上記(a)、(d)において実行されるSOMにおいては、写像結果として得られる出力ユニット数を5とした。これは、本実施形態に係る画像参照装置1が最大第2近傍までを考慮する一次元SOMを採用したからである(例えば、図4において、出力ユニット1及び5は、出力ユニット3から見て第2近傍となる)。しかしながら、これに拘泥されることなく、最大第n近傍までを考慮する一次元SOM(ただし、nは2以外の自然数)を採用する構成としてもよい。
In the SOM executed in the above (a) and (d), the number of output units obtained as a mapping result is five. This is because the
上記(c)において、部分問題分割部13は、ダイジェスト画像間の相関係数によって5つの出力ユニットを2つの部分問題に分割している。これは、クラスタリングにおいて最も基本的な例である二分木を採用したものである。しかしながら、これに拘泥されることなく、ダイジェスト画像間の相関係数を用いてさらに複数の部分問題に分割する様にしてもよい。
In the above (c), the
上記(f)においては、ダイジェスト画像間の相関係数値が「0.95」を基準として、再学習を行うか否かの判断を行っている。この値「0.95」は慣用に従ったものである。従って、この例に拘泥されることなく、他の基準値を採用して再学習判断を行う構成であってもよい。 In (f) above, it is determined whether or not to perform relearning based on the correlation coefficient value between digest images being “0.95”. This value “0.95” is in accordance with conventional usage. Accordingly, a configuration may be adopted in which the re-learning determination is performed using another reference value without being limited to this example.
(DICOM原画像の分類とダイジェスト画像の生成)
次に、SOMを用いて実現されるDICOM原画像の分類とダイジェスト画像の生成について説明する。
(Dicom original image classification and digest image generation)
Next, classification of a DICOM original image and generation of a digest image realized using SOM will be described.
図7は、本画像参照装置1によりDICOM原画像の分類・ダイジェスト画像の生成において実行される各処理の流れを示したフローチャートである。同図に示すように、まず、操作部4からの「自己学習・分類開始」の操作に応答して、磁気共鳴映像装置によって取得された複数のDICOM原画像が、探索空間管理部19を介して自己学習部11に入力される(ステップS1)。
FIG. 7 is a flowchart showing the flow of each process executed in the DICOM original image classification / digest image generation by the
次に、自己学習部11は、マップ層ユニット(出力ユニット)が5ユニットの一次元SOMを用いて、自己写像を実行する(ステップS2)。ダイジェスト画像生成部21は、SOMの重み係数を画像化して、各出力ユニットに対応するダイジェスト画像を生成すると共に(ステップS3)、生成したダイジェスト画像間の相関係数を計算する(ステップS4)。
Next, the self-
次に、部分問題分割部13は、隣接するダイジェスト画像間の相関係数を比較し、相関係数が最も小さいユニットの境界で、ステップS2における写像結果を2つの部分問題に分割する(2つのグループA1、A2に分割する。ステップS5)。また、部分問題分割部13は、実行されたSOMが1回目であるか否かを判定し(ステップS6)する。部分問題分割部13によってSOMが一回目であると判定された場合には、部分問題学習部15は、分割された各グループにつき、それぞれを構成するDICOM原画像を入力値としたマップ層ユニット(出力ユニット)が5ユニットの一次元SOMを用いて自己写像を実行し(ステップS2)、ステップS3〜S5の処理を繰り返す(ステップS3〜S5)。
Next, the
一方、部分問題分割部13によって実行されたSOMが1回目でないと判定した場合(すなわち、SOMが部分問題学習部15によって実行されたものである場合)には、再学習判断部17は、SOMの繰り返しを終了するか否かを判断する(ステップS7)。SOMの繰り返しを終了すると判断した場合には、本DICOM原画像分類・ダイジェスト画像生成は終了する。また、SOMの繰り返しを終了しないと判断した場合には、再学習判断部17は、上記(f)のルールに従って、各出力ユニットに対応するダイジェスト画像間の相関係数を比較し、さらに階層的なSOMを用いた再学習を実施するか否かを判断し(ステップS8、S9、S10)、部分問題学習部15において再学習が実行され(ステップS2)、さらにステップS3〜S5の処理を繰り返す(ステップS3〜S5)。
On the other hand, when it is determined that the SOM executed by the partial
次に、再学習判断部17は、発火しない出力ユニットが存在すると判断した場合には、対象問題に対するユニット数とダイジェスト画像とを決定し(ステップS13)、DICOM原画像分類・ダイジェスト画像生成処理を終了する。
Next, when it is determined that there is an output unit that does not fire, the relearning
(ダイジェスト画像を用いた探索空間の組織化)
次に、生成されたダイジェスト画像を用いた探索空間の組織化について説明する。ここで、探索空間とは、概念的には複数のDICOM原画像が存在する抽象的空間であり、検査ID、シリーズID、撮影部位、強調種、撮影方向、スライス番号等の種々の情報を座標軸とするものである。一方、実体的には、探索空間とは、種々のタグ情報が付された複数のDICOM原画像が存在するDICOM原画像記憶部3のメモリ領域を意味する。また、ダイジェスト画像を用いた探索空間の組織化とは、各SOMに対応するダイジェスト画像を用いて複数のDICOM原画像を組織化(体系化)することで、DICOM原画像記憶部3に記憶されたDICOM原画像の検索を容易にするものである。
(Organization of search space using digest images)
Next, organization of the search space using the generated digest image will be described. Here, the search space is conceptually an abstract space in which a plurality of DICOM original images exist, and various types of information such as examination ID, series ID, imaging region, enhancement type, imaging direction, slice number, etc. are coordinate axes. It is what. On the other hand, the search space actually means a memory area of the DICOM original
図8は、探索空間の組織化において本画像参照装置1により実行される処理の流れを示したフローチャートである。同図に示すように、画像対応部27は、各SOMによって得られた各出力ユニットに対応するダイジェスト画像と、当該各ユニットに分類された複数枚のDICOM原画像との対応付けを行う(ステップA)。この対応付けは、画像対応部27が、例えばDICOM原画像記憶部3に記憶されている各DICOM原画像のヘッダ情報中のプライベートタグに、分類されたユニットに対応するダイジェスト画像を付することで実行される。従って、学習・分類部7においてSOMの階層がk層まで実行された場合には、各DICOM原画像にはk個のダイジェスト画像が付されることになる。
FIG. 8 is a flowchart showing a flow of processing executed by the
次に、接続情報テーブル作成部23は、画像対応部27によって対応付けられたDICOM原画像のヘッダ情報に基づいて、接続情報テーブルを作成する(ステップB)。
Next, the connection information
図9は、接続情報テーブル作成部23によって作成される接続テーブルの一例を説明するための図である。例えば、原画像情報テーブル30の一段目に記載された特性を有するMR画像をDICOM原画像として入力し、既述のDICOM原画像の分類とダイジェスト画像の生成処理を実行した場合を想定する。係る場合に、接続情報テーブル作成部23は、画像対応部27によって対応付けられたDICOM原画像のヘッダ情報に基づいて、例えばダイジェスト画像とDICOM原画像とを相互に関連づける接続情報テーブル31(ダイジェスト画像をラベルとして管理されるテーブル)、接続情報テーブル32(DICOM原画像をラベルとして管理されるテーブル)を作成する。
FIG. 9 is a diagram for explaining an example of a connection table created by the connection information
なお、上記接続情報テーブル31、接続情報テーブル32は一例であり、接続情報テーブル作成部23が実際に作成する接続情報テーブルには図9に示すように、現物のダイジェスト画像等が張り付けられている必要はない。従って、ダイジェスト画像とDICOM原画像とを相互に関連づけるものであれば、どのような形態であってもよく、例えば図9に示した接続情報テーブル31と、図10に示した接続情報テーブル33とを作成する構成であってもよい。
The connection information table 31 and the connection information table 32 are examples, and the actual digest image and the like are pasted to the connection information table actually created by the connection information
次に、SOM管理ラベル生成部25は、各SOMにおいて生成される5つのダイジェスト画像を線形結合(重み付け加算処理)し、ダイジェスト画像を管理・識別するためのラベル画像を生成する(ステップC)。このラベル画像は、例えばダイジェスト画像記憶部2に自動的に記憶される。
Next, the SOM management
本画像参照装置1によって実行されるSOMは、解剖学的構造情報を各DICOM原画像の位相特性として自己写像するものである。そのため、SOM処理が進むにつれ(すなわち、SOMの階層が進むにつれ)、入力されたDICOM原画像は、撮影方向、画像強調種、部位等によって自然に分類されることになる。従って、各SOMに対応するダイジェスト画像の線形結合で得られるラベル画像は、撮影方向、画像強調種、部位等の画像の属性を象徴するものであり、どのSOMがどの属性を含むDICOM原画像を入力としているかを象徴するものであるため、当該ラベル画像を利用することで、ダイジェスト画像の管理をより容易にすることが可能である。
The SOM executed by the
図11は、本ダイジェスト画像を用いた探索空間の組織化処理によって得られる結果を説明するための概念図である。同図に示すように、DICOM原画像とダイジェスト画像とは接続情報テーブルにより関連付けられ、ラベル画像とダイジェスト画像とは線形結合によって関連付けられている。操作者は、頭部を対象としたダイジェスト画像からなるラベル画像(又は、T2強調画像と対象としたダイジェスト画像からなるラベル画像、前額断を対象としたダイジェスト画像からなるラベル画像)によって、当該ラベル画像を構成するダイジェスト画像に対応付けられたDIOCM原画像が、頭部を対象としたもの(又は、T2強調画像と対象としたもの、前額断を対象としたもの)であることを、即座に判断することができる。 FIG. 11 is a conceptual diagram for explaining a result obtained by the search space organization process using the digest image. As shown in the figure, the DICOM original image and the digest image are associated by the connection information table, and the label image and the digest image are associated by linear combination. The operator uses the label image composed of the digest image targeted for the head (or the label image composed of the T2-weighted image and the digest image targeted, the label image composed of the digest image targeted for the pre-payment). The DIOCM original image associated with the digest image that constitutes the label image is for the head (or for the T2-weighted image and for the forehead). Judgment can be made immediately.
なお、本処理により組織化された探索空間へのアクセスは、どの様な形態であってもよい。例えば、操作者は、まずラベル画像によって画像に関する所望の属性(例えば、「頭部前額断に関するT2強調画像」等)を選択することで、図12に示すようなインターフェースにて組織化された探索空間を提示する構成であってもよい。同図においては、画面右上に表示された複数のダイジェスト画像のうちのいずれかを選択すると、接続情報テーブルによって当該ダイジェスト画像に関連付けられたDICOM原画像のサムネイル画像が画面右下に表示される。このサムネイル画像のうち、所望のDICOM原画像を選択することで、画面左側に当該DICOM原画像をフル画像(すなわち、圧縮や間引きされていない画像)として表示することができる。この様に必要に応じてサムネイル画像を用いることで、ダイジェスト画像に対応する大量のDICOM原画像の中から、診断画像をより迅速に選択することが可能となる。 The access to the search space organized by this process may take any form. For example, the operator first selects a desired attribute related to the image (for example, “T2-weighted image related to the pre-head cut”) by the label image, and is organized in an interface as shown in FIG. The structure which presents search space may be sufficient. In the figure, when one of a plurality of digest images displayed on the upper right of the screen is selected, a thumbnail image of the DICOM original image associated with the digest image is displayed on the lower right of the screen by the connection information table. By selecting a desired DICOM original image among the thumbnail images, the DICOM original image can be displayed as a full image (that is, an image that has not been compressed or thinned out) on the left side of the screen. In this way, by using thumbnail images as necessary, it is possible to more quickly select a diagnostic image from a large number of DICOM original images corresponding to a digest image.
以上述べた構成によれば、以下の効果を得ることができる。 According to the configuration described above, the following effects can be obtained.
本画像参照装置によれば、複数のDICOM原画像を入力値として、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として自己写像するSOMを繰り返し実行する。これにより、最終的に取得される複数のDICOM原画像の配列は、「解剖学的構造情報の位相構造が似ている程近くに配置される。」、「解剖学的構造情報の位相構造が非似である程遠くに配置される。」という2つの特性をもつ。従って、未整理、未分類の多量のDICOM原画像を客観的基準に従って自動的に分類することができ、人為的負担を軽減することができる。また、解剖学的位相構造に基づく新たな画像配列(画像分類)を提供できるため、人為的配列(分類)に比してばらつきがなく互換性が高い。その結果、医療行為の質の向上に貢献することができる。 According to this image reference apparatus, SOM for self-mapping an anatomical structure as a phase characteristic of each DICOM original image with a predetermined weight Wij is repeatedly executed with a plurality of DICOM original images as input values. As a result, the array of the plurality of DICOM original images finally obtained is arranged so that the phase structure of the anatomical structure information is similar, and “the phase structure of the anatomical structure information is the same. The dissimilarity is placed farther away. ” Accordingly, it is possible to automatically classify a large amount of unsorted and unclassified DICOM original images according to an objective standard, thereby reducing an artificial burden. In addition, since a new image arrangement (image classification) based on the anatomical phase structure can be provided, there is no variation compared to the artificial arrangement (classification), and compatibility is high. As a result, it is possible to contribute to improving the quality of medical practice.
特に、最終的に取得される複数のDICOM原画像の配列は、「解剖学的構造情報の位相構造が似ている程近くに配置される。」、「解剖学的構造情報の位相構造が非似である程遠くに配置される。」という特性をもつため、操作者は、システムが判断した類似度の定量的な性質、検索結果相互の類似性(秩序)を判断することができる。 In particular, an array of a plurality of DICOM original images finally obtained is arranged so that the topological structure of the anatomical structure information is similar. Therefore, the operator can determine the quantitative nature of the similarity determined by the system and the similarity (order) between the search results.
また、本画像参照装置は、各出力ユニットに対応するダイジェスト画像を用いて探索空間を組織化し、ダイジェスト画像を用いたDICOM原画像の検索を可能としている。従って、ダイジェスト画像を指標として視覚的に検索対象を確認でき、検索の進行具合を確かめつつ適切且つ迅速に所望のDICOM原画像にアクセスすることができる。その結果、読影医等の作業負担を軽減させることができると共に、診断画像の選択ミス等の誘発を防止することができ、医療行為の質の向上に貢献することができる。 In addition, the present image reference device organizes a search space using digest images corresponding to each output unit, and enables retrieval of DICOM original images using the digest images. Therefore, the search target can be visually confirmed using the digest image as an index, and the desired DICOM original image can be accessed appropriately and quickly while checking the progress of the search. As a result, it is possible to reduce the work burden on the interpreting doctor and the like, and to prevent a mistake in selecting a diagnostic image, and to contribute to improving the quality of medical practice.
また、本画像参照装置によれば、ダイジェスト画像を検索対象とすることができる。従って、個人情報であるDICOM原画像に直接アクセスする回数を削減でき、プライバシーの安全性を確保することができる。 Further, according to the present image reference device, a digest image can be set as a search target. Therefore, the number of direct accesses to the DICOM original image that is personal information can be reduced, and the safety of privacy can be ensured.
また、近年、医用画像機器の高度化に伴って、医用画像の質および量において情報量が飛躍的に増大しており、一回の撮影でスライス画像を数十枚から百枚程度も取得することができる。一方、それらの画像から診断目的に沿った関心画像を選択しながら読影し、更に、現在の画像と過去の画像とを比較読影する必要性が高まっており、医師の負担は、膨大の一途をたどっている。例えば、初期の癌等の微小な病巣を発見するには、経時的変化を調べることが重要である。この様な現況において、ダイジェスト画像を用いたサムネイル表示を行うことで、比較読影の対象画像を効率的に表示することが可能となり、医師の負担を軽減できる。発明の基盤となるダイジェスト画像生成法は、未分類・未整理のマルチメディアDBを自動的に分類・整理できる可能性を有することから、マルチメディアデータ検索の基礎となる可能性有する。 In recent years, with the advancement of medical imaging equipment, the amount of information has increased dramatically in terms of the quality and quantity of medical images, and several tens to hundreds of slice images can be acquired in one shot. be able to. On the other hand, there is an increasing need to interpret images while selecting images of interest according to the purpose of diagnosis from those images, and to compare and interpret current images and past images, and the burden on doctors is enormous. I'm following. For example, it is important to examine changes over time in order to find minute lesions such as early cancer. In such a current situation, by performing thumbnail display using the digest image, it is possible to efficiently display the target image for comparative interpretation, thereby reducing the burden on the doctor. The digest image generation method that forms the basis of the invention has the possibility of automatically classifying and organizing unclassified and unorganized multimedia DBs, and therefore has the possibility of becoming a basis for multimedia data retrieval.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。具体的な変形例としては、例えば次のようなものがある。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Specific examples of modifications are as follows.
(1)本実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することも可能である。このとき、図2に示した学習・分類部7及び探索空間組織化部8の少なくとも一方の構成が、展開されたプログラムによって医用ワークステーションのメモリ領域に構築されることになる。
(1) Each function according to the present embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and developing the program on a memory. Programs that can cause the computer to execute the method are stored and distributed in a recording medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. Is also possible. At this time, at least one of the configuration of the learning / classifying
(2)上記実施形態では、画像と通信に関する規格としてDICOMを利用した原画像を用いて、そのヘッダ情報(付帯情報)を利用する例を説明した。しかしながら、DICOM規格は必須ではなく、他の規格であれば、それに従って付された画像に関する付帯情報を利用することで、同様の効果を得ることができる。 (2) In the above-described embodiment, an example has been described in which an original image using DICOM is used as a standard for images and communication, and header information (accompanying information) is used. However, the DICOM standard is not essential, and if it is another standard, the same effect can be obtained by using the incidental information regarding the image attached according to the standard.
(3)上記実施形態では、説明を具体的にするために、分類・検索対象とする画像として所定患者の複数の脳画像(MR画像)を用いて説明した。しかしながら、これに限定する趣旨ではなく、例えばX線CT装置等の他のモダリティによって収集されたDICOM原画像、複数のモダリティによって収集された画像が混在するDICOM原画像、解剖学的見地から標準化された模式的画像、アニメーション画像等を分類・検索対象とする画像とする構成であってもよい。また、異なる撮影部位、強調種、撮影方向が混在するものを分類・検索対象とする構成であってもよい。 (3) In the above-described embodiment, the description has been given using a plurality of brain images (MR images) of a predetermined patient as an image to be classified and searched for specific description. However, the present invention is not limited to this, and is standardized from DICOM original images collected by other modalities such as an X-ray CT apparatus, DICOM original images in which images collected by a plurality of modalities are mixed, and anatomical viewpoints. Alternatively, a schematic image, an animation image, or the like may be used as an image to be classified and searched. Moreover, the structure which makes a classification / search object the thing from which a different imaging | photography site | part, emphasis kind, and imaging | photography direction coexist may be sufficient.
また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
以上本発明によれば、客観性及び互換性の高い分類・検索、及び人為的作業負担が少なく所望の画像に容易にアクセスすることができる分類・検索を実行可能な画像参照装置及び画像分類検索方法を実現することができる。 As described above, according to the present invention, an image reference device and an image classification search capable of executing classification / retrieval with high objectivity and compatibility, and classification / retrieval that can easily access a desired image with less human work load. A method can be realized.
1…画像参照装置
2…ダイジェスト画像記憶部
3…DICOM原画像記憶部
4…操作部
5…表示部
6…送受信部
7…学習・分類部
8…探索空間組織化部
11…自己学習部
13…部分問題分割部
15…部分問題学習部
17…再学習判断部
18…探索空間組織化部
19…探索空間管理部
21…ダイジェスト画像生成部
23…接続情報テーブル作成部
25…SOM管理ラベル生成部
27…画像対応部
DESCRIPTION OF
Claims (7)
前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する自己写像手段と、
前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する画像生成手段と、
計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する分割手段と、
前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する判断手段と、を具備し、
前記判断手段が前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返すこと、
を具備することを特徴とする画像参照装置。 Storage means for storing a plurality of first images relating to a predetermined part of the subject;
The plurality of first images are input, and self-mapping is performed with the anatomical structure of the predetermined site as a phase characteristic of each first image by a predetermined weighting factor, and each of the classified first images is classified. Self-mapping means for classifying the plurality of input first images by outputting a plurality of output units composed of one image;
A second image corresponding to each output unit is generated by imaging the predetermined weight coefficient used for the self-mapping, and a correlation coefficient indicating a similarity between the second images is calculated. Image generating means for
Dividing means for dividing the obtained plurality of output units into at least two groups based on the calculated correlation coefficient;
A judgment means for judging whether or not to repeatedly execute the self-mapping based on the result of the self-mapping, the calculated correlation coefficient, and the result of the division;
If the determination means determines that the self-mapping is repeatedly performed, the self-mapping, the generation of the second image, the calculation of the correlation coefficient, the division, and the determination are repeated.
An image reference device comprising:
前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための選択手段と、
前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する検索手段と、
検索された前記第1の画像を出力する出力手段と、
をさらに具備する請求項1記載の画像参照装置。 Connection information creating means for creating a connection information table in which the second image corresponding to each output unit and the first image constituting each output unit are associated with each other;
Selecting means for selecting any one of the second images corresponding to each output unit;
Search means for searching for the first image constituting the output unit corresponding to the second image selected from the storage means based on the connection information table;
Output means for outputting the searched first image;
The image reference device according to claim 1, further comprising:
前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力する自己写像に用いられる前記所定の重み係数を画像化することで、当該自己写像によって得られる複数の出力ユニットのそれぞれ第2の画像と、
前記各出力ユニットに対応する前記第2の画像と当該各出力ユニットを構成する前記第1の画像とを対応付けた接続情報テーブルと、
を記憶する記憶手段と、
前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための選択手段と、
前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する検索手段と、
検索された前記第1の画像を出力する出力手段と、
を具備する画像参照装置。 A plurality of first images relating to a predetermined portion of the subject;
The plurality of first images are input, and the anatomical structure of the predetermined portion is constituted by the first images classified as phase characteristics of the first images by a predetermined weighting factor. A second image of each of the plurality of output units obtained by the self-mapping by imaging the predetermined weight coefficient used for self-mapping that outputs the plurality of output units;
A connection information table in which the second image corresponding to each output unit is associated with the first image constituting each output unit;
Storage means for storing
Selecting means for selecting any one of the second images corresponding to each output unit;
Search means for searching for the first image constituting the output unit corresponding to the second image selected from the storage means based on the connection information table;
Output means for outputting the searched first image;
An image reference device comprising:
前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する第2のステップと、
計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する第3のステップと、
前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する第4のステップと、
前記第4のステップにおいて前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返す第5のステップと、
を具備することを特徴とする画像分類検索方法。 A plurality of first images related to a predetermined part of the subject are input, and self-mapping is performed with the anatomical structure of the predetermined part as a phase characteristic of each first image by a predetermined weighting factor. A first step of classifying the input plurality of first images by outputting a plurality of output units composed of the classified first images;
A second image corresponding to each output unit is generated by imaging the predetermined weight coefficient used for the self-mapping, and a correlation coefficient indicating a similarity between the second images is calculated. A second step of:
A third step of dividing the obtained plurality of output units into at least two groups based on the calculated correlation coefficient;
A fourth step of determining whether or not to repeatedly execute the self-mapping based on the result of the self-mapping, the calculated correlation coefficient, and the result of the division;
If it is determined that the self-mapping is repeatedly executed in the fourth step, a fifth step of repeating the self-mapping, generation of the second image, calculation of the correlation coefficient, division, and the determination; ,
An image classification search method comprising:
前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための第7のステップと、
前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する第8のステップと、
検索された前記第1の画像を出力する第9のステップと、
をさらに具備する請求項5記載の画像分類検索方法。 A sixth step of creating a connection information table in which the second image corresponding to each output unit and the first image constituting each output unit are associated with each other;
A seventh step for selecting one of the second images corresponding to each output unit;
An eighth step of searching for the first image constituting the output unit corresponding to the second image selected from the storage means based on the connection information table;
A ninth step of outputting the searched first image;
The image classification search method according to claim 5, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005049320A JP2006235971A (en) | 2005-02-24 | 2005-02-24 | Image referencing apparatus and method for classifying and searching for image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005049320A JP2006235971A (en) | 2005-02-24 | 2005-02-24 | Image referencing apparatus and method for classifying and searching for image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006235971A true JP2006235971A (en) | 2006-09-07 |
Family
ID=37043556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005049320A Pending JP2006235971A (en) | 2005-02-24 | 2005-02-24 | Image referencing apparatus and method for classifying and searching for image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006235971A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008157640A (en) * | 2006-12-20 | 2008-07-10 | Fujifilm Ri Pharma Co Ltd | Analytical method for time-serial data as to brain image data, program, and recording medium |
JP2009210465A (en) * | 2008-03-05 | 2009-09-17 | Yamaguchi Univ | Method of classifying cancer cell, device for classifying cancer cell, and program for classifying cancer cell |
US8971601B2 (en) | 2010-10-14 | 2015-03-03 | Kabushiki Kaisha Toshiba | Medical image diagnosis device and medical image processing method |
JP2020527258A (en) * | 2017-07-22 | 2020-09-03 | インテリジェント ヴァイルス イメージング インコーポレイテッド | An automatic, unsupervised ontological survey of structural appearance in electron micrographs |
-
2005
- 2005-02-24 JP JP2005049320A patent/JP2006235971A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008157640A (en) * | 2006-12-20 | 2008-07-10 | Fujifilm Ri Pharma Co Ltd | Analytical method for time-serial data as to brain image data, program, and recording medium |
JP2009210465A (en) * | 2008-03-05 | 2009-09-17 | Yamaguchi Univ | Method of classifying cancer cell, device for classifying cancer cell, and program for classifying cancer cell |
US8971601B2 (en) | 2010-10-14 | 2015-03-03 | Kabushiki Kaisha Toshiba | Medical image diagnosis device and medical image processing method |
JP2020527258A (en) * | 2017-07-22 | 2020-09-03 | インテリジェント ヴァイルス イメージング インコーポレイテッド | An automatic, unsupervised ontological survey of structural appearance in electron micrographs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11894114B2 (en) | Complex image data analysis using artificial intelligence and machine learning algorithms | |
US11850021B2 (en) | Dynamic self-learning medical image method and system | |
US11657087B2 (en) | Surgical video retrieval based on preoperative images | |
US20190220978A1 (en) | Method for integrating image analysis, longitudinal tracking of a region of interest and updating of a knowledge representation | |
JP5222082B2 (en) | Information processing apparatus, control method therefor, and data processing system | |
US9014485B2 (en) | Image reporting method | |
CN102497805B (en) | Medical image display device, method, and program | |
JP7366583B2 (en) | Medical information processing device, method and program | |
JP5173700B2 (en) | Data search apparatus, control method therefor, and data search system | |
US20100293164A1 (en) | Accessing medical image databases using medically relevant terms | |
CN105074708A (en) | A context driven summary view of radiology findings | |
CA3070770A1 (en) | Method and system for rule-based display of sets of images using image content derived parameters | |
JP2007280229A (en) | Similar case retrieval device, similar case retrieval method and program | |
US20090138432A1 (en) | Clinician-driven example-based computer-aided diagnosis | |
EP2054829A2 (en) | Anatomy-related image-context-dependent applications for efficient diagnosis | |
JP5539478B2 (en) | Information processing apparatus and information processing method | |
CN117501375A (en) | System and method for artificial intelligence assisted image analysis | |
JP2967450B2 (en) | Computer-aided image diagnosis support apparatus and method | |
JP7157232B2 (en) | Finding Similar Images for Radiology | |
JP2019033924A (en) | Learning data generation support device, method for operating learning data generation support device and learning data generation support program | |
JP2006235971A (en) | Image referencing apparatus and method for classifying and searching for image | |
WO2020153493A1 (en) | Annotation assistance device, annotation assistance method, and annotation assistance program | |
WO2023274599A1 (en) | Methods and systems for automated follow-up reading of medical image data | |
Burtseva et al. | SonaRes—Diagnostic decision support system for ultrasound examination | |
WO2021172477A1 (en) | Document creation assistance device, method, and program |