JP2006235971A - Image referencing apparatus and method for classifying and searching for image - Google Patents

Image referencing apparatus and method for classifying and searching for image Download PDF

Info

Publication number
JP2006235971A
JP2006235971A JP2005049320A JP2005049320A JP2006235971A JP 2006235971 A JP2006235971 A JP 2006235971A JP 2005049320 A JP2005049320 A JP 2005049320A JP 2005049320 A JP2005049320 A JP 2005049320A JP 2006235971 A JP2006235971 A JP 2006235971A
Authority
JP
Japan
Prior art keywords
image
images
self
mapping
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005049320A
Other languages
Japanese (ja)
Inventor
Kazuto Sato
和人 佐藤
Sakura Kadowaki
さくら 門脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2005049320A priority Critical patent/JP2006235971A/en
Publication of JP2006235971A publication Critical patent/JP2006235971A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image referencing apparatus and a method for classifying and searching for images making it possible to perform classification and searches of high objectivity and compatibility in such a way as to reduce human workload and facilitate access to desired images. <P>SOLUTION: SOM is repeatedly performed wherein a plurality of DICOM original images are used as input values and self-mapping of an anatomical structure as the phase characteristic of each DICOM original image is carried out through predetermined weighting. In this way, the DICOM original images are classified using an arrangement having such a characteristic as arranging the images in such a manner that the more closely the phase structures of anatomical structure information resemble each other, the more closely they are positioned to one another. Also, a search space is organized using a digest image that corresponds to each output unit available through SOM, and searches for the DICOM original images using the digest image are conducted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えば磁気共鳴映像装置(Magnetic Resonance Imaging device)に代表される医用画像機器等に組み込まれる、又は医療用ワークステーション等によって実現される画像参照装置(ビューア)及び画像分類検索方法に関する。   The present invention relates to an image reference device (viewer) and an image classification search method that are incorporated in a medical imaging device represented by, for example, a magnetic resonance imaging device, or realized by a medical workstation or the like.

近年、医用画像機器の高度化に伴って、医用画像の質および量において情報量が飛躍的に増大しており、一回の撮影でスライス画像を数十枚から百枚程度も取得することができる。また、高度化された医用画像機器の導入により、多種多様な画像診断が実施されている。例えば、最近の脳ドックでは、無症候性脳梗塞や大脳白質病変などを早期に発見し、それらの脳疾患と密接な関係にある生活習慣の改善を促すことで、その後の症候性の脳梗塞発生を未然に防ぐことも目的の1つに挙げられている。無症候性脳梗塞の大半は、ラクナ梗塞と呼ばれ、主として穿通枝領域にできる1cm下の小さな梗塞で直径約3〜10mm、不整形,不均質,T1強調水平断では低信号域を,T2強調水平断では高信号域を呈すると定義されている。このようなラクナ梗塞は、高血圧群において脳卒中の発生と深く関連していると考えられており、MR画像上にラクナ梗塞を認め、かつ、高血圧症であった場合には、将来脳卒中を起こす危険性が約10倍高いという報告があることから、適切な血圧管理や生活習慣の改善指導によって、その後に起こり得る重篤な脳卒中の発生を予防できる可能性があると考えられる。   In recent years, with the advancement of medical imaging equipment, the amount of information has increased dramatically in terms of the quality and quantity of medical images, and it is possible to acquire several tens to hundreds of slice images in one shot. it can. In addition, various types of image diagnosis have been performed with the introduction of sophisticated medical image equipment. For example, recent cerebral docks detect asymptomatic cerebral infarction and cerebral white matter lesions at an early stage, and promote lifestyle changes that are closely related to those cerebral diseases, so that subsequent symptomatic cerebral infarction One of the purposes is to prevent the occurrence. The majority of asymptomatic cerebral infarction is called lacunar infarction, which is mainly a small infarct under 1 cm formed in the penetrating region, about 3-10 mm in diameter, irregular, heterogeneous, low signal area in T1-weighted horizontal section, T2 It is defined as a high signal area in the emphasized horizontal section. Such lacunar infarction is considered to be deeply related to the occurrence of stroke in the hypertensive group. If lacunar infarction is observed on MR images and if it has hypertension, the risk of future stroke Since there is a report that the sex is about 10 times higher, it is considered that there is a possibility that the occurrence of serious stroke that can occur afterwards can be prevented by appropriate blood pressure management and lifestyle improvement guidance.

脳ドッグ等にも用いられる脳のMR画像は、最も多くスクリーニングが行われる部位である。脳のスクリーニングでは、まず病変を丁寧に探すところから始めなくてはならない。実際には、図13に示した各ステップをほとんど無意識的に繰り返し、鑑別診断をいくつか考え、それに合った所見がないかと自問自答しながら読影していくことになる。特に、ラクナ梗塞等の微小な病巣を発見するには、現在の画像と過去に撮影された画像を比較し経時変化を調べることが重要で、かつ強調種や撮影方向を変えて比較読影することが要求される。   MR images of the brain used for brain dogs and the like are the most frequently screened parts. Brain screening must begin with a careful search for lesions. In practice, each step shown in FIG. 13 is almost unconsciously repeated, and several differential diagnoses are considered, and interpretation is performed while asking himself / herself whether there is a finding suitable for it. In particular, in order to find minute lesions such as lacunar infarction, it is important to compare the current image with images taken in the past and examine changes over time. Is required.

この様に近年の画像診断において、撮影された画像から診断目的に沿った関心画像を選択しながら読影することが要求される医師の負担は、膨大の一途をたどっている。日常診療において、目的とする画像の類似性に関する判断を医師に分かり易い形式で伝えることは、医師の読影作業の負担を軽減し効率的な読影作業を進める上で重要といえる。一般に、従来の画像管理システムでは、検索と分類という2つのアプローチが採用されている。画像の検索は、画像に付加されたテキスト情報(キーワードや説明文)によって検索を行う方法と、画像の内容情報(色やテクスチャなどの特徴量)の類似度によって検索を行う方法がある。画像の内容情報を用いた類似検索は、画像全体の色、模様や画像内のオブジェクトの色、形、位置および画像内の直線の長さ、傾き、位置のような特徴量で検索が可能である。一方、画像の分類にも、画像に付加されたテキスト情報を利用して分類を行う方法と画像の内容情報を用いて分類を行う方法がある。画像の内容情報を用いた分類として類似シーン分類があり、画像全体や画像のブロック分割領域の色やテクスチャの特徴量によってクラスタリングが可能である。   As described above, in recent image diagnosis, the burden on a doctor who is required to interpret an image while selecting an image of interest in accordance with the purpose of diagnosis from the captured image is enormous. In daily medical care, it is important to convey the judgment regarding the similarity of the target image to the doctor in an easy-to-understand format in order to reduce the burden of the doctor's interpretation work and promote efficient interpretation work. In general, in a conventional image management system, two approaches of search and classification are adopted. There are two methods for searching for an image: a method for searching by text information (keywords and explanations) added to the image, and a method for searching by the similarity of image content information (features such as colors and textures). Similarity search using image content information can be searched by features such as the color of the entire image, the pattern, the color, shape and position of the object in the image, and the length, inclination, and position of the straight line in the image. is there. On the other hand, image classification includes a method of performing classification using text information added to an image and a method of performing classification using image content information. There is a similar scene classification as a classification using image content information, and clustering is possible according to the color of the entire image or the block division area of the image and the feature amount of the texture.

しかしながら、上記従来の画像管理システムは、例えば以下に示すような問題点を有する。   However, the conventional image management system has the following problems, for example.

例えば画像検索においてテキスト情報を採用するのか画像の内容情報を採用するのかは、各病院又は医師によって任意に選択される。従って、従来のシステムにおいて画像の分類及び検索に用いられる基準は、病院、医師毎にばらつきがあり、客観性及び互換性に乏しい。   For example, whether to use text information or image content information in an image search is arbitrarily selected by each hospital or doctor. Therefore, the criteria used for image classification and retrieval in the conventional system vary among hospitals and doctors, and the objectivity and compatibility are poor.

また、テキスト情報又は画像の内容情報を用いて実行される従来の分類は、自由度が少なく、膨大な枚数の画像を管理することは困難である。例えば、テキスト情報を用いた分類・検索では、同一ヘッダ情報が付された画像は、解剖学的構造差異が存在する場合であっても同一の画像として分類・検索されてしまう。従って、所望の診断画像にアクセスするのが困難となる場合があり、また同時に検索された複数の診断画像を人為的に区別使用とすれば、多大な労力が必要とされる。   Further, the conventional classification executed using text information or image content information has a low degree of freedom, and it is difficult to manage an enormous number of images. For example, in classification / search using text information, images with the same header information are classified / searched as the same image even if there is an anatomical structural difference. Accordingly, it may be difficult to access a desired diagnostic image, and if a plurality of diagnostic images retrieved simultaneously are used artificially, a great deal of labor is required.

なお、本願に関連する公知文献としては、例えば次のようなものがある。
特開2004−174217号公報 特開2004−174218号公報 特開2004−174219号公報 特開2004−174220号公報
In addition, as a well-known document relevant to this application, there exist the following, for example.
JP 2004-174217 A JP 2004-174218 A JP 2004-174219 A JP 2004-174220 A

本発明は、上記事情を鑑みてなされたもので、客観性及び互換性の高い分類・検索、及び人為的作業負担が少なく所望の画像に容易にアクセスすることができる分類・検索を実行可能な画像参照装置及び画像分類検索方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and can perform classification / retrieval with high objectivity and compatibility, and classification / retrieval that can easily access a desired image with less human work load. An object is to provide an image reference device and an image classification search method.

本発明は、上記目的を達成するため、次のような手段を講じている。   In order to achieve the above object, the present invention takes the following measures.

本発明の第1の視点は、被検体の所定部位に関する複数の第1の画像を記憶する記憶手段と、前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する自己写像手段と、前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する画像生成手段と、計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する分割手段と、前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する判断手段と、を具備し、前記判断手段が前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返すこと、を具備することを特徴とする画像参照装置である。   According to a first aspect of the present invention, storage means for storing a plurality of first images relating to a predetermined part of a subject and the plurality of first images as inputs, and an anatomy of the predetermined part by a predetermined weighting factor. By executing a self-mapping with a target structure as a phase characteristic of each of the first images, and outputting a plurality of output units each composed of the classified first images. A second image corresponding to each output unit is generated by imaging a self-mapping unit for classifying the first image and the predetermined weighting factor used for the self-mapping, and the second image Image generating means for calculating a correlation coefficient indicating the similarity between images, dividing means for dividing the plurality of output units obtained into at least two groups based on the calculated correlation coefficient; Self-mapping A determination means for determining whether or not to repeatedly execute the self-mapping based on the calculated correlation coefficient and the result of the division, and the determination means repeatedly executes the self-mapping. When it is determined, the self-mapping, the generation of the second image, the calculation of the correlation coefficient, the division, and the determination are repeated.

本発明の第2の視点は、被検体の所定部位に関する複数の第1の画像と、前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力する自己写像に用いられる前記所定の重み係数を画像化することで、当該自己写像によって得られる複数の出力ユニットのそれぞれ第2の画像と、前記各出力ユニットに対応する前記第2の画像と当該各出力ユニットを構成する前記第1の画像とを対応付けた接続情報テーブルと、を記憶する記憶手段と、前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための選択手段と、前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する検索手段と、検索された前記第1の画像を出力する出力手段と、を具備する画像参照装置である。   According to a second aspect of the present invention, a plurality of first images relating to a predetermined part of a subject and the plurality of first images are input, and an anatomical structure of the predetermined part is determined by a predetermined weighting factor. As the phase characteristic of the first image, the predetermined weighting factor used for the self-mapping that outputs a plurality of output units each composed of the classified first images is imaged, so that the self-mapping A connection information table associating each second image of the plurality of output units obtained by the above, the second image corresponding to each output unit, and the first image constituting each output unit; Storage means for storing, selection means for selecting one of the second images corresponding to each output unit, and selection from the storage means based on the connection information table An image reference device comprising: search means for searching for the first image constituting the output unit corresponding to the second image that has been searched; and output means for outputting the searched first image. is there.

本発明の第3の視点は、被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する第1のステップと、前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する第2のステップと、計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する第3のステップと、前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する第4のステップと、前記第4のステップにおいて前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返す第5のステップと、を具備することを特徴とする画像分類検索方法である。   According to a third aspect of the present invention, a plurality of first images relating to a predetermined part of the subject are input, and an anatomical structure of the predetermined part is set as a phase characteristic of each first image by a predetermined weighting factor. Performing a self-mapping to output a plurality of output units each composed of the classified first images, thereby classifying the plurality of input first images; A second image corresponding to each output unit is generated by imaging the predetermined weight coefficient used for self-mapping, and a correlation coefficient indicating a similarity between the second images is calculated. A second step, a third step of dividing the obtained plurality of output units into at least two groups based on the calculated correlation coefficient; and the phase calculated as a result of the self-mapping. Number of relationships, previous A fourth step of determining whether or not to repeatedly execute the self-mapping based on a result of the division; and if it is determined to repeatedly execute the self-mapping in the fourth step, the self-mapping, And a fifth step of repeating the generation of the second image, the calculation of the correlation coefficient, the division, and the determination.

以上本発明によれば、客観性及び互換性の高い分類・検索、及び人為的作業負担が少なく所望の画像に容易にアクセスすることができる分類・検索を実行可能な画像参照装置及び画像分類検索方法を実現することができる。   As described above, according to the present invention, an image reference device and an image classification search capable of executing classification / retrieval with high objectivity and compatibility, and classification / retrieval that can easily access a desired image with less human work load. A method can be realized.

以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.

図1は、本実施形態に係る画像参照装置1のブロック構成図を示している。同図に示すように、画像参照装置1は、ダイジェスト画像記憶部2、DICOM原画像記憶部3、操作部4、表示部5、送受信部6、学習・分類部7、探索空間組織化部8、制御部9を具備している。   FIG. 1 is a block diagram of an image reference device 1 according to this embodiment. As shown in the figure, the image reference device 1 includes a digest image storage unit 2, a DICOM original image storage unit 3, an operation unit 4, a display unit 5, a transmission / reception unit 6, a learning / classification unit 7, and a search space organization unit 8. The control unit 9 is provided.

ダイジェスト画像記憶部2は、学習・分類部7において生成されたダイジェスト画像、複数のダイジェスト画像を線形結合して生成されるラベル画像を記憶する。このダイジェスト画像の生成、及びダイジェスト画像、ラベル画像を用いた画像管理については、後で詳しく説明する。   The digest image storage unit 2 stores the digest image generated by the learning / classification unit 7 and a label image generated by linearly combining a plurality of digest images. The generation of the digest image and the image management using the digest image and the label image will be described in detail later.

DICOM原画像記憶部3は、医用画像機器によりDICOM規格に従って取得され当該画像参照装置1における処理の入力情報等として用いられる原画像(DICOM原画像)を格納している。本実施形態では、説明を具体的にするために、DICOM原画像記憶部3に記憶されているDICOM原画像は、磁気共鳴映像装置によって取得された被検体(患者)毎の複数の脳画像であるとする。   The DICOM original image storage unit 3 stores an original image (DICOM original image) acquired by a medical image device in accordance with the DICOM standard and used as input information for processing in the image reference device 1. In the present embodiment, for the sake of specific explanation, the DICOM original image stored in the DICOM original image storage unit 3 is a plurality of brain images for each subject (patient) acquired by the magnetic resonance imaging apparatus. Suppose there is.

操作部4は、操作者からの各種指示、条件、関心領域(ROI)の設定指示、後述するDICOM原画像の分類とダイジェスト画像の生成、ダイジェスト画像を用いた探索空間の組織化に関する指示等を当該装置1にとりこむためのトラックボール、各種スイッチ、マウス、キーボード等を有している。   The operation unit 4 provides various instructions from the operator, conditions, a region of interest (ROI) setting instruction, a DICOM original image classification and digest image generation described later, instructions for organizing a search space using the digest image, and the like. A trackball, various switches, a mouse, a keyboard, and the like for incorporation into the device 1 are included.

表示部5は、DICOM原画像、ダイジェスト画像、ラベル画像等を所定の形態にて表示する。また、表示部5は、DICOM原画像とダイジェスト画像との関連を示す接続情報テーブル(後述)等を所定の形態にて表示する。   The display unit 5 displays a DICOM original image, a digest image, a label image, and the like in a predetermined form. The display unit 5 displays a connection information table (described later) indicating the relationship between the DICOM original image and the digest image in a predetermined form.

送受信部6は、ネットワークを介して他の装置と画像データを含む情報の送受信を行う。   The transmission / reception unit 6 transmits / receives information including image data to / from other apparatuses via the network.

学習・分類部7は、DICOM原画像記憶部3に記憶された複数のDICOM原画像を入力値とし、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として、自己組織化マップ(以下、「SOM」とも称する。)を用いて自己写像する。これにより、入力した複数のDICOM原画像は、解剖学的構造を基準として分類される。   The learning / classification unit 7 uses a plurality of DICOM original images stored in the DICOM original image storage unit 3 as input values, and uses a predetermined weight Wij as an anatomical structure as a phase characteristic of each DICOM original image. (Hereinafter also referred to as “SOM”). Thereby, the inputted plurality of DICOM original images are classified based on the anatomical structure.

探索空間組織化部8は、学習・分類部7において実行された各SOMでの重み係数を用いてダイジェスト画像を生成する。また、探索空間組織化部8は、ダイジェスト画像を用いて、DICOM原画像が配置された探索空間を組織化する。   The search space organizing unit 8 generates a digest image using the weighting coefficient in each SOM executed in the learning / classifying unit 7. In addition, the search space organizing unit 8 organizes the search space in which the DICOM original images are arranged using the digest image.

制御部9は、当該画像参照措置を構成する各ユニットを動的又は静的に制御する。特に、制御部9は、DICOM原画像分類・ダイジェスト画像生成、及び探索画像組織化(共に後述)において、ダイジェスト画像記憶部2、DICOM原画像記憶部3、操作部4、表示部5、学習・分類部7、探索空間組織化部8等を統括的に制御する。   The control unit 9 dynamically or statically controls each unit constituting the image reference measure. In particular, the control unit 9 performs the digest image storage unit 2, the DICOM original image storage unit 3, the operation unit 4, the display unit 5, the learning unit in the DICOM original image classification / digest image generation and search image organization (both described later). The classification unit 7 and the search space organization unit 8 are controlled in an integrated manner.

図2は、学習・分類部7、探索空間組織化部8の構成を説明するためのブロック図である。同図に示すように、学習・分類部7は、自己学習部11、部分問題分割部13、部分問題学習部15、再学習判断部17を有している。また、探索空間組織化部8は、探索空間管理部19、ダイジェスト画像生成部21、接続情報テーブル作成部23、SOM管理ラベル生成部25、画像対応部27を有している。   FIG. 2 is a block diagram for explaining the configuration of the learning / classifying unit 7 and the search space organizing unit 8. As shown in the figure, the learning / classification unit 7 includes a self-learning unit 11, a partial problem dividing unit 13, a partial problem learning unit 15, and a relearning determination unit 17. The search space organization unit 8 includes a search space management unit 19, a digest image generation unit 21, a connection information table generation unit 23, an SOM management label generation unit 25, and an image correspondence unit 27.

自己学習部11は、複数のMR画像を入力値としてSOMを実行し、複数の出力ユニットにマッピングすることにより、患者の所定部位の位相構造を学習する。この自己学習部11によって実行されるSOMについては、後で詳しく説明する。   The self-learning unit 11 learns the phase structure of a predetermined part of the patient by executing SOM using a plurality of MR images as input values and mapping them to a plurality of output units. The SOM executed by the self-learning unit 11 will be described in detail later.

部分問題分割部13は、自己学習部11、部分問題学習部15によるSOMで得られた写像結果(複数の出力ユニット)を二つの部分問題に分割する。ここで、部分問題とは、さらに階層的に展開されるSOMの対象を意味する。この分割は、所定のルールに従って、SOM毎に取得されるダイジェスト画像間の類似度を示す相関係数を比較することにより実行される。   The subproblem dividing unit 13 divides the mapping result (a plurality of output units) obtained by SOM by the self-learning unit 11 and the partial problem learning unit 15 into two subproblems. Here, the partial problem means a target of SOM that is further expanded hierarchically. This division is performed by comparing correlation coefficients indicating the similarity between digest images acquired for each SOM according to a predetermined rule.

部分問題学習部15は、部分問題分割部13によって分割された各部分問題に属するDICOM原画像を入力値としてSOMを実行し、複数の出力ユニットにマッピングすることにより、患者の所定部位の位相構造を再学習する。この再学習は、再学習判断部17の判断結果に応じて、繰り返し実行される。   The subproblem learning unit 15 performs SOM using the DICOM original images belonging to the subproblems divided by the subproblem dividing unit 13 as input values, and maps them to a plurality of output units. Relearn. This relearning is repeatedly executed according to the determination result of the relearning determination unit 17.

再学習判断部17は、部分問題学習部15におけるSOMによって得られたダイジェスト画像間の相関係数を比較し、SOMを用いた再学習を実施するか否かを決定する。   The relearning determination unit 17 compares the correlation coefficients between digest images obtained by the SOM in the partial problem learning unit 15 and determines whether or not to perform relearning using the SOM.

探索空間管理部19は、操作部4から入力された指示に応答して、組織化された探索空間を管理する。より具体的には、操作部4からの操作によって選択されたダイジェスト画像(又はDICOM原画像)に関連付けられたDICOM原画像(又はダイジェスト画像)を、接続情報テーブルに基づいて読み出す等の管理を実行する。   The search space management unit 19 manages the organized search space in response to an instruction input from the operation unit 4. More specifically, management such as reading a DICOM original image (or digest image) associated with a digest image (or DICOM original image) selected by an operation from the operation unit 4 based on the connection information table is executed. To do.

ダイジェスト画像生成部21は、SOMを通じて得られる重み係数を画像化したダイジェスト画像を出力ユニット毎に生成する。また、ダイジェスト画像生成部21は、生成されたダイジェスト画像間の相関係数を計算する。   The digest image generation unit 21 generates, for each output unit, a digest image obtained by imaging a weighting coefficient obtained through SOM. Moreover, the digest image generation part 21 calculates the correlation coefficient between the produced | generated digest images.

接続情報テーブル作成部23は、各ユニットに対応するダイジェスト画像と各ユニットに分類された(各ユニットを構成する)複数枚のDICOM原画像とを対応付けると共に、当該対応付けられたDICOM原画像のヘッダ情報に基づいて、どのダイジェスト画像がどのDICOM原画像に接続されているのかを示す接続情報テーブルを作成する。   The connection information table creation unit 23 associates the digest image corresponding to each unit with a plurality of DICOM original images classified into each unit (which constitute each unit), and the header of the associated DICOM original image Based on the information, a connection information table indicating which digest image is connected to which DICOM original image is created.

SOM管理ラベル生成部25は、ダイジェスト画像を線形結合してラベル画像を生成する。   The SOM management label generation unit 25 generates a label image by linearly combining the digest images.

画像対応部27は、各DICOM原画像のプライベートタグに対応するダイジェスト画像を書き込む。書き込まれたダイジェスト画像は、SOM管理ラベルとして、後述する検索処理において用いられる。   The image corresponding unit 27 writes a digest image corresponding to the private tag of each DICOM original image. The written digest image is used as a SOM management label in search processing described later.

なお、図1においては、ダイジェスト画像記憶部2、DICOM原画像記憶部3をそれぞれ別の構成としたが、これに拘泥されることなく、単一のハードウェアによって実現する構成であってもよい。また、同じく図1において、説明を解りやすくするため、自己学習部11、部分問題学習部15を別の構成要素としたが、これに拘泥されることなく、単一の学習部とするようにしてもよい。   In FIG. 1, the digest image storage unit 2 and the DICOM original image storage unit 3 have different configurations. However, the configuration may be realized by a single hardware without being limited thereto. . Similarly, in FIG. 1, the self-learning unit 11 and the sub-problem learning unit 15 are separate components for easy understanding, but the single learning unit is not limited to this. May be.

(自己組織化マップ:Self-Organizing Map)
次に、SOMについて説明する。SOMは、入力データの位相を保存し、トポロジカルなマッピングを行うものであり、その学習課程では、明示的な教師を必要としない。
(Self-Organizing Map)
Next, SOM will be described. The SOM preserves the phase of input data and performs topological mapping, and does not require an explicit teacher in the learning process.

一般のSOMは、図3に示すように、入力ユニットを含む入力層と、出力ユニットを含むマッピング層との二層からなる。典型的なSOMの学習アルゴリズムは、次の様である。   As shown in FIG. 3, a general SOM is composed of two layers: an input layer including an input unit and a mapping layer including an output unit. A typical SOM learning algorithm is as follows.

(1)wij(1≦i≦n)を時刻tにおける入力ユニットiから出力ユニットjへの重み係数とする。ユニットの重み係数を乱数で初期化し、ノードjの近傍の初期範囲を大きく設定する。 (1) Let w ij (1 ≦ i ≦ n) be a weighting factor from input unit i to output unit j at time t. The unit weighting factor is initialized with a random number, and the initial range near node j is set large.

(2)x(1≦i≦n)を時刻tにおけるノードiへの入力とする。 (2) Let x i (1 ≦ i ≦ n) be an input to node i at time t.

(3)入力データと出力ノードjとのユークリッド距離dを次の式(1)にて計算する。

Figure 2006235971
(3) the Euclidean distance d j between the input data and the output node j is calculated by the following formula (1).
Figure 2006235971

(4)ユークリッド距離dが最小となる出力ユニットを検索する。 (4) the Euclidean distance d j searches the output unit to be minimized.

(5)N(t)で定義される近傍に含まれるユニットへの重み係数を、次の式(2)にて更新する。
ij(t+1)=wij(t)+α(t)(x(t)−wij(t)) (2)
ここで、α(t)は学習率係数(0<α<1)、N(t)は近傍領域のサイズであり、時間とともに減少させる。
(5) The weighting factor for the unit included in the vicinity defined by N c (t) is updated by the following equation (2).
w ij (t + 1) = w ij (t) + α (t) (x i (t) −w ij (t)) (2)
Here, α (t) is the learning rate coefficient (0 <α <1), and N c (t) is the size of the neighboring region, and decreases with time.

(6)上記(2)〜(5)の処理を繰り返す。 (6) The processes (2) to (5) are repeated.

本実施形態に係る画像参照装置1は、上記SOMを用いて、具体的には次の様な処理を実行する。   Specifically, the image reference device 1 according to the present embodiment executes the following processing using the SOM.

(a)自己学習部11は、図4に示すように複数のDICOM原画像(例えばm枚)を入力値とし、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として、出力ユニット数が5ユニットの1次元SOMを用いて自己写像する。   (A) The self-learning unit 11 outputs a plurality of DICOM original images (for example, m images) as input values and outputs an anatomical structure as a phase characteristic of each DICOM original image with a predetermined weight Wij as shown in FIG. Self-mapping using a one-dimensional SOM with 5 units.

(b)ダイジェスト画像生成部21は、上記(a)でのSOMに用いられた重み係数を画像することで、各出力ユニットに対応するダイジェスト画像を生成する。また、ダイジェスト画像生成部21は、隣接するダイジェスト画像間の類似度を表す相関係数を計算する。   (B) The digest image generation unit 21 generates a digest image corresponding to each output unit by imaging the weighting factor used in the SOM in (a). Moreover, the digest image generation part 21 calculates the correlation coefficient showing the similarity between adjacent digest images.

(c)部分問題分割部13は、隣接するダイジェスト画像間の相関係数を比較し、相関係数が最も小さいユニットの境界で、上記(a)における写像結果を2つの部分問題に分割する(すなわち、2つのグループA1、A2に分割する)。   (C) The sub-problem dividing unit 13 compares the correlation coefficients between adjacent digest images, and divides the mapping result in (a) into two sub-problems at the boundary of the unit having the smallest correlation coefficient ( That is, it is divided into two groups A1 and A2.

(d)部分問題学習部15は、図4に示すように、部分問題分割部13によって分割されたグループA1に属する複数のDICOM原画像(例えばn枚)を入力値とし、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として、出力ユニット数が5ユニットの1次元SOMを用いて自己写像する。グループA2に属する複数のDICOM原画像(m−n枚)についても同様の処理を行う。   (D) As shown in FIG. 4, the sub-problem learning unit 15 takes a plurality of DICOM original images (for example, n images) belonging to the group A1 divided by the sub-problem dividing unit 13 as input values, and uses a predetermined weight Wij. The anatomical structure is self-mapped as a phase characteristic of each DICOM original image using a one-dimensional SOM having five output units. The same processing is performed for a plurality of DICOM original images (mn) belonging to the group A2.

(e)ダイジェスト画像生成部21は、上記(d)でのSOMに用いられた重み係数を画像することで、各出力ユニットに対応するダイジェスト画像を生成する。また、ダイジェスト画像生成部21は、生成したダイジェスト画像間の類似度を表す相関係数を計算する。   (E) The digest image generation unit 21 generates a digest image corresponding to each output unit by imaging the weighting factor used in the SOM in (d) above. Moreover, the digest image generation part 21 calculates the correlation coefficient showing the similarity between the produced | generated digest images.

(f)再学習判断部17は、グループA1についてのSOMによって得られた各出力ユニットに対応するダイジェスト画像間の相関係数を比較し、さらに階層的なSOMを用いた再学習を実施するか否かを判断する。この判断においては、マップ層ユニット間(ダイジェスト画像間)の相関係数に着目した下記の再学習ルールを採用する。なお、グループA2についても同様の処理が実行される。   (F) Whether the relearning determination unit 17 compares the correlation coefficients between the digest images corresponding to the respective output units obtained by the SOM for the group A1, and further performs the relearning using the hierarchical SOM. Judge whether or not. In this determination, the following relearning rule focusing on the correlation coefficient between map layer units (between digest images) is adopted. Similar processing is executed for the group A2.

<ルール1>相関係数の最も低い境界で、ユニットが1:4に分割される場合(図5(a)参照)。 <Rule 1> The unit is divided 1: 4 at the lowest boundary of the correlation coefficient (see FIG. 5A).

・1ユニット:独立とみなし、再学習は行わない。 • 1 unit: Considered independent and does not relearn.

・4ユニット:相関係数に関係なく再学習を行う。 -4 units: Re-learning is performed regardless of the correlation coefficient.

<ルール2>相関係数の最も低い境界で、ユニットが2:3に分割される場合(図5(b)参照)。 <Rule 2> The unit is divided into 2: 3 at the lowest boundary of the correlation coefficient (see FIG. 5B).

・1度目の学習で2:3に分割された場合、それぞれ必ず再学習を行う。 ・ When the learning is divided into 2: 3 in the first learning, re-learning is always performed.

・2ユニット:2つのユニット間の相関係数が「0.95」以上ならば、2ユニットは独立とみなし、再学習は行わない。 • 2 units: If the correlation coefficient between two units is “0.95” or more, 2 units are regarded as independent and relearning is not performed.

・2つのユニット間の相関係数が「0.95」以下ならば、再学習を行う。 If the correlation coefficient between the two units is “0.95” or less, relearning is performed.

・3ユニット:相関係数がすべて「0.95」以上ならば、3ユニットは独立とみなし、再学習は行わない。 ・ 3 units: If all correlation coefficients are “0.95” or more, 3 units are regarded as independent and relearning is not performed.

・全ての相関係数の中で「0.95」以下があれば、再学習を行う。 -If there is "0.95" or less among all correlation coefficients, relearning is performed.

<ルール3>
・操作者とのインタラクティブなやり取りの中で、「終了」を決定する。
<Rule 3>
・ Decide “end” in interactive interaction with the operator.

・発火しないユニットが出現するまで、部分問題として再学習可能。 -Re-learn as a partial problem until a unit that does not fire appears.

(g)再学習判断部17によってさらに階層的な再学習を実施すると判断された場合には、上記(c)〜(f)の処理が繰り返される。一方、再学習判断部17によってさらに階層的な再学習を実施しないと判断された場合には、DICOM原画像分類・ダイジェスト画像生成処理を終了する。   (G) When it is determined by the relearning determination unit 17 that further hierarchical relearning is to be performed, the processes (c) to (f) are repeated. On the other hand, if the re-learning determination unit 17 determines that the hierarchical re-learning is not performed, the DICOM original image classification / digest image generation process is terminated.

上記(a)〜(g)の一連の処理によって最終的に取得される複数のDICOM原画像は、図6に示すように最終的に所定の配列によって分類される。この最終結果として得られるDICOM原画像の配列は、「解剖学的構造情報の位相構造が似ている程相互に近くに配置される。」、「解剖学的構造情報の位相構造が非似である程相互に遠くに配置される。」という2つの特性をもつ。この配列の基準は、解剖学的位相構造を自己写像するSOMを用いているため、極めて客観的な基準に従ったものと言える。   The plurality of DICOM original images finally acquired by the series of processes (a) to (g) are finally classified by a predetermined arrangement as shown in FIG. The sequence of the DICOM original images obtained as a result of this is “arranged closer to each other as the phase structure of the anatomical structure information is similar”, “the phase structure of the anatomical structure information is dissimilar. It has two characteristics, “they are arranged far away from each other.” Since the SOM that self-maps the anatomical phase structure is used as the standard for this arrangement, it can be said that the standard follows an extremely objective standard.

この様に、本画像参照装置1によって実行されるSOMは、判断結果に応じて繰り返し実行される。図6に示したように、SOMの繰り返しにより展開される処理は、階層的な展開と捉えることもできる。以下、SOMの繰り返しによる階層的展開を、繰り返し回数が少なくなるに従って「上位である」とし、繰り返し回数が多くなるに従って「下位である」とする。   In this way, the SOM executed by the image reference device 1 is repeatedly executed according to the determination result. As shown in FIG. 6, the process developed by repeating SOM can be regarded as a hierarchical development. Hereinafter, the hierarchical expansion by SOM repetition is assumed to be “higher” as the number of repetitions decreases, and “lower” as the number of repetitions increases.

また、各SOMでの重み係数を用いて生成された各出力ユニットに対応するダイジェスト画像は、各出力ユニットを構成する各DICOM原画像の内容が何らかの情報として反映されており、従って出力ユニットに属する複数のDICOM原画像を代表するという特性を有する。従って、操作者は、ダイジェスト画像を観察することで、各出力ユニットを構成する多大な枚数に及ぶDICOM原画像を全て観察することなしに、各DICOM原画像の情報を間接的に取得することができる。このダイジェスト画像の特性を利用して、本画像参照装置1は、DICOM原画像の検索利便性を図っている。この内容については、後で詳しく説明する。   The digest image corresponding to each output unit generated using the weighting coefficient in each SOM reflects the contents of each DICOM original image constituting each output unit as some information, and therefore belongs to the output unit. It has the characteristic of representing a plurality of DICOM original images. Therefore, the operator can indirectly acquire the information of each DICOM original image by observing the digest image without observing all the DICOM original images of each output unit. it can. By utilizing the characteristics of the digest image, the present image reference device 1 is designed to facilitate the retrieval of the DICOM original image. This will be described in detail later.

上記(a)、(d)において実行されるSOMにおいては、写像結果として得られる出力ユニット数を5とした。これは、本実施形態に係る画像参照装置1が最大第2近傍までを考慮する一次元SOMを採用したからである(例えば、図4において、出力ユニット1及び5は、出力ユニット3から見て第2近傍となる)。しかしながら、これに拘泥されることなく、最大第n近傍までを考慮する一次元SOM(ただし、nは2以外の自然数)を採用する構成としてもよい。   In the SOM executed in the above (a) and (d), the number of output units obtained as a mapping result is five. This is because the image reference device 1 according to the present embodiment employs a one-dimensional SOM that considers up to the second vicinity (for example, in FIG. 4, the output units 1 and 5 are viewed from the output unit 3). Second neighborhood). However, it is possible to adopt a configuration in which a one-dimensional SOM (where n is a natural number other than 2) that considers up to the maximum n-th neighborhood without being bound by this.

上記(c)において、部分問題分割部13は、ダイジェスト画像間の相関係数によって5つの出力ユニットを2つの部分問題に分割している。これは、クラスタリングにおいて最も基本的な例である二分木を採用したものである。しかしながら、これに拘泥されることなく、ダイジェスト画像間の相関係数を用いてさらに複数の部分問題に分割する様にしてもよい。   In the above (c), the sub-problem dividing unit 13 divides the five output units into two sub-problems according to the correlation coefficient between the digest images. This employs a binary tree which is the most basic example in clustering. However, without being bound by this, it may be further divided into a plurality of partial problems using the correlation coefficient between digest images.

上記(f)においては、ダイジェスト画像間の相関係数値が「0.95」を基準として、再学習を行うか否かの判断を行っている。この値「0.95」は慣用に従ったものである。従って、この例に拘泥されることなく、他の基準値を採用して再学習判断を行う構成であってもよい。   In (f) above, it is determined whether or not to perform relearning based on the correlation coefficient value between digest images being “0.95”. This value “0.95” is in accordance with conventional usage. Accordingly, a configuration may be adopted in which the re-learning determination is performed using another reference value without being limited to this example.

(DICOM原画像の分類とダイジェスト画像の生成)
次に、SOMを用いて実現されるDICOM原画像の分類とダイジェスト画像の生成について説明する。
(Dicom original image classification and digest image generation)
Next, classification of a DICOM original image and generation of a digest image realized using SOM will be described.

図7は、本画像参照装置1によりDICOM原画像の分類・ダイジェスト画像の生成において実行される各処理の流れを示したフローチャートである。同図に示すように、まず、操作部4からの「自己学習・分類開始」の操作に応答して、磁気共鳴映像装置によって取得された複数のDICOM原画像が、探索空間管理部19を介して自己学習部11に入力される(ステップS1)。   FIG. 7 is a flowchart showing the flow of each process executed in the DICOM original image classification / digest image generation by the image reference apparatus 1. As shown in the figure, first, in response to a “self-learning / classification start” operation from the operation unit 4, a plurality of DICOM original images acquired by the magnetic resonance imaging apparatus are passed through the search space management unit 19. Are input to the self-learning unit 11 (step S1).

次に、自己学習部11は、マップ層ユニット(出力ユニット)が5ユニットの一次元SOMを用いて、自己写像を実行する(ステップS2)。ダイジェスト画像生成部21は、SOMの重み係数を画像化して、各出力ユニットに対応するダイジェスト画像を生成すると共に(ステップS3)、生成したダイジェスト画像間の相関係数を計算する(ステップS4)。   Next, the self-learning unit 11 performs self-mapping using a one-dimensional SOM with five map layer units (output units) (step S2). The digest image generation unit 21 images the SOM weighting coefficient to generate a digest image corresponding to each output unit (step S3), and calculates a correlation coefficient between the generated digest images (step S4).

次に、部分問題分割部13は、隣接するダイジェスト画像間の相関係数を比較し、相関係数が最も小さいユニットの境界で、ステップS2における写像結果を2つの部分問題に分割する(2つのグループA1、A2に分割する。ステップS5)。また、部分問題分割部13は、実行されたSOMが1回目であるか否かを判定し(ステップS6)する。部分問題分割部13によってSOMが一回目であると判定された場合には、部分問題学習部15は、分割された各グループにつき、それぞれを構成するDICOM原画像を入力値としたマップ層ユニット(出力ユニット)が5ユニットの一次元SOMを用いて自己写像を実行し(ステップS2)、ステップS3〜S5の処理を繰り返す(ステップS3〜S5)。   Next, the sub-problem dividing unit 13 compares the correlation coefficients between the adjacent digest images, and divides the mapping result in step S2 into two sub-problems at the boundary of the unit having the smallest correlation coefficient (two Dividing into groups A1 and A2, step S5). Further, the sub-problem dividing unit 13 determines whether or not the executed SOM is the first time (step S6). If the sub-problem dividing unit 13 determines that the SOM is the first time, the sub-problem learning unit 15 uses, for each divided group, a map layer unit (with a DICOM original image constituting each input value) The output unit) performs self-mapping using 5 units of one-dimensional SOM (step S2), and repeats the processes of steps S3 to S5 (steps S3 to S5).

一方、部分問題分割部13によって実行されたSOMが1回目でないと判定した場合(すなわち、SOMが部分問題学習部15によって実行されたものである場合)には、再学習判断部17は、SOMの繰り返しを終了するか否かを判断する(ステップS7)。SOMの繰り返しを終了すると判断した場合には、本DICOM原画像分類・ダイジェスト画像生成は終了する。また、SOMの繰り返しを終了しないと判断した場合には、再学習判断部17は、上記(f)のルールに従って、各出力ユニットに対応するダイジェスト画像間の相関係数を比較し、さらに階層的なSOMを用いた再学習を実施するか否かを判断し(ステップS8、S9、S10)、部分問題学習部15において再学習が実行され(ステップS2)、さらにステップS3〜S5の処理を繰り返す(ステップS3〜S5)。   On the other hand, when it is determined that the SOM executed by the partial problem dividing unit 13 is not the first time (that is, when the SOM is executed by the partial problem learning unit 15), the re-learning determining unit 17 It is determined whether or not to end the repetition (step S7). If it is determined that the SOM repetition is to be terminated, the DICOM original image classification / digest image generation is terminated. When it is determined that the repetition of SOM is not completed, the relearning determination unit 17 compares the correlation coefficients between the digest images corresponding to the output units according to the rule (f), and further hierarchically It is determined whether or not to perform re-learning using a simple SOM (steps S8, S9, and S10), re-learning is executed in the partial problem learning unit 15 (step S2), and the processes of steps S3 to S5 are repeated. (Steps S3 to S5).

次に、再学習判断部17は、発火しない出力ユニットが存在すると判断した場合には、対象問題に対するユニット数とダイジェスト画像とを決定し(ステップS13)、DICOM原画像分類・ダイジェスト画像生成処理を終了する。   Next, when it is determined that there is an output unit that does not fire, the relearning determination unit 17 determines the number of units and the digest image for the target problem (Step S13), and performs DICOM original image classification / digest image generation processing. finish.

(ダイジェスト画像を用いた探索空間の組織化)
次に、生成されたダイジェスト画像を用いた探索空間の組織化について説明する。ここで、探索空間とは、概念的には複数のDICOM原画像が存在する抽象的空間であり、検査ID、シリーズID、撮影部位、強調種、撮影方向、スライス番号等の種々の情報を座標軸とするものである。一方、実体的には、探索空間とは、種々のタグ情報が付された複数のDICOM原画像が存在するDICOM原画像記憶部3のメモリ領域を意味する。また、ダイジェスト画像を用いた探索空間の組織化とは、各SOMに対応するダイジェスト画像を用いて複数のDICOM原画像を組織化(体系化)することで、DICOM原画像記憶部3に記憶されたDICOM原画像の検索を容易にするものである。
(Organization of search space using digest images)
Next, organization of the search space using the generated digest image will be described. Here, the search space is conceptually an abstract space in which a plurality of DICOM original images exist, and various types of information such as examination ID, series ID, imaging region, enhancement type, imaging direction, slice number, etc. are coordinate axes. It is what. On the other hand, the search space actually means a memory area of the DICOM original image storage unit 3 where a plurality of DICOM original images with various tag information are present. The search space organization using the digest image is stored in the DICOM original image storage unit 3 by organizing (systemizing) a plurality of DICOM original images using the digest image corresponding to each SOM. The DICOM original image can be easily retrieved.

図8は、探索空間の組織化において本画像参照装置1により実行される処理の流れを示したフローチャートである。同図に示すように、画像対応部27は、各SOMによって得られた各出力ユニットに対応するダイジェスト画像と、当該各ユニットに分類された複数枚のDICOM原画像との対応付けを行う(ステップA)。この対応付けは、画像対応部27が、例えばDICOM原画像記憶部3に記憶されている各DICOM原画像のヘッダ情報中のプライベートタグに、分類されたユニットに対応するダイジェスト画像を付することで実行される。従って、学習・分類部7においてSOMの階層がk層まで実行された場合には、各DICOM原画像にはk個のダイジェスト画像が付されることになる。   FIG. 8 is a flowchart showing a flow of processing executed by the image reference device 1 in organizing the search space. As shown in the figure, the image correspondence unit 27 associates a digest image corresponding to each output unit obtained by each SOM with a plurality of DICOM original images classified into each unit (step) A). For this association, the image correspondence unit 27 attaches a digest image corresponding to the classified unit to the private tag in the header information of each DICOM original image stored in the DICOM original image storage unit 3, for example. Executed. Therefore, when the learning / classification unit 7 executes up to k layers of SOM, k DIGITAL images are added to each DICOM original image.

次に、接続情報テーブル作成部23は、画像対応部27によって対応付けられたDICOM原画像のヘッダ情報に基づいて、接続情報テーブルを作成する(ステップB)。   Next, the connection information table creation unit 23 creates a connection information table based on the header information of the DICOM original image associated by the image correspondence unit 27 (step B).

図9は、接続情報テーブル作成部23によって作成される接続テーブルの一例を説明するための図である。例えば、原画像情報テーブル30の一段目に記載された特性を有するMR画像をDICOM原画像として入力し、既述のDICOM原画像の分類とダイジェスト画像の生成処理を実行した場合を想定する。係る場合に、接続情報テーブル作成部23は、画像対応部27によって対応付けられたDICOM原画像のヘッダ情報に基づいて、例えばダイジェスト画像とDICOM原画像とを相互に関連づける接続情報テーブル31(ダイジェスト画像をラベルとして管理されるテーブル)、接続情報テーブル32(DICOM原画像をラベルとして管理されるテーブル)を作成する。   FIG. 9 is a diagram for explaining an example of a connection table created by the connection information table creation unit 23. For example, it is assumed that an MR image having the characteristics described in the first stage of the original image information table 30 is input as a DICOM original image, and the above-described DICOM original image classification and digest image generation processing is executed. In such a case, the connection information table creation unit 23, for example, a connection information table 31 (digest image) that correlates a digest image and a DICOM original image with each other based on the header information of the DICOM original image associated with the image correspondence unit 27. And a connection information table 32 (a table managed with a DICOM original image as a label).

なお、上記接続情報テーブル31、接続情報テーブル32は一例であり、接続情報テーブル作成部23が実際に作成する接続情報テーブルには図9に示すように、現物のダイジェスト画像等が張り付けられている必要はない。従って、ダイジェスト画像とDICOM原画像とを相互に関連づけるものであれば、どのような形態であってもよく、例えば図9に示した接続情報テーブル31と、図10に示した接続情報テーブル33とを作成する構成であってもよい。   The connection information table 31 and the connection information table 32 are examples, and the actual digest image and the like are pasted to the connection information table actually created by the connection information table creating unit 23 as shown in FIG. There is no need. Therefore, any form may be used as long as the digest image and the DICOM original image are associated with each other. For example, the connection information table 31 shown in FIG. 9 and the connection information table 33 shown in FIG. It may be configured to create.

次に、SOM管理ラベル生成部25は、各SOMにおいて生成される5つのダイジェスト画像を線形結合(重み付け加算処理)し、ダイジェスト画像を管理・識別するためのラベル画像を生成する(ステップC)。このラベル画像は、例えばダイジェスト画像記憶部2に自動的に記憶される。   Next, the SOM management label generation unit 25 linearly combines the five digest images generated in each SOM (weighted addition process), and generates a label image for managing and identifying the digest image (step C). This label image is automatically stored in the digest image storage unit 2, for example.

本画像参照装置1によって実行されるSOMは、解剖学的構造情報を各DICOM原画像の位相特性として自己写像するものである。そのため、SOM処理が進むにつれ(すなわち、SOMの階層が進むにつれ)、入力されたDICOM原画像は、撮影方向、画像強調種、部位等によって自然に分類されることになる。従って、各SOMに対応するダイジェスト画像の線形結合で得られるラベル画像は、撮影方向、画像強調種、部位等の画像の属性を象徴するものであり、どのSOMがどの属性を含むDICOM原画像を入力としているかを象徴するものであるため、当該ラベル画像を利用することで、ダイジェスト画像の管理をより容易にすることが可能である。   The SOM executed by the image reference apparatus 1 self-maps anatomical structure information as phase characteristics of each DICOM original image. Therefore, as the SOM process progresses (that is, as the SOM hierarchy progresses), the input DICOM original image is naturally classified according to the shooting direction, image enhancement type, part, and the like. Therefore, the label image obtained by linear combination of the digest images corresponding to each SOM symbolizes the image attributes such as the photographing direction, the image enhancement type, the region, etc., and which DICOM original image includes which attribute. Since it is a symbol of whether or not it is input, it is possible to manage the digest image more easily by using the label image.

図11は、本ダイジェスト画像を用いた探索空間の組織化処理によって得られる結果を説明するための概念図である。同図に示すように、DICOM原画像とダイジェスト画像とは接続情報テーブルにより関連付けられ、ラベル画像とダイジェスト画像とは線形結合によって関連付けられている。操作者は、頭部を対象としたダイジェスト画像からなるラベル画像(又は、T2強調画像と対象としたダイジェスト画像からなるラベル画像、前額断を対象としたダイジェスト画像からなるラベル画像)によって、当該ラベル画像を構成するダイジェスト画像に対応付けられたDIOCM原画像が、頭部を対象としたもの(又は、T2強調画像と対象としたもの、前額断を対象としたもの)であることを、即座に判断することができる。   FIG. 11 is a conceptual diagram for explaining a result obtained by the search space organization process using the digest image. As shown in the figure, the DICOM original image and the digest image are associated by the connection information table, and the label image and the digest image are associated by linear combination. The operator uses the label image composed of the digest image targeted for the head (or the label image composed of the T2-weighted image and the digest image targeted, the label image composed of the digest image targeted for the pre-payment). The DIOCM original image associated with the digest image that constitutes the label image is for the head (or for the T2-weighted image and for the forehead). Judgment can be made immediately.

なお、本処理により組織化された探索空間へのアクセスは、どの様な形態であってもよい。例えば、操作者は、まずラベル画像によって画像に関する所望の属性(例えば、「頭部前額断に関するT2強調画像」等)を選択することで、図12に示すようなインターフェースにて組織化された探索空間を提示する構成であってもよい。同図においては、画面右上に表示された複数のダイジェスト画像のうちのいずれかを選択すると、接続情報テーブルによって当該ダイジェスト画像に関連付けられたDICOM原画像のサムネイル画像が画面右下に表示される。このサムネイル画像のうち、所望のDICOM原画像を選択することで、画面左側に当該DICOM原画像をフル画像(すなわち、圧縮や間引きされていない画像)として表示することができる。この様に必要に応じてサムネイル画像を用いることで、ダイジェスト画像に対応する大量のDICOM原画像の中から、診断画像をより迅速に選択することが可能となる。   The access to the search space organized by this process may take any form. For example, the operator first selects a desired attribute related to the image (for example, “T2-weighted image related to the pre-head cut”) by the label image, and is organized in an interface as shown in FIG. The structure which presents search space may be sufficient. In the figure, when one of a plurality of digest images displayed on the upper right of the screen is selected, a thumbnail image of the DICOM original image associated with the digest image is displayed on the lower right of the screen by the connection information table. By selecting a desired DICOM original image among the thumbnail images, the DICOM original image can be displayed as a full image (that is, an image that has not been compressed or thinned out) on the left side of the screen. In this way, by using thumbnail images as necessary, it is possible to more quickly select a diagnostic image from a large number of DICOM original images corresponding to a digest image.

以上述べた構成によれば、以下の効果を得ることができる。   According to the configuration described above, the following effects can be obtained.

本画像参照装置によれば、複数のDICOM原画像を入力値として、所定の重み付けWijによって解剖学的構造を各DICOM原画像の位相特性として自己写像するSOMを繰り返し実行する。これにより、最終的に取得される複数のDICOM原画像の配列は、「解剖学的構造情報の位相構造が似ている程近くに配置される。」、「解剖学的構造情報の位相構造が非似である程遠くに配置される。」という2つの特性をもつ。従って、未整理、未分類の多量のDICOM原画像を客観的基準に従って自動的に分類することができ、人為的負担を軽減することができる。また、解剖学的位相構造に基づく新たな画像配列(画像分類)を提供できるため、人為的配列(分類)に比してばらつきがなく互換性が高い。その結果、医療行為の質の向上に貢献することができる。   According to this image reference apparatus, SOM for self-mapping an anatomical structure as a phase characteristic of each DICOM original image with a predetermined weight Wij is repeatedly executed with a plurality of DICOM original images as input values. As a result, the array of the plurality of DICOM original images finally obtained is arranged so that the phase structure of the anatomical structure information is similar, and “the phase structure of the anatomical structure information is the same. The dissimilarity is placed farther away. ” Accordingly, it is possible to automatically classify a large amount of unsorted and unclassified DICOM original images according to an objective standard, thereby reducing an artificial burden. In addition, since a new image arrangement (image classification) based on the anatomical phase structure can be provided, there is no variation compared to the artificial arrangement (classification), and compatibility is high. As a result, it is possible to contribute to improving the quality of medical practice.

特に、最終的に取得される複数のDICOM原画像の配列は、「解剖学的構造情報の位相構造が似ている程近くに配置される。」、「解剖学的構造情報の位相構造が非似である程遠くに配置される。」という特性をもつため、操作者は、システムが判断した類似度の定量的な性質、検索結果相互の類似性(秩序)を判断することができる。   In particular, an array of a plurality of DICOM original images finally obtained is arranged so that the topological structure of the anatomical structure information is similar. Therefore, the operator can determine the quantitative nature of the similarity determined by the system and the similarity (order) between the search results.

また、本画像参照装置は、各出力ユニットに対応するダイジェスト画像を用いて探索空間を組織化し、ダイジェスト画像を用いたDICOM原画像の検索を可能としている。従って、ダイジェスト画像を指標として視覚的に検索対象を確認でき、検索の進行具合を確かめつつ適切且つ迅速に所望のDICOM原画像にアクセスすることができる。その結果、読影医等の作業負担を軽減させることができると共に、診断画像の選択ミス等の誘発を防止することができ、医療行為の質の向上に貢献することができる。   In addition, the present image reference device organizes a search space using digest images corresponding to each output unit, and enables retrieval of DICOM original images using the digest images. Therefore, the search target can be visually confirmed using the digest image as an index, and the desired DICOM original image can be accessed appropriately and quickly while checking the progress of the search. As a result, it is possible to reduce the work burden on the interpreting doctor and the like, and to prevent a mistake in selecting a diagnostic image, and to contribute to improving the quality of medical practice.

また、本画像参照装置によれば、ダイジェスト画像を検索対象とすることができる。従って、個人情報であるDICOM原画像に直接アクセスする回数を削減でき、プライバシーの安全性を確保することができる。   Further, according to the present image reference device, a digest image can be set as a search target. Therefore, the number of direct accesses to the DICOM original image that is personal information can be reduced, and the safety of privacy can be ensured.

また、近年、医用画像機器の高度化に伴って、医用画像の質および量において情報量が飛躍的に増大しており、一回の撮影でスライス画像を数十枚から百枚程度も取得することができる。一方、それらの画像から診断目的に沿った関心画像を選択しながら読影し、更に、現在の画像と過去の画像とを比較読影する必要性が高まっており、医師の負担は、膨大の一途をたどっている。例えば、初期の癌等の微小な病巣を発見するには、経時的変化を調べることが重要である。この様な現況において、ダイジェスト画像を用いたサムネイル表示を行うことで、比較読影の対象画像を効率的に表示することが可能となり、医師の負担を軽減できる。発明の基盤となるダイジェスト画像生成法は、未分類・未整理のマルチメディアDBを自動的に分類・整理できる可能性を有することから、マルチメディアデータ検索の基礎となる可能性有する。   In recent years, with the advancement of medical imaging equipment, the amount of information has increased dramatically in terms of the quality and quantity of medical images, and several tens to hundreds of slice images can be acquired in one shot. be able to. On the other hand, there is an increasing need to interpret images while selecting images of interest according to the purpose of diagnosis from those images, and to compare and interpret current images and past images, and the burden on doctors is enormous. I'm following. For example, it is important to examine changes over time in order to find minute lesions such as early cancer. In such a current situation, by performing thumbnail display using the digest image, it is possible to efficiently display the target image for comparative interpretation, thereby reducing the burden on the doctor. The digest image generation method that forms the basis of the invention has the possibility of automatically classifying and organizing unclassified and unorganized multimedia DBs, and therefore has the possibility of becoming a basis for multimedia data retrieval.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。具体的な変形例としては、例えば次のようなものがある。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Specific examples of modifications are as follows.

(1)本実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することも可能である。このとき、図2に示した学習・分類部7及び探索空間組織化部8の少なくとも一方の構成が、展開されたプログラムによって医用ワークステーションのメモリ領域に構築されることになる。   (1) Each function according to the present embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and developing the program on a memory. Programs that can cause the computer to execute the method are stored and distributed in a recording medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. Is also possible. At this time, at least one of the configuration of the learning / classifying unit 7 and the search space organizing unit 8 shown in FIG. 2 is constructed in the memory area of the medical workstation by the developed program.

(2)上記実施形態では、画像と通信に関する規格としてDICOMを利用した原画像を用いて、そのヘッダ情報(付帯情報)を利用する例を説明した。しかしながら、DICOM規格は必須ではなく、他の規格であれば、それに従って付された画像に関する付帯情報を利用することで、同様の効果を得ることができる。   (2) In the above-described embodiment, an example has been described in which an original image using DICOM is used as a standard for images and communication, and header information (accompanying information) is used. However, the DICOM standard is not essential, and if it is another standard, the same effect can be obtained by using the incidental information regarding the image attached according to the standard.

(3)上記実施形態では、説明を具体的にするために、分類・検索対象とする画像として所定患者の複数の脳画像(MR画像)を用いて説明した。しかしながら、これに限定する趣旨ではなく、例えばX線CT装置等の他のモダリティによって収集されたDICOM原画像、複数のモダリティによって収集された画像が混在するDICOM原画像、解剖学的見地から標準化された模式的画像、アニメーション画像等を分類・検索対象とする画像とする構成であってもよい。また、異なる撮影部位、強調種、撮影方向が混在するものを分類・検索対象とする構成であってもよい。   (3) In the above-described embodiment, the description has been given using a plurality of brain images (MR images) of a predetermined patient as an image to be classified and searched for specific description. However, the present invention is not limited to this, and is standardized from DICOM original images collected by other modalities such as an X-ray CT apparatus, DICOM original images in which images collected by a plurality of modalities are mixed, and anatomical viewpoints. Alternatively, a schematic image, an animation image, or the like may be used as an image to be classified and searched. Moreover, the structure which makes a classification / search object the thing from which a different imaging | photography site | part, emphasis kind, and imaging | photography direction coexist may be sufficient.

また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

以上本発明によれば、客観性及び互換性の高い分類・検索、及び人為的作業負担が少なく所望の画像に容易にアクセスすることができる分類・検索を実行可能な画像参照装置及び画像分類検索方法を実現することができる。   As described above, according to the present invention, an image reference device and an image classification search capable of executing classification / retrieval with high objectivity and compatibility, and classification / retrieval that can easily access a desired image with less human work load. A method can be realized.

図1は、本実施形態に係る画像参照装置1の構成を説明するためのブロック図を示している。FIG. 1 is a block diagram for explaining the configuration of an image reference device 1 according to this embodiment. 図2は、学習・分類部7、探索空間組織化部8の構成を説明するためのブロック図である。FIG. 2 is a block diagram for explaining the configuration of the learning / classifying unit 7 and the search space organizing unit 8. 図3は、一般的なSOMを説明するための図である。FIG. 3 is a diagram for explaining a general SOM. 図4は、本画像参照装置1が実行するSOMを説明するための図である。FIG. 4 is a diagram for explaining the SOM executed by the image reference apparatus 1. 図5は、再学習判断部17が実行する判断におけるルールを説明するための概念図である。FIG. 5 is a conceptual diagram for explaining rules in the determination executed by the relearning determination unit 17. 図6は、本実施形態に係る画像参照装置1のSOMを用いた処理によって得られる最終結果の一例を示した図である。FIG. 6 is a diagram illustrating an example of a final result obtained by processing using the SOM of the image reference device 1 according to the present embodiment. 図7は、本画像参照装置1によりDICOM原画像の分類・ダイジェスト画像の生成において実行される各処理の流れを示したフローチャートである。FIG. 7 is a flowchart showing the flow of each process executed in the DICOM original image classification / digest image generation by the image reference apparatus 1. 図8は、探索空間の組織化において本画像参照装置1により実行される処理の流れを示したフローチャートである。FIG. 8 is a flowchart showing a flow of processing executed by the image reference device 1 in organizing the search space. 図9は、接続情報テーブル作成部23によって作成される接続テーブルの一例を説明するための図である。FIG. 9 is a diagram for explaining an example of a connection table created by the connection information table creation unit 23. 図10は、接続情報テーブル作成部23によって作成される接続テーブルの他の例を説明するための図である。FIG. 10 is a diagram for explaining another example of the connection table created by the connection information table creation unit 23. 図11は、ダイジェスト画像を用いた探索空間の組織化処理によって得られる結果を説明するための概念図である。FIG. 11 is a conceptual diagram for explaining a result obtained by search space organization processing using a digest image. 図12は、組織化された探索空間を提示するインターフェースの一例を示した図である。FIG. 12 is a diagram illustrating an example of an interface for presenting an organized search space. 図13は、従来の画像管理における典型的な処理の流れを示した図である。FIG. 13 is a diagram showing a typical processing flow in conventional image management.

符号の説明Explanation of symbols

1…画像参照装置
2…ダイジェスト画像記憶部
3…DICOM原画像記憶部
4…操作部
5…表示部
6…送受信部
7…学習・分類部
8…探索空間組織化部
11…自己学習部
13…部分問題分割部
15…部分問題学習部
17…再学習判断部
18…探索空間組織化部
19…探索空間管理部
21…ダイジェスト画像生成部
23…接続情報テーブル作成部
25…SOM管理ラベル生成部
27…画像対応部
DESCRIPTION OF SYMBOLS 1 ... Image reference apparatus 2 ... Digest image memory | storage part 3 ... DICOM original image memory | storage part 4 ... Operation part 5 ... Display part 6 ... Transmission / reception part 7 ... Learning / classification part 8 ... Search space organization part 11 ... Self-learning part 13 ... Sub-problem dividing unit 15 ... sub-problem learning unit 17 ... re-learning determining unit 18 ... search space organizing unit 19 ... search space managing unit 21 ... digest image generating unit 23 ... connection information table generating unit 25 ... SOM management label generating unit 27 ... Image corresponding part

Claims (7)

被検体の所定部位に関する複数の第1の画像を記憶する記憶手段と、
前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する自己写像手段と、
前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する画像生成手段と、
計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する分割手段と、
前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する判断手段と、を具備し、
前記判断手段が前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返すこと、
を具備することを特徴とする画像参照装置。
Storage means for storing a plurality of first images relating to a predetermined part of the subject;
The plurality of first images are input, and self-mapping is performed with the anatomical structure of the predetermined site as a phase characteristic of each first image by a predetermined weighting factor, and each of the classified first images is classified. Self-mapping means for classifying the plurality of input first images by outputting a plurality of output units composed of one image;
A second image corresponding to each output unit is generated by imaging the predetermined weight coefficient used for the self-mapping, and a correlation coefficient indicating a similarity between the second images is calculated. Image generating means for
Dividing means for dividing the obtained plurality of output units into at least two groups based on the calculated correlation coefficient;
A judgment means for judging whether or not to repeatedly execute the self-mapping based on the result of the self-mapping, the calculated correlation coefficient, and the result of the division;
If the determination means determines that the self-mapping is repeatedly performed, the self-mapping, the generation of the second image, the calculation of the correlation coefficient, the division, and the determination are repeated.
An image reference device comprising:
前記各出力ユニットに対応する前記第2の画像と当該各出力ユニットを構成する前記第1の画像とを対応付けた接続情報テーブルを作成する接続情報作成手段と、
前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための選択手段と、
前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する検索手段と、
検索された前記第1の画像を出力する出力手段と、
をさらに具備する請求項1記載の画像参照装置。
Connection information creating means for creating a connection information table in which the second image corresponding to each output unit and the first image constituting each output unit are associated with each other;
Selecting means for selecting any one of the second images corresponding to each output unit;
Search means for searching for the first image constituting the output unit corresponding to the second image selected from the storage means based on the connection information table;
Output means for outputting the searched first image;
The image reference device according to claim 1, further comprising:
被検体の所定部位に関する複数の第1の画像と、
前記複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性として、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力する自己写像に用いられる前記所定の重み係数を画像化することで、当該自己写像によって得られる複数の出力ユニットのそれぞれ第2の画像と、
前記各出力ユニットに対応する前記第2の画像と当該各出力ユニットを構成する前記第1の画像とを対応付けた接続情報テーブルと、
を記憶する記憶手段と、
前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための選択手段と、
前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する検索手段と、
検索された前記第1の画像を出力する出力手段と、
を具備する画像参照装置。
A plurality of first images relating to a predetermined portion of the subject;
The plurality of first images are input, and the anatomical structure of the predetermined portion is constituted by the first images classified as phase characteristics of the first images by a predetermined weighting factor. A second image of each of the plurality of output units obtained by the self-mapping by imaging the predetermined weight coefficient used for self-mapping that outputs the plurality of output units;
A connection information table in which the second image corresponding to each output unit is associated with the first image constituting each output unit;
Storage means for storing
Selecting means for selecting any one of the second images corresponding to each output unit;
Search means for searching for the first image constituting the output unit corresponding to the second image selected from the storage means based on the connection information table;
Output means for outputting the searched first image;
An image reference device comprising:
前記第1の画像は、磁気共鳴映像装置、X線CT装置、超音波診断装置、核医学診断装置、X線診断装置その他の医用画像機器によって取得された画像であることを特徴とする請求項1乃至3のうちいずれか一項記載の画像参照装置。   The first image is an image acquired by a magnetic resonance imaging apparatus, an X-ray CT apparatus, an ultrasonic diagnostic apparatus, a nuclear medicine diagnostic apparatus, an X-ray diagnostic apparatus, or other medical imaging equipment. The image reference device according to any one of 1 to 3. 被検体の所定部位に関する複数の第1の画像を入力とし、所定の重み係数によって前記所定部位の解剖学的構造を前記各第1の画像の位相特性とする自己写像を実行して、それぞれが分類された前記第1の画像から構成される複数の出力ユニットを出力することで、入力した前記複数の第1の画像を分類する第1のステップと、
前記自己写像に用いられる前記所定の重み係数を画像化することで、前記各出力ユニットに対応する第2の画像を生成すると共に、当該第2の画像間の類似度を示す相関係数を計算する第2のステップと、
計算された前記相関係数に基づいて、取得された前記複数の出力ユニットを少なくとも2つのグループに分割する第3のステップと、
前記自己写像の結果、計算された前記相関係数、前記分割の結果に基づいて、前記自己写像を繰り返し実行するか否かを判断する第4のステップと、
前記第4のステップにおいて前記自己写像を繰り返し実行すると判断した場合には、前記自己写像、前記第2の画像の生成、前記相関係数の計算、前記分割、前記判断を繰り返す第5のステップと、
を具備することを特徴とする画像分類検索方法。
A plurality of first images related to a predetermined part of the subject are input, and self-mapping is performed with the anatomical structure of the predetermined part as a phase characteristic of each first image by a predetermined weighting factor. A first step of classifying the input plurality of first images by outputting a plurality of output units composed of the classified first images;
A second image corresponding to each output unit is generated by imaging the predetermined weight coefficient used for the self-mapping, and a correlation coefficient indicating a similarity between the second images is calculated. A second step of:
A third step of dividing the obtained plurality of output units into at least two groups based on the calculated correlation coefficient;
A fourth step of determining whether or not to repeatedly execute the self-mapping based on the result of the self-mapping, the calculated correlation coefficient, and the result of the division;
If it is determined that the self-mapping is repeatedly executed in the fourth step, a fifth step of repeating the self-mapping, generation of the second image, calculation of the correlation coefficient, division, and the determination; ,
An image classification search method comprising:
前記各出力ユニットに対応する前記第2の画像と当該各出力ユニットを構成する前記第1の画像とを対応付けた接続情報テーブルを作成する第6のステップと、
前記各出力ユニットに対応する前記第2の画像のうちのいずれかを選択するための第7のステップと、
前記接続情報テーブルに基づいて、前記記憶手段から選択された前記第2の画像に対応する前記出力ユニットを構成する前記第1の画像を検索する第8のステップと、
検索された前記第1の画像を出力する第9のステップと、
をさらに具備する請求項5記載の画像分類検索方法。
A sixth step of creating a connection information table in which the second image corresponding to each output unit and the first image constituting each output unit are associated with each other;
A seventh step for selecting one of the second images corresponding to each output unit;
An eighth step of searching for the first image constituting the output unit corresponding to the second image selected from the storage means based on the connection information table;
A ninth step of outputting the searched first image;
The image classification search method according to claim 5, further comprising:
前記第1の画像は、磁気共鳴映像装置、X線CT装置、超音波診断装置、核医学診断装置、X線診断装置その他の医用画像機器によって取得された画像であることを特徴とする請求項5又は6記載の画像分類検索方法。   The first image is an image acquired by a magnetic resonance imaging apparatus, an X-ray CT apparatus, an ultrasonic diagnostic apparatus, a nuclear medicine diagnostic apparatus, an X-ray diagnostic apparatus, or other medical imaging equipment. 5. The image classification search method according to 5 or 6.
JP2005049320A 2005-02-24 2005-02-24 Image referencing apparatus and method for classifying and searching for image Pending JP2006235971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005049320A JP2006235971A (en) 2005-02-24 2005-02-24 Image referencing apparatus and method for classifying and searching for image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005049320A JP2006235971A (en) 2005-02-24 2005-02-24 Image referencing apparatus and method for classifying and searching for image

Publications (1)

Publication Number Publication Date
JP2006235971A true JP2006235971A (en) 2006-09-07

Family

ID=37043556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005049320A Pending JP2006235971A (en) 2005-02-24 2005-02-24 Image referencing apparatus and method for classifying and searching for image

Country Status (1)

Country Link
JP (1) JP2006235971A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008157640A (en) * 2006-12-20 2008-07-10 Fujifilm Ri Pharma Co Ltd Analytical method for time-serial data as to brain image data, program, and recording medium
JP2009210465A (en) * 2008-03-05 2009-09-17 Yamaguchi Univ Method of classifying cancer cell, device for classifying cancer cell, and program for classifying cancer cell
US8971601B2 (en) 2010-10-14 2015-03-03 Kabushiki Kaisha Toshiba Medical image diagnosis device and medical image processing method
JP2020527258A (en) * 2017-07-22 2020-09-03 インテリジェント ヴァイルス イメージング インコーポレイテッド An automatic, unsupervised ontological survey of structural appearance in electron micrographs

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008157640A (en) * 2006-12-20 2008-07-10 Fujifilm Ri Pharma Co Ltd Analytical method for time-serial data as to brain image data, program, and recording medium
JP2009210465A (en) * 2008-03-05 2009-09-17 Yamaguchi Univ Method of classifying cancer cell, device for classifying cancer cell, and program for classifying cancer cell
US8971601B2 (en) 2010-10-14 2015-03-03 Kabushiki Kaisha Toshiba Medical image diagnosis device and medical image processing method
JP2020527258A (en) * 2017-07-22 2020-09-03 インテリジェント ヴァイルス イメージング インコーポレイテッド An automatic, unsupervised ontological survey of structural appearance in electron micrographs

Similar Documents

Publication Publication Date Title
US11894114B2 (en) Complex image data analysis using artificial intelligence and machine learning algorithms
US11850021B2 (en) Dynamic self-learning medical image method and system
US11657087B2 (en) Surgical video retrieval based on preoperative images
US20190220978A1 (en) Method for integrating image analysis, longitudinal tracking of a region of interest and updating of a knowledge representation
JP5222082B2 (en) Information processing apparatus, control method therefor, and data processing system
US9014485B2 (en) Image reporting method
CN102497805B (en) Medical image display device, method, and program
JP7366583B2 (en) Medical information processing device, method and program
JP5173700B2 (en) Data search apparatus, control method therefor, and data search system
US20100293164A1 (en) Accessing medical image databases using medically relevant terms
CN105074708A (en) A context driven summary view of radiology findings
CA3070770A1 (en) Method and system for rule-based display of sets of images using image content derived parameters
JP2007280229A (en) Similar case retrieval device, similar case retrieval method and program
US20090138432A1 (en) Clinician-driven example-based computer-aided diagnosis
EP2054829A2 (en) Anatomy-related image-context-dependent applications for efficient diagnosis
JP5539478B2 (en) Information processing apparatus and information processing method
CN117501375A (en) System and method for artificial intelligence assisted image analysis
JP2967450B2 (en) Computer-aided image diagnosis support apparatus and method
JP7157232B2 (en) Finding Similar Images for Radiology
JP2019033924A (en) Learning data generation support device, method for operating learning data generation support device and learning data generation support program
JP2006235971A (en) Image referencing apparatus and method for classifying and searching for image
WO2020153493A1 (en) Annotation assistance device, annotation assistance method, and annotation assistance program
WO2023274599A1 (en) Methods and systems for automated follow-up reading of medical image data
Burtseva et al. SonaRes—Diagnostic decision support system for ultrasound examination
WO2021172477A1 (en) Document creation assistance device, method, and program