JP2011048481A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2011048481A
JP2011048481A JP2009194637A JP2009194637A JP2011048481A JP 2011048481 A JP2011048481 A JP 2011048481A JP 2009194637 A JP2009194637 A JP 2009194637A JP 2009194637 A JP2009194637 A JP 2009194637A JP 2011048481 A JP2011048481 A JP 2011048481A
Authority
JP
Japan
Prior art keywords
image
classification
feature information
sub
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009194637A
Other languages
Japanese (ja)
Other versions
JP5428646B2 (en
Inventor
Sukeji Kato
典司 加藤
Motofumi Fukui
基文 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2009194637A priority Critical patent/JP5428646B2/en
Publication of JP2011048481A publication Critical patent/JP2011048481A/en
Application granted granted Critical
Publication of JP5428646B2 publication Critical patent/JP5428646B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To retrieve a relevant image from among managed images without making it necessary to designate an area for paying attention about a processing object image. <P>SOLUTION: An image processing apparatus 10 is configured to learn a main classification rule to classify an image area into main classifications by using the characteristic information of a sample image area and the information of main classification designated about the sample image area as learning information and a sub-classification rule to classify the characteristic information of one or more image areas whose main classifications are matched into a plurality of sub-classifications, and to identify the main classification of each partial image area set about the processing object image based on the characteristic information extracted from the partial image area and the main classification rule, and to identify the sub-classification of each partial image area based on the main classifications of the partial image areas, the characteristic information extracted from the partial image areas and the sub-classification rule, and to generate the characteristic information based on the main classifications and the sub-classifications identified for each partial image area, and to retrieve the image having the characteristic information relevant to the generated characteristic information from among managed images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program.

CTやMRI等の医療装置により得られる画像を管理し、管理した画像を診療等に利用することがある。例えば、下記の特許文献1には、過去に診察された画像の中から、新たな診断対象の画像と類似の画像特徴を有する画像を検索する技術が開示されている。   An image obtained by a medical apparatus such as CT or MRI may be managed, and the managed image may be used for medical treatment or the like. For example, Patent Document 1 below discloses a technique for searching for an image having image characteristics similar to a new diagnosis target image from images that have been examined in the past.

特開2001−155019号公報JP 2001-155019 A

本発明の目的の一つは、処理対象の画像について注目する領域を指定する必要なしに、管理する画像の中から関連する画像を検索することができる画像処理装置及びプログラムを提供することにある。   One of the objects of the present invention is to provide an image processing apparatus and program capable of searching related images from images to be managed without having to specify a region of interest for the processing target image. .

上記目的を達成するために、請求項1に記載の画像処理装置の発明は、標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、主分類が一致する1又は複数の標本画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、処理対象の画像について複数の部分画像領域を設定する設定手段と、前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段と、を含むことを特徴とする。   In order to achieve the above object, the invention of the image processing device according to claim 1 uses the feature information of the specimen image area and the information of the main classification designated for the specimen image area as learning information. Main classification learning means for learning main classification rules to be classified into main classifications, and sub-class learning for learning sub-classification rules for classifying feature information of one or a plurality of sample image regions having the same main classification into a plurality of sub-classes Means, setting means for setting a plurality of partial image areas for an image to be processed, main classification for each of the plurality of partial image areas, feature information extracted from the partial image areas, and the main classification rule Main classification identifying means for identifying based on the sub-classification for each of the plurality of partial image areas, based on the main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule Identify A classification identifying unit; a feature information generating unit configured to generate feature information representing a feature of the image to be processed based on a main classification and a sub-classification identified for each of the plurality of partial image regions; and the feature information generation Search means for searching for management information in which one or a plurality of images and feature information are managed in association with each other, and an image having feature information related to the feature information generated by the means is included. .

また、請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記特徴情報生成手段は、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて特徴ベクトルを生成し、当該複数の部分画像領域について生成された特徴ベクトルをそれぞれ足し合わせたベクトルに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成することを特徴とする。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the feature information generating unit is characterized based on a main classification and a sub-classification identified for each of the plurality of partial image areas. A feature is generated by generating a vector and generating feature information representing the feature of the image to be processed based on a vector obtained by adding the feature vectors generated for the plurality of partial image regions.

また、請求項3に記載の発明は、請求項1に記載の画像処理装置において、前記主分類識別手段により識別された主分類に基づいて、前記複数の部分画像領域を1又は複数の画像領域群に分ける手段と、を含み、前記特徴情報生成手段は、前記1又は複数の画像領域群毎の位置と、当該画像領域群に含まれる部分画像領域について識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成することを特徴とする。   According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the plurality of partial image regions are classified into one or a plurality of image regions based on the main classification identified by the main classification identifying unit. The feature information generating means includes a position for each of the one or a plurality of image area groups, and a main classification and a sub classification identified for the partial image areas included in the image area group. Based on this, feature information representing the feature of the image to be processed is generated.

また、請求項4に記載のプログラムの発明は、コンピュータを、標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、主分類が一致する1又は複数の画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、処理対象の画像について複数の部分画像領域を設定する設定手段と、前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段として機能させるためのプログラムである。   According to a fourth aspect of the present invention, the computer classifies the image area into the main classification using the feature information of the sample image area and the information of the main classification designated for the sample image area as learning information. Main classification learning means for learning main classification rules, sub-classification learning means for learning sub-classification rules for classifying feature information of one or a plurality of image regions having the same main classification into a plurality of sub-classes, Setting means for setting a plurality of partial image areas for an image, and a main classification for identifying a main classification for each of the plurality of partial image areas based on feature information extracted from the partial image area and the main classification rule Sub-classification identification for identifying sub-classification for each of the plurality of partial image areas based on a main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule And feature information generating means for generating feature information representing the characteristics of the image to be processed based on the stage and the main classification and sub-classification identified for each of the plurality of partial image areas, and the feature information generating means This is a program for causing an image having feature information related to the generated feature information to function as search means for searching from management information in which one or a plurality of images and feature information are managed in association with each other.

請求項1及び4に記載の発明によれば、処理対象の画像について注目する領域を指定する必要なしに、管理する画像の中から関連する画像を検索することができる。   According to the first and fourth aspects of the invention, it is possible to search for a related image from among the images to be managed without having to specify a region of interest for the processing target image.

請求項2に記載の発明によれば、処理対象の画像の特徴情報に部分画像領域のそれぞれの特徴情報を反映できる。   According to the second aspect of the present invention, the feature information of each partial image region can be reflected in the feature information of the image to be processed.

請求項3に記載の発明によれば、処理対象の画像の特徴情報に画像特徴の位置情報を反映できる。   According to the third aspect of the present invention, the position information of the image feature can be reflected in the feature information of the image to be processed.

画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing apparatus. 学習モデルの一例を示す図である。It is a figure which shows an example of a learning model. 副分類の一例を示す図である。It is a figure which shows an example of a subclassification. 処理対象画像に対する処理結果の一例を示す図である。It is a figure which shows an example of the process result with respect to a process target image. 管理データの一例を示す図である。It is a figure which shows an example of management data. 学習処理のフローチャートである。It is a flowchart of a learning process. 類似画像検索処理のフローチャートである。It is a flowchart of a similar image search process. 第2の実施形態について説明する図である。It is a figure explaining 2nd Embodiment. 本発明の一態様と従来技術との類似画像検索結果の比較結果を示す図である。It is a figure which shows the comparison result of the similar image search result of 1 aspect of this invention, and a prior art.

以下、本発明を実施するための好適な実施の形態(以下、実施形態という)を、図面に従って説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments (hereinafter referred to as embodiments) for carrying out the invention will be described with reference to the drawings.

図1には、本実施形態に係る画像処理装置10の機能ブロック図を示す。図1に示されるように、画像処理装置10は、標本画像取得部12、教師情報取得部14、主分類学習部16、副分類学習部18、処理対象画像取得部20、部分画像領域設定部22、画像特徴抽出部24、主分類識別部26、副分類識別部28、特徴情報生成部30、画像管理部32、関連画像検索部34及び検索結果提示部36を備える。   FIG. 1 shows a functional block diagram of an image processing apparatus 10 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 10 includes a sample image acquisition unit 12, a teacher information acquisition unit 14, a main classification learning unit 16, a sub classification learning unit 18, a processing target image acquisition unit 20, and a partial image region setting unit. 22, an image feature extraction unit 24, a main classification identification unit 26, a sub classification identification unit 28, a feature information generation unit 30, an image management unit 32, a related image search unit 34, and a search result presentation unit 36.

上記の各部の機能は、CPU等の制御手段、メモリ等の記憶手段、外部デバイスとデータを送受信する入出力手段等を備えたコンピュータが、コンピュータ読み取り可能な情報記憶媒体に格納されたプログラムを読み込み実行することで実現されるものとしてよい。なお、プログラムは情報記憶媒体によってコンピュータたる画像処理装置10に供給されることとしてもよいし、インターネット等のデータ通信手段を介して供給されることとしてもよい。   The functions of the above-described units are such that a computer having a control unit such as a CPU, a storage unit such as a memory, and an input / output unit that transmits and receives data to and from an external device reads a program stored in a computer-readable information storage medium. It may be realized by executing. The program may be supplied to the image processing apparatus 10 which is a computer by an information storage medium, or may be supplied via a data communication unit such as the Internet.

[学習処理]
まず、画像処理装置10により行われる学習処理を実現する機能について説明する。
[Learning process]
First, a function for realizing the learning process performed by the image processing apparatus 10 will be described.

標本画像取得部12は、学習処理に用いられる標本画像を取得するものである。本実施形態では、医師により病変部位と特定された画像領域を標本画像として用いることとする。標本画像取得部12は、例えば肺疾患の場合には、気管支の肥厚、蜂窩肺、裂け目、小結節、大きな結節、すりガラス状、石灰化、のう胞性等の疾患に該当する部位を含む画像を標本画像として取得することとしてよい。   The sample image acquisition unit 12 acquires a sample image used for learning processing. In the present embodiment, an image region identified as a lesion site by a doctor is used as a specimen image. For example, in the case of a pulmonary disease, the sample image acquisition unit 12 samples an image including a part corresponding to a disease such as thickening of the bronchus, honeycomb cell, tear, small nodule, large nodule, ground glass, calcification, cystic disease, or the like. It may be acquired as an image.

教師情報取得部14は、標本画像取得部12により取得された標本画像のそれぞれが該当する主分類の情報を教師情報として取得するものである。本実施形態では、教師情報取得部14は、各標本画像が該当する疾患(蜂窩肺やすりガラス状等)を主分類(ラベル情報)として取得することとし、主分類はキーボードやマウス等の入力デバイスを用いて入力(指定)されることとしてよい。   The teacher information acquisition unit 14 acquires main classification information corresponding to each of the sample images acquired by the sample image acquisition unit 12 as teacher information. In the present embodiment, the teacher information acquisition unit 14 acquires a disease (honeycomb lung file glass or the like) corresponding to each specimen image as a main classification (label information), and the main classification is an input device such as a keyboard or a mouse. It is good also as inputting (designating) using.

主分類学習部16は、標本画像取得部12により取得された各標本画像の特徴情報と、各標本画像について教師情報取得部14により取得された主分類の情報とを学習情報として、所与の画像の特徴情報を主分類に分類する主分類規則を学習するものである。主分類学習部16は、標本画像の特徴情報と、当該標本画像の主分類情報とを組とした教師付き学習を行うものであり、学習アルゴリズムとしては例えばサポートベクタマシン等を用いることとしてよい。   The main classification learning unit 16 uses the feature information of each sample image acquired by the sample image acquisition unit 12 and the information of the main classification acquired by the teacher information acquisition unit 14 for each sample image as learning information. A main classification rule for classifying image feature information into main classifications is learned. The main classification learning unit 16 performs supervised learning using the feature information of the sample image and the main classification information of the sample image as a set. For example, a support vector machine may be used as the learning algorithm.

また、画像の特徴情報としては、画像領域内の各画素の輝度値を成分とするベクトルや、画像領域内の各画素において計算されたGaborフィルタ等の演算結果を画像領域内で平均化したデータや、輝度レベル共起行列を用いたテクスチャ特徴、画像領域内の局所点で計算された予め定められたフィルタ結果を量子化してヒストグラム化した局所特徴量等の様々な画像特徴データを用いることとしてよい。   Further, as image feature information, data obtained by averaging calculation results such as a vector having a luminance value of each pixel in the image area as a component, and a Gabor filter calculated in each pixel in the image area in the image area. And using various image feature data, such as texture features using luminance level co-occurrence matrix, and local feature quantities obtained by quantizing a predetermined filter result calculated at local points in the image area and histogramming them. Good.

副分類学習部18は、主分類が一致する画像の特徴情報に基づいて、画像を複数の副分類に分類する副分類規則を学習するものである。本実施形態では、副分類学習部18は、主分類が一致した標本画像の特徴情報の各々を、教師無しのクラスタリングアルゴリズムを用いて複数のクラスタ(副分類)に分類することとする。このように、本実施形態での副分類とは、主分類に分類された画像をさらに細かいクラスタに分類した場合における各クラスタに対応するものである。   The sub-classification learning unit 18 learns a sub-classification rule for classifying an image into a plurality of sub-classifications based on the feature information of images with the same main classification. In the present embodiment, the sub-classification learning unit 18 classifies each piece of feature information of the sample image with the matching main classification into a plurality of clusters (sub-classifications) using an unsupervised clustering algorithm. As described above, the sub-classification in the present embodiment corresponds to each cluster when images classified into the main classification are further classified into clusters.

副分類学習部18は、クラスタリングアルゴリズムとして、画像の特徴情報が連続量であればk−means法等を用いることとしてもよいし、画像の特徴情報が量子化されたものであれば、LDA(Latent Dirichret Allocation)モデル等を用いることとしてもよい。   The sub-classification learning unit 18 may use a k-means method or the like as the clustering algorithm if the feature information of the image is a continuous amount, or LDA (if the feature information of the image is quantized. A Latent Dirichret Allocation) model or the like may be used.

図2には、クラスタリングアルゴリズムとしてLDAモデル40を採用した場合の学習モデルの一例を示した。図2において、α及びβはパラメータであり、Wは特徴情報(特徴ベクトル)、Zはクラスタ(副分類)、θはWがクラスタに属する確率を表す。このLDAモデル40では、主分類が一致する各標本画像の特徴情報に基づいて、α及びβの値を学習するものであり、主分類毎にα及びβの値が学習される。なお、LDAモデル40のアルゴリズムの詳細については公知の文献(例えば、D.M.Blei, A.Y.Ng, M.I.Jordan, "Latent Dirichlet Allocation" JMLR, vol.3, pp.993-1022 (2003))に記載のものを用いることとしてよい。   FIG. 2 shows an example of a learning model when the LDA model 40 is adopted as the clustering algorithm. In FIG. 2, α and β are parameters, W is feature information (feature vector), Z is a cluster (subclass), and θ is a probability that W belongs to the cluster. In this LDA model 40, the values of α and β are learned on the basis of the feature information of each sample image having the same main classification, and the values of α and β are learned for each main classification. The details of the algorithm of the LDA model 40 are described in known literature (for example, DMBlei, AYNg, MIJordan, “Latent Dirichlet Allocation” JMLR, vol. 3, pp. 993-1022 (2003)). May be used.

図3には、主分類が蜂窩肺である画像に基づいて学習された副分類の一例を示した。図3に示した例では、画像を5つの副分類(クラスタ)に分類することとしているが、この副分類数はあくまで例示でありこの数に限られるものではない。そして、副分類数は、主分類毎に予め定めておくこととしてもよいし、予め定められた判断基準に従って副分類数を定めることとしてもよい。   FIG. 3 shows an example of the sub-classification learned based on an image in which the main classification is the honeycomb lung. In the example shown in FIG. 3, the image is classified into five sub-classifications (clusters). However, the number of sub-classifications is merely an example and is not limited to this number. Then, the number of subclasses may be determined in advance for each main class, or the number of subclasses may be determined according to a predetermined criterion.

[類似画像検索処理]
次に、画像処理装置10により行われる処理対象の診断画像と類似する画像を検索する処理を実現する機能について説明する。
[Similar image search processing]
Next, a function for realizing a process for searching for an image similar to a diagnostic image to be processed, which is performed by the image processing apparatus 10, will be described.

処理対象画像取得部20は、処理対象とする画像(以下、処理対象画像)を取得するものである。本実施形態では、処理対象画像は、診断対象の画像であって検索キーとなる画像である。また、本実施形態では、処理対象画像は、例えばCTやMRIにより肺を撮像した画像であることとしてよい。   The processing target image acquisition unit 20 acquires an image to be processed (hereinafter referred to as a processing target image). In the present embodiment, the processing target image is an image to be diagnosed and serves as a search key. In the present embodiment, the processing target image may be an image obtained by imaging the lung by CT or MRI, for example.

部分画像領域設定部22は、処理対象画像取得部20により取得された処理対象画像について複数の部分画像領域を設定するものである。本実施形態では、部分画像領域設定部22は、処理対象画像を予め定められたサイズの矩形領域に分割し、各矩形領域を部分画像領域に設定することとするが、各部分画像領域の画像特徴量が略等しくなるように部分画像領域を設定することとしてもよいし、部分画像領域同士が一部重なるように設定することとしてもよい。また、部分画像領域設定部22は、処理対象画像の全体に部分画像領域を設定することとしてもよいし、その一部に部分画像領域を設定することとしてもよい。   The partial image region setting unit 22 sets a plurality of partial image regions for the processing target image acquired by the processing target image acquisition unit 20. In this embodiment, the partial image area setting unit 22 divides the processing target image into rectangular areas of a predetermined size and sets each rectangular area as a partial image area. The partial image areas may be set so that the feature amounts are substantially equal, or the partial image areas may be set so as to partially overlap each other. Further, the partial image area setting unit 22 may set the partial image area for the entire processing target image, or may set the partial image area for a part thereof.

画像特徴抽出部24は、部分画像領域設定部22により設定された各部分画像領域について画像特徴を抽出するものである。画像特徴としては、学習処理時に標本画像について得た画像特徴と同種のデータを各部分画像領域から抽出することとする。   The image feature extraction unit 24 extracts image features for each partial image region set by the partial image region setting unit 22. As the image feature, data of the same type as the image feature obtained for the sample image during the learning process is extracted from each partial image region.

主分類識別部26は、部分画像領域について抽出した画像特徴に基づいて、各部分画像領域の主分類を識別するものである。具体的には、主分類識別部26は、主分類学習部16により学習された主分類規則に基づいて、部分画像領域について抽出した画像特徴が学習されたいずれの主分類に属するかを識別する。   The main classification identifying unit 26 identifies the main classification of each partial image area based on the image features extracted for the partial image area. Specifically, the main classification identifying unit 26 identifies, based on the main classification rule learned by the main classification learning unit 16, which main classification the image feature extracted for the partial image region belongs to. .

副分類識別部28は、各部分画像領域について抽出した画像特徴と、当該各部分画像領域について主分類識別部26により識別された主分類とに基づいて、各部分画像領域の副分類を識別するものである。具体的には、副分類識別部28は、部分画像領域について識別された主分類に基づいて副分類規則(モデル)を選択し、当該選択した副分類規則に基づいて、部分画像領域について抽出した画像特徴の副分類を識別する。例えば、LDAモデル40を用いた場合には、副分類識別部28による識別結果は、主分類に属する複数の副分類への該当確率として表される。   The sub-classification identification unit 28 identifies the sub-classification of each partial image area based on the image features extracted for each partial image area and the main classification identified by the main classification identification unit 26 for each partial image area. Is. Specifically, the sub-classification identifying unit 28 selects a sub-classification rule (model) based on the main classification identified for the partial image region, and extracts the partial image region based on the selected sub-classification rule. Identify subclasses of image features. For example, when the LDA model 40 is used, the identification result by the sub-classification identifying unit 28 is expressed as a corresponding probability to a plurality of sub-classes belonging to the main class.

特徴情報生成部30は、処理対象画像に設定された各部分画像領域についての主分類識別部26と副分類識別部28による識別結果に基づいて、当該処理対象画像の特徴情報を生成するものである。本実施形態においては、部分画像領域についての主分類及び副分類の識別結果に基づいて、部分画像領域の特徴ベクトルを生成する。   The feature information generation unit 30 generates feature information of the processing target image based on the identification result by the main classification identification unit 26 and the sub classification identification unit 28 for each partial image region set in the processing target image. is there. In the present embodiment, the feature vector of the partial image area is generated based on the identification result of the main classification and the sub classification for the partial image area.

図4には、処理対象画像50(診断画像)に対する処理結果の一例を示した。図4に示されるように、処理対象画像50には肺の断面が撮像されており、この処理対象画像には部分画像領域設定部22により複数の部分画像領域が設定されている。そして、各部分画像領域について抽出された画像特徴に対して主分類識別部26により主分類が識別され、その識別結果に基づいてさらに副分類識別部28により副分類の識別が行われる。   FIG. 4 shows an example of the processing result for the processing target image 50 (diagnostic image). As shown in FIG. 4, a lung cross section is captured in the processing target image 50, and a plurality of partial image areas are set in the processing target image by the partial image area setting unit 22. Then, the main classification is identified by the main classification identifying unit 26 for the image features extracted for each partial image region, and the sub-classification is further identified by the sub-classifying identification unit 28 based on the identification result.

図4に示されるように、部分画像領域52についての主分類が「正常」、副分類が「0.2,0.1,0.7」である場合には、この部分画像領域52についての特徴ベクトルは(0.2,0.1,0.7,0,0,0,0,0,0)として表される。なお、副分類はクラスタ数が3であり、各クラスタをA,B,Cとすると「α,β,γ」は画像特徴がA,B,Cにそれぞれ属する確率を示し、α+β+γ=1となる。   As shown in FIG. 4, when the main classification for the partial image area 52 is “normal” and the sub classification is “0.2, 0.1, 0.7”, the partial image area 52 The feature vector is represented as (0.2, 0.1, 0.7, 0, 0, 0, 0, 0, 0). In the subclass, the number of clusters is 3, and if each cluster is A, B, C, “α, β, γ” indicates the probability that the image features belong to A, B, C, respectively, and α + β + γ = 1. .

また、部分画像領域54についての主分類が「すりガラス」、副分類が「0.5,0.3,0.2」である場合には、この部分画像領域54についての特徴ベクトルは(0,0,0,0.5,0.3,0.2,0,0,0)として表される。そして、部分画像領域56についての主分類が「蜂窩肺」、副分類が「0.3,0.3,0.4」である場合には、この部分画像領域56についての特徴ベクトルは(0,0,0,0,0,0,0.3,0.3,0.4)として表される。   When the main classification for the partial image area 54 is “ground glass” and the sub-classification is “0.5, 0.3, 0.2”, the feature vector for this partial image area 54 is (0, 0, 0, 0.5, 0.3, 0.2, 0, 0, 0). When the main classification for the partial image area 56 is “honeycomb lung” and the sub-classification is “0.3, 0.3, 0.4”, the feature vector for the partial image area 56 is (0 , 0, 0, 0, 0, 0, 0.3, 0.3, 0.4).

特徴情報生成部30は、各部分画像領域についての特徴ベクトルを加算し、加算したベクトルを部分画像領域の数(部分画像領域の面積としてもよい)で正規化することにより、処理対象画像の特徴情報を生成する。   The feature information generating unit 30 adds the feature vectors for each partial image region, and normalizes the added vector by the number of partial image regions (may be the area of the partial image region), whereby the feature information of the processing target image is obtained. Generate information.

画像管理部32には、既に処理された画像についての特徴情報及び診断結果等を関連づけて管理するものである。本実施形態では、画像管理部32には、過去に診断対象となった画像について、部分画像領域設定部22、画像特徴抽出部24、主分類識別部26、副分類識別部28、特徴情報生成部30により処理した結果得られた特徴情報と、当該画像について医師が診断した診断結果を示すレポートへのリンク情報を含む管理データが管理されることとする。   The image management unit 32 manages feature information, diagnosis results, and the like associated with images that have already been processed. In the present embodiment, the image management unit 32 includes a partial image region setting unit 22, an image feature extraction unit 24, a main classification identification unit 26, a sub classification identification unit 28, and feature information generation for images that have been diagnosed in the past. It is assumed that management data including feature information obtained as a result of processing by the unit 30 and link information to a report indicating a diagnosis result diagnosed by a doctor for the image is managed.

図5には、管理データの一例を示した。図5に示されるように、管理データは、画像IDに関連づけて、当該画像IDの示す画像の特徴情報、そして診断レポートへのリンク情報が格納されたテーブルとして構成される。   FIG. 5 shows an example of management data. As shown in FIG. 5, the management data is configured as a table in which image feature information indicated by the image ID and link information to the diagnosis report are stored in association with the image ID.

関連画像検索部34は、処理対象の画像について生成された特徴情報(検索キー)に基づいて、画像管理部32に管理される画像の中から処理対象の画像と関連する画像を検索するものである。本実施形態では、関連画像検索部34は、画像管理部32により管理される管理データを参照し、検索キーの特徴情報(特徴ベクトル)と、管理される各画像の特徴情報(特徴ベクトル)との類似度をそれぞれ算出し、算出した類似度に基づいて、管理される画像の中から検索キーとなる画像と関連する画像を検索することとしてよい。類似度としては、ベクトル同士のユークリッド距離、カルバックライブラー距離、相関係数、ヒストグラムインターセクション等に基づいて算出することとしてよい。なお、ベクトル間の距離を類似度に用いる場合には、ベクトル間の距離が小さい程類似度が高いとされる。   The related image search unit 34 searches for an image related to the processing target image from the images managed by the image management unit 32 based on the feature information (search key) generated for the processing target image. is there. In the present embodiment, the related image search unit 34 refers to management data managed by the image management unit 32, and includes feature information (feature vector) of the search key and feature information (feature vector) of each managed image. Each of the similarities may be calculated, and an image related to the image serving as a search key may be searched from the managed images based on the calculated similarity. The similarity may be calculated based on the Euclidean distance between the vectors, the Cullback library distance, the correlation coefficient, the histogram intersection, and the like. In addition, when using the distance between vectors for similarity, it is supposed that similarity is so high that the distance between vectors is small.

検索結果提示部36は、関連画像検索部34により検索された画像と、当該画像に関連づけられた診断レポートとを表示又は印刷出力する等して利用者に提示するものである。   The search result presentation unit 36 displays or prints out the image searched for by the related image search unit 34 and the diagnostic report associated with the image, and presents it to the user.

次に、図6及び図7を参照しながら、本実施形態に係る画像処理装置10における学習処理及び類似画像検索処理のそれぞれの処理の流れを説明する。   Next, the flow of each of the learning process and the similar image search process in the image processing apparatus 10 according to the present embodiment will be described with reference to FIGS.

図6には、学習処理のフローチャートを示した。図6に示されるように、画像処理装置10は、病変部位に該当する標本画像を取得し(S101)、さらに標本画像の主分類の情報を取得する(S102)。画像処理装置10は、上記取得した学習データに基づいて、画像の特徴情報を主分類に分類する主分類規則を学習する(S103)。そして、画像処理装置10は、主分類が一致する各画像の特徴情報に基づいて、当該各特徴情報を複数の副分類(クラスタ)に分類する副分類規則を学習する(S104)。   FIG. 6 shows a flowchart of the learning process. As shown in FIG. 6, the image processing apparatus 10 acquires a specimen image corresponding to a lesion site (S101), and further acquires information on the main classification of the specimen image (S102). The image processing apparatus 10 learns a main classification rule for classifying image feature information into a main classification based on the acquired learning data (S103). Then, the image processing apparatus 10 learns a sub-classification rule for classifying each feature information into a plurality of sub-classifications (clusters) based on the feature information of each image having the same main classification (S104).

図7には、類似画像検索処理のフローチャートを示した。図7に示されるように、画像処理装置10は、例えばCTやMRIにより得られた画像を処理対象画像として取得し(S201)、取得した処理対象画像を分割して、処理対象画像に複数の部分画像領域を設定する(S202)。   FIG. 7 shows a flowchart of the similar image search process. As illustrated in FIG. 7, the image processing apparatus 10 acquires, for example, an image obtained by CT or MRI as a processing target image (S201), divides the acquired processing target image, and includes a plurality of processing target images. A partial image area is set (S202).

画像処理装置10は、設定した部分画像領域のうち未処理のものを1つ選択し(S203)、当該選択した部分画像領域の画像特徴を抽出する(S204)。画像処理装置10は、抽出した画像特徴が属する主分類を、学習された主分類規則に基づいて識別する(S205)。さらに、画像処理装置10は、上記識別された主分類に該当する副分類規則に基づいて、上記抽出した画像特徴が属する副分類を識別する(S206)。画像処理装置10は、処理対象画像に設定された部分画像領域のうち未処理のものがあるか否かを判断し(S207)、あると判断される場合にはS203に戻ってそれ以降の処理を繰り返し、ないと判断される場合には、各部分画像領域について得られた主分類及び副分類の情報に基づいて、処理対象画像の特徴情報を生成する(S208)。   The image processing apparatus 10 selects one unprocessed partial image area that has been set (S203), and extracts the image features of the selected partial image area (S204). The image processing apparatus 10 identifies the main classification to which the extracted image feature belongs based on the learned main classification rule (S205). Furthermore, the image processing apparatus 10 identifies the subclass to which the extracted image feature belongs based on the subclass rule corresponding to the identified main class (S206). The image processing apparatus 10 determines whether or not there is an unprocessed partial image area set as the processing target image (S207). If it is determined that there is, the process returns to S203 to perform subsequent processing. If it is determined that the process is not repeated, the feature information of the processing target image is generated based on the information of the main classification and the sub classification obtained for each partial image area (S208).

画像処理装置10は、上記生成された処理対象画像の特徴情報を検索キーとして、過去に得られた画像の中から上記検索キーの特徴情報と類似する特徴情報を有する画像を検索し(S209)、検索された画像及び当該画像にリンクされた情報をユーザに提示する(S210)。   The image processing apparatus 10 searches for an image having feature information similar to the feature information of the search key from images obtained in the past using the feature information of the generated processing target image as a search key (S209). The searched image and information linked to the image are presented to the user (S210).

次に、図8を参照しながら、本発明の第2の実施形態について説明する。第2の実施形態では、処理対象画像についての特徴情報の生成処理と、画像の特徴情報同士の比較処理において第1の実施形態と相違しその他の点では同じであるため、以下では第1の実施形態からの相違点について説明する。   Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the feature information generation process for the processing target image and the image feature information comparison process are different from the first embodiment in the other points, and are the same in other respects. Differences from the embodiment will be described.

図8に示されるように、画像処理装置10は、処理対象画像50について設定された各部分画像領域についての主分類を識別した後に、隣接する部分画像領域のうち主分類が一致するものを同一の画像領域クラスタとする。そして、画像処理装置10は、各画像領域クラスタについて、画像領域クラスタに含まれる部分画像領域の画像特徴の加算平均及び当該画像領域クラスタの重心位置に基づいて、画像領域クラスタの特徴情報を生成する。   As shown in FIG. 8, after identifying the main classification for each partial image area set for the processing target image 50, the image processing apparatus 10 uses the same partial classification of adjacent partial image areas that match the main classification. Image region cluster. Then, the image processing apparatus 10 generates, for each image region cluster, feature information of the image region cluster based on the addition average of the image features of the partial image regions included in the image region cluster and the barycentric position of the image region cluster. .

図8に示した例を参照して具体的に説明すると、画像処理装置10は、画像領域クラスタの重心座標(x,y)と、画像領域クラスタに含まれる部分画像領域の画像特徴の加算平均により生成される9次元の特徴ベクトルとを連結した11次元のベクトルを画像領域クラスタの特徴ベクトルとして生成する。   Specifically, with reference to the example illustrated in FIG. 8, the image processing apparatus 10 calculates the average of the barycentric coordinates (x, y) of the image area cluster and the image features of the partial image areas included in the image area cluster. An 11-dimensional vector obtained by concatenating the 9-dimensional feature vector generated by the above is generated as a feature vector of the image region cluster.

画像処理装置10は、各画像領域クラスタについて特徴ベクトルを生成し、他の画像との類似度を比較する際には、以下のEMD(Earth Mover’s Distance)を用いて評価値を算出する。まず、第1の画像について得られたクラスタP={(p,wp1),・・・,(p,wpm)}、第2の画像について得られたクラスタQ={(q,wq1),・・・,(q,wqn)}とすると、第1の画像と第2の画像との相関は、以下の式(1)を最小にするフローfijを求めることで計算され、フローで規格化されたコストがEMDとなる。 The image processing apparatus 10 generates a feature vector for each image area cluster, and calculates an evaluation value using the following EMD (Earth Mover's Distance) when comparing the similarity with other images. First, the cluster P = {(p 1 , w p1 ),..., (P m , w pm )} obtained for the first image, and the cluster Q = {(q 1 ) obtained for the second image. , W q1 ),..., (Q n , w qn )}, the correlation between the first image and the second image is to obtain a flow f ij that minimizes the following equation (1). The cost calculated by (1) and normalized by the flow becomes EMD.

Figure 2011048481
Figure 2011048481

なお、本実施形態においては、p,qは特徴ベクトル、wは画像領域クラスタのサイズ、dijはpとqとの距離を表す。 In this embodiment, p and q are feature vectors, w is the size of an image area cluster, and dij is the distance between p i and q j .

第2の実施形態に係る画像処理装置10は、上記の式(1)に基づいて処理対象画像と管理される過去の画像との距離を算出し、算出された距離が最小のものを類似する画像として検索することとしてよい。また、比較する画像領域クラスタの位置ずれに対する許容範囲は、距離dijにおける重心座標と、画像領域クラスタのサイズ(重み)を変更することで調整することとしてよい。   The image processing apparatus 10 according to the second embodiment calculates the distance between the processing target image and the past image to be managed based on the above formula (1), and the calculated one having the smallest calculated distance is similar. It is good also as searching as an image. The allowable range for the positional deviation of the image region cluster to be compared may be adjusted by changing the barycentric coordinates at the distance dij and the size (weight) of the image region cluster.

上記の第2の実施形態に係る画像処理装置10では、画像の特徴ベクトルに画像特徴の位置の分布の情報が含まれることで、類似画像検索において位置の情報が加味される。   In the image processing apparatus 10 according to the above-described second embodiment, information on the position distribution of the image feature is included in the image feature vector, so that the position information is added to the similar image search.

図9には、100の症例画像に対して、本発明の第1の実施形態に係る画像処理装置10により行った類似画像検索結果と、従来の画像全体の特徴量に基づく類似画像検索結果とを医師による官能評価した結果の一例を示した。図9に示されるように、本発明の一態様において類似画像として検索された画像は、従来の類似画像検索により検索された画像よりも専門家である医師の判断により近づいているといえる。   FIG. 9 shows a similar image search result performed by the image processing apparatus 10 according to the first embodiment of the present invention for 100 case images, and a similar image search result based on a conventional feature amount of the entire image. An example of the result of sensory evaluation by a doctor was shown. As shown in FIG. 9, it can be said that the image searched as a similar image in one embodiment of the present invention is closer to the judgment of a doctor who is an expert than the image searched by the conventional similar image search.

本発明は以上説明した実施形態に限定されるものではない。例えば、本発明を医療用途以外の類似画像検索に用いることとしてもよい。   The present invention is not limited to the embodiment described above. For example, the present invention may be used for similar image retrieval other than medical use.

10 画像処理装置、12 標本画像取得部、14 教師情報取得部、16 主分類学習部、18 副分類学習部、20 処理対象画像取得部、22 部分画像領域設定部、24 画像特徴抽出部、26 主分類識別部、28 副分類識別部、30 特徴情報生成部、32 画像管理部、34 関連画像検索部、36 検索結果提示部、40 LDAモデル、50 処理対象画像、52,54,56 部分画像領域。   DESCRIPTION OF SYMBOLS 10 Image processing apparatus, 12 Sample image acquisition part, 14 Teacher information acquisition part, 16 Main classification learning part, 18 Sub classification learning part, 20 Process target image acquisition part, 22 Partial image area setting part, 24 Image feature extraction part, 26 Main classification identification unit, 28 Sub classification identification unit, 30 Feature information generation unit, 32 Image management unit, 34 Related image search unit, 36 Search result presentation unit, 40 LDA model, 50 Processing target image, 52, 54, 56 Partial image region.

Claims (4)

標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、
主分類が一致する1又は複数の標本画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、
処理対象の画像について複数の部分画像領域を設定する設定手段と、
前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、
前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、
前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、
前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段と、を含む
ことを特徴とする画像処理装置。
Main classification learning means for learning a main classification rule for classifying an image area into a main classification, using the feature information of the sample image area and the information of the main classification designated for the sample image area as learning information;
Sub-classification learning means for learning sub-classification rules for classifying the feature information of one or a plurality of sample image regions having the same main classification into a plurality of sub-classifications;
Setting means for setting a plurality of partial image areas for an image to be processed;
Main classification identifying means for identifying the main classification for each of the plurality of partial image areas based on the feature information extracted from the partial image area and the main classification rule;
Sub-classification means for identifying the sub-classification for each of the plurality of partial image areas based on a main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule;
Feature information generating means for generating feature information representing the characteristics of the image to be processed based on the main classification and the sub-classification identified for each of the plurality of partial image areas;
Search means for searching for an image having feature information related to the feature information generated by the feature information generation means from management information in which one or a plurality of images and the feature information are managed in association with each other. An image processing apparatus.
前記特徴情報生成手段は、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて特徴ベクトルを生成し、当該複数の部分画像領域について生成された特徴ベクトルをそれぞれ足し合わせたベクトルに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する
ことを特徴とする請求項1に記載の画像処理装置。
The feature information generation means generates a feature vector based on the main classification and the sub classification identified for each of the plurality of partial image areas, and adds the feature vectors generated for the plurality of partial image areas, respectively. The image processing apparatus according to claim 1, wherein feature information representing a feature of the image to be processed is generated based on a vector.
前記主分類識別手段により識別された主分類に基づいて、前記複数の部分画像領域を1又は複数の画像領域群に分ける手段と、を含み、
前記特徴情報生成手段は、前記1又は複数の画像領域群毎の位置と、当該画像領域群に含まれる部分画像領域について識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する
ことを特徴とする請求項1に記載の画像処理装置。
Dividing the plurality of partial image areas into one or a plurality of image area groups based on the main classification identified by the main classification identifying means,
The feature information generation unit is configured to determine the processing target image based on the position of each of the one or more image region groups and the main classification and sub-classification identified for the partial image areas included in the image area group. The image processing apparatus according to claim 1, wherein feature information representing a feature is generated.
コンピュータを、
標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、
主分類が一致する1又は複数の画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、
処理対象の画像について複数の部分画像領域を設定する設定手段と、
前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、
前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、
前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、
前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段として機能させるためのプログラム。
Computer
Main classification learning means for learning a main classification rule for classifying an image area into a main classification, using the feature information of the sample image area and the information of the main classification designated for the sample image area as learning information;
Sub-classification learning means for learning sub-classification rules for classifying the feature information of one or a plurality of image regions having the same main classification into a plurality of sub-classes
Setting means for setting a plurality of partial image areas for an image to be processed;
Main classification identifying means for identifying the main classification for each of the plurality of partial image areas based on the feature information extracted from the partial image area and the main classification rule;
Sub-classification means for identifying the sub-classification for each of the plurality of partial image areas based on a main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule;
Feature information generating means for generating feature information representing the characteristics of the image to be processed based on the main classification and the sub-classification identified for each of the plurality of partial image areas;
An image having feature information related to the feature information generated by the feature information generating means, and functioning as a search means for searching from management information managed by associating one or a plurality of images with the feature information. program.
JP2009194637A 2009-08-25 2009-08-25 Image processing apparatus and program Expired - Fee Related JP5428646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009194637A JP5428646B2 (en) 2009-08-25 2009-08-25 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009194637A JP5428646B2 (en) 2009-08-25 2009-08-25 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2011048481A true JP2011048481A (en) 2011-03-10
JP5428646B2 JP5428646B2 (en) 2014-02-26

Family

ID=43834757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009194637A Expired - Fee Related JP5428646B2 (en) 2009-08-25 2009-08-25 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5428646B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017150497A1 (en) * 2016-03-02 2017-09-08 地方独立行政法人神奈川県立病院機構 Diagnosis support system for lesion in lung field, and method and program for controlling same
WO2019176720A1 (en) * 2018-03-13 2019-09-19 オムロン株式会社 Discrimination system, discrimination device, learning device, discrimination method and program
JP2020074967A (en) * 2018-11-08 2020-05-21 富士通株式会社 Image retrieval program, image retrieval device and image retrieval method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318256A (en) * 1993-05-06 1994-11-15 Matsushita Electric Ind Co Ltd Image retrieving device
JP2002032751A (en) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd Learning type image classifying device and method and recording medium with its processing program recorded thereon
JP2007199749A (en) * 2004-08-19 2007-08-09 Mitsubishi Electric Corp Image retrieval method and image retrieval device
JP2007279942A (en) * 2006-04-05 2007-10-25 Fujifilm Corp Similar case retrieval device, similar case retrieval method and program
JP2008199136A (en) * 2007-02-09 2008-08-28 Sharp Corp Similar video search apparatus and similar video search method
JP2008217428A (en) * 2007-03-05 2008-09-18 Fujitsu Ltd Image-retrieving program, method, and device
JP2009009290A (en) * 2007-06-27 2009-01-15 Kddi Corp Similar images search device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318256A (en) * 1993-05-06 1994-11-15 Matsushita Electric Ind Co Ltd Image retrieving device
JP2002032751A (en) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd Learning type image classifying device and method and recording medium with its processing program recorded thereon
JP2007199749A (en) * 2004-08-19 2007-08-09 Mitsubishi Electric Corp Image retrieval method and image retrieval device
JP2007279942A (en) * 2006-04-05 2007-10-25 Fujifilm Corp Similar case retrieval device, similar case retrieval method and program
JP2008199136A (en) * 2007-02-09 2008-08-28 Sharp Corp Similar video search apparatus and similar video search method
JP2008217428A (en) * 2007-03-05 2008-09-18 Fujitsu Ltd Image-retrieving program, method, and device
JP2009009290A (en) * 2007-06-27 2009-01-15 Kddi Corp Similar images search device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017150497A1 (en) * 2016-03-02 2017-09-08 地方独立行政法人神奈川県立病院機構 Diagnosis support system for lesion in lung field, and method and program for controlling same
JPWO2017150497A1 (en) * 2016-03-02 2019-02-14 地方独立行政法人神奈川県立病院機構 Diagnosis support apparatus for lung field lesion, control method and program for the apparatus
JP7075882B2 (en) 2016-03-02 2022-05-26 多恵 岩澤 Diagnostic support device for lung field lesions, control method and program of the device
WO2019176720A1 (en) * 2018-03-13 2019-09-19 オムロン株式会社 Discrimination system, discrimination device, learning device, discrimination method and program
JP2019159770A (en) * 2018-03-13 2019-09-19 オムロン株式会社 Discrimination system, discrimination device, learning device, discrimination method, and program
JP6997964B2 (en) 2018-03-13 2022-02-04 オムロン株式会社 Discrimination system, discriminator, learning device, discriminant method and program
JP2020074967A (en) * 2018-11-08 2020-05-21 富士通株式会社 Image retrieval program, image retrieval device and image retrieval method
JP7273285B2 (en) 2018-11-08 2023-05-15 富士通株式会社 Image search program, image search device, and image search method

Also Published As

Publication number Publication date
JP5428646B2 (en) 2014-02-26

Similar Documents

Publication Publication Date Title
Anavi et al. A comparative study for chest radiograph image retrieval using binary texture and deep learning classification
Lee et al. Random forest based lung nodule classification aided by clustering
JP5056695B2 (en) Similar image presentation apparatus and program
Loog et al. Segmentation of the posterior ribs in chest radiographs using iterated contextual pixel classification
US9122955B2 (en) Method and system of classifying medical images
Roy et al. Classification of lung image and nodule detection using fuzzy inference system
Singh et al. Histopathological image analysis for breast cancer detection using cubic SVM
JP4926266B2 (en) Learning data creation device, learning data creation method and program
JP2016099835A (en) Image processor, image processing method, and program
Yang et al. Explaining radiological emphysema subtypes with unsupervised texture prototypes: MESA COPD study
Sagayam et al. A cognitive perception on content-based image retrieval using an advanced soft computing paradigm
Yang et al. Semantic features prediction for pulmonary nodule diagnosis based on online streaming feature selection
Davis et al. Automated bone age assessment using feature extraction
KR101093107B1 (en) Image information classification method and apparatus
JP5428646B2 (en) Image processing apparatus and program
Behara et al. Artificial intelligence in medical diagnostics: A review from a South African context
Geva et al. Pneumothorax detection in chest radiographs using local and global texture signatures
Rathore et al. CBISC: a novel approach for colon biopsy image segmentation and classification
CN116883768A (en) Lung nodule intelligent grading method and system based on multi-modal feature fusion
Xiong et al. Lung field segmentation using weighted sparse shape composition with robust initialization
Hassanien et al. Enhanced rough sets rule reduction algorithm for classification digital mammography
Yogapriya et al. A study of image retrieval system based on feature extraction, selection, classification and similarity measurements
Branikas et al. Instance selection techniques for multiple instance classification
Kaur et al. A survey on medical image segmentation
Tarando et al. Cascade of convolutional neural networks for lung texture classification: overcoming ontological overlapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees