JP2011048481A - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP2011048481A JP2011048481A JP2009194637A JP2009194637A JP2011048481A JP 2011048481 A JP2011048481 A JP 2011048481A JP 2009194637 A JP2009194637 A JP 2009194637A JP 2009194637 A JP2009194637 A JP 2009194637A JP 2011048481 A JP2011048481 A JP 2011048481A
- Authority
- JP
- Japan
- Prior art keywords
- image
- classification
- feature information
- sub
- partial image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program.
CTやMRI等の医療装置により得られる画像を管理し、管理した画像を診療等に利用することがある。例えば、下記の特許文献1には、過去に診察された画像の中から、新たな診断対象の画像と類似の画像特徴を有する画像を検索する技術が開示されている。
An image obtained by a medical apparatus such as CT or MRI may be managed, and the managed image may be used for medical treatment or the like. For example,
本発明の目的の一つは、処理対象の画像について注目する領域を指定する必要なしに、管理する画像の中から関連する画像を検索することができる画像処理装置及びプログラムを提供することにある。 One of the objects of the present invention is to provide an image processing apparatus and program capable of searching related images from images to be managed without having to specify a region of interest for the processing target image. .
上記目的を達成するために、請求項1に記載の画像処理装置の発明は、標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、主分類が一致する1又は複数の標本画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、処理対象の画像について複数の部分画像領域を設定する設定手段と、前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段と、を含むことを特徴とする。
In order to achieve the above object, the invention of the image processing device according to
また、請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記特徴情報生成手段は、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて特徴ベクトルを生成し、当該複数の部分画像領域について生成された特徴ベクトルをそれぞれ足し合わせたベクトルに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成することを特徴とする。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the feature information generating unit is characterized based on a main classification and a sub-classification identified for each of the plurality of partial image areas. A feature is generated by generating a vector and generating feature information representing the feature of the image to be processed based on a vector obtained by adding the feature vectors generated for the plurality of partial image regions.
また、請求項3に記載の発明は、請求項1に記載の画像処理装置において、前記主分類識別手段により識別された主分類に基づいて、前記複数の部分画像領域を1又は複数の画像領域群に分ける手段と、を含み、前記特徴情報生成手段は、前記1又は複数の画像領域群毎の位置と、当該画像領域群に含まれる部分画像領域について識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成することを特徴とする。 According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the plurality of partial image regions are classified into one or a plurality of image regions based on the main classification identified by the main classification identifying unit. The feature information generating means includes a position for each of the one or a plurality of image area groups, and a main classification and a sub classification identified for the partial image areas included in the image area group. Based on this, feature information representing the feature of the image to be processed is generated.
また、請求項4に記載のプログラムの発明は、コンピュータを、標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、主分類が一致する1又は複数の画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、処理対象の画像について複数の部分画像領域を設定する設定手段と、前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段として機能させるためのプログラムである。 According to a fourth aspect of the present invention, the computer classifies the image area into the main classification using the feature information of the sample image area and the information of the main classification designated for the sample image area as learning information. Main classification learning means for learning main classification rules, sub-classification learning means for learning sub-classification rules for classifying feature information of one or a plurality of image regions having the same main classification into a plurality of sub-classes, Setting means for setting a plurality of partial image areas for an image, and a main classification for identifying a main classification for each of the plurality of partial image areas based on feature information extracted from the partial image area and the main classification rule Sub-classification identification for identifying sub-classification for each of the plurality of partial image areas based on a main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule And feature information generating means for generating feature information representing the characteristics of the image to be processed based on the stage and the main classification and sub-classification identified for each of the plurality of partial image areas, and the feature information generating means This is a program for causing an image having feature information related to the generated feature information to function as search means for searching from management information in which one or a plurality of images and feature information are managed in association with each other.
請求項1及び4に記載の発明によれば、処理対象の画像について注目する領域を指定する必要なしに、管理する画像の中から関連する画像を検索することができる。 According to the first and fourth aspects of the invention, it is possible to search for a related image from among the images to be managed without having to specify a region of interest for the processing target image.
請求項2に記載の発明によれば、処理対象の画像の特徴情報に部分画像領域のそれぞれの特徴情報を反映できる。 According to the second aspect of the present invention, the feature information of each partial image region can be reflected in the feature information of the image to be processed.
請求項3に記載の発明によれば、処理対象の画像の特徴情報に画像特徴の位置情報を反映できる。 According to the third aspect of the present invention, the position information of the image feature can be reflected in the feature information of the image to be processed.
以下、本発明を実施するための好適な実施の形態(以下、実施形態という)を、図面に従って説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments (hereinafter referred to as embodiments) for carrying out the invention will be described with reference to the drawings.
図1には、本実施形態に係る画像処理装置10の機能ブロック図を示す。図1に示されるように、画像処理装置10は、標本画像取得部12、教師情報取得部14、主分類学習部16、副分類学習部18、処理対象画像取得部20、部分画像領域設定部22、画像特徴抽出部24、主分類識別部26、副分類識別部28、特徴情報生成部30、画像管理部32、関連画像検索部34及び検索結果提示部36を備える。
FIG. 1 shows a functional block diagram of an
上記の各部の機能は、CPU等の制御手段、メモリ等の記憶手段、外部デバイスとデータを送受信する入出力手段等を備えたコンピュータが、コンピュータ読み取り可能な情報記憶媒体に格納されたプログラムを読み込み実行することで実現されるものとしてよい。なお、プログラムは情報記憶媒体によってコンピュータたる画像処理装置10に供給されることとしてもよいし、インターネット等のデータ通信手段を介して供給されることとしてもよい。
The functions of the above-described units are such that a computer having a control unit such as a CPU, a storage unit such as a memory, and an input / output unit that transmits and receives data to and from an external device reads a program stored in a computer-readable information storage medium. It may be realized by executing. The program may be supplied to the
[学習処理]
まず、画像処理装置10により行われる学習処理を実現する機能について説明する。
[Learning process]
First, a function for realizing the learning process performed by the
標本画像取得部12は、学習処理に用いられる標本画像を取得するものである。本実施形態では、医師により病変部位と特定された画像領域を標本画像として用いることとする。標本画像取得部12は、例えば肺疾患の場合には、気管支の肥厚、蜂窩肺、裂け目、小結節、大きな結節、すりガラス状、石灰化、のう胞性等の疾患に該当する部位を含む画像を標本画像として取得することとしてよい。
The sample
教師情報取得部14は、標本画像取得部12により取得された標本画像のそれぞれが該当する主分類の情報を教師情報として取得するものである。本実施形態では、教師情報取得部14は、各標本画像が該当する疾患(蜂窩肺やすりガラス状等)を主分類(ラベル情報)として取得することとし、主分類はキーボードやマウス等の入力デバイスを用いて入力(指定)されることとしてよい。
The teacher
主分類学習部16は、標本画像取得部12により取得された各標本画像の特徴情報と、各標本画像について教師情報取得部14により取得された主分類の情報とを学習情報として、所与の画像の特徴情報を主分類に分類する主分類規則を学習するものである。主分類学習部16は、標本画像の特徴情報と、当該標本画像の主分類情報とを組とした教師付き学習を行うものであり、学習アルゴリズムとしては例えばサポートベクタマシン等を用いることとしてよい。
The main
また、画像の特徴情報としては、画像領域内の各画素の輝度値を成分とするベクトルや、画像領域内の各画素において計算されたGaborフィルタ等の演算結果を画像領域内で平均化したデータや、輝度レベル共起行列を用いたテクスチャ特徴、画像領域内の局所点で計算された予め定められたフィルタ結果を量子化してヒストグラム化した局所特徴量等の様々な画像特徴データを用いることとしてよい。 Further, as image feature information, data obtained by averaging calculation results such as a vector having a luminance value of each pixel in the image area as a component, and a Gabor filter calculated in each pixel in the image area in the image area. And using various image feature data, such as texture features using luminance level co-occurrence matrix, and local feature quantities obtained by quantizing a predetermined filter result calculated at local points in the image area and histogramming them. Good.
副分類学習部18は、主分類が一致する画像の特徴情報に基づいて、画像を複数の副分類に分類する副分類規則を学習するものである。本実施形態では、副分類学習部18は、主分類が一致した標本画像の特徴情報の各々を、教師無しのクラスタリングアルゴリズムを用いて複数のクラスタ(副分類)に分類することとする。このように、本実施形態での副分類とは、主分類に分類された画像をさらに細かいクラスタに分類した場合における各クラスタに対応するものである。
The
副分類学習部18は、クラスタリングアルゴリズムとして、画像の特徴情報が連続量であればk−means法等を用いることとしてもよいし、画像の特徴情報が量子化されたものであれば、LDA(Latent Dirichret Allocation)モデル等を用いることとしてもよい。
The
図2には、クラスタリングアルゴリズムとしてLDAモデル40を採用した場合の学習モデルの一例を示した。図2において、α及びβはパラメータであり、Wは特徴情報(特徴ベクトル)、Zはクラスタ(副分類)、θはWがクラスタに属する確率を表す。このLDAモデル40では、主分類が一致する各標本画像の特徴情報に基づいて、α及びβの値を学習するものであり、主分類毎にα及びβの値が学習される。なお、LDAモデル40のアルゴリズムの詳細については公知の文献(例えば、D.M.Blei, A.Y.Ng, M.I.Jordan, "Latent Dirichlet Allocation" JMLR, vol.3, pp.993-1022 (2003))に記載のものを用いることとしてよい。
FIG. 2 shows an example of a learning model when the LDA
図3には、主分類が蜂窩肺である画像に基づいて学習された副分類の一例を示した。図3に示した例では、画像を5つの副分類(クラスタ)に分類することとしているが、この副分類数はあくまで例示でありこの数に限られるものではない。そして、副分類数は、主分類毎に予め定めておくこととしてもよいし、予め定められた判断基準に従って副分類数を定めることとしてもよい。 FIG. 3 shows an example of the sub-classification learned based on an image in which the main classification is the honeycomb lung. In the example shown in FIG. 3, the image is classified into five sub-classifications (clusters). However, the number of sub-classifications is merely an example and is not limited to this number. Then, the number of subclasses may be determined in advance for each main class, or the number of subclasses may be determined according to a predetermined criterion.
[類似画像検索処理]
次に、画像処理装置10により行われる処理対象の診断画像と類似する画像を検索する処理を実現する機能について説明する。
[Similar image search processing]
Next, a function for realizing a process for searching for an image similar to a diagnostic image to be processed, which is performed by the
処理対象画像取得部20は、処理対象とする画像(以下、処理対象画像)を取得するものである。本実施形態では、処理対象画像は、診断対象の画像であって検索キーとなる画像である。また、本実施形態では、処理対象画像は、例えばCTやMRIにより肺を撮像した画像であることとしてよい。
The processing target
部分画像領域設定部22は、処理対象画像取得部20により取得された処理対象画像について複数の部分画像領域を設定するものである。本実施形態では、部分画像領域設定部22は、処理対象画像を予め定められたサイズの矩形領域に分割し、各矩形領域を部分画像領域に設定することとするが、各部分画像領域の画像特徴量が略等しくなるように部分画像領域を設定することとしてもよいし、部分画像領域同士が一部重なるように設定することとしてもよい。また、部分画像領域設定部22は、処理対象画像の全体に部分画像領域を設定することとしてもよいし、その一部に部分画像領域を設定することとしてもよい。
The partial image
画像特徴抽出部24は、部分画像領域設定部22により設定された各部分画像領域について画像特徴を抽出するものである。画像特徴としては、学習処理時に標本画像について得た画像特徴と同種のデータを各部分画像領域から抽出することとする。
The image
主分類識別部26は、部分画像領域について抽出した画像特徴に基づいて、各部分画像領域の主分類を識別するものである。具体的には、主分類識別部26は、主分類学習部16により学習された主分類規則に基づいて、部分画像領域について抽出した画像特徴が学習されたいずれの主分類に属するかを識別する。
The main
副分類識別部28は、各部分画像領域について抽出した画像特徴と、当該各部分画像領域について主分類識別部26により識別された主分類とに基づいて、各部分画像領域の副分類を識別するものである。具体的には、副分類識別部28は、部分画像領域について識別された主分類に基づいて副分類規則(モデル)を選択し、当該選択した副分類規則に基づいて、部分画像領域について抽出した画像特徴の副分類を識別する。例えば、LDAモデル40を用いた場合には、副分類識別部28による識別結果は、主分類に属する複数の副分類への該当確率として表される。
The
特徴情報生成部30は、処理対象画像に設定された各部分画像領域についての主分類識別部26と副分類識別部28による識別結果に基づいて、当該処理対象画像の特徴情報を生成するものである。本実施形態においては、部分画像領域についての主分類及び副分類の識別結果に基づいて、部分画像領域の特徴ベクトルを生成する。
The feature
図4には、処理対象画像50(診断画像)に対する処理結果の一例を示した。図4に示されるように、処理対象画像50には肺の断面が撮像されており、この処理対象画像には部分画像領域設定部22により複数の部分画像領域が設定されている。そして、各部分画像領域について抽出された画像特徴に対して主分類識別部26により主分類が識別され、その識別結果に基づいてさらに副分類識別部28により副分類の識別が行われる。
FIG. 4 shows an example of the processing result for the processing target image 50 (diagnostic image). As shown in FIG. 4, a lung cross section is captured in the
図4に示されるように、部分画像領域52についての主分類が「正常」、副分類が「0.2,0.1,0.7」である場合には、この部分画像領域52についての特徴ベクトルは(0.2,0.1,0.7,0,0,0,0,0,0)として表される。なお、副分類はクラスタ数が3であり、各クラスタをA,B,Cとすると「α,β,γ」は画像特徴がA,B,Cにそれぞれ属する確率を示し、α+β+γ=1となる。
As shown in FIG. 4, when the main classification for the
また、部分画像領域54についての主分類が「すりガラス」、副分類が「0.5,0.3,0.2」である場合には、この部分画像領域54についての特徴ベクトルは(0,0,0,0.5,0.3,0.2,0,0,0)として表される。そして、部分画像領域56についての主分類が「蜂窩肺」、副分類が「0.3,0.3,0.4」である場合には、この部分画像領域56についての特徴ベクトルは(0,0,0,0,0,0,0.3,0.3,0.4)として表される。
When the main classification for the
特徴情報生成部30は、各部分画像領域についての特徴ベクトルを加算し、加算したベクトルを部分画像領域の数(部分画像領域の面積としてもよい)で正規化することにより、処理対象画像の特徴情報を生成する。
The feature
画像管理部32には、既に処理された画像についての特徴情報及び診断結果等を関連づけて管理するものである。本実施形態では、画像管理部32には、過去に診断対象となった画像について、部分画像領域設定部22、画像特徴抽出部24、主分類識別部26、副分類識別部28、特徴情報生成部30により処理した結果得られた特徴情報と、当該画像について医師が診断した診断結果を示すレポートへのリンク情報を含む管理データが管理されることとする。
The
図5には、管理データの一例を示した。図5に示されるように、管理データは、画像IDに関連づけて、当該画像IDの示す画像の特徴情報、そして診断レポートへのリンク情報が格納されたテーブルとして構成される。 FIG. 5 shows an example of management data. As shown in FIG. 5, the management data is configured as a table in which image feature information indicated by the image ID and link information to the diagnosis report are stored in association with the image ID.
関連画像検索部34は、処理対象の画像について生成された特徴情報(検索キー)に基づいて、画像管理部32に管理される画像の中から処理対象の画像と関連する画像を検索するものである。本実施形態では、関連画像検索部34は、画像管理部32により管理される管理データを参照し、検索キーの特徴情報(特徴ベクトル)と、管理される各画像の特徴情報(特徴ベクトル)との類似度をそれぞれ算出し、算出した類似度に基づいて、管理される画像の中から検索キーとなる画像と関連する画像を検索することとしてよい。類似度としては、ベクトル同士のユークリッド距離、カルバックライブラー距離、相関係数、ヒストグラムインターセクション等に基づいて算出することとしてよい。なお、ベクトル間の距離を類似度に用いる場合には、ベクトル間の距離が小さい程類似度が高いとされる。
The related
検索結果提示部36は、関連画像検索部34により検索された画像と、当該画像に関連づけられた診断レポートとを表示又は印刷出力する等して利用者に提示するものである。
The search
次に、図6及び図7を参照しながら、本実施形態に係る画像処理装置10における学習処理及び類似画像検索処理のそれぞれの処理の流れを説明する。
Next, the flow of each of the learning process and the similar image search process in the
図6には、学習処理のフローチャートを示した。図6に示されるように、画像処理装置10は、病変部位に該当する標本画像を取得し(S101)、さらに標本画像の主分類の情報を取得する(S102)。画像処理装置10は、上記取得した学習データに基づいて、画像の特徴情報を主分類に分類する主分類規則を学習する(S103)。そして、画像処理装置10は、主分類が一致する各画像の特徴情報に基づいて、当該各特徴情報を複数の副分類(クラスタ)に分類する副分類規則を学習する(S104)。
FIG. 6 shows a flowchart of the learning process. As shown in FIG. 6, the
図7には、類似画像検索処理のフローチャートを示した。図7に示されるように、画像処理装置10は、例えばCTやMRIにより得られた画像を処理対象画像として取得し(S201)、取得した処理対象画像を分割して、処理対象画像に複数の部分画像領域を設定する(S202)。
FIG. 7 shows a flowchart of the similar image search process. As illustrated in FIG. 7, the
画像処理装置10は、設定した部分画像領域のうち未処理のものを1つ選択し(S203)、当該選択した部分画像領域の画像特徴を抽出する(S204)。画像処理装置10は、抽出した画像特徴が属する主分類を、学習された主分類規則に基づいて識別する(S205)。さらに、画像処理装置10は、上記識別された主分類に該当する副分類規則に基づいて、上記抽出した画像特徴が属する副分類を識別する(S206)。画像処理装置10は、処理対象画像に設定された部分画像領域のうち未処理のものがあるか否かを判断し(S207)、あると判断される場合にはS203に戻ってそれ以降の処理を繰り返し、ないと判断される場合には、各部分画像領域について得られた主分類及び副分類の情報に基づいて、処理対象画像の特徴情報を生成する(S208)。
The
画像処理装置10は、上記生成された処理対象画像の特徴情報を検索キーとして、過去に得られた画像の中から上記検索キーの特徴情報と類似する特徴情報を有する画像を検索し(S209)、検索された画像及び当該画像にリンクされた情報をユーザに提示する(S210)。
The
次に、図8を参照しながら、本発明の第2の実施形態について説明する。第2の実施形態では、処理対象画像についての特徴情報の生成処理と、画像の特徴情報同士の比較処理において第1の実施形態と相違しその他の点では同じであるため、以下では第1の実施形態からの相違点について説明する。 Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the feature information generation process for the processing target image and the image feature information comparison process are different from the first embodiment in the other points, and are the same in other respects. Differences from the embodiment will be described.
図8に示されるように、画像処理装置10は、処理対象画像50について設定された各部分画像領域についての主分類を識別した後に、隣接する部分画像領域のうち主分類が一致するものを同一の画像領域クラスタとする。そして、画像処理装置10は、各画像領域クラスタについて、画像領域クラスタに含まれる部分画像領域の画像特徴の加算平均及び当該画像領域クラスタの重心位置に基づいて、画像領域クラスタの特徴情報を生成する。
As shown in FIG. 8, after identifying the main classification for each partial image area set for the
図8に示した例を参照して具体的に説明すると、画像処理装置10は、画像領域クラスタの重心座標(x,y)と、画像領域クラスタに含まれる部分画像領域の画像特徴の加算平均により生成される9次元の特徴ベクトルとを連結した11次元のベクトルを画像領域クラスタの特徴ベクトルとして生成する。
Specifically, with reference to the example illustrated in FIG. 8, the
画像処理装置10は、各画像領域クラスタについて特徴ベクトルを生成し、他の画像との類似度を比較する際には、以下のEMD(Earth Mover’s Distance)を用いて評価値を算出する。まず、第1の画像について得られたクラスタP={(p1,wp1),・・・,(pm,wpm)}、第2の画像について得られたクラスタQ={(q1,wq1),・・・,(qn,wqn)}とすると、第1の画像と第2の画像との相関は、以下の式(1)を最小にするフローfijを求めることで計算され、フローで規格化されたコストがEMDとなる。
The
なお、本実施形態においては、p,qは特徴ベクトル、wは画像領域クラスタのサイズ、dijはpiとqjとの距離を表す。 In this embodiment, p and q are feature vectors, w is the size of an image area cluster, and dij is the distance between p i and q j .
第2の実施形態に係る画像処理装置10は、上記の式(1)に基づいて処理対象画像と管理される過去の画像との距離を算出し、算出された距離が最小のものを類似する画像として検索することとしてよい。また、比較する画像領域クラスタの位置ずれに対する許容範囲は、距離dijにおける重心座標と、画像領域クラスタのサイズ(重み)を変更することで調整することとしてよい。
The
上記の第2の実施形態に係る画像処理装置10では、画像の特徴ベクトルに画像特徴の位置の分布の情報が含まれることで、類似画像検索において位置の情報が加味される。
In the
図9には、100の症例画像に対して、本発明の第1の実施形態に係る画像処理装置10により行った類似画像検索結果と、従来の画像全体の特徴量に基づく類似画像検索結果とを医師による官能評価した結果の一例を示した。図9に示されるように、本発明の一態様において類似画像として検索された画像は、従来の類似画像検索により検索された画像よりも専門家である医師の判断により近づいているといえる。
FIG. 9 shows a similar image search result performed by the
本発明は以上説明した実施形態に限定されるものではない。例えば、本発明を医療用途以外の類似画像検索に用いることとしてもよい。 The present invention is not limited to the embodiment described above. For example, the present invention may be used for similar image retrieval other than medical use.
10 画像処理装置、12 標本画像取得部、14 教師情報取得部、16 主分類学習部、18 副分類学習部、20 処理対象画像取得部、22 部分画像領域設定部、24 画像特徴抽出部、26 主分類識別部、28 副分類識別部、30 特徴情報生成部、32 画像管理部、34 関連画像検索部、36 検索結果提示部、40 LDAモデル、50 処理対象画像、52,54,56 部分画像領域。
DESCRIPTION OF
Claims (4)
主分類が一致する1又は複数の標本画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、
処理対象の画像について複数の部分画像領域を設定する設定手段と、
前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、
前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、
前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、
前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段と、を含む
ことを特徴とする画像処理装置。 Main classification learning means for learning a main classification rule for classifying an image area into a main classification, using the feature information of the sample image area and the information of the main classification designated for the sample image area as learning information;
Sub-classification learning means for learning sub-classification rules for classifying the feature information of one or a plurality of sample image regions having the same main classification into a plurality of sub-classifications;
Setting means for setting a plurality of partial image areas for an image to be processed;
Main classification identifying means for identifying the main classification for each of the plurality of partial image areas based on the feature information extracted from the partial image area and the main classification rule;
Sub-classification means for identifying the sub-classification for each of the plurality of partial image areas based on a main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule;
Feature information generating means for generating feature information representing the characteristics of the image to be processed based on the main classification and the sub-classification identified for each of the plurality of partial image areas;
Search means for searching for an image having feature information related to the feature information generated by the feature information generation means from management information in which one or a plurality of images and the feature information are managed in association with each other. An image processing apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 The feature information generation means generates a feature vector based on the main classification and the sub classification identified for each of the plurality of partial image areas, and adds the feature vectors generated for the plurality of partial image areas, respectively. The image processing apparatus according to claim 1, wherein feature information representing a feature of the image to be processed is generated based on a vector.
前記特徴情報生成手段は、前記1又は複数の画像領域群毎の位置と、当該画像領域群に含まれる部分画像領域について識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する
ことを特徴とする請求項1に記載の画像処理装置。 Dividing the plurality of partial image areas into one or a plurality of image area groups based on the main classification identified by the main classification identifying means,
The feature information generation unit is configured to determine the processing target image based on the position of each of the one or more image region groups and the main classification and sub-classification identified for the partial image areas included in the image area group. The image processing apparatus according to claim 1, wherein feature information representing a feature is generated.
標本画像領域の特徴情報と、当該標本画像領域について指定された主分類の情報とを学習情報として、画像領域を主分類に分類する主分類規則を学習する主分類学習手段と、
主分類が一致する1又は複数の画像領域の特徴情報を、複数の副分類に分類する副分類規則を学習する副分類学習手段と、
処理対象の画像について複数の部分画像領域を設定する設定手段と、
前記複数の部分画像領域毎の主分類を、当該部分画像領域から抽出された特徴情報と、前記主分類規則とに基づいて識別する主分類識別手段と、
前記複数の部分画像領域毎の副分類を、当該部分画像領域の主分類と、当該部分画像領域から抽出された特徴情報と、前記副分類規則とに基づいて識別する副分類識別手段と、
前記複数の部分画像領域毎に識別された主分類と副分類とに基づいて、前記処理対象の画像の特徴を表す特徴情報を生成する特徴情報生成手段と、
前記特徴情報生成手段により生成された特徴情報と関連する特徴情報を有する画像を、1又は複数の画像と特徴情報とをそれぞれ関連づけて管理した管理情報の中から検索する検索手段として機能させるためのプログラム。 Computer
Main classification learning means for learning a main classification rule for classifying an image area into a main classification, using the feature information of the sample image area and the information of the main classification designated for the sample image area as learning information;
Sub-classification learning means for learning sub-classification rules for classifying the feature information of one or a plurality of image regions having the same main classification into a plurality of sub-classes
Setting means for setting a plurality of partial image areas for an image to be processed;
Main classification identifying means for identifying the main classification for each of the plurality of partial image areas based on the feature information extracted from the partial image area and the main classification rule;
Sub-classification means for identifying the sub-classification for each of the plurality of partial image areas based on a main classification of the partial image area, feature information extracted from the partial image area, and the sub-classification rule;
Feature information generating means for generating feature information representing the characteristics of the image to be processed based on the main classification and the sub-classification identified for each of the plurality of partial image areas;
An image having feature information related to the feature information generated by the feature information generating means, and functioning as a search means for searching from management information managed by associating one or a plurality of images with the feature information. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009194637A JP5428646B2 (en) | 2009-08-25 | 2009-08-25 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009194637A JP5428646B2 (en) | 2009-08-25 | 2009-08-25 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011048481A true JP2011048481A (en) | 2011-03-10 |
JP5428646B2 JP5428646B2 (en) | 2014-02-26 |
Family
ID=43834757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009194637A Expired - Fee Related JP5428646B2 (en) | 2009-08-25 | 2009-08-25 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5428646B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017150497A1 (en) * | 2016-03-02 | 2017-09-08 | 地方独立行政法人神奈川県立病院機構 | Diagnosis support system for lesion in lung field, and method and program for controlling same |
WO2019176720A1 (en) * | 2018-03-13 | 2019-09-19 | オムロン株式会社 | Discrimination system, discrimination device, learning device, discrimination method and program |
JP2020074967A (en) * | 2018-11-08 | 2020-05-21 | 富士通株式会社 | Image retrieval program, image retrieval device and image retrieval method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06318256A (en) * | 1993-05-06 | 1994-11-15 | Matsushita Electric Ind Co Ltd | Image retrieving device |
JP2002032751A (en) * | 2000-07-18 | 2002-01-31 | Olympus Optical Co Ltd | Learning type image classifying device and method and recording medium with its processing program recorded thereon |
JP2007199749A (en) * | 2004-08-19 | 2007-08-09 | Mitsubishi Electric Corp | Image retrieval method and image retrieval device |
JP2007279942A (en) * | 2006-04-05 | 2007-10-25 | Fujifilm Corp | Similar case retrieval device, similar case retrieval method and program |
JP2008199136A (en) * | 2007-02-09 | 2008-08-28 | Sharp Corp | Similar video search apparatus and similar video search method |
JP2008217428A (en) * | 2007-03-05 | 2008-09-18 | Fujitsu Ltd | Image-retrieving program, method, and device |
JP2009009290A (en) * | 2007-06-27 | 2009-01-15 | Kddi Corp | Similar images search device |
-
2009
- 2009-08-25 JP JP2009194637A patent/JP5428646B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06318256A (en) * | 1993-05-06 | 1994-11-15 | Matsushita Electric Ind Co Ltd | Image retrieving device |
JP2002032751A (en) * | 2000-07-18 | 2002-01-31 | Olympus Optical Co Ltd | Learning type image classifying device and method and recording medium with its processing program recorded thereon |
JP2007199749A (en) * | 2004-08-19 | 2007-08-09 | Mitsubishi Electric Corp | Image retrieval method and image retrieval device |
JP2007279942A (en) * | 2006-04-05 | 2007-10-25 | Fujifilm Corp | Similar case retrieval device, similar case retrieval method and program |
JP2008199136A (en) * | 2007-02-09 | 2008-08-28 | Sharp Corp | Similar video search apparatus and similar video search method |
JP2008217428A (en) * | 2007-03-05 | 2008-09-18 | Fujitsu Ltd | Image-retrieving program, method, and device |
JP2009009290A (en) * | 2007-06-27 | 2009-01-15 | Kddi Corp | Similar images search device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017150497A1 (en) * | 2016-03-02 | 2017-09-08 | 地方独立行政法人神奈川県立病院機構 | Diagnosis support system for lesion in lung field, and method and program for controlling same |
JPWO2017150497A1 (en) * | 2016-03-02 | 2019-02-14 | 地方独立行政法人神奈川県立病院機構 | Diagnosis support apparatus for lung field lesion, control method and program for the apparatus |
JP7075882B2 (en) | 2016-03-02 | 2022-05-26 | 多恵 岩澤 | Diagnostic support device for lung field lesions, control method and program of the device |
WO2019176720A1 (en) * | 2018-03-13 | 2019-09-19 | オムロン株式会社 | Discrimination system, discrimination device, learning device, discrimination method and program |
JP2019159770A (en) * | 2018-03-13 | 2019-09-19 | オムロン株式会社 | Discrimination system, discrimination device, learning device, discrimination method, and program |
JP6997964B2 (en) | 2018-03-13 | 2022-02-04 | オムロン株式会社 | Discrimination system, discriminator, learning device, discriminant method and program |
JP2020074967A (en) * | 2018-11-08 | 2020-05-21 | 富士通株式会社 | Image retrieval program, image retrieval device and image retrieval method |
JP7273285B2 (en) | 2018-11-08 | 2023-05-15 | 富士通株式会社 | Image search program, image search device, and image search method |
Also Published As
Publication number | Publication date |
---|---|
JP5428646B2 (en) | 2014-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Anavi et al. | A comparative study for chest radiograph image retrieval using binary texture and deep learning classification | |
Lee et al. | Random forest based lung nodule classification aided by clustering | |
JP5056695B2 (en) | Similar image presentation apparatus and program | |
Loog et al. | Segmentation of the posterior ribs in chest radiographs using iterated contextual pixel classification | |
US9122955B2 (en) | Method and system of classifying medical images | |
Roy et al. | Classification of lung image and nodule detection using fuzzy inference system | |
Singh et al. | Histopathological image analysis for breast cancer detection using cubic SVM | |
JP4926266B2 (en) | Learning data creation device, learning data creation method and program | |
JP2016099835A (en) | Image processor, image processing method, and program | |
Yang et al. | Explaining radiological emphysema subtypes with unsupervised texture prototypes: MESA COPD study | |
Sagayam et al. | A cognitive perception on content-based image retrieval using an advanced soft computing paradigm | |
Yang et al. | Semantic features prediction for pulmonary nodule diagnosis based on online streaming feature selection | |
Davis et al. | Automated bone age assessment using feature extraction | |
KR101093107B1 (en) | Image information classification method and apparatus | |
JP5428646B2 (en) | Image processing apparatus and program | |
Behara et al. | Artificial intelligence in medical diagnostics: A review from a South African context | |
Geva et al. | Pneumothorax detection in chest radiographs using local and global texture signatures | |
Rathore et al. | CBISC: a novel approach for colon biopsy image segmentation and classification | |
CN116883768A (en) | Lung nodule intelligent grading method and system based on multi-modal feature fusion | |
Xiong et al. | Lung field segmentation using weighted sparse shape composition with robust initialization | |
Hassanien et al. | Enhanced rough sets rule reduction algorithm for classification digital mammography | |
Yogapriya et al. | A study of image retrieval system based on feature extraction, selection, classification and similarity measurements | |
Branikas et al. | Instance selection techniques for multiple instance classification | |
Kaur et al. | A survey on medical image segmentation | |
Tarando et al. | Cascade of convolutional neural networks for lung texture classification: overcoming ontological overlapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130820 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131118 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |