JP2018161206A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2018161206A
JP2018161206A JP2017059264A JP2017059264A JP2018161206A JP 2018161206 A JP2018161206 A JP 2018161206A JP 2017059264 A JP2017059264 A JP 2017059264A JP 2017059264 A JP2017059264 A JP 2017059264A JP 2018161206 A JP2018161206 A JP 2018161206A
Authority
JP
Japan
Prior art keywords
image data
image
name
similarity
rank
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017059264A
Other languages
Japanese (ja)
Other versions
JP7024197B2 (en
Inventor
松永 和久
Kazuhisa Matsunaga
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017059264A priority Critical patent/JP7024197B2/en
Publication of JP2018161206A publication Critical patent/JP2018161206A/en
Application granted granted Critical
Publication of JP7024197B2 publication Critical patent/JP7024197B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve identification accuracy.SOLUTION: An image processing apparatus 100 includes an image acquisition part 11, an image database 21, a similarity rank calculation part 13, an estimation part 14, a determination part, and a presentation part 16. The image acquisition part 11 acquires image data. The image database 21 stores the image data in association with a name relating to the image data. The similarity rank calculation part 13 calculates a first rank of the similarity of the respective image data in the image database 21, with the image data acquired by the image acquisition part 11. The estimation part 14 estimates a name relating to the image data acquired by the image acquisition part 11. The determination part determines whether or not the name associated with the first-rank image data calculated by the similarity rank calculation part 13, accords with the name estimated by the estimation part 14. The presentation part 16 performs a prescribed presentation according to a result determined by the determination part.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

診断対象の患部を撮影し、撮影した画像を画像処理することによって診断の支援を行う技術が開発されてきている。例えば、特許文献1には、画像フォーマット等が異なる画像間であっても、類似画像検索を良好に行うことができる類似画像検索装置等が記載されている。   Techniques have been developed for assisting diagnosis by imaging an affected area to be diagnosed and processing the captured image. For example, Patent Document 1 describes a similar image search device that can perform a similar image search satisfactorily even between images having different image formats and the like.

特開2013−200590号公報JP 2013-200590 A

特許文献1に記載の類似画像検索装置は、従来の技術に比べて良好な類似画像検索を行うことできる。しかし、画像が類似していても疾患名が異なる事例が一定の数存在しており、そのような事例に対して従来技術を適用すると、誤った疾患名の画像を類似画像として検索してしまう。その結果、疾患名の識別精度が低下してしまうという問題がある。   The similar image search device described in Patent Literature 1 can perform a similar image search better than the conventional technique. However, there are a certain number of cases where the disease names are different even if the images are similar, and if the conventional technology is applied to such cases, an image with an incorrect disease name is searched as a similar image. . As a result, there is a problem that the identification accuracy of the disease name is lowered.

本発明は、上記問題を解決するためになされたものであり、識別精度を向上させることができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing method, and a program capable of improving identification accuracy.

上記目的を達成するため、本発明の画像処理装置は、
画像データを取得する画像取得部と、
前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベースと、
前記画像取得部が取得した画像データに類似する程度を示す類似度を、前記画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算部と、
前記画像取得部が取得した画像データに係る名称を推定する推定部と、
前記類似順位計算部が計算した前記第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが一致するか否かを判定する判定部と、
前記判定部が判定した結果に応じて所定の提示を行う提示部と、
を備える。
In order to achieve the above object, an image processing apparatus of the present invention provides:
An image acquisition unit for acquiring image data;
An image database for storing the image data and a name related to the image data in association with each other;
The similarity indicating the degree of similarity to the image data acquired by the image acquisition unit is obtained for each image data in the image database, and the first rank of the similarity of the image data in the image database is calculated. A similarity ranking calculation unit,
An estimation unit that estimates a name related to the image data acquired by the image acquisition unit;
A determination unit that determines whether a name associated with the first-order image data calculated by the similarity rank calculation unit matches a name estimated by the estimation unit;
A presentation unit that performs a predetermined presentation according to a result determined by the determination unit;
Is provided.

本発明によれば、識別精度を向上させることができる。   According to the present invention, identification accuracy can be improved.

本発明の実施形態に係る画像処理装置の機能構成を示す図である。It is a figure which shows the function structure of the image processing apparatus which concerns on embodiment of this invention. 実施形態に係る画像処理装置の画像データベースに記憶されているデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the image database of the image processing apparatus which concerns on embodiment. 線形SVMによるデータ識別の一例を示す図である。It is a figure which shows an example of the data identification by linear SVM. 実施形態に係る画像処理装置の画像データベース登録処理のフローチャートである。It is a flowchart of the image database registration process of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置の推定部学習処理のフローチャートである。It is a flowchart of the estimation part learning process of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置の画像処理のフローチャートである。3 is a flowchart of image processing of the image processing apparatus according to the embodiment. 実施形態に係る画像処理装置の順位補正部による順位の補正の様子を説明する図である。It is a figure explaining the mode of the correction | amendment of the order by the order correction | amendment part of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置の順位補正部による順位の補正の仕組みを説明する図である。It is a figure explaining the mechanism of the correction | amendment of the order by the order correction | amendment part of the image processing apparatus which concerns on embodiment.

以下、本発明の実施形態に係る画像処理装置、画像処理方法及びプログラムについて、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。   Hereinafter, an image processing apparatus, an image processing method, and a program according to embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

本発明の実施形態に係る画像処理装置は、疾患名が不明の画像データが入力されると、その画像データに類似した画像データを画像データベースから検索し、類似度の高い順番に順位付けする。そして、画像データと疾患名とに基づいて学習された推定部による分類結果を用いて、必要に応じて類似度の順位を補正し、その補正後の順位に基づいて、画像データベースに記憶されている画像データを疾患名とともに提示する。これにより、ユーザは、画像処理装置に入力した画像データの疾患名を推定することができる。このような画像処理装置の機能構成及び処理内容について、以下に説明する。   When image data whose disease name is unknown is input, the image processing apparatus according to the embodiment of the present invention searches the image database for image data similar to the image data, and ranks them in order of high similarity. Then, using the classification result obtained by the estimation unit learned based on the image data and the disease name, the similarity ranking is corrected as necessary, and stored in the image database based on the corrected ranking. Present image data together with the disease name. Thereby, the user can estimate the disease name of the image data input to the image processing apparatus. The functional configuration and processing contents of such an image processing apparatus will be described below.

実施形態に係る画像処理装置100は、図1に示すように、制御部10、記憶部20、画像入力部31、名称入力部32、出力部33、を備える。   As illustrated in FIG. 1, the image processing apparatus 100 according to the embodiment includes a control unit 10, a storage unit 20, an image input unit 31, a name input unit 32, and an output unit 33.

制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(画像取得部11、特徴ベクトル抽出部12、類似順位計算部13、推定部14、順位補正部15、提示部16)の機能を実現する。   The control unit 10 is configured by a CPU (Central Processing Unit) or the like, and by executing a program stored in the storage unit 20, each unit (image acquisition unit 11, feature vector extraction unit 12, similarity rank calculation unit 13) described later. The functions of the estimation unit 14, the rank correction unit 15, and the presentation unit 16) are realized.

記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。また、記憶部20は、機能的には、画像データベース21を備える。   The storage unit 20 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and stores a program executed by the CPU of the control unit 10 and necessary data. The storage unit 20 functionally includes an image database 21.

画像データベース21は、図2に示すように、画像入力部31から入力された画像データ、特徴ベクトル抽出部12が抽出した該画像データの特徴ベクトル及び名称入力部32から入力された該画像データの疾患名をお互いに紐付けて記憶しているデータベースである。   As shown in FIG. 2, the image database 21 includes the image data input from the image input unit 31, the feature vector of the image data extracted by the feature vector extraction unit 12, and the image data input from the name input unit 32. It is a database that stores disease names linked to each other.

画像入力部31は、ダーモスコープと呼ばれる特殊な拡大鏡を装着したカメラを備え、疾患の患部の画像を撮影し、該撮影した画像データを入力する。   The image input unit 31 includes a camera equipped with a special magnifying glass called a dermoscope, captures an image of an affected area of a disease, and inputs the captured image data.

名称入力部32は、キーボード、マウス、タッチパネル等を備え、疾患名(疾患の名称)が判明している患部の画像データが画像入力部31から入力された場合に、該疾患名の入力等を受け付ける。   The name input unit 32 includes a keyboard, a mouse, a touch panel, and the like. When image data of an affected part whose disease name (disease name) is known is input from the image input unit 31, the name of the disease is input. Accept.

出力部33は、LCD(Liquid Crystal Display)、有機EL(Electro−Luminescence)ディスプレイ等のディスプレイを備え、画像入力部31から入力された画像、該画像から推定される疾患名、該画像に類似する画像データベース21内の画像等を表示する。   The output unit 33 includes a display such as an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, and the like, an image input from the image input unit 31, a disease name estimated from the image, and similar to the image The images in the image database 21 are displayed.

次に、画像処理装置100の制御部10の機能的構成について説明する。制御部10は、画像取得部11、特徴ベクトル部12、類似順位計算部13、推定部14、順位補正部15及び提示部16の機能を実現する。   Next, a functional configuration of the control unit 10 of the image processing apparatus 100 will be described. The control unit 10 implements the functions of an image acquisition unit 11, a feature vector unit 12, a similarity rank calculation unit 13, an estimation unit 14, a rank correction unit 15, and a presentation unit 16.

画像取得部11は、画像入力部31から疾患部の画像データを取得する。また、名称入力部32が該疾患部の疾患名の入力を受け付けた場合は、画像取得部11は、該疾患名も取得する。そして、画像取得部11は、取得した画像データ及び疾患名を画像データベース21に登録する際には、該画像データと該疾患名とを紐付けて、画像データベース21に登録する。   The image acquisition unit 11 acquires image data of a diseased part from the image input unit 31. When the name input unit 32 receives an input of the disease name of the diseased part, the image acquisition unit 11 also acquires the disease name. Then, when registering the acquired image data and disease name in the image database 21, the image acquisition unit 11 associates the image data with the disease name and registers them in the image database 21.

特徴ベクトル抽出部12は、画像取得部11が取得した画像データから、特徴ベクトルを抽出する。特徴ベクトルの種類は任意だが、例えば、BoVW(Bag of Visual Words)形式の特徴ベクトルを抽出する。そして、特徴ベクトル抽出部12は、抽出した特徴ベクトルを画像データベース21に登録する際には、該特徴ベクトルを抽出元の画像データに紐付けて登録する。   The feature vector extraction unit 12 extracts feature vectors from the image data acquired by the image acquisition unit 11. The type of the feature vector is arbitrary, but, for example, a feature vector in a BoVW (Bag of Visual Words) format is extracted. Then, when registering the extracted feature vector in the image database 21, the feature vector extracting unit 12 registers the feature vector in association with the image data of the extraction source.

類似順位計算部13は、特徴ベクトル抽出部12で抽出した特徴ベクトルを用いて、検索対象の画像データ(クエリ画像データ)に類似する程度を示す類似度を、画像データベース21に記憶されている各画像データについて求める。そして、類似順位計算部13は、求めた各画像データの類似度の、画像データベース21に記憶されている画像データの中での順位を計算する。具体的には、まず、特徴ベクトル抽出部12が、検索対象の画像データ(クエリ画像データ)の特徴ベクトルを抽出する。そして、類似順位計算部13が、該特徴ベクトルと画像データベース21に記憶されている各特徴ベクトルとの類似度を計算し、画像データベース21に記憶されている画像データを該類似度が高い順にソートする。そして、ソートされた結果に順番に順位を割り当てることによって、類似順位計算部13は、画像データベース21に記憶されている各画像データの、検索対象の画像データ(クエリ画像データ)との類似度の高さの順位を求めることができる。   Using the feature vector extracted by the feature vector extraction unit 12, the similarity rank calculation unit 13 stores each similarity stored in the image database 21 with a degree of similarity indicating the degree of similarity to the image data to be searched (query image data). Find image data. Then, the similarity rank calculation unit 13 calculates the rank in the image data stored in the image database 21 of the obtained similarity of each image data. Specifically, first, the feature vector extraction unit 12 extracts a feature vector of search target image data (query image data). Then, the similarity rank calculation unit 13 calculates the similarity between the feature vector and each feature vector stored in the image database 21, and sorts the image data stored in the image database 21 in descending order of the similarity. To do. Then, by assigning ranks to the sorted results in order, the similarity rank calculation unit 13 determines the similarity of each image data stored in the image database 21 with the image data to be searched (query image data). The rank of height can be obtained.

推定部14は、疾患部の画像データの特徴ベクトルに基づき、該疾患部の疾患名を推定する。推定部14は、この推定を、例えば線形SVM(Support Vector Machine)を用いた識別器で行う。線形SVMとは、2種類(2クラス)のデータの境界を決定してデータの種類(クラス)を識別するものである。例えば、図3に示すように、○のデータと☆のデータが与えられた時に、線形SVMは、その境界線Lを決定する。これにより、線形SVMは、未知のデータに対しても、○のクラスに属するデータなのか、☆のクラスに属するデータなのかを識別することができる。   The estimation unit 14 estimates the disease name of the diseased part based on the feature vector of the image data of the diseased part. The estimation unit 14 performs this estimation with a discriminator using, for example, a linear SVM (Support Vector Machine). The linear SVM is to determine the boundary between two types (two classes) of data and identify the type of data (class). For example, as shown in FIG. 3, when S data and ☆ data are given, the linear SVM determines its boundary line L. Thereby, the linear SVM can identify whether the data belongs to the class of ○ or the data belonging to the class of ☆ even for unknown data.

1つの線形SVMでは2つのクラスの識別しかできないが、i番目のクラスとi番目以外のクラスとを識別する線形SVMをn個(i=1〜n)用意することによって、n個のクラスの識別を行うことができる。この場合、未知のデータに対しては、最もスコアの高い(該データと境界線との距離が最大となる)線形SVMが、その他のクラスと識別するi番目のクラスが、該データの識別結果となる。このように多くのクラスを分類できるように複数の線形SVMで構成したものを線形多クラスSVMと呼ぶ。   One linear SVM can only identify two classes, but by preparing n linear SVMs (i = 1 to n) for identifying the i-th class and the non-i-th class, Identification can be made. In this case, for unknown data, the i-th class that the linear SVM with the highest score (the distance between the data and the boundary line is the maximum) identifies from other classes is the identification result of the data. It becomes. Such a configuration composed of a plurality of linear SVMs so that many classes can be classified is called a linear multi-class SVM.

なお、推定部14は、線形SVMによる識別器だけでなく、非線形SVMによる識別器、ニューラルネットワーク等を用いても実現することができる。線形SVMは2つのクラスを線形な境界(直線、平面、超平面)で分離するものであるが、非線形SVMは2つのクラスを非線形な境界で分離する。もっとも非線形SVMは、一旦、実空間のデータを線形な境界で分離できる空間に写像してから、線形SVMと同じ仕組みで分離するものなので、本質的な部分は線形SVMと同じと考えて良い。そこで、線形SVMと非線形SVMを合わせて、単にSVMと呼ぶことにする。また、非線形SVMも線形SVMと同様に非線形多クラスSVMを構成できる。線形多クラスSVMと非線形多クラスSVMを合わせて、多クラスSVMと呼ぶことにする。   Note that the estimation unit 14 can be realized by using not only a linear SVM classifier but also a nonlinear SVM classifier, a neural network, or the like. A linear SVM separates two classes at a linear boundary (straight line, plane, hyperplane), whereas a non-linear SVM separates two classes at a non-linear boundary. However, since the nonlinear SVM is such that data in real space is once mapped to a space that can be separated at a linear boundary and then separated by the same mechanism as the linear SVM, the essential part may be considered the same as the linear SVM. Therefore, the linear SVM and the nonlinear SVM are simply referred to as SVM. In addition, the non-linear SVM can constitute a non-linear multi-class SVM similarly to the linear SVM. The linear multi-class SVM and the non-linear multi-class SVM are collectively referred to as a multi-class SVM.

また、SVMではn(n>2)クラス以上の識別にはn個以上のSVMが必要となるが、ニューラルネットワークを用いると、3クラス以上の識別を一度に行うことができる。ただし、ニューラルネットワークには、SVMと比較して、学習サンプル数が一定数以上無いと、識別性能を上げることができないという欠点がある。いずれにしても、推定部14は、学習時に用いた学習データに基づき、線形SVM、非線形SVM、ニューラルネットワーク等による識別を行うことによって、未知の画像データの特徴ベクトルを入力すると、上記の仕組みにより、該特徴ベクトルから最も確からしい疾患名を推定することができる。   Further, in the SVM, n or more SVMs are required for identification of n (n> 2) classes or more. However, when a neural network is used, three or more classes can be identified at a time. However, the neural network has a drawback in that the discrimination performance cannot be improved if the number of learning samples is not greater than a certain number, as compared with the SVM. In any case, when the estimation unit 14 inputs a feature vector of unknown image data by performing identification using linear SVM, nonlinear SVM, neural network, or the like based on the learning data used at the time of learning, the above-described mechanism is used. The most likely disease name can be estimated from the feature vector.

順位補正部15は、類似順位計算部13によって計算された、画像データベース21に記憶されている各画像データの、検索対象の画像データ(クエリ画像データ)との類似度の順位を、推定部14による推定結果に基づいて補正する。具体的には、検索対象の画像データ(クエリ画像データ)との類似度が第1位の画像データに紐付けられている疾患名と、クエリ画像データの推定部14による推定結果とが一致しない場合、推定部14の推定結果の方を正しいと想定して、該推定結果と一致する疾患名に紐付けられた画像データの類似度の順位をN(例えば1)だけ上げる。   The rank correction unit 15 calculates the rank of similarity between the image data calculated by the similarity rank calculation unit 13 and the image data (query image data) to be searched for, stored in the image database 21. Correction based on the estimation result by Specifically, the disease name associated with the image data having the first similarity with the image data to be searched (query image data) does not match the estimation result by the query image data estimation unit 14. In this case, assuming that the estimation result of the estimation unit 14 is correct, the similarity ranking of the image data associated with the disease name that matches the estimation result is increased by N (for example, 1).

提示部16は、順位補正部15が補正した順位に基づいて、類似度が第1位の画像データから順番に所定の順位まで(例えば第5位まで)、画像データと疾患名を出力部33に表示させる。なお、提示部16による結果の提示方法は適宜変更することができる。例えば、類似度が第1位の画像データのみを出力部33に表示させたり、類似度が第1位の画像データに紐付けられた疾患名のみを出力部33に表示させたりしても良い。また、提示部16は、例えば、類似順位計算部13によって計算された、類似度が第1位の画像データに紐付けられている疾患名と、クエリ画像データの推定部14による推定結果と、が一致するか否かを出力部33に表示させても良い。つまり、提示部16は、類似順位計算部13によって計算された、類似度が第1位の画像データに紐付けられている疾患名と、クエリ画像データの推定部14による推定結果と、が一致するか否かの判定結果に応じて所定の提示を行う。   The presentation unit 16 outputs the image data and the disease name from the image data having the first similarity to the predetermined order (for example, up to the fifth), based on the order corrected by the order correction unit 15. To display. In addition, the presentation method of the result by the presentation part 16 can be changed suitably. For example, only the image data with the first similarity may be displayed on the output unit 33, or only the disease name associated with the image data with the first similarity may be displayed on the output unit 33. . Further, the presentation unit 16 calculates, for example, the disease name calculated by the similarity rank calculation unit 13 and associated with the image data having the first similarity, the estimation result by the query image data estimation unit 14, May be displayed on the output unit 33. That is, the presentation unit 16 matches the disease name calculated by the similarity ranking calculation unit 13 and associated with the image data having the first similarity with the estimation result of the query image data estimation unit 14. A predetermined presentation is made according to the determination result of whether or not to do.

以上、画像処理装置100の機能構成について説明した。次に、画像処理装置100が画像データベース21に画像データを登録する処理について、図4を参照して説明する。この処理は、ユーザが画像処理装置100に、画像データベース21への画像データの登録を指示すると開始される。   The functional configuration of the image processing apparatus 100 has been described above. Next, a process in which the image processing apparatus 100 registers image data in the image database 21 will be described with reference to FIG. This process is started when the user instructs the image processing apparatus 100 to register image data in the image database 21.

まず、画像処理装置100の画像取得部11は、画像入力部31から画像データを取得する(ステップS101)。次に、画像取得部11は、名称入力部32から疾患名を取得する(ステップS102)。そして、ステップS101で画像取得部11が取得した画像データから、特徴ベクトル抽出部12が、特徴ベクトルを抽出する(ステップS103)。   First, the image acquisition unit 11 of the image processing apparatus 100 acquires image data from the image input unit 31 (step S101). Next, the image acquisition unit 11 acquires a disease name from the name input unit 32 (step S102). And the feature vector extraction part 12 extracts a feature vector from the image data which the image acquisition part 11 acquired by step S101 (step S103).

そして、ステップS101で画像取得部11が取得した画像データ、ステップS102で画像取得部11が取得した疾患名及びステップS103で特徴ベクトル抽出部12が抽出した特徴ベクトルを紐付けて、制御部10が、画像データベース21に登録する(ステップS104)。そして、制御部10は、画像入力部31から入力される全ての画像について、画像データベース21への登録を終了したか否かを判定する(ステップS105)。終了していなければ(ステップS105;No)、ステップS101に戻り、終了していれば(ステップS105;Yes)、画像データベース登録処理を終了する。   Then, the control unit 10 associates the image data acquired by the image acquisition unit 11 in step S101, the disease name acquired by the image acquisition unit 11 in step S102, and the feature vector extracted by the feature vector extraction unit 12 in step S103. Then, it is registered in the image database 21 (step S104). And the control part 10 determines whether registration to the image database 21 was complete | finished about all the images input from the image input part 31 (step S105). If not completed (step S105; No), the process returns to step S101. If completed (step S105; Yes), the image database registration process is terminated.

以上の画像データベース登録処理によって、画像データベース21に、図2に示すように、画像データ、特徴ベクトル、疾患名が関連づけられて(紐付けられて)登録される。次に、画像処理装置100の推定部14を学習させて、未知の画像データから疾患名を推定できるようにするための推定部学習処理について、図5を参照して説明する。この処理は、ユーザが画像処理装置100に、推定部14の学習を指示すると開始される。ここでは、画像データベース21に登録されている画像データ及び疾患名を、推定部14を学習させるための学習データとして用いるが、学習データ用の画像データ及び疾患名を別途用意して、以下の推定部学習処理で用いても良い。   Through the above image database registration processing, image data, feature vectors, and disease names are registered in association (linked) with the image database 21 as shown in FIG. Next, an estimation unit learning process for allowing the estimation unit 14 of the image processing apparatus 100 to learn and estimating a disease name from unknown image data will be described with reference to FIG. This process is started when the user instructs the image processing apparatus 100 to learn the estimation unit 14. Here, the image data and the disease name registered in the image database 21 are used as learning data for causing the estimation unit 14 to learn. However, the image data and the disease name for learning data are separately prepared, and the following estimation is performed. It may be used in the part learning process.

まず、画像処理装置100の制御部10は、画像データベース21から画像データを一つ選択する。この選択は、例えば、画像データベース21に登録された順番に選択する等、画像データベース21に記憶されている画像データを1つずつ選択して、最終的に全ての画像データを選択できるように選択するのであれば、任意の順番で選択して良い。そして、制御部10は、選択した画像データに紐付いている特徴ベクトルと疾患名とを学習データとして取得する(ステップS201)。次に、制御部10は、ステップS201で取得した特徴ベクトルと疾患名とを用いて推定部14を学習させる(ステップS202)。そして、制御部10は、画像データベース21に記憶されている全ての画像データについて、推定部14への学習を終了したか否かを判定する(ステップS203)。終了していなければ(ステップS203;No)、ステップS201に戻り、終了していれば(ステップS203;Yes)、推定部学習処理を終了する。   First, the control unit 10 of the image processing apparatus 100 selects one image data from the image database 21. For this selection, for example, the image data stored in the image database 21 is selected one by one, such as selecting in the order registered in the image database 21, and finally all the image data can be selected. If so, they may be selected in any order. And the control part 10 acquires the feature vector and disease name linked | related with the selected image data as learning data (step S201). Next, the control unit 10 causes the estimation unit 14 to learn using the feature vector and disease name acquired in step S201 (step S202). And the control part 10 determines whether the learning to the estimation part 14 was complete | finished about all the image data memorize | stored in the image database 21 (step S203). If not completed (step S203; No), the process returns to step S201, and if completed (step S203; Yes), the estimation unit learning process is terminated.

以上の推定部学習処理によって、推定部14は画像データベース21に登録されているデータを学習サンプルとして用いて学習される。この学習の結果、推定部14は、画像データの特徴ベクトルを入力すると、該特徴ベクトルから推定される疾患名を出力するようになる。次に、画像処理装置100に、疾患名が不明の疾患部の画像データを入力すると、該画像データに類似する画像データ及び疾患名を提示する画像処理について、図6を参照して説明する。この処理は、ユーザが画像処理装置100に、画像処理を指示すると開始される。   Through the above estimation unit learning process, the estimation unit 14 learns using data registered in the image database 21 as a learning sample. As a result of this learning, when the feature unit of the image data is input, the estimation unit 14 outputs a disease name estimated from the feature vector. Next, when image data of a diseased part whose disease name is unknown is input to the image processing apparatus 100, image processing that presents image data and a disease name similar to the image data will be described with reference to FIG. This process is started when the user instructs the image processing apparatus 100 to perform image processing.

まず、画像取得部11は、画像入力部31から入力した疾患名が未知の疾患部の画像データ(これを「クエリ画像データ」と言う。)を取得する(ステップS301)。ステップS301は、画像取得ステップとも呼ばれる。そして、特徴ベクトル抽出部12は、クエリ画像データの特徴ベクトルを抽出する(ステップS302)。ステップS302は、特徴ベクトル抽出ステップとも呼ばれる。   First, the image acquisition unit 11 acquires image data of a diseased part whose disease name is unknown input from the image input unit 31 (referred to as “query image data”) (step S301). Step S301 is also called an image acquisition step. Then, the feature vector extraction unit 12 extracts a feature vector of the query image data (Step S302). Step S302 is also referred to as a feature vector extraction step.

次に、類似順位計算部13は、クエリ画像データの特徴ベクトルと画像データベース21中の各特徴ベクトルとの類似度を計算する(ステップS303)。類似度の計算方法としては、種々の方法を適宜使用することができる。例えば、類似度を計算する対象となる2つのベクトルのノルムをそれぞれ1に正規化してから、この2つのベクトルの内積を計算した結果を類似度とする方法がある。内積による類似度は、0以上1以下の範囲の値となり、最も類似(2つのベクトルが一致)している場合には1になる。また、別の方法としては、2つのベクトルの差のベクトルのノルム(2つのベクトルの距離)を類似度とする方法がある。ノルムによる類似度は、0以上の値になり、最も類似(2つのベクトルが一致)している場合には0になる。なお、ここでは、単にノルムと言った場合は、ユークリッドノルム(各要素を二乗したものの総和の平方根)のことを指すものとする。   Next, the similarity rank calculation unit 13 calculates the similarity between the feature vector of the query image data and each feature vector in the image database 21 (step S303). Various methods can be appropriately used as a method of calculating the similarity. For example, there is a method in which the norm of two vectors for which similarity is calculated is normalized to 1, and the result of calculating the inner product of the two vectors is used as the similarity. The similarity based on the inner product is a value in the range of 0 to 1, and becomes 1 when the two are most similar (the two vectors match). As another method, there is a method in which a vector norm (a distance between two vectors) of a difference between two vectors is used as a similarity. The similarity based on the norm is 0 or more, and is 0 when the similarity is the most similar (the two vectors match). Note that here, the simple norm refers to the Euclidean norm (the square root of the sum of the squares of each element).

そして、類似順位計算部13は、ステップS303で計算した、クエリ画像データとの類似度が高い順に画像データベース21中の画像データをソートして、画像データベース21の中での各画像データの順位を計算する(ステップS304)。ステップS304は類似順位計算ステップとも呼ばれる。例えば、類似度として内積による類似度を採用した場合は類似度(内積)の値が大きい順に、類似度としてノルムによる類似度を採用した場合は類似度(ノルム)の値が小さい順に、それぞれソートして順位を計算する。   Then, the similarity rank calculation unit 13 sorts the image data in the image database 21 in descending order of similarity with the query image data calculated in step S303, and sets the rank of each image data in the image database 21. Calculate (step S304). Step S304 is also called a similarity ranking calculation step. For example, when similarity by inner product is adopted as the similarity, sorting is performed in descending order of similarity (inner product), and when similarity by norm is adopted as similarity, sorting is performed in ascending order of similarity (norm). And calculate the ranking.

次に、制御部10は、推定部14に、クエリ画像データの特徴ベクトルを入力し、推定部14は、該クエリ画像データの特徴ベクトルから推定される疾患名を出力する(ステップS305)。ステップS305は推定ステップとも呼ばれる。そして、順位補正部15は、ステップS304での類似度の順位の計算の結果、類似度が第1位になった画像データに紐付いた疾患名と、ステップS305で推定された疾患名とが一致するか否かを判定する(ステップS306)。疾患名が一致するなら(ステップS306;Yes)、ステップS308に進む。なお、ステップS306において、順位補正部15は判定部として機能する。また、ステップS306は判定ステップとも呼ばれる。   Next, the control unit 10 inputs the feature vector of the query image data to the estimation unit 14, and the estimation unit 14 outputs a disease name estimated from the feature vector of the query image data (step S305). Step S305 is also called an estimation step. Then, as a result of the similarity rank calculation in step S304, the rank correction unit 15 matches the disease name associated with the image data having the first similarity degree and the disease name estimated in step S305. It is determined whether or not to perform (step S306). If the disease names match (step S306; Yes), the process proceeds to step S308. In step S306, the rank correction unit 15 functions as a determination unit. Step S306 is also called a determination step.

疾患名が一致しないなら(ステップS306;No)、ステップS304でのソートの結果得られた順位において、順位補正部15は、推定部14が推定した疾患名が紐付いた画像データの順位をN(例えば1)上げる(ステップS307)ことによって、順位を補正する。ステップS307は、順位補正ステップとも呼ばれる。   If the disease names do not match (step S306; No), in the rank obtained as a result of the sorting in step S304, the rank correction unit 15 sets the rank of the image data associated with the disease name estimated by the estimation unit 14 to N ( For example, the order is corrected by raising 1) (step S307). Step S307 is also referred to as a rank correction step.

そして、提示部16は、各画像データの順位にしたがって、第1位から順番に画像データ及び疾患名を出力部33から提示する(ステップS308)。ステップS308は、提示ステップとも呼ばれる。ステップS308では、提示部16は少なくとも第1位の画像データ又は疾患名を出力部33から提示するが、第何位の順位まで提示するかは適宜設定することができる。そして、制御部10は、画像処理を終了する。   Then, the presentation unit 16 presents the image data and the disease name from the output unit 33 in order from the first place according to the order of each image data (step S308). Step S308 is also referred to as a presentation step. In step S308, the presentation unit 16 presents at least the first-ranked image data or disease name from the output unit 33, but it is possible to appropriately set how many ranks are presented. Then, the control unit 10 ends the image processing.

N=1としたとき、ステップS307で順位が補正される様子を図7に示す。図7では、ステップS304における類似度によるソートでは、第1位の疾患名はほくろであったが、ステップS305で推定部14によって推定された疾患名がメラノーマだったため、ステップS307でメラノーマの順位が1つ上がっている様子が示されている。この結果、第1位の疾患名はメラノーマになり、クエリ画像はメラノーマの可能性が高いという診断結果を得ることができるようになる。   FIG. 7 shows how the order is corrected in step S307 when N = 1. In FIG. 7, in the sorting based on the similarity in step S304, the first disease name is a mole, but since the disease name estimated by the estimation unit 14 in step S305 is melanoma, the rank of melanoma is determined in step S307. It is shown that it is one up. As a result, the first-ranked disease name becomes melanoma, and the query image can obtain a diagnosis result that the possibility of melanoma is high.

この、類似順位計算部13によって計算された順位が、推定部14による疾患名の推定によって補正される仕組みについて、図8を参照して説明する。実際には画像データの特徴ベクトルの次元数は2よりも大きいが、分かりやすく示すために、ここでは仮に画像データの特徴ベクトルが2次元ベクトルで、識別すべき疾患名は2種類であると仮定する。図8で、○及び●はほくろの特徴ベクトルの値を示し、☆及び★はメラノーマの特徴ベクトルの値を示しているものとする。また■はクエリ画像の特徴ベクトルF1の値を示しているものとする。また境界線Lは、推定部14が備える線形SVMによる、ほくろとメラノーマとを識別する境界線であり、この境界線は○及び●並びに☆及び★の各データを学習データとして線形SVMに学習させた結果得られたものである。   A mechanism in which the rank calculated by the similarity rank calculation unit 13 is corrected by the estimation of the disease name by the estimation unit 14 will be described with reference to FIG. Actually, the number of dimensions of the feature vector of the image data is larger than 2, but for the sake of clarity, it is assumed here that the feature vector of the image data is a two-dimensional vector and there are two types of disease names to be identified. To do. In FIG. 8, ◯ and ● indicate the value of the mole feature vector, and ☆ and ★ indicate the value of the melanoma feature vector. Also, ■ indicates the value of the feature vector F1 of the query image. The boundary line L is a boundary line for identifying a mole and a melanoma by the linear SVM included in the estimation unit 14. It was obtained as a result.

この時、図8で■(クエリ画像の特徴ベクトルF1)に最も類似する特徴ベクトルは●(ほくろの特徴ベクトルF2)で、2番目に類似する特徴ベクトルは★(メラノーマの特徴ベクトルF3)である。つまり、類似順位計算部13による類似度の順位の計算の結果、第1位となる特徴ベクトルはF2の●であり、疾患名はほくろということになる。しかし、推定部14では、F1で示される■は境界線Lの右下にあるため、疾患名はメラノーマであると推定される。そして、ソートによる第1位の疾患名と推定部14によって推定される疾患名とが異なるため、推定部14によって推定された疾患名に対応する特徴ベクトルの順位が上げられ、F3の★の特徴ベクトルの順位が第1位に補正される。図8を見てもわかるが、境界線Lの付近では、特徴ベクトルが類似していても、疾患名が異なる場合が散見される。したがって、類似度に加えて、推定部14による推定結果をも考慮して疾患名を識別することにより、識別精度を向上させることができる。   At this time, in FIG. 8, the feature vector most similar to ■ (query image feature vector F1) is ● (mole feature vector F2), and the second most similar feature vector is ★ (melanoma feature vector F3). . That is, as a result of the similarity rank calculation by the similarity rank calculation unit 13, the feature vector that is the first rank is F2 ●, and the disease name is the mole. However, the estimation unit 14 estimates that the name of the disease is melanoma because the black square indicated by F1 is at the lower right of the boundary line L. Since the first disease name by sorting is different from the disease name estimated by the estimation unit 14, the rank of the feature vector corresponding to the disease name estimated by the estimation unit 14 is increased, and the feature of F3 ★ The vector rank is corrected to the first rank. As can be seen from FIG. 8, in the vicinity of the boundary line L, there are some cases where the disease vectors are different even though the feature vectors are similar. Therefore, identification accuracy can be improved by identifying the disease name in consideration of the estimation result by the estimation unit 14 in addition to the similarity.

上記例では、順位補正部15が順位を上げる数値であるNを1としたが、これは、推定部14の推定が間違ってしまった場合に、間違った疾患名が第1位になってしまう可能性を低減させるためである。推定部14による推定の性能が高い場合にはこのNを2以上の値にしても良い。また、推定部14が推定の信頼度(例えばクエリ画像データの特徴ベクトルとSVMの境界との距離が大きければ信頼度は高いと考えられる)を出力できる場合は、信頼度の高さに応じてNの値を動的に変更することも可能である。   In the above example, N, which is a numerical value that the rank correction unit 15 increases the rank, is set to 1. This is because if the estimation unit 14 makes a mistake, the wrong disease name becomes the first. This is to reduce the possibility. When the estimation performance by the estimation unit 14 is high, N may be a value of 2 or more. Further, when the estimation unit 14 can output the reliability of estimation (for example, the reliability is considered to be high if the distance between the feature vector of the query image data and the boundary of the SVM is large), depending on the high reliability. It is also possible to change the value of N dynamically.

また、上記のステップS308では、提示部16は、各画像データの順位にしたがって、第1位から順番に画像データ及び疾患名を提示しているが、このような提示は必須ではない。例えば、提示部16は、ステップS306における判定結果(疾患名が一致するか否か)を出力部33から提示しても良い。   Moreover, in said step S308, although the presentation part 16 presents image data and a disease name in order from the 1st place according to the order of each image data, such presentation is not essential. For example, the presentation unit 16 may present the determination result in step S306 (whether or not the disease names match) from the output unit 33.

また、上述したように、推定部14は、線形SVMだけでなく、ニューラルネットを用いることもできるが、線形SVMを用いた場合は、以下の特長がある。
・処理が高速である。
・学習サンプル数が少なくても比較的高い識別精度を得ることができる。
・識別精度を向上させるためのパラメータ調整が比較的簡単である。
Further, as described above, the estimation unit 14 can use not only a linear SVM but also a neural network. However, the use of the linear SVM has the following features.
・ Processing is fast.
A relatively high identification accuracy can be obtained even with a small number of learning samples.
・ Parameter adjustment to improve identification accuracy is relatively easy.

また、推定部14に、ニューラルネットワークを用いた場合は、以下の特長がある。
・十分な量の学習サンプルを用いて学習させれば識別精度はSVMよりも高くなる。
しかし、ニューラルネットワークを用いると、逆に、以下の欠点もある。
・処理が低速である。
・学習サンプル数が少ないと識別精度が低くなる。
・識別精度を向上させるためのパラメータ調整が難しい。
Further, when a neural network is used for the estimation unit 14, the following features are obtained.
-If it learns using a sufficient amount of learning samples, identification accuracy will become higher than SVM.
However, when a neural network is used, there are the following disadvantages.
・ Processing is slow.
・ If the number of learning samples is small, the identification accuracy is low.
-It is difficult to adjust parameters to improve identification accuracy.

したがって、学習サンプルの個数に応じて、推定部14で用いる識別器をSVMにするか、ニューラルネットワークにするか使い分けても良い。例えば、学習サンプルの個数が基準個数(例えば1万個)以上ならニューラルネットワークを用い、基準個数未満ならSVMを用いることができる。このようにすると、学習サンプル数が基準個数未満でもSVMによって比較的高い識別精度を得ることができ、学習サンプル数が基準値以上ならニューラルネットワークによってさらに高い識別精度を得ることができるようになる。   Therefore, according to the number of learning samples, the classifier used in the estimation unit 14 may be SVM or neural network. For example, a neural network can be used if the number of learning samples is greater than or equal to a reference number (for example, 10,000), and SVM can be used if the number is less than the reference number. In this way, even if the number of learning samples is less than the reference number, relatively high discrimination accuracy can be obtained by SVM, and if the number of learning samples is equal to or greater than the reference value, higher discrimination accuracy can be obtained by the neural network.

なお、上記実施形態では、類似順位計算部13及び推定部14は、特徴ベクトル抽出部12が画像データから抽出した特徴ベクトルを用いて類似度の計算及び推定を行っている。しかし、類似度の計算及び推定は、特徴ベクトルを用いるものに限定する必要はない。例えば、画像データ自体をパターンマッチングする、画像を格子状に分割したものをパターンマッチングする、画像から輪郭線を抽出して輪郭線同士をパターンマッチングする等の方法を採用しても良い。また、特徴ベクトルを用いる場合も、類似順位計算部13が用いる特徴ベクトルと推定部14が用いる特徴ベクトルとを、異なる生成方法による特徴ベクトルにしても良い。この場合、画像データベース21には、各画像データに、特徴ベクトルの項目を2つ設け、一方を類似順位計算部13が用い、他方を推定部14が用いるようにする。   In the above embodiment, the similarity rank calculation unit 13 and the estimation unit 14 calculate and estimate the degree of similarity using the feature vector extracted from the image data by the feature vector extraction unit 12. However, the similarity calculation and estimation need not be limited to those using feature vectors. For example, methods such as pattern matching of image data itself, pattern matching of an image divided in a grid pattern, extraction of contour lines from an image, and pattern matching of contour lines may be employed. Also in the case of using a feature vector, the feature vector used by the similarity rank calculation unit 13 and the feature vector used by the estimation unit 14 may be made into feature vectors by different generation methods. In this case, the image database 21 is provided with two feature vector items for each image data, and one is used by the similarity rank calculation unit 13 and the other is used by the estimation unit 14.

また、上記実施形態では、画像入力部31から入力される画像は疾患の患部の画像であり、名称入力部32から入力される名称は疾患の名称であった。しかし、これに限定する必要はない。例えば、画像入力部31から入力される画像は食品(例えばパン)の画像で、名称入力部32から入力される名称は該食品(例えばパン)の名称であっても良い。また、画像入力部31から入力される画像は自動車の画像で、名称入力部32から入力される名称は該自動車の名称であっても良い。これらに限らず、名称を付けることができる画像に対してなら、任意の画像に対して、上記実施形態を適用することが可能である。   Moreover, in the said embodiment, the image input from the image input part 31 is an image of the affected part of a disease, and the name input from the name input part 32 was the name of the disease. However, it is not necessary to limit to this. For example, the image input from the image input unit 31 may be an image of food (for example, bread), and the name input from the name input unit 32 may be the name of the food (for example, bread). The image input from the image input unit 31 may be an image of a car, and the name input from the name input unit 32 may be the name of the car. The present invention is not limited to these, and the above-described embodiment can be applied to any image as long as the image can be given a name.

なお、画像処理装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像処理装置100が行う画像処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。   Each function of the image processing apparatus 100 can also be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the image processing program performed by the image processing apparatus 100 has been described as being stored in advance in the ROM of the storage unit 20. However, the program is stored and distributed on a computer-readable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), DVD (Digital Versatile Disc), and MO (Magneto-Optical Disc). A computer capable of realizing each of the functions described above may be configured by reading and installing the program on a computer.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
画像データを取得する画像取得部と、
前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベースと、
前記画像取得部が取得した画像データに類似する程度を示す類似度を、前記画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算部と、
前記画像取得部が取得した画像データに係る名称を推定する推定部と、
前記類似順位計算部が計算した前記第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが一致するか否かを判定する判定部と、
前記判定部が判定した結果に応じて所定の提示を行う提示部と、
を備える画像処理装置。
(Appendix 1)
An image acquisition unit for acquiring image data;
An image database for storing the image data and a name related to the image data in association with each other;
The similarity indicating the degree of similarity to the image data acquired by the image acquisition unit is obtained for each image data in the image database, and the first rank of the similarity of the image data in the image database is calculated. A similarity ranking calculation unit,
An estimation unit that estimates a name related to the image data acquired by the image acquisition unit;
A determination unit that determines whether a name associated with the first-order image data calculated by the similarity rank calculation unit matches a name estimated by the estimation unit;
A presentation unit that performs a predetermined presentation according to a result determined by the determination unit;
An image processing apparatus comprising:

(付記2)
前記類似順位計算部は、前記各画像データの前記類似度の前記画像データベース中での順位を計算する、
付記1に記載の画像処理装置。
(Appendix 2)
The similarity rank calculation unit calculates the rank in the image database of the similarity of each image data;
The image processing apparatus according to appendix 1.

(付記3)
前記判定部が前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なると判定した場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を補正する順位補正部を備え、
前記提示部は、前記順位補正部が補正した順位の順番で、少なくとも第1位の前記画像データを提示する、
付記2に記載の画像処理装置。
(Appendix 3)
When the determination unit determines that the name calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the similarity rank calculation unit Among the image data whose rank is calculated, a rank correction unit that corrects the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit,
The presenting unit presents at least the first image data in the order of the ranks corrected by the rank correction unit.
The image processing apparatus according to appendix 2.

(付記4)
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を1だけ上げる、
付記3に記載の画像処理装置。
(Appendix 4)
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by 1.
The image processing apparatus according to appendix 3.

(付記5)
前記推定部は、前記名称を推定する際の信頼度を出力し、
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を、前記信頼度に応じた値だけ上げる、
付記3に記載の画像処理装置。
(Appendix 5)
The estimation unit outputs a reliability when estimating the name,
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by a value corresponding to the reliability.
The image processing apparatus according to appendix 3.

(付記6)
前記画像取得部が取得した画像データから特徴ベクトルを抽出する特徴ベクトル抽出部を備え、
前記画像データベースは、前記特徴ベクトル抽出部が抽出した特徴ベクトルを前記画像データと紐付けて記憶し、
前記類似順位計算部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記類似度を求め、
前記推定部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記画像データに係る名称を推定する、
付記1から5のいずれか1つに記載の画像処理装置。
(Appendix 6)
A feature vector extraction unit that extracts a feature vector from the image data acquired by the image acquisition unit;
The image database stores the feature vector extracted by the feature vector extraction unit in association with the image data,
The similarity rank calculation unit obtains the similarity using the feature vector extracted by the feature vector extraction unit,
The estimation unit estimates a name related to the image data using the feature vector extracted by the feature vector extraction unit;
The image processing apparatus according to any one of appendices 1 to 5.

(付記7)
前記類似順位計算部は、前記特徴ベクトルの間の距離を求めることによって、前記類似度を求める、
付記6に記載の画像処理装置。
(Appendix 7)
The similarity ranking calculation unit obtains the similarity by obtaining a distance between the feature vectors;
The image processing apparatus according to appendix 6.

(付記8)
前記推定部は、SVM(Support Vector Machine)により、前記名称を推定する、
付記1から7のいずれか1つに記載の画像処理装置。
(Appendix 8)
The estimation unit estimates the name by SVM (Support Vector Machine).
The image processing apparatus according to any one of appendices 1 to 7.

(付記9)
前記推定部は、ニューラルネットワークにより、前記名称を推定する、
付記1から7のいずれか1つに記載の画像処理装置。
(Appendix 9)
The estimation unit estimates the name by a neural network.
The image processing apparatus according to any one of appendices 1 to 7.

(付記10)
前記推定部の学習に用いる学習サンプルの個数が基準個数以上なら、
前記推定部は、ニューラルネットワークにより、前記名称を推定し、
前記推定部の学習に用いる学習サンプルの個数が基準個数未満なら、
前記推定部は、SVMにより、前記名称を推定する、
付記1から7のいずれか1つに記載の画像処理装置。
(Appendix 10)
If the number of learning samples used for learning by the estimation unit is greater than or equal to the reference number,
The estimation unit estimates the name by a neural network,
If the number of learning samples used for learning of the estimation unit is less than the reference number,
The estimation unit estimates the name by SVM.
The image processing apparatus according to any one of appendices 1 to 7.

(付記11)
前記画像データは、疾患の患部の画像データであり、
前記名称は、前記疾患の名称である、
付記1から10のいずれか1つに記載の画像処理装置。
(Appendix 11)
The image data is image data of an affected area of a disease,
The name is the name of the disease,
The image processing apparatus according to any one of appendices 1 to 10.

(付記12)
画像データを取得する画像取得ステップと、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップと、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップと、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップと、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップと、
を含む画像処理方法。
(Appendix 12)
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step of calculating the first rank of the similarity in the image database;
An estimation step of estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step;
A presenting step for performing predetermined presentation according to the result determined in the determining step;
An image processing method including:

(付記13)
コンピュータに、
画像データを取得する画像取得ステップ、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップ、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップ、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップ、及び、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップ、
を実行させるためのプログラム。
(Appendix 13)
On the computer,
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step for calculating the first rank of the similarity in the image database;
An estimation step for estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step; and
A presenting step for performing predetermined presentation according to the result determined in the determining step;
A program for running

10…制御部、11…画像取得部、12…特徴ベクトル抽出部、13…類似順位計算部、14…推定部、15…順位補正部、16…提示部、20…記憶部、21…画像データベース、31…画像入力部、32…名称入力部、33…出力部、100…画像処理装置、F1…クエリ画像の特徴ベクトル、F2…ほくろの特徴ベクトル、F3…メラノーマの特徴ベクトル、L…境界線 DESCRIPTION OF SYMBOLS 10 ... Control part, 11 ... Image acquisition part, 12 ... Feature vector extraction part, 13 ... Similarity order calculation part, 14 ... Estimation part, 15 ... Order correction part, 16 ... Presentation part, 20 ... Storage part, 21 ... Image database 31 ... Image input unit, 32 ... Name input unit, 33 ... Output unit, 100 ... Image processing device, F1 ... Feature vector of query image, F2 ... Feature vector of mole, F3 ... Feature vector of melanoma, L ... Boundary line

Claims (13)

画像データを取得する画像取得部と、
前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベースと、
前記画像取得部が取得した画像データに類似する程度を示す類似度を、前記画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算部と、
前記画像取得部が取得した画像データに係る名称を推定する推定部と、
前記類似順位計算部が計算した前記第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが一致するか否かを判定する判定部と、
前記判定部が判定した結果に応じて所定の提示を行う提示部と、
を備える画像処理装置。
An image acquisition unit for acquiring image data;
An image database for storing the image data and a name related to the image data in association with each other;
The similarity indicating the degree of similarity to the image data acquired by the image acquisition unit is obtained for each image data in the image database, and the first rank of the similarity of the image data in the image database is calculated. A similarity ranking calculation unit,
An estimation unit that estimates a name related to the image data acquired by the image acquisition unit;
A determination unit that determines whether a name associated with the first-order image data calculated by the similarity rank calculation unit matches a name estimated by the estimation unit;
A presentation unit that performs a predetermined presentation according to a result determined by the determination unit;
An image processing apparatus comprising:
前記類似順位計算部は、前記各画像データの前記類似度の前記画像データベース中での順位を計算する、
請求項1に記載の画像処理装置。
The similarity rank calculation unit calculates the rank in the image database of the similarity of each image data;
The image processing apparatus according to claim 1.
前記判定部が前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なると判定した場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を補正する順位補正部を備え、
前記提示部は、前記順位補正部が補正した順位の順番で、少なくとも第1位の前記画像データを提示する、
請求項2に記載の画像処理装置。
When the determination unit determines that the name calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the similarity rank calculation unit Among the image data whose rank is calculated, a rank correction unit that corrects the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit,
The presenting unit presents at least the first image data in the order of the ranks corrected by the rank correction unit.
The image processing apparatus according to claim 2.
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を1だけ上げる、
請求項3に記載の画像処理装置。
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by 1.
The image processing apparatus according to claim 3.
前記推定部は、前記名称を推定する際の信頼度を出力し、
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を、前記信頼度に応じた値だけ上げる、
請求項3に記載の画像処理装置。
The estimation unit outputs a reliability when estimating the name,
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by a value corresponding to the reliability.
The image processing apparatus according to claim 3.
前記画像取得部が取得した画像データから特徴ベクトルを抽出する特徴ベクトル抽出部を備え、
前記画像データベースは、前記特徴ベクトル抽出部が抽出した特徴ベクトルを前記画像データと紐付けて記憶し、
前記類似順位計算部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記類似度を求め、
前記推定部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記画像データに係る名称を推定する、
請求項1から5のいずれか1項に記載の画像処理装置。
A feature vector extraction unit that extracts a feature vector from the image data acquired by the image acquisition unit;
The image database stores the feature vector extracted by the feature vector extraction unit in association with the image data,
The similarity rank calculation unit obtains the similarity using the feature vector extracted by the feature vector extraction unit,
The estimation unit estimates a name related to the image data using the feature vector extracted by the feature vector extraction unit;
The image processing apparatus according to claim 1.
前記類似順位計算部は、前記特徴ベクトルの間の距離を求めることによって、前記類似度を求める、
請求項6に記載の画像処理装置。
The similarity ranking calculation unit obtains the similarity by obtaining a distance between the feature vectors;
The image processing apparatus according to claim 6.
前記推定部は、SVM(Support Vector Machine)により、前記名称を推定する、
請求項1から7のいずれか1項に記載の画像処理装置。
The estimation unit estimates the name by SVM (Support Vector Machine).
The image processing apparatus according to claim 1.
前記推定部は、ニューラルネットワークにより、前記名称を推定する、
請求項1から7のいずれか1項に記載の画像処理装置。
The estimation unit estimates the name by a neural network.
The image processing apparatus according to claim 1.
前記推定部の学習に用いる学習サンプルの個数が基準個数以上なら、
前記推定部は、ニューラルネットワークにより、前記名称を推定し、
前記推定部の学習に用いる学習サンプルの個数が基準個数未満なら、
前記推定部は、SVMにより、前記名称を推定する、
請求項1から7のいずれか1項に記載の画像処理装置。
If the number of learning samples used for learning by the estimation unit is greater than or equal to the reference number,
The estimation unit estimates the name by a neural network,
If the number of learning samples used for learning of the estimation unit is less than the reference number,
The estimation unit estimates the name by SVM.
The image processing apparatus according to claim 1.
前記画像データは、疾患の患部の画像データであり、
前記名称は、前記疾患の名称である、
請求項1から10のいずれか1項に記載の画像処理装置。
The image data is image data of an affected area of a disease,
The name is the name of the disease,
The image processing apparatus according to claim 1.
画像データを取得する画像取得ステップと、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップと、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップと、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップと、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップと、
を含む画像処理方法。
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step of calculating the first rank of the similarity in the image database;
An estimation step of estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step;
A presenting step for performing predetermined presentation according to the result determined in the determining step;
An image processing method including:
コンピュータに、
画像データを取得する画像取得ステップ、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップ、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップ、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップ、及び、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップ、
を実行させるためのプログラム。
On the computer,
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step for calculating the first rank of the similarity in the image database;
An estimation step for estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step; and
A presenting step for performing predetermined presentation according to the result determined in the determining step;
A program for running
JP2017059264A 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs Active JP7024197B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017059264A JP7024197B2 (en) 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059264A JP7024197B2 (en) 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018161206A true JP2018161206A (en) 2018-10-18
JP7024197B2 JP7024197B2 (en) 2022-02-24

Family

ID=63859348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059264A Active JP7024197B2 (en) 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP7024197B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166378A (en) * 2019-03-28 2020-10-08 京セラ株式会社 Disease estimation system
JP2020201697A (en) * 2019-06-10 2020-12-17 TXP Medical株式会社 Diagnosis support system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010082001A (en) * 2008-09-29 2010-04-15 Toshiba Corp Image display device
WO2010122721A1 (en) * 2009-04-22 2010-10-28 日本電気株式会社 Matching device, matching method, and matching program
JP2012179336A (en) * 2011-03-02 2012-09-20 Stat Lab:Kk Pathology image diagnosis support system
JP2012249964A (en) * 2011-06-06 2012-12-20 Canon Inc Device and method for diagnosis support
JP2015154918A (en) * 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for lesion detection
JP2017045341A (en) * 2015-08-28 2017-03-02 カシオ計算機株式会社 Diagnostic apparatus, leaning processing method in diagnostic apparatus, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010082001A (en) * 2008-09-29 2010-04-15 Toshiba Corp Image display device
WO2010122721A1 (en) * 2009-04-22 2010-10-28 日本電気株式会社 Matching device, matching method, and matching program
JP2012179336A (en) * 2011-03-02 2012-09-20 Stat Lab:Kk Pathology image diagnosis support system
JP2012249964A (en) * 2011-06-06 2012-12-20 Canon Inc Device and method for diagnosis support
JP2015154918A (en) * 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for lesion detection
JP2017045341A (en) * 2015-08-28 2017-03-02 カシオ計算機株式会社 Diagnostic apparatus, leaning processing method in diagnostic apparatus, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166378A (en) * 2019-03-28 2020-10-08 京セラ株式会社 Disease estimation system
JP7252035B2 (en) 2019-03-28 2023-04-04 京セラ株式会社 disease estimation system
JP7454724B2 (en) 2019-03-28 2024-03-22 京セラ株式会社 Estimation device, estimation system, control program
JP2020201697A (en) * 2019-06-10 2020-12-17 TXP Medical株式会社 Diagnosis support system
JP7315165B2 (en) 2019-06-10 2023-07-26 TXP Medical株式会社 Diagnosis support system

Also Published As

Publication number Publication date
JP7024197B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
US11551134B2 (en) Information processing apparatus, information processing method, and storage medium
Maier-Hein et al. Metrics reloaded: recommendations for image analysis validation
US9886669B2 (en) Interactive visualization of machine-learning performance
US10853407B2 (en) Correlating image annotations with foreground features
US20200286402A1 (en) Method and system for assisting with math problem
US11461386B2 (en) Visual recognition using user tap locations
US20170351934A1 (en) Object recognition device, object recognition method, and program
US20190294921A1 (en) Field identification in an image using artificial intelligence
CN107085585A (en) Accurate label dependency prediction for picture search
KR20170007747A (en) Natural language image search
WO2012132418A1 (en) Characteristic estimation device
US10528649B2 (en) Recognizing unseen fonts based on visual similarity
JP5340204B2 (en) Inference apparatus, control method thereof, and program
US20180286023A1 (en) Digital Image Processing through use of an Image Repository
JP6997161B2 (en) Image-based data processing methods, devices, electronic devices, computer-readable storage media and computer programs
US11645478B2 (en) Multi-lingual tagging for digital images
JP2012174222A (en) Image recognition program, method, and device
US20200320409A1 (en) Model creation supporting method and model creation supporting system
CN114092949A (en) Method and device for training class prediction model and identifying interface element class
JP7024197B2 (en) Image processing equipment, image processing methods and programs
US11047696B2 (en) Methods and systems for determining and assigning a primary point-of-interest type for a point-of-interest
US20200117948A1 (en) Object recognition apparatus, object recognition system, and object recognition method
CN117315090A (en) Cross-modal style learning-based image generation method and device
JP2016110256A (en) Information processing device and information processing program
JP2020115175A (en) Information processor, method for processing information, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R150 Certificate of patent or registration of utility model

Ref document number: 7024197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150