JP2018161206A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2018161206A JP2018161206A JP2017059264A JP2017059264A JP2018161206A JP 2018161206 A JP2018161206 A JP 2018161206A JP 2017059264 A JP2017059264 A JP 2017059264A JP 2017059264 A JP2017059264 A JP 2017059264A JP 2018161206 A JP2018161206 A JP 2018161206A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- name
- similarity
- rank
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
診断対象の患部を撮影し、撮影した画像を画像処理することによって診断の支援を行う技術が開発されてきている。例えば、特許文献1には、画像フォーマット等が異なる画像間であっても、類似画像検索を良好に行うことができる類似画像検索装置等が記載されている。
Techniques have been developed for assisting diagnosis by imaging an affected area to be diagnosed and processing the captured image. For example,
特許文献1に記載の類似画像検索装置は、従来の技術に比べて良好な類似画像検索を行うことできる。しかし、画像が類似していても疾患名が異なる事例が一定の数存在しており、そのような事例に対して従来技術を適用すると、誤った疾患名の画像を類似画像として検索してしまう。その結果、疾患名の識別精度が低下してしまうという問題がある。
The similar image search device described in
本発明は、上記問題を解決するためになされたものであり、識別精度を向上させることができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing method, and a program capable of improving identification accuracy.
上記目的を達成するため、本発明の画像処理装置は、
画像データを取得する画像取得部と、
前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベースと、
前記画像取得部が取得した画像データに類似する程度を示す類似度を、前記画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算部と、
前記画像取得部が取得した画像データに係る名称を推定する推定部と、
前記類似順位計算部が計算した前記第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが一致するか否かを判定する判定部と、
前記判定部が判定した結果に応じて所定の提示を行う提示部と、
を備える。
In order to achieve the above object, an image processing apparatus of the present invention provides:
An image acquisition unit for acquiring image data;
An image database for storing the image data and a name related to the image data in association with each other;
The similarity indicating the degree of similarity to the image data acquired by the image acquisition unit is obtained for each image data in the image database, and the first rank of the similarity of the image data in the image database is calculated. A similarity ranking calculation unit,
An estimation unit that estimates a name related to the image data acquired by the image acquisition unit;
A determination unit that determines whether a name associated with the first-order image data calculated by the similarity rank calculation unit matches a name estimated by the estimation unit;
A presentation unit that performs a predetermined presentation according to a result determined by the determination unit;
Is provided.
本発明によれば、識別精度を向上させることができる。 According to the present invention, identification accuracy can be improved.
以下、本発明の実施形態に係る画像処理装置、画像処理方法及びプログラムについて、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。 Hereinafter, an image processing apparatus, an image processing method, and a program according to embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.
本発明の実施形態に係る画像処理装置は、疾患名が不明の画像データが入力されると、その画像データに類似した画像データを画像データベースから検索し、類似度の高い順番に順位付けする。そして、画像データと疾患名とに基づいて学習された推定部による分類結果を用いて、必要に応じて類似度の順位を補正し、その補正後の順位に基づいて、画像データベースに記憶されている画像データを疾患名とともに提示する。これにより、ユーザは、画像処理装置に入力した画像データの疾患名を推定することができる。このような画像処理装置の機能構成及び処理内容について、以下に説明する。 When image data whose disease name is unknown is input, the image processing apparatus according to the embodiment of the present invention searches the image database for image data similar to the image data, and ranks them in order of high similarity. Then, using the classification result obtained by the estimation unit learned based on the image data and the disease name, the similarity ranking is corrected as necessary, and stored in the image database based on the corrected ranking. Present image data together with the disease name. Thereby, the user can estimate the disease name of the image data input to the image processing apparatus. The functional configuration and processing contents of such an image processing apparatus will be described below.
実施形態に係る画像処理装置100は、図1に示すように、制御部10、記憶部20、画像入力部31、名称入力部32、出力部33、を備える。
As illustrated in FIG. 1, the
制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(画像取得部11、特徴ベクトル抽出部12、類似順位計算部13、推定部14、順位補正部15、提示部16)の機能を実現する。
The
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。また、記憶部20は、機能的には、画像データベース21を備える。
The
画像データベース21は、図2に示すように、画像入力部31から入力された画像データ、特徴ベクトル抽出部12が抽出した該画像データの特徴ベクトル及び名称入力部32から入力された該画像データの疾患名をお互いに紐付けて記憶しているデータベースである。
As shown in FIG. 2, the
画像入力部31は、ダーモスコープと呼ばれる特殊な拡大鏡を装着したカメラを備え、疾患の患部の画像を撮影し、該撮影した画像データを入力する。
The
名称入力部32は、キーボード、マウス、タッチパネル等を備え、疾患名(疾患の名称)が判明している患部の画像データが画像入力部31から入力された場合に、該疾患名の入力等を受け付ける。
The
出力部33は、LCD(Liquid Crystal Display)、有機EL(Electro−Luminescence)ディスプレイ等のディスプレイを備え、画像入力部31から入力された画像、該画像から推定される疾患名、該画像に類似する画像データベース21内の画像等を表示する。
The
次に、画像処理装置100の制御部10の機能的構成について説明する。制御部10は、画像取得部11、特徴ベクトル部12、類似順位計算部13、推定部14、順位補正部15及び提示部16の機能を実現する。
Next, a functional configuration of the
画像取得部11は、画像入力部31から疾患部の画像データを取得する。また、名称入力部32が該疾患部の疾患名の入力を受け付けた場合は、画像取得部11は、該疾患名も取得する。そして、画像取得部11は、取得した画像データ及び疾患名を画像データベース21に登録する際には、該画像データと該疾患名とを紐付けて、画像データベース21に登録する。
The image acquisition unit 11 acquires image data of a diseased part from the
特徴ベクトル抽出部12は、画像取得部11が取得した画像データから、特徴ベクトルを抽出する。特徴ベクトルの種類は任意だが、例えば、BoVW(Bag of Visual Words)形式の特徴ベクトルを抽出する。そして、特徴ベクトル抽出部12は、抽出した特徴ベクトルを画像データベース21に登録する際には、該特徴ベクトルを抽出元の画像データに紐付けて登録する。
The feature
類似順位計算部13は、特徴ベクトル抽出部12で抽出した特徴ベクトルを用いて、検索対象の画像データ(クエリ画像データ)に類似する程度を示す類似度を、画像データベース21に記憶されている各画像データについて求める。そして、類似順位計算部13は、求めた各画像データの類似度の、画像データベース21に記憶されている画像データの中での順位を計算する。具体的には、まず、特徴ベクトル抽出部12が、検索対象の画像データ(クエリ画像データ)の特徴ベクトルを抽出する。そして、類似順位計算部13が、該特徴ベクトルと画像データベース21に記憶されている各特徴ベクトルとの類似度を計算し、画像データベース21に記憶されている画像データを該類似度が高い順にソートする。そして、ソートされた結果に順番に順位を割り当てることによって、類似順位計算部13は、画像データベース21に記憶されている各画像データの、検索対象の画像データ(クエリ画像データ)との類似度の高さの順位を求めることができる。
Using the feature vector extracted by the feature
推定部14は、疾患部の画像データの特徴ベクトルに基づき、該疾患部の疾患名を推定する。推定部14は、この推定を、例えば線形SVM(Support Vector Machine)を用いた識別器で行う。線形SVMとは、2種類(2クラス)のデータの境界を決定してデータの種類(クラス)を識別するものである。例えば、図3に示すように、○のデータと☆のデータが与えられた時に、線形SVMは、その境界線Lを決定する。これにより、線形SVMは、未知のデータに対しても、○のクラスに属するデータなのか、☆のクラスに属するデータなのかを識別することができる。
The
1つの線形SVMでは2つのクラスの識別しかできないが、i番目のクラスとi番目以外のクラスとを識別する線形SVMをn個(i=1〜n)用意することによって、n個のクラスの識別を行うことができる。この場合、未知のデータに対しては、最もスコアの高い(該データと境界線との距離が最大となる)線形SVMが、その他のクラスと識別するi番目のクラスが、該データの識別結果となる。このように多くのクラスを分類できるように複数の線形SVMで構成したものを線形多クラスSVMと呼ぶ。 One linear SVM can only identify two classes, but by preparing n linear SVMs (i = 1 to n) for identifying the i-th class and the non-i-th class, Identification can be made. In this case, for unknown data, the i-th class that the linear SVM with the highest score (the distance between the data and the boundary line is the maximum) identifies from other classes is the identification result of the data. It becomes. Such a configuration composed of a plurality of linear SVMs so that many classes can be classified is called a linear multi-class SVM.
なお、推定部14は、線形SVMによる識別器だけでなく、非線形SVMによる識別器、ニューラルネットワーク等を用いても実現することができる。線形SVMは2つのクラスを線形な境界(直線、平面、超平面)で分離するものであるが、非線形SVMは2つのクラスを非線形な境界で分離する。もっとも非線形SVMは、一旦、実空間のデータを線形な境界で分離できる空間に写像してから、線形SVMと同じ仕組みで分離するものなので、本質的な部分は線形SVMと同じと考えて良い。そこで、線形SVMと非線形SVMを合わせて、単にSVMと呼ぶことにする。また、非線形SVMも線形SVMと同様に非線形多クラスSVMを構成できる。線形多クラスSVMと非線形多クラスSVMを合わせて、多クラスSVMと呼ぶことにする。
Note that the
また、SVMではn(n>2)クラス以上の識別にはn個以上のSVMが必要となるが、ニューラルネットワークを用いると、3クラス以上の識別を一度に行うことができる。ただし、ニューラルネットワークには、SVMと比較して、学習サンプル数が一定数以上無いと、識別性能を上げることができないという欠点がある。いずれにしても、推定部14は、学習時に用いた学習データに基づき、線形SVM、非線形SVM、ニューラルネットワーク等による識別を行うことによって、未知の画像データの特徴ベクトルを入力すると、上記の仕組みにより、該特徴ベクトルから最も確からしい疾患名を推定することができる。
Further, in the SVM, n or more SVMs are required for identification of n (n> 2) classes or more. However, when a neural network is used, three or more classes can be identified at a time. However, the neural network has a drawback in that the discrimination performance cannot be improved if the number of learning samples is not greater than a certain number, as compared with the SVM. In any case, when the
順位補正部15は、類似順位計算部13によって計算された、画像データベース21に記憶されている各画像データの、検索対象の画像データ(クエリ画像データ)との類似度の順位を、推定部14による推定結果に基づいて補正する。具体的には、検索対象の画像データ(クエリ画像データ)との類似度が第1位の画像データに紐付けられている疾患名と、クエリ画像データの推定部14による推定結果とが一致しない場合、推定部14の推定結果の方を正しいと想定して、該推定結果と一致する疾患名に紐付けられた画像データの類似度の順位をN(例えば1)だけ上げる。
The
提示部16は、順位補正部15が補正した順位に基づいて、類似度が第1位の画像データから順番に所定の順位まで(例えば第5位まで)、画像データと疾患名を出力部33に表示させる。なお、提示部16による結果の提示方法は適宜変更することができる。例えば、類似度が第1位の画像データのみを出力部33に表示させたり、類似度が第1位の画像データに紐付けられた疾患名のみを出力部33に表示させたりしても良い。また、提示部16は、例えば、類似順位計算部13によって計算された、類似度が第1位の画像データに紐付けられている疾患名と、クエリ画像データの推定部14による推定結果と、が一致するか否かを出力部33に表示させても良い。つまり、提示部16は、類似順位計算部13によって計算された、類似度が第1位の画像データに紐付けられている疾患名と、クエリ画像データの推定部14による推定結果と、が一致するか否かの判定結果に応じて所定の提示を行う。
The presentation unit 16 outputs the image data and the disease name from the image data having the first similarity to the predetermined order (for example, up to the fifth), based on the order corrected by the
以上、画像処理装置100の機能構成について説明した。次に、画像処理装置100が画像データベース21に画像データを登録する処理について、図4を参照して説明する。この処理は、ユーザが画像処理装置100に、画像データベース21への画像データの登録を指示すると開始される。
The functional configuration of the
まず、画像処理装置100の画像取得部11は、画像入力部31から画像データを取得する(ステップS101)。次に、画像取得部11は、名称入力部32から疾患名を取得する(ステップS102)。そして、ステップS101で画像取得部11が取得した画像データから、特徴ベクトル抽出部12が、特徴ベクトルを抽出する(ステップS103)。
First, the image acquisition unit 11 of the
そして、ステップS101で画像取得部11が取得した画像データ、ステップS102で画像取得部11が取得した疾患名及びステップS103で特徴ベクトル抽出部12が抽出した特徴ベクトルを紐付けて、制御部10が、画像データベース21に登録する(ステップS104)。そして、制御部10は、画像入力部31から入力される全ての画像について、画像データベース21への登録を終了したか否かを判定する(ステップS105)。終了していなければ(ステップS105;No)、ステップS101に戻り、終了していれば(ステップS105;Yes)、画像データベース登録処理を終了する。
Then, the
以上の画像データベース登録処理によって、画像データベース21に、図2に示すように、画像データ、特徴ベクトル、疾患名が関連づけられて(紐付けられて)登録される。次に、画像処理装置100の推定部14を学習させて、未知の画像データから疾患名を推定できるようにするための推定部学習処理について、図5を参照して説明する。この処理は、ユーザが画像処理装置100に、推定部14の学習を指示すると開始される。ここでは、画像データベース21に登録されている画像データ及び疾患名を、推定部14を学習させるための学習データとして用いるが、学習データ用の画像データ及び疾患名を別途用意して、以下の推定部学習処理で用いても良い。
Through the above image database registration processing, image data, feature vectors, and disease names are registered in association (linked) with the
まず、画像処理装置100の制御部10は、画像データベース21から画像データを一つ選択する。この選択は、例えば、画像データベース21に登録された順番に選択する等、画像データベース21に記憶されている画像データを1つずつ選択して、最終的に全ての画像データを選択できるように選択するのであれば、任意の順番で選択して良い。そして、制御部10は、選択した画像データに紐付いている特徴ベクトルと疾患名とを学習データとして取得する(ステップS201)。次に、制御部10は、ステップS201で取得した特徴ベクトルと疾患名とを用いて推定部14を学習させる(ステップS202)。そして、制御部10は、画像データベース21に記憶されている全ての画像データについて、推定部14への学習を終了したか否かを判定する(ステップS203)。終了していなければ(ステップS203;No)、ステップS201に戻り、終了していれば(ステップS203;Yes)、推定部学習処理を終了する。
First, the
以上の推定部学習処理によって、推定部14は画像データベース21に登録されているデータを学習サンプルとして用いて学習される。この学習の結果、推定部14は、画像データの特徴ベクトルを入力すると、該特徴ベクトルから推定される疾患名を出力するようになる。次に、画像処理装置100に、疾患名が不明の疾患部の画像データを入力すると、該画像データに類似する画像データ及び疾患名を提示する画像処理について、図6を参照して説明する。この処理は、ユーザが画像処理装置100に、画像処理を指示すると開始される。
Through the above estimation unit learning process, the
まず、画像取得部11は、画像入力部31から入力した疾患名が未知の疾患部の画像データ(これを「クエリ画像データ」と言う。)を取得する(ステップS301)。ステップS301は、画像取得ステップとも呼ばれる。そして、特徴ベクトル抽出部12は、クエリ画像データの特徴ベクトルを抽出する(ステップS302)。ステップS302は、特徴ベクトル抽出ステップとも呼ばれる。
First, the image acquisition unit 11 acquires image data of a diseased part whose disease name is unknown input from the image input unit 31 (referred to as “query image data”) (step S301). Step S301 is also called an image acquisition step. Then, the feature
次に、類似順位計算部13は、クエリ画像データの特徴ベクトルと画像データベース21中の各特徴ベクトルとの類似度を計算する(ステップS303)。類似度の計算方法としては、種々の方法を適宜使用することができる。例えば、類似度を計算する対象となる2つのベクトルのノルムをそれぞれ1に正規化してから、この2つのベクトルの内積を計算した結果を類似度とする方法がある。内積による類似度は、0以上1以下の範囲の値となり、最も類似(2つのベクトルが一致)している場合には1になる。また、別の方法としては、2つのベクトルの差のベクトルのノルム(2つのベクトルの距離)を類似度とする方法がある。ノルムによる類似度は、0以上の値になり、最も類似(2つのベクトルが一致)している場合には0になる。なお、ここでは、単にノルムと言った場合は、ユークリッドノルム(各要素を二乗したものの総和の平方根)のことを指すものとする。
Next, the similarity
そして、類似順位計算部13は、ステップS303で計算した、クエリ画像データとの類似度が高い順に画像データベース21中の画像データをソートして、画像データベース21の中での各画像データの順位を計算する(ステップS304)。ステップS304は類似順位計算ステップとも呼ばれる。例えば、類似度として内積による類似度を採用した場合は類似度(内積)の値が大きい順に、類似度としてノルムによる類似度を採用した場合は類似度(ノルム)の値が小さい順に、それぞれソートして順位を計算する。
Then, the similarity
次に、制御部10は、推定部14に、クエリ画像データの特徴ベクトルを入力し、推定部14は、該クエリ画像データの特徴ベクトルから推定される疾患名を出力する(ステップS305)。ステップS305は推定ステップとも呼ばれる。そして、順位補正部15は、ステップS304での類似度の順位の計算の結果、類似度が第1位になった画像データに紐付いた疾患名と、ステップS305で推定された疾患名とが一致するか否かを判定する(ステップS306)。疾患名が一致するなら(ステップS306;Yes)、ステップS308に進む。なお、ステップS306において、順位補正部15は判定部として機能する。また、ステップS306は判定ステップとも呼ばれる。
Next, the
疾患名が一致しないなら(ステップS306;No)、ステップS304でのソートの結果得られた順位において、順位補正部15は、推定部14が推定した疾患名が紐付いた画像データの順位をN(例えば1)上げる(ステップS307)ことによって、順位を補正する。ステップS307は、順位補正ステップとも呼ばれる。
If the disease names do not match (step S306; No), in the rank obtained as a result of the sorting in step S304, the
そして、提示部16は、各画像データの順位にしたがって、第1位から順番に画像データ及び疾患名を出力部33から提示する(ステップS308)。ステップS308は、提示ステップとも呼ばれる。ステップS308では、提示部16は少なくとも第1位の画像データ又は疾患名を出力部33から提示するが、第何位の順位まで提示するかは適宜設定することができる。そして、制御部10は、画像処理を終了する。
Then, the presentation unit 16 presents the image data and the disease name from the
N=1としたとき、ステップS307で順位が補正される様子を図7に示す。図7では、ステップS304における類似度によるソートでは、第1位の疾患名はほくろであったが、ステップS305で推定部14によって推定された疾患名がメラノーマだったため、ステップS307でメラノーマの順位が1つ上がっている様子が示されている。この結果、第1位の疾患名はメラノーマになり、クエリ画像はメラノーマの可能性が高いという診断結果を得ることができるようになる。
FIG. 7 shows how the order is corrected in step S307 when N = 1. In FIG. 7, in the sorting based on the similarity in step S304, the first disease name is a mole, but since the disease name estimated by the
この、類似順位計算部13によって計算された順位が、推定部14による疾患名の推定によって補正される仕組みについて、図8を参照して説明する。実際には画像データの特徴ベクトルの次元数は2よりも大きいが、分かりやすく示すために、ここでは仮に画像データの特徴ベクトルが2次元ベクトルで、識別すべき疾患名は2種類であると仮定する。図8で、○及び●はほくろの特徴ベクトルの値を示し、☆及び★はメラノーマの特徴ベクトルの値を示しているものとする。また■はクエリ画像の特徴ベクトルF1の値を示しているものとする。また境界線Lは、推定部14が備える線形SVMによる、ほくろとメラノーマとを識別する境界線であり、この境界線は○及び●並びに☆及び★の各データを学習データとして線形SVMに学習させた結果得られたものである。
A mechanism in which the rank calculated by the similarity
この時、図8で■(クエリ画像の特徴ベクトルF1)に最も類似する特徴ベクトルは●(ほくろの特徴ベクトルF2)で、2番目に類似する特徴ベクトルは★(メラノーマの特徴ベクトルF3)である。つまり、類似順位計算部13による類似度の順位の計算の結果、第1位となる特徴ベクトルはF2の●であり、疾患名はほくろということになる。しかし、推定部14では、F1で示される■は境界線Lの右下にあるため、疾患名はメラノーマであると推定される。そして、ソートによる第1位の疾患名と推定部14によって推定される疾患名とが異なるため、推定部14によって推定された疾患名に対応する特徴ベクトルの順位が上げられ、F3の★の特徴ベクトルの順位が第1位に補正される。図8を見てもわかるが、境界線Lの付近では、特徴ベクトルが類似していても、疾患名が異なる場合が散見される。したがって、類似度に加えて、推定部14による推定結果をも考慮して疾患名を識別することにより、識別精度を向上させることができる。
At this time, in FIG. 8, the feature vector most similar to ■ (query image feature vector F1) is ● (mole feature vector F2), and the second most similar feature vector is ★ (melanoma feature vector F3). . That is, as a result of the similarity rank calculation by the similarity
上記例では、順位補正部15が順位を上げる数値であるNを1としたが、これは、推定部14の推定が間違ってしまった場合に、間違った疾患名が第1位になってしまう可能性を低減させるためである。推定部14による推定の性能が高い場合にはこのNを2以上の値にしても良い。また、推定部14が推定の信頼度(例えばクエリ画像データの特徴ベクトルとSVMの境界との距離が大きければ信頼度は高いと考えられる)を出力できる場合は、信頼度の高さに応じてNの値を動的に変更することも可能である。
In the above example, N, which is a numerical value that the
また、上記のステップS308では、提示部16は、各画像データの順位にしたがって、第1位から順番に画像データ及び疾患名を提示しているが、このような提示は必須ではない。例えば、提示部16は、ステップS306における判定結果(疾患名が一致するか否か)を出力部33から提示しても良い。
Moreover, in said step S308, although the presentation part 16 presents image data and a disease name in order from the 1st place according to the order of each image data, such presentation is not essential. For example, the presentation unit 16 may present the determination result in step S306 (whether or not the disease names match) from the
また、上述したように、推定部14は、線形SVMだけでなく、ニューラルネットを用いることもできるが、線形SVMを用いた場合は、以下の特長がある。
・処理が高速である。
・学習サンプル数が少なくても比較的高い識別精度を得ることができる。
・識別精度を向上させるためのパラメータ調整が比較的簡単である。
Further, as described above, the
・ Processing is fast.
A relatively high identification accuracy can be obtained even with a small number of learning samples.
・ Parameter adjustment to improve identification accuracy is relatively easy.
また、推定部14に、ニューラルネットワークを用いた場合は、以下の特長がある。
・十分な量の学習サンプルを用いて学習させれば識別精度はSVMよりも高くなる。
しかし、ニューラルネットワークを用いると、逆に、以下の欠点もある。
・処理が低速である。
・学習サンプル数が少ないと識別精度が低くなる。
・識別精度を向上させるためのパラメータ調整が難しい。
Further, when a neural network is used for the
-If it learns using a sufficient amount of learning samples, identification accuracy will become higher than SVM.
However, when a neural network is used, there are the following disadvantages.
・ Processing is slow.
・ If the number of learning samples is small, the identification accuracy is low.
-It is difficult to adjust parameters to improve identification accuracy.
したがって、学習サンプルの個数に応じて、推定部14で用いる識別器をSVMにするか、ニューラルネットワークにするか使い分けても良い。例えば、学習サンプルの個数が基準個数(例えば1万個)以上ならニューラルネットワークを用い、基準個数未満ならSVMを用いることができる。このようにすると、学習サンプル数が基準個数未満でもSVMによって比較的高い識別精度を得ることができ、学習サンプル数が基準値以上ならニューラルネットワークによってさらに高い識別精度を得ることができるようになる。
Therefore, according to the number of learning samples, the classifier used in the
なお、上記実施形態では、類似順位計算部13及び推定部14は、特徴ベクトル抽出部12が画像データから抽出した特徴ベクトルを用いて類似度の計算及び推定を行っている。しかし、類似度の計算及び推定は、特徴ベクトルを用いるものに限定する必要はない。例えば、画像データ自体をパターンマッチングする、画像を格子状に分割したものをパターンマッチングする、画像から輪郭線を抽出して輪郭線同士をパターンマッチングする等の方法を採用しても良い。また、特徴ベクトルを用いる場合も、類似順位計算部13が用いる特徴ベクトルと推定部14が用いる特徴ベクトルとを、異なる生成方法による特徴ベクトルにしても良い。この場合、画像データベース21には、各画像データに、特徴ベクトルの項目を2つ設け、一方を類似順位計算部13が用い、他方を推定部14が用いるようにする。
In the above embodiment, the similarity
また、上記実施形態では、画像入力部31から入力される画像は疾患の患部の画像であり、名称入力部32から入力される名称は疾患の名称であった。しかし、これに限定する必要はない。例えば、画像入力部31から入力される画像は食品(例えばパン)の画像で、名称入力部32から入力される名称は該食品(例えばパン)の名称であっても良い。また、画像入力部31から入力される画像は自動車の画像で、名称入力部32から入力される名称は該自動車の名称であっても良い。これらに限らず、名称を付けることができる画像に対してなら、任意の画像に対して、上記実施形態を適用することが可能である。
Moreover, in the said embodiment, the image input from the
なお、画像処理装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像処理装置100が行う画像処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
Each function of the
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.
(付記1)
画像データを取得する画像取得部と、
前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベースと、
前記画像取得部が取得した画像データに類似する程度を示す類似度を、前記画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算部と、
前記画像取得部が取得した画像データに係る名称を推定する推定部と、
前記類似順位計算部が計算した前記第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが一致するか否かを判定する判定部と、
前記判定部が判定した結果に応じて所定の提示を行う提示部と、
を備える画像処理装置。
(Appendix 1)
An image acquisition unit for acquiring image data;
An image database for storing the image data and a name related to the image data in association with each other;
The similarity indicating the degree of similarity to the image data acquired by the image acquisition unit is obtained for each image data in the image database, and the first rank of the similarity of the image data in the image database is calculated. A similarity ranking calculation unit,
An estimation unit that estimates a name related to the image data acquired by the image acquisition unit;
A determination unit that determines whether a name associated with the first-order image data calculated by the similarity rank calculation unit matches a name estimated by the estimation unit;
A presentation unit that performs a predetermined presentation according to a result determined by the determination unit;
An image processing apparatus comprising:
(付記2)
前記類似順位計算部は、前記各画像データの前記類似度の前記画像データベース中での順位を計算する、
付記1に記載の画像処理装置。
(Appendix 2)
The similarity rank calculation unit calculates the rank in the image database of the similarity of each image data;
The image processing apparatus according to
(付記3)
前記判定部が前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なると判定した場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を補正する順位補正部を備え、
前記提示部は、前記順位補正部が補正した順位の順番で、少なくとも第1位の前記画像データを提示する、
付記2に記載の画像処理装置。
(Appendix 3)
When the determination unit determines that the name calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the similarity rank calculation unit Among the image data whose rank is calculated, a rank correction unit that corrects the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit,
The presenting unit presents at least the first image data in the order of the ranks corrected by the rank correction unit.
The image processing apparatus according to
(付記4)
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を1だけ上げる、
付記3に記載の画像処理装置。
(Appendix 4)
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by 1.
The image processing apparatus according to
(付記5)
前記推定部は、前記名称を推定する際の信頼度を出力し、
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を、前記信頼度に応じた値だけ上げる、
付記3に記載の画像処理装置。
(Appendix 5)
The estimation unit outputs a reliability when estimating the name,
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by a value corresponding to the reliability.
The image processing apparatus according to
(付記6)
前記画像取得部が取得した画像データから特徴ベクトルを抽出する特徴ベクトル抽出部を備え、
前記画像データベースは、前記特徴ベクトル抽出部が抽出した特徴ベクトルを前記画像データと紐付けて記憶し、
前記類似順位計算部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記類似度を求め、
前記推定部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記画像データに係る名称を推定する、
付記1から5のいずれか1つに記載の画像処理装置。
(Appendix 6)
A feature vector extraction unit that extracts a feature vector from the image data acquired by the image acquisition unit;
The image database stores the feature vector extracted by the feature vector extraction unit in association with the image data,
The similarity rank calculation unit obtains the similarity using the feature vector extracted by the feature vector extraction unit,
The estimation unit estimates a name related to the image data using the feature vector extracted by the feature vector extraction unit;
The image processing apparatus according to any one of
(付記7)
前記類似順位計算部は、前記特徴ベクトルの間の距離を求めることによって、前記類似度を求める、
付記6に記載の画像処理装置。
(Appendix 7)
The similarity ranking calculation unit obtains the similarity by obtaining a distance between the feature vectors;
The image processing apparatus according to appendix 6.
(付記8)
前記推定部は、SVM(Support Vector Machine)により、前記名称を推定する、
付記1から7のいずれか1つに記載の画像処理装置。
(Appendix 8)
The estimation unit estimates the name by SVM (Support Vector Machine).
The image processing apparatus according to any one of
(付記9)
前記推定部は、ニューラルネットワークにより、前記名称を推定する、
付記1から7のいずれか1つに記載の画像処理装置。
(Appendix 9)
The estimation unit estimates the name by a neural network.
The image processing apparatus according to any one of
(付記10)
前記推定部の学習に用いる学習サンプルの個数が基準個数以上なら、
前記推定部は、ニューラルネットワークにより、前記名称を推定し、
前記推定部の学習に用いる学習サンプルの個数が基準個数未満なら、
前記推定部は、SVMにより、前記名称を推定する、
付記1から7のいずれか1つに記載の画像処理装置。
(Appendix 10)
If the number of learning samples used for learning by the estimation unit is greater than or equal to the reference number,
The estimation unit estimates the name by a neural network,
If the number of learning samples used for learning of the estimation unit is less than the reference number,
The estimation unit estimates the name by SVM.
The image processing apparatus according to any one of
(付記11)
前記画像データは、疾患の患部の画像データであり、
前記名称は、前記疾患の名称である、
付記1から10のいずれか1つに記載の画像処理装置。
(Appendix 11)
The image data is image data of an affected area of a disease,
The name is the name of the disease,
The image processing apparatus according to any one of
(付記12)
画像データを取得する画像取得ステップと、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップと、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップと、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップと、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップと、
を含む画像処理方法。
(Appendix 12)
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step of calculating the first rank of the similarity in the image database;
An estimation step of estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step;
A presenting step for performing predetermined presentation according to the result determined in the determining step;
An image processing method including:
(付記13)
コンピュータに、
画像データを取得する画像取得ステップ、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップ、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップ、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップ、及び、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップ、
を実行させるためのプログラム。
(Appendix 13)
On the computer,
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step for calculating the first rank of the similarity in the image database;
An estimation step for estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step; and
A presenting step for performing predetermined presentation according to the result determined in the determining step;
A program for running
10…制御部、11…画像取得部、12…特徴ベクトル抽出部、13…類似順位計算部、14…推定部、15…順位補正部、16…提示部、20…記憶部、21…画像データベース、31…画像入力部、32…名称入力部、33…出力部、100…画像処理装置、F1…クエリ画像の特徴ベクトル、F2…ほくろの特徴ベクトル、F3…メラノーマの特徴ベクトル、L…境界線
DESCRIPTION OF
Claims (13)
前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベースと、
前記画像取得部が取得した画像データに類似する程度を示す類似度を、前記画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算部と、
前記画像取得部が取得した画像データに係る名称を推定する推定部と、
前記類似順位計算部が計算した前記第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが一致するか否かを判定する判定部と、
前記判定部が判定した結果に応じて所定の提示を行う提示部と、
を備える画像処理装置。 An image acquisition unit for acquiring image data;
An image database for storing the image data and a name related to the image data in association with each other;
The similarity indicating the degree of similarity to the image data acquired by the image acquisition unit is obtained for each image data in the image database, and the first rank of the similarity of the image data in the image database is calculated. A similarity ranking calculation unit,
An estimation unit that estimates a name related to the image data acquired by the image acquisition unit;
A determination unit that determines whether a name associated with the first-order image data calculated by the similarity rank calculation unit matches a name estimated by the estimation unit;
A presentation unit that performs a predetermined presentation according to a result determined by the determination unit;
An image processing apparatus comprising:
請求項1に記載の画像処理装置。 The similarity rank calculation unit calculates the rank in the image database of the similarity of each image data;
The image processing apparatus according to claim 1.
前記提示部は、前記順位補正部が補正した順位の順番で、少なくとも第1位の前記画像データを提示する、
請求項2に記載の画像処理装置。 When the determination unit determines that the name calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the similarity rank calculation unit Among the image data whose rank is calculated, a rank correction unit that corrects the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit,
The presenting unit presents at least the first image data in the order of the ranks corrected by the rank correction unit.
The image processing apparatus according to claim 2.
請求項3に記載の画像処理装置。 When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by 1.
The image processing apparatus according to claim 3.
前記順位補正部は、前記類似順位計算部が計算した順位が第1位の画像データに紐付けられた名称と前記推定部が推定した名称とが異なる場合に、前記類似順位計算部が前記順位を計算した画像データの中で、該画像データに紐付けられた名称と前記推定部が推定した名称とが一致する画像データの前記順位を、前記信頼度に応じた値だけ上げる、
請求項3に記載の画像処理装置。 The estimation unit outputs a reliability when estimating the name,
When the rank calculated by the similarity rank calculation unit is different from the name associated with the first image data and the name estimated by the estimation unit, the rank correction unit calculates the rank In the image data calculated, the rank of the image data in which the name associated with the image data matches the name estimated by the estimation unit is increased by a value corresponding to the reliability.
The image processing apparatus according to claim 3.
前記画像データベースは、前記特徴ベクトル抽出部が抽出した特徴ベクトルを前記画像データと紐付けて記憶し、
前記類似順位計算部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記類似度を求め、
前記推定部は、前記特徴ベクトル抽出部が抽出した特徴ベクトルを用いて前記画像データに係る名称を推定する、
請求項1から5のいずれか1項に記載の画像処理装置。 A feature vector extraction unit that extracts a feature vector from the image data acquired by the image acquisition unit;
The image database stores the feature vector extracted by the feature vector extraction unit in association with the image data,
The similarity rank calculation unit obtains the similarity using the feature vector extracted by the feature vector extraction unit,
The estimation unit estimates a name related to the image data using the feature vector extracted by the feature vector extraction unit;
The image processing apparatus according to claim 1.
請求項6に記載の画像処理装置。 The similarity ranking calculation unit obtains the similarity by obtaining a distance between the feature vectors;
The image processing apparatus according to claim 6.
請求項1から7のいずれか1項に記載の画像処理装置。 The estimation unit estimates the name by SVM (Support Vector Machine).
The image processing apparatus according to claim 1.
請求項1から7のいずれか1項に記載の画像処理装置。 The estimation unit estimates the name by a neural network.
The image processing apparatus according to claim 1.
前記推定部は、ニューラルネットワークにより、前記名称を推定し、
前記推定部の学習に用いる学習サンプルの個数が基準個数未満なら、
前記推定部は、SVMにより、前記名称を推定する、
請求項1から7のいずれか1項に記載の画像処理装置。 If the number of learning samples used for learning by the estimation unit is greater than or equal to the reference number,
The estimation unit estimates the name by a neural network,
If the number of learning samples used for learning of the estimation unit is less than the reference number,
The estimation unit estimates the name by SVM.
The image processing apparatus according to claim 1.
前記名称は、前記疾患の名称である、
請求項1から10のいずれか1項に記載の画像処理装置。 The image data is image data of an affected area of a disease,
The name is the name of the disease,
The image processing apparatus according to claim 1.
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップと、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップと、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップと、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップと、
を含む画像処理方法。 An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step of calculating the first rank of the similarity in the image database;
An estimation step of estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step;
A presenting step for performing predetermined presentation according to the result determined in the determining step;
An image processing method including:
画像データを取得する画像取得ステップ、
前記画像取得ステップで取得した画像データに類似する程度を示す類似度を、前記画像データと該画像データに係る名称とを紐付けて記憶する画像データベース中の各画像データについて求め、該各画像データの前記類似度の前記画像データベース中での第1位を計算する類似順位計算ステップ、
前記画像取得ステップで取得した画像データに係る名称を推定する推定ステップ、
前記類似順位計算ステップで計算した前記第1位の画像データに紐付けられた名称と前記推定ステップで推定した名称とが一致するか否かを判定する判定ステップ、及び、
前記判定ステップで判定した結果に応じて所定の提示を行う提示ステップ、
を実行させるためのプログラム。 On the computer,
An image acquisition step for acquiring image data;
A degree of similarity indicating the degree of similarity to the image data acquired in the image acquisition step is obtained for each image data in an image database in which the image data and a name related to the image data are linked and stored, and the image data A similarity rank calculating step for calculating the first rank of the similarity in the image database;
An estimation step for estimating a name related to the image data acquired in the image acquisition step;
A determination step of determining whether or not the name associated with the first rank image data calculated in the similarity rank calculation step matches the name estimated in the estimation step; and
A presenting step for performing predetermined presentation according to the result determined in the determining step;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017059264A JP7024197B2 (en) | 2017-03-24 | 2017-03-24 | Image processing equipment, image processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017059264A JP7024197B2 (en) | 2017-03-24 | 2017-03-24 | Image processing equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018161206A true JP2018161206A (en) | 2018-10-18 |
JP7024197B2 JP7024197B2 (en) | 2022-02-24 |
Family
ID=63859348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017059264A Active JP7024197B2 (en) | 2017-03-24 | 2017-03-24 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7024197B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166378A (en) * | 2019-03-28 | 2020-10-08 | 京セラ株式会社 | Disease estimation system |
JP2020201697A (en) * | 2019-06-10 | 2020-12-17 | TXP Medical株式会社 | Diagnosis support system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010082001A (en) * | 2008-09-29 | 2010-04-15 | Toshiba Corp | Image display device |
WO2010122721A1 (en) * | 2009-04-22 | 2010-10-28 | 日本電気株式会社 | Matching device, matching method, and matching program |
JP2012179336A (en) * | 2011-03-02 | 2012-09-20 | Stat Lab:Kk | Pathology image diagnosis support system |
JP2012249964A (en) * | 2011-06-06 | 2012-12-20 | Canon Inc | Device and method for diagnosis support |
JP2015154918A (en) * | 2014-02-19 | 2015-08-27 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Apparatus and method for lesion detection |
JP2017045341A (en) * | 2015-08-28 | 2017-03-02 | カシオ計算機株式会社 | Diagnostic apparatus, leaning processing method in diagnostic apparatus, and program |
-
2017
- 2017-03-24 JP JP2017059264A patent/JP7024197B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010082001A (en) * | 2008-09-29 | 2010-04-15 | Toshiba Corp | Image display device |
WO2010122721A1 (en) * | 2009-04-22 | 2010-10-28 | 日本電気株式会社 | Matching device, matching method, and matching program |
JP2012179336A (en) * | 2011-03-02 | 2012-09-20 | Stat Lab:Kk | Pathology image diagnosis support system |
JP2012249964A (en) * | 2011-06-06 | 2012-12-20 | Canon Inc | Device and method for diagnosis support |
JP2015154918A (en) * | 2014-02-19 | 2015-08-27 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Apparatus and method for lesion detection |
JP2017045341A (en) * | 2015-08-28 | 2017-03-02 | カシオ計算機株式会社 | Diagnostic apparatus, leaning processing method in diagnostic apparatus, and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166378A (en) * | 2019-03-28 | 2020-10-08 | 京セラ株式会社 | Disease estimation system |
JP7252035B2 (en) | 2019-03-28 | 2023-04-04 | 京セラ株式会社 | disease estimation system |
JP7454724B2 (en) | 2019-03-28 | 2024-03-22 | 京セラ株式会社 | Estimation device, estimation system, control program |
JP2020201697A (en) * | 2019-06-10 | 2020-12-17 | TXP Medical株式会社 | Diagnosis support system |
JP7315165B2 (en) | 2019-06-10 | 2023-07-26 | TXP Medical株式会社 | Diagnosis support system |
Also Published As
Publication number | Publication date |
---|---|
JP7024197B2 (en) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551134B2 (en) | Information processing apparatus, information processing method, and storage medium | |
Maier-Hein et al. | Metrics reloaded: recommendations for image analysis validation | |
US9886669B2 (en) | Interactive visualization of machine-learning performance | |
US10853407B2 (en) | Correlating image annotations with foreground features | |
US20200286402A1 (en) | Method and system for assisting with math problem | |
US11461386B2 (en) | Visual recognition using user tap locations | |
US20170351934A1 (en) | Object recognition device, object recognition method, and program | |
US20190294921A1 (en) | Field identification in an image using artificial intelligence | |
CN107085585A (en) | Accurate label dependency prediction for picture search | |
KR20170007747A (en) | Natural language image search | |
WO2012132418A1 (en) | Characteristic estimation device | |
US10528649B2 (en) | Recognizing unseen fonts based on visual similarity | |
JP5340204B2 (en) | Inference apparatus, control method thereof, and program | |
US20180286023A1 (en) | Digital Image Processing through use of an Image Repository | |
JP6997161B2 (en) | Image-based data processing methods, devices, electronic devices, computer-readable storage media and computer programs | |
US11645478B2 (en) | Multi-lingual tagging for digital images | |
JP2012174222A (en) | Image recognition program, method, and device | |
US20200320409A1 (en) | Model creation supporting method and model creation supporting system | |
CN114092949A (en) | Method and device for training class prediction model and identifying interface element class | |
JP7024197B2 (en) | Image processing equipment, image processing methods and programs | |
US11047696B2 (en) | Methods and systems for determining and assigning a primary point-of-interest type for a point-of-interest | |
US20200117948A1 (en) | Object recognition apparatus, object recognition system, and object recognition method | |
CN117315090A (en) | Cross-modal style learning-based image generation method and device | |
JP2016110256A (en) | Information processing device and information processing program | |
JP2020115175A (en) | Information processor, method for processing information, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7024197 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |