JP7111088B2 - 画像検索装置、学習方法及びプログラム - Google Patents
画像検索装置、学習方法及びプログラム Download PDFInfo
- Publication number
- JP7111088B2 JP7111088B2 JP2019217687A JP2019217687A JP7111088B2 JP 7111088 B2 JP7111088 B2 JP 7111088B2 JP 2019217687 A JP2019217687 A JP 2019217687A JP 2019217687 A JP2019217687 A JP 2019217687A JP 7111088 B2 JP7111088 B2 JP 7111088B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- image
- image data
- correct label
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
分類器を用いてユーザから入力された検索画像に類似する画像を検索する検索部を備えた画像検索装置であって、
前記分類器は、
前記画像に写った被写体の名称を示す第1の正解ラベルが元々付与された学習用画像データを用いることにより学習処理され、この学習処理に続けて、前記学習用画像データを見た目の類似度に基づいてクラスタリングし、クラスタリングした結果である各クラスタに対応する正解ラベルであって、前記第1の正解ラベルとは異なる第2の正解ラベルが付与される学習用画像データを用いることにより学習状態が微調整されたものである、
ことを特徴とする。
本発明の実施形態1に係る画像検索装置100は、学習用の画像データセット(学習用の画像データの集合)を用いて教師あり学習で学習させたCNN分類器を用いて、ユーザから与えられた画像(検索画像)に類似する画像を、検索用の画像データセット(検索対象となる画像データの集合)の中から検索する。学習用の画像データセットと検索用の画像データセットとは全く別物であってもよいし、学習用(検索用)の画像データセットに含まれる画像データの一部又は全部は、検索用(学習用)の画像データセットに含まれていてもよい。
照して説明する。
L=Σi=1,N max(0,(||f(ai)-f(pi)||2
-||f(ai)-f(ni)||2+α)) …(1)
ここで、Σi=1,N はそれに続く式においてiに1からNまでを代入した時の和を、maxは引数の最大値を、||f(ai)-f(pi)||2はf(ai)-f(pi)で表されるベクトルのL2ノルムの2乗を、||f(ai)-f(ni)||2はf(ai)-f(ni)で表されるベクトルのL2ノルムの2乗を、それぞれ表す。また、αはanchor画像データの特徴ベクトルとpositive画像データの特徴ベクトルとの間の距離(L2ノルム)より、anchor画像データの特徴ベクトルとnegative画像データの特徴ベクトルとの間の距離(L2ノルム)の方が、α以上離れるように設定するためのパラメータであり、所定の数(例えば0.2)が設定される。
上述の実施形態では、主学習部14は、ラベル付与部13が学習用画像データに付与した第2の正解ラベルに基づいて、分類器11のCNNを学習させた。しかし、分類器11のCNNを学習させる際の正解ラベルはこれに限られない。例えば、学習用画像データに元々付与されている第1の正解ラベルに基づいて、分類器11のCNNを学習させてもよい。このような変形例1について以下に説明する。簡単に言えば、変形例1は、主学習部14が学習時に用いる正解ラベルと、微調整部15が微調整時に用いる正解ラベルとを、実施形態1と逆にして処理する実施形態である。
上述の実施形態1及び変形例1では、ラベル付与部13は、学習用画像データのそれぞれに、BoVWを用いて画像の見た目の類似度に基づく第2の正解ラベルを付与した。しかし、第2の正解ラベル付与の観点を、画像の見た目の類似度に限定する必要はない。例えば色の類似度、明暗の類似度、周波数成分の類似度等、何らかの観点での類似度に基づいて学習用の画像データセットをクラスタリングして、学習用画像データのそれぞれに第2の正解ラベルを付与してもよい。このような実施形態を変形例2とする。
上述の実施形態1及び変形例では、ラベル付与部13は、各学習用画像データに1つの正解ラベル(第2の正解ラベル)のみを付与したが、複数の観点に基づいて、複数の正解ラベルを付与してもよい。例えば、見た目の類似度に基づく正解ラベル(第2の正解ラベル)、色の類似度に基づく正解ラベル(第3の正解ラベル)、明暗の類似度に基づく正解ラベル(第4の正解ラベル)、を各学習用画像データに付与することが考えられる。このような実施形態を変形例3とする。
上述の実施形態及び変形例では、微調整処理における損失関数としてTriplet Lossを用いたが、損失関数はTriplet Lossに限定されない。例えば、損失関数として、Contrastive Lossを用いてもよい。損失関数としてContrastive Lossを用いた実施形態を変形例4とする。
L=Σi=1,N yab(||f(ai)-f(bi)||2
+(1-yab)max((α-||f(ai)-f(bi)||2),0) …(2)
ここで、Σi=1,N はそれに続く式においてiに1からNまでを代入した時の和を表す。そして、yabは画像データaに付与された第1の正解ラベルと画像データbに付与された第1の正解ラベルとが等しい場合に1、異なる場合に0の値を取る。また、maxは引数の最大値を、||f(ai)-f(bi)||2はf(ai)-f(bi)で表されるベクトルのL2ノルムの2乗(すなわち第1の特徴ベクトルと、第2の特徴ベクトルと、の間の距離の2乗)を、それぞれ表す。そして、αは、画像データaに付与された第1の正解ラベルと画像データbに付与された第1の正解ラベルとが異なる場合に、画像データaの特徴ベクトルと画像データbの特徴ベクトルとの間の距離がα離れるように設定するためのパラメータであり、所定の数(例えば0.2)が設定される。
教師あり学習に用いる学習用の画像データセットに含まれる各画像に付与されている正解ラベルである第1の正解ラベルが付与された画像に、所定の観点での類似度に基づく正解ラベルである第2の正解ラベルを付与するラベル付与部と、
前記第1及び第2の正解ラベルの一方が付与された前記画像を用いて分類器を学習させる主学習部と、
前記第1及び第2の正解ラベルの他方が付与された前記画像を用いて、前記主学習部が学習させた前記分類器の学習状態を微調整する微調整部と、
前記微調整部が微調整した前記分類器を用いてユーザから入力された検索画像に類似する画像を検索する検索部と、
を備える画像検索装置。
前記微調整部は、前記分類器の出力層に近い層のみにおいて、各層間の結びつきの強さを規定する重み係数の更新を行うことにより、前記分類器の学習状態を微調整する、
付記1に記載の画像検索装置。
前記微調整部は、
前記学習用の画像データセットから、互いに異なる第1の画像と第2の画像を取得し、
前記第1の画像に付与された正解ラベルと前記第2の画像に付与された正解ラベルとが互いに等しい場合の、前記第1の画像を前記分類器に入力して得られる第1の特徴ベクトルと、前記第2の画像を前記分類器に入力して得られる第2の特徴ベクトルと、の間の距離である第1の距離が、
前記第1の画像に付与された正解ラベルと前記第2の画像に付与された正解ラベルとが互いに異なる場合の、前記第1の画像を前記分類器に入力して得られる第1の特徴ベクトルと、前記第2の画像を前記分類器に入力して得られる第2の特徴ベクトルと、の間の距離である第2の距離よりも、
小さくなるように前記分類器の重み係数の更新を行うことにより、前記分類器の学習状態を微調整する、
付記2に記載の画像検索装置。
前記微調整部は、
前記学習用の画像データセットから、第1の画像と、第1の画像に付与された正解ラベルと等しい正解ラベルが付与された第2の画像と、第1の画像に付与された正解ラベルとは異なるラベルが正解ラベルとして付与された第3の画像と、を取得し、
前記第1の画像を前記分類器に入力して得られる第1の特徴ベクトルと、前記第2の画像を前記分類器に入力して得られる第2の特徴ベクトルと、前記第3の画像を前記分類器に入力して得られる第3の特徴ベクトルと、を取得し、
前記第1の特徴ベクトルと前記第2の特徴ベクトルとの間の距離より、前記第1の特徴ベクトルと前記第3の特徴ベクトルとの間の距離の方が大きくなるように、前記分類器の重み係数の更新を行うことにより、前記分類器の学習状態を微調整する、
付記3に記載の画像検索装置。
前記ラベル付与部は、前記画像に、前記第2の正解ラベルとして、見た目の類似度に基づく正解ラベルを付与する、
付記1から4のいずれか1つに記載の画像検索装置。
前記画像の見た目の特徴量を抽出する特徴量抽出部をさらに備え、
前記ラベル付与部は、前記特徴量抽出部が抽出した特徴量を複数のクラスタにクラスタリングすることにより前記画像に前記第2の正解ラベルを付与する、
付記5に記載の画像検索装置。
前記特徴量抽出部は、前記見た目の特徴量として特徴点の配置状態に基づく特徴量を抽出する、
付記6に記載の画像検索装置。
前記主学習部が前記分類器を学習させる前に、事前に前記分類器を学習させる事前学習を行う事前学習部をさらに備え、
前記事前学習部は、一般画像認識用のデータセットを用いて前記事前学習を行う、
付記1から7のいずれか1つに記載の画像検索装置。
前記主学習部は、前記第2の正解ラベルが付与された前記画像を用いて前記分類器を学習させ、
前記微調整部は、前記第1の正解ラベルが付与された前記画像を用いて、前記主学習部が学習させた前記分類器の学習状態を微調整する、
付記1から8のいずれか1つに記載の画像検索装置。
前記主学習部は、前記第1の正解ラベルが付与された前記画像を用いて前記分類器を学習させ、
前記微調整部は、前記第2の正解ラベルが付与された前記画像を用いて、前記主学習部が学習させた前記分類器の学習状態を微調整する、
付記1から8のいずれか1つに記載の画像検索装置。
教師あり学習に用いる学習用の画像データセットに含まれる各画像に付与されている正解ラベルである第1の正解ラベルが付与された画像に、所定の観点での類似度に基づく正解ラベルである第2の正解ラベルを付与するラベル付与ステップと、
前記第1及び第2の正解ラベルの一方が付与された前記画像を用いて分類器を学習させる主学習ステップと、
前記第1及び第2の正解ラベルの他方が付与された前記画像を用いて、前記主学習ステップで学習させた前記分類器の学習状態を微調整する微調整ステップと、
を備える分類器学習方法。
コンピュータに、
教師あり学習に用いる学習用の画像データセットに含まれる各画像に付与されている正解ラベルである第1の正解ラベルが付与された画像に、所定の観点での類似度に基づく正解ラベルである第2の正解ラベルを付与するラベル付与ステップ、
前記第1及び第2の正解ラベルの一方が付与された前記画像を用いて分類器を学習させる主学習ステップ、及び、
前記第1及び第2の正解ラベルの他方が付与された前記画像を用いて、前記主学習ステップで学習させた前記分類器の学習状態を微調整する微調整ステップ、
を実行させるためのプログラム。
Claims (8)
- 分類器を用いてユーザから入力された検索画像に類似する画像を検索する検索部を備えた画像検索装置であって、
前記分類器は、
前記画像に写った被写体の名称を示す第1の正解ラベルが元々付与された学習用画像データを用いることにより学習処理され、この学習処理に続けて、前記学習用画像データを見た目の類似度に基づいてクラスタリングし、クラスタリングした結果である各クラスタに対応する正解ラベルであって、前記第1の正解ラベルとは異なる第2の正解ラベルが付与される学習用画像データを用いることにより学習状態が微調整されたものである、
ことを特徴とする画像検索装置。 - 前記分類器は、畳み込みニューラルネットワークを用いて画像を分類し、
前記分類器の学習状態は、前記畳み込みニューラルネットワークにおける入力層、中間層、出力層の各層のうち、前記出力層に近い層のみにおいて、前記各層間の結びつきの強さを規定する重み係数の更新を行うことにより微調整される、
ことを特徴とする請求項1に記載の画像検索装置。 - 前記重み係数は、
学習用の画像データセットから取得された第1の画像に付与された前記第1の正解ラベルと、前記学習用の画像データセットから取得され前記第1の画像とは異なる第2の画像に付与された前記第1の正解ラベルとが互いに等しい場合における、前記第1の画像を前記分類器に入力して得られる第1の特徴ベクトルと前記第2の画像を前記分類器に入力して得られる第2の特徴ベクトルとの間の距離である第1の距離が、前記第1の画像に付与された前記第1の正解ラベルと前記第2の画像に付与された前記第1の正解ラベルとが互いに異なる場合における、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの間の距離である第2の距離よりも小さくなるように更新される、
ことを特徴とする請求項2に記載の画像検索装置。 - 前記第2の正解ラベルは、前記類似度として前記画像の見た目が反映される特徴量を複数のクラスタにクラスタリングすることにより前記画像に付与される、
ことを特徴とする請求項1から3のいずれか1項に記載の画像検索装置。 - 前記特徴量は前記画像データに対応する画像に含まれる特徴点の配置状態に基づいて得られるものである、
ことを特徴とする請求項4に記載の画像検索装置。 - 前記分類器は、前記第1の正解ラベルにより学習処理される前に一般画像認識用のデータセットを用いて事前学習される、
ことを特徴とする請求項1から5のいずれか1項に記載の画像検索装置。 - 分類器を用いて入力された検索画像に類似する画像を検索する画像検索装置の前記分類器の学習方法であって、
前記画像に写った被写体の名称を示す第1の正解ラベルが元々付与された学習用画像データと、前記学習用画像データを見た目の類似度に基づいてクラスタリングし、クラスタリングした結果である各クラスタに対応する正解ラベルであって、前記第1の正解ラベルとは異なる第2の正解ラベルが付与される学習用画像データと、のうち、ユーザによる学習開始の指示を受け付けることにより、前記第1の正解ラベルが付与された学習用画像データを用いることにより学習させる学習ステップと、
前記学習ステップに続けて、前記第2の正解ラベルが付与される学習用画像データを用いることにより学習状態を微調整する微調整ステップと、
を含むことを特徴とする学習方法。 - 分類器を用いて入力された検索画像に類似する画像を検索する画像検索装置のコンピュータを、
前記画像に写った被写体の名称を示す第1の正解ラベルが元々付与された学習用画像データと、前記学習用画像データを見た目の類似度に基づいてクラスタリングし、クラスタリングした結果である各クラスタに対応する正解ラベルであって、前記第1の正解ラベルとは異なる第2の正解ラベルが付与される学習用画像データと、のうち、ユーザによる学習開始の指示を受け付けることにより、前記第1の正解ラベルが付与された学習用画像データを用いることにより学習させる学習手段、
前記学習手段に続けて、前記第2の正解ラベルが付与される学習用画像データを用いることにより学習状態を微調整する微調整手段、
として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/741,795 US11250295B2 (en) | 2019-01-24 | 2020-01-14 | Image searching apparatus, classifier training method, and recording medium |
AU2020200338A AU2020200338B2 (en) | 2019-01-24 | 2020-01-17 | Image searching apparatus, classifier training method, and program |
EP20152903.9A EP3699820A3 (en) | 2019-01-24 | 2020-01-21 | Image searching apparatus, classifier training method, and program |
US17/569,598 US20220129702A1 (en) | 2019-01-24 | 2022-01-06 | Image searching apparatus, classifier training method, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019010257 | 2019-01-24 | ||
JP2019010257 | 2019-01-24 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020119508A JP2020119508A (ja) | 2020-08-06 |
JP2020119508A5 JP2020119508A5 (ja) | 2020-12-17 |
JP7111088B2 true JP7111088B2 (ja) | 2022-08-02 |
Family
ID=71892155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019217687A Active JP7111088B2 (ja) | 2019-01-24 | 2019-12-02 | 画像検索装置、学習方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (2) | US11250295B2 (ja) |
JP (1) | JP7111088B2 (ja) |
AU (1) | AU2020200338B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875821A (zh) * | 2018-06-08 | 2018-11-23 | Oppo广东移动通信有限公司 | 分类模型的训练方法和装置、移动终端、可读存储介质 |
EP3862926A1 (en) * | 2020-02-10 | 2021-08-11 | Robert Bosch GmbH | Method of identifying filters in a neural network, system and storage medium of the same |
JP7439656B2 (ja) * | 2020-06-15 | 2024-02-28 | 富士通株式会社 | 生成プログラム、生成方法、生成装置 |
CN111783753B (zh) * | 2020-09-04 | 2020-12-15 | 中国科学院自动化研究所 | 基于语义一致水平条和前景修正的行人重识别方法 |
CN113065634B (zh) * | 2021-02-26 | 2024-07-09 | 华为技术有限公司 | 一种图像处理方法、神经网络的训练方法以及相关设备 |
JP7556340B2 (ja) | 2021-10-14 | 2024-09-26 | トヨタ自動車株式会社 | 材料のスペクトルデータを用いた材料種類同定システム |
CN116451099B (zh) * | 2023-06-19 | 2023-09-01 | 浪潮通用软件有限公司 | 一种基于随机遍历的高熵knn聚类方法、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007279942A (ja) | 2006-04-05 | 2007-10-25 | Fujifilm Corp | 類似症例検索装置、類似症例検索方法およびそのプログラム |
JP2016139176A (ja) | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
JP2017084320A (ja) | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5434965B2 (ja) | 2011-06-03 | 2014-03-05 | カシオ計算機株式会社 | 動画生成方法、動画生成装置及びプログラム |
JP5741282B2 (ja) | 2011-07-26 | 2015-07-01 | カシオ計算機株式会社 | 画像処理装置及び画像処理方法、並びにプログラム |
JP5807489B2 (ja) | 2011-09-28 | 2015-11-10 | カシオ計算機株式会社 | 画像処理装置及び画像処理方法、並びにプログラム |
JP5776903B2 (ja) | 2012-03-02 | 2015-09-09 | カシオ計算機株式会社 | 画像処理装置及び画像処理方法並びにプログラム |
JP6098784B2 (ja) | 2012-09-06 | 2017-03-22 | カシオ計算機株式会社 | 画像処理装置及びプログラム |
JP5975281B2 (ja) | 2012-09-06 | 2016-08-23 | カシオ計算機株式会社 | 画像処理装置及びプログラム |
JP5799928B2 (ja) | 2012-09-28 | 2015-10-28 | カシオ計算機株式会社 | 閾値設定装置、被写体検出装置、閾値設定方法及びプログラム |
JP6188400B2 (ja) * | 2013-04-26 | 2017-08-30 | オリンパス株式会社 | 画像処理装置、プログラム及び画像処理方法 |
US9626594B2 (en) * | 2015-01-21 | 2017-04-18 | Xerox Corporation | Method and system to perform text-to-image queries with wildcards |
US9785866B2 (en) * | 2015-01-22 | 2017-10-10 | Microsoft Technology Licensing, Llc | Optimizing multi-class multimedia data classification using negative data |
US9734320B2 (en) * | 2015-02-13 | 2017-08-15 | Facebook, Inc. | Systems and methods for providing image-based security measures |
JP6596979B2 (ja) | 2015-06-30 | 2019-10-30 | カシオ計算機株式会社 | 描画装置及び描画装置の描画方法 |
JP6651874B2 (ja) | 2016-02-02 | 2020-02-19 | カシオ計算機株式会社 | 描画装置及び描画装置の描画制御方法 |
US10402628B2 (en) * | 2016-10-10 | 2019-09-03 | Gyrfalcon Technology Inc. | Image classification systems based on CNN based IC and light-weight classifier |
US10705525B2 (en) * | 2017-04-07 | 2020-07-07 | Nvidia Corporation | Performing autonomous path navigation using deep neural networks |
US10025950B1 (en) | 2017-09-17 | 2018-07-17 | Everalbum, Inc | Systems and methods for image recognition |
US10496884B1 (en) * | 2017-09-19 | 2019-12-03 | Deepradiology Inc. | Transformation of textbook information |
US11091162B2 (en) * | 2018-01-30 | 2021-08-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Fusion of front vehicle sensor data for detection and ranging of preceding objects |
US10977827B2 (en) * | 2018-03-27 | 2021-04-13 | J. William Mauchly | Multiview estimation of 6D pose |
US10810543B2 (en) * | 2018-07-30 | 2020-10-20 | Maplebear, Inc. | Populating catalog data with item properties based on segmentation and classification models |
EP3620989A1 (en) * | 2018-09-07 | 2020-03-11 | Panasonic Intellectual Property Corporation of America | Information processing method, information processing apparatus, and program |
CN111461155A (zh) * | 2019-01-18 | 2020-07-28 | 富士通株式会社 | 训练分类模型的装置和方法 |
CN110163090B (zh) * | 2019-04-11 | 2023-08-22 | 江苏大学 | 一种基于多特征和尺度估计的pcb板标识跟踪方法 |
CN111738064B (zh) * | 2020-05-11 | 2022-08-05 | 南京邮电大学 | 一种雾霾图像的雾浓度识别方法 |
-
2019
- 2019-12-02 JP JP2019217687A patent/JP7111088B2/ja active Active
-
2020
- 2020-01-14 US US16/741,795 patent/US11250295B2/en active Active
- 2020-01-17 AU AU2020200338A patent/AU2020200338B2/en active Active
-
2022
- 2022-01-06 US US17/569,598 patent/US20220129702A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007279942A (ja) | 2006-04-05 | 2007-10-25 | Fujifilm Corp | 類似症例検索装置、類似症例検索方法およびそのプログラム |
JP2016139176A (ja) | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
JP2017084320A (ja) | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2020200338B2 (en) | 2021-05-06 |
JP2020119508A (ja) | 2020-08-06 |
AU2020200338A1 (en) | 2020-08-13 |
US11250295B2 (en) | 2022-02-15 |
US20200242404A1 (en) | 2020-07-30 |
US20220129702A1 (en) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7111088B2 (ja) | 画像検索装置、学習方法及びプログラム | |
US20240331350A1 (en) | Object Recognition Method and Apparatus | |
WO2020238293A1 (zh) | 图像分类方法、神经网络的训练方法及装置 | |
CN110689025B (zh) | 图像识别方法、装置、系统及内窥镜图像识别方法、装置 | |
Liu et al. | A hierarchical visual model for video object summarization | |
EP3886037B1 (en) | Image processing apparatus and method for style transformation | |
EP4002161A1 (en) | Image retrieval method and apparatus, storage medium, and device | |
CN111489412A (zh) | 用于使用神经网络生成基本逼真图像的语义图像合成 | |
EP4006777A1 (en) | Image classification method and device | |
CN113297936B (zh) | 一种基于局部图卷积网络的排球群体行为识别方法 | |
WO2022052530A1 (zh) | 人脸矫正模型的训练方法、装置、电子设备及存储介质 | |
WO2018203555A1 (ja) | 信号検索装置、方法、及びプログラム | |
Akilandasowmya et al. | Skin cancer diagnosis: Leveraging deep hidden features and ensemble classifiers for early detection and classification | |
WO2021047587A1 (zh) | 手势识别方法、电子设备、计算机可读存储介质和芯片 | |
WO2021136058A1 (zh) | 一种处理视频的方法及装置 | |
CN109509191A (zh) | 一种图像显著性目标检测方法及系统 | |
Ch | An efficient facial emotion recognition system using novel deep learning neural network-regression activation classifier | |
CN111091010A (zh) | 相似度确定、网络训练、查找方法及装置和存储介质 | |
CN110750673B (zh) | 图像处理方法、装置、设备及存储介质 | |
Li et al. | Horror image recognition based on context-aware multi-instance learning | |
Soleimani et al. | Generic semi-supervised adversarial subject translation for sensor-based activity recognition | |
Prasad et al. | Medical image segmentation using an optimized three-tier quantum convolutional neural network trained with hybrid optimization approach | |
CN114841887B (zh) | 一种基于多层次差异学习的图像恢复质量评价方法 | |
Anggoro et al. | Classification of Solo Batik patterns using deep learning convolutional neural networks algorithm | |
Kalimuthu et al. | Multi-class facial emotion recognition using hybrid dense squeeze network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7111088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |