JPWO2019171416A1 - 画像分類システム、画像分類方法および画像分類プログラム - Google Patents

画像分類システム、画像分類方法および画像分類プログラム Download PDF

Info

Publication number
JPWO2019171416A1
JPWO2019171416A1 JP2020504481A JP2020504481A JPWO2019171416A1 JP WO2019171416 A1 JPWO2019171416 A1 JP WO2019171416A1 JP 2020504481 A JP2020504481 A JP 2020504481A JP 2020504481 A JP2020504481 A JP 2020504481A JP WO2019171416 A1 JPWO2019171416 A1 JP WO2019171416A1
Authority
JP
Japan
Prior art keywords
image
probability
likelihood
classified
known image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020504481A
Other languages
English (en)
Other versions
JP6927410B2 (ja
Inventor
貴裕 戸泉
貴裕 戸泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019171416A1 publication Critical patent/JPWO2019171416A1/ja
Application granted granted Critical
Publication of JP6927410B2 publication Critical patent/JP6927410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

画像分類システム10は、入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算する確率計算手段11と、入力された画像が示す内容がラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算する尤度計算手段12と、計算された既知画像確率を用いて計算された尤度を補正する補正手段13とを備える。

Description

本発明は、画像分類システム、画像分類方法および画像分類プログラムに関し、特に未知の画像を識別する一般ゼロショット認識で用いられるパラメータを学習する画像分類システム、画像分類方法および画像分類プログラムに関する。
画像認識の分野において設定されている問題の1つに、ゼロショット認識と呼ばれる未知の画像を認識する問題がある。ゼロショット認識は、例えば非特許文献1に記載されている。
ゼロショット認識では、学習データとテストデータとが別々に用意される。既知の学習データのみが用いられて学習された認識器が、未知のテストデータが有する画像の内容を示すラベルを推定する。
また、ゼロショット認識では、画像の特徴(以下、画像特徴と呼ぶ。)の他に補助情報としてラベルの特徴(以下、ラベル特徴と呼ぶ。)が用いられる。学習フェーズでは、既知の学習データが有する画像と学習データが有するラベルが示す画像特徴と、ラベル特徴との線形写像が学習される。
テストフェーズでは、認識器が、学習された線形写像を用いてテストデータが示す画像特徴をラベル特徴に変換する。次いで、認識器は、変換されたラベル特徴の空間の中でテストデータが有するラベルを認識する。
さらに、画像認識の分野では、テストフェーズにおける認識対象に学習データが有する既知のラベルが含まれる、一般ゼロショット認識という問題も設定されている。一般ゼロショット認識は、例えば非特許文献2に記載されている。
H. Larochelle, D. Erhan, and Y. Bengio, "Zero-Data Learning of New Tasks," Proceedings of the Twenty-Third AAAI Conference on Artificial Intelligence, 2008. A. Frome, G. S. Corrado, J. Shlens, S. Bengio, J. Dean, M. A. Ranzato, and T. Mikolov, "DeViSE: A Deep Visual-Semantic Embedding Model," In NIPS, 2013.
一般ゼロショット認識では、学習データとして用いられる既知のラベルにモデルが過剰適合するため、テストデータが有する未知のラベルの認識の精度が低くなるという問題がある。
その理由は、テストデータが有する未知の画像のラベルは学習に使われないため、学習データとして用いられる既知の画像のラベルにモデルが過剰適合するためである。上記の問題を解決できる、テストデータが有する画像のラベルを高精度に推定できる技術が求められている。
[発明の目的]
そこで、本発明は、上述した課題を解決する、テストデータが有する画像のラベルを高精度に推定できる画像分類システム、画像分類方法および画像分類プログラムを提供することを目的とする。
本発明による画像分類システムは、入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算する確率計算手段と、入力された画像が示す内容がラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算する尤度計算手段と、計算された既知画像確率を用いて計算された尤度を補正する補正手段とを備えることを特徴とする。
本発明による画像分類方法は、入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算し、入力された画像が示す内容がラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算し、計算された既知画像確率を用いて計算された尤度を補正することを特徴とする。
本発明による画像分類プログラムは、コンピュータに、入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算する確率計算処理、入力された画像が示す内容がラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算する尤度計算処理、および計算された既知画像確率を用いて計算された尤度を補正する補正処理を実行させることを特徴とする。
本発明によれば、テストデータが有する画像のラベルを高精度に推定できる。
本発明による画像分類システムの第1の実施形態の構成例を示すブロック図である。 既知画像確率計算器1200の構成例を示すブロック図である。 既知画像確率アンサンブル推定部1210の構成例を示すブロック図である。 第1の実施形態の画像分類システム1000による推定器パラメータ学習処理の動作を示すフローチャートである。 第1の実施形態の画像分類システム1000による画像分類処理の動作を示すフローチャートである。 本発明による画像分類システムの第2の実施形態の構成例を示すブロック図である。 第2の実施形態の画像分類システム1001による画像分類処理の動作を示すフローチャートである。 本発明による画像分類システムのハードウェア構成例を示す説明図である。 本発明による画像分類システムの概要を示すブロック図である。
[第1の実施形態]
[構成の説明]
以下、本発明の実施形態を、図面を参照して説明する。図1は、本発明による画像分類システムの第1の実施形態の構成例を示すブロック図である。
図1に示す画像分類システム1000は、ラベルが未知の画像(以下、未知画像と呼ぶ。)を認識するシステムである。また、画像分類システム1000は、認識に使用される構成要素のパラメータを学習するシステムである。
図1に示す本実施形態の画像分類システム1000は、画像入力部1100と、既知画像確率計算器1200と、未知画像分類器1300と、画像分類器1400と、推定結果出力部1500とを備えている。
画像入力部1100には、画像を示す情報が入力される。本実施形態の画像入力部1100には、未知画像とラベルが既知の画像(以下、既知画像と呼ぶ。)が混合された画像を示す情報が入力される。
画像入力部1100には、例えばファイル、データベース、通信機、センサから画像を示す情報が入力される。入力される画像を示す情報は、例えば縦の画素数と、横の画素数と、ビット数等のカラー情報とを有する3次元で表現される情報である。
また、画像入力部1100には、複数枚の画像を示す情報が入力されてもよい。複数枚の画像を示す情報は、例えば枚数と、縦の画素数と、横の画素数と、ビット数等のカラー情報とを有する4次元で表現される情報である。
また、画像入力部1100には、グレースケール画像を示す情報が入力されてもよい。グレースケール画像を示す情報は、例えば縦の画素数と、横の画素数とを有する2次元で表現される情報である。画像入力部1100は、入力された画像を示す情報を既知画像確率計算器1200と未知画像分類器1300にそれぞれ入力する。
既知画像確率計算器1200は、画像入力部1100から入力された情報が示す画像が既知画像に該当する確率を計算する機能を有する。既知画像確率計算器1200は、計算された確率を既知画像確率として画像分類器1400に入力する。
既知画像確率計算器1200は、入力された情報が示す画像が既知画像に該当する確率である既知画像確率を計算する。また、既知画像確率計算器1200は、既知画像確率を計算する関数を学習することもできる。
図2は、既知画像確率計算器1200の構成例を示すブロック図である。図2に示すように、既知画像確率計算器1200は、既知画像確率アンサンブル推定部1210を含む。
図3は、既知画像確率アンサンブル推定部1210の構成例を示すブロック図である。図3に示すように、既知画像確率アンサンブル推定部1210は、既知画像確率推定器12111 〜既知画像確率推定器1211n と、パラメータ学習部1212とを有する(nは1以上の自然数)。
既知画像確率アンサンブル推定部1210の既知画像確率推定器12111 は、入力された情報が示す画像に対して既知画像確率を推定する機能を有する。なお、既知画像確率推定器12112 〜既知画像確率推定器1211n も、既知画像確率推定器12111 が有する機能と同様の機能をそれぞれ有する。既知画像確率推定器12111 〜既知画像確率推定器1211n は、既知画像確率が推定される時に使用される構成要素である。
パラメータ学習部1212は、既知画像確率推定器12111 〜既知画像確率推定器1211n の各パラメータを学習する機能を有する。パラメータ学習部1212は、パラメータが学習される時に使用される構成要素である。
本実施形態の既知画像確率推定器12111 〜既知画像確率推定器1211n はそれぞれ、既知画像を入力とし、複数の既知画像に対応するクラス数の次元を有するベクトルを出力とするニューラルネットワークで構成されている。
パラメータ学習部1212は、下記の式(1)の値を最小化するように、既知画像確率推定器12111 〜既知画像確率推定器1211n の各パラメータを学習する。パラメータ学習部1212は、例えば既知画像確率推定器12111 〜既知画像確率推定器1211n の各パラメータを、以下の誤差関数を用いて学習する。
Figure 2019171416
なお、式(1)におけるy は、例えばone-hot ベクトルで表される既知画像確率の正解値であり、ypred は既知画像確率の推定値である。なお、one-hot ベクトルは、1つの要素だけHigh(1) であり、他の要素はLow(0)であるベクトルである。また、式(1)におけるβはハイパーパラメータであり、0 以上の値を取る。βの値が調整されることによって、既知画像のラベルの推定結果と未知画像のラベルの推定結果とのバランスが保たれる。
また、パラメータ学習部1212が用いる誤差関数は、式(1)に限定されない。例えば、出力としてone-hot ベクトルで表現されない連続値が想定される場合、パラメータ学習部1212は、平均二乗誤差(MSE:Mean Squared Error)や平均絶対値誤差(MAE:Mean Absolute Error)等の誤差関数を用いる。
また、ニューラルネットワークの出力層の活性化関数として、例えばシグモイド関数やソフトマックス関数が用いられる。なお、活性化関数には、シグモイド関数やソフトマックス関数以外の関数が用いられてもよい。
なお、既知画像確率推定器を構成するニューラルネットワークの構成は、どのような構成でもよい。例えば、ニューラルネットワークとして、VGG やResNet(Residual Network)が使用されてもよい。
また、一般的なネットワークの前半部分が直接用いられ、ネットワークの後半部分の分類用のネットワークが置き換えられて構成されたニューラルネットワークが使用されてもよい。また、一般的な畳み込みネットワークが用いられて画像特徴等が抽出されてから、新たにニューラルネットワークが構成されてもよい。
本実施形態のパラメータ学習部1212は、式(1)の誤差関数を用いて、複数個の既知画像確率推定器12111 〜既知画像確率推定器1211n の各パラメータを学習する。
学習する際、パラメータ学習部1212は、例えば学習の初期パラメータとして既知画像確率推定器ごとに異なる乱数シード値を用いる。すなわち、パラメータ学習部1212は、既知画像確率推定器を構成するそれぞれのニューラルネットワークの初期パラメータに、既知画像確率推定器ごとに異なる乱数シード値を設定する。
学習した後、パラメータ学習部1212は、複数の学習済みパラメータを出力する。出力される複数の学習済みパラメータには、例えばニューラルネットワークの勾配の更新に使用されるパラメータも含まれる。また、パラメータ学習部1212による学習は、複数回繰り返し実行される可能性がある。
複数の既知画像確率推定器12111 〜既知画像確率推定器1211n は、パラメータ学習部1212により得られた学習済みパラメータをそれぞれ用いて、既知画像確率をそれぞれ推定する。既知画像確率アンサンブル推定部1210は、例えば、推定された複数の既知画像確率の平均値を出力する。
複数の既知画像確率の平均値がラベルの推定に使用されると、既知画像間の共通する類似部分に存在する未知画像が既知画像として推定される可能性が低減する。すなわち、複数の既知画像確率の平均値が使用されると、1つの既知画像確率推定器が出力した既知画像確率のみが使用された時に曖昧に分離されていた未知画像と既知画像が、精度良く分離される。
なお、アンサンブル学習の別の例として、Dropout が用いられたネットワークが使用されてもよい。例えば、1つのネットワークの学習において、既知画像確率推定器12111 〜既知画像確率推定器1211n は、中間層同士の間に1つまたは複数のDropout レイヤが挿入されたネットワークでそれぞれ構成されていてもよい。また、Dropout が用いられた学習においても、単一のネットワークが用いられてもよいし、初期パラメータである乱数シード値がそれぞれ異なる複数のネットワークが用いられてもよい。
上記の学習方法以外に、既知画像確率計算器1200は、オートエンコーダや1クラスSVM(Support Vector Machine) 等の異常検知に使用される学習方法を用いてもよい。
また、識別対象が複数の時刻フレームで構成される動画や複数の類似画像である場合、既知画像確率計算器1200は、複数の推定処理において共通の値を既知画像確率としてもよい。または、既知画像確率計算器1200は、複数の推定処理において、計算された既知画像確率の平均値等を既知画像確率としてもよい。
例えば、連続する時刻フレームにおける各画像に対して、既知画像確率計算器1200は、1つ前の時刻フレームにおける画像から推定された既知画像確率をメモリに保存する。次いで、既知画像確率計算器1200は、次の時刻フレームにおける画像のみから推定された既知画像確率に、メモリに保存されていた既知画像確率が乗じられた確率を出力してもよい。
未知画像分類器1300は、画像入力部1100から入力された情報が示す画像が示す内容を各クラスに分類する機能を有する。分類されるクラスには、未知画像が示す内容が分類されているクラス(以下、未知画像のクラスと呼ぶ。)も含まれる。
具体的には、未知画像分類器1300は、既知画像が示す内容が分類されているクラス(以下、既知画像のクラスと呼ぶ。)と未知画像のクラスが混合された各クラスに対して、入力された情報が示す画像が示す内容がクラスに分類される尤度を計算する。計算される尤度は、全クラス数の次元を有するベクトルで表される。ベクトルの各成分は、0 から1 までの間の値を取る尤度値で表される。
各成分の尤度値は、それぞれのクラスらしさを表す。すなわち、尤度値が0 であれば、画像が示す内容は、最も尤度値に対応するクラスらしくない。また、尤度値が1 であれば、画像が示す内容は、最も尤度値に対応するクラスらしい。
また、未知画像分類器1300は、既知画像のクラスと未知画像のクラスが混合された各クラスに対して、入力された情報が示す画像が示す内容と各クラスとのコサイン類似度で構成されるコサイン類似度ベクトルを計算してもよい。コサイン類似度ベクトルは、全クラス数の次元を有するベクトルで表される。コサイン類似度ベクトルの各成分は、-1から1 までの間の値を取るコサイン類似度で表される。
各成分のコサイン類似度は、それぞれのクラスとの類似度を表す。すなわち、コサイン類似度が-1であれば、画像が示す内容は、コサイン類似度に対応するクラスに最も類似しない。また、コサイン類似度が1 であれば、画像が示す内容は、コサイン類似度に対応するクラスに最も類似する。
未知画像分類器1300は、例えば一般ゼロショット認識器で構成される。一般ゼロショット認識器は、具体的には、既知画像とラベルとの組が用いられて学習された画像特徴とラベル特徴との変換方法を用いて、入力された情報が示す画像に対応するラベルを推定する。
本実施形態で使用される一般ゼロショット認識器として、例えば、非特許文献2に記載されている認識器が用いられる。なお、非特許文献2に記載されている認識器以外の認識器が、一般ゼロショット認識器として用いられてもよい。
上述したように、画像入力部1100には、未知画像と既知画像が混合された画像を示す情報が入力される。よって、未知画像分類器1300は、未知画像と既知画像にそれぞれ対応する各ラベルが示すと想定されるクラスの尤度を出力する。未知画像分類器1300は、各クラスの尤度を画像分類器1400に入力する。
画像分類器1400は、未知画像分類器1300から入力された尤度に既知画像確率計算器1200から入力された既知画像確率を乗ずることによって尤度を補正する機能を有する。画像分類器1400は、補正された尤度を推定結果出力部1500に入力する。
画像分類器1400は、既知画像確率計算器1200から入力された既知画像確率を用いて、未知画像分類器1300から入力された尤度を補正する。具体的には、画像分類器1400は、未知画像分類器1300から入力された既知画像に対応するラベルが示すと想定される全てのクラスの尤度に対して、既知画像確率を乗じる。
さらに、画像分類器1400は、未知画像分類器1300から入力された未知画像に対応するラベルが示すと想定される全てのクラスの尤度に対して、(1−既知画像確率)を乗じる。画像分類器1400は、上記のように補正された尤度を推定結果出力部1500に入力する。
なお、画像分類器1400は、尤度に既知画像確率以外の値を乗じてもよい。例えば、画像分類器1400は、既知画像確率の二乗値等、任意の関数を用いて既知画像確率に対して演算を行った後、尤度に既知画像確率を乗じてもよい。
推定結果出力部1500は、画像分類器1400から入力された補正された尤度に基づいて、入力された情報が示す画像のラベルを推定結果として出力する機能を有する。
推定結果出力部1500は、例えば、既知画像確率、または(1−既知画像確率)が乗じられた全ての尤度のうち最大の尤度のクラスを入力された情報が示す画像のラベルが示すクラスに推定する。推定結果出力部1500は、例えば推定結果を外部デバイスに入力する。
[動作の説明]
以下、本実施形態の画像分類システム1000の推定器のパラメータを学習する動作を図4を参照して説明する。図4は、第1の実施形態の画像分類システム1000による推定器パラメータ学習処理の動作を示すフローチャートである。
最初に、画像入力部1100に、既知画像を示す情報が入力される(ステップS101)。画像入力部1100は、入力された既知画像を示す情報を既知画像確率計算器1200に入力する。
次いで、既知画像確率計算器1200の既知画像確率推定器12111 〜既知画像確率推定器1211n は、画像入力部1100から入力された情報が示す既知画像に対して既知画像確率をそれぞれ推定する(ステップS102)。既知画像確率推定器12111 〜既知画像確率推定器1211n はそれぞれ、推定された既知画像確率をパラメータ学習部1212に入力する。
次いで、パラメータ学習部1212は、入力された各既知画像確率を式(1)に代入し、式(1)の値を最小化するように、既知画像確率推定器12111 〜既知画像確率推定器1211n の各パラメータをそれぞれ学習する(ステップS103)。
次いで、パラメータ学習部1212は、複数の学習済みパラメータを既知画像確率推定器12111 〜既知画像確率推定器1211n にそれぞれ入力する(ステップS104)。入力した後、画像分類システム1000は、推定器パラメータ学習処理を終了する。なお、ステップS103〜ステップS104の処理は、複数回繰り返し実行されてもよい。
次に、本実施形態の画像分類システム1000の画像を分類する動作を図5を参照して説明する。図5は、第1の実施形態の画像分類システム1000による画像分類処理の動作を示すフローチャートである。
最初に、画像入力部1100に、画像を示す情報が入力される(ステップS201)。画像入力部1100は、入力された画像を示す情報を既知画像確率計算器1200と未知画像分類器1300にそれぞれ入力する。
次いで、既知画像確率計算器1200の既知画像確率アンサンブル推定部1210は、既知画像確率推定器12111 〜既知画像確率推定器1211n を用いて、画像入力部1100から入力された情報が示す画像の既知画像確率を計算する(ステップS202)。既知画像確率計算器1200は、計算された既知画像確率を画像分類器1400に入力する。
また、未知画像分類器1300は、入力された情報が示す画像が示す内容が各クラスに分類される尤度をそれぞれ計算する(ステップS203)。未知画像分類器1300は、計算された各クラスの尤度を画像分類器1400に入力する。
次いで、画像分類器1400は、既知画像確率計算器1200から入力された既知画像確率を用いて未知画像分類器1300から入力された尤度を補正する(ステップS204)。画像分類器1400は、補正された尤度を推定結果出力部1500に入力する。
次いで、推定結果出力部1500は、画像分類器1400から入力された補正された尤度に基づいて、入力された情報が示す画像が示す内容が分類されるクラスを推定する。次いで、推定結果出力部1500は、推定されたクラスを示すラベルを推定結果として出力する(ステップS205)。推定結果を出力した後、画像分類システム1000は、画像分類処理を終了する。
[効果の説明]
本実施形態の画像分類システム1000は、画像が既知画像に該当する確率である既知画像確率を出力する既知画像確率計算器1200を備える。また、画像分類システム1000は、入力された画像が示す内容に対して未知画像のクラスと既知画像のクラスが含まれる各クラスに分類される尤度をそれぞれ計算する未知画像分類器1300を備える。また、画像分類システム1000は、既知画像確率計算器1200から出力された既知画像確率を用いて、未知画像分類器1300から出力された尤度を補正する画像分類器1400を備える。
一般的な画像分類システムでは、未知画像のラベルがラベルの推定モデルの学習に使われない。よって、学習データとして用いられる既知画像のラベルに推定モデルが過剰適合し、推定されたテストデータが有する画像のラベルの推定精度が劣化するという問題がある。
本実施形態の画像分類システム1000は、テストデータが有する画像に対して推定されるラベルの精度を向上できる。その理由は、画像分類器1400が出力された尤度を、既知画像確率を用いて補正するためである。本実施形態の既知画像確率計算器1200は未知画像分類器1300を補助するように構成されているため、テストデータが有する画像に対して推定されるラベルの推定精度が向上する。
実施形態2.
[構成の説明]
次に、本発明の第2の実施形態を、図面を参照して説明する。図6は、本発明による画像分類システムの第2の実施形態の構成例を示すブロック図である。
図6に示す本実施形態の画像分類システム1001は、画像入力部1100と、既知画像確率計算器1200と、未知画像分類器1300と、画像分類器1400と、推定結果出力部1500と、既知画像分類器1600とを備えている。
本実施形態の画像分類システム1001には、第1の実施形態の画像分類システム1000と異なり、既知画像分類器1600が追加されている。既知画像分類器1600が追加されている点以外は、本実施形態の画像分類システム1001の構成は、第1の実施形態の画像分類システム1000の構成と同様である。
本実施形態の画像入力部1100、既知画像確率計算器1200、および推定結果出力部1500が有する各機能は、第1の実施形態の画像入力部1100、既知画像確率計算器1200、および推定結果出力部1500が有する各機能とそれぞれ同様である。
本実施形態の未知画像分類器1300は、画像入力部1100から入力された情報が示す画像が示す内容が、未知画像の各クラスに分類される尤度をそれぞれ計算する機能を有する。計算される尤度は、未知画像のクラス数の次元を有するベクトルで表される。ベクトルの各成分は、0 から1 までの間の値を取る尤度値で表される。
未知画像分類器1300は、例えば従来型ゼロショット認識器で構成される。従来型ゼロショット認識器は、具体的には、既知画像とラベルとの組が用いられて学習された画像特徴とラベル特徴との変換方法を用いて、入力された情報が示す画像に対応するラベルを推定する。
本実施形態で使用される従来型ゼロショット認識器として、例えば、非特許文献2に記載されている認識器が用いられる。なお、非特許文献2に記載されている認識器以外の認識器が、従来型ゼロショット認識器として用いられてもよい。
本実施形態でも、画像入力部1100には、未知画像と既知画像が混合された画像を示す情報が入力される。未知画像分類器1300は、未知画像に対応するラベルが示すと想定されるクラスの尤度を出力する。
本実施形態の既知画像分類器1600は、画像入力部1100から入力された情報が示す画像が示す内容が、既知画像の各クラスに分類される尤度をそれぞれ計算する機能を有する。計算される尤度は、既知画像のクラス数の次元を有するベクトルで表される。ベクトルの各成分は、0 から1 までの間の値を取る尤度値で表される。
既知画像分類器1600は、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)認識器(以下、CNN 認識器と呼ぶ。)で構成される。CNN 認識器は、具体的には、既知画像とラベルとの組が用いられて学習されたCNN を用いて、入力された情報が示す画像に対応するラベルを推定する。
本実施形態で使用されるCNN 認識器として、例えば、VGG やResNetが用いられる。なお、VGG やResNet以外の認識器が、CNN 認識器として用いられてもよい。
上述したように、画像入力部1100には、未知画像と既知画像が混合された画像を示す情報が入力される。既知画像分類器1600は、既知画像に対応するラベルが示すと想定されるクラスの尤度を出力する。
本実施形態の画像分類器1400は、既知画像確率計算器1200から出力された既知画像確率を用いて、未知画像分類器1300から出力された尤度と、既知画像分類器1600から出力された尤度をそれぞれ補正する機能を有する。
具体的には、画像分類器1400は、既知画像分類器1600から入力された既知画像に対応するラベルが示すと想定される全てのクラスの尤度に対して、既知画像確率を乗じる。さらに、画像分類器1400は、未知画像分類器1300から入力された未知画像に対応するラベルが示すと想定される全てのクラスの尤度に対して、(1−既知画像確率)を乗じる。
画像分類器1400は、補正された尤度を推定結果出力部1500に入力する。推定結果出力部1500は、例えば、既知画像確率、または(1−既知画像確率)が乗じられた全ての尤度のうち最大の尤度のクラスを入力された情報が示す画像のラベルが示すクラスに推定する。推定結果出力部1500は、推定されたクラスを示すラベルを推定結果として出力する。
なお、画像分類器1400は、尤度に既知画像確率以外の値を乗じてもよい。例えば、画像分類器1400は、既知画像確率の二乗値等、任意の関数を用いて既知画像確率に対して演算を行った後、尤度に既知画像確率を乗じてもよい。
[動作の説明]
以下、本実施形態の画像分類システム1001の画像を分類する動作を図7を参照して説明する。図7は、第2の実施形態の画像分類システム1001による画像分類処理の動作を示すフローチャートである。
図7に示すステップS211〜ステップS212の処理は、図5に示すステップS201〜ステップS202の処理と同様である。
未知画像分類器1300は、入力された情報が示す画像が示す内容が未知画像の各クラスに分類される尤度をそれぞれ計算する(ステップS213)。未知画像分類器1300は、計算された各クラスの尤度を画像分類器1400に入力する。
また、既知画像分類器1600は、入力された情報が示す画像が示す内容が既知画像の各クラスに分類される尤度をそれぞれ計算する(ステップS214)。既知画像分類器1600は、計算された各クラスの尤度を画像分類器1400に入力する。
次いで、画像分類器1400は、既知画像確率計算器1200から入力された既知画像確率を用いて、未知画像分類器1300から入力された尤度、および既知画像分類器1600から入力された尤度をそれぞれ補正する(ステップS215)。画像分類器1400は、補正された尤度を推定結果出力部1500に入力する。
図7に示すステップS216の処理は、図5に示すステップS205の処理と同様である。
なお、本実施形態の画像分類システム1001による推定器パラメータ学習処理は、図4に示す推定器パラメータ学習処理と同様である。
[効果の説明]
本実施形態の画像分類システム1001は、画像が既知画像に該当する確率である既知画像確率を出力する既知画像確率計算器1200を備える。また、画像分類システム1001は、入力された画像が示す内容に対して未知画像のクラスに分類される尤度を計算する未知画像分類器1300と、入力された画像が示す内容に対して既知画像のクラスに分類される尤度を計算する既知画像分類器1600とを備える。
また、画像分類システム1001は、既知画像確率計算器1200から出力された既知画像確率を用いて、未知画像分類器1300から出力された尤度と既知画像分類器1600から出力された尤度とをそれぞれ補正する画像分類器1400を備える。
本実施形態の画像分類システム1001は、第1の実施形態の画像分類システム1000に比べて、各クラスの尤度をより高精度に計算できる。その理由は、未知画像分類器1300による未知画像のクラスの尤度の計算と、既知画像分類器1600による既知画像のクラスの尤度の計算とが、それぞれより適切な方法で実行されるためである。
以下、各実施形態の画像分類システム1000、および画像分類システム1001のハードウェア構成の具体例を説明する。図8は、本発明による画像分類システムのハードウェア構成例を示す説明図である。
図8に示す画像分類システムは、CPU(Central Processing Unit)101 と、主記憶部102 と、通信部103 と、補助記憶部104 とを備える。また、ユーザが操作するための入力部105 や、ユーザに処理結果または処理内容の経過を提示するための出力部106 を備えてもよい。
主記憶部102 は、データの作業領域やデータの一時退避領域として用いられる。主記憶部102 は、例えばRAM(Random Access Memory) である。
通信部103 は、有線のネットワークまたは無線のネットワーク(情報通信ネットワーク)を介して、周辺機器との間でデータを入力および出力する機能を有する。
補助記憶部104 は、一時的でない有形の記憶媒体である。一時的でない有形の記憶媒体として、例えば磁気ディスク、光磁気ディスク、CD-ROM(Compact Disk Read Only Memory) 、DVD-ROM(Digital Versatile Disk Read Only Memory)、半導体メモリが挙げられる。
入力部105 は、データや処理命令を入力する機能を有する。入力部105 は、例えばキーボードやマウス等の入力デバイスである。
出力部106 は、データを出力する機能を有する。出力部106 は、例えば液晶ディスプレイ装置等の表示装置、またはプリンタ等の印刷装置である。
また、図8に示すように、画像解析装置において、各構成要素は、システムバス107 に接続されている。
補助記憶部104 は、例えば、画像入力部1100、既知画像確率計算器1200、未知画像分類器1300、画像分類器1400、推定結果出力部1500、および既知画像分類器1600を実現するためのプログラムを記憶している。
また、画像入力部1100は、通信部103 を介して画像を示す情報を受信してもよい。また、推定結果出力部1500は、通信部103 を介して推定結果を送信してもよい。
なお、画像分類システム1000、および画像分類システム1001は、ハードウェアにより実現されてもよい。例えば、画像分類システム1000は、内部に図1に示すような機能を実現するプログラムが組み込まれたLSI(Large Scale Integration)等のハードウェア部品が含まれる回路が実装されてもよい。
また、画像分類システム1000、および画像分類システム1001は、図8に示すCPU101が図1に示す各構成要素が有する機能、または図6に示す各構成要素が有する機能を提供するプログラムを実行することによって、ソフトウェアにより実現されてもよい。
ソフトウェアにより実現される場合、CPU101が補助記憶部104 に格納されているプログラムを、主記憶部102 にロードして実行し、画像分類システム1000、または画像分類システム1001の動作を制御することによって、各機能がソフトウェアにより実現される。
また、各構成要素の一部または全部は、汎用の回路(circuitry) または専用の回路、プロセッサ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各構成要素の一部または全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
各構成要素の一部または全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
次に、本発明の概要を説明する。図9は、本発明による画像分類システムの概要を示すブロック図である。本発明による画像分類システム10は、入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算する確率計算手段11(例えば、既知画像確率計算器1200)と、入力された画像が示す内容がラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算する尤度計算手段12(例えば、未知画像分類器1300)と、計算された既知画像確率を用いて計算された尤度を補正する補正手段13(例えば、画像分類器1400)とを備える。
そのような構成により、画像分類システムは、テストデータが有する画像のラベルを高精度に推定できる。
また、画像分類システム10は、補正された尤度を用いて入力された画像のラベルを推定するラベル推定手段(例えば、推定結果出力部1500)を備えてもよい。
そのような構成により、画像分類システムは、テストデータが有する画像のラベルを高精度に推定できる。
また、確率計算手段11は、入力された画像が既知画像に該当する確率を推定する複数の確率推定手段(例えば、既知画像確率推定器12111 〜既知画像確率推定器1211n )と、既知画像を含む学習データに基づいて複数の確率推定手段の各パラメータをそれぞれ学習する学習手段(例えば、パラメータ学習部1212)とを含んでもよい。
そのような構成により、画像分類システムは、入力された画像が既知画像に該当する確率を推定する推定器の推定精度を向上させることができる。
また、確率計算手段11は、複数の確率推定手段によりそれぞれ推定された複数の確率を用いて既知画像確率を計算してもよい。
そのような構成により、画像分類システムは、計算される既知画像確率の精度を向上させることができる。
また、尤度計算手段12は、入力された画像が示す内容が未知画像が示す内容が分類されているクラスに分類される尤度を計算する未知画像尤度計算手段(例えば、未知画像分類器1300)と、入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度を計算する既知画像尤度計算手段(例えば、既知画像分類器1600)とを含んでもよい。
そのような構成により、画像分類システムは、テストデータが有する画像のラベルをより高精度に推定できる。
また、補正手段13は、既知画像尤度計算手段により計算された尤度に計算された既知画像確率を乗じ、未知画像尤度計算手段により計算された尤度に1から計算された既知画像確率が減じられた値を乗じることによって計算された尤度を補正してもよい。
そのような構成により、画像分類システムは、テストデータが有する画像のラベルを高精度に推定できる。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10、1000、1001 画像分類システム
11 確率計算手段
12 尤度計算手段
13 補正手段
101 CPU
102 主記憶部
103 通信部
104 補助記憶部
105 入力部
106 出力部
107 システムバス
1100 画像入力部
1200 既知画像確率計算器
1210 既知画像確率アンサンブル推定部
12111 〜1211n 既知画像確率推定器
1212 パラメータ学習部
1300 未知画像分類器
1400 画像分類器
1500 推定結果出力部
1600 既知画像分類器

Claims (10)

  1. 入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算する確率計算手段と、
    前記入力された画像が示す内容が前記ラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、前記入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算する尤度計算手段と、
    計算された既知画像確率を用いて計算された尤度を補正する補正手段とを備える
    ことを特徴とする画像分類システム。
  2. 補正された尤度を用いて入力された画像のラベルを推定するラベル推定手段を備える
    請求項1記載の画像分類システム。
  3. 確率計算手段は、
    入力された画像が既知画像に該当する確率を推定する複数の確率推定手段と、
    既知画像を含む学習データに基づいて前記複数の確率推定手段の各パラメータをそれぞれ学習する学習手段とを含む
    請求項1または請求項2記載の画像分類システム。
  4. 確率計算手段は、複数の確率推定手段によりそれぞれ推定された複数の確率を用いて既知画像確率を計算する
    請求項3記載の画像分類システム。
  5. 尤度計算手段は、
    入力された画像が示す内容が未知画像が示す内容が分類されているクラスに分類される尤度を計算する未知画像尤度計算手段と、
    前記入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度を計算する既知画像尤度計算手段とを含む
    請求項1から請求項4のうちのいずれか1項に記載の画像分類システム。
  6. 補正手段は、既知画像尤度計算手段により計算された尤度に計算された既知画像確率を乗じ、未知画像尤度計算手段により計算された尤度に1から前記計算された既知画像確率が減じられた値を乗じることによって計算された尤度を補正する
    請求項5記載の画像分類システム。
  7. 入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算し、
    前記入力された画像が示す内容が前記ラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、前記入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算し、
    計算された既知画像確率を用いて計算された尤度を補正する
    ことを特徴とする画像分類方法。
  8. 補正された尤度を用いて入力された画像のラベルを推定する
    請求項7記載の画像分類方法。
  9. コンピュータに、
    入力された画像が、画像が示す内容が分類されているクラスを示すラベルが既知である既知画像に該当する確率である既知画像確率を計算する確率計算処理、
    前記入力された画像が示す内容が前記ラベルが未知である未知画像が示す内容が分類されているクラスに分類される尤度と、前記入力された画像が示す内容が既知画像が示す内容が分類されているクラスに分類される尤度とをそれぞれ計算する尤度計算処理、および
    計算された既知画像確率を用いて計算された尤度を補正する補正処理
    を実行させるための画像分類プログラム。
  10. コンピュータに、
    補正された尤度を用いて入力された画像のラベルを推定する推定処理を実行させる
    請求項9記載の画像分類プログラム。
JP2020504481A 2018-03-05 2018-03-05 画像分類システム、画像分類方法および画像分類プログラム Active JP6927410B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/008252 WO2019171416A1 (ja) 2018-03-05 2018-03-05 画像分類システム、画像分類方法および画像分類プログラム

Publications (2)

Publication Number Publication Date
JPWO2019171416A1 true JPWO2019171416A1 (ja) 2021-02-04
JP6927410B2 JP6927410B2 (ja) 2021-08-25

Family

ID=67846945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504481A Active JP6927410B2 (ja) 2018-03-05 2018-03-05 画像分類システム、画像分類方法および画像分類プログラム

Country Status (3)

Country Link
US (1) US11922312B2 (ja)
JP (1) JP6927410B2 (ja)
WO (1) WO2019171416A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113127667A (zh) * 2019-12-30 2021-07-16 阿里巴巴集团控股有限公司 图像处理方法及装置、图像分类方法及装置
JP6998498B1 (ja) * 2020-06-29 2022-01-18 楽天グループ株式会社 情報処理装置、及びプログラム
CN112488241B (zh) * 2020-12-18 2022-04-19 贵州大学 一种基于多粒度融合网络的零样本图片识别方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2373207A1 (en) 1999-05-12 2000-11-23 Siemens Aktiengesellschaft Address reading method
JP4055886B2 (ja) 2001-11-12 2008-03-05 独立行政法人情報通信研究機構 識別処理装置およびそのコンピュータプログラム
JP6544900B2 (ja) * 2014-09-17 2019-07-17 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP2017151679A (ja) 2016-02-24 2017-08-31 コニカミノルタ株式会社 識別装置及び識別プログラム
US20170330059A1 (en) * 2016-05-11 2017-11-16 Xerox Corporation Joint object and object part detection using web supervision

Also Published As

Publication number Publication date
US20210056364A1 (en) 2021-02-25
WO2019171416A1 (ja) 2019-09-12
US11922312B2 (en) 2024-03-05
JP6927410B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
US11657602B2 (en) Font identification from imagery
CN108304775B (zh) 遥感图像识别方法、装置、存储介质以及电子设备
US9996768B2 (en) Neural network patch aggregation and statistics
JP7266674B2 (ja) 画像分類モデルの訓練方法、画像処理方法及び装置
JP6927410B2 (ja) 画像分類システム、画像分類方法および画像分類プログラム
CN111461101B (zh) 工服标志的识别方法、装置、设备及存储介质
CN112036447A (zh) 零样本目标检测系统及可学习语义和固定语义融合方法
JP6962123B2 (ja) ラベル推定装置及びラベル推定プログラム
CN111178363B (zh) 文字识别方法、装置、电子设备以及可读存储介质
JP6535134B2 (ja) 作成装置、作成プログラム、および作成方法
CN114299304A (zh) 一种图像处理方法及相关设备
WO2020179378A1 (ja) 情報処理システム、情報処理方法および記録媒体
CN116957024A (zh) 利用神经网络模型进行推理的方法和装置
JP7031686B2 (ja) 画像認識システム、方法およびプログラム、並びにパラメータ学習システム、方法およびプログラム
US20190156182A1 (en) Data inference apparatus, data inference method and non-transitory computer readable medium
CN113177602B (zh) 图像分类方法、装置、电子设备和存储介质
CN114757358A (zh) 信息处理装置及信息处理方法
CN114187487A (zh) 一种大规模点云数据的处理方法、装置、设备及介质
CN114254705A (zh) 异常数据的检测方法、装置、存储介质及计算机设备
CN112613341A (zh) 训练方法及装置、指纹识别方法及装置、电子设备
US20220004817A1 (en) Data analysis system, learning device, method, and program
CN113822302A (zh) 一种目标检测模型的训练方法及装置
CN116912920B (zh) 表情识别方法及装置
WO2022219686A1 (ja) 密度比推定装置、密度比推定方法および密度比推定プログラム
US20220398833A1 (en) Information processing device, learning method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6927410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150