JP6919990B2 - オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面 - Google Patents

オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面 Download PDF

Info

Publication number
JP6919990B2
JP6919990B2 JP2017200825A JP2017200825A JP6919990B2 JP 6919990 B2 JP6919990 B2 JP 6919990B2 JP 2017200825 A JP2017200825 A JP 2017200825A JP 2017200825 A JP2017200825 A JP 2017200825A JP 6919990 B2 JP6919990 B2 JP 6919990B2
Authority
JP
Japan
Prior art keywords
unit
generator
identification result
data
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017200825A
Other languages
English (en)
Other versions
JP2019074945A (ja
Inventor
全 孔
全 孔
裕樹 渡邉
裕樹 渡邉
直人 秋良
直人 秋良
村上 智一
智一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017200825A priority Critical patent/JP6919990B2/ja
Priority to PCT/JP2018/029882 priority patent/WO2019077854A1/ja
Priority to EP18868723.0A priority patent/EP3699864A4/en
Priority to US16/754,408 priority patent/US20200311575A1/en
Publication of JP2019074945A publication Critical patent/JP2019074945A/ja
Application granted granted Critical
Publication of JP6919990B2 publication Critical patent/JP6919990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体や人物等の対象物の認識・学習技術に関する。
対象物の認識・学習技術において、対象物を認識するための学習用サンプルが不十分な場合、擬似的に生成しようとする方式がいくつ検討されている。例えば、特許文献1にあるような、ラベルが付与された学習用入力データから観測できない情報を擬似的に生成するような変換方式がある。また、学習用のデータからデータを構成する部品やパターンを抽出し、擬似データを合成することによりサンプル数を追加する方式や、学習用の実データ(例えば、音声)が存在しない場合、他のドメインの入力データ(例えば、文字)から生成する方式が検討されている。
一方、特許文献2にあるように、学習サンプルは追加しながら、学習モデルをオンラインで更新することで、不十分な学習用サンプルをカバーする方式が検討されている。
特開2016−186515号公報 特開2008−204102号公報
学習用サンプルが不十分な場合の認識精度の向上には、上記特許文献1では入力した学習データに対して、擬似的に情報を生成するため、入力データ分の生成情報しか活用できない。また、学習用のデータからデータを構成する部品やパターンを抽出し擬似データを合成することによりサンプル数を追加する方式では、データを構成する部品やパターンを抽出し擬似データを合成するため、より複雑なデータ構成における抽象的なパターンからリアルに近いデータサンプルへの合成が困難である。それに加えて、上記特許文献1には、単純にサンプルや情報が増えるため、生成されたサンプルや情報が学習に貢献があるとは限らない。認識モデルに対して、認識上困難なサンプルあるいは認識上不確定性が高いサンプルへの学習は、モデルの認識性能の向上に対する貢献が大きい。また、生成されたサンプルは、既存学習情報と類似する場合、学習への貢献が小さいか無い可能性もある。そのため、単純な生成過程によるサンプル数の増加には、効率的、かつ効果的な学習ができない課題があった。それと同様に、特許文献2にも、新たに獲得した学習サンプルをオンラインでモデルを更新するときに追加での学習サンプルを一律に学習するため、上記課題が存在した。
本発明は、上記背景技術及び課題に鑑み、その一例を挙げるならば、オンライン認識装置であって、入力されたデータの特徴量を抽出する特徴量抽出部と、抽出した特徴量に基づき識別結果を予測する識別結果予測部と、予測した識別結果からラベリングの必要性を判定する予測結果評価部と、判定結果からオンラインで入力データに正解を付与する正解付与部と、正解付き入力データに基づき生成器のパラメータを更新する生成器更新部と、更新された生成器のパラメータに基づき生成器を構築し擬似学習データを生成する擬似学習データ生成部と、正解付き入力データと擬似学習データに基づき予め用意した識別器のパラメータをオンラインで更新する識別器更新部と、更新された識別器を新たな識別結果予測部として更新する。
本発明によれば、学習サンプルが不十分な場合でも、認識精度を向上させることが可能となるオンライン認識装置、オンライン認識方法、及びそれに用いる設定画面を提供できる。
実施例1におけるオンライン認識装置の機能ブロック構成図である。 実施例1における予測結果評価部の構成例を示す機能ブロック図である。 実施例1における正解付与部の処理方法を示す概念図である。 実施例1におけるオンライン認識装置の処理フロー図である。 実施例1における生成器/識別器の初期化方法の機能ブロック構成図である。 実施例1における生成器構築部の構成例を示す機能ブロック図である。 実施例1における生成器/識別器初期化方法の処理フロー図である。 実施例1におけるオンライン認識装置のハード構成例とその処理内容を示す図である。 実施例2におけるオンライン認識装置の機能ブロック構成図である。 実施例3におけるオンライン認識装置の機能ブロック構成図である。 実施例3におけるオンライン認識装置の擬似学習データ生成用設定GUIである。
以下、本発明の実施例について図面を用いて説明する。
図1は本実施例におけるオンライン認識装置の機能ブロック構成図を示している。図1において、オンライン認識装置は、識別器用特徴量抽出部102、識別結果予測部103、予測結果評価部104、正解付与部105、生成器指示変数生成部106、生成器更新部107、擬似学習データ生成部108、生成サンプル数設定部109、生成サンプル記憶部110、擬似学習データ選別部111、識別器更新部112を備える。
入力データ101は可視カメラ、ステレオカメラ、IRカメラ、放射線(X線)照射装置など入力手段から得られた画像データを用いることが考えられる。識別器はサポートベクターマシーン(SVM)やニューラルネットワーク等を用いて構成すればよい。生成器は隠れマルコフモデル(HMM)やニューラルネットワーク等を用いて構成すればよい。擬似学習データは入力データと同じドメインに属するデータとなる。
識別器用特徴量抽出部102は受け取った入力データから識別器用特徴量を抽出する。識別器用特徴量は識別器用特徴量抽出部102で抽出され、対象データの内容を識別することが可能な情報として抽出される。
識別結果予測部103は識別器用特徴量抽出部102から受け取った識別器用特徴量をもとに物体の内容を識別する。その識別結果をベクトルとして識別情報を出力する。出力された識別情報は、識別対象の識別ラベル(以下クラス情報)と、所属するクラス情報の所属度合いを示す確率、エントロピー(不確定さの尺度)などである。
予測結果評価部104は、識別結果予測部103から受け取った識別情報をもとに入力データの識別不確定さを計算し、その結果をもとに入力データは学習サンプルとして追加すべきかどうかを総合的に評価する。学習サンプルとして追加すべき条件を満たす入力データに対して正解付与部105によって正解クラスのラベルが付与される。
生成指示変数生成部106は正解付与部105から受け取ったクラス情報を指示変数へ変換する。変換された変数はone hot vectorなどが挙げられる。生成器更新部107は付与された正解とそれに対応する入力データを用いて、生成器のパラメータを更新する。擬似学習データ生成部108は生成器更新部107から受け取った生成器と生成指示変数生成部106から受け取った指示変数をもとに正解付与部105から出力したクラス情報を持つ擬似学習データを生成サンプル数設定部109から設定された数までサンプルを生成し、および擬似学習データ生成サンプルと実サンプルとの尤度情報を生成サンプル記憶部110に格納する。
擬似学習データ選別部111は、生成サンプル記憶部110に蓄積された生成サンプルの尤度がランキングkまでのサンプルを選出し、選出サンプルのリストを出力する。kはユーザが手動で入力するが、過去のデータから推定する方式を用いてもよい。識別器更新部112は擬似学習データ選別部111から受け取った擬似学習データおよび正解クラスが付与された入力データを用いて、識別器のパラメータを更新し、識別結果予測部103に出力する。
図2は予測結果評価部104の構成例を示す機能ブロック図である。図2において、不確定性評価部201は識別結果予測部103から受け取った識別情報の認識上の不確定性を計算する。この不確定性から評価条件を算出する。例えば、評価条件としては、最も推定される可能性が高いクラスの確率が高くても0.5しかない、また、最も推定される可能性が高いクラスと2番目に推定される可能性が高いクラスとの確率が近い、また、エントロピーが大きいなどの評価条件が挙げられる。評価条件を満たすサンプルがラベリング候補サンプルとなり、アンサンブル評価部204で再度評価する。
情報密度計算部202は、学習サンプルとの類似性を計算し、その平均を情報密度情報として出力する。平均尤度計算部203は、受け取った識別情報から認識器の予測分布との距離を計算し、その距離の値を平均尤度として出力する。
アンサンブル評価部204は識別情報が不確定性評価部201で設定した条件を満たした場合、情報密度計算部202から受け取った情報密度および平均尤度計算部203から受け取った平均尤度をもとに再度評価を行い、例えば、用意済みの閾値と比較するなどして、最終的に入力された識別情報を持つ入力データを正解付与すべきかどうかを判定する。
図3は正解付与部105の処理方法を示す概念図である。図3においては、正解付与部105はクラウドソーシングの方式で行う。Aはラベラーの集団を示す。ラベラーたちはオンラインで並列的に正解クラスと正解領域の付与作業を行う。ラベラーは自動化ツールや実際の人でも良い。Mは識別結果予測部103からの推定クラスを有する予測結果の集団を示す。ラベラーjは予測結果iにlijの正解情報を付与する。正解情報は、正解クラス、正解領域とラベラーjの信頼性と予測結果iの信頼性から構成されるベクトルである。クラス推定部301は、lijを総合的に評価する評価関数となり、最終的に最適なクラス情報と正解対象の正解領域を出力する。
図4は本実施例におけるオンライン認識装置の処理フロー図である。以下、図1の機能ブロック構成図を参照して説明する。図4において、まず、ステップS401で、入力データ取得処理を行う。そして、ステップS402で、識別器用特徴量抽出部102によって識別器用特徴量を抽出し、ステップS403で、識別結果予測部103によって識別器用特徴量をもとに物体の内容を識別する。そして、ステップS404で、予測結果評価部104により予測結果の評価処理を行い、ステップS405で、学習サンプルとして追加すべき評価条件を満たすかどうかの判定を行い、満たすのであれば、ステップS406で、入力データに対して正解付与部105によって正解クラスのラベルを付与する正解付与処理が行われる。評価条件を満たさない場合は、ステップS401に戻る。
次に、ステップS407で、生成器更新部107により付与された正解とそれに対応する入力データを用いて生成器のパラメータを更新する生成器更新処理を行う。そして、ステップS408で、データリスト生成処理として、生成器指示変数生成部106で指示変数を生成し、擬似学習データ生成部108で生成器更新部107から受け取った生成器と指示変数をもとに正解付与部105から出力したクラス情報を持つ擬似学習データを生成サンプル数設定部109から設定された数までサンプルを生成し、擬似学習データ生成サンプルと実サンプルとの尤度情報を生成サンプル記憶部110に格納し、リスト化する。
次に、ステップS409で、擬似学習データ選別部111により生成サンプル記憶部110に蓄積された生成サンプルの尤度がランキングkまでのサンプルを選出する擬似学習データ選別処理を行い、ステップS410で、正解情報と正解クラスが付与された入力データを取得し、ステップS411で、擬似学習データ選別部111から受け取った擬似学習データおよび正解クラスが付与された入力データを用いて、識別器のパラメータを更新する識別器更新処理を行なう。
以上が1つの入力データに対しての処理であり、入力データがある限りこれを繰り返し実行する。
図5は生成器/識別器の初期化方法を示す機能ブロック図である。図5において、まず、正解付きデータ記憶部501から学習データ502を取得する。識別器用特徴量抽出部503は学習データに対する識別器用特徴量を抽出する。識別器初期化部504は識別器用特徴量抽出部503からの識別器用特徴量を用いて、識別器のパラメータを学習し、初期化する。そして、初期化された識別器を識別器記憶部505に格納する。生成器構築部506は、学習データと識別器記憶部505から受け取った識別器を用いて生成器のパラメータを学習し、生成器を初期化する。そして、初期化された生成器が生成器記憶部507に格納される。
生成器指示変数生成部508は学習データに付与された正解クラスをもとにベクトル構造となる指示変数を生成する。データ生成部509は生成器指示変数生成部508と生成器記憶部507から受け取った生成器をもとに事前に決められた生成サンプル目標数まで学習データと同様なクラスを有する擬似データを生成し、生成データ記憶部510に格納する。
識別器再構築部511は格納された生成データ記憶部510から正解クラス付きの生成データをもとに識別器のパラメータを更新し、識別器を再構築する。識別器評価部512は識別器再構築部511から更新された識別器の性能を評価し、識別器記憶部505に格納された識別器の性能との差が閾値より大きい場合は、識別器記憶部にある識別器と差し替えることで、性能のよい識別器に更新する。
図6は生成器構築部506の構成例を示す機能ブロック図である。生成器が識別に困難や識別不確定性が高いデータを生成するための構成である。図6において、生成器学習部601は学習データをもとに生成器のパラメータを初期化する。擬似データ生成部602は初期化された生成器を用いて、擬似データを生成する。類似度判定損失計算部603は入力された擬似データを識別器でその擬似データと実データを分類し、分類精度を実データとの類似度損失値として出力する。サンプリング評価損失計算部604は識別器のもとに計算された識別情報で擬似データに対しての識別不確定性を計算し、その不確定性を評価損失値として出力する。損失評価部605は類似度損失値と評価損失値の和を取り、生成器学習部601へフィードバックする。生成器は損失評価部605から受けった損失情報を最小化するように生成器のパラメータを更新する。最小化するような更新方法は最小二乗法などが挙げられる。
図7は、本実施例における生成器/識別器の初期化方法の処理フロー図である。以下、図5の機能ブロック構成図を参照して説明する。図7において、まず、ステップS701で、正解付きデータ記憶部501から学習データ502を取得する学習データ取得処理を実行する。次に、ステップS702で、識別器用特徴量抽出部503は学習データに対する識別器用特徴量を抽出する識別器用特徴量抽出処理を実行する。そして、ステップS703で、識別器初期化部504は識別器用特徴量を用いて、識別器のパラメータを学習し、初期化する識別器初期化処理を実行する。そして、ステップS704で、初期化された識別器を識別器記憶部505に格納する識別器取得処理を実行する。
次に、ステップS705で、生成器構築部506は学習データと識別器記憶部505から受け取った識別器を用いて生成器のパラメータを学習し、生成器を初期化する生成器構築処理を実行する。そして、ステップS706で、初期化された生成器を生成器記憶部507に格納する識別器取得処理を実行する。
次に、ステップS707で、生成器指示変数生成部508は学習データに付与された正解クラスをもとにベクトル構造となる指示変数を生成する生成指示変数生成処理を実行する。そして、ステップS708で、データ生成部509は受け取った生成器をもとに事前に決められた生成サンプル目標数まで学習データと同様なクラスを有する擬似データを生成し、生成データ記憶部510に格納するデータ生成処理を実行する。
次に、ステップS709で、識別器再構築部511は格納された生成データ記憶部510から正解クラス付きの生成データをもとに識別器のパラメータを更新し、識別器を再構築する識別器再構築処理を実行する。そして、ステップS710で、識別器評価部512は識別器再構築部511から更新された識別器の性能を評価し、識別器記憶部505に格納された識別器の性能との差が閾値より大きい場合は、識別器記憶部にある識別器と差し替える。
図8は本実施例におけるオンライン認識装置のハード構成例とその処理内容を示す図である。図8において、オンライン認識装置は、入力データ収集装置801、演算装置802、記録装置803とユーザインターフェース804を備える。また、ユーザインターフェース804は表示装置と入力装置で構成される。演算装置802では記録装置803に保存されているI/O処理命令群から必要な情報の呼び出しと書き込みを実行する。
演算装置802の識別器用特徴量抽出処理、識別結果予測処理、予測結果評価処理、生成指示変数生成処理、生成器更新処理、擬似学習データ生成処理、擬似学習データ選別処理、識別器更新処理は、それぞれ、図1の識別器用特徴量抽出部102、識別結果予測部103、予測結果評価部104、生成器指示変数生成部106、生成器更新部107、擬似学習データ生成部108、擬似学習データ選別部111、識別器更新部112に対応した処理を実行する。
また、ユーザインターフェース804の正解付与処理、生成指示変数設定処理と生成サンプル数設定処理は、それぞれ、図1の正解付与部105、生成器指示変数生成部106、生成サンプル数設定部109に対応した処理を実行する。
生成指示変数設定処理は生成器が擬似サンプルを生成するため、手動で生成サンプルの属性を調整する場合の処理である。演算装置802にある予測結果評価処理から記録装置803に保存する予測結果評価情報を基に正解付きの必要性を判断し、必要な場合、ユーザインターフェース804にある正解付与処理を行い、付けられた正解情報を記録装置803に正解クラス情報として保存する。また、生成指示変数設定処理と生成サンプル数設定処理で設定した情報を記録装置803の生成指示変数として保存し、擬似学習データ生成処理を呼び出し、擬似学習データを生成し、記録装置803に格納する。
擬似学習データ選別処理は擬似学習データから実在サンプルとの尤度(データのリアリティ)が高いデータを手動もしくは自動で選別し、選別された擬似学習データを記録装置803に格納する。識別器更新処理は選別擬似学習データを呼び出し、識別器のパラメータを学習し、記録装置803に識別器パラメータ情報として保存する。
以上のように、本実施例は、学習サンプルを生成する生成器は、認識器に対して、認識上困難や不確定性が高いサンプル、あるいは学習サンプルにないパターンのデータを生成するように構築されたため、学習データが不十分な環境でも効率的かつ効果的な学習を行うことが可能となる。それに加えて、テスト環境から得た識別困難なラベルなしサンプルを選別し、効率的かつ正確なラベルが付与された前記サンプルを生成器と認識器両方オンラインで更新することで、認識器の性能が効果的に向上された一方、更新された生成器からテスト環境に合わせるサンプルを生成することも可能となる。
これにより、学習サンプルが不十分な場合でも、認識精度を向上させることが可能となるオンライン認識装置、及びオンライン認識方法を提供できる。
図9は本実施例におけるオンライン認識装置の機能ブロック構成図である。本実施例は、カメラに映る人物の検出および属性認識の例について説明する。
図9において、図1と同一機能は同じ符号を付し、その説明は省略する。図9において、生成器指示変数生成部赤外線、ステレオ、一般可視光カメラなどの撮影装置901から撮影した入力画像を人物検出・識別部902に入力する。人物検出・識別部902は、図1において、識別器用特徴量抽出部102、識別結果予測部103として構成される。人物検出・識別部902は画像に映る人物の画像内の位置を検出し、関連属性を識別する。人物関連属性は検出した人物の年齢、性別、服装、行動、向き方向など例として挙げられる。検出した人物位置と属性のスコアを予測結果評価部104に入力し、正解付与の必要性を判断する。また、予測した結果を参考として予測結果提示部903で表示する。ラベラーによる正解付きが必要と判断された場合、入力画像を正解付与部105に入力し、図1の正解付与部105と同様な処理で、図9に示すように、画像に映る人の位置を太枠で指定し、人物に関する属性をラベラーから手動で入力する。
学習データ生成部904は付けられた正解情報と入力画像を用いて、擬似の学習データを生成する。学習データ生成部904は、図1において、生成器更新部107、生成器指示変数生成部106、擬似学習データ生成部108として構成される。生成されたデータは図9に示す擬似学習データのように、同じ人物に対して、異なる位置と属性を生成して、学習データとして利用する。例えば、入力データにある年齢はA11,性別はA12、服装はA13、向き方向はA14の人物と太枠からその人物が画像内にいる位置情報を入力データの正解とする。その正解情報の基に、生成された学習データは、入力データに映る人物と画像的な特徴が近い、しかし、年齢はA11,性別はA12、服装はA23と向き方向はA24を有する人物を生成する。また、入力画像と同じカメラ視野範囲で異なる位置にいるように上記人物を生成する。擬似学習データ選別部111は生成された擬似学習データのリアリティをベースし、生成したデータから選別処理を行い、選別されたデータを識別器の更新に用いる。
ラベラーによる正解付きが不必要な場合、人物検出・識別部902からの結果を正解情報として入力画像に付与し、識別器更新部112は上記正解情報と入力画像を用いて、識別器を更新する。更新された識別器は次の入力データへの検出・識別に用いる。
これにより、カメラから撮影されていない人物の属性構成と位置情報、および識別器が上手く識別できない画像を生成された擬似学習データにより補完され、これらのデータを用いて識別器を更新することにより、よりロバストな検出と認識が実現できる。
図10は本実施例におけるオンライン認識装置の機能ブロック構成図である。本実施例は、撮影装置に映る物体の検出およびカテゴリ認識の例について説明する。
図10において、図1と同一機能は同じ符号を付し、その説明は省略する。図10において、物体撮影装置1001は、可視カメラ、ステレオカメラ、IRカメラ、放射線(X線)照射装置など考えられる。物体検出・識別部1002は、図1において、識別器用特徴量抽出部102、識別結果予測部103として構成される。
また、学習データ生成部1004は、図1において、生成器更新部107、生成器指示変数生成部106、擬似学習データ生成部108として構成される。
図10において、生成器指示変数生成部物体検出・識別部1002は画像に映る物体の画像内の位置の検出と物体のカテゴリを識別する。予測結果評価部104は入力データにおいて、ラベラーによる正解付与が必要と判断された場合、入力データは正解付与部105へ入力し、ラベラーから物体の位置とそのカテゴリ名を正解情報として付与する。
学習データ生成部1004は正解付与部105からの正解情報と入力データを用いて、同じカテゴリの物体において異なる材質、形状と画像内の位置を有する画像を生成する。これは、図1において、事前に同カテゴリの画像から学習済みの生成器更新部から更新した生成器と生成器指示変数生成部からの生成指示変数により上記実データと異なる情報を持つ物体を生成する。擬似学習データ選別部111は生成された擬似学習データにおける選別を行い、識別器更新部112は選別された学習データを用いて識別器を更新する。
また、ラベラーによる正解付与が不必要な場合、物体検出・識別部1002からの結果を正解情報として入力画像に付与し、識別器更新部112は上記正解情報と入力画像を用いて、識別器を更新する。
図11は本実施例におけるオンライン認識装置の擬似学習データ生成用設定GUI(Graphical User Interface)である。擬似学習データ生成用設定GUIは実施例1において、生成指示変数と生成サンプル数の設定方法を示す図であり、また、擬似学習データ選別部111において、手動で擬似学習データを選別する場合の方法も示す図である。
図11において、擬似学習データ生成用設定GUIは1101の様な入力ウィンドウで提供される。このGUIは生成指示変数情報、生成サンプル数と選別サンプル数を入力可能な入力ボックス1102、1104、1105を備える。また、生成指示変数を自動生成するか手動で設定するかのチェックボックス1103を備える。また、入力された値を反映するための決定ボタン1106を備え、これを押すことで、生成指示変数と生成サンプル数が決定され、生成した画像が生成結果表示部1108に表示される。図11の例では、入力データが二つの物体を有する画像の場合、携帯と水筒の擬似学習データ生成用設定GUIを示す図である。また、現在の入力画像とその正解情報を示した正解付き入力データ表示部1107を備える。
生成結果表示部1108は、カテゴリ別に生成した結果を実施例1の擬似学習データ生成部108によりデータを生成する当時に計算された画像のリアリティを表す尤度の順番で生成結果を表示する。実施例1における識別器更新部112に入力する擬似学習データは尤度順でリストされた生成画像を、選別閾値で設定された以上まで選別する。閾値は尤度でもよい、尤度順番の番号でもよい。また、手動で識別器に更新するための擬似学習データを選別する場合、生成結果表示部1108に表示した画像のチェックボックスをチェックした画像も学習に用いることにある。この例は一例であり、設定可能な生成指示変数は適宜増減してもよいし、正解付き入力データ表示部1107の代わりに現在の状態をテキストで表示してもよいし、無くしてもよい。また決定ボタン1106の代わりに、一定タイミング毎に設定内容を自動送信する機能を有してもよい。また、擬似学習データ生成設定は、この例の様に自由に入力できる方式に限らず、幾つかの候補から選択して設定してもよい。
以上のように本実施例において、入力画像に映る物体の擬似学習データを生成し、識別器の学習に用いて、識別器はうまく検出・認識できない入力データをオンラインで更新することで、識別器はより迅速にロバスト化になることが可能である。
101:入力データ、102:識別器用特徴量抽出部、103:識別結果予測部、104:予測結果評価部、105:正解付与部、106:生成器指示変数生成部、107:生成器更新部、108:擬似学習データ生成部、109:生成サンプル数設定部、110:生成サンプル記憶部、111:擬似学習データ選別部、112:識別器更新部、201:不確定性評価部、202:情報密度計算部、203:平均尤度計算部、204:アンサンブル評価部、501:正解付きデータ記憶部、502:学習データ、503:識別器用特徴量抽出部、504:識別器初期化部、505:識別器記憶部、506:生成器構築部、507:生成器記憶部、508:生成器指示変数生成部、509:データ生成部、510:生成データ記憶部、511:識別器再構築部、512:識別器評価部、801:入力データ収集装置、802:演算装置、803:記録装置、804:ユーザインターフェース、901:撮影装置、902:人物検出・識別部、903:予測結果提示部、904:学習データ生成部、905:擬似学習データ、1001:物体撮影装置、1002:物体検出・識別部、1003:予測結果提示部、1004:学習データ生成部、1005:擬似学習データ、1101:入力ウィンドウ、1102、1104、1105:入力ボックス、1103:チェックボックス、1106:決定ボタン、1107:正解付き入力データ表示部、1108:生成結果表示部

Claims (6)

  1. 入力されたデータの特徴量を抽出する特徴量抽出部と、該抽出した特徴量に基づき識別結果を予測する識別結果予測部と、該予測した識別結果からラベリングの必要性を判定する予測結果評価部と、該判定結果からオンラインで入力データに正解を付与する正解付与部と、正解付き入力データに基づき生成器のパラメータを更新する生成器更新部と、該更新された生成器のパラメータに基づき生成器を構築し擬似学習データを生成する擬似学習データ生成部と、前記正解付き入力データと前記擬似学習データに基づき予め用意した識別器のパラメータをオンラインで更新する識別器更新部と、該更新された識別器を新たな識別結果予測部として更新することを特徴とするオンライン認識装置。
  2. 請求項1に記載のオンライン認識装置であって、
    前記予測結果評価部は、
    前記識別結果予測部から受け取った識別結果の認識上の不確定性を計算する不確定性評価部と、
    前記識別結果と学習サンプルとの類似性を計算し、その平均を情報密度情報として出力する情報密度計算部と、
    前記識別結果から認識器の予測分布との距離を計算し、その距離の値を平均尤度として出力する平均尤度計算部と、
    前記不確定性評価部で計算した不確定性から評価条件を算出し、該評価条件を満たした場合、前記情報密度情報および前記平均尤度をもとに再度評価を行なうアンサンブル評価部とを有することを特徴とするオンライン認識装置。
  3. 請求項1に記載のオンライン認識装置であって、
    前記識別結果予測部で予測した識別結果を提示する識別結果提示部を更に有することを特徴とするオンライン認識装置。
  4. 入力されたデータの特徴量を抽出し、
    該抽出した特徴量に基づき識別結果を予測し、
    該予測した識別結果からラベリングの必要性を判定し、
    該判定結果からオンラインで入力データに正解を付与し、
    正解付き入力データに基づき生成器のパラメータを更新し、
    該更新された生成器のパラメータに基づき生成器を構築し擬似学習データを生成し、
    前記正解付き入力データと前記擬似学習データに基づき予め用意した識別器のパラメータをオンラインで更新し、
    該更新された識別器で新たに識別結果を予測することを特徴とするオンライン認識方法。
  5. 請求項4に記載のオンライン認識方法であって、
    前記予測した識別結果からラベリングの必要性を判定する処理は、
    前記予測した識別結果の不確定性を計算し、
    前記予測した識別結果と学習サンプルとの類似性を計算し、その平均を情報密度情報として計算し、
    前記予測した識別結果から認識器の予測分布との距離を計算し、その距離の値を平均尤度として計算し、
    前記不確定性から評価条件を算出し、評価条件を満たした場合、前記情報密度情報および前記平均尤度をもとに前記ラベリングの必要性を再度判定することを特徴とするオンライン認識方法。
  6. 請求項4に記載のオンライン認識方法であって、
    さらに、前記予測した識別結果を提示することを特徴とするオンライン認識方法。
JP2017200825A 2017-10-17 2017-10-17 オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面 Active JP6919990B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017200825A JP6919990B2 (ja) 2017-10-17 2017-10-17 オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面
PCT/JP2018/029882 WO2019077854A1 (ja) 2017-10-17 2018-08-09 オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面
EP18868723.0A EP3699864A4 (en) 2017-10-17 2018-08-09 ONLINE RECOGNITION DEVICE, ONLINE RECOGNITION PROCESS AND SETTING SCREEN TO BE USED THEREIN
US16/754,408 US20200311575A1 (en) 2017-10-17 2018-08-09 Online recognition apparatus, online recognition method, and setting screen used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200825A JP6919990B2 (ja) 2017-10-17 2017-10-17 オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面

Publications (2)

Publication Number Publication Date
JP2019074945A JP2019074945A (ja) 2019-05-16
JP6919990B2 true JP6919990B2 (ja) 2021-08-18

Family

ID=66174436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200825A Active JP6919990B2 (ja) 2017-10-17 2017-10-17 オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面

Country Status (4)

Country Link
US (1) US20200311575A1 (ja)
EP (1) EP3699864A4 (ja)
JP (1) JP6919990B2 (ja)
WO (1) WO2019077854A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7164008B2 (ja) * 2019-03-13 2022-11-01 日本電気株式会社 データ生成方法、データ生成装置及びプログラム
JP7318321B2 (ja) * 2019-06-05 2023-08-01 コニカミノルタ株式会社 情報処理装置、情報処理方法、人物検索システムおよび人物検索方法
DE112020003024T5 (de) * 2019-06-25 2022-04-14 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
JP2021033855A (ja) * 2019-08-28 2021-03-01 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2021117548A (ja) 2020-01-22 2021-08-10 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7055259B2 (ja) * 2020-03-04 2022-04-15 三菱電機株式会社 ラベリング装置及び学習装置
JP7062747B1 (ja) 2020-12-25 2022-05-06 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP7277645B2 (ja) * 2020-12-25 2023-05-19 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2022141017A (ja) 2021-03-15 2022-09-29 オムロン株式会社 モデル生成装置、分類装置、データ生成装置、モデル生成方法、及びモデル生成プログラム
JP7491465B2 (ja) * 2021-03-29 2024-05-28 日本電気株式会社 学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置
WO2022254600A1 (ja) * 2021-06-02 2022-12-08 日本電気株式会社 情報処理装置、情報処理方法、データ製造方法、及びプログラム
WO2023067792A1 (ja) * 2021-10-22 2023-04-27 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4910090B2 (ja) 2007-02-19 2012-04-04 国立大学法人横浜国立大学 画像処理システム
EP2402867B1 (en) * 2010-07-02 2018-08-22 Accenture Global Services Limited A computer-implemented method, a computer program product and a computer system for image processing
CN102385707A (zh) * 2010-08-30 2012-03-21 阿里巴巴集团控股有限公司 一种数字图像识别的方法、装置及爬虫服务器
JP2013125322A (ja) * 2011-12-13 2013-06-24 Olympus Corp 学習装置、プログラム及び学習方法
JP6461639B2 (ja) * 2015-02-23 2019-01-30 Kddi株式会社 学習データ生成システム、学習データ生成方法およびプログラム
JP6305955B2 (ja) 2015-03-27 2018-04-04 日本電信電話株式会社 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、およびプログラム

Also Published As

Publication number Publication date
JP2019074945A (ja) 2019-05-16
WO2019077854A1 (ja) 2019-04-25
EP3699864A1 (en) 2020-08-26
EP3699864A4 (en) 2021-09-08
US20200311575A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP6919990B2 (ja) オンライン認識装置、オンライン認識方法、及びそれに用いる設定画面
JP6708385B2 (ja) 識別器作成装置、識別器作成方法、およびプログラム
CN108268838B (zh) 人脸表情识别方法及人脸表情识别系统
JP5558412B2 (ja) 識別器を特定のシーン内のオブジェクトを検出するように適応させるためのシステム及び方法
US20130251246A1 (en) Method and a device for training a pose classifier and an object classifier, a method and a device for object detection
CN110287844B (zh) 基于卷积姿势机和长短时记忆网络的交警手势识别方法
US9195904B1 (en) Method for detecting objects in stereo images
JP2017041022A (ja) 情報処理装置、情報処理方法及びプログラム
CN106164980A (zh) 信息处理装置以及信息处理方法
CN108960124B (zh) 用于行人再识别的图像处理方法及装置
CN111695622A (zh) 变电作业场景的标识模型训练方法、标识方法及装置
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
KR102045223B1 (ko) 골 연령 분석 방법, 장치 및 컴퓨터 프로그램
US10460158B2 (en) Methods and systems for generating a three dimensional representation of a human body shape
JP2010086482A (ja) 画像認識装置および画像認識方法
CN108198172B (zh) 图像显著性检测方法和装置
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN110472081B (zh) 一种基于度量学习的鞋图片跨域检索方法
JP2017033197A (ja) 変化領域検出装置、方法、及びプログラム
JP2018055195A (ja) 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
JPWO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム
JP2020095757A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018081452A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210722

R150 Certificate of patent or registration of utility model

Ref document number: 6919990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150