JP7231464B2 - 物体認識システム及び物体認識方法 - Google Patents

物体認識システム及び物体認識方法 Download PDF

Info

Publication number
JP7231464B2
JP7231464B2 JP2019074330A JP2019074330A JP7231464B2 JP 7231464 B2 JP7231464 B2 JP 7231464B2 JP 2019074330 A JP2019074330 A JP 2019074330A JP 2019074330 A JP2019074330 A JP 2019074330A JP 7231464 B2 JP7231464 B2 JP 7231464B2
Authority
JP
Japan
Prior art keywords
task
learning
unit
label
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019074330A
Other languages
English (en)
Other versions
JP2020173562A (ja
Inventor
竣 福田
マルティン クリンキグト
敦 廣池
俊明 垂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019074330A priority Critical patent/JP7231464B2/ja
Priority to SG10202003089VA priority patent/SG10202003089VA/en
Priority to US16/838,256 priority patent/US11521021B2/en
Priority to EP20167637.6A priority patent/EP3723000A1/en
Priority to CN202010263591.7A priority patent/CN111797672B/zh
Publication of JP2020173562A publication Critical patent/JP2020173562A/ja
Application granted granted Critical
Publication of JP7231464B2 publication Critical patent/JP7231464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体認識システム及び物体認識方法に関する。
近年グローバル化が進み、様々な国の人が行き来するようになったが、治安悪化が懸念され、セキュリティ需要が高まっている。しかし、日本を含む一部の国では労働人口が減少しているため、計算機を活用した機械的な解決策が求められている。
この技術の一つに、ニューラルネットワークを用いた映像解析技術がある。ニューラルネットワークは与えられた学習用データセットから有効な特徴抽出方法を学習する、データ駆動型の手法である。学習用データセットが評価用環境のデータがあるほど、ニューラルネットワークの認識精度が高まる。また、学習用データセットが大規模で多様である場合には、汎用的な環境下に対して、認識精度が高まる。
学習用データセットは、画像と解きたい対象タスクのラベルから構成される。画像はカメラで撮影すれば機械的に収集することができるが、ラベル作成の大部分は人手の作業が必要になるため、学習用データセットの作成には人的コストは大きいことが課題である。
複数の推定を行うマルチタスク用ニューラルネットワークは、それぞれの関連性を考慮して出力するため、単タスク用ニューラルネットワークより高い精度を実現しうる。
それを実現するためには、マルチタスクに対してラベル付けを行う必要がある。単タスクに比べてタスク数が多い分作業量が大きい。また、人手によるミスやデータ保存・通信環境のなどの影響でデータ欠損が生じ、ラベルの一部が欠損している場合がある。
特許文献1では、データ欠損を防ぐため、関連度を表す教師ラベルを生成する方法が提案されている。
特許第6392478号公報
しかし、特許文献1では、前提となるデータセットの構築作業はラベル付け量が多く実用上の課題となる。
本発明の目的は、物体認識システムにおいて、前提となるデータセットの構築作業におけるラベル付け量を抑えることにある。
本発明の一態様の物体認識システムは、記憶部と学習制御部とを有する物体認識システムであって、前記記憶部は、物体の画像を保存する画像部と、前記物体の属性であるタスクに関する情報であるラベルを保存するラベル部と、前記物体の前記タスクを推定して推定結果を出力する推定器とを有し、前記推定器は、前記画像から物体特徴量を抽出する物体特徴抽出部と、前記タスクの情報を識別するための複数のタスク別識別部と、前記物体特徴抽出部と複数の前記タスク別識別部と間の接続情報を保存する接続スイッチとを有し、前記学習制御部は、前記タスクの種類に応じて、前記接続スイッチに保存されている前記接続情報に基づいて、前記物体特徴抽出部と複数の前記タスク別識別部との間の接続関係を変更することを有することを特徴とする。
本発明の一態様の物体認識方法は、記憶部と学習制御部とを有する物体認識システムを用いた物体認識方法であって、前記記憶部に、物体の画像と前記物体の属性であるタスクに関する情報であるラベルを保存し、物体特徴抽出部により、前記物体の画像から物体特徴量を抽出し、複数のタスク別識別部により、前記タスクの情報を識別し、前記学習制御部により、前記タスクの種類に応じて、前記物体特徴抽出部と複数の前記タスク別識別部との間の接続関係を変更し、前記物体の前記タスクを推定して推定結果を出力することを有することを特徴とする。
本発明の一態様によれば、物体認識システムにおいて、前提となるデータセットの構築作業におけるラベル付け量を抑えることができる。
実施例に係るシステム構成を示すブロック図である。 ラベル部102の一例を示す図である。 学習履歴記憶部103の一例を示す図である。 接続スイッチ1001の一例を示す図である。 更新度保存部1003の一例を示す図である。 実施例に係る学習フローの詳細を示すフローチャートである。 推定器の実用例を示す図である。 実施例に係る学習の概要を示す図である。 画像部101の一例を示す図である。
以下、図面を用いて実施例について説明する。
図1を参照して、実施例に係る物体認識システムの構成を説明する。
物体認識システムは、記憶部10、学習制御部11及びタスク組合せID作成部12を有する。記憶部10は、推定器100、画像部101、ラベル部102及び学習履歴記憶部103を有する。
推定器100は、物体特徴抽出部1000、接続スイッチ1001及びタスク別識別部1002を有する。ここで、タスク別識別部1002は、複数のタスク別識別部1002a~1002cから構成される。推定器100は、人物画像を入力として受け取り各タスクに対するその人物の推定結果を出力する。推定器100のデータは、例えば、ビデオメモリ内に存在する。
物体特徴抽出部1000はニューラルネットワークで構成される。このニューラルネットワークは学習で更新可能なパラメータを持つ。物体特徴抽出部1000の機能は、入力として受け取った人物画像を、特徴量と呼ばれる3階テンソルに変換する。同じ人物の画像に対しては、互いに距離の近いテンソルになるように物体特徴抽出部1000はパラメータチューニングされており、特徴量は各人物を区別できるように人物画像から3階テンソル化されたものである。
接続スイッチ1001は、入力画像に付属するラベルに応じて、物体特徴抽出部1000とタスク別識別部1002a~1002cとの接続情報を表す接続記号もしくは非接続記号が格納されている。
タスク別識別部1002はニューラルネットワークで構成される。このニューラルネットワークは学習で更新可能なパラメータを持つ。タスク別識別部1002の機能は、前記物体特徴量に対し、各タスクに関する情報をデコードすることである。このデコードされた出力結果の形式は、小数ベクトルで表される。
本実施例では、一例として、年齢、髪色、性別をタスクとしている。タスク別(年齢)識別部1002aのタスクは年齢であり、タスク別(髪色)識別部1002bのタスクは髪色あり、タスク別(性別)識別部1002cのタスクは性別である。
更新度保存部1003は、物体特徴抽出部1000とタスク別識別部1002に対する学習時のパラメータ更新の程度を格納する。
画像部101は、様々なタスク用のデータセットから収集した画像が保有されている。図9で示される通り、画像名9aと画像データ9bから構成されている。画像部101は、例えば、データベースとしてストレージ(SSDやHDD)内に存在する。
ラベル部102は、画像部101が保有する画像の画像名および各タスクのラベルを保有する。各タスクのラベルは、画像がそのタスクに対応する場合にはラベル値、非対応の場合は欠損値である。ラベル部102は、例えば、データベースとしてストレージ(SSDやHDD)内に存在する。
学習制御部11は、データの受け渡しや学習の計算などの処理を行う。例えば、学習制御部11は、画像部101とラベル部102から受け取った画像とラベルを物体特徴抽出部1000へ伝送する。また、ラベルをワンホット表現のベクトルに変換する。また、接続スイッチ1001を調整する。また、更新度保存部1003を変更する。さらに、推定器100のパラメータを更新する。学習制御部11は、例えば、CPUやGPUで構成される。
学習履歴記憶部103は、最新時点までの学習条件および結果を保有する。学習履歴記憶部103は、例えば、メモリ内に存在する。
更新度保存部1003は、直前までの学習状況に応じて、物体特徴抽出部1000ないしタスク別識別部1002が持つパラメータの更新量の強弱を制御するための変数を保存する。更新度保存部1003は、例えば、メモリ内に存在する。
図2を参照して、ラベル部102のデータ構造について説明する。
ラベル部102は、各画像に付属する各タスクの正解値である。図2に示されるように、タスク組合せID2aと、各画像名2bと、タスク数3個から成る各タスクの正解値2cから構成される。
タスク組合せID2aは、対応するラベルの組合せが同じものに対して割り振られた各組のIDである。学習前には空欄で、学習の最初に作成され学習時に使用される。
画像名2bは、各レコードが対応する画像の画像部101のアドレスが保存されている。正解値2cには、対応タスクに対しては正解ラベル、非対応タスクに対しては欠損値を格納されている。欠損値として、図2では×としているが、他の記号でもよい。
図3を参照して、学習履歴記憶部103のデータ構造について説明する。
学習履歴記憶部103は、最新時点までの接続条件および各タスクのタスク損失を記録する記憶部である(タスク損失の定義は後述する)。
図3に示されるように、各学習ステップにおけるタスク組合せID3a、タスク損失3bから構成される。タスク組合せ3aには各学習ステップのタスク組合せIDを格納する。対応タスクのタスク別識別部1002の出力値と正解値の誤差が入力され、非対応タスクについては欠損値が入力される。欠損値として、図3では×としているが、他の記号でもよい。
図4を参照して、接続スイッチ1001のデータ構造について説明する。
接続スイッチ1001は、物体特徴抽出部1000とタスク別識別部1002a~1002cとの接続情報を保存する。タスク数個分のフィールドから構成され、それぞれ接続記号もしくは非接続記号を格納する。図4は、接続記号として1、非接続記号として0とした一例である。
図5を参照して、更新度保存部1003のデータ構造について説明する。
更新度保存部1003は、複数のタスク別識別部1002a~1002cをバランス良く学習するために、パラメータの更新の程度を調整する値を格納する。
図5に示されるように、タスク別識別部1002a~1002cに対し、強弱を示す小数値が格納されている。非接続のタスク別識別部1002bに対しては、欠損値が保存されている。欠損値として、図5では0としているが、他の記号でもよい。
次に、物体特徴抽出部1000の数式計算について説明する。
物体特徴抽出部1002のニューラルネットワークのパラメータをθ、計算をfとすると、画像xを入力した際、以下の(数1)によって特徴量zを出力する。
Figure 0007231464000001
ここで、θは物体特徴抽出部1002のニューラルネットワークが持つパラメータを指す。
タスク別識別部1002a~1002cのニューラルネットワークのパラメータをθ~θ、計算をg~gとすると、特徴量zとした時のタスク別識別部1002a~cのそれぞれの推定ベクトルy~yは以下の(数2)~(数4)で導出される。
Figure 0007231464000002
Figure 0007231464000003
Figure 0007231464000004
推定ベクトルyはその属性内に存在するクラスベクトルである。例えば、性別であれば男性と女性の2クラスが存在し、yは2次元のベクトルであり、以下に数(5)で導出される。
Figure 0007231464000005
画像xに対する属性推定の推定ベクトルya,iと正解ベクトルta,iの距離を表したタスク(年齢)損失lは、クロスエントロピー誤差として以下の(数6)で定義される。
Figure 0007231464000006
但し、Cは年齢タスクのクラス数で、ta,iおよびya,iは、以下の(数7)、(数8)のベクトルの要素である。
Figure 0007231464000007
Figure 0007231464000008
また、正解ベクトルta,iは、正解クラスの要素のみが1で、それ以外の要素が0となるワンホット表現のベクトルである。
予測ベクトルと正解ベクトルが近いほど、lは小さくなる性質がある。lが小さい場合は、良い予測が得られているということを意味する。タスク(髪色)損失l、タスク(性別)損失lも同様に定義される。非接続のタスク損失は正解ベクトルtが存在しないため、計算しない。
全損失は、有接続のタスク損失の重み付き和として定義される。この重みは更新度を指す。例えば、年齢と性別のみ接続があれば、lは以下の(数9)で表される。
Figure 0007231464000009
ここで、l,lは、各タスクに対応した更新度である。学習では、このlを小さくするように、関連するパラメータが更新される。例えば、年齢と性別のみの接続の場合では、物体特徴抽出部1002と有接続のタスク別識別部1002a、1002cが持つパラメータθ、θ、θが更新される。
次に、図6を参照して、学習フローについて説明する。
学習を開始したら(S600)、学習に必要な定数を設定する。一度のパラメータの更新に用いるデータの個数であるバッチサイズを設定する。パラメータ更新の上限回数である上限ループ回数を設定する。
また、各タスクのクラスの順番を定義する。例えば、性別のタスクであれば、男と女の2クラスがあり、男を1番目、女を2番目とする。
次に、学習制御部11は、ラベル部102を参照し、タスク組合せIDを作成する。
タスク組合せIDはラベルの存在するタスクの組合せに関して1から順に割り振られる。例えば、ラベル部に存在する組合せが(年齢、性別)、(髪色、性別)、(性別)の3種類であれば、順にタスク組合せIDを1、2、3と割り振る。そして、ラベル部内の全データに対して、対応するタスク組合せIDを埋める。
混合する前の元のデータセットが同じでも、破損などの理由でラベルが欠損していれば、図2のように別のIDを割り当てる。その後、同じ組合せID同士が連続して並ぶように、ラベル部のレコードを整理する。(S601)
1回の学習ステップに用いるデータを抽出する。まず、ランダムに今回の学習ステップに用いるタスク組合せIDを決定する。学習制御部11は、そのタスク組合せIDを持つラベルをバッチサイズ個、ラベル部102のテーブルの上から取得する。
次の同じタスク組合せIDの時は、その続きから取得する。もし、取得している最中にそのタスク組合せIDの最後のレコードに達したら、ラベル部内のそのタスク組合せIDを持つレコードのみをシャッフルする。取得の続きは、そのタスク組合せIDを持つレコードの先頭から行う。
その後、各ラベルをワンホット表現のベクトルにする。例えば、性別のラベルであれば、男と女の2クラスのうち、男を1番目、女を2番目とすると、男のワンホット表現のベクトルtは、以下の(数10)で表される。
Figure 0007231464000010
女のワンホット表現のベクトルtは、以下の(数11)で表される。
Figure 0007231464000011
その後、ラベル記載の画像名の画像を画像部101から取得する(S602)。
学習制御部11は、接続スイッチ1001を更新する。本ステップで使用するラベルが対象とするタスクに対しては接続記号、非対象のタスクに対しては非接続記号を入れる(S603)。
学習制御部11は、学習履歴記憶部140を参照し、新たな更新度を算出し、新たな更新度を更新度保存部1003に代入する(S604)。
新たな更新度の算出方法の一例は次の通りである。接続済みタスクの更新度は、過去の学習時に接続された総回数の逆数、非接続タスクの更新度は0とする。図5は更新度が3回目の時の例を示している(λ=1/2=0.5、λ=0、λ=1/3=0.3)。
学習制御部11は、物体特徴抽出部1000に画像を入力して計算し、得られた出力は、対応タスクのタスク別識別部1002に入力して得られた出力結果とラベルに対して、タスク損失および全損失を計算する。
この全損失に対して誤差逆伝播法を適用し、物体特徴抽出部1000と有接続のタスク別識別部1002が保有するパラメータを更新する(S605)。
学習制御部11は、接続済みのタスクのタスク損失を受け取り、学習履歴記憶部103にタスクの種類とタスク損失を新たなレコードとして追加する(S606)。
学習終了条件を満たしたら、学習を終了させる。学習終了条件を満たしていない場合はS402の操作を行う(S607)。学習終了条件の一例は、上限ループ回数に達したか否かである。ここで、S602からS606までの処理全体を、学習ステップと呼ぶ。
次に、図7及び図8を参照して、実施例の物体認識方法について説明する。
実施例では、図7のように監視カメラ700から伝送されてきた画像を、何かしらの方法で人物領域の画像を切出す。そして、切出し画像に対して映っている人物の年齢、性別、髪色などの複数の属性を推定器100で推定し、その推定結果を出力する。実施例では、例えば、年齢、性別、髪色の3属性を対象とする。
推定器100は、ニューラルネットワークで構成される。ニューラルネットワークはパラメータを持ち、そのパラメータの値によって出力値が変動する。これらのパラメータは、事前に用意した学習用データセットを用いて学習と呼ばれる方法でチューニングする。これにより、適切な推定のできる推定器100が実現される。
学習用データセットは、人物画像とその人物に対する属性のラベル(正解ラベル)の組で構成される。ラベルは、例えば男性の画像に男性を示すラベルが付与されている。
ラベルは人手などで事前に付けられている。ラベル付けのコストは画像数が多いほど大きい。そのため、その都度ゼロからデータセットを用意するより、他の目的でラベル付けされたデータセットを活用する方が望ましい。
しかし、他の目的でラベル付けされたデータセットは、必ずしも必要なラベルが揃っているとは限らない。例えば、年齢と性別のみの推定目的で構築されたデータセットには年齢と性別しか存在せず、髪色のラベルは存在しない。
従来技術では、上記のような欠損したラベルがある場合には適用できない。本実施例では、このような場合にも推定器100の学習が可能である。
図8を算用して、推定器100の学習過程の概略を説明する。
複数のデータセットを混合して構築した混合データセットから、同じ種類のラベルを持つデータ(画像とラベルの組)を複数個取り出す。この個数はバッチサイズと呼び、予め設定しておく定数である。
ラベルは学習制御部11に伝送され、学習制御部11は存在するラベルの種類に応じて、推定器100内の物体特徴抽出部100とタスク別識別部1002a~1002cの接続を変更する。例えば、取り出したデータに年齢と性別のラベルしか無ければ、年齢のタスク別識別部1002a及び性別のタスク別識別部1002cとは接続し、髪色のタスク別識別部1002bとは接続しない。
学習制御部11は、タスク別識別部1002のパラメータの更新の強弱を制御する更新度を変更する。取り出した画像は、推定器100に伝送され、年齢のタスク別識別部1002a及び性別のタスク別識別部1002cの推定結果を出力する。
学習制御部11は、正解ラベルと推定結果を比較し、その距離(損失)を計算する。その距離を推定器100に伝送し、推定器100は距離が小さくなるようにパラメータを更新する。
以上が学習過程における一回のパラメータの更新(学習ステップと呼ぶ)の総手順である。
上記実施例によれば、物体認識システムにおいて、前提となるデータセットの構築作業におけるラベル付け量を抑えることができる。
尚、上記実施例では、人物を対象とした場合を述べたが、本発明は人物に限らず、人物以外の物体にも適用可能である。例えば、車に対しては、車の色や車種、サイズの推定などに適用でき、このような機能を持った推定器は車の検索などに応用できる。システム構成や学習フロー(学習方法)は上記実施例と同様のものをそのまま使用可能である。
10 記憶部
11 学習制御部
12 タスク組合せID作成部
100 推定器
101 画像部
102 ラベル部
103 学習履歴記憶部
1000 物体特徴抽出部
1001 接続スイッチ
1002 タスク別識別部

Claims (7)

  1. 記憶部と学習制御部とを有する物体認識システムであって、
    前記記憶部は、
    物体の画像を保存する画像部と、
    前記物体の属性であるタスクに関する情報であるラベルを保存するラベル部と、
    前記物体の前記タスクを推定して推定結果を出力する推定器と、を有し、
    前記推定器は、
    前記画像から物体特徴量を抽出する物体特徴抽出部と、
    前記タスクの情報を識別するための複数のタスク別識別部と、
    前記物体特徴抽出部と複数の前記タスク別識別部と間の接続情報を保存する接続スイッチと、を有し、
    前記ラベル部は、
    前記画像と前記物体の前記タスクの正解値である正解ラベルとの組み合わせである学習用データセットを保存し、
    前記タスク別識別部は、
    ニューラルネットワークで構成され、
    前記ニューラルネットワークは学習で更新可能なパラメータを有し、
    前記物体特徴量に対し、前記タスクに関する情報をデコードし、
    前記学習制御部は、
    前記タスクの種類に応じて、前記接続スイッチに保存されている前記接続情報に基づいて、前記物体特徴抽出部と複数の前記タスク別識別部との間の接続関係を前記正解ラベルのある前記タスク別識別部との接続に変更し、
    前記学習制御部は、
    前記正解ラベルと前記推定結果を比較して、前記推定結果と前記正解ラベルとの誤差であるタスク損失を求めて前記推定器に伝送し、
    前記タスク損失が小さくなるように前記タスク別識別部の前記パラメータを更新することを特徴とする物体認識システム。
  2. 前記学習制御部は、
    前記パラメータを、前記学習用データセットを用いて学習によりチューニングし、
    前記パラメータによって前記推定結果の出力値を変動させることを特徴とする請求項に記載の物体認識システム。
  3. 前記記憶部は、
    最新時点までの学習結果を保存する学習履歴記憶部を更に有し、
    前記学習履歴記憶部は、
    前記学習結果として、前記タスク損失を保存することを特徴とする請求項に記載の物体認識システム。
  4. 前記学習制御部は、
    前記タスク別識別部の前記パラメータの更新の強弱を制御する更新度を変更することを特徴とする請求項に記載の物体認識システム。
  5. 前記推定器は、
    前記更新度を保存する更新度保存部を更に有することを特徴とする請求項に記載の物体認識システム。
  6. 記憶部と学習制御部とを有する物体認識システムを用いた物体認識方法であって、
    前記記憶部に、物体の画像と前記物体の属性であるタスクに関する情報であるラベルを保存し、
    ラベル部により、前記画像と前記物体の前記タスクの正解値である正解ラベルとの組み合わせである学習用データセットを保存し、
    物体特徴抽出部により、前記物体の画像から物体特徴量を抽出し、
    複数のタスク別識別部により、前記タスクの情報を識別し、
    前記タスク別識別部は、
    ニューラルネットワークで構成され、
    前記ニューラルネットワークは学習で更新可能なパラメータを有し、
    前記物体特徴量に対し、前記タスクに関する情報をデコードし、
    前記学習制御部により、前記タスクの種類に応じて、前記物体特徴抽出部と複数の前記タスク別識別部との間の接続関係を前記正解ラベルのある前記タスク別識別部との接続に変更し、前記物体の前記タスクを推定して推定結果を出力し、
    前記学習制御部により、前記正解ラベルと前記推定結果を比較して、前記推定結果と前記正解ラベルとの誤差であるタスク損失を求めて、前記タスク損失が小さくなるように前記タスク別識別部の前記パラメータを更新することを特徴とする物体認識方法。
  7. 前記学習制御部により、前記パラメータを、前記学習用データセットを用いて学習によりチューニングし、前記パラメータによって前記推定結果の出力値を変動させることを特徴とする請求項に記載の物体認識方法。
JP2019074330A 2019-04-09 2019-04-09 物体認識システム及び物体認識方法 Active JP7231464B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019074330A JP7231464B2 (ja) 2019-04-09 2019-04-09 物体認識システム及び物体認識方法
SG10202003089VA SG10202003089VA (en) 2019-04-09 2020-04-02 Object recognition system and object recognition method
US16/838,256 US11521021B2 (en) 2019-04-09 2020-04-02 Object recognition system and object recognition method
EP20167637.6A EP3723000A1 (en) 2019-04-09 2020-04-02 Object recognition system and object regognition method
CN202010263591.7A CN111797672B (zh) 2019-04-09 2020-04-07 物体识别系统和物体识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019074330A JP7231464B2 (ja) 2019-04-09 2019-04-09 物体認識システム及び物体認識方法

Publications (2)

Publication Number Publication Date
JP2020173562A JP2020173562A (ja) 2020-10-22
JP7231464B2 true JP7231464B2 (ja) 2023-03-01

Family

ID=70154352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019074330A Active JP7231464B2 (ja) 2019-04-09 2019-04-09 物体認識システム及び物体認識方法

Country Status (5)

Country Link
US (1) US11521021B2 (ja)
EP (1) EP3723000A1 (ja)
JP (1) JP7231464B2 (ja)
CN (1) CN111797672B (ja)
SG (1) SG10202003089VA (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI697851B (zh) * 2019-05-03 2020-07-01 宏碁股份有限公司 電子裝置與模型更新方法
CN112819176B (zh) * 2021-01-22 2022-11-08 烽火通信科技股份有限公司 一种适用于机器学习的数据管理方法和数据管理装置
CN113313098B (zh) * 2021-07-30 2022-01-04 阿里云计算有限公司 视频处理方法、设备、系统及存储介质
JPWO2023013081A1 (ja) * 2021-08-06 2023-02-09
WO2024095319A1 (ja) * 2022-10-31 2024-05-10 日本電気株式会社 情報処理装置、情報処理方法、および記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026040A (ja) 2016-08-12 2018-02-15 キヤノン株式会社 情報処理装置および情報処理方法
JP2019028616A (ja) 2017-07-27 2019-02-21 トヨタ自動車株式会社 識別装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4392089B2 (ja) 1999-05-27 2009-12-24 株式会社デンソー ニューロン、当該ニューロンを用いて構成された階層型ニューラルネットワーク及び当該ニューロン内部での乗算処理に用いられる乗算回路
US20050129306A1 (en) * 2003-12-12 2005-06-16 Xianglin Wang Method and apparatus for image deinterlacing using neural networks
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
CN105891215B (zh) 2016-03-31 2019-01-29 浙江工业大学 基于卷积神经网络的焊接视觉检测方法及装置
CN106529402B (zh) 2016-09-27 2019-05-28 中国科学院自动化研究所 基于多任务学习的卷积神经网络的人脸属性分析方法
US20180157972A1 (en) * 2016-12-02 2018-06-07 Apple Inc. Partially shared neural networks for multiple tasks
CN106934392B (zh) 2017-02-28 2020-05-26 西交利物浦大学 基于多任务学习卷积神经网络的车标识别及属性预测方法
JP7023613B2 (ja) * 2017-05-11 2022-02-22 キヤノン株式会社 画像認識装置および学習装置
US10970564B2 (en) * 2017-09-30 2021-04-06 Tusimple, Inc. System and method for instance-level lane detection for autonomous vehicle control
JP6392478B1 (ja) 2018-04-26 2018-09-19 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
US10776626B1 (en) * 2018-05-14 2020-09-15 Amazon Technologies, Inc. Machine learning based identification of visually complementary item collections

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026040A (ja) 2016-08-12 2018-02-15 キヤノン株式会社 情報処理装置および情報処理方法
JP2019028616A (ja) 2017-07-27 2019-02-21 トヨタ自動車株式会社 識別装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hui-Lan Hsieh , Winston Hsu , Yan-Ying Chen,Multi-Task Learning for Face Identification and Attribute Estimation,The 42nd IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP 2017,米国,IEEE,2017年03月05日,P.2981-2985
Rui Guo, Liu Liu, Wei Wang, Ali Taalimi, Chi Zhang, Hairong Qi,Deep Tree-structured Face: A Unified Representation for Multi-task Facial Biometrics,2016 IEEE Winter Conference on Applications of Computer Vision (WACV),米国,IEEE,2016年03月07日,P.1-8

Also Published As

Publication number Publication date
EP3723000A1 (en) 2020-10-14
US11521021B2 (en) 2022-12-06
CN111797672A (zh) 2020-10-20
SG10202003089VA (en) 2020-11-27
JP2020173562A (ja) 2020-10-22
CN111797672B (zh) 2024-04-05
US20200327380A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
JP7231464B2 (ja) 物体認識システム及び物体認識方法
JP7317050B2 (ja) 異なるデータモダリティの統計モデルを統合するためのシステムおよび方法
CN111523621B (zh) 图像识别方法、装置、计算机设备和存储介质
CN110688482B (zh) 多标签识别方法、训练方法及装置
CN108288051B (zh) 行人再识别模型训练方法及装置、电子设备和存储介质
CN110210625B (zh) 基于迁移学习的建模方法、装置、计算机设备和存储介质
CA3066029A1 (en) Image feature acquisition
CN111444966A (zh) 媒体信息分类方法及装置
CN110781818B (zh) 视频分类方法、模型训练方法、装置及设备
CN111783506A (zh) 目标特征的确定方法、装置和计算机可读存储介质
US20200118298A1 (en) Image Retrieval Device And Method, Photograph Time Estimation Device And Method, Repetitive Structure Extraction Device And Method, And Program
CN115346207A (zh) 一种基于实例结构相关性的二维图像中三维目标检测方法
CN112200862B (zh) 目标检测模型的训练方法、目标检测方法及装置
JP4859351B2 (ja) 事例データベースの構築方法、判別装置の学習方法、データ判別支援装置、データ判別支援プログラム
CN111382349B (zh) 信息推荐方法、装置、计算机设备和存储介质
CN117197615A (zh) 模型训练方法、特征提取方法及装置
CN116958154A (zh) 图像分割方法和装置、存储介质及电子设备
CN114549939A (zh) 一种基于图像特征提取的树木病虫害图片分类方法
CN110558972B (zh) 一种心电信号深度学习模型的轻量化方法
Baumgartner et al. A new approach to image segmentation with two-dimensional hidden Markov models
CN111079526A (zh) 一种信鸽亲缘关系分析方法、装置及存储介质
CN116958730A (zh) 图像识别模型的训练方法和装置、存储介质及电子设备
CN108985168A (zh) 一种基于最小归一化距离学习的视频人脸识别方法
CN115147679B (zh) 多模态图像识别方法和装置、模型训练方法和装置
JP2019133496A (ja) コンテンツ特徴量抽出装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150