JP6727543B2 - 画像パターン認識装置及びプログラム - Google Patents

画像パターン認識装置及びプログラム Download PDF

Info

Publication number
JP6727543B2
JP6727543B2 JP2016074219A JP2016074219A JP6727543B2 JP 6727543 B2 JP6727543 B2 JP 6727543B2 JP 2016074219 A JP2016074219 A JP 2016074219A JP 2016074219 A JP2016074219 A JP 2016074219A JP 6727543 B2 JP6727543 B2 JP 6727543B2
Authority
JP
Japan
Prior art keywords
sub
processing
layers
error
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016074219A
Other languages
English (en)
Other versions
JP2017187840A (ja
Inventor
亨介 重中
亨介 重中
幸寛 坪下
幸寛 坪下
加藤 典司
典司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016074219A priority Critical patent/JP6727543B2/ja
Priority to US15/386,473 priority patent/US10664727B2/en
Priority to EP17155341.5A priority patent/EP3226175A1/en
Priority to CN201710073650.2A priority patent/CN107273784B/zh
Publication of JP2017187840A publication Critical patent/JP2017187840A/ja
Application granted granted Critical
Publication of JP6727543B2 publication Critical patent/JP6727543B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像パターン認識装置及びプログラムに関する。
下記特許文献1には、自動車等の運転者の顔を撮影した画像データから、脇見や覚醒度が低下している状態等を検出するために用いられる運転者の開閉眼判定装置が開示されている。
下記特許文献2には、撮像された画像から、検出対象物に関する情報を検出する画像検出装置が開示されている。
下記特許文献3には、パートモデルを生成する必要なく、人の一部が隠れている場合であっても、精度よく人を検知できる検知装置、検知プログラムおよび検知方法、ならびに、そのような検知装置を備える車両が開示されている。
下記特許文献4には、利用者に関連付けられた画像情報に基づいて利用者の属性を推定する属性推定プログラム及び情報処理装置が開示されている。
下記非特許文献1には、ユーザが投稿した画像から投稿者の性別を推定する方法が開示されている。
下記非特許文献4には、特徴表現学習を行う方法である、誤差逆伝播法:バックプロパゲーションが開示されている。
下記非特許文献5には、誤差逆伝播法を用いた多層ニューラルネットワークが開示されている。
下記非特許文献6には、畳み込みレイヤを用いたニューラルネットワークが開示されている。
特開平10−44824号公報 特開2008−198078号公報 特開2016−006626号公報 特開2016−001362号公報
X. Ma et al., Gender Estimation for SNS User Profiling Using Automatic Image Annotation, International Workshop on Cross-media Analysis for Social Multimedia, 2014.
D. G. Lowe et al., Object Recognition from Local Scale-Invariant Features, ICCV, 1999.
J. Wang et al., Locally-Constrained Linear Coding for Image Classification, CVPR, 2010.
D. E. Rumelhart et al., Learning Representations by back-propagating errors, Nature, 1986. Y. LeCun et al., Backpropagation applied to handwritten zip code recognition, Neural Computation, 1989. Y. LeCun et al., Gradient-Based Learning Applied to Document Recognition, IEEE, 1998. A. Krizhevsky et al., ImageNet Classification with Deep Convolutional Neural Networks, NIPS, 2012.
画像データをカテゴライズするパターン認識においては、その問題の難しさから、しばしばいくつかのタスクに分けて段階的に処理が行われるが、加えて、パターン認識の際の人手やコストの削減のために、画像から抽出すべき特徴量ないしはその表現方法を自動で学習させる特徴表現学習が併用されることがある。
従来技術においては、上記特許文献2及び3に記載されているように、出力層においては、メインタスクの判定結果を出力するユニットとサブタスクの判定結果を出力するユニットとが並列に配置されているが、中間層はメインタスクとサブタスクとの間で共有されており、重みパラメータとして表現される特徴抽出方法は、全てのタスクで共通のものが使用される。
このように従来技術においては、メインタスクとサブタスクとで中間層を共有しており、特徴抽出方法が全てのタスク間で共通であるため、特徴表現学習によって得られたパラメータがメインタスクに対して必ずしも最適なものとはなっていない、という問題点があった。
本発明は、複数のタスクに分けて処理が行われるパターン認識における、特徴表現学習の精度を向上させることを目的とする。
[画像パターン認識装置]
請求項1に係る本発明は、
データを受け付けるデータ受付手段と、
教師情報を受け付ける教師情報受付手段と、
ニューラルネットワーク処理を行うニューラルネットワーク処理手段と、
を有し、
前記ニューラルネットワーク処理手段が、
メインのタスクを処理するレイヤからなる第一サブネットワークと、
サブのタスクを処理するレイヤからなる第二サブネットワークと、
前記第一サブネットワーク及び第二サブネットワークのいずれにも属さないレイヤからなる、第三サブネットワークと、を有し、
前記第三サブネットワークが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理手段を有し、
前記第一サブネットワークが、複数のレイヤからの入力を結合して出力する結合処理手段を有する、
画像パターン認識装置である。
請求項2に係る本発明は、
前記結合処理手段は、複数のレイヤからの入力を連結して出力するする処理か、複数の入力レイヤに対して要素毎に演算を行い出力する処理を行う、画像パターン認識装置である。
請求項3に係る本発明は、上記のいずれかの画像パターン認識装置であって、
前記レイヤは、
前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤが、線形演算手段、又は、畳み込み手段、非線形演算手段及びプーリング処理手段の、いずれかからなり、
前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤ以外のレイヤが、線形演算手段及び非線形演算手段から成る全結合レイヤ、又は、畳み込み処理手段、非線形演算手段及びプーリング処理手段から成る畳み込みレイヤ、のいずれかからなる、画像パターン認識装置である。
請求項4に係る本発明は、上記のいずれかの画像パターン認識装置であって、更に、
各タスクの判定結果を出力する識別手段と、
二種類の入力を基に両者の誤差を出力する誤差算出手段と、
確率的勾配降下法に基づく誤差逆伝播法を実行する学習手段と、
を有する、画像パターン認識装置である。
請求項5に係る本発明は、上記のいずれかの画像パターン認識装置であって、
前記第一サブネットワークが、入力された誤差を前記結合処理手段が行う処理に応じて分岐して複数のレイヤに出力する誤差分岐手段を更に有し、
前記第三サブネットワークが、複数のレイヤから入力される誤差を統合する誤差統合手段を更に有する、画像パターン認識装置である。
請求項6に係る本発明は、上記のいずれかの画像パターン認識装置であって、更に正規化処理を行う正規化処理手段を具えている、画像パターン認識装置である。
[プログラム]
請求項7に係る本発明は、
データを受け付けるデータ受付ステップと、
教師情報を受け付ける教師情報受付ステップと、
ニューラルネットワーク処理を行うニューラルネットワーク処理ステップと、
をコンピュータにより実行させるプログラムであって、
前記ニューラルネットワーク処理ステップが、
メインのタスクを処理する第一サブ処理ステップと、
サブのタスクを処理する第二サブ処理ステップと、
メインのタスクとサブのタスクのいずれにも含まれない処理が行われる第三サブ処理ステップとを含み、
前記第三サブ処理ステップが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理ステップを含み、
前記第一サブ処理ステップが、複数のレイヤからの入力を結合して出力する結合処理ステップを含む、
プログラムである。
請求項1に係る本発明よれば、分岐された出力層においてサブタスクに対する特徴量をメインタスクの処理に統合して用いない場合と比べて、特徴表現学習の精度を向上させることができる。
請求項2に係る本発明よれば、分岐された出力層においてサブタスクに対する特徴量をメインタスクの処理に統合して用いない場合と比べて、特徴表現学習の精度を向上させることができる。
請求項3に係る本発明よれば、分岐された出力層においてサブタスクに対する特徴量をメインタスクの処理に統合して用いない場合と比べて、特徴表現学習の精度を向上させることができる。
請求項4に係る本発明よれば、分岐された出力層においてサブタスクに対する特徴量をメインタスクの処理に統合して用いない場合と比べて、特徴表現学習の精度を向上させることができる。
請求項5に係る本発明よれば、分岐された出力層においてサブタスクに対する特徴量をメインタスクの処理に統合して用いない場合と比べて、特徴表現学習の精度を向上させることができる。
請求項6に係る本発明よれば、結合処理の際に、入力される各特徴量の値のスケールが大きく異なっている場合でもより適切に統合することができる。
請求項7に係る本発明よれば、分岐された出力層においてサブタスクに対する特徴量をメインタスクの処理に統合して用いない場合と比べて、特徴表現学習の精度を向上させることができる。
本実施形態の全体構成を示す概念図である。左側が学習時の構成を示し、右側は判定時の構成を示す。 本実施形態に係るニューラルネットワーク処理部の一例を示す概念図である。 全結合レイヤの構成を示す概念図である。 畳み込みレイヤの構成を示す概念図である。 全結合レイヤでの処理を示す概念図である。 分岐処理手段における分岐処理を示す概念図である。 結合処理手段における結合処理を示す概念図である。 特徴表現学習処理のフローの一例を示す概念図であり、画像コンテンツの認識をサブタスク、性別推定をメインタスクとして、画像コンテンツの認識と性別推定を行う場合の例を表す。 学習済みのニューロネットワークを用いて、性別推定を行う場合のフローの一例を示す概念図である。 学習済みのニューロネットワークを用いて、性別推定を行う場合のフローの一例を示す概念図である。 学習済みのニューロネットワークを用いて、性別推定を行う場合のフローの一例を示す概念図である。 実施例に係るニューラルネットワーク部の構成を示す模式図である。 比較例1に係るニューラルネットワーク部の構成を示す模式図である。 比較例2に係るニューラルネットワーク部の構成を示す模式図である。 実施例及び各比較例の評価結果を示すグラフである。
[背景技術]
近年、企業が市場調査を行う手段として、TwitterやFacebookといったソーシャルネットワーキングサイト(Social Networking Services :SNS) を用いたソーシャルメディア・マーケティングの需要が高まってきている。
これはSNSに投稿されている商品やサービスに対する大量の意見や口コミをユーザの投稿内容から抽出して消費者のニーズを調査するものであり、リアルタイムで低コストの調査が可能となる。
しかし、従来の調査であったアンケートによるモニタリング調査等と異なり、ユーザの性別や年代、職業等のデモグラフィック属性が明らかでないことが多い。そのため、消費者の属性ごとに口コミを分析するセグメント分析を行うことができず、効果的なマーケティングを行えていないのが現状である。
この問題を解決するために、ユーザが投稿したテキストや画像、ユーザ間のソーシャル関係から投稿者の属性を推定する研究が行われている。例えば、上記特許文献4および上記非特許文献1では、SNSに投稿された画像からその画像を投稿したユーザの性別を推定する方法が提案されている。
具体的には、10種類の画像コンテンツ(ペット、食べ物、クルマ、芸能人など)と3つの性別(男性、女性、性別不明)を組み合わせた30個のカテゴリを規定し、画像をその30個のカテゴリへ分類することで性別推定を実現している。
このような画像パターン認識では、その問題の難しさから、しばしばいくつかのタスクに分けて段階的に処理が行われる。例えば上記特許文献1でも、顔画像から開眼および閉眼状態を判定する問題に対して、目の位置検出と目の大きさ検出、開閉眼判定の3つのタスクに分割し、開閉眼判定をメインタスク、目の位置検出と目の大きさ検出をサブタスクに位置付け、「目の位置検出」→「目の大きさ検出」→「開閉眼判定」といったように段階的に処理を行っている。
上記特許文献4および上記非特許文献1では、人手で予め設計された特徴表現手法であるLLC(上記非特許文献2に記載されるSIFTを符号化したもの:上記非特許文献3参照)を用いている
これに対し、パターン認識を行うために画像から抽出すべき特徴量ないしはその表現方法を機械に自動で学習させる特徴表現学習を、画像パターン認識に用いる方法がある。特徴表現学習を行う方法の一つとして誤差逆伝播法:バックプロパゲーション(上記非特許文献4参照)を用いた多層ニューラルネットワーク(上記非特許文献5)が提案されている。
これは例えば画像の輝度値を多層ニューラルネットワークの入力とし、各層における非線形の演算によって演算結果を順伝播させていき、最後の層において出力結果を得る。次に、この出力結果と教師情報の誤差を出力層から逆伝播させていくことで各層のパラメータを更新していく。これらを繰り返すことによって多層ニューラルネットワークではパターン認識に適した特徴表現を学習することが可能となる。
上記特許文献4および上記非特許文献1では、特徴表現学習を行っていないのに対し、上記特許文献2及び3では、ニューラルネットワークを用いることで特徴表現学習を行っている。
上記特許文献2では、目の開閉度判定をメインタスク、目の有無判定をサブタスクとし、上記特許文献2の図3に示されるように、出力層において目の開閉度の判定結果を出力するユニットと目の有無の判定結果を出力するユニットとが並列に配置されている。
また、上記特許文献3では人の位置推定と人の有無判定の二つのタスクが設定され、出力層には人の有無判定を行うユニットと人の位置判定を行うユニットとが並列に配置されている。
以下、本発明を実施するための形態を詳細に説明する。但し、以下に示す実施形態は、本発明の技術思想を具体化するための画像パターン認識装置の一例を示すものであって、本発明をこの実施形態に限定することを意図するものではなく、本発明は特許請求の範囲に示した技術思想を逸脱することなく種々の変更を行ったものにも均しく適用し得るものである。
[実施形態]
本実施形態の構成を図1および図2に示す。教師データ11は画像データと教師情報が対になったデータから成る。この教師データはあらかじめ人手で構築しておく必要がある。画像についてはSNSに投稿されている画像をAPI(Twitter APIやInstagram APIなど)によって収集することなどが可能である。一方、教師情報はAPIからでは取得できないため、画像ごとに手動で設定する必要がある。
[データ受付部]
データ受付部2では、学習時には、ハードディスク等のストレージに保存されている、画像と教師情報(教師ラベル)が対になったデータから画像をメモリに読み込む。また、判定時においては、教師情報データ1は不要であり、判定対象である画像データ12の画像をメモリに読み込む。画像はRGBまたはグレースケールのどちらかに統一して入力を行う。画像サイズは例えば224×224に統一して処理を行っても良く、それ以外の正規化の前処理を行ってもよい。
[教師情報受付部]
教師情報受付部3では、画像と教師情報(教師ラベル)が対になったデータから、入力画像に対応した教師情報が読み込まれる。
[ニューラルネットワーク処理部]
ニューラルネットワーク処理部4は、ニューラルネットワーク処理本体部5と識別部6とからなり、ニューラルネットワーク処理本体部5は、ニューラルネットワークによって画像から特徴量を抽出する役割を果たす。これは多段のレイヤから構成され、実際に行う処理の詳細はレイヤの構成によって異なる。
[線形演算部]
線形演算部12は、図3に示す全結合レイヤ11で用いられる。全結合レイヤ11は層状に並べたユニットが隣接層間でのみ結合した構造を持ち、情報が入力側から出力層側に一方向にのみ伝播する。全結合レイヤ11を構成する各ユニットは図5のように、複数の入力を受け取り、一つの出力を計算する。入力を x1,x2,x3・・・xn とすると、例えばユニットu1の出力はバイアス項b1を用いて以下のように計算される。
従って、すべてのユニットに対する出力は行列を用いて次のように一般化できる。
u = Wx + b
[非線形演算部]
非線形演算部13では入力の各ユニットxに対して、非線形関数を適用する。
u = f(x)
非線形関数には、例えば、以下のようなRectified Linear Unit(ReLU)を用いる。
f(u) = max(u,0)
[分岐処理部]
分岐処理部9は、入力された値xをそのまま複数の出力先に出力する。図6においては、
1 = uJ =x
となる。
[結合処理部]
結合処理部10では、複数のレイヤからの出力を受け取り、それらを結合して出力する。結合方法としては、複数のレイヤ(図7においてはx1からxIまでのI個のレイヤ)からの出力を受け取り、その全てのユニットを連結して出力する連結処理を行う方法がある。なお、図7において、
m = n(I−1)+1
i = xi (但し、i=1,・・・,nI)
である。
また、連結処理の代わりに要素毎に演算を行う要素毎演算処理を行っても良い。連結処理では入力されたレイヤをすべて連結して出力するだけであったのに対し、要素毎演算処理ではより適切な統合を行う。入力レイヤのユニット数がすべて同じであることを前提としたとき、要素ごとに以下のような演算を行う。但し、ここでは入力レイヤ数は2つとする。
u = f(x1,x2
適用する関数の例を以下に示す。
(積)
f(x1,x2) = x1×x2
(最大値)
f(x1,x2) = max(x1,x2
(平均値)
f(x1,x2) = (x1+x2)/2
[識別部]
識別部6では、最終レイヤN、M´から出力される入力の各ユニットxに対して、以下の様に関数を適用する。
u = f(x)
適用可能な関数の例としては、以下に示すソフトマックス関数などが挙げられる。
Kは入力のユニット数であり、識別したいカテゴリ数と一致する(例えば、性別推定であれば男性および女性のK=2となる)。
[誤差算出部]
誤差検出部7では、識別部によって出力された判定結果および教師情報から誤差を算出する。誤差の算出には例えば交差エントロピーを用いることができる。カテゴリkに対する教師情報をdkとすると、交差エントロピーは以下のように算出される。
[学習部]
学習部8により、誤差算出部によって求めた誤差を用いて各レイヤに含まれる重みパラメータを学習する。学習には確率的勾配降下法に基づく誤差逆伝播法(バックプロパゲーション)を用いる。確率的勾配降下法では、1枚あるいは複数枚の画像に対する誤差Enに対する勾配∇Enを用いて、パラメータwを以下のように更新する。
但し、tは更新回数を表す。
誤差逆伝播法では誤差を最終レイヤから順に逆伝播させていき、各レイヤにおいて確率的勾配降下法を行う。各レイヤのパラメータの更新後改めて誤差を算出し、誤差が収束するまでパラメータの更新を繰り返す。
[誤差分岐処理部]
誤差分岐処理部では、受け取った誤差を分岐して複数のレイヤに逆伝播する。分岐方法は結合処理部10での処理内容に応じて以下のような処理を行う。
(連結処理)
1からunIに対応する誤差をe1からenIとするとき、x1からxnIには以下のように誤差が逆伝播される。但し、y1からynIはx1からxnIに対応している。
i = ei (但し、i=1,・・・,nI)
(要素毎演算処理:積)
受け取った誤差と同じ値を複数のレイヤに逆伝播する。
(要素毎演算処理:最大値)
要素毎演算処理時に最大値が得られたレイヤに各要素の誤差をその値のまま逆伝播する。なお、それ以外のレイヤには0の値を逆伝播する。
(要素毎演算処理:平均値)
受け取った誤差eを分岐先のレイヤ数の逆数で割った値を逆伝播する。例えば、分岐先のレイヤ数が2つの場合、誤差の1/2の値をそれぞれのレイヤに逆伝播する。
1 = e/2
2 = e/2
[誤差結合処理部]
誤差結合処理部では、複数のレイヤから誤差を受け取り、それらを結合して逆伝播する。結合方法としては、複数のレイヤから受け取ったすべての誤差に対して重み付き和を出力する。重みはパラメータとして与えられる。yを出力、x1及びx2を受け取った誤差とすると以下のような演算となる。但し、ここでは2つのレイヤから誤差を受け取るものとする。λは重みパラメータである。
y = λx1+(1−λ)x2
ニューラルネットワーク処理部4におけるレイヤの構成は任意であり、全結合レイヤ11ではなく、線形演算のかわりに畳み込み処理部14とプーリング処理部16を有する、畳み込みレイヤ14(図4)を用いてもよい。全結合レイヤ11では、隣接層間のユニットすべてが全結合されているが、畳み込みレイヤ14では隣接層間の特定のユニットのみが結合を持つ。したがって、全結合レイヤ11に比べてユニット(学習すべきパラメータ)の数が少ない畳み込みレイヤ14を用いた場合、学習が容易となる。
[畳み込み処理部]
畳み込み処理部15では、畳み込み処理において、W×Wの入力Xに対してH×H個のパラメータから成るフィルタhを適用する。(i,j)=(i=0,…,W−1,j=0,…,W−1)、(p,q)=(p=0,…,H−1,q=0,…,H−1)とするとき、畳み込み処理は以下のような積和計算を行う。
なお、入力がW×W×Kのように複数のチャネルを持つ場合は、チャネルごとに畳み込み処理を行い、全チャネル間で出力結果の最大値をとることで1チャネルに圧縮を行う。また、フィルタがH×H×Cのように複数チャネルの場合には、チャネルごとに上記畳み込み処理を行い出力する。したがって、出力はC個のチャネルを持つこととなる。
[プーリング処理部]
プーリング処理部16は、畳み込み部によって出力された特徴の位置感度を若干低下させることで、対象とする特徴量の画像内での位置が若干変化した場合でも、畳み込みレイヤ14の出力を不変にすることができる。
入力のサイズをW×W×Kとし、プーリング処理の単位領域をH×Hとする。また、プーリング処理の領域H×Hに含まれるXの集合をPとする。このとき、例えば以下に定義される方法によってプーリング処理を行う。
(平均プーリング)
(最大プーリング)
[正規化部]
本発明においては、結合処理の前に正規化処理を行う正規化部を追加してもよい。連結処理や要素毎演算処理による複数の特徴量の統合では、各特徴量の値のスケールが大きく異なっている場合に適切に統合できない可能性がある。そこで、正規化部では各入力に対してL1ノルム正規化やL2ノルム正規化などを行う。
次に、ニューラルネットワーク処理の基本的な流れについて説明する。
判定時には、画像データはデータ受付部2によってニューラルネットワーク処理部4に入力され、ニューラルネットワーク処理部4は判定結果を出力する。学習時には、教師情報受付部3から得られる教師情報と判定結果とから誤差算出部7によって誤差を算出する。そして、学習部8によってニューラルネットワークの学習が実行される。
ニューラルネットワーク処理部4は、ニューラルネットワーク処理本体部5と識別部6とから構成され、ニューラルネットワーク処理本体部5によって画像に対する特徴量が抽出される。なお、図2においては、メインタスクに加えて一つのサブタスクの計2つのタスクを処理する場合の構成を示した。
ニューラルネットワーク処理本体部5はN+M´個(1<=L<M<N;M´はサブタスクのレイヤ数)のレイヤと、1つ以上の分岐処理部9と、1つ以上の結合処理部10と、から構成され、分岐処理部9では、前レイヤ(レイヤL)の出力結果を入力として受け取り、複数の分岐先のレイヤ(図2ではレイヤL´+1およびレイヤL+1)にそれぞれコピーして出力する。なお、レイヤ1から分岐処理部9までが本願発明の第三サブネットワークに相当し、レイヤL+1からレイヤNまでが第一サブネットワークに相当し、レイヤL´+1からレイヤM´+1までが第二サブネットワークに相当する。
結合処理部10では、複数の分岐元(図2ではレイヤM´およびレイヤM)からの出力結果を入力として受け取り、受け取った出力結果を連結処理あるいは要素毎演算処理してレイヤM+1に出力する。
要素毎演算処理の際は、複数の入力レイヤに対して要素(ベクトルや行列における次元)ごとに演算を行い、演算結果をレイヤM+1に出力する。この演算は任意であり、積や和、最大値をとるなどが考えられる。
各レイヤについては、線形演算部12と非線形演算部13から構成される全結合レイヤ11(図3)、又は、畳み込み処理部15、非線形演算部13、及び、プーリング処理部16から構成される畳み込みレイヤ14(図4)を用いることができる。なお、畳み込みレイヤを用いたニューラルネットワークは畳み込みニューラルネットワーク(上記非特許文献6参照)と呼ばれ、画像データに対して高い認識・識別精度を示すことが知られている。また、各最終レイヤ(レイヤN、レイヤM´)は、非線形演算部を含まず、非線形演算が適用されずに各最終レイヤから識別部に出力される。なお、サブタスクの最終レイヤ(レイヤM´)からは、識別部6に加えて結合処理部10へも出力がなされる。
識別部6には各最終レイヤからの出力が入力され、識別部6から判定結果が出力される。学習時には、この判定結果は教師情報と共に誤差検出部7へ出力され、誤差検出部7では判定結果と教師情報との誤差が算出される。
学習部8では、当該誤差を用いて、チェインルールに基づいた誤差逆伝播法が実行される。
図8には、画像コンテンツから画像の投稿者の性別を推定する場合に、画像コンテンツの認識をサブタスク、性別推定をメインタスクとして画像コンテンツの認識と性別推定を行う問題に適用した場合のフローチャートの例を示した。
誤差逆伝播法が実行されると、誤差が各最終レイヤから順に逆伝播されていく。各レイヤにおいては、確率的勾配降下法が行われて各レイヤのパラメータが更新される。
逆伝播の過程では、順伝播の結合処理に対応するタイミングで誤差が分岐される。すなわち、レイヤM+1から出力された誤差が分岐されて、一方がメインタスク側(レイヤM)に、他方がサブタスク側(レイヤM´)に出力される。また、順伝播の分岐処理に対応するタイミングでは誤差が結合される。すなわち、メインタスク側(レイヤL+1)から出力された誤差と、サブタスク側(レイヤL´+1)からの誤差とが結合されて、レイヤLに出力される。
学習部では、このようにして、ニューラルネットワークの各レイヤのパラメータの更新が、判定結果の誤差が収束するまで繰り返される処理が行われ、誤差が収束した段階で特徴表現学習は終了となる。
図9〜図11には、学習済みのニューラルネットワークを用いて、実際に入力画像からユーザの性別を推定する際のフローチャートの例を示した。学習済みであるため、サブタスク側は判定されず、メインタスク側(レイヤN)からの出力に基づき、識別部から判定結果(性別推定の結果)が出力された時点で終了となる。
なお、図9では、サブタスク側(レイヤM´)からは、識別部へ出力されず、結合処理部10あるいは要素毎演算部にのみ出力されるフローを示したが、図10や図11のようなフローに基づいて性別推定を行っても良い。
[実施例]
次に、ソーシャルネットワーキングサービス(SNS)に投稿された画像からその投稿者(ユーザ)の性別を推定する問題に適用した実施例について説明する、本実施例では、画像コンテンツの認識をサブタスク、性別推定をメインタスクとして画像コンテンツの認識と性別推定を行う問題に適用した。
図12にニューラルネットワーク部の具体的な構成を模式的に示した。これは上記非特許文献7のネットワークをベースにしたものであり、5層の畳み込みレイヤの後に分岐処理部を設けて、2つのブランチに分けている。
そして各ブランチにそれぞれ3層の全結合レイヤを設けた後に要素毎演算部によって画像コンテンツの特徴量を性別の特徴量と結合する。さらに、結合した特徴量は1層の全結合レイヤを介して出力される。なお、本実施例においては要素毎演算部として積算を用いた。
本実施例の実行にあたり、まず、Twitterに投稿された画像付きツイートに関して、日本において2013年6月から8月までに投稿されたツイートをもとに、ボットを除くツイート数の多いアクティブユーザからツイートを抽出することで、画像を収集した。
次に、200ツイート以上のテキストおよび1枚以上の画像がダウンロード可能なユーザに対して教師ラベルを作成した。教師ラベルは26種類の画像コンテンツラベル(IT機器、野生動物、アニメ、アート、書籍、自動車・バイク、漫画、キャラクター、コスメ品、芸能人、ファッション、食べ物、ギャンブル、ゲーム、雑貨、イラスト、建築物、音楽、一般人、ペット、植物、ポスター、風景、スクリーンショット、スポーツ、その他)と3種類の性別ラベル(男性、女性、性別不明)を付与するものとし、ワーカーによるラベリング作業を行った。
画像コンテンツラベルについては各画像に対して10人のワーカーに適切と思われるものを投票してもらい、性別ラベルについては各画像に対して5人のワーカーに投票してもらった。そして、画像コンテンツラベルと性別ラベルのそれぞれに対して、これらの投票結果の多数決によって最終的なラベルを決定した。
このようにして得られた画像集合のうち、性別ラベルに性別不明が付与された画像を取り除くことで、最終的に3,683ユーザから13,525枚の画像セットが得られた。このうち、6642枚を学習用、1760枚をパラメータ設計用、5123枚を評価用としてデータセットを作成した。
評価に際しては、比較例として、画像コンテンツの学習を行わず、性別ラベルのみで学習を行ったもの(比較例1)、結合処理を行わずに学習を行ったもの(比較例2:上記特許文献2の方法に相当)も用意し、適合率と再現率との調和平均であるF値を用いて比較した。なお、図13には比較例1のニューラルネットワーク部の構成を示し、図14には比較例2のニューラルネットワーク部の構成を示した。
結果を図15に示した。比較例1及び比較例2の比較から、画像コンテンツ情報を用いた学習を行うほうが推定精度は高いことがわかる。また、メインタスクとサブタスクの2つの特徴量の結合を行った実施例では、結合処理を行わない比較例2と比較して、推定精度が高くなることがわかる。
1…教師データ
2…画像データ
2…データ受付部
3…教師情報受付部
4…ニューラルネットワーク処理部
5…ニューラルネットワーク処理本体部
6…識別部
7…誤差算出部
8…学習部
9…分岐処理部
10…結合処理部
11…全結合レイヤ
12…線形演算部
13…非線形演算部
14…畳み込みレイヤ
15…畳み込み処理部
16…プーリング処理部

Claims (6)

  1. データを受け付けるデータ受付手段と、
    教師情報を受け付ける教師情報受付手段と、
    ニューラルネットワーク処理を行うニューラルネットワーク処理手段と、
    を有し、
    前記ニューラルネットワーク処理手段が、
    メインのタスクを処理するレイヤからなる第一サブネットワークと、
    サブのタスクを処理するレイヤからなる第二サブネットワークと、
    前記第一サブネットワーク及び第二サブネットワークのいずれにも属さないレイヤからなる、第三サブネットワークと、を有し、
    前記第三サブネットワークが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理手段を有し、
    前記第一サブネットワークが、複数のレイヤからの入力を結合して出力する結合処理手段を有し、
    さらに、前記第一サブネットワークが、入力された誤差を前記結合処理手段が行う処理に応じて分岐して複数のレイヤに出力する誤差分岐手段を更に有し、
    前記第三サブネットワークが、複数のレイヤから入力される誤差を統合する誤差統合手段を更に有する、
    画像パターン認識装置。
  2. 前記結合処理手段が、複数のレイヤからの入力を連結して出力するする処理か、複数の入力レイヤに対して要素毎に演算を行い出力する処理を行う、請求項1に記載の画像パターン認識装置。
  3. 前記レイヤは、
    前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤが、線形演算手段、又は、畳み込み手段、非線形演算手段及びプーリング処理手段の、いずれかからなり、
    前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤ以外のレイヤが、線形演算手段及び非線形演算手段から成る全結合レイヤ、又は、畳み込み処理手段、非線形演算手段及びプーリング処理手段から成る畳み込みレイヤ、のいずれかからなる、請求項1又は2に記載の画像パターン認識装置。
  4. 更に、各タスクの判定結果を出力する識別手段と、
    二種類の入力を基に両者の誤差を出力する誤差算出手段と、
    確率的勾配降下法に基づく誤差逆伝播法を実行する学習手段と、
    を有する、請求項1〜3のいずれかに記載の画像パターン認識装置。
  5. 更に正規化処理を行う正規化処理手段を具えている、請求項1〜4のいずれかに記載の画像パターン認識装置。
  6. データを受け付けるデータ受付ステップと、
    教師情報を受け付ける教師情報受付ステップと、
    ニューラルネットワーク処理を行うニューラルネットワーク処理ステップと、
    をコンピュータにより実行させるプログラムであって、
    前記ニューラルネットワーク処理ステップが、
    メインのタスクを処理する第一サブ処理ステップと、
    サブのタスクを処理する第二サブ処理ステップと、
    メインのタスクとサブのタスクのいずれにも含まれない処理が行われる第三サブ処理ステップとを含み、
    前記第三サブ処理ステップが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理ステップを含み、
    前記第一サブ処理ステップが、複数のレイヤからの入力を結合して出力する結合処理ステップを含み、
    さらに、前記第一サブ処理ステップが、入力された誤差を前記結合処理ステップが行う処理に応じて分岐して複数のレイヤに出力する誤差分岐ステップを更に有し、
    前記第三サブ処理ステップが、複数のレイヤから入力される誤差を統合する誤差統合ステップを更に有する、
    コンピュータに実行させるためのプログラム。
JP2016074219A 2016-04-01 2016-04-01 画像パターン認識装置及びプログラム Active JP6727543B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016074219A JP6727543B2 (ja) 2016-04-01 2016-04-01 画像パターン認識装置及びプログラム
US15/386,473 US10664727B2 (en) 2016-04-01 2016-12-21 Image pattern recognition device and recording medium
EP17155341.5A EP3226175A1 (en) 2016-04-01 2017-02-09 Image pattern recognition device and program
CN201710073650.2A CN107273784B (zh) 2016-04-01 2017-02-10 图像模式识别装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016074219A JP6727543B2 (ja) 2016-04-01 2016-04-01 画像パターン認識装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017187840A JP2017187840A (ja) 2017-10-12
JP6727543B2 true JP6727543B2 (ja) 2020-07-22

Family

ID=58016577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016074219A Active JP6727543B2 (ja) 2016-04-01 2016-04-01 画像パターン認識装置及びプログラム

Country Status (4)

Country Link
US (1) US10664727B2 (ja)
EP (1) EP3226175A1 (ja)
JP (1) JP6727543B2 (ja)
CN (1) CN107273784B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
KR101916347B1 (ko) * 2017-10-13 2018-11-08 주식회사 수아랩 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램
JP6958277B2 (ja) * 2017-11-20 2021-11-02 日本製鉄株式会社 異常判定方法及び装置
JP6783742B2 (ja) * 2017-11-24 2020-11-11 Kddi株式会社 パラメータ特定装置及びパラメータ特定方法
EP3537348A1 (en) * 2018-03-06 2019-09-11 Dura Operating, LLC Heterogeneous convolutional neural network for multi-problem solving
JP6791182B2 (ja) * 2018-03-14 2020-11-25 オムロン株式会社 ニューラルネットワーク型画像処理装置
CN111868754A (zh) * 2018-03-23 2020-10-30 索尼公司 信息处理装置和信息处理方法
EP3567544B1 (en) * 2018-05-11 2023-06-28 Siemens Healthcare GmbH Method of creating an image chain
JP7113674B2 (ja) * 2018-06-15 2022-08-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置及び情報処理方法
CN109190757B (zh) * 2018-08-07 2021-05-04 百度在线网络技术(北京)有限公司 任务处理方法、装置、设备及计算机可读存储介质
CN109165729A (zh) * 2018-08-22 2019-01-08 中科物栖(北京)科技有限责任公司 神经网络的调度方法及系统
KR20200063289A (ko) * 2018-11-16 2020-06-05 삼성전자주식회사 영상 처리 장치 및 그 동작방법
KR102155789B1 (ko) * 2019-08-23 2020-09-14 주식회사 크라우드웍스 크로스체크를 통한 신뢰도 높은 작업 결과 획득 방법 및 장치
JP6737491B1 (ja) * 2020-01-09 2020-08-12 株式会社アドイン研究所 Aiを用いる診断装置、診断システム、及び、プログラム
US11734576B2 (en) * 2020-04-14 2023-08-22 International Business Machines Corporation Cooperative neural networks with spatial containment constraints
US11222201B2 (en) 2020-04-14 2022-01-11 International Business Machines Corporation Vision-based cell structure recognition using hierarchical neural networks

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1044824A (ja) 1996-07-30 1998-02-17 Nissan Motor Co Ltd 車両運転者の開閉眼判定装置
US7016529B2 (en) 2002-03-15 2006-03-21 Microsoft Corporation System and method facilitating pattern recognition
US7319779B1 (en) * 2003-12-08 2008-01-15 Videomining Corporation Classification of humans into multiple age categories from digital images
US7848566B2 (en) * 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
US7739208B2 (en) * 2005-06-06 2010-06-15 Numenta, Inc. Trainable hierarchical memory system and method
JP4978227B2 (ja) 2007-02-15 2012-07-18 トヨタ自動車株式会社 画像検出装置
JP2009237977A (ja) * 2008-03-27 2009-10-15 Seiko Epson Corp 画像出力制御装置、画像出力制御方法、画像出力制御プログラムおよび印刷装置
US20090299929A1 (en) * 2008-05-30 2009-12-03 Robert Kozma Methods of improved learning in simultaneous recurrent neural networks
US8582807B2 (en) * 2010-03-15 2013-11-12 Nec Laboratories America, Inc. Systems and methods for determining personal characteristics
WO2011162050A1 (ja) * 2010-06-21 2011-12-29 ポーラ化成工業株式会社 年齢の推定方法、男女の判別方法
US8913839B2 (en) * 2011-09-27 2014-12-16 University Of North Carolina At Wilmington Demographic analysis of facial landmarks
JP6032921B2 (ja) * 2012-03-30 2016-11-30 キヤノン株式会社 物体検出装置及びその方法、プログラム
US9373085B1 (en) * 2012-05-15 2016-06-21 Vicarious Fpc, Inc. System and method for a recursive cortical network
US9374374B2 (en) * 2012-06-19 2016-06-21 SecureMySocial, Inc. Systems and methods for securing social media for users and businesses and rewarding for enhancing security
JP6208552B2 (ja) * 2013-11-14 2017-10-04 株式会社デンソーアイティーラボラトリ 識別器、識別プログラム、及び識別方法
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
JP2016006626A (ja) 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法
JP6375706B2 (ja) 2014-06-11 2018-08-22 富士ゼロックス株式会社 属性推定プログラム及び情報処理装置
US9411726B2 (en) * 2014-09-30 2016-08-09 Samsung Electronics Co., Ltd. Low power computation architecture
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
US9760792B2 (en) * 2015-03-20 2017-09-12 Netra, Inc. Object detection and classification
US9286524B1 (en) * 2015-04-15 2016-03-15 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-task deep convolutional neural networks for efficient and robust traffic lane detection
CN105184303B (zh) * 2015-04-23 2019-08-09 南京邮电大学 一种基于多模态深度学习的图像标注方法
US9530082B2 (en) * 2015-04-24 2016-12-27 Facebook, Inc. Objectionable content detector
CN106295476B (zh) * 2015-05-29 2019-05-17 腾讯科技(深圳)有限公司 人脸关键点定位方法和装置
US9471851B1 (en) * 2015-06-29 2016-10-18 International Business Machines Corporation Systems and methods for inferring gender by fusion of multimodal content
CN105205479A (zh) * 2015-10-28 2015-12-30 小米科技有限责任公司 人脸颜值评估方法、装置及终端设备
JP2017102671A (ja) * 2015-12-01 2017-06-08 キヤノン株式会社 識別装置、調整装置、情報処理方法及びプログラム
US10311334B1 (en) * 2018-12-07 2019-06-04 Capital One Services, Llc Learning to process images depicting faces without leveraging sensitive attributes in deep learning models

Also Published As

Publication number Publication date
CN107273784A (zh) 2017-10-20
CN107273784B (zh) 2022-04-15
EP3226175A1 (en) 2017-10-04
US20170286810A1 (en) 2017-10-05
US10664727B2 (en) 2020-05-26
JP2017187840A (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6727543B2 (ja) 画像パターン認識装置及びプログラム
Khan et al. Real-time plant health assessment via implementing cloud-based scalable transfer learning on AWS DeepLens
CN109101938B (zh) 一种基于卷积神经网络的多标签年龄估计方法
Kaya et al. Multimodal personality trait analysis for explainable modeling of job interview decisions
Anurekha et al. Efficient classification and grading of MANGOES with GANFIS for improved performance
CN112200110A (zh) 一种基于深度干扰分离学习的人脸表情识别方法
Navaz et al. Facial image pre-processing and emotion classification: A deep learning approach
Abinaya et al. Enhancing crop productivity through autoencoder-based disease detection and context-aware remedy recommendation system
Monigari et al. Plant leaf disease prediction
Bandyopadhyay et al. Online recommendation system using human facial expression based emotion detection: a proposed method
Nihar et al. Plant disease detection through the implementation of diversified and modified neural network algorithms
Kancharlapalli et al. A Novel Approach for Age and Gender Detection using Deep Convolution Neural Network
Xu Mt-resnet: a multi-task deep network for facial attractiveness prediction
Sridhar et al. An Enhanced Haar Cascade Face Detection Schema for Gender Recognition
Shinde et al. Feedforward back propagation neural network (FFBPNN) based approach for the identification of handwritten math equations
Srinivas et al. Facial Expression Detection Model of Seven Expression Types Using Hybrid Feature Selection and Deep CNN
Tunc et al. Age group and gender classification using convolutional neural networks with a fuzzy logic-based filter method for noise reduction
Jyoti et al. A single hierarchical network for face, action unit and emotion detection
Singla et al. Age and gender detection using Deep Learning
Kumar et al. VGG 16 Based Human Emotion Classification Using Thermal Images Through Transfer Learning
Smitha et al. Ensemble Convolution Neural Network for Robust Video Emotion Recognition Using Deep Semantics
Kirpal et al. Real-time Age, Gender and Emotion Detection using Caffe Models
Ali et al. Facial Expression Recognition Using Neural Network
Punuri et al. Facial Emotion Recognition in Unconstrained Environments through Rank-Based Ensemble of Deep Learning Models using 1-Cycle Policy
Rao Multi-Modal Biometric Age Prediction Through Deep Learning Framework

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200614

R150 Certificate of patent or registration of utility model

Ref document number: 6727543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350