JP6727543B2 - 画像パターン認識装置及びプログラム - Google Patents
画像パターン認識装置及びプログラム Download PDFInfo
- Publication number
- JP6727543B2 JP6727543B2 JP2016074219A JP2016074219A JP6727543B2 JP 6727543 B2 JP6727543 B2 JP 6727543B2 JP 2016074219 A JP2016074219 A JP 2016074219A JP 2016074219 A JP2016074219 A JP 2016074219A JP 6727543 B2 JP6727543 B2 JP 6727543B2
- Authority
- JP
- Japan
- Prior art keywords
- sub
- processing
- layers
- error
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
請求項1に係る本発明は、
データを受け付けるデータ受付手段と、
教師情報を受け付ける教師情報受付手段と、
ニューラルネットワーク処理を行うニューラルネットワーク処理手段と、
を有し、
前記ニューラルネットワーク処理手段が、
メインのタスクを処理するレイヤからなる第一サブネットワークと、
サブのタスクを処理するレイヤからなる第二サブネットワークと、
前記第一サブネットワーク及び第二サブネットワークのいずれにも属さないレイヤからなる、第三サブネットワークと、を有し、
前記第三サブネットワークが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理手段を有し、
前記第一サブネットワークが、複数のレイヤからの入力を結合して出力する結合処理手段を有する、
画像パターン認識装置である。
前記結合処理手段は、複数のレイヤからの入力を連結して出力するする処理か、複数の入力レイヤに対して要素毎に演算を行い出力する処理を行う、画像パターン認識装置である。
前記レイヤは、
前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤが、線形演算手段、又は、畳み込み手段、非線形演算手段及びプーリング処理手段の、いずれかからなり、
前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤ以外のレイヤが、線形演算手段及び非線形演算手段から成る全結合レイヤ、又は、畳み込み処理手段、非線形演算手段及びプーリング処理手段から成る畳み込みレイヤ、のいずれかからなる、画像パターン認識装置である。
各タスクの判定結果を出力する識別手段と、
二種類の入力を基に両者の誤差を出力する誤差算出手段と、
確率的勾配降下法に基づく誤差逆伝播法を実行する学習手段と、
を有する、画像パターン認識装置である。
前記第一サブネットワークが、入力された誤差を前記結合処理手段が行う処理に応じて分岐して複数のレイヤに出力する誤差分岐手段を更に有し、
前記第三サブネットワークが、複数のレイヤから入力される誤差を統合する誤差統合手段を更に有する、画像パターン認識装置である。
請求項7に係る本発明は、
データを受け付けるデータ受付ステップと、
教師情報を受け付ける教師情報受付ステップと、
ニューラルネットワーク処理を行うニューラルネットワーク処理ステップと、
をコンピュータにより実行させるプログラムであって、
前記ニューラルネットワーク処理ステップが、
メインのタスクを処理する第一サブ処理ステップと、
サブのタスクを処理する第二サブ処理ステップと、
メインのタスクとサブのタスクのいずれにも含まれない処理が行われる第三サブ処理ステップとを含み、
前記第三サブ処理ステップが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理ステップを含み、
前記第一サブ処理ステップが、複数のレイヤからの入力を結合して出力する結合処理ステップを含む、
プログラムである。
近年、企業が市場調査を行う手段として、TwitterやFacebookといったソーシャルネットワーキングサイト(Social Networking Services :SNS) を用いたソーシャルメディア・マーケティングの需要が高まってきている。
データ受付部2では、学習時には、ハードディスク等のストレージに保存されている、画像と教師情報(教師ラベル)が対になったデータから画像をメモリに読み込む。また、判定時においては、教師情報データ1は不要であり、判定対象である画像データ12の画像をメモリに読み込む。画像はRGBまたはグレースケールのどちらかに統一して入力を行う。画像サイズは例えば224×224に統一して処理を行っても良く、それ以外の正規化の前処理を行ってもよい。
教師情報受付部3では、画像と教師情報(教師ラベル)が対になったデータから、入力画像に対応した教師情報が読み込まれる。
ニューラルネットワーク処理部4は、ニューラルネットワーク処理本体部5と識別部6とからなり、ニューラルネットワーク処理本体部5は、ニューラルネットワークによって画像から特徴量を抽出する役割を果たす。これは多段のレイヤから構成され、実際に行う処理の詳細はレイヤの構成によって異なる。
線形演算部12は、図3に示す全結合レイヤ11で用いられる。全結合レイヤ11は層状に並べたユニットが隣接層間でのみ結合した構造を持ち、情報が入力側から出力層側に一方向にのみ伝播する。全結合レイヤ11を構成する各ユニットは図5のように、複数の入力を受け取り、一つの出力を計算する。入力を x1,x2,x3・・・xn とすると、例えばユニットu1の出力はバイアス項b1を用いて以下のように計算される。
u = Wx + b
非線形演算部13では入力の各ユニットxに対して、非線形関数を適用する。
u = f(x)
f(u) = max(u,0)
分岐処理部9は、入力された値xをそのまま複数の出力先に出力する。図6においては、
u1 = uJ =x
となる。
結合処理部10では、複数のレイヤからの出力を受け取り、それらを結合して出力する。結合方法としては、複数のレイヤ(図7においてはx1からxIまでのI個のレイヤ)からの出力を受け取り、その全てのユニットを連結して出力する連結処理を行う方法がある。なお、図7において、
m = n(I−1)+1
ui = xi (但し、i=1,・・・,nI)
である。
u = f(x1,x2)
適用する関数の例を以下に示す。
(積)
f(x1,x2) = x1×x2
(最大値)
f(x1,x2) = max(x1,x2)
(平均値)
f(x1,x2) = (x1+x2)/2
識別部6では、最終レイヤN、M´から出力される入力の各ユニットxに対して、以下の様に関数を適用する。
u = f(x)
適用可能な関数の例としては、以下に示すソフトマックス関数などが挙げられる。
誤差検出部7では、識別部によって出力された判定結果および教師情報から誤差を算出する。誤差の算出には例えば交差エントロピーを用いることができる。カテゴリkに対する教師情報をdkとすると、交差エントロピーは以下のように算出される。
学習部8により、誤差算出部によって求めた誤差を用いて各レイヤに含まれる重みパラメータを学習する。学習には確率的勾配降下法に基づく誤差逆伝播法(バックプロパゲーション)を用いる。確率的勾配降下法では、1枚あるいは複数枚の画像に対する誤差Enに対する勾配∇Enを用いて、パラメータwを以下のように更新する。
誤差逆伝播法では誤差を最終レイヤから順に逆伝播させていき、各レイヤにおいて確率的勾配降下法を行う。各レイヤのパラメータの更新後改めて誤差を算出し、誤差が収束するまでパラメータの更新を繰り返す。
誤差分岐処理部では、受け取った誤差を分岐して複数のレイヤに逆伝播する。分岐方法は結合処理部10での処理内容に応じて以下のような処理を行う。
(連結処理)
u1からunIに対応する誤差をe1からenIとするとき、x1からxnIには以下のように誤差が逆伝播される。但し、y1からynIはx1からxnIに対応している。
yi = ei (但し、i=1,・・・,nI)
(要素毎演算処理:積)
受け取った誤差と同じ値を複数のレイヤに逆伝播する。
(要素毎演算処理:最大値)
要素毎演算処理時に最大値が得られたレイヤに各要素の誤差をその値のまま逆伝播する。なお、それ以外のレイヤには0の値を逆伝播する。
(要素毎演算処理:平均値)
受け取った誤差eを分岐先のレイヤ数の逆数で割った値を逆伝播する。例えば、分岐先のレイヤ数が2つの場合、誤差の1/2の値をそれぞれのレイヤに逆伝播する。
y1 = e/2
y2 = e/2
誤差結合処理部では、複数のレイヤから誤差を受け取り、それらを結合して逆伝播する。結合方法としては、複数のレイヤから受け取ったすべての誤差に対して重み付き和を出力する。重みはパラメータとして与えられる。yを出力、x1及びx2を受け取った誤差とすると以下のような演算となる。但し、ここでは2つのレイヤから誤差を受け取るものとする。λは重みパラメータである。
y = λx1+(1−λ)x2
[畳み込み処理部]
畳み込み処理部15では、畳み込み処理において、W×Wの入力Xに対してH×H個のパラメータから成るフィルタhを適用する。(i,j)=(i=0,…,W−1,j=0,…,W−1)、(p,q)=(p=0,…,H−1,q=0,…,H−1)とするとき、畳み込み処理は以下のような積和計算を行う。
プーリング処理部16は、畳み込み部によって出力された特徴の位置感度を若干低下させることで、対象とする特徴量の画像内での位置が若干変化した場合でも、畳み込みレイヤ14の出力を不変にすることができる。
(平均プーリング)
本発明においては、結合処理の前に正規化処理を行う正規化部を追加してもよい。連結処理や要素毎演算処理による複数の特徴量の統合では、各特徴量の値のスケールが大きく異なっている場合に適切に統合できない可能性がある。そこで、正規化部では各入力に対してL1ノルム正規化やL2ノルム正規化などを行う。
次に、ソーシャルネットワーキングサービス(SNS)に投稿された画像からその投稿者(ユーザ)の性別を推定する問題に適用した実施例について説明する、本実施例では、画像コンテンツの認識をサブタスク、性別推定をメインタスクとして画像コンテンツの認識と性別推定を行う問題に適用した。
12…画像データ
2…データ受付部
3…教師情報受付部
4…ニューラルネットワーク処理部
5…ニューラルネットワーク処理本体部
6…識別部
7…誤差算出部
8…学習部
9…分岐処理部
10…結合処理部
11…全結合レイヤ
12…線形演算部
13…非線形演算部
14…畳み込みレイヤ
15…畳み込み処理部
16…プーリング処理部
Claims (6)
- データを受け付けるデータ受付手段と、
教師情報を受け付ける教師情報受付手段と、
ニューラルネットワーク処理を行うニューラルネットワーク処理手段と、
を有し、
前記ニューラルネットワーク処理手段が、
メインのタスクを処理するレイヤからなる第一サブネットワークと、
サブのタスクを処理するレイヤからなる第二サブネットワークと、
前記第一サブネットワーク及び第二サブネットワークのいずれにも属さないレイヤからなる、第三サブネットワークと、を有し、
前記第三サブネットワークが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理手段を有し、
前記第一サブネットワークが、複数のレイヤからの入力を結合して出力する結合処理手段を有し、
さらに、前記第一サブネットワークが、入力された誤差を前記結合処理手段が行う処理に応じて分岐して複数のレイヤに出力する誤差分岐手段を更に有し、
前記第三サブネットワークが、複数のレイヤから入力される誤差を統合する誤差統合手段を更に有する、
画像パターン認識装置。 - 前記結合処理手段が、複数のレイヤからの入力を連結して出力するする処理か、複数の入力レイヤに対して要素毎に演算を行い出力する処理を行う、請求項1に記載の画像パターン認識装置。
- 前記レイヤは、
前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤが、線形演算手段、又は、畳み込み手段、非線形演算手段及びプーリング処理手段の、いずれかからなり、
前記第一サブネットワークの最終レイヤ及び前記第二サブネットワークの最終レイヤ以外のレイヤが、線形演算手段及び非線形演算手段から成る全結合レイヤ、又は、畳み込み処理手段、非線形演算手段及びプーリング処理手段から成る畳み込みレイヤ、のいずれかからなる、請求項1又は2に記載の画像パターン認識装置。 - 更に、各タスクの判定結果を出力する識別手段と、
二種類の入力を基に両者の誤差を出力する誤差算出手段と、
確率的勾配降下法に基づく誤差逆伝播法を実行する学習手段と、
を有する、請求項1〜3のいずれかに記載の画像パターン認識装置。 - 更に正規化処理を行う正規化処理手段を具えている、請求項1〜4のいずれかに記載の画像パターン認識装置。
- データを受け付けるデータ受付ステップと、
教師情報を受け付ける教師情報受付ステップと、
ニューラルネットワーク処理を行うニューラルネットワーク処理ステップと、
をコンピュータにより実行させるプログラムであって、
前記ニューラルネットワーク処理ステップが、
メインのタスクを処理する第一サブ処理ステップと、
サブのタスクを処理する第二サブ処理ステップと、
メインのタスクとサブのタスクのいずれにも含まれない処理が行われる第三サブ処理ステップとを含み、
前記第三サブ処理ステップが、入力された特徴量と同一の値を複数のレイヤに出力する分岐処理ステップを含み、
前記第一サブ処理ステップが、複数のレイヤからの入力を結合して出力する結合処理ステップを含み、
さらに、前記第一サブ処理ステップが、入力された誤差を前記結合処理ステップが行う処理に応じて分岐して複数のレイヤに出力する誤差分岐ステップを更に有し、
前記第三サブ処理ステップが、複数のレイヤから入力される誤差を統合する誤差統合ステップを更に有する、
コンピュータに実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016074219A JP6727543B2 (ja) | 2016-04-01 | 2016-04-01 | 画像パターン認識装置及びプログラム |
US15/386,473 US10664727B2 (en) | 2016-04-01 | 2016-12-21 | Image pattern recognition device and recording medium |
EP17155341.5A EP3226175A1 (en) | 2016-04-01 | 2017-02-09 | Image pattern recognition device and program |
CN201710073650.2A CN107273784B (zh) | 2016-04-01 | 2017-02-10 | 图像模式识别装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016074219A JP6727543B2 (ja) | 2016-04-01 | 2016-04-01 | 画像パターン認識装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017187840A JP2017187840A (ja) | 2017-10-12 |
JP6727543B2 true JP6727543B2 (ja) | 2020-07-22 |
Family
ID=58016577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016074219A Active JP6727543B2 (ja) | 2016-04-01 | 2016-04-01 | 画像パターン認識装置及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10664727B2 (ja) |
EP (1) | EP3226175A1 (ja) |
JP (1) | JP6727543B2 (ja) |
CN (1) | CN107273784B (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6333871B2 (ja) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | 入力画像から検出した対象物を表示する画像処理装置 |
KR101916347B1 (ko) * | 2017-10-13 | 2018-11-08 | 주식회사 수아랩 | 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램 |
JP6958277B2 (ja) * | 2017-11-20 | 2021-11-02 | 日本製鉄株式会社 | 異常判定方法及び装置 |
JP6783742B2 (ja) * | 2017-11-24 | 2020-11-11 | Kddi株式会社 | パラメータ特定装置及びパラメータ特定方法 |
US10990820B2 (en) * | 2018-03-06 | 2021-04-27 | Dus Operating Inc. | Heterogeneous convolutional neural network for multi-problem solving |
JP6791182B2 (ja) * | 2018-03-14 | 2020-11-25 | オムロン株式会社 | ニューラルネットワーク型画像処理装置 |
EP3770775A4 (en) * | 2018-03-23 | 2021-06-02 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING PROCESS |
EP3567544B1 (en) * | 2018-05-11 | 2023-06-28 | Siemens Healthcare GmbH | Method of creating an image chain |
JP7113674B2 (ja) * | 2018-06-15 | 2022-08-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理装置及び情報処理方法 |
CN109190757B (zh) * | 2018-08-07 | 2021-05-04 | 百度在线网络技术(北京)有限公司 | 任务处理方法、装置、设备及计算机可读存储介质 |
CN109165729A (zh) * | 2018-08-22 | 2019-01-08 | 中科物栖(北京)科技有限责任公司 | 神经网络的调度方法及系统 |
WO2020101143A1 (en) * | 2018-11-16 | 2020-05-22 | Samsung Electronics Co., Ltd. | Image processing apparatus and method of operating the same |
KR102155789B1 (ko) * | 2019-08-23 | 2020-09-14 | 주식회사 크라우드웍스 | 크로스체크를 통한 신뢰도 높은 작업 결과 획득 방법 및 장치 |
JP6737491B1 (ja) * | 2020-01-09 | 2020-08-12 | 株式会社アドイン研究所 | Aiを用いる診断装置、診断システム、及び、プログラム |
US11222201B2 (en) | 2020-04-14 | 2022-01-11 | International Business Machines Corporation | Vision-based cell structure recognition using hierarchical neural networks |
US11734576B2 (en) * | 2020-04-14 | 2023-08-22 | International Business Machines Corporation | Cooperative neural networks with spatial containment constraints |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1044824A (ja) | 1996-07-30 | 1998-02-17 | Nissan Motor Co Ltd | 車両運転者の開閉眼判定装置 |
US7016529B2 (en) | 2002-03-15 | 2006-03-21 | Microsoft Corporation | System and method facilitating pattern recognition |
US7319779B1 (en) * | 2003-12-08 | 2008-01-15 | Videomining Corporation | Classification of humans into multiple age categories from digital images |
US7848566B2 (en) * | 2004-10-22 | 2010-12-07 | Carnegie Mellon University | Object recognizer and detector for two-dimensional images using bayesian network based classifier |
US7739208B2 (en) * | 2005-06-06 | 2010-06-15 | Numenta, Inc. | Trainable hierarchical memory system and method |
JP4978227B2 (ja) | 2007-02-15 | 2012-07-18 | トヨタ自動車株式会社 | 画像検出装置 |
JP2009237977A (ja) * | 2008-03-27 | 2009-10-15 | Seiko Epson Corp | 画像出力制御装置、画像出力制御方法、画像出力制御プログラムおよび印刷装置 |
US20090299929A1 (en) * | 2008-05-30 | 2009-12-03 | Robert Kozma | Methods of improved learning in simultaneous recurrent neural networks |
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
US9189679B2 (en) * | 2010-06-21 | 2015-11-17 | Pola Chemical Industries, Inc. | Age estimation method and sex determination method |
US8913839B2 (en) * | 2011-09-27 | 2014-12-16 | University Of North Carolina At Wilmington | Demographic analysis of facial landmarks |
JP6032921B2 (ja) * | 2012-03-30 | 2016-11-30 | キヤノン株式会社 | 物体検出装置及びその方法、プログラム |
US9373085B1 (en) * | 2012-05-15 | 2016-06-21 | Vicarious Fpc, Inc. | System and method for a recursive cortical network |
US9374374B2 (en) * | 2012-06-19 | 2016-06-21 | SecureMySocial, Inc. | Systems and methods for securing social media for users and businesses and rewarding for enhancing security |
JP6208552B2 (ja) * | 2013-11-14 | 2017-10-04 | 株式会社デンソーアイティーラボラトリ | 識別器、識別プログラム、及び識別方法 |
US9400925B2 (en) * | 2013-11-15 | 2016-07-26 | Facebook, Inc. | Pose-aligned networks for deep attribute modeling |
JP2016006626A (ja) | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
JP6375706B2 (ja) | 2014-06-11 | 2018-08-22 | 富士ゼロックス株式会社 | 属性推定プログラム及び情報処理装置 |
US9411726B2 (en) * | 2014-09-30 | 2016-08-09 | Samsung Electronics Co., Ltd. | Low power computation architecture |
US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
US9760792B2 (en) * | 2015-03-20 | 2017-09-12 | Netra, Inc. | Object detection and classification |
US9286524B1 (en) * | 2015-04-15 | 2016-03-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-task deep convolutional neural networks for efficient and robust traffic lane detection |
CN105184303B (zh) * | 2015-04-23 | 2019-08-09 | 南京邮电大学 | 一种基于多模态深度学习的图像标注方法 |
US9530082B2 (en) * | 2015-04-24 | 2016-12-27 | Facebook, Inc. | Objectionable content detector |
CN106295476B (zh) * | 2015-05-29 | 2019-05-17 | 腾讯科技(深圳)有限公司 | 人脸关键点定位方法和装置 |
US9471851B1 (en) * | 2015-06-29 | 2016-10-18 | International Business Machines Corporation | Systems and methods for inferring gender by fusion of multimodal content |
CN105205479A (zh) * | 2015-10-28 | 2015-12-30 | 小米科技有限责任公司 | 人脸颜值评估方法、装置及终端设备 |
JP2017102671A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 識別装置、調整装置、情報処理方法及びプログラム |
US10311334B1 (en) * | 2018-12-07 | 2019-06-04 | Capital One Services, Llc | Learning to process images depicting faces without leveraging sensitive attributes in deep learning models |
-
2016
- 2016-04-01 JP JP2016074219A patent/JP6727543B2/ja active Active
- 2016-12-21 US US15/386,473 patent/US10664727B2/en active Active
-
2017
- 2017-02-09 EP EP17155341.5A patent/EP3226175A1/en not_active Ceased
- 2017-02-10 CN CN201710073650.2A patent/CN107273784B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20170286810A1 (en) | 2017-10-05 |
CN107273784B (zh) | 2022-04-15 |
US10664727B2 (en) | 2020-05-26 |
EP3226175A1 (en) | 2017-10-04 |
CN107273784A (zh) | 2017-10-20 |
JP2017187840A (ja) | 2017-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6727543B2 (ja) | 画像パターン認識装置及びプログラム | |
Khan et al. | Real-time plant health assessment via implementing cloud-based scalable transfer learning on AWS DeepLens | |
Kaya et al. | Multimodal personality trait analysis for explainable modeling of job interview decisions | |
Anurekha et al. | Efficient classification and grading of MANGOES with GANFIS for improved performance | |
CN112200110A (zh) | 一种基于深度干扰分离学习的人脸表情识别方法 | |
Navaz et al. | Facial image pre-processing and emotion classification: A deep learning approach | |
Abinaya et al. | Enhancing crop productivity through autoencoder-based disease detection and context-aware remedy recommendation system | |
Bandyopadhyay et al. | Online recommendation system using human facial expression based emotion detection: a proposed method | |
Okokpujie et al. | Predictive modeling of trait-aging invariant face recognition system using machine learning | |
Nihar et al. | Plant disease detection through the implementation of diversified and modified neural network algorithms | |
Xu | Mt-resnet: a multi-task deep network for facial attractiveness prediction | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
Shinde et al. | Feedforward back propagation neural network (FFBPNN) based approach for the identification of handwritten math equations | |
Tunc et al. | Age group and gender classification using convolutional neural networks with a fuzzy logic-based filter method for noise reduction | |
Soimart | Ingredients estimation and recommendation of Thai-foods | |
Morshed et al. | Customer’s spontaneous facial expression recognition | |
Jyoti et al. | A single hierarchical network for face, action unit and emotion detection | |
Singla et al. | Age and gender detection using Deep Learning | |
Chaugule et al. | A new method using feature extraction for identifying paddy rice species for quality seed selection | |
Kirpal et al. | Real-time Age, Gender and Emotion Detection using Caffe Models | |
Mamatha et al. | Visual Sentiment Classification of Restaurant Review Images using Deep Convolutional Neural Networks | |
Kumar et al. | VGG 16 Based Human Emotion Classification Using Thermal Images Through Transfer Learning | |
Smitha et al. | Ensemble Convolution Neural Network for Robust Video Emotion Recognition Using Deep Semantics | |
Islam et al. | Examining Sigmoid vs ReLu Activation Functions in Deep Learning | |
Gupta et al. | Facial Expression Recognition with Combination of Geometric and Textural Domain Features Extractor using CNN and Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6727543 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |