JP2017513144A - 顔認証方法およびシステム - Google Patents
顔認証方法およびシステム Download PDFInfo
- Publication number
- JP2017513144A JP2017513144A JP2016560685A JP2016560685A JP2017513144A JP 2017513144 A JP2017513144 A JP 2017513144A JP 2016560685 A JP2016560685 A JP 2016560685A JP 2016560685 A JP2016560685 A JP 2016560685A JP 2017513144 A JP2017513144 A JP 2017513144A
- Authority
- JP
- Japan
- Prior art keywords
- convnet
- face
- hifs
- features
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 85
- 239000013598 vector Substances 0.000 claims abstract description 35
- 210000002569 neuron Anatomy 0.000 claims abstract description 21
- 230000004913 activation Effects 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 6
- 210000004205 output neuron Anatomy 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 7
- 210000000887 face Anatomy 0.000 description 9
- 238000011176 pooling Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000001994 activation Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000002364 input neuron Anatomy 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008555 neuronal activation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
異なる訓練されたConvNetにより、顔の異なる領域に対してHIFs(Hidden Identity Feature、隠し身元特徴)を抽出し、そのうち、前記ConvNetの最後の隠れ層ニューロン活性化(activations)がHIFsとして見なされるように構成される特徴抽出ユニットと、
各前記顔から抽出されたHIFsを連結させて特徴ベクトルを形成し、前記形成された特徴ベクトルの2つを比較してそれらが同じ身元に由来するか否かを決定するように構成される認証ユニットとを備える、顔認証装置を提供する。
異なる訓練されたConvNetにより、顔の異なる領域からHIFsを抽出し、そのうち、前記ConvNetの最後の隠れ層ニューロン活性化がHIFsとして見なされるステップと、
抽出されたHIFsを連結させて特徴ベクトルを形成するステップと、
形成された特徴ベクトルの2つを比較してそれらが同じ身元に由来するか否かを決定するステップとを含む、顔認証方法を提供する。
および
は、それぞれi番目の入力特徴マップおよびj番目の出力特徴マップである。
は、i番目の入力特徴マップとj番目の出力特徴マップとの間の畳み込みカーネルである。*は畳み込みを表す。
はj番目の出力特徴マップのオフセット値である。本明細書において、ReLU非線形関数
は、隠しニューロンに用いられ、かつsigmoid関数よりも優れたフィッティング能力を有する。ConvNetの高い畳み込み層における重みは、部分的に共有されて異なる領域における異なる中レベルまたは高レベル特徴を学習する。rは重みが共有される局所領域を示す。図4に示される最大プーリングは、
ただし、i番目の出力特徴マップ
における各ニューロンは、i番目の入力特徴マップ
におけるs×sの非重複局所領域の上にプーリングする。
式中、
は、それぞれ第3の畳み込み層および第4の畳み込み層におけるニューロンおよび重みを示す。それは、前の2つの畳み込み層における特徴を線形的に組み合わせ、その後にReLU非線形性にする。
式中、
は、160個のHIFs
を線形的に組み合わせてニューロンjの出力とし、かつyjをその出力とする。ConvNetは、t番目のターゲット種類を用いて
を最小化することにより学習される。勾配が逆伝播により計算されて確率的勾配降下法が利用されてもよい。
ただし、
は、顔の身元を表し、
は、個体内変動を表す。個体内変動や個体間変動
と
を設定することで、統合ベイズが2つの顔の同時確率(joint probability)をモデリングする。等式(5)は、この2つの確率もガウス変数であることを示し、それぞれ
SμおよびSεは、EMアルゴリズムを用いてデータから学習することができる。テストにおいて、尤度比を計算し、すなわち
それは、閉形式解を有し、かつ有効である。
Claims (15)
- 異なる訓練されたConvNetにより、顔の異なる領域に対してHIFs(隠し身元特徴)を抽出し、そのうち、前記ConvNetの最後の隠れ層ニューロン活性化が前記HIFsとして見なされるように構成される特徴抽出ユニットと、
各前記顔から抽出されたHIFsを連結させて特徴ベクトルを形成し、前記形成された特徴ベクトルの2つを比較してそれらが同じ身元に由来するか否かを決定するように構成される認証ユニットとを備える
顔認証装置。 - 顔の位置合わせされた領域の入力により、身元分類用の前記ConvNetを訓練するように構成される訓練ユニットをさらに備える
請求項1に記載の装置。 - 前記認証ユニットは、
前記HIFsを、同一ConvNetにより抽出されたHIFsをそれぞれ含む複数の組に分けるように構成される入力層と、
各組のHIFsから局所特徴を抽出するように構成される局所接続層と、
前に抽出された局所特徴から全体特徴を抽出するように構成される完全接続層と、
抽出された全体特徴から単一の顔類似度スコアを計算し、計算されたスコアに基づいて前記2つの特徴ベクトルが同じ身元に由来するか否かを決定するように構成される出力ニューロンとを備える
請求項1に記載の装置。 - 前記ConvNetのそれぞれに対して、前記特徴抽出ユニットは、特定の領域およびその裏返したカウンターパートを、各前記ConvNetに入力して前記HIFsを抽出するように構成される
請求項1に記載の装置。 - 前記認証ユニットは、各顔から抽出された全てのHIFsを連結させて顔認証用の特徴ベクトルを形成するように構成される
請求項4に記載の装置。 - 前記ConvNetのそれぞれは、複数のカスケードされた特徴抽出層、および前記特徴抽出層の少なくとも1つに接続された最後の隠れ層を含み、
そのうち、前記ConvNetの前層特徴から抽出された、前記ConvNetの現在層における特徴の数は、前記ConvNetの最後の隠れ層から前記HIFsが取得されるまで、前記カスケードされた特徴抽出層に沿って減少し続ける
請求項2に記載の装置。 - 前記ConvNetのそれぞれは、カスケードされた4つの特徴抽出層、および第3の特徴抽出層と第4の特徴抽出層に接続された前記最後の隠れ層を含む
請求項6に記載の装置。 - 前記ConvNetのそれぞれに対して、前記訓練ユニットは、さらに、
1)所定の顔訓練セットから顔画像を選択し、
2)前記ConvNetのそれぞれに、選択された顔画像からクロップされた顔パッチである入力、およびn番目(nは、選択された顔画像の身元番号であり)の位置が1になる以外、他の位置がいずれもゼロになるベクトルであるターゲット出力を決定し、
3)前記ConvNetにおける順伝播処理により、前記顔パッチを前記ConvNetに入力して出力を計算し、
4)計算された出力と前記ターゲット出力とを比較して誤差信号を生成し、
5)生成された誤差信号を逆伝播して前記ConvNetを通過させて前記ConvNetのパラメータを調整し、
6)訓練プロセスが収束したまで、ステップ1)〜5)を繰り返して、それにより前記ConvNetのパラメータを決定するように構成される
請求項2に記載の装置。 - 異なる訓練されたConvNetにより、各顔の異なる領域からHIFsを抽出し、そのうち、前記ConvNetの最後の隠れ層ニューロン活性化がHIFsとして見なされる抽出ステップと、
各顔から抽出されたHIFsを連結させて特徴ベクトルを形成する連結ステップと、
前記形成された特徴ベクトルの2つを比較してそれらが同じ身元に由来するか否かを決定する比較ステップとを含む
顔認証方法。 - 顔の位置合わせされた領域の入力により、身元分類用の複数のConvNetを訓練する訓練ステップをさらに含む
請求項9に記載の方法。 - 前記ConvNetのそれぞれに対する訓練ステップは、
1)所定の顔訓練セットから顔画像を選択するステップと、
2)前記ConvNetのそれぞれに、選択された顔画像からクロップされた顔パッチである入力、およびn番目(nは、選択された顔画像の身元番号であり)の位置が1になる以外、他の位置がいずれもゼロになるベクトルであるターゲット出力を決定するステップと、
3)前記ConvNetにおける順伝播処理により、前記顔パッチを前記ConvNetに入力して、前記ConvNetの出力を計算するステップと、
4)計算された出力と前記ターゲット出力とを比較して誤差信号を生成するステップと、
5)生成された誤差信号を逆伝播して前記ConvNetを通過させて前記ConvNetのパラメータを調整するステップと、
6)訓練プロセスが収束したまで、ステップ1)〜5)を繰り返して、それにより前記ConvNetのパラメータを決定するステップとを含む
請求項10に記載の方法。 - 前記比較ステップは、
形成された特徴ベクトルにおけるHIFsを、同一ConvNetにより抽出されたHIFsをそれぞれ含む複数の組に分けるステップと、
各組のHIFsから局所特徴を抽出するステップと、
前に抽出された局所特徴から全体特徴を抽出するステップと、
抽出された全体特徴から単一の顔類似度スコアを計算して前記スコアに基づいて前記2つの特徴ベクトルが同じ身元に由来するか否かを決定するステップとをさらに含む
請求項9に記載の方法。 - 前記ConvNetのそれぞれに対して、前記抽出ステップは、
特定領域およびその裏返したカウンターパートを前記ConvNetのそれぞれに入力して前記HIFsを抽出するステップを含む
請求項9に記載の方法。 - 前記連結ステップは、
各顔の全ての抽出されたHIFsを連結させて特徴ベクトルを形成するステップを含む
請求項9に記載の方法。 - 前記ConvNetのそれぞれは、複数のカスケードされた特徴抽出層、および前記特徴抽出層の少なくとも1つに接続された最後の隠れ層を含み、
そのうち、前記ConvNetの前層特徴から抽出された、前記ConvNetの現在層における特徴の数は、前記ConvNetの最後の隠れ層から前記HIFsが取得されるまで、前記カスケードされた特徴抽出層に沿って減少し続ける
請求項10に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/000390 WO2015154206A1 (en) | 2014-04-11 | 2014-04-11 | A method and a system for face verification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017513144A true JP2017513144A (ja) | 2017-05-25 |
JP6159489B2 JP6159489B2 (ja) | 2017-07-05 |
Family
ID=54287073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016560685A Active JP6159489B2 (ja) | 2014-04-11 | 2014-04-11 | 顔認証方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9811718B2 (ja) |
JP (1) | JP6159489B2 (ja) |
CN (1) | CN106358444B (ja) |
WO (1) | WO2015154206A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135859A (ja) * | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 分類モデルの訓練装置及び方法、並びに分類モデルを用いる分類装置 |
JP2020135857A (ja) * | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 |
JP2020181404A (ja) * | 2019-04-25 | 2020-11-05 | 住友電気工業株式会社 | 画像分類器、画像分類方法及びコンピュータプログラム |
JP2021157468A (ja) * | 2020-03-26 | 2021-10-07 | 株式会社Mobility Technologies | プログラム、ニューラルネットワークシステム、情報処理方法およびニューラルネットワークモデルの生成方法 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826530B (zh) * | 2014-11-15 | 2023-06-30 | 北京旷视科技有限公司 | 使用机器学习进行面部检测 |
WO2017070858A1 (en) * | 2015-10-28 | 2017-05-04 | Beijing Sensetime Technology Development Co., Ltd | A method and a system for face recognition |
US10860887B2 (en) * | 2015-11-16 | 2020-12-08 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognition model |
CN106991364B (zh) * | 2016-01-21 | 2020-06-12 | 阿里巴巴集团控股有限公司 | 人脸识别处理方法、装置以及移动终端 |
US10424072B2 (en) | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
US11461919B2 (en) | 2016-04-21 | 2022-10-04 | Ramot At Tel Aviv University Ltd. | Cascaded neural network |
GB2549554A (en) | 2016-04-21 | 2017-10-25 | Ramot At Tel-Aviv Univ Ltd | Method and system for detecting an object in an image |
US10579860B2 (en) | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
CN106127120B (zh) * | 2016-06-16 | 2018-03-13 | 北京市商汤科技开发有限公司 | 姿势估计方法和装置、计算机系统 |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN107992728B (zh) * | 2016-10-27 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 人脸验证方法及装置 |
US10474883B2 (en) * | 2016-11-08 | 2019-11-12 | Nec Corporation | Siamese reconstruction convolutional neural network for pose-invariant face recognition |
SG11201811691RA (en) * | 2017-06-30 | 2019-01-30 | Beijing Didi Infinity Technology & Development Co Ltd | Systems and methods for verifying authenticity of id photo |
CN108062538A (zh) * | 2017-12-29 | 2018-05-22 | 成都智宝大数据科技有限公司 | 人脸识别方法及装置 |
US10528800B2 (en) * | 2018-01-10 | 2020-01-07 | International Business Machines Corporation | Automated facial recognition detection |
CN108399409B (zh) | 2018-01-19 | 2019-06-18 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108830211A (zh) * | 2018-06-11 | 2018-11-16 | 厦门中控智慧信息技术有限公司 | 基于深度学习的人脸识别方法及相关产品 |
US10747989B2 (en) * | 2018-08-21 | 2020-08-18 | Software Ag | Systems and/or methods for accelerating facial feature vector matching with supervised machine learning |
US11003892B2 (en) * | 2018-11-09 | 2021-05-11 | Sap Se | Landmark-free face attribute prediction |
CN109766754B (zh) * | 2018-12-04 | 2024-08-06 | 平安科技(深圳)有限公司 | 人脸五官聚类方法、装置、计算机设备及存储介质 |
US11158351B1 (en) | 2018-12-20 | 2021-10-26 | Snap Inc. | Segment action detection |
CN110188223B (zh) * | 2019-06-06 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及计算机设备 |
CN112240964B (zh) * | 2019-07-16 | 2023-06-20 | 北京映翰通网络技术股份有限公司 | 一种用于配电网故障类型识别的方法 |
CN110489955B (zh) * | 2019-08-23 | 2021-07-27 | 中国工商银行股份有限公司 | 应用于电子设备的图像处理、装置、计算设备、介质 |
CN111079594B (zh) * | 2019-12-04 | 2023-06-06 | 成都考拉悠然科技有限公司 | 一种基于双流协同网络的视频动作分类识别方法 |
CN111968264A (zh) * | 2020-10-21 | 2020-11-20 | 东华理工大学南昌校区 | 体育项目时间登记装置 |
CN112257600B (zh) * | 2020-10-22 | 2022-06-28 | 武汉新可信息技术有限公司 | 一种人脸识别方法及系统 |
CN113283368B (zh) * | 2021-06-08 | 2023-10-20 | 电子科技大学中山学院 | 一种模型训练方法、人脸属性分析方法、装置及介质 |
CN114544155B (zh) * | 2022-01-28 | 2024-10-25 | 江苏科技大学 | 基于深度学习的auv推进器多信源融合故障诊断方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8553984B2 (en) * | 2008-06-02 | 2013-10-08 | Massachusetts Institute Of Technology | Fast pattern classification based on a sparse transform |
TWI415011B (zh) | 2009-12-17 | 2013-11-11 | Ind Tech Res Inst | 人臉辨識方法及應用此方法之系統 |
KR101300247B1 (ko) * | 2011-11-11 | 2013-08-26 | 경희대학교 산학협력단 | 마르코프 연쇄 은닉 조건부 랜덤 필드 모델 기반의 패턴 인식 방법 |
US8700552B2 (en) * | 2011-11-28 | 2014-04-15 | Microsoft Corporation | Exploiting sparseness in training deep neural networks |
US9275269B1 (en) * | 2012-11-09 | 2016-03-01 | Orbeus, Inc. | System, method and apparatus for facial recognition |
CN103605972B (zh) | 2013-12-10 | 2017-02-15 | 康江科技(北京)有限责任公司 | 一种基于分块深度神经网络的非限制环境人脸验证方法 |
US9767385B2 (en) * | 2014-08-12 | 2017-09-19 | Siemens Healthcare Gmbh | Multi-layer aggregation for object detection |
US9418319B2 (en) * | 2014-11-21 | 2016-08-16 | Adobe Systems Incorporated | Object detection using cascaded convolutional neural networks |
CN105844202A (zh) * | 2015-01-12 | 2016-08-10 | 芋头科技(杭州)有限公司 | 一种影像识别系统及方法 |
US9836671B2 (en) * | 2015-08-28 | 2017-12-05 | Microsoft Technology Licensing, Llc | Discovery of semantic similarities between images and text |
-
2014
- 2014-04-11 JP JP2016560685A patent/JP6159489B2/ja active Active
- 2014-04-11 US US15/129,567 patent/US9811718B2/en active Active
- 2014-04-11 CN CN201480077117.8A patent/CN106358444B/zh active Active
- 2014-04-11 WO PCT/CN2014/000390 patent/WO2015154206A1/en active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135859A (ja) * | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 分類モデルの訓練装置及び方法、並びに分類モデルを用いる分類装置 |
JP2020135857A (ja) * | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 |
JP7347202B2 (ja) | 2019-02-19 | 2023-09-20 | 富士通株式会社 | 分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 |
JP2020181404A (ja) * | 2019-04-25 | 2020-11-05 | 住友電気工業株式会社 | 画像分類器、画像分類方法及びコンピュータプログラム |
JP2021157468A (ja) * | 2020-03-26 | 2021-10-07 | 株式会社Mobility Technologies | プログラム、ニューラルネットワークシステム、情報処理方法およびニューラルネットワークモデルの生成方法 |
JP7453828B2 (ja) | 2020-03-26 | 2024-03-21 | Go株式会社 | プログラム、ニューラルネットワークシステム、情報処理方法およびニューラルネットワークモデルの生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US20170147868A1 (en) | 2017-05-25 |
JP6159489B2 (ja) | 2017-07-05 |
CN106358444A (zh) | 2017-01-25 |
CN106358444B (zh) | 2019-07-30 |
WO2015154206A1 (en) | 2015-10-15 |
US9811718B2 (en) | 2017-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6159489B2 (ja) | 顔認証方法およびシステム | |
Zhang et al. | Fusing geometric features for skeleton-based action recognition using multilayer LSTM networks | |
US10289897B2 (en) | Method and a system for face verification | |
Fang et al. | 3d deep shape descriptor | |
Baccouche et al. | Sequential deep learning for human action recognition | |
Huynh et al. | Detection of driver drowsiness using 3D deep neural network and semi-supervised gradient boosting machine | |
EP3074918B1 (en) | Method and system for face image recognition | |
US20180285739A1 (en) | Deep learning for characterizing unseen categories | |
CN112464865A (zh) | 一种基于像素和几何混合特征的人脸表情识别方法 | |
Santhalingam et al. | Sign language recognition analysis using multimodal data | |
Sultan et al. | Sign language identification and recognition: A comparative study | |
Zhao et al. | Cbph-net: A small object detector for behavior recognition in classroom scenarios | |
Zhai et al. | Face verification across aging based on deep convolutional networks and local binary patterns | |
Al Hamad | Use an efficient neural network to improve the Arabic handwriting recognition | |
Islam et al. | A facial region segmentation based approach to recognize human emotion using fusion of HOG & LBP features and artificial neural network | |
Zou et al. | Application of facial symmetrical characteristic to transfer learning | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
Huang et al. | Analyzing group-level emotion with global alignment kernel based approach | |
Saha et al. | Topomorphological approach to automatic posture recognition in ballet dance | |
Bharathi et al. | Expression Recognition using YOLO and Shallow CNN Model | |
Mohd Ali et al. | Performance comparison between ANN and PCA techniques for road signs recognition | |
Sun | Facial expression classification using R-CNN based methods | |
Dubey et al. | Optimizing Emotion Recognition Through Weighted Averaging in Deep Learning Ensembles | |
Serj et al. | A time-distributed convolutional long short-term memory for hand gesture recognition | |
Ingale et al. | Deep Learning for Crowd Image Classification for Images Captured Under Varying Climatic and Lighting Condition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6159489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |