JP6616017B2 - 物体ランドマーク検出のための深層変形ネットワーク - Google Patents
物体ランドマーク検出のための深層変形ネットワーク Download PDFInfo
- Publication number
- JP6616017B2 JP6616017B2 JP2018548057A JP2018548057A JP6616017B2 JP 6616017 B2 JP6616017 B2 JP 6616017B2 JP 2018548057 A JP2018548057 A JP 2018548057A JP 2018548057 A JP2018548057 A JP 2018548057A JP 6616017 B2 JP6616017 B2 JP 6616017B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- neural network
- shape
- response map
- landmark points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title description 21
- 238000000034 method Methods 0.000 claims description 40
- 238000013528 artificial neural network Methods 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 38
- 238000013527 convolutional neural network Methods 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 23
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 description 26
- 238000013507 mapping Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000000844 transformation Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 235000009499 Vanilla fragrans Nutrition 0.000 description 1
- 244000263375 Vanilla tahitensis Species 0.000 description 1
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008133 cognitive development Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Description
Claims (21)
- 畳み込みニューラルネットワークを用いる方法であって、
プロセッサにより、4ステージ畳み込み構造を用いて、画像の応答マップを生成し、
前記プロセッサにより、形状ベースニューラルネットワークを用いて、前記応答マップに基づいて前記画像の複数のランドマークポイントを生成し、
前記プロセッサにより、ポイント変形ニューラルネットワークを用いて、前記応答マップ及び前記画像の複数のランドマークポイントに基づいて画像の最適形状を生成し、
認証システムにより、前記生成された最適形状に基づいて前記画像を識別し、前記画像の認証結果を生成し、
前記認証結果に基づいてハードウェアベース機構を動作させる、方法。 - 前記ポイント変形ニューラルネットワークは、前記画像の前記複数のランドマークポイントに非線形変換を適用する、請求項1に記載の方法。
- 前記4ステージ畳み込み構造は、複数の畳み込み層及び複数の正規化線形ユニット層を有する、請求項1に記載の方法。
- 前記応答マップは、512チャネルの7×7応答マップである、請求項1に記載の方法。
- 前記ポイント変形ニューラルネットワークは、薄板スプライン(TPS)変換を用いて前記画像の前記複数のランドマークを変形させる、請求項1に記載の方法。
- 前記画像の前記複数のランドマークポイントの変形は、ポイントグリッド正則化法で制御することで制約されている、請求項5に記載の方法。
- 前記形状ベースニューラルネットワークは、前記画像の前記複数のランドマークの大域的幾何学の制約を適用する、請求項1に記載の方法。
- 前記形状ベースニューラルネットワーク及び前記ポイント変形ニューラルネットワークは、複数の同じ画像を用いて一緒に訓練される、請求項1に記載の方法。
- 前記画像の前記複数のランドマークポイントは、定義済み形状ベースの線形結合を有する、請求項1に記載の方法。
- 前記形状ベースニューラルネットワークは、前記応答マップに非線形変換を適用する、請求項1に記載の方法。
- 前記認証システムが、前記画像を捕捉するセキュリティシステムに含まれる、請求項1に記載の方法。
- 前記認証結果に基づいてハードウェアベース機構を動作させることは、画像内で表現及び認証されたユーザに、装置及び設備から成るグループから選択された項目に対するアクセスを許可するため、鍵の解錠機構を作動させることを含む、請求項1に記載の方法。
- 前記認証結果に基づいてハードウェアベース機構を動作させることは、ハードウェアベース機構によって、ユーザを装うリスクを軽減するためにハードウェアベース機構を停止することを含む、請求項1に記載の方法。
- 請求項1に記載された手順をコンピュータに実行させるためのプログラム。
- 4ステージ畳み込み構造を用いて、画像の応答マップを生成し、形状ベースニューラルネットワークを用いて、前記応答マップに基づいて前記画像の複数のランドマークポイントを生成し、ポイント変形ニューラルネットワークを用いて、前記応答マップ及び前記画像の複数のランドマークポイントに基づいて画像の最適形状を生成するように構成されたプロセッサと、
前記生成された最適形状に基づいて前記画像を識別し、前記画像の認証結果を生成するように構成された認証システムと、
を有し、
前記プロセッサは、さらに前記認証結果に基づいてハードウェアベース機構を動作させるように構成されている、システム。 - 前記ポイント変形ニューラルネットワークは、前記画像の前記複数のランドマークポイントに非線形変換を適用する、請求項15に記載のシステム。
- 前記4ステージ畳み込み構造は、複数の畳み込み層及び複数の正規化線形ユニット層を有する、請求項15に記載のシステム。
- 前記ポイント変形ニューラルネットワークは、薄板スプライン(TPS)変換を用いて前記画像の前記複数のランドマークを変形させる、請求項15に記載のシステム。
- 前記形状ベースニューラルネットワークは、前記画像の前記複数のランドマークの大域的幾何学の制約を適用する、請求項15に記載のシステム。
- 前記画像の前記複数のランドマークポイントは、定義済み形状ベースの線形結合を有する、請求項15に記載のシステム。
- 4ステージ畳み込み構造を用いて、画像の応答マップを生成し、形状ベースニューラルネットワークを用いて、前記応答マップに基づいて前記画像の複数のランドマークポイントを生成し、ポイント変形ニューラルネットワークを用いて、前記応答マップ及び前記画像の複数のランドマークポイントに基づいて画像の最適形状を生成し、
前記生成された最適形状に基づいて前記画像を識別し、前記画像の認証結果を生成するように構成された認証システムから得られる認証結果に基づいてハードウェアベース機構を動作させるように構成されたプロセッサを有する、プロセッサ構成。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662306894P | 2016-03-11 | 2016-03-11 | |
US62/306,894 | 2016-03-11 | ||
US15/436,199 US10572777B2 (en) | 2016-03-11 | 2017-02-17 | Deep deformation network for object landmark localization |
US15/436,199 | 2017-02-17 | ||
PCT/US2017/018839 WO2017155691A1 (en) | 2016-03-11 | 2017-02-22 | Deep deformation network for object landmark localization |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019507935A JP2019507935A (ja) | 2019-03-22 |
JP6616017B2 true JP6616017B2 (ja) | 2019-12-04 |
Family
ID=59786873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018548057A Active JP6616017B2 (ja) | 2016-03-11 | 2017-02-22 | 物体ランドマーク検出のための深層変形ネットワーク |
Country Status (3)
Country | Link |
---|---|
US (1) | US10572777B2 (ja) |
JP (1) | JP6616017B2 (ja) |
WO (1) | WO2017155691A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102808A (ja) * | 2015-12-04 | 2017-06-08 | ソニー株式会社 | 画像処理装置および方法 |
US10740596B2 (en) * | 2016-11-08 | 2020-08-11 | Nec Corporation | Video security system using a Siamese reconstruction convolutional neural network for pose-invariant face recognition |
JP6922284B2 (ja) * | 2017-03-15 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
CN107679490B (zh) * | 2017-09-29 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN107831765B (zh) * | 2017-10-23 | 2021-07-13 | 广州视源电子科技股份有限公司 | 定位方法、装置、设备及存储介质 |
CN108021933B (zh) * | 2017-11-23 | 2020-06-05 | 深圳市华尊科技股份有限公司 | 神经网络识别装置及识别方法 |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
WO2019178054A1 (en) * | 2018-03-12 | 2019-09-19 | Carnegie Mellon University | Pose invariant face recognition |
WO2019221739A1 (en) * | 2018-05-17 | 2019-11-21 | Hewlett-Packard Development Company, L.P. | Image location identification |
EP3791321A1 (en) * | 2018-05-21 | 2021-03-17 | Neurala, Inc. | Systems and methods for deep neural networks on device learning (online and offline) with and without supervision |
CN108803506A (zh) * | 2018-05-22 | 2018-11-13 | 广东美的智能机器人有限公司 | 生产线工件识别方法、服务器及终端 |
US10853726B2 (en) * | 2018-05-29 | 2020-12-01 | Google Llc | Neural architecture search for dense image prediction tasks |
CN109190467B (zh) * | 2018-07-26 | 2024-08-16 | 北京纵目安驰智能科技有限公司 | 一种基于关键点回归的多物体检测方法、系统、终端和存储介质 |
CN109271842B (zh) * | 2018-07-26 | 2024-08-09 | 北京纵目安驰智能科技有限公司 | 一种基于关键点回归的通用物体检测方法、系统、终端和存储介质 |
CN109272014B (zh) * | 2018-08-03 | 2021-05-28 | 天津大学 | 一种基于畸变适应卷积神经网络的图像分类方法 |
CN109325945B (zh) * | 2018-09-13 | 2021-01-08 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备及储存介质 |
CN111144560B (zh) * | 2018-11-05 | 2024-02-02 | 杭州海康威视数字技术股份有限公司 | 一种深度神经网络运算方法及装置 |
FR3088467B1 (fr) * | 2018-11-08 | 2022-11-04 | Idemia Identity & Security France | Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution |
US11380003B2 (en) * | 2019-06-25 | 2022-07-05 | Black Sesame Technologies Inc. | Monocular camera localization in large scale indoor sparse LiDAR point cloud |
JP7309134B2 (ja) * | 2020-04-17 | 2023-07-18 | 株式会社Roxy | 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置 |
WO2021210413A1 (ja) * | 2020-04-17 | 2021-10-21 | 株式会社Roxy | 判別対象の分類方法、これに用いるプログラム、および、判別装置 |
US12080100B2 (en) * | 2020-11-10 | 2024-09-03 | Nec Corporation | Face-aware person re-identification system |
WO2022191816A1 (en) * | 2021-03-08 | 2022-09-15 | Hewlett-Packard Development Company, L.P. | Location identification with multiple images |
KR102584485B1 (ko) * | 2022-02-14 | 2023-10-04 | 주식회사 딥브레인에이아이 | 발화 합성 영상 생성 장치 및 방법 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
TW200842733A (en) * | 2007-04-17 | 2008-11-01 | Univ Nat Chiao Tung | Object image detection method |
JP5012247B2 (ja) * | 2007-06-21 | 2012-08-29 | ソニー株式会社 | 認証装置、入場管理装置、入退場管理装置、入場管理システム、入退場管理システム、認証処理方法およびプログラム |
US8994499B2 (en) * | 2011-03-16 | 2015-03-31 | Apple Inc. | Locking and unlocking a mobile device using facial recognition |
US9489768B2 (en) * | 2012-11-14 | 2016-11-08 | Nec Corporation | Semantic dense 3D reconstruction |
WO2015180042A1 (en) * | 2014-05-27 | 2015-12-03 | Beijing Kuangshi Technology Co., Ltd. | Learning deep face representation |
US9400922B2 (en) * | 2014-05-29 | 2016-07-26 | Beijing Kuangshi Technology Co., Ltd. | Facial landmark localization using coarse-to-fine cascaded neural networks |
-
2017
- 2017-02-17 US US15/436,199 patent/US10572777B2/en active Active
- 2017-02-22 WO PCT/US2017/018839 patent/WO2017155691A1/en active Application Filing
- 2017-02-22 JP JP2018548057A patent/JP6616017B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019507935A (ja) | 2019-03-22 |
US10572777B2 (en) | 2020-02-25 |
WO2017155691A1 (en) | 2017-09-14 |
US20170262736A1 (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6616017B2 (ja) | 物体ランドマーク検出のための深層変形ネットワーク | |
CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
Dhiman et al. | A review of state-of-the-art techniques for abnormal human activity recognition | |
Li et al. | Non-rigid image registration using fully convolutional networks with deep self-supervision | |
JP6754619B2 (ja) | 顔認識方法及び装置 | |
Kang et al. | Depth-adaptive deep neural network for semantic segmentation | |
Akinyelu et al. | Convolutional neural network-based methods for eye gaze estimation: A survey | |
US20180144185A1 (en) | Method and apparatus to perform facial expression recognition and training | |
Bukhari et al. | An efficient gait recognition method for known and unknown covariate conditions | |
Zeng et al. | View-invariant gait recognition via deterministic learning | |
KR20200071990A (ko) | 전자 장치 및 그의 3d 이미지 표시 방법 | |
CN110738650B (zh) | 一种传染病感染识别方法、终端设备及存储介质 | |
Savran et al. | Non-rigid registration based model-free 3D facial expression recognition | |
CN106022264A (zh) | 基于多任务自编码器的交互式人脸活体检测方法和装置 | |
Chen et al. | Multi-SVM based Dempster–Shafer theory for gesture intention understanding using sparse coding feature | |
US20240005650A1 (en) | Representation learning | |
Liang et al. | Coupled dictionary learning for the detail-enhanced synthesis of 3-D facial expressions | |
US11354535B2 (en) | Device and method with sensor-specific image recognition | |
Martis et al. | Reckoning of emotions through recognition of posture features | |
Yao et al. | A type-2 fuzzy logic based system for linguistic summarization of video monitoring in indoor intelligent environments | |
Rostami et al. | Skeleton-based action recognition using spatio-temporal features with convolutional neural networks | |
Abdelrazik et al. | Efficient deep learning algorithm for egyptian sign language recognition | |
CN112861848A (zh) | 基于动作条件已知的视觉关系检测方法及系统 | |
Nishitha et al. | Sitting posture Analysis using CNN and RCNN | |
Polo-Rodríguez et al. | Estimating frontal body landmarks from thermal sensors using residual neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6616017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |