JP7042849B2 - 顔特徴点の測位方法及び装置 - Google Patents
顔特徴点の測位方法及び装置 Download PDFInfo
- Publication number
- JP7042849B2 JP7042849B2 JP2019568632A JP2019568632A JP7042849B2 JP 7042849 B2 JP7042849 B2 JP 7042849B2 JP 2019568632 A JP2019568632 A JP 2019568632A JP 2019568632 A JP2019568632 A JP 2019568632A JP 7042849 B2 JP7042849 B2 JP 7042849B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- fusion
- face
- feature line
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims description 133
- 238000000034 method Methods 0.000 title claims description 55
- 230000004927 fusion Effects 0.000 claims description 161
- 238000005457 optimization Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000003708 edge detection Methods 0.000 claims description 16
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 8
- 210000000744 eyelid Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2018年4月24日に中国特許局へ提出された、出願番号201810373871.6、出願名称「顔特徴点の測位方法及び装置」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
顔画像に対してエッジ検出を行い、顔特徴線画像を取得することと、
前記顔画像と前記顔特徴線画像とを融合し、顔特徴点の位置情報を取得することと、を含む顔特徴点の測位方法を提供する。
前記顔特徴線画像に対して有効性判別を行い、最適化された顔特徴線画像を取得することを更に含み、
前記顔画像と前記顔特徴線画像とを融合し、顔特徴点の位置情報を取得することは、
前記顔画像と前記最適化された顔特徴線画像とを融合し、顔特徴点の位置情報を取得することを含む。
前記顔画像の特徴線の特徴を抽出し、特徴線画像を取得することと、
前記特徴線画像を最適化し、前記顔特徴線画像を取得することと、を含む。
前記顔画像に対して、畳み込み、残差演算、ダウンサンプリング及び残差演算の操作を順次に実行し、前記特徴線画像を取得することを含む。
前記特徴線画像を少なくとも一つの段階の最適化ネットワークを経させて、前記顔特徴線画像を取得することであって、各段階の前記最適化ネットワークが、残差演算を実現するための砂時計型ネットワーク及び特徴線情報を伝送するための情報伝送層を含むことを含む。
前記顔画像に対して入力画像融合を行い、第1の融合画像を取得することと、
前記第1の融合画像と前記顔特徴線画像に対して少なくとも一つの段階のエッジ画像融合を行い、第2の融合画像を取得することと、
前記第2の融合画像をマッピングし、特徴点の位置ベクトルを取得し、前記位置ベクトルを顔特徴点の位置情報とすることと、を含む。
前記第1の融合画像に対して、畳み込み、ダウンサンプリング及び残差演算を順次に含む最適化処理を行い、最適化された第1の融合画像を取得することを更に含む。
前記顔画像を、個々の事前定義された特徴線画像と画素ごとに乗算し、個々の事前定義された特徴線画像に一対一に対応する複数の境界特徴を取得することと、
複数の前記境界特徴と前記顔画像とを重ね合わせ、第1の融合画像を取得することと、を含む。
前記第1の融合画像と前記顔特徴線画像とを重ね合わせ、第3の融合画像を取得することと、
前記第3の融合画像に対して残差演算を行い、前記顔特徴線画像と同じサイズの第4の融合画像を取得することと、
前記第1の融合画像を前記第4の融合画像を画素ごとに乗算し、第5の融合画像を取得することと、
前記第1の融合画像と前記第5の融合画像とを重ね合わせ、前記第2の融合画像を取得することと、を含む。
前記第2の融合画像に対して、残差演算及び全結合操作を順次に行い、前記特徴点の位置ベクトルを取得することを含む。
顔画像に対してエッジ検出を行い、顔特徴線画像を取得するように構成されるエッジ検出モジュールと、
前記顔画像と前記顔特徴線画像とを融合し、顔特徴点の位置情報を取得するように構成される融合モジュールと、を含む顔特徴点の測位装置を提供する。
前記顔特徴線画像に対して有効性判別を行い、最適化された顔特徴線画像を取得するように構成される判別モジュールを更に含み、
前記融合モジュールは、
前記顔画像と前記最適化された顔特徴線画像とを融合し、顔特徴点の位置情報を取得するように構成される。
前記顔画像の特徴線の特徴を抽出し、特徴線画像を取得するように構成される特徴抽出サブモジュールと、
前記特徴線画像を最適化し、前記顔特徴線画像を取得するように構成される第1の最適化サブモジュールと、を含む。
前記顔画像に対して、畳み込み、残差演算、ダウンサンプリング及び残差演算の操作を順次に実行し、前記特徴線画像を取得するように構成される。
前記特徴線画像を少なくとも一つの段階の最適化ネットワークを経させて、前記顔特徴線画像を取得するように構成され、各段階の前記最適化ネットワークが、残差演算を実現するための砂時計型ネットワーク及び特徴線情報を伝送するための情報伝送層を含む。
前記顔画像に対して入力画像融合を行い、第1の融合画像を取得するように構成される第1の融合サブモジュールと、
前記第1の融合画像と前記顔特徴線画像に対して少なくとも一つの段階のエッジ画像融合を行い、第2の融合画像を取得するように構成される第2の融合サブモジュールと、
前記第2の融合画像をマッピングし、特徴点の位置ベクトルを取得し、前記位置ベクトルを顔特徴点の位置情報とするように構成されるマッピングサブモジュールと、を含む。
前記第1の融合画像に対して、畳み込み、ダウンサンプリング及び残差演算を順次に含む最適化処理を行い、最適化された第1の融合画像を取得するように構成される第2の最適化サブモジュールを更に含む。
前記顔画像を、個々の事前定義された特徴線画像と画素ごとに乗算し、個々の事前定義された特徴線画像に一対一に対応する複数の境界特徴を取得するように構成される第1の乗算ユニットと、
複数の前記境界特徴と前記顔画像とを重ね合わせ、第1の融合画像を取得するように構成される第1の重ね合わせユニットと、を含む。
前記第1の融合画像と前記顔特徴線画像とを重ね合わせ、第3の融合画像を取得するように構成される第2の重ね合わせユニットと、
前記第3の融合画像に対して残差演算を行い、前記顔特徴線画像と同じサイズの第4の融合画像を取得するように構成される残差演算ユニットと、
前記第1の融合画像を前記第4の融合画像を画素ごとに乗算し、第5の融合画像を取得するように構成される第2の乗算ユニットと、
前記第1の融合画像と前記第5の融合画像とを重ね合わせ、前記第2の融合画像を取得するように構成される第3の重ね合わせユニットと、を含む。
各段階の境界融合の結果に対して残差演算を行うように構成される残差演算サブモジュールを更に含む。
前記第2の融合画像に対して、残差演算及び全結合操作を順次に行い、前記特徴点の位置ベクトルを取得するように構成される。
を取得することができる。
式1
ただし、
は顔画像を表し、
は
番目の事前定義された特徴線画像を表し、
は事前定義された特徴線画像の個数を表す。
は
を
と画素ごとに乗算することを表し、
は重ね合わせ操作を表す。
を取得することができる。
式2
ただし、
は第1の融合画像を表し、
は顔特徴線画像を表し、
は第1の融合画像と顔特徴線画像とを重ね合わせることを表し、
は第3の融合画像を表す。
は第3の融合画像に対して残差演算を行うことを表し、
は第4の融合画像を表す。本実施例では、顔特徴線画像
のチャンネル数は、事前定義された特徴線の数に応じて决定されるので、変換構造
によって顔特徴線画像
と第1の融合画像
のチャンネル数と同じにする必要がある。その内に、変換構造
に砂時計型ネットワークを採用することができる。
は第1の融合画像
を第4の融合画像
と画素ごとに乗算することを表し、
は第5の融合画像を表す。
は第1の融合画像
と第5の融合画像
とを重ね合わせることを表す。
Claims (13)
- 顔画像に対してエッジ検出を行い、顔特徴線画像を取得することと、
前記顔画像と前記顔特徴線画像とを融合し、顔特徴点の位置情報を取得することと、を含み、
前記顔画像と前記顔特徴線画像とを融合し、顔特徴点の位置情報を取得することは、
前記顔画像に対して入力画像融合を行い、第1の融合画像を取得することと、
前記第1の融合画像と前記顔特徴線画像に対して少なくとも一つの段階のエッジ画像融合を行い、第2の融合画像を取得することと、
前記第2の融合画像をマッピングし、特徴点の位置ベクトルを取得し、前記位置ベクトルを顔特徴点の位置情報とすることと、を含むことを特徴とする、
顔特徴点の測位方法。 - 前記顔画像と前記顔特徴線画像を融合する前に、
前記顔特徴線画像に対して有効性判別を行い、最適化された顔特徴線画像を取得することを更に含み、
前記顔画像と前記顔特徴線画像とを融合し、顔特徴点の位置情報を取得することは、
前記顔画像と前記最適化された顔特徴線画像とを融合し、顔特徴点の位置情報を取得することを含むことを特徴とする請求項1に記載の方法。 - 前記顔画像に対してエッジ検出を行い、顔特徴線画像を取得することは、
前記顔画像の特徴線の特徴を抽出し、特徴線画像を取得することと、
前記特徴線画像を最適化し、前記顔特徴線画像を取得することと、を含むことを特徴とする請求項1に記載の方法。 - 前記顔画像の特徴線の特徴を抽出し、特徴線画像を取得することは、
前記顔画像に対して、畳み込み、残差演算、ダウンサンプリング及び残差演算の操作を順次に実行し、前記特徴線画像を取得することを含むことを特徴とする請求項3に記載の方法。 - 前記特徴線画像を最適化し、前記顔特徴線画像を取得することは、
前記特徴線画像を少なくとも一つの段階の最適化ネットワークを経させて、前記顔特徴線画像を取得することであって、各段階の前記最適化ネットワークが、残差演算を実現するための砂時計型ネットワーク及び特徴線情報を伝送するための情報伝送層を含むことを含むことを特徴とする請求項3に記載の方法。 - 前記第1の融合画像と前記顔特徴線画像に対して少なくとも一つの段階のエッジ画像融合を行う前に、
前記第1の融合画像に対して、畳み込み、ダウンサンプリング及び残差演算を順次に含む最適化処理を行い、最適化された第1の融合画像を取得することを更に含むことを特徴とする請求項1に記載の方法。 - 前記顔画像に対して入力画像融合を行い、第1の融合画像を取得することは、
前記顔画像を、個々の事前定義された特徴線画像と画素ごとに乗算し、個々の事前定義された特徴線画像に一対一に対応する複数の境界特徴を取得することと、
複数の前記境界特徴と前記顔画像とを重ね合わせ、第1の融合画像を取得することと、を含むことを特徴とする請求項1に記載の方法。 - 前記第1の融合画像と前記顔特徴線画像に対して少なくとも一つの段階のエッジ画像融合を行い、第2の融合画像を取得することは、
前記第1の融合画像と前記顔特徴線画像とを重ね合わせ、第3の融合画像を取得することと、
前記第3の融合画像に対して残差演算を行い、前記顔特徴線画像と同じサイズの第4の融合画像を取得することと、
前記第1の融合画像を前記第4の融合画像を画素ごとに乗算し、第5の融合画像を取得することと、
前記第1の融合画像と前記第5の融合画像とを重ね合わせ、前記第2の融合画像を取得することと、を含むことを特徴とする請求項1に記載の方法。 - 各段階の前記エッジ画像融合の間に、各段階の境界融合の結果に対して残差演算を行うことを更に含むことを特徴とする請求項1に記載の方法。
- 前記第2の融合画像をマッピングし、特徴点の位置ベクトルを取得することは、
前記第2の融合画像に対して、残差演算及び全結合操作を順次に行い、前記特徴点の位置ベクトルを取得することを含むことを特徴とする請求項1に記載の方法。 - 請求項1~10のいずれか1項に記載の顔特徴点の測位方法を実行するように構成されることを特徴とする顔特徴点の測位装置。
- プロセッサーと、
プロセッサーが実行可能なコマンドを記憶するように構成されるメモリと、を含み、
前記プロセッサーが請求項1~10のいずれか1項に記載の方法を実行するように配置される電子デバイス。 - コンピュータープログラムコマンドが記憶されたコンピューター可読記憶媒体であって、
プロセッサーによって前記コンピュータープログラムコマンドを実行する時に請求項1~10のいずれか1項に記載の方法を実現するコンピューター可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810373871.6 | 2018-04-24 | ||
CN201810373871.6A CN108596093B (zh) | 2018-04-24 | 2018-04-24 | 人脸特征点的定位方法及装置 |
PCT/CN2018/116779 WO2019205605A1 (zh) | 2018-04-24 | 2018-11-21 | 人脸特征点的定位方法及装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020523694A JP2020523694A (ja) | 2020-08-06 |
JP2020523694A5 JP2020523694A5 (ja) | 2020-09-17 |
JP7042849B2 true JP7042849B2 (ja) | 2022-03-28 |
Family
ID=63614398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019568632A Active JP7042849B2 (ja) | 2018-04-24 | 2018-11-21 | 顔特徴点の測位方法及び装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11314965B2 (ja) |
JP (1) | JP7042849B2 (ja) |
KR (1) | KR102334279B1 (ja) |
CN (1) | CN108596093B (ja) |
MY (1) | MY201922A (ja) |
SG (1) | SG11201912428TA (ja) |
WO (1) | WO2019205605A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596093B (zh) | 2018-04-24 | 2021-12-03 | 北京市商汤科技开发有限公司 | 人脸特征点的定位方法及装置 |
CN109285182A (zh) * | 2018-09-29 | 2019-01-29 | 北京三快在线科技有限公司 | 模型生成方法、装置、电子设备和计算机可读存储介质 |
CN109522910B (zh) * | 2018-12-25 | 2020-12-11 | 浙江商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN109461188B (zh) * | 2019-01-30 | 2019-04-26 | 南京邮电大学 | 一种二维x射线头影测量图像解剖特征点自动定位方法 |
CN111553865B (zh) * | 2020-04-30 | 2023-08-22 | 深圳市商汤科技有限公司 | 图像修复方法及装置、电子设备和存储介质 |
CN115564837B (zh) * | 2022-11-17 | 2023-04-18 | 歌尔股份有限公司 | 一种视觉定位方法、装置和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146356A (ja) | 2006-12-11 | 2008-06-26 | Nissan Motor Co Ltd | 視線方向推定装置及び視線方向推定方法 |
JP2009265774A (ja) | 2008-04-22 | 2009-11-12 | Canon Inc | 情報処理装置及び情報処理方法 |
US20160283780A1 (en) | 2015-03-25 | 2016-09-29 | Alibaba Group Holding Limited | Positioning feature points of human face edge |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4217664B2 (ja) * | 2004-06-28 | 2009-02-04 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
US8620038B2 (en) * | 2006-05-05 | 2013-12-31 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
JP5202037B2 (ja) | 2008-02-29 | 2013-06-05 | キヤノン株式会社 | 特徴点位置決定方法及び装置 |
CN103679158B (zh) * | 2013-12-31 | 2017-06-16 | 北京天诚盛业科技有限公司 | 人脸认证方法和装置 |
US10198624B2 (en) * | 2016-02-18 | 2019-02-05 | Pinscreen, Inc. | Segmentation-guided real-time facial performance capture |
KR101785661B1 (ko) * | 2016-12-06 | 2017-10-17 | 인천대학교 산학협력단 | 회색 값 분산을 이용한 얼굴 윤곽 인식방법 및 그 장치 |
WO2018144537A1 (en) * | 2017-01-31 | 2018-08-09 | The Regents Of The University Of California | Machine learning based driver assistance |
CN106951840A (zh) * | 2017-03-09 | 2017-07-14 | 北京工业大学 | 一种人脸特征点检测方法 |
CN107832741A (zh) * | 2017-11-28 | 2018-03-23 | 北京小米移动软件有限公司 | 人脸特征点定位的方法、装置及计算机可读存储介质 |
CN108596093B (zh) * | 2018-04-24 | 2021-12-03 | 北京市商汤科技开发有限公司 | 人脸特征点的定位方法及装置 |
-
2018
- 2018-04-24 CN CN201810373871.6A patent/CN108596093B/zh active Active
- 2018-11-21 WO PCT/CN2018/116779 patent/WO2019205605A1/zh active Application Filing
- 2018-11-21 KR KR1020197037564A patent/KR102334279B1/ko active IP Right Grant
- 2018-11-21 SG SG11201912428TA patent/SG11201912428TA/en unknown
- 2018-11-21 MY MYPI2019007719A patent/MY201922A/en unknown
- 2018-11-21 JP JP2019568632A patent/JP7042849B2/ja active Active
-
2019
- 2019-12-19 US US16/720,124 patent/US11314965B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146356A (ja) | 2006-12-11 | 2008-06-26 | Nissan Motor Co Ltd | 視線方向推定装置及び視線方向推定方法 |
JP2009265774A (ja) | 2008-04-22 | 2009-11-12 | Canon Inc | 情報処理装置及び情報処理方法 |
US20160283780A1 (en) | 2015-03-25 | 2016-09-29 | Alibaba Group Holding Limited | Positioning feature points of human face edge |
Also Published As
Publication number | Publication date |
---|---|
CN108596093B (zh) | 2021-12-03 |
KR20200010397A (ko) | 2020-01-30 |
JP2020523694A (ja) | 2020-08-06 |
SG11201912428TA (en) | 2020-01-30 |
KR102334279B1 (ko) | 2021-12-02 |
MY201922A (en) | 2024-03-23 |
WO2019205605A1 (zh) | 2019-10-31 |
CN108596093A (zh) | 2018-09-28 |
US20200125833A1 (en) | 2020-04-23 |
US11314965B2 (en) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7042849B2 (ja) | 顔特徴点の測位方法及び装置 | |
US20210326587A1 (en) | Human face and hand association detecting method and a device, and storage medium | |
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
US10930010B2 (en) | Method and apparatus for detecting living body, system, electronic device, and storage medium | |
CN108764069B (zh) | 活体检测方法及装置 | |
CN109257645B (zh) | 视频封面生成方法及装置 | |
CN107692997B (zh) | 心率检测方法及装置 | |
CN110503689B (zh) | 位姿预测方法、模型训练方法及装置 | |
KR20210047336A (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
JP2021519051A (ja) | ビデオ修復方法および装置、電子機器、ならびに記憶媒体 | |
EP3147819A1 (en) | Method and device for fingerprint image alignment | |
EP3038345A1 (en) | Auto-focusing method and auto-focusing device | |
US11455836B2 (en) | Dynamic motion detection method and apparatus, and storage medium | |
CN111104920A (zh) | 视频处理方法及装置、电子设备和存储介质 | |
EP3528245A1 (en) | User identification method and apparatus based on acoustic features | |
EP2990905A1 (en) | Method and device for displaying image | |
JP7387002B2 (ja) | 測位方法、装置、電子機器、記憶媒体、プログラム及び製品 | |
CN110989884A (zh) | 图像定位的操作显示方法及装置、电子设备和存储介质 | |
CN111325786B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
AU2020309091B2 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN110333903B (zh) | 页面加载时长的确定方法及装置 | |
CN114550261A (zh) | 人脸识别方法及装置、电子设备和存储介质 | |
KR102374400B1 (ko) | 이미지 처리 방법 및 장치, 전자 기기와 저장 매체 | |
CN114333185A (zh) | 支付方法及装置、电子设备和存储介质 | |
CN110969569A (zh) | 试镜视频的生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220118 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220127 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042849 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |