JP2020527792A - 目標物認識方法、装置、記憶媒体および電子機器 - Google Patents
目標物認識方法、装置、記憶媒体および電子機器 Download PDFInfo
- Publication number
- JP2020527792A JP2020527792A JP2020500847A JP2020500847A JP2020527792A JP 2020527792 A JP2020527792 A JP 2020527792A JP 2020500847 A JP2020500847 A JP 2020500847A JP 2020500847 A JP2020500847 A JP 2020500847A JP 2020527792 A JP2020527792 A JP 2020527792A
- Authority
- JP
- Japan
- Prior art keywords
- target
- prediction information
- key point
- image
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000001514 detection method Methods 0.000 claims description 125
- 238000004891 communication Methods 0.000 claims description 23
- 230000004927 fusion Effects 0.000 claims description 19
- 238000003062 neural network model Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 239000011885 synergistic combination Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 6
- 238000011156 evaluation Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 238000003703 image analysis method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013441 quality evaluation Methods 0.000 description 3
- 230000002195 synergetic effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001094 effect on targets Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は2017年11月23日に出願された、出願番号201711181299.5の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
前記目標物予測情報と、前記キーポイント予測情報と正規化された顔ピッチ角とを相乗し、前記対象の総合予測情報を得る動作、
または、
前記目標物予測情報と、前記キーポイント予測情報と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得る動作、
または、
前記目標物予測情報と、前記キーポイント予測情報と、正規化された顔ピッチ角と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得る動作、の一つによって前記対象の総合予測情報を得る。
検出待ち画像における対象の目標物検出を行い、検出された対象が目標物であるという信頼情報としての前記対象の目標物予測情報を得るように構成された対象検出モジュール510と、
前記検出待ち画像における前記対象のキーポイント検出を行い、検出された対象のキーポイントが目標物のキーポイントであるという信頼情報としての前記対象のキーポイント予測情報を得るように構成されたキーポイント検出モジュール520と、
対象検出モジュール510が得た目標物予測情報とキーポイント検出モジュール520が得たキーポイント予測情報を融合し、前記対象の総合予測情報を得るように構成された予測情報融合モジュール530と、
前記予測情報融合モジュールが得た総合予測情報に基づいて前記目標物を認識するように構成された対象認識モジュール540と、を含む。
複数の前記映像フレーム画像から目標物を認識した結果に基づき、前記目標物を追跡するように構成された対象追跡モジュール570、
または、
複数の前記映像フレーム画像の各々のために得られた総合予測情報に基づき、複数の前記映像フレーム画像から総合予測の品質が最も高い映像フレーム画像をスナップ撮影画像として選択するように構成されたスナップ撮影画像選択モジュール580、
または、
複数の前記映像フレーム画像の各々のために得られた総合予測情報に基づき、複数の前記映像フレーム画像から所定数の映像フレーム画像を選択し、選択した映像フレーム画像の特徴融合を行うように構成された特徴融合モジュール590を含む。
適切な指数関数によって前記顔ピッチ角および/または顔振り角を正規化処理し、そして前記目標物予測情報と、前記キーポイント予測情報と正規化された顔ピッチ角とを相乗し、前記対象の総合予測情報を得るように、
または、
前記目標物予測情報と、前記キーポイント予測情報と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得るように、
または、
前記目標物予測情報と、前記キーポイント予測情報と、正規化された顔ピッチ角と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得るように、構成される。
Claims (19)
- 検出待ち画像における対象の目標物検出を行い、検出された対象が目標物であるという信頼情報としての前記対象の目標物予測情報を得ることと、
前記検出待ち画像における前記対象のキーポイント検出を行い、検出された対象のキーポイントが目標物のキーポイントであるという信頼情報としての前記対象のキーポイント予測情報を得ることと、
前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得ることと、
前記総合予測情報に基づいて前記目標物を認識することと、を含む、目標物認識方法。 - 前記検出待ち画像における対象の目標物検出、および前記検出待ち画像における前記対象のキーポイント検出を行う前に、
前記検出待ち画像における対象に対応する画像領域を取得することを含み、
前記検出待ち画像における対象の目標物検出を行うことは、
前記検出待ち画像における対象に対応する画像領域の目標物検出を行うことを含み、
前記検出待ち画像における対象のキーポイント検出を行うことは、
前記検出待ち画像における対象に対応する画像領域のキーポイント検出を行うことを含む、請求項1に記載の方法。 - 前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得ることは、
前記目標物予測情報と前記キーポイント予測情報を乗算し、前記対象の総合予測情報を得ることを含む、請求項1または2に記載の方法。 - 前記検出待ち画像における前記対象のキーポイント検出を行い、前記対象のキーポイント予測情報を得ることは、
キーポイントを位置特定するニューラルネットワークモデルにより、前記検出待ち画像における対象のキーポイント検出を行い、前記対象のキーポイント予測情報を得ることを含む、請求項1から3のいずれか一項に記載の方法。 - 前記検出待ち画像における対象に対応する画像領域を取得する前記ステップの後、前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得る前に、さらに
前記画像領域から、前記対象のヨー角情報を検出することを含み、
前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得ることは、
前記目標物予測情報に基づき、前記キーポイント予測情報と前記ヨー角情報を融合し、前記対象の総合予測情報を得ることを含む、請求項2から4のいずれか一項に記載の方法。 - 前記画像領域から、前記対象のヨー角情報を検出することは、
対象を分類するニューラルネットワークモデルにより、前記画像領域から前記対象のヨー角情報を検出することを含む、請求項5に記載の方法。 - 前記目標物は顔であり、
前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得る前に、さらに、
前記画像領域から、顔ピッチ角および/または顔振り角を検出することを含み、
前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得ることは、
適切な指数関数によって前記顔ピッチ角および/または顔振り角を正規化処理することと、前記目標物予測情報と、前記キーポイント予測情報と正規化された顔ピッチ角とを相乗し、前記対象の総合予測情報を得ることと、
または、
前記目標物予測情報と、前記キーポイント予測情報と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得ることと、
または、
前記目標物予測情報と、前記キーポイント予測情報と、正規化された顔ピッチ角と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得ることと、を含む、請求項1から6のいずれか一項に記載の方法。 - 前記検出待ち画像は映像フレーム画像であり、
前記総合予測情報に基づいて前記目標物を認識した後に、さらに、
複数の前記映像フレーム画像から目標物を認識した結果に基づき、前記目標物を追跡すること、
または、
複数の前記映像フレーム画像の各々のために得られた総合予測情報に基づき、複数の前記映像フレーム画像から総合予測の品質が最も高い映像フレーム画像をスナップ撮影画像として選択すること、
または、
複数の前記映像フレーム画像の各々のために得られた総合予測情報に基づき、複数の前記映像フレーム画像から所定数の映像フレーム画像を選択し、選択した映像フレーム画像の特徴融合を行うこと、を含む、請求項1から7のいずれか一項に記載の方法。 - 検出待ち画像における対象の目標物検出を行い、検出された対象が目標物であるという信頼情報としての前記対象の目標物予測情報を得るように構成された対象検出モジュールと、
前記検出待ち画像における前記対象のキーポイント検出を行い、検出された対象のキーポイントが目標物のキーポイントであるという信頼情報としての前記対象のキーポイント予測情報を得るように構成されたキーポイント検出モジュールと、
前記対象検出モジュールが得た目標物予測情報と前記キーポイント検出モジュールが得たキーポイント予測情報を融合し、前記対象の総合予測情報を得るように構成された予測情報融合モジュールと、
前記予測情報融合モジュールが得た総合予測情報に基づいて前記目標物を認識するように構成された対象認識モジュールと、を含む、目標物認識装置。 - さらに、
前記検出待ち画像における対象に対応する画像領域を取得するように構成された画像領域取得モジュールと、
前記画像領域取得モジュールが取得した検出待ち画像における対象に対応する画像領域の目標物検出を行うように構成された前記対象検出モジュールと、
前記画像領域取得モジュールが取得した検出待ち画像の対象に対応する画像領域のキーポイント検出を行うように構成された前記キーポイント検出モジュールと、を含む、請求項9に記載の装置。 - 前記予測情報融合モジュールは、前記目標物予測情報と前記キーポイント予測情報を乗算し、前記対象の総合予測情報を得るように構成される、請求項9または10に記載の装置。
- 前記キーポイント検出モジュールは、キーポイントを位置特定するニューラルネットワークモデルにより、前記検出待ち画像における対象のキーポイント検出を行い、前記対象のキーポイント予測情報を得るように構成される、請求項9から11のいずれか一項に記載の装置。
- 前記検出待ち画像における対象に対応する画像領域を取得する前記ステップの後、前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得る前に、さらに、
前記画像領域取得モジュールが取得した画像領域から、前記対象のヨー角情報を検出するように構成されたヨー角検出モジュールと、
前記目標物予測情報に基づき、前記キーポイント予測情報と前記ヨー角情報を融合し、前記対象の総合予測情報を得るように構成された前記予測情報融合モジュールと、を含む、請求項10から12のいずれか一項に記載の装置。 - 前記ヨー角検出モジュールは対象を分類するニューラルネットワークモデルにより、前記画像領域から前記対象のヨー角情報を検出するように構成される、請求項13に記載の装置。
- 前記目標物は顔であり、
前記目標物予測情報と前記キーポイント予測情報を融合し、前記対象の総合予測情報を得る前に、さらに、
前記画像領域から、顔ピッチ角および/または顔振り角を検出するように構成された顔ヨー角検出モジュールを含み、
前記予測情報融合モジュールは、適切な指数関数によって前記顔ピッチ角および/または顔振り角を正規化処理し、そして前記目標物予測情報と、前記キーポイント予測情報と正規化された顔ピッチ角とを相乗し、前記対象の総合予測情報を得るように、
または、
前記目標物予測情報と、前記キーポイント予測情報と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得るように、
または、
前記目標物予測情報と、前記キーポイント予測情報と、正規化された顔ピッチ角と正規化された顔振り角とを相乗し、前記対象の総合予測情報を得るように、構成される、請求項9から14のいずれか一項に記載の装置。 - 前記検出待ち画像は映像フレーム画像であり、
前記総合予測情報に基づいて前記目標物を認識した後に、さらに、
複数の前記映像フレーム画像から目標物を認識した結果に基づき、前記目標物を追跡するように構成された対象追跡モジュール、
または、
複数の前記映像フレーム画像の各々のために得られた総合予測情報に基づき、複数の前記映像フレーム画像から総合予測の品質が最も高い映像フレーム画像をスナップ撮影画像として選択するように構成されたスナップ撮影画像選択モジュール、
または、
複数の前記映像フレーム画像の各々のために得られた総合予測情報に基づき、複数の前記映像フレーム画像から所定数の映像フレーム画像を選択し、選択した映像フレーム画像の特徴融合を行うように構成された特徴融合モジュールを含む、請求項9から15のいずれか一項に記載の装置。 - プロセッサ、メモリ、通信要素および通信バスを含み、前記プロセッサ、前記メモリおよび前記通信要素は前記通信バスによって互いに通信し、
前記メモリは前記プロセッサに請求項1から8のいずれか一項に記載の目標物認識方法に対応する動作を実行させる少なくとも一つの実行可能命令を記憶するように構成される、電子機器。 - コンピュータプログラム命令が記憶されているコンピュータ読み取り可能記憶媒体であって、前記プログラム命令はプロセッサに実行される時に請求項1から8のいずれか一項に記載の目標物認識方法のステップを実現する、コンピュータ読み取り可能記憶媒体。
- コンピュータプログラム命令を含むコンピュータプログラムであって、前記プログラム命令はプロセッサに実行される時に請求項1から8のいずれか一項に記載の目標物認識方法のステップを実現する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711181299.5A CN108229308A (zh) | 2017-11-23 | 2017-11-23 | 目标对象识别方法、装置、存储介质和电子设备 |
CN201711181299.5 | 2017-11-23 | ||
PCT/CN2018/111513 WO2019100888A1 (zh) | 2017-11-23 | 2018-10-23 | 目标对象识别方法、装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020527792A true JP2020527792A (ja) | 2020-09-10 |
JP6994101B2 JP6994101B2 (ja) | 2022-01-14 |
Family
ID=62652693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020500847A Active JP6994101B2 (ja) | 2017-11-23 | 2018-10-23 | 目標物認識方法、装置、記憶媒体および電子機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11182592B2 (ja) |
JP (1) | JP6994101B2 (ja) |
KR (1) | KR20200015728A (ja) |
CN (1) | CN108229308A (ja) |
SG (1) | SG11202000076WA (ja) |
WO (1) | WO2019100888A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022130616A1 (ja) * | 2020-12-18 | 2022-06-23 | 富士通株式会社 | 認証方法、情報処理装置、及び認証プログラム |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN108229308A (zh) | 2017-11-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标对象识别方法、装置、存储介质和电子设备 |
CN109101901B (zh) * | 2018-07-23 | 2020-10-27 | 北京旷视科技有限公司 | 人体动作识别及其神经网络生成方法、装置和电子设备 |
TWI751381B (zh) * | 2018-09-26 | 2022-01-01 | 宏碁股份有限公司 | 機器視覺的效能評估方法與系統 |
CN109448007B (zh) * | 2018-11-02 | 2020-10-09 | 北京迈格威科技有限公司 | 图像处理方法、图像处理装置及存储介质 |
CN111274852B (zh) * | 2018-12-05 | 2023-10-31 | 北京猎户星空科技有限公司 | 目标对象关键点检测方法和装置 |
CN109800680A (zh) * | 2018-12-29 | 2019-05-24 | 上海依图网络科技有限公司 | 一种确定视频中的对象的方法及装置 |
CN110660102B (zh) * | 2019-06-17 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 基于人工智能的说话人识别方法及装置、系统 |
CN110532891B (zh) * | 2019-08-05 | 2022-04-05 | 北京地平线机器人技术研发有限公司 | 目标对象状态识别方法、装置、介质和设备 |
CN110705448B (zh) * | 2019-09-27 | 2023-01-20 | 北京市商汤科技开发有限公司 | 一种人体检测方法及装置 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
CN111105442B (zh) * | 2019-12-23 | 2022-07-15 | 中国科学技术大学 | 切换式目标跟踪方法 |
CN111079717B (zh) * | 2020-01-09 | 2022-02-22 | 西安理工大学 | 一种基于强化学习的人脸识别方法 |
CN113362351A (zh) * | 2020-03-05 | 2021-09-07 | 阿里巴巴集团控股有限公司 | 一种图像处理方法、装置、电子设备以及存储介质 |
CN111507244B (zh) * | 2020-04-15 | 2023-12-08 | 阳光保险集团股份有限公司 | Bmi检测方法、装置以及电子设备 |
CN112612434A (zh) * | 2020-12-16 | 2021-04-06 | 杭州当虹科技股份有限公司 | 一种基于ai技术视频竖屏解决方法 |
CN113657155A (zh) * | 2021-07-09 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种行为检测方法、装置、计算机设备和存储介质 |
CN113505763B (zh) * | 2021-09-09 | 2022-02-01 | 北京爱笔科技有限公司 | 关键点检测方法、装置、电子设备及存储介质 |
CN114220063B (zh) * | 2021-11-17 | 2023-04-07 | 浙江大华技术股份有限公司 | 目标检测方法及装置 |
CN115631525B (zh) * | 2022-10-26 | 2023-06-23 | 万才科技(杭州)有限公司 | 基于人脸边缘点识别的保险即时匹配方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008131405A (ja) * | 2006-11-21 | 2008-06-05 | Sony Corp | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
JP2008257425A (ja) * | 2007-04-04 | 2008-10-23 | Sony Corp | 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム |
JP2008310775A (ja) * | 2007-06-18 | 2008-12-25 | Canon Inc | 表情認識装置及び方法、並びに撮像装置 |
US20100020224A1 (en) * | 2008-07-24 | 2010-01-28 | Canon Kabushiki Kaisha | Method for selecting desirable images from among a plurality of images and apparatus thereof |
WO2012109712A1 (en) * | 2011-02-18 | 2012-08-23 | National Ict Australia Limited | Image quality assessment |
WO2013122009A1 (ja) * | 2012-02-16 | 2013-08-22 | 日本電気株式会社 | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム |
JP2014178862A (ja) * | 2013-03-14 | 2014-09-25 | Secom Co Ltd | 特徴点抽出装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6049448B2 (ja) | 2012-12-27 | 2016-12-21 | キヤノン株式会社 | 被写体領域追跡装置、その制御方法及びプログラム |
WO2014205768A1 (zh) * | 2013-06-28 | 2014-12-31 | 中国科学院自动化研究所 | 基于增量主成分分析的特征与模型互匹配人脸跟踪方法 |
KR101612605B1 (ko) | 2014-05-07 | 2016-04-14 | 포항공과대학교 산학협력단 | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 |
KR102225623B1 (ko) * | 2014-09-18 | 2021-03-12 | 한화테크윈 주식회사 | 키포인트 기술자 매칭 및 다수결 기법 기반 얼굴 인식 시스템 및 방법 |
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
CN105205486B (zh) * | 2015-09-15 | 2018-12-07 | 浙江宇视科技有限公司 | 一种车标识别方法及装置 |
CN105631439B (zh) * | 2016-02-18 | 2019-11-08 | 北京旷视科技有限公司 | 人脸图像处理方法和装置 |
CN106295567B (zh) * | 2016-08-10 | 2019-04-12 | 腾讯科技(深圳)有限公司 | 一种关键点的定位方法及终端 |
CN106485230B (zh) * | 2016-10-18 | 2019-10-25 | 中国科学院重庆绿色智能技术研究院 | 基于神经网络的人脸检测模型的训练、人脸检测方法及系统 |
CN106778585B (zh) * | 2016-12-08 | 2019-04-16 | 腾讯科技(上海)有限公司 | 一种人脸关键点跟踪方法和装置 |
CN106815566B (zh) * | 2016-12-29 | 2021-04-16 | 天津中科智能识别产业技术研究院有限公司 | 一种基于多任务卷积神经网络的人脸检索方法 |
WO2018153267A1 (zh) * | 2017-02-24 | 2018-08-30 | 腾讯科技(深圳)有限公司 | 群组视频会话的方法及网络设备 |
CN107273845B (zh) * | 2017-06-12 | 2020-10-02 | 大连海事大学 | 一种基于置信区域和多特征加权融合的人脸表情识别方法 |
WO2019000462A1 (zh) * | 2017-06-30 | 2019-01-03 | 广东欧珀移动通信有限公司 | 人脸图像处理方法、装置、存储介质及电子设备 |
CN108229308A (zh) * | 2017-11-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标对象识别方法、装置、存储介质和电子设备 |
-
2017
- 2017-11-23 CN CN201711181299.5A patent/CN108229308A/zh active Pending
-
2018
- 2018-10-23 JP JP2020500847A patent/JP6994101B2/ja active Active
- 2018-10-23 SG SG11202000076WA patent/SG11202000076WA/en unknown
- 2018-10-23 WO PCT/CN2018/111513 patent/WO2019100888A1/zh active Application Filing
- 2018-10-23 KR KR1020207000574A patent/KR20200015728A/ko not_active Application Discontinuation
-
2020
- 2020-01-05 US US16/734,336 patent/US11182592B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008131405A (ja) * | 2006-11-21 | 2008-06-05 | Sony Corp | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
JP2008257425A (ja) * | 2007-04-04 | 2008-10-23 | Sony Corp | 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム |
JP2008310775A (ja) * | 2007-06-18 | 2008-12-25 | Canon Inc | 表情認識装置及び方法、並びに撮像装置 |
US20100020224A1 (en) * | 2008-07-24 | 2010-01-28 | Canon Kabushiki Kaisha | Method for selecting desirable images from among a plurality of images and apparatus thereof |
WO2012109712A1 (en) * | 2011-02-18 | 2012-08-23 | National Ict Australia Limited | Image quality assessment |
JP2014505952A (ja) * | 2011-02-18 | 2014-03-06 | ナショナル・アイシーティ・オーストラリア・リミテッド | 画像品質の評価 |
WO2013122009A1 (ja) * | 2012-02-16 | 2013-08-22 | 日本電気株式会社 | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム |
JP2014178862A (ja) * | 2013-03-14 | 2014-09-25 | Secom Co Ltd | 特徴点抽出装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022130616A1 (ja) * | 2020-12-18 | 2022-06-23 | 富士通株式会社 | 認証方法、情報処理装置、及び認証プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200143146A1 (en) | 2020-05-07 |
JP6994101B2 (ja) | 2022-01-14 |
WO2019100888A1 (zh) | 2019-05-31 |
US11182592B2 (en) | 2021-11-23 |
CN108229308A (zh) | 2018-06-29 |
SG11202000076WA (en) | 2020-02-27 |
KR20200015728A (ko) | 2020-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6994101B2 (ja) | 目標物認識方法、装置、記憶媒体および電子機器 | |
US11650659B2 (en) | User input processing with eye tracking | |
US11259718B1 (en) | Systems and methods for automated body mass index calculation to determine value | |
CN111046959A (zh) | 模型训练方法、装置、设备和存储介质 | |
WO2019020103A1 (zh) | 目标识别方法、装置、存储介质和电子设备 | |
JP2017033547A (ja) | 情報処理装置及びその制御方法及びプログラム | |
CN109145752B (zh) | 用于评估对象检测和跟踪算法的方法、装置、设备和介质 | |
JP2018124689A (ja) | 移動物体検出装置、移動物体検出システム、及び移動物体検出方法 | |
CN111666915A (zh) | 监控方法、装置、设备以及存储介质 | |
CN109298783B (zh) | 基于表情识别的标注监控方法、装置及电子设备 | |
US20240104769A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
US20190266392A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2021089778A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US9378409B2 (en) | Eye searching method and eye state detection apparatus and eye searching apparatus using the same | |
US10997398B2 (en) | Information processing apparatus, authentication system, method of controlling same, and medium | |
US11314968B2 (en) | Information processing apparatus, control method, and program | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
Bâce et al. | Accurate and robust eye contact detection during everyday mobile device interactions | |
KR20200017576A (ko) | 심층신경망 기반 객체 검출 장치 및 방법 | |
CN117333904B (zh) | 一种多特征融合的行人跟踪方法 | |
AU2021290428A1 (en) | Target detection method and apparatus, electronic device, and computer storage medium | |
CN114998997A (zh) | 动作检测方法和动作检测模型的训练方法及相关装置 | |
CN116740753A (zh) | 一种基于改进YOLOv5和DeepSORT的目标检测及追踪的方法及系统 | |
Malmgren | Visual Vehicle Identification Using Modern Smart Glasses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6994101 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |