JP2021149961A - 情報処理方法及び情報処理装置 - Google Patents
情報処理方法及び情報処理装置 Download PDFInfo
- Publication number
- JP2021149961A JP2021149961A JP2021030696A JP2021030696A JP2021149961A JP 2021149961 A JP2021149961 A JP 2021149961A JP 2021030696 A JP2021030696 A JP 2021030696A JP 2021030696 A JP2021030696 A JP 2021030696A JP 2021149961 A JP2021149961 A JP 2021149961A
- Authority
- JP
- Japan
- Prior art keywords
- mask
- face
- image
- face image
- wearing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012545 processing Methods 0.000 title description 8
- 238000013528 artificial neural network Methods 0.000 claims abstract description 104
- 238000012549 training Methods 0.000 claims abstract description 80
- 208000032443 Masked facies Diseases 0.000 claims description 31
- 230000010365 information processing Effects 0.000 claims description 28
- 238000003672 processing method Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012790 confirmation Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (17)
- 顔画像を取得し、且つ前記顔画像に含まれる顔のキーポイントの座標を取得し、ここで、前記顔画像に含まれる顔にはマスクを着用しないことと、
マスク画像を取得し、且つ前記キーポイントの座標に基づいて、前記マスク画像を前記顔画像に結合することにより、マスク着用顔を含むマスク着用顔画像を生成し、ここで、前記マスク画像は、マスク画像セットに属し、前記マスク画像セットには、少なくとも1種類のマスク画像が含まれ、異なる種類のマスク画像に含まれるマスクは異なることと、
前記マスク着用顔画像を、ディープニューラルネットワークを訓練するためのサンプルと確定し、ここで、前記ディープニューラルネットワークは、顔を検出するために使用されることと、
を含む情報処理方法。 - ターゲット顔画像を取得し、且つ前記マスク画像セットからターゲットマスク画像を取得することと、
前記ターゲットマスク画像を、前記ターゲット顔画像における顔以外の領域に結合することにより、結合結果を得ることと、
前記結合結果を、前記ディープニューラルネットワークを訓練するための別のサンプルと確定することと、
をさらに含む請求項1に記載の方法。 - 前記ディープニューラルネットワークの訓練ステップは、
顔画像サンプルを取得し、前記顔画像サンプルを訓練待ちのディープニューラルネットワークに入力することと、
前記訓練待ちのディープニューラルネットワークを用いて、前記顔画像サンプルがマスク着用顔を含むかどうかを予測することにより、第1の予測結果を得ることと、
前記第1の予測結果、前記顔画像サンプルがマスク着用顔を含むかどうかの参照結果、およびプリセット損失関数に基づいて、前記第1の予測結果に対応する損失値を確定することと、
前記損失値に基づいて、前記訓練待ちのディープニューラルネットワークを訓練することにより、訓練された後のディープニューラルネットワークを得ることと、
を含む、
請求項1に記載の方法。 - 前記訓練ステップは、
前記訓練待ちのディープニューラルネットワークを用いて、前記顔画像サンプルに含まれる顔の位置を予測することにより、第2の予測結果を得ることをさらに含み、
前記前記訓練待ちのディープニューラルネットワークを用いて、前記顔画像サンプルがマスク着用顔を含むかどうかを予測することは、
前記訓練待ちのディープニューラルネットワークを用いて、前記位置におけるオブジェクトがマスクを着用した顔であるかどうかを予測することにより、前記第1の予測結果を得ることを含む、
請求項3に記載の方法。 - 前記マスク着用顔画像を生成することの後、
前記マスク着用顔画像に含まれるマスクの位置を調整することにより、調整された後のマスク着用顔画像を得て、ここで、前記マスクの位置は、縦位置を含むことをさらに含む、
請求項1に記載の方法。 - 前記前記キーポイントの座標に基づいて、前記マスク画像を前記顔画像に結合することにより、マスク着用顔を含むマスク着用顔画像を生成することは、
前記マスク画像における指定点と顔のキーポイントの座標との間の第1のプリセット対応関係、および取得されたキーポイントの座標に基づいて、前記マスク画像のサイズを更新することにより、更新された後のマスク画像のサイズを取得された顔画像における顔のサイズに合致させ、ここで、前記第1のプリセット対応関係においてキーポイントの座標は、顔エッジのキーポイントの座標を含むことと、
更新された後のマスク画像を前記顔画像に結合することにより、更新された後のマスク画像の少なくとも2つの指定点のうちの各指定点を、前記顔画像における当該指定点に対応するキーポイントに重ね合わせて、マスク着用顔を含むマスク着用顔画像を生成することと、
を含む、
請求項1に記載の方法。 - 前記前記キーポイントの座標に基づいて、前記マスク画像を前記顔画像に結合することにより、マスク着用顔を含むマスク着用顔画像を生成することは、
前記マスク画像における指定点と顔のキーポイントの座標との間の第2のプリセット対応関係、および取得されたキーポイントの座標に基づいて、前記マスク画像のサイズを更新し、更新された後のマスク画像を前記顔画像に結合することにより、第2のマスク着用顔画像を生成し、ここで、前記第2のマスク着用顔画像と前記第1のマスク着用顔画像において、マスク着用顔のマスクの位置には違いがあり、前記マスクの位置は縦位置を含むことを含む、
請求項6に記載の方法。 - 顔画像を取得し、且つ前記顔画像に含まれる顔のキーポイントの座標を取得するように配置され、ここで、前記顔画像に含まれる顔にはマスクを着用しない取得ユニットと、
マスク画像を取得し、且つ前記キーポイントの座標に基づいて、前記マスク画像を前記顔画像に結合することにより、マスク着用顔を含むマスク着用顔画像を生成するように配置され、ここで、前記マスク画像は、マスク画像セットに属し、前記マスク画像セットには、少なくとも1種類のマスク画像が含まれ、異なる種類のマスク画像に含まれるマスクは異なる結合ユニットと、
前記マスク着用顔画像を、ディープニューラルネットワークを訓練するためのサンプルと確定するように配置され、ここで、前記ディープニューラルネットワークは、顔を検出するために使用される確定ユニットと、
を含む情報処理装置。 - ターゲット顔画像を取得し、且つ前記マスク画像セットからターゲットマスク画像を取得するように配置されたターゲット取得ユニットと、
前記ターゲットマスク画像を、前記ターゲット顔画像における顔以外の領域に結合することにより、結合結果を得るように配置されたターゲット結合ユニットと、
前記結合結果を、前記ディープニューラルネットワークを訓練するための別のサンプルと確定するように配置されたサンプル確定ユニットと、
をさらに含む請求項8に記載の装置。 - 前記ディープニューラルネットワークの訓練ステップは、
顔画像サンプルを取得し、前記顔画像サンプルを訓練待ちのディープニューラルネットワークに入力することと、
前記訓練待ちのディープニューラルネットワークを用いて、前記顔画像サンプルがマスク着用顔を含むかどうかを予測することにより、第1の予測結果を得ることと、
前記第1の予測結果、前記顔画像サンプルがマスク着用顔を含むかどうかの参照結果、およびプリセット損失関数に基づいて、前記第1の予測結果に対応する損失値を確定することと、
前記損失値に基づいて、前記訓練待ちのディープニューラルネットワークを訓練することにより、訓練された後のディープニューラルネットワークを得ることと、
を含む、
請求項8に記載の装置。 - 前記訓練ステップは、
前記訓練待ちのディープニューラルネットワークを用いて、前記顔画像サンプルに含まれる顔の位置を予測することにより、第2の予測結果を得ることをさらに含み、
前記前記訓練待ちのディープューラルネットワークを用いて、前記顔画像サンプルがマスク着用顔を含むかどうかを予測することは、
前記訓練待ちのディープニューラルネットワークを用いて、前記位置におけるオブジェクトがマスクを着用した顔であるかどうかを予測することにより、前記第1の予測結果を得ることを含む、
請求項10に記載の装置。 - 前記マスク着用顔画像を生成することの後、前記マスク着用顔画像に含まれるマスクの位置を調整することにより、調整された後のマスク着用顔画像を得るように配置され、ここで、前記マスクの位置は、縦位置を含む調整ユニットをさらに含む、
請求項8に記載の装置。 - 前記結合ユニットは、さらに、前記前記キーポイントの座標に基づいて、前記マスク画像を前記顔画像に結合することにより、マスク着用顔を含むマスク着用顔画像を生成することを以下のように実行するように配置され、
即ち、前記マスク画像における指定点と顔のキーポイントの座標との間の第1のプリセット対応関係、および取得されたキーポイントの座標に基づいて、前記マスク画像のサイズを更新することにより、更新された後のマスク画像のサイズを取得された顔画像における顔のサイズに合致させ、ここで、前記第1のプリセット対応関係においてキーポイントの座標は、顔エッジのキーポイントの座標を含み、
更新された後のマスク画像を前記顔画像に結合することにより、更新された後のマスク画像の少なくとも2つの指定点のうちの各指定点を、前記顔画像における当該指定点に対応するキーポイントに重ね合わせて、マスク着用顔を含むマスク着用顔画像を生成する、
請求項8に記載の装置。 - 前記結合ユニットは、さらに、前記前記キーポイントの座標に基づいて、前記マスク画像を前記顔画像に結合することにより、マスク着用顔を含むマスク着用顔画像を生成することを以下のように実行するように配置され、
即ち、前記マスク画像における指定点と顔のキーポイントの座標との間の第2のプリセット対応関係、および取得されたキーポイントの座標に基づいて、前記マスク画像のサイズを更新し、更新された後のマスク画像を前記顔画像に結合することにより、第2のマスク着用顔画像を生成し、ここで、前記第2のマスク着用顔画像と前記第1のマスク着用顔画像において、マスク着用顔のマスクの位置には違いがあり、前記マスクの位置は縦位置を含む、
請求項13に記載の装置。 - 1つ以上のプロセッサと、
1つ以上のプログラムを記憶するための記憶装置と、
を含み、
前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1から7のいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、
電子機器。 - コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1から7のいずれか1項に記載の方法を実現する、
コンピュータ可読記憶媒体。 - コンピュータプログラムであって、
プロセッサによって実行されるとき、請求項1から7のいずれか1項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010205909.6 | 2020-03-23 | ||
CN202010205909.6A CN113435226B (zh) | 2020-03-23 | 2020-03-23 | 信息处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149961A true JP2021149961A (ja) | 2021-09-27 |
JP7311544B2 JP7311544B2 (ja) | 2023-07-19 |
Family
ID=74797848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021030696A Active JP7311544B2 (ja) | 2020-03-23 | 2021-02-26 | 情報処理方法及び情報処理装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210295015A1 (ja) |
EP (1) | EP3885980A1 (ja) |
JP (1) | JP7311544B2 (ja) |
KR (1) | KR102599977B1 (ja) |
CN (1) | CN113435226B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023223377A1 (ja) * | 2022-05-16 | 2023-11-23 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11710346B2 (en) * | 2020-05-28 | 2023-07-25 | Nec Corporation | Facial recognition for masked individuals |
CN112001872B (zh) * | 2020-08-26 | 2021-09-14 | 北京字节跳动网络技术有限公司 | 信息显示方法、设备及存储介质 |
KR20240045830A (ko) * | 2022-09-30 | 2024-04-08 | 주식회사 슈프리마에이아이 | 피인식 대상자의 특성 정보를 예측하는 방법 및 장치, 피인식 대상자의 특성 정보를 예측하는 신경망을 학습하는 방법 및 장치 |
CN116665263A (zh) * | 2022-11-03 | 2023-08-29 | 浙江宇视科技有限公司 | 口罩佩戴检测方法、装置和电子设备 |
CN115620209A (zh) * | 2022-11-15 | 2023-01-17 | 北京梦天门科技股份有限公司 | 公共卫生视频监管结果的生成方法及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003055826A (ja) * | 2001-08-17 | 2003-02-26 | Minolta Co Ltd | サーバおよび仮想試着用データ管理方法 |
JP2018005357A (ja) * | 2016-06-29 | 2018-01-11 | 株式会社東芝 | 情報処理装置および情報処理方法 |
JP2018005520A (ja) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
WO2018168042A1 (ja) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | 画像解析装置、画像解析方法、及び画像解析プログラム |
WO2018180550A1 (ja) * | 2017-03-30 | 2018-10-04 | 富士フイルム株式会社 | 画像処理装置及び画像処理方法 |
JP2019102081A (ja) * | 2017-12-05 | 2019-06-24 | 富士通株式会社 | データ処理装置及びデータ処理方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108932458B (zh) * | 2017-05-24 | 2020-09-11 | 恒睿(重庆)人工智能技术研究院有限公司 | 恢复眼镜遮挡区域的人脸重建方法及装置 |
CN107609481B (zh) * | 2017-08-14 | 2020-11-20 | 百度在线网络技术(北京)有限公司 | 为人脸识别生成训练数据的方法、装置和计算机存储介质 |
CN107590482A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 信息生成方法和装置 |
CN107808129B (zh) * | 2017-10-17 | 2021-04-16 | 南京理工大学 | 一种基于单个卷积神经网络的面部多特征点定位方法 |
CN109753850B (zh) * | 2017-11-03 | 2022-10-25 | 富士通株式会社 | 面部识别模型的训练方法和训练设备 |
CN108427941B (zh) * | 2018-04-08 | 2020-06-02 | 百度在线网络技术(北京)有限公司 | 用于生成人脸检测模型的方法、人脸检测方法和装置 |
CN110399764A (zh) * | 2018-04-24 | 2019-11-01 | 华为技术有限公司 | 人脸识别方法、装置及计算机可读介质 |
CN108319943B (zh) * | 2018-04-25 | 2021-10-12 | 北京优创新港科技股份有限公司 | 一种提高戴眼镜条件下人脸识别模型性能的方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
CN109558864B (zh) * | 2019-01-16 | 2021-07-30 | 苏州科达科技股份有限公司 | 人脸关键点检测方法、装置及存储介质 |
CN109871802A (zh) * | 2019-02-15 | 2019-06-11 | 深圳和而泰数据资源与云技术有限公司 | 图像检测方法及图像检测装置 |
CN112669197A (zh) * | 2019-10-16 | 2021-04-16 | 顺丰科技有限公司 | 图像处理方法、装置、移动终端及存储介质 |
CN110852942B (zh) * | 2019-11-19 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、媒体信息合成的方法及装置 |
CN112927343B (zh) * | 2019-12-05 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种图像生成方法及装置 |
-
2020
- 2020-03-23 CN CN202010205909.6A patent/CN113435226B/zh active Active
-
2021
- 2021-02-22 KR KR1020210023672A patent/KR102599977B1/ko active IP Right Grant
- 2021-02-22 US US17/181,518 patent/US20210295015A1/en not_active Abandoned
- 2021-02-26 JP JP2021030696A patent/JP7311544B2/ja active Active
- 2021-02-26 EP EP21159647.3A patent/EP3885980A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003055826A (ja) * | 2001-08-17 | 2003-02-26 | Minolta Co Ltd | サーバおよび仮想試着用データ管理方法 |
JP2018005357A (ja) * | 2016-06-29 | 2018-01-11 | 株式会社東芝 | 情報処理装置および情報処理方法 |
JP2018005520A (ja) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
WO2018168042A1 (ja) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | 画像解析装置、画像解析方法、及び画像解析プログラム |
WO2018180550A1 (ja) * | 2017-03-30 | 2018-10-04 | 富士フイルム株式会社 | 画像処理装置及び画像処理方法 |
JP2019102081A (ja) * | 2017-12-05 | 2019-06-24 | 富士通株式会社 | データ処理装置及びデータ処理方法 |
Non-Patent Citations (2)
Title |
---|
小泉: "歯医者さんの院内感染症対策", [ONLINE], JPN7022006041, 3 February 2020 (2020-02-03), ISSN: 0004959955 * |
愛知・名古屋の調剤薬局 マイタウン薬局 春日井店: "マスク 間違った使い方していませんか??", [ONLINE], JPN7022006040, 8 February 2020 (2020-02-08), ISSN: 0004959954 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023223377A1 (ja) * | 2022-05-16 | 2023-11-23 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN113435226B (zh) | 2022-09-16 |
EP3885980A1 (en) | 2021-09-29 |
KR20210118739A (ko) | 2021-10-01 |
KR102599977B1 (ko) | 2023-11-08 |
US20210295015A1 (en) | 2021-09-23 |
JP7311544B2 (ja) | 2023-07-19 |
CN113435226A (zh) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021149961A (ja) | 情報処理方法及び情報処理装置 | |
US11538229B2 (en) | Image processing method and apparatus, electronic device, and computer-readable storage medium | |
CN109145781B (zh) | 用于处理图像的方法和装置 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN109308469B (zh) | 用于生成信息的方法和装置 | |
US10860841B2 (en) | Facial expression image processing method and apparatus | |
CN111739035A (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN110544272A (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
US12044837B2 (en) | Virtual slide stage (VSS) method for viewing whole slide images | |
CN110059623B (zh) | 用于生成信息的方法和装置 | |
CN109325429A (zh) | 一种关联特征数据的方法、装置、存储介质及终端 | |
WO2023124054A1 (zh) | 一种基于数字孪生监控物理世界的方法、装置及存储介质 | |
KR102547527B1 (ko) | 객체 라벨링 방법 및 장치 | |
CN108509921A (zh) | 用于生成信息的方法和装置 | |
CN113822136A (zh) | 视频素材图像的选择方法、装置、设备及存储介质 | |
CN112149615A (zh) | 人脸活体检测方法、装置、介质及电子设备 | |
CN114881893B (zh) | 图像处理方法、装置、设备及计算机可读存储介质 | |
CN111881740A (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN110427998A (zh) | 模型训练、目标检测方法及装置、电子设备、存储介质 | |
CN111310595B (zh) | 用于生成信息的方法和装置 | |
TW202219822A (zh) | 字元檢測方法、電子設備及電腦可讀儲存介質 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN109871465B (zh) | 一种时间轴计算方法、装置、电子设备及存储介质 | |
CN109863746A (zh) | 交互式数据可视化环境 | |
CN110942033B (zh) | 用于推送信息的方法、装置、电子设备和计算机介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311544 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |