JP2020533701A - 対象者の識別のためのカメラ及び画像校正 - Google Patents
対象者の識別のためのカメラ及び画像校正 Download PDFInfo
- Publication number
- JP2020533701A JP2020533701A JP2020514706A JP2020514706A JP2020533701A JP 2020533701 A JP2020533701 A JP 2020533701A JP 2020514706 A JP2020514706 A JP 2020514706A JP 2020514706 A JP2020514706 A JP 2020514706A JP 2020533701 A JP2020533701 A JP 2020533701A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- face
- images
- subject
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 85
- 230000001815 facial effect Effects 0.000 claims description 80
- 238000009826 distribution Methods 0.000 claims description 42
- 238000005259 measurement Methods 0.000 claims description 32
- 230000009471 action Effects 0.000 claims description 20
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims 1
- 239000013598 vector Substances 0.000 description 88
- 238000012544 monitoring process Methods 0.000 description 35
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 24
- 238000013527 convolutional neural network Methods 0.000 description 14
- 208000024891 symptom Diseases 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 230000005713 exacerbation Effects 0.000 description 10
- 210000000887 face Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000036387 respiratory rate Effects 0.000 description 5
- 230000036772 blood pressure Effects 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000009709 capacitor discharge sintering Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 229920002803 thermoplastic polyurethane Polymers 0.000 description 2
- 208000028399 Critical Illness Diseases 0.000 description 1
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 208000012641 Pigmentation disease Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002853 ongoing effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
Claims (20)
- 1つ又は複数のプロセッサにより実施される方法であって、前記方法が、
第1のエリアにおける複数人の対象者の顔を写し出した複数の第1のカメラ顔画像を、前記第1のエリアにおける第1のカメラを使用して獲得するステップと、
複数の前記第1のカメラ顔画像のうちの前記第1のカメラ顔画像の各々に対して、
前記第1のカメラ顔画像に写し出された前記顔の視覚属性測定結果を特定し、
前記第1のカメラ顔画像に写し出された前記顔の前記視覚属性測定結果に基づいて、前記第1のカメラ顔画像を複数の所定の分類のうちの1つに割り当てる、
ことを行うステップと、
複数の前記所定の分類のうちの各前記分類に対して、当該分類に割り当てられた複数の前記第1のカメラ顔画像のうちの幾つかの前記第1のカメラ顔画像間において共有された第1のカメラ分類ディストリビューションを特定するステップと、
第2のエリアにおける対象者の顔を写し出した複数の第2のカメラ顔画像を、前記第2のエリアにおける第2のカメラを使用して獲得するステップと、
複数の前記第2のカメラ顔画像のうちの前記第2のカメラ顔画像の各々に対して、
前記第2のカメラ顔画像に写し出された前記顔の視覚属性測定結果を特定し、
前記第2のカメラ顔画像に写し出された前記顔の前記視覚属性測定結果に基づいて、複数の所定の前記分類のうちの1つを前記第2のカメラ顔画像に割り当てる、
ことを行うステップと、
複数の前記分類のうちの各前記分類に対して、当該分類に割り当てられた複数の前記第2のカメラ顔画像のうちの幾つかの前記第2のカメラ顔画像間において共有された第2のカメラ分類ディストリビューションを特定するステップと、
識別されていない対象者の顔を写し出した後続の顔画像を前記第2のカメラを使用して獲得するステップと、
前記後続の顔画像に写し出された前記識別されていない対象者の前記顔の視覚属性測定結果を特定するステップと、
前記後続の顔画像に写し出された前記顔の前記視覚属性測定結果に基づいて、複数の所定の前記分類のうちの所与の所定の分類に前記後続の顔画像を割り当てるステップと、
校正された後続の顔画像を生成するために前記後続の顔画像に調節を適用するステップであって、前記調節を適用するステップが、所与の所定の前記分類に関連した前記第1のカメラ分類ディストリビューションと前記第2のカメラ分類ディストリビューションとに基づく、調節を適用するステップと、
前記校正された後続の顔画像の1つ又は複数の特徴と、複数の前記第1のカメラ顔画像及び複数の前記第2のカメラ顔画像のうちの何れか又は両方の1つ又は複数の特徴との比較に基づいて、前記識別されていない対象者の識別情報を特定するステップと、
を有する、方法。 - 前記第1のカメラ分類ディストリビューションが、前記分類に割り当てられた複数の前記第1のカメラ顔画像のうちの前記幾つかの第1のカメラ顔画像のRGBヒストグラムに関連した第1の統計量を含み、前記第2のカメラ分類ディストリビューションが、前記分類に割り当てられた複数の前記第2のカメラ顔画像のうちの前記幾つかの第2のカメラ顔画像のRGBヒストグラムに関連した第2の統計量を含む、
請求項1に記載の方法。 - 前記第1の統計量が、前記分類に割り当てられた複数の前記第1のカメラ顔画像のうちの前記幾つかの第1のカメラ顔画像の前記RGBヒストグラムの平均ヒストグラムを含み、前記第2の統計量が、前記分類に割り当てられた複数の前記第2のカメラ顔画像のうちの前記幾つかの第2のカメラ顔画像の前記RGBヒストグラムの平均ヒストグラムを含む、
請求項2に記載の方法。 - 前記分類に割り当てられた複数の前記第1のカメラ顔画像のうちの前記幾つかの第1のカメラ顔画像の前記RGBヒストグラムを正規化するステップと、
前記分類に割り当てられた複数の前記第2のカメラ顔画像のうちの前記幾つかの第2のカメラ顔画像の前記RGBヒストグラムを正規化するステップと、
をさらに有する、請求項2に記載の方法。 - 前記調節が、ヒストグラム修正を含む、
請求項1に記載の方法。 - 前記第2のカメラのアパーチャを前記第1のカメラのアパーチャに校正するステップをさらに有する、
請求項1に記載の方法。 - 前記第2のカメラのシャッター速度を前記第1のカメラのシャッター速度に校正するステップをさらに有する、
請求項1に記載の方法。 - 前記第2のカメラのホワイトバランスを前記第1のカメラのホワイトバランスに校正するステップをさらに有する、
請求項1に記載の方法。 - 複数の所定の前記分類が、複数の皮膚の色調の範囲を含む、
請求項1に記載の方法。 - 1つ又は複数のプロセッサによる命令の実行に応答して、1つ又は複数の前記プロセッサに、以下の動作、すなわち、
第1のカメラにより捕捉された第1の複数のデジタル画像を、前記第1の複数のデジタル画像の1つ又は複数の視覚属性に基づいて、複数の所定のカテゴリにカテゴリ分けすることであって、前記第1の複数のデジタル画像のうちの各デジタル画像が、第1のエリアにいる複数人の対象者のうちの1人を写し出す、カテゴリ分けすることと、
第2のカメラにより捕捉された第2の複数のデジタル画像を、前記第2の複数のデジタル画像の1つ又は複数の視覚属性に基づいて、同じ複数の所定の前記カテゴリにカテゴリ分けすることであって、前記第2の複数のデジタル画像のうちの各デジタル画像が、第2のエリアにいる複数の前記対象者のうちの少なくとも1人を写し出す、カテゴリ分けすることと、
前記第2のエリアにいる未知の対象者を写し出した後続のデジタル画像を、前記第2のカメラを使用して獲得することと、
前記後続のデジタル画像の1つ又は複数の視覚属性に基づいて、前記後続のデジタル画像を複数の所定の前記カテゴリのうちの所与の所定の前記カテゴリにカテゴリ分けすることと、
所与の所定の前記カテゴリにカテゴリ分けされた前記第1の複数のデジタル画像のうちの1つ又は複数の前記デジタル画像と、所与の所定の前記カテゴリにカテゴリ分けされた前記第2の複数のデジタル画像のうちの1つ又は複数の前記デジタル画像との間の関連に基づき、前記後続のデジタル画像を調節することと、
調節された前記後続のデジタル画像の分析に基づいて、前記未知の対象者の識別情報を特定することと、
を実施させる前記命令を含む、少なくとも1つの非一時的なコンピュータ可読媒体。 - 前記関連が、所与の前記カテゴリにカテゴリ分けされた前記第1の複数のデジタル画像のうちの前記デジタル画像のRGBヒストグラムに関連した第1の統計量と、所与の前記カテゴリにカテゴリ分けされた前記第2の複数のデジタル画像のRGBヒストグラムに関連した第2の統計量との間の関連を含む、
請求項10に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 前記第1の統計量が、所与の前記カテゴリにカテゴリ分けされた前記第1の複数のデジタル画像のうちの幾つかのデジタル画像の前記RGBヒストグラムの平均ヒストグラムを含み、前記第2の統計量が、所与の前記カテゴリにカテゴリ分けされた前記第2の複数のデジタル画像の幾つかのデジタル画像の前記RGBヒストグラムの平均ヒストグラムを含む、
請求項11に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 以下の動作、すなわち、
所与の前記カテゴリにカテゴリ分けされた前記第1の複数のデジタル画像のうちの前記幾つかのデジタル画像の前記RGBヒストグラムを正規化することと、
所与の前記カテゴリにカテゴリ分けされた前記第2の複数のデジタル画像のうちの前記幾つかのデジタル画像の前記RGBヒストグラムを正規化することと、
を実施するための命令をさらに含む、
請求項12に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 前記調節が、ヒストグラム修正を含む、
請求項10に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 前記第2のカメラのアパーチャを前記第1のカメラのアパーチャに校正するための命令をさらに含む、
請求項10に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 前記第2のカメラのシャッター速度を前記第1のカメラのシャッター速度に校正するための命令をさらに含む、
請求項10に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 前記第2のカメラのホワイトバランスを前記第1のカメラのホワイトバランスに校正するための命令をさらに含む、
請求項10に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 複数の所定の前記カテゴリが、複数の皮膚の色調の範囲を含む、
請求項10に記載の少なくとも1つの非一時的なコンピュータ可読媒体。 - 1つ又は複数のプロセッサと1つ又は複数の前記プロセッサに動作可能に結合されたメモリとを備えるシステムであって、
前記メモリが、1つ又は複数の前記プロセッサによる命令の実行に応答して、1つ又は複数の前記プロセッサに、以下の動作、すなわち、
第1のエリアにおける複数人の対象者の顔を写し出した複数の第1のカメラ顔画像を、前記第1のエリアにおける第1のカメラを使用して獲得することと、
複数の前記第1のカメラ顔画像のうちの前記第1のカメラ顔画像の各々に対して、
前記第1のカメラ顔画像に写し出された前記顔の視覚属性測定結果を特定し、
前記第1のカメラ顔画像に写し出された前記顔の前記視覚属性測定結果に基づいて、前記第1のカメラ顔画像を複数の所定の分類のうちの1つに割り当てる、
ことを行うことと、
複数の前記分類のうちの各前記分類に対して、当該分類に割り当てられた複数の前記第1のカメラ顔画像のうちの幾つかの前記第1のカメラ顔画像間において共有された第1のカメラ分類ディストリビューションを特定することと、
第2のエリアにおける対象者の顔を写し出した複数の第2のカメラ顔画像を、前記第2のエリアにおける第2のカメラを使用して獲得することと、
複数の前記第2のカメラ顔画像のうちの前記第2のカメラ顔画像の各々に対して、
前記第2のカメラ顔画像に写し出された前記顔の視覚属性測定結果を特定し、
前記第2のカメラ顔画像に写し出された前記顔の前記視覚属性測定結果に基づいて、複数の所定の前記分類のうちの1つに前記第2のカメラ顔画像を割り当てる、
ことを行うことと、
複数の前記分類のうちの各前記分類に対して、当該分類に割り当てられた複数の前記第2のカメラ顔画像のうちの幾つかの前記第2のカメラ顔画像間において共有された第2のカメラ分類ディストリビューションを特定することと、
識別されていない対象者の顔を写し出した後続の顔画像を、前記第2のカメラを使用して獲得することと、
前記後続の顔画像に写し出された前記識別されていない対象者の前記顔の視覚属性測定結果を特定することと、
前記後続の顔画像に写し出された前記顔の前記視覚属性測定結果に基づいて、複数の所定の前記分類のうちの所与の所定の前記分類に前記後続の顔画像を割り当てることと、
校正された前記後続の顔画像を生成するために前記後続の顔画像に調節を適用することであって、前記調節を適用することが、所与の所定の前記分類に関連した前記第1のカメラ分類ディストリビューションと前記第2のカメラ分類ディストリビューションとに基づく、前記調節を適用することと、
前記校正された前記後続の顔画像の1つ又は複数の特徴と、複数の前記第1のカメラ顔画像及び複数の前記第2のカメラ顔画像のうちの何れか又は両方の1つ又は複数の特徴との比較に基づいて、前記識別されていない対象者の識別情報を特定することと、
を実施させることをもたらす前記命令を記憶している、
システム。 - 前記第1のカメラ分類ディストリビューションが、前記分類に割り当てられた複数の前記第1のカメラ顔画像のうちの前記幾つかの第1のカメラ顔画像のRGBヒストグラムに関連した第1の統計量を含み、前記第2のカメラ分類ディストリビューションが、前記分類に割り当てられた複数の前記第2のカメラ顔画像のうちの前記幾つかの第2のカメラ顔画像のRGBヒストグラムに関連した第2の統計量を含む、
請求項19に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762577946P | 2017-10-27 | 2017-10-27 | |
US62/577,946 | 2017-10-27 | ||
PCT/EP2018/074436 WO2019052997A1 (en) | 2017-09-13 | 2018-09-11 | CAMERA AND IMAGE CALIBRATION FOR SUBJECT IDENTIFICATION |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020533701A true JP2020533701A (ja) | 2020-11-19 |
JP2020533701A5 JP2020533701A5 (ja) | 2021-12-16 |
JP7199426B2 JP7199426B2 (ja) | 2023-01-05 |
Family
ID=63683139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020514706A Active JP7199426B2 (ja) | 2017-09-13 | 2018-09-11 | 対象者の識別のためのカメラ及び画像校正 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11232287B2 (ja) |
EP (1) | EP3682366A1 (ja) |
JP (1) | JP7199426B2 (ja) |
CN (1) | CN111344713B (ja) |
WO (1) | WO2019052997A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2958010C (en) | 2016-02-19 | 2021-09-07 | Covidien Lp | System and methods for video-based monitoring of vital signs |
CN107516105B (zh) * | 2017-07-20 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 图像处理方法及装置 |
US10867161B2 (en) * | 2017-09-06 | 2020-12-15 | Pixart Imaging Inc. | Auxiliary filtering device for face recognition and starting method for electronic device |
EP3681394A1 (en) | 2017-11-13 | 2020-07-22 | Covidien LP | Systems and methods for video-based monitoring of a patient |
US11712176B2 (en) | 2018-01-08 | 2023-08-01 | Covidien, LP | Systems and methods for video-based non-contact tidal volume monitoring |
WO2019240991A1 (en) * | 2018-06-15 | 2019-12-19 | Covidien Lp | Systems and methods for video-based patient monitoring during surgery |
CN110769175B (zh) * | 2018-07-27 | 2022-08-09 | 华为技术有限公司 | 一种智能分析系统、方法及装置 |
EP3833241A1 (en) | 2018-08-09 | 2021-06-16 | Covidien LP | Video-based patient monitoring systems and associated methods for detecting and monitoring breathing |
US11617520B2 (en) | 2018-12-14 | 2023-04-04 | Covidien Lp | Depth sensing visualization modes for non-contact monitoring |
WO2020124448A1 (en) * | 2018-12-19 | 2020-06-25 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for video surveillance |
US11315275B2 (en) | 2019-01-28 | 2022-04-26 | Covidien Lp | Edge handling methods for associated depth sensing camera devices, systems, and methods |
EP3799067A1 (en) * | 2019-09-30 | 2021-03-31 | Koninklijke Philips N.V. | Automatic patient record updating |
US11484208B2 (en) | 2020-01-31 | 2022-11-01 | Covidien Lp | Attached sensor activation of additionally-streamed physiological parameters from non-contact monitoring systems and associated devices, systems, and methods |
US11847778B2 (en) * | 2020-08-21 | 2023-12-19 | Apple Inc. | Image capture techniques personalized to individual subjects being imaged |
US11810385B2 (en) * | 2020-12-28 | 2023-11-07 | Microsoft Technology Licensing, Llc | Subject identification based on iterated feature representation |
TWI802906B (zh) * | 2021-01-28 | 2023-05-21 | 旺宏電子股份有限公司 | 資料識別裝置及辨識方法 |
CN113133762B (zh) * | 2021-03-03 | 2022-09-30 | 刘欣刚 | 一种无创血糖预测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11242737A (ja) * | 1998-02-26 | 1999-09-07 | Ricoh Co Ltd | 画像処理方法及び装置並びに情報記録媒体 |
JP2004222118A (ja) * | 2003-01-17 | 2004-08-05 | Omron Corp | 撮影装置 |
JP2013210844A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像照合装置 |
US20140099026A1 (en) * | 2012-10-09 | 2014-04-10 | Aravind Krishnaswamy | Color Correction Based on Multiple Images |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPP400998A0 (en) | 1998-06-10 | 1998-07-02 | Canon Kabushiki Kaisha | Face detection in digital images |
US7551755B1 (en) | 2004-01-22 | 2009-06-23 | Fotonation Vision Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
TW200539046A (en) | 2004-02-02 | 2005-12-01 | Koninkl Philips Electronics Nv | Continuous face recognition with online learning |
US7697026B2 (en) | 2004-03-16 | 2010-04-13 | 3Vr Security, Inc. | Pipeline architecture for analyzing multiple video streams |
US8345030B2 (en) | 2011-03-18 | 2013-01-01 | Qualcomm Mems Technologies, Inc. | System and method for providing positive and negative voltages from a single inductor |
WO2013017976A1 (en) | 2011-08-01 | 2013-02-07 | Koninklijke Philips Electronics N.V. | Device and method for obtaining and processing measurement readings of a living being |
MX2014002199A (es) | 2011-09-02 | 2014-05-30 | Koninkl Philips Nv | Camara para generar una señal biometrica de un ser vivo. |
WO2014080313A1 (en) | 2012-11-23 | 2014-05-30 | Koninklijke Philips N.V. | Device and method for extracting physiological information |
EP2767232A1 (en) | 2013-02-15 | 2014-08-20 | Koninklijke Philips N.V. | System and method for determining a vital sign of a subject |
CA2903969A1 (en) | 2013-03-06 | 2014-09-12 | Koninklijke Philips N.V. | System and method for determining vital sign information |
US9355312B2 (en) * | 2013-03-13 | 2016-05-31 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
US9125606B2 (en) | 2013-03-13 | 2015-09-08 | Koninklijke Philips N.V. | Device and method for determining the blood oxygen saturation of a subject |
US10095917B2 (en) | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
US9805252B2 (en) * | 2015-05-15 | 2017-10-31 | Toshiba Tec Kabushiki Kaisha | Video based facial recognition for customer verification at touchless checkout |
CN110050276B (zh) | 2016-11-30 | 2023-09-29 | 皇家飞利浦有限公司 | 患者识别系统和方法 |
US10832035B2 (en) | 2017-06-22 | 2020-11-10 | Koninklijke Philips N.V. | Subject identification systems and methods |
-
2018
- 2018-09-11 WO PCT/EP2018/074436 patent/WO2019052997A1/en unknown
- 2018-09-11 US US16/647,196 patent/US11232287B2/en active Active
- 2018-09-11 CN CN201880073289.6A patent/CN111344713B/zh active Active
- 2018-09-11 EP EP18773951.1A patent/EP3682366A1/en active Pending
- 2018-09-11 JP JP2020514706A patent/JP7199426B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11242737A (ja) * | 1998-02-26 | 1999-09-07 | Ricoh Co Ltd | 画像処理方法及び装置並びに情報記録媒体 |
JP2004222118A (ja) * | 2003-01-17 | 2004-08-05 | Omron Corp | 撮影装置 |
JP2013210844A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像照合装置 |
US20140099026A1 (en) * | 2012-10-09 | 2014-04-10 | Aravind Krishnaswamy | Color Correction Based on Multiple Images |
Also Published As
Publication number | Publication date |
---|---|
JP7199426B2 (ja) | 2023-01-05 |
EP3682366A1 (en) | 2020-07-22 |
CN111344713A (zh) | 2020-06-26 |
US20200250406A1 (en) | 2020-08-06 |
US11232287B2 (en) | 2022-01-25 |
WO2019052997A1 (en) | 2019-03-21 |
CN111344713B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7199426B2 (ja) | 対象者の識別のためのカメラ及び画像校正 | |
US11295150B2 (en) | Subject identification systems and methods | |
US10832035B2 (en) | Subject identification systems and methods | |
JP7229174B2 (ja) | 人識別システム及び方法 | |
US20210378554A1 (en) | Method and system for privacy-preserving health monitoring | |
CN109477951B (zh) | 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法 | |
US10997397B2 (en) | Patient identification systems and methods | |
JP7299923B2 (ja) | 個人識別システムおよび方法 | |
WO2019137886A1 (en) | Capturing subject data in dynamic environments using mobile cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211102 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |