JP2021528728A - 疑似画像を使用した顔画像認識 - Google Patents
疑似画像を使用した顔画像認識 Download PDFInfo
- Publication number
- JP2021528728A JP2021528728A JP2020567494A JP2020567494A JP2021528728A JP 2021528728 A JP2021528728 A JP 2021528728A JP 2020567494 A JP2020567494 A JP 2020567494A JP 2020567494 A JP2020567494 A JP 2020567494A JP 2021528728 A JP2021528728 A JP 2021528728A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pseudo
- images
- matrix
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009466 transformation Effects 0.000 claims abstract description 219
- 239000011159 matrix material Substances 0.000 claims description 311
- 238000000034 method Methods 0.000 claims description 227
- 238000012549 training Methods 0.000 claims description 176
- 102000005717 Myeloma Proteins Human genes 0.000 claims description 20
- 108010045503 Myeloma Proteins Proteins 0.000 claims description 20
- 241000282414 Homo sapiens Species 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 229940050561 matrix product Drugs 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 abstract description 40
- 230000001815 facial effect Effects 0.000 abstract description 20
- 239000011521 glass Substances 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 56
- 238000004422 calculation algorithm Methods 0.000 description 49
- 238000013459 approach Methods 0.000 description 44
- 210000000887 face Anatomy 0.000 description 44
- 239000013598 vector Substances 0.000 description 25
- 230000006870 function Effects 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 19
- 230000008921 facial expression Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 239000012535 impurity Substances 0.000 description 8
- 241000282412 Homo Species 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 238000009966 trimming Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 230000002950 deficient Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000136406 Comones Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 238000010899 nucleation Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
- G06F18/21345—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis enforcing sparsity or involving a domain transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、国立衛生研究所によって授与された助成金番号R01DC014701のもとで政府の支援を受けてなされた。政府は、本発明における一定の権利を有する。
(a)M個の成分を有する第1画像を提供するステップと、
(b)既定の変換行列を提供するステップであって、
(i)既定の変換行列は、M×K行列であり、なお、当該M×K行列では、K個の列が、K個の辞書要素の集合を構成し、
(ii)既定の変換行列は、M×N行列のスパースかつ非負の因数分解を実行するステップを含む方法によって構築され、なお、M×N行列では、N個の列が、N個のトレーニング画像の集合を構成し、それぞれのトレーニング画像は、M個の成分を有する、
ステップと、
(c)第1画像のスパースかつ非負の変換を実行するための既定の変換行列を使用して、第1画像のための疑似画像を構築するステップであって、第1画像のための疑似画像は、K個の要素重みから成り、それぞれの要素重みは、K個の辞書要素のうちの1つに対応する、ステップと
を含み、
M×N行列は、ランクRを有し、Kは、以下の関係性:
(i)Kは、M以上である、および
(ii)Kは、R以上である、
のうちの一方または両方を満たす、
方法を提供する。
(d)既知の画像のS個の疑似画像の集合を提供するステップであって、S個の疑似画像の各々は、K個の要素重みから成り、それぞれの要素重みは、K個の辞書要素のうちの1つに対応する、ステップと、
(e)ステップ(c)の疑似画像を、ステップ(d)のS個の疑似画像の集合と比較して、例えば、第1画像が、
(i)既知の画像の1つ以上のクラスまたはカテゴリにある、
(ii)特定の既知の画像である、
(iii)既知の画像の1つ以上のクラスまたはカテゴリにない、
(iv)既知の画像ではない
のうちの1つ以上である可能性を決定するステップと
をさらに含む。
(a)M個の成分を有する第1画像を提供するステップと、
(b)既定の変換行列を提供するステップであって、
(i)既定の変換行列は、M×K行列であり、なお、当該M×K行列では、K個の列が、K個の辞書要素の集合を構成し、
(ii)既定の変換行列は、M×N行列のスパースかつ非負の因数分解を実行するステップを含む方法によって構築され、なお、M×N行列では、N個の列が、N個のトレーニング画像の集合を構成し、それぞれのトレーニング画像は、M個の成分を有する、
ステップと、
(c)第1画像のスパースかつ非負の変換を実行するための既定の変換行列を使用して、第1画像のための疑似画像を構築するステップであって、第1画像のための疑似画像は、K個の要素重みから成り、それぞれの要素重みは、K個の辞書要素のうちの1つに対応する、ステップと、
(d)既知の画像のS個の疑似画像の集合を提供するステップであって、S個の疑似画像の各々は、K個の要素重みから成り、それぞれの要素重みは、K個の辞書要素のうちの1つに対応する、ステップと、
(e)ステップ(c)の疑似画像を、ステップ(d)のS個の疑似画像の集合と比較して、例えば、第1画像が、
(i)既知の画像の1つ以上のクラスまたはカテゴリにある、
(ii)特定の既知の画像である、
(iii)既知の画像の1つ以上のクラスまたはカテゴリにない、
(iv)既知の画像ではない
のうちの1つ以上である可能性を決定するステップと
を含む、方法を提供する。
(a)2つの可能な値のうちの一方のみをそれぞれ有するM個の成分を有する第1画像を提供するステップと、
(b)既定の変換行列を提供するステップであって、
(i)既定の変換行列は、M×K行列であり、なお、当該M×K行列では、K個の列が、K個の辞書要素の集合を構成し、
(ii)既定の変換行列は、M×N行列のスパースかつ非負の因数分解を実行するステップを含む方法によって構築され、なお、M×N行列では、N個の列が、N個のトレーニング画像の集合を構成し、それぞれのトレーニング画像は、2つの可能な値のうちの一方のみをそれぞれ有するM個の成分を有する、
ステップと、
(c)第1画像のスパースかつ非負の変換を実行するための既定の変換行列を使用して、第1画像のための疑似画像を構築するステップであって、第1画像のための疑似画像は、K個の要素重みから成り、それぞれの要素重みは、K個の辞書要素のうちの1つに対応する、ステップと
を含む、方法を提供する。
(d)既知の画像のS個の疑似画像の集合を提供するステップであって、疑似画像の成分は、2つの可能な値のうちの一方のみを有し、S個の疑似画像の各々は、K個の要素重みから成り、それぞれの要素重みは、K個の辞書要素のうちの1つに対応する、ステップと、
(e)ステップ(c)の疑似画像を、ステップ(d)のS個の疑似画像の集合と比較して、例えば、第1画像が、
(i)既知の画像の1つ以上のクラスまたはカテゴリにある、
(ii)特定の既知の画像である、
(iii)既知の画像の1つ以上のクラスまたはカテゴリにない、
(iv)既知の画像ではない
のうちの1つ以上である可能性を決定するステップと
をさらに含む。
本開示の第1の態様および第3の態様のオプションのステップ(d)および(e)と、本開示の第2の態様の必須のステップ(d)および(e)とに関して、一実施形態では、これらのステップにおいて使用される既知の画像の疑似画像の集合(「疑似画像のライブラリ」または単に「ライブラリ」)は、ステップ(c)で使用されるものと同じ既定の変換行列を使用して取得される。重要なことに、ステップ(e)では、比較は、第1画像間ではなく疑似画像間で行われる。第1画像の比較とは対照的に、この疑似画像の比較は、開示されたプロセスを提供する際において、画像認識を実行するための従来の技術と比較して改善されたロバスト性を有する鍵となる要素である。
本明細書および特許請求の範囲では、以下の用語、およびこれらの用語に関連する単数形ならびに複数形と、以下の表記法とが使用されている。
「オリジナル画像」は、複数の成分(例えば、ピクセル)の順序付けられたシーケンスであり、それぞれの成分は、シーケンス内における所定の値および位置を有する。典型的に、人間は、必ずしも全ての場合ではないが、オリジナル画像内において現実世界からの1つ以上のオブジェクト(例えば、顔認識の場合には人間の顔)を知覚することが可能であり、例えば、オリジナル画像は、UPCまたはマトリックスバーコードのようなコンピュータ生成画像であり得る。オリジナル画像は、デジタル画像化装置、例えばスタンドアロン型のデジタルカメラ、または別の装置内に、例えば携帯電話内に具現化されたデジタルカメラによって生成可能である。オリジナル画像は、デジタル化されたアナログ画像であってもよい。
「第1画像」とは、オリジナル画像、または前処理に供されたオリジナル画像のことである。したがって、第1画像は、複数の成分(例えば、ピクセル)の順序付けられたシーケンスであり、それぞれの成分は、シーケンス内における所定の値および位置を有する。上で考察したように、典型的なオリジナル画像の場合には、人間は、オリジナル画像内において現実世界からの1つ以上のオブジェクト(例えば、人間の顔)を知覚することが可能である。第1画像がオリジナル画像であるか、または第1レベルの前処理のみが施されたオリジナル画像である場合には、このことが引き続き当てはまる。他の種類の前処理の場合には、人間は、第1画像内において現実世界からのオブジェクトを知覚することが困難であるか、または不可能であると感じる場合がある。
「既定の変換行列」とは、M個の行およびK個の列を有する行列のことである。K個の列の各々は、「辞書要素」または単に「要素」と称される。それぞれの辞書要素は、M個の成分の順序付けられたシーケンスであり、それぞれの成分は、シーケンス内における所定の値および位置を有する。したがって、必要に応じてそれぞれの辞書要素を1つの画像として表示することができる(例えば、図4を参照)。以下の考察では、既定の変換行列は、行列Φによって表される。
X=ΦA
のように記述することができ、ここで、Aは、K個の行およびN個の列を有する。したがって、既定の変換行列は、M次元(X行列における行数)を有する基底から、K次元(A行列における行数)を有する基底への変換を実行するものであると考えることができる。
「疑似画像」は、K個の成分の順序付けられたシーケンスであり、それぞれの成分は、シーケンス内における所定の値および位置を有する。したがって、必要に応じて疑似画像を画像として表示することができる(例えば、図5および図6のグレースケールの疑似画像を参照)。すなわち、実際にはコンピュータコーディングの目的のために、疑似画像をベクトルとして扱うことができる。
「疑似画像ライブラリ」とは、関心対象である第1画像(ステップ(a)の第1画像)から取得された関心対象である疑似画像(ステップ(c)の疑似画像)を分類および/または識別するために使用される疑似画像の集合のことである。
「分類」とは、1つ以上の共通の特徴を有する少なくとも2つのメンバーを有する集合に、例えばクラスまたはカテゴリに、画像を関連付けることであり、「識別」とは、1つのメンバーを有する集合に、例えば個人に、画像を関連付けることである。
図1〜図8は、本開示の画像認識技術の実施形態を示す。特に、図1〜図8は、本技術が顔認識問題に適用されている実施形態を示す。図面を作成する際に使用された特定の手順については、以下および実施例1で考察する。
(1)図1は、関心対象である人物のオリジナル画像を示す。
(i)既知の画像の1つ以上のクラスまたはカテゴリにある、
(ii)特定の既知の画像である、
(iii)既知の画像の1つ以上のクラスまたはカテゴリにない、
(iv)既知の画像ではない
のうちの1つ以上であるかどうかを判定することができる。
開示されている方法のパターン認識におけるロバスト性への鍵は、既定の変換行列である。上で考察したように、既定の変換行列は、トレーニング集合として使用される第1画像の集合から取得される。既定の変換行列を生成するプロセスは、第1画像のトレーニング集合を含む行列を2つの別個の行列に因数分解することを含む。1つの行列を2つの別個の行列に因数分解することは、一般に、ブラインド信号源分離(BSS)として見なされるアプローチであり、ブラインド信号源分離(BSS)は、歴史的に、独立した信号源を識別または近似するために開発されたものである。BSSの一般的な考察は、Comon and Jutten 2010およびYu, Hu et al. 2014に記載されている。本明細書に開示されている方法は、行列および(列)ベクトルに対する演算と、線形方程式の系に対する解法とを含む線形代数を使用し、その一般的な考察は、Gill, Murray et al. 1991およびStrang 2006に記載されている。本方法は、最適化法も使用し、その一般的な考察は、以下の文献に記載されている(Gill, Murray et al. 1991, Dantzig and Thapa 1997, Chen, Donoho et al. 2001, Boyd and Vandenberghe 2004, Candes and Tao 2005, Donoho 2006, Comon and Jutten 2010, Donoho, Tsaig et al. 2012, Yu, Hu et al. 2014)。
X=ΦA
の両辺の間の誤差を最小化する行列AおよびΦを生成することが目標であり、その一方で、ΦおよびAにおける全ての要素が非負であり(すなわち、Φ≧0およびA≧0)、かつAがスパースである必要がある。スパース性は、種々の形式で測定可能である。最も一般的な尺度は、L1ノルムおよびL0ノルムである。スパース性のL1尺度が使用される場合には、疑似画像の成分の絶対値の合計が最小化されるが、その一方で、スパース性のL0尺度が使用される場合には、疑似画像は、非負性の制約によって最小化された数の要素、すなわち、最小化された数の正の要素を有する。スパース性がそのL1ノルムによって定義されている場合には、最小化問題は、以下の形式:
第1画像のための疑似画像を生成するプロセスは、既定の変換行列Φに基づいた最小化のプロセスである。このプロセスは、以下の問題x=Φaの解として定式化されており、ベクトルxは、第1画像を表すM次元のベクトルであり、ベクトルaは、第1画像のための疑似画像を構成するK次元のベクトルである。目標は、x=Φa方程式の両辺の間の最小誤差を維持しながら、最もスパースなK次元のベクトルaを発見することである。
τ1=max{(2m+1)/(||a0||1),1}
μ=10
η=0.001
であった。
(1)双対ギャップのパラメータを使用して、コスト関数を最小化するために必要なステップ数を計算する。
この実施例は、本明細書に開示されている画像認識技術の、顔認識問題への適用を説明する。
この実施例は、K/MおよびK/Rの比率の値を低下させると画像認識手順のロバスト性がどのように損なわれるかを示す。
この実施例は、顔の一部が隠されている人々、この場合には眼鏡またはサングラスによって隠されている人々に対して顔認識を実行するための本技術の能力を示す。実施例1と同じ手順、トレーニング集合、および疑似画像ライブラリが使用されているが、ただし、この実施例では、関心対象である第1画像は、目の周りに眼鏡またはサングラスを含めることによって修正された、トレーニング集合からの顔であった。トレーニング集合内の顔は、同じままであった。すなわち、識別したい関心対象である第1画像のみが変更された。
この実施例は、トレーニング集合内に存在しない表情を有する人々に対して顔認識を実行するための本技術の能力を示す。実施例1と同じ手順、トレーニング集合、および疑似画像ライブラリが使用されている。トレーニング集合内の顔は、笑顔から非笑顔への変更(図16の上側のパネル)、または非笑顔から笑顔への変更(図16の下側のパネル)によって修正されている。次いで、これらの修正された顔が、関心対象である第1画像として使用されたが、トレーニング集合内の画像は、変更されなかった。すなわち、既定の変換行列Φと、比較のために使用される疑似画像のライブラリとは、変更されなかった。
この実施例は、顔の複数の部分が隠されている人々、この場合にはサングラス、顔の毛、またはその両方によって隠されている人々に対して顔認識を実行するための本技術の能力を示す。実施例1と同じ手順、トレーニング集合、および疑似画像ライブラリが使用されている。この実施例では、関心対象である第1画像は、目の周りにサングラス、口の上に口髭、またはその両方を含めることによって修正された、トレーニング集合からの顔であった。トレーニング集合内の顔は、同じままであった。すなわち、識別したい関心対象である第1画像のみが変更された。
この実施例は、オブジェクトによって顔の一部が隠されている人々に対して顔認識を実行するための本技術の能力を示し、このオブジェクトは、実際には、帽子、スカーフ、またはマスクなどである可能性がある。実施例1と同じ手順、トレーニング集合、および疑似画像ライブラリが使用されている。この実施例では、関心対象である第1画像は、顔の半分が見えないようにする黒色のマスクによって遮られた、トレーニング集合からの顔であった。マスクは、顔の種々の部分(すなわち、上半分、下半分、左半分、または右半分)を隠すために配置された。図18および図19は、隠された顔と、トレーニング集合のための疑似画像のライブラリとの間の類似性スコアを示す。2つのケース(図18の左側のケース)では、正しい顔は、最高のスコアを有する顔ではなかったが、高い類似性スコアを有する顔のうちの1つであった。他の6つのケース(図18の右側のケースおよび図19の全てのケース)では、オリジナルの顔は、最高のスコアを有する顔であった。
この実施例は、実施例3〜実施例6で使用した1500というKの値を500に低下させた場合の影響を示す。上で述べたように、Kを低下させることにより、この実施例でのK/MおよびK/Rの値は、0.8となった。
この実施例は、Kの値、ひいてはK/MおよびK/Rの値を増加させることによって、不完全な第1画像に対して実行される画像認識においてさらに優れたロバスト性を実現するための能力を示す。
この実施例は、トレーニング集合内に存在しない人々に対して顔認識を実行するための本技術の能力を示す。
この実施例は、記号の認識を実行するための本技術の能力を示す。
この実施例は、拡張された既定の変換行列を作成するためのデノボアプローチとシーケンシャルアプローチとを比較する。この実施例は、第1画像として、図36の1000個の文字を使用し(N=1000)、これらの文字の各々は、二値ピクセルの16×16の配列(M=256)であった。この実施例で使用されたKの値は、1000であり、これにより、3.9のK/Mの比率が与えられている。
前述したことに基づいて、本発明は、上記の要約および概要に記載された本開示の6つの態様に加えて、限定するわけではないが以下の特徴を含む。6つの態様および以下の特徴、ならびにこれらの種々の段落および項目は、任意の全ての組み合わせで使用可能である。
(a)コンピュータシステムにおいて画像を受信するステップと、
(b)前記コンピュータシステムにより、既定の変換行列を使用して、前記画像のスパースかつ非負の変換を実行して疑似画像にするステップと、
(c)前記コンピュータシステムにより、前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(d)前記コンピュータシステムにより、前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を含み、
前記画像は、M個の成分を有し、前記疑似画像は、K個の成分を有し、Kは、M以上である、
方法。
(a)コンピュータシステムにおいて画像を受信するステップと、
(b)前記コンピュータシステムにより、既定の変換行列を使用して、前記画像のスパースかつ非負の変換を実行して疑似画像にするステップと、
(c)前記コンピュータシステムにより、前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(d)前記コンピュータシステムにより、前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を含み、
前記画像は、M個の成分を有し、前記M個の成分の各々は、2つの可能な値のうちの一方のみを有する、
方法。
(a)M個の成分を有する第1画像を1つ以上のコンピュータプロセッサに提供するステップと、
(b)既定の変換行列を前記1つ以上のコンピュータプロセッサに提供するステップであって、
(i)前記既定の変換行列は、M×K行列であり、なお、当該M×K行列では、K個の列が、K個の辞書要素の集合を構成し、
(ii)前記既定の変換行列は、M×N行列のスパースかつ非負の因数分解を実行するステップを含む方法によって構築され、なお、前記M×N行列では、N個の列が、N個のトレーニング画像の集合を構成し、それぞれのトレーニング画像は、M個の成分を有し、前記スパースかつ非負の因数分解は、少なくとも1つのフロベニウスノルムを使用する、
ステップと、
(c)前記1つ以上のコンピュータプロセッサにより、前記第1画像のスパースかつ非負の変換を実行するための前記既定の変換行列を使用して、前記第1画像のための疑似画像を構築するステップであって、前記第1画像のための前記疑似画像は、K個の要素重みから成り、それぞれの要素重みは、前記K個の辞書要素のうちの1つに対応し、前記スパースかつ非負の変換は、少なくとも1つのL2ノルムを使用する、ステップと、
(d)前記1つ以上のコンピュータプロセッサにより、ユークリッド距離およびコサイン距離のうちの少なくとも1つを使用して、前記第1画像のための前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(e)前記1つ以上のコンピュータプロセッサにより、前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を含み、
前記M×N行列は、ランクRを有し、Kは、以下の関係性:
(i)Kは、M以上である、および
(ii)Kは、R以上である、
のうちの一方または両方を満たす、
方法。
(a)N個のトレーニング画像の集合をコンピュータシステムに提供するステップであって、それぞれのトレーニング画像は、M個の成分を有する、ステップと、
(b)前記コンピュータシステムにより、M×N行列のスパースかつ非負の因数分解を実行することによって既定の変換行列を生成するステップであって、前記M×N行列では、当該行列のN個の列の各々が、前記トレーニング画像のうちの1つを構成し、前記スパースかつ非負の因数分解は、少なくとも1つのフロベニウスノルムを使用する、ステップと、
(c)前記既定の変換行列を非一時的なコンピュータ可読媒体に保存するステップと
を含み、
(i)前記既定の変換行列は、M×K行列であり、
(ii)前記M×N行列は、ランクRを有し、
(iii)Kは、以下の関係性:
(A)Kは、M以上である、および
(B)Kは、R以上である、
のうちの一方または両方を満たす、
方法。
当該方法は、前記コンピュータシステムにより、前記疑似画像のうちの少なくとも一部を、疑似画像ライブラリの少なくとも一部として非一時的なコンピュータ可読媒体に保存するステップをさらに含む、特徴11記載の方法。
(a)以前の既定の変換行列Φ0をコンピュータシステムに提供するステップであって、前記以前の既定の変換行列は、N個のトレーニング画像の集合を使用して取得されたものである、ステップと、
(b)前記N個のトレーニング画像のための疑似画像の集合A0を前記コンピュータシステムに提供するステップと、
(c)N’個のトレーニング画像の集合Yを前記コンピュータシステムに提供するステップであって、N’は、1以上であり、前記集合の少なくとも1つのメンバーは、前記N個のトレーニング画像の集合の一部ではないトレーニング画像である、ステップと、
(d)前記コンピュータシステムにより、Yと行列積Φ0A0との連結を使用して、既定の変換行列を生成するステップであって、前記行列積Φ0A0は、前記N個のトレーニング画像の集合のための代理として機能する、ステップと、
(e)前記ステップ(d)の前記既定の変換行列を非一時的なコンピュータ可読媒体に保存するステップと
を含む、方法。
当該方法は、前記コンピュータシステムにより、前記疑似画像のうちの少なくとも一部を、疑似画像ライブラリの少なくとも一部として非一時的なコンピュータ可読媒体に保存するステップをさらに含む、特徴15記載の方法。
(a)既知の画像の集合をコンピュータシステムに提供するステップと、
(b)前記コンピュータシステムにより、既定の変換行列を使用して、前記既知の画像のスパースかつ非負の変換を実行して疑似画像にするステップと、
(c)前記コンピュータシステムにより、前記疑似画像のうちの少なくとも一部を、疑似画像ライブラリの少なくとも一部として非一時的なコンピュータ可読媒体に保存するステップと
を含む、方法。
前記既知の画像の疑似画像は、既定の変換行列を使用して、前記既知の画像のスパースかつ非負の変換を実行して疑似画像にするステップを含む方法によって取得される、
非一時的なコンピュータ可読媒体。
(a)画像を疑似画像に変換するステップと、
(b)前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(c)前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を実行するための、コンピュータプロセッサによって実行可能な命令が保存されており、
前記ステップ(a)の前記変換は、既定の変換行列を使用したスパースかつ非負の変換である、
非一時的なコンピュータ可読媒体。
コンピュータプロセッサと、
少なくとも1つのコンピュータメモリ(例えば、RAM)と、
少なくとも1つのコンピュータストレージデバイス(例えば、ハードドライブ、フラッシュドライブ、および/またはクラウド)と、
画像を受信して、前記画像を前記少なくとも1つのコンピュータメモリに保存するコンピュータインターフェースと、
受信した前記画像のための疑似画像を生成して、前記疑似画像を前記少なくとも1つのコンピュータストレージデバイスに保存するための、前記コンピュータプロセッサによって実行可能なコンピュータプログラムと
を含み、
前記コンピュータプログラムは、既定の変換行列を使用して、前記画像のスパースかつ非負の変換を実行するステップを含む方法によって、前記疑似画像を生成することが可能である、
システム。
Claims (28)
- 方法であって、当該方法は、
(a)コンピュータシステムにおいて画像を受信するステップと、
(b)前記コンピュータシステムにより、既定の変換行列を使用して、前記画像のスパースかつ非負の変換を実行して疑似画像にするステップと、
(c)前記コンピュータシステムにより、前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(d)前記コンピュータシステムにより、前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を含み、
前記画像は、M個の成分を有し、前記疑似画像は、K個の成分を有し、Kは、M以上である、
方法。 - 方法であって、当該方法は、
(a)コンピュータシステムにおいて画像を受信するステップと、
(b)前記コンピュータシステムにより、既定の変換行列を使用して、前記画像のスパースかつ非負の変換を実行して疑似画像にするステップと、
(c)前記コンピュータシステムにより、前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(d)前記コンピュータシステムにより、前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を含み、
前記画像は、M個の成分を有し、前記M個の成分の各々は、2つの可能な値のうちの一方のみを有する、
方法。 - 前記コンピュータシステムは、少なくとも1つのL2ノルムを使用して、前記スパースかつ非負の変換を実行する、請求項1または2記載の方法。
- 前記既定の変換行列は、前記コンピュータシステムにより、トレーニング画像の行列のスパースかつ非負の因数分解を実行するステップを含む方法によって取得された行列である、請求項1または2記載の方法。
- 前記トレーニング画像の行列は、M×N行列であり、なお、Nは、M以上である、請求項4記載の方法。
- 前記コンピュータシステムは、少なくとも1つのフロベニウスノルムを使用して、前記スパースかつ非負の因数分解を実行する、請求項4記載の方法。
- 前記ステップ(a)の前記画像は、前処理された画像である、請求項1または2記載の方法。
- 前記コンピュータシステムは、ユークリッド距離およびコサイン距離のうちの少なくとも1つを使用して、前記ステップ(c)の比較を実行する、請求項1または2記載の方法。
- 前記ステップ(a)の前記画像は、人間の顔を含む、請求項1記載の方法。
- コンピュータ実装される画像認識を実行する方法であって、当該方法は、
(a)M個の成分を有する第1画像を1つ以上のコンピュータプロセッサに提供するステップと、
(b)既定の変換行列を前記1つ以上のコンピュータプロセッサに提供するステップであって、
(i)前記既定の変換行列は、M×K行列であり、なお、当該M×K行列では、K個の列が、K個の辞書要素の集合を構成し、
(ii)前記既定の変換行列は、M×N行列のスパースかつ非負の因数分解を実行するステップを含む方法によって構築され、なお、前記M×N行列では、N個の列が、N個のトレーニング画像の集合を構成し、それぞれのトレーニング画像は、M個の成分を有し、前記スパースかつ非負の因数分解は、少なくとも1つのフロベニウスノルムを使用する、
ステップと、
(c)前記1つ以上のコンピュータプロセッサにより、前記第1画像のスパースかつ非負の変換を実行するための前記既定の変換行列を使用して、前記第1画像のための疑似画像を構築するステップであって、前記第1画像のための前記疑似画像は、K個の要素重みから成り、それぞれの要素重みは、前記K個の辞書要素のうちの1つに対応し、前記スパースかつ非負の変換は、少なくとも1つのL2ノルムを使用する、ステップと、
(d)前記1つ以上のコンピュータプロセッサにより、ユークリッド距離およびコサイン距離のうちの少なくとも1つを使用して、前記第1画像のための前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(e)前記1つ以上のコンピュータプロセッサにより、前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を含み、
前記M×N行列は、ランクRを有し、Kは、以下の関係性:
(i)Kは、M以上である、および
(ii)Kは、R以上である、
のうちの一方または両方を満たす、
方法。 - 画像認識に使用するための既定の変換行列を準備する方法であって、当該方法は、
(a)N個のトレーニング画像の集合をコンピュータシステムに提供するステップであって、それぞれのトレーニング画像は、M個の成分を有する、ステップと、
(b)前記コンピュータシステムにより、M×N行列のスパースかつ非負の因数分解を実行することによって既定の変換行列を生成するステップであって、前記M×N行列では、当該行列のN個の列の各々が、前記トレーニング画像のうちの1つを構成し、前記スパースかつ非負の因数分解は、少なくとも1つのフロベニウスノルムを使用する、ステップと、
(c)前記既定の変換行列を非一時的なコンピュータ可読媒体に保存するステップと
を含み、
(i)前記既定の変換行列は、M×K行列であり、
(ii)前記M×N行列は、ランクRを有し、
(iii)Kは、以下の関係性:
(A)Kは、M以上である、および
(B)Kは、R以上である、
のうちの一方または両方を満たす、
方法。 - 前記ステップ(b)において、前記N個のトレーニング画像のための疑似画像の集合が生成され、
当該方法は、前記コンピュータシステムにより、前記疑似画像のうちの少なくとも一部を、疑似画像ライブラリの少なくとも一部として非一時的なコンピュータ可読媒体に保存するステップをさらに含む、請求項11記載の方法。 - 当該方法は、前記既定の変換行列を商品として配布するステップをさらに含む、請求項11記載の方法。
- Kは、Mよりも大きい、請求項1、10または11記載の方法。
- 以前の既定の変換行列から、画像認識に使用するための既定の変換行列を準備するための方法であって、当該方法は、
(a)以前の既定の変換行列Φ0をコンピュータシステムに提供するステップであって、前記以前の既定の変換行列は、N個のトレーニング画像の集合を使用して取得されたものである、ステップと、
(b)前記N個のトレーニング画像のための疑似画像の集合A0を前記コンピュータシステムに提供するステップと、
(c)N’個のトレーニング画像の集合Yを前記コンピュータシステムに提供するステップであって、N’は、1以上であり、前記集合の少なくとも1つのメンバーは、前記N個のトレーニング画像の集合の一部ではないトレーニング画像である、ステップと、
(d)前記コンピュータシステムにより、Yと行列積Φ0A0との連結を使用して、既定の変換行列を生成するステップであって、前記行列積Φ0A0は、前記N個のトレーニング画像の集合のための代理として機能する、ステップと、
(e)前記ステップ(d)の前記既定の変換行列を非一時的なコンピュータ可読媒体に保存するステップと
を含む、方法。 - 前記ステップ(d)において、前記N’個のトレーニング画像のための疑似画像の集合が生成され、
当該方法は、前記コンピュータシステムにより、前記疑似画像のうちの少なくとも一部を、疑似画像ライブラリの少なくとも一部として非一時的なコンピュータ可読媒体に保存するステップをさらに含む、請求項15記載の方法。 - 当該方法は、前記ステップ(d)の前記既定の変換行列を商品として配布するステップをさらに含む、請求項15記載の方法。
- 画像認識に使用するための疑似画像のライブラリを準備または拡張する方法であって、当該方法は、
(a)既知の画像の集合をコンピュータシステムに提供するステップと、
(b)前記コンピュータシステムにより、既定の変換行列を使用して、前記既知の画像のスパースかつ非負の変換を実行して疑似画像にするステップと、
(c)前記コンピュータシステムにより、前記疑似画像のうちの少なくとも一部を、疑似画像ライブラリの少なくとも一部として非一時的なコンピュータ可読媒体に保存するステップと
を含む、方法。 - 当該方法は、前記疑似画像ライブラリを商品として配布するステップをさらに含む、請求項12、16または18記載の方法。
- 請求項11または15記載の方法によって準備された既定の変換行列が内部に保存されている、非一時的なコンピュータ可読媒体。
- 少なくとも部分的に請求項12、16または18記載の方法によって準備された疑似画像ライブラリが内部に保存されている、非一時的なコンピュータ可読媒体。
- 未知の画像のための疑似画像と比較するための既知の画像の疑似画像のライブラリを含む、非一時的なコンピュータ可読媒体であって、
前記既知の画像の疑似画像は、既定の変換行列を使用して、前記既知の画像のスパースかつ非負の変換を実行して疑似画像にするステップを含む方法によって取得される、
非一時的なコンピュータ可読媒体。 - 非一時的なコンピュータ可読媒体であって、
(a)画像を疑似画像に変換するステップと、
(b)前記疑似画像を既知の画像の疑似画像のライブラリと比較するステップと、
(c)前記疑似画像と前記既知の画像の疑似画像のライブラリとの前記比較の結果を出力するステップと
を実行するための、コンピュータプロセッサによって実行可能な命令が保存されており、
前記ステップ(a)の前記変換は、既定の変換行列を使用したスパースかつ非負の変換である、
非一時的なコンピュータ可読媒体。 - 請求項23記載の非一時的なコンピュータ可読媒体と、前記非一時的なコンピュータ可読媒体に保存されている命令を実行するためのコンピュータプロセッサとを有する、コンピュータシステム。
- システムであって、当該システムは、
コンピュータプロセッサと、
少なくとも1つのコンピュータメモリと、
少なくとも1つのコンピュータストレージデバイスと、
画像を受信して、前記画像を前記少なくとも1つのコンピュータメモリに保存するコンピュータインターフェースと、
受信した前記画像のための疑似画像を生成して、前記疑似画像を前記少なくとも1つのコンピュータストレージデバイスに保存するための、前記コンピュータプロセッサによって実行可能なコンピュータプログラムと
を含み、
前記コンピュータプログラムは、既定の変換行列を使用して、前記画像のスパースかつ非負の変換を実行するステップを含む方法によって、前記疑似画像を生成することが可能である、
システム。 - 前記コンピュータプログラムは、前記疑似画像を疑似画像のライブラリと比較し、前記比較の結果を出力することが可能である、請求項25記載のシステム。
- 前記コンピュータプログラムは、前記疑似画像を前記疑似画像のライブラリに含めることが可能である、請求項25または26記載のシステム。
- 当該システムは、前記コンピュータインターフェースに画像を提供することができる画像捕捉装置をさらに含む、請求項25記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862693136P | 2018-07-02 | 2018-07-02 | |
US62/693,136 | 2018-07-02 | ||
PCT/US2019/039313 WO2020009877A1 (en) | 2018-07-02 | 2019-06-26 | Facial image recognition using pseudo-images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528728A true JP2021528728A (ja) | 2021-10-21 |
JP7357010B2 JP7357010B2 (ja) | 2023-10-05 |
Family
ID=69055232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567494A Active JP7357010B2 (ja) | 2018-07-02 | 2019-06-26 | 疑似画像を使用した顔画像認識 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11157721B2 (ja) |
EP (1) | EP3818693A4 (ja) |
JP (1) | JP7357010B2 (ja) |
KR (1) | KR20210025020A (ja) |
CN (1) | CN112368708B (ja) |
WO (1) | WO2020009877A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
WO2020009877A1 (en) * | 2018-07-02 | 2020-01-09 | Stowers Institute For Medical Research | Facial image recognition using pseudo-images |
US20220343691A1 (en) * | 2019-06-06 | 2022-10-27 | Nippon Telegraph And Telephone Corporation | Image recognition system, image recognition server, and image recognition |
CN111368662B (zh) * | 2020-02-25 | 2023-03-21 | 华南理工大学 | 一种人脸图像属性编辑方法、装置、存储介质及设备 |
CN112132133B (zh) * | 2020-06-16 | 2023-11-17 | 中国科学院计算技术研究所数字经济产业研究院 | 标识图像数据增强方法及真伪智能鉴定方法 |
CN112085112A (zh) * | 2020-09-14 | 2020-12-15 | 苏州大学 | 一种图像类别检测方法、系统、电子设备及存储介质 |
CN112906656A (zh) * | 2021-03-30 | 2021-06-04 | 自然资源部第三海洋研究所 | 水下照片珊瑚礁识别方法、系统及存储介质 |
CN113591607B (zh) * | 2021-07-12 | 2023-07-04 | 辽宁科技大学 | 一种车站智能疫情防控系统及方法 |
CN114693684A (zh) * | 2022-06-01 | 2022-07-01 | 领伟创新智能系统(浙江)有限公司 | 一种机载式风机叶片缺陷检测方法 |
CN115203663B (zh) * | 2022-06-25 | 2023-08-22 | 北京基智科技有限公司 | 小视角远距离视频步态精准识别身份认证系统 |
CN114926890B (zh) * | 2022-07-20 | 2022-09-30 | 北京远鉴信息技术有限公司 | 一种人脸真伪的区分方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050246354A1 (en) * | 2003-08-29 | 2005-11-03 | Pablo Tamayo | Non-negative matrix factorization in a relational database management system |
JP2011081614A (ja) * | 2009-10-07 | 2011-04-21 | Denso It Laboratory Inc | 認識装置、認識方法及びプログラム |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6353688B1 (en) | 1993-06-08 | 2002-03-05 | The Regents Of The University Of California | Accelerated signal encoding and reconstruction using pixon method |
US5668897A (en) * | 1994-03-15 | 1997-09-16 | Stolfo; Salvatore J. | Method and apparatus for imaging, image processing and data compression merge/purge techniques for document image databases |
US6690830B1 (en) | 1998-04-29 | 2004-02-10 | I.Q. Bio Metrix, Inc. | Method and apparatus for encoding/decoding image data |
US6292575B1 (en) | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
HK1052831A2 (en) | 2002-09-19 | 2003-09-05 | Xiaoou Sean Tang | Sketch-photo recognition |
US7646924B2 (en) | 2004-08-09 | 2010-01-12 | David Leigh Donoho | Method and apparatus for compressed sensing |
RU2009139403A (ru) * | 2007-04-25 | 2011-05-27 | Пиксон Имэджинг ЭлЭлСи (US) | Сжатие и восстановление изображений с использованием способа pixon |
JP4881230B2 (ja) * | 2007-06-14 | 2012-02-22 | 株式会社東芝 | パターン認識装置及びその方法 |
US8406525B2 (en) * | 2008-01-31 | 2013-03-26 | The Regents Of The University Of California | Recognition via high-dimensional data classification |
US8671069B2 (en) | 2008-12-22 | 2014-03-11 | The Trustees Of Columbia University, In The City Of New York | Rapid image annotation via brain state decoding and visual pattern mining |
EP2328126A1 (en) * | 2009-11-27 | 2011-06-01 | Technical University of Denmark | Genome-wide association study identifying determinants of facial characteristics for facial image generation |
US8787682B2 (en) | 2011-03-22 | 2014-07-22 | Nec Laboratories America, Inc. | Fast image classification by vocabulary tree based image retrieval |
KR101453711B1 (ko) | 2011-04-15 | 2014-10-22 | 이미지레콘, 엘엘씨 | 반복적 영상 재구성에서 픽손 맵을 결정하는 방법 |
US20120287031A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
CN103164713B (zh) | 2011-12-12 | 2016-04-06 | 阿里巴巴集团控股有限公司 | 图像分类方法和装置 |
FR2989494B1 (fr) | 2012-04-16 | 2014-05-09 | Commissariat Energie Atomique | Procede de reconnaissance d'un contexte visuel d'une image et dispositif correspondant |
JP5887026B2 (ja) * | 2012-09-03 | 2016-03-16 | ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH | ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法 |
CN103268484A (zh) * | 2013-06-06 | 2013-08-28 | 温州大学 | 用于高精度人脸识别的分类器设计方法 |
WO2014203531A1 (ja) * | 2013-06-21 | 2014-12-24 | 富士フイルム株式会社 | 画像表示装置、画像表示方法および画像表示プログラム |
US9812150B2 (en) | 2013-08-28 | 2017-11-07 | Accusonus, Inc. | Methods and systems for improved signal decomposition |
US20150269314A1 (en) | 2014-03-20 | 2015-09-24 | Rudjer Boskovic Institute | Method and apparatus for unsupervised segmentation of microscopic color image of unstained specimen and digital staining of segmented histological structures |
US9519826B2 (en) | 2014-05-08 | 2016-12-13 | Shutterfly, Inc. | Automatic image product creation for user accounts comprising large number of images |
US9582890B2 (en) | 2014-05-19 | 2017-02-28 | Ricoh Company, Ltd. | Superpixel-based image segmentation using shading and albedo decomposition |
WO2015192263A1 (en) | 2014-06-16 | 2015-12-23 | Xiaoou Tang | A method and a system for face verification |
US9275309B2 (en) | 2014-08-01 | 2016-03-01 | TCL Research America Inc. | System and method for rapid face recognition |
US9251427B1 (en) | 2014-08-12 | 2016-02-02 | Microsoft Technology Licensing, Llc | False face representation identification |
US9710729B2 (en) | 2014-09-04 | 2017-07-18 | Xerox Corporation | Domain adaptation for image classification with class priors |
US9639954B2 (en) | 2014-10-27 | 2017-05-02 | Playsigh Interactive Ltd. | Object extraction from video images |
US9430694B2 (en) | 2014-11-06 | 2016-08-30 | TCL Research America Inc. | Face recognition system and method |
US10304008B2 (en) | 2015-03-20 | 2019-05-28 | Nec Corporation | Fast distributed nonnegative matrix factorization and completion for big data analytics |
US10776710B2 (en) * | 2015-03-24 | 2020-09-15 | International Business Machines Corporation | Multimodal data fusion by hierarchical multi-view dictionary learning |
US9704020B2 (en) | 2015-06-16 | 2017-07-11 | Microsoft Technology Licensing, Llc | Automatic recognition of entities in media-captured events |
US9430697B1 (en) | 2015-07-03 | 2016-08-30 | TCL Research America Inc. | Method and system for face recognition using deep collaborative representation-based classification |
US9704025B2 (en) | 2015-07-31 | 2017-07-11 | King Abdulaziz City For Science And Technology | Identifying non-occluded faces by learning from partially occluded faces |
US10884503B2 (en) | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
WO2020009877A1 (en) * | 2018-07-02 | 2020-01-09 | Stowers Institute For Medical Research | Facial image recognition using pseudo-images |
-
2019
- 2019-06-26 WO PCT/US2019/039313 patent/WO2020009877A1/en unknown
- 2019-06-26 US US16/453,545 patent/US11157721B2/en active Active
- 2019-06-26 JP JP2020567494A patent/JP7357010B2/ja active Active
- 2019-06-26 EP EP19831514.5A patent/EP3818693A4/en active Pending
- 2019-06-26 KR KR1020207037767A patent/KR20210025020A/ko active Search and Examination
- 2019-06-26 CN CN201980044730.2A patent/CN112368708B/zh active Active
-
2021
- 2021-08-07 US US17/396,667 patent/US11769316B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050246354A1 (en) * | 2003-08-29 | 2005-11-03 | Pablo Tamayo | Non-negative matrix factorization in a relational database management system |
JP2011081614A (ja) * | 2009-10-07 | 2011-04-21 | Denso It Laboratory Inc | 認識装置、認識方法及びプログラム |
Non-Patent Citations (3)
Title |
---|
M. RAJAPAKSE ET AL.: "COLOR CHANNEL ENCODING WITH NMF FOR FACE RECOGNITION", 2004 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING(ICIP), JPN6023016098, 24 October 2004 (2004-10-24), ISSN: 0005047070 * |
日野 英逸,村田 昇: "スパース表現の数理とその応用", 情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM) NO.183 NO.20, JPN6023016097, 15 October 2012 (2012-10-15), ISSN: 0005047069 * |
菊池 祥平,手塚 太郎: "スパース符号化を用いた試験結果からスキル構造の抽出", 第9回データ工学と情報マネジメントに関するフォーラム (第15回日本データベース学会年次大会) B8−, JPN6023016099, 27 February 2017 (2017-02-27), ISSN: 0005047071 * |
Also Published As
Publication number | Publication date |
---|---|
US11157721B2 (en) | 2021-10-26 |
US20210374388A1 (en) | 2021-12-02 |
JP7357010B2 (ja) | 2023-10-05 |
US11769316B2 (en) | 2023-09-26 |
CN112368708B (zh) | 2024-04-30 |
KR20210025020A (ko) | 2021-03-08 |
WO2020009877A1 (en) | 2020-01-09 |
EP3818693A1 (en) | 2021-05-12 |
US20200005023A1 (en) | 2020-01-02 |
EP3818693A4 (en) | 2021-10-13 |
CN112368708A (zh) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7357010B2 (ja) | 疑似画像を使用した顔画像認識 | |
US11645835B2 (en) | Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications | |
Bebis et al. | Face recognition by fusing thermal infrared and visible imagery | |
Kantarcı et al. | Thermal to visible face recognition using deep autoencoders | |
Verma et al. | Using convolutional neural networks to discover cogntively validated features for gender classification | |
Zahid et al. | A Multi Stage Approach for Object and Face Detection using CNN | |
Trokielewicz et al. | Post-mortem iris recognition resistant to biological eye decay processes | |
Mukherjee et al. | FuseKin: Weighted image fusion based kinship verification under unconstrained age group | |
Qiu et al. | Learning transformations for classification forests | |
Hussein | Robust iris recognition framework using computer vision algorithms | |
Al-Wajih et al. | A new application for gabor filters in face-based gender classification. | |
Aro et al. | Enhanced Gabor features based facial recognition using ant colony optimization algorithm | |
Josephine | A Novel Binary Texture Pattern’s Based On Facial Expression Classification Using Neural Network | |
Menezes | Analysis and evaluation of deep learning based super-resolution algorithms to improve performance in low-resolution face recognition | |
Barrah et al. | Extended Set of DCT-TPLBP and DCT-FPLBP for Face Recognition | |
Thom | Attributes in Face Processing: Novel Methods for Explanation, Training, and Representation | |
Dhar et al. | Face Recognition by Radial Basis Function Network (RBFN) | |
Khan et al. | Critical Evaluation of Frontal Image-Based Gender Classification Techniques | |
Chang et al. | Skin feature point tracking using deep feature encodings | |
Sajja et al. | Face recognition using local binary pattern and Gabor-Kernel Fisher analysis | |
Kaliappan et al. | Chinese cabbage leaf disease prediction and classification using Naive Bayes VGG-19 convolution deep neural network | |
TW202347173A (zh) | 使用局部赫布法則為基的更新之用於無變化物件表示和分類的神經網路架構 | |
Olatunji et al. | Feature Level Fusion Algorithm for Iris and Face | |
Kant Kumar et al. | Estimating attention of faces due to its growing level of emotions | |
Abbas et al. | COMBINING FEATURE DESCRIPTOR TECHNIQUES WITH CONVOLUTIONAL NEURAL NETWORK FOR MASKED FACIAL RECOGNITION |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7357010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |