JP2017510927A - 基準画像に基づく顔画像検証方法、及び顔画像検証システム - Google Patents
基準画像に基づく顔画像検証方法、及び顔画像検証システム Download PDFInfo
- Publication number
- JP2017510927A JP2017510927A JP2017503042A JP2017503042A JP2017510927A JP 2017510927 A JP2017510927 A JP 2017510927A JP 2017503042 A JP2017503042 A JP 2017503042A JP 2017503042 A JP2017503042 A JP 2017503042A JP 2017510927 A JP2017510927 A JP 2017510927A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- identity
- parameters
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012795 verification Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000005259 measurement Methods 0.000 claims abstract description 20
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 230000001815 facial effect Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000007935 neutral effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 208000004547 Hallucinations Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/68—Analysis of geometric attributes of symmetry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して身元の代表画像とするステップと、
獲得された代表画像と身元の複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定するステップと、
決定されたパラメータを有する画像再構成ネットワークを介して少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成するステップと、
再構成された基準画像を比較して、再構成された基準画像が同じ身元に属するか否かを検証するステップとを含んでもよく、
その中で、代表画像は正面画像であり、かつ正面測定値は各顔画像の対称性とシャープネスを表す。
同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して身元の代表画像とするように構成される獲得ユニットと、
入力顔画像をそれぞれ相応の基準画像として再構成するように構成される画像再構成ユニットと、
獲得ユニットで獲得された代表画像と身元の複数の顔画像との間のマッピングに基づいて画像再構成ユニットのパラメータを決定するように構成される決定ユニットと、
画像再構成ネットワークで再構成された基準画像を比較し、再構成された基準画像が同じ身元に属するか否かを検証するように構成される比較ユニットとを備えてもよく、
その中で、代表画像は正面画像であり、かつ正面測定値は各顔画像の対称性とシャープネスを表す。
その中で、Yi∈R2a×2aであり、λは定数係数であり、||・||Fはフロベニウスノルムであり、||・||*は行列の特異値の合計である核ノルムを表し、P,Q∈R2a×2aは2つの定数行列であり、その中で、P=diag([1a,0a])かつQ=diag([0a,1a])であり、ここで、diag(・)は対角行列を表す。
その中で、M(Yi)式(1)で限定される。式(2)において、Yとαについて、最適化問題は凸でない。しかしながら、Yが固定されている場合、αに関する問題は、凸のLasso問題になるが、αが固定されている場合、Yの関数は凸の項および凹の項に分かれ、これは負の核ノルムである。これは、CCCP(concave−convex procedure:凹凸プロシージャ)によって解を求めることができる。
その中で、Wl pq,uvおよび(Xl p)uvは、それぞれ画像位置の(u,v)でのフィルターと画像パッチを表す。pとqは入力チャネルと出力チャネルの番号である。例えば、第1の畳み込み層において、p=1,q=1,...,32である。したがって、Xl+1 q,uvは、位置(u,v)にある第qのチャネル出力であり、すなわち、第l+1の層への入力であることを表す。σ(x)=max(0,x)は正規化線形関数(Rectified linear function)であり、および「○」は、要素ごとの積を表す。バイアスベクトルは、bで表われる。完全接続層において、顔画像
本発明の実施形態において、顔選択および顔回復は、式(2)および式(3)を組み合わせることにより共同学習し、
その中で、γ,τ,λ,η’は、正則化項のバランスパラメータである。式(6)は、各選択された画像Yiが正面画像を有し、識別力を維持し、かつ損失誤差を最小化させる必要があることを示す。下記のステップによりYi,αi,Wの値を繰り返して獲得する。
αiについて、式(6)がLasso問題になり、それは、FISTA(fast iterative shrinkage−thresholding algorithm、高速逐次的縮退しきい値アルゴリズム)により効率的に解を求めることができる。
当該問題は、3つの凸の項(フロベニウスノルム)および1つの凹の項(核ノルム)を含み、これは、最適な解を得ることを確保することができないと意味する。反復更新ルールは、
その中で、
画像再構成ネットワークにおける活性化関数に起因して当該問題が非線形性問題になる。当該問題は、SGD(stochastic gradient descent、確率的勾配降下)を利用して逆伝播して解を求めることができる。
出力:ターゲット{Yi}とネットワークパラメータW
初期化:t=0、教師なし特徴学習によりWを初期化させ、各身元iについて、Yi t∈Diを式(1)の最小値を持つ画像として設定し、
t<Tである場合、
各X0 ijに対して、
確率的勾配降下によりWを更新し、
終了
各身元iに対して、
式(7)を利用してYi ’を計算し、
Yi t+1∈DiをYi ’に最も近い画像として設定し、
終了
終了
その後、ステップS1004において、ステップS1002で再構成された基準画像を比較してそれらが同じ身元に属するか否かを検証し、すなわち、それぞれ基準画像に対応した顔画像が同じ身元に属するか否かを検証する。
その中で、
出力:ターゲット{Yi}とネットワークパラメータW
初期化:t=0、教師なし特徴学習によりWを初期化させ、各身元iについて、Yi t∈Diを式(1)の最小値を持つ画像として設定し、
t<Tである場合、
各X0 ijに対して、
確率的勾配降下によりWを更新し、
終了
各身元iに対して、
式(7)を利用してYi ’を計算し、
Yi t+1∈DiをYi ’に最も近い画像として設定し、
終了
終了
その後、ステップS1004において、ステップS1003で再構成された基準画像を比較してそれらが同じ身元に属するか否かを検証し、すなわち、それぞれ基準画像に対応した顔画像が同じ身元に属するか否かを検証する。
Claims (18)
- 同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して前記身元の代表画像とする獲得ステップと、
獲得された前記代表画像と前記身元の前記複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定する決定ステップと、
決定されたパラメータを有する前記画像再構成ネットワークを介して、少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成する再構成ステップと、
再構成された基準画像を比較して、再構成された基準画像が同じ身元に属するか否かを検証する比較ステップと、を含み、
その中で、前記代表画像は正面画像であり、前記正面測定値は各前記顔画像の対称性とシャープネスを表すこと
を特徴とする基準画像に基づく顔画像の検証方法。 - 前記再構成ステップの後、前記方法は、
入力顔画像と、再構成された相応の基準画像との間の変換に基づいて、前記画像再構成ネットワークのパラメータを調整するステップをさらに含むこと
を特徴とする基準画像に基づく顔画像の検証方法。 - 前記画像再構成ネットワークは、複数層を有するサブネットワークを備え、かつ前記決定ステップは、
画像訓練セットの入力により前記マッピングに基づいて前記画像再構成ネットワークの各層の初期パラメータを決定するステップと、
前記サブネットワークの最後の層の出力と、想定ターゲットとを比較して前記サブネットワークの最後の層の出力と前記想定ターゲットとの誤差を取得するステップと、
得られた誤差に基づいて前記初期パラメータを微調整して前記画像再構成ネットワークの全てのパラメータを具体化させるステップとをさらに含み、
その中で、前記画像再構成ネットワークの各層の初期パラメータを決定する期間に、前記サブネットワークの前の層の出力を前記サブネットワークの現在の層に入力こと
を特徴とする請求項1に記載の方法。 - 前記比較ステップの前に、前記方法は、
任意の2つの再構成された基準画像の間の類似度を取得して画像検証ネットワークのパラメータを決定するステップをさらに含むこと
を特徴とする請求項1に記載の方法。 - 再構成された基準画像のいずれの画像から、それぞれ1つ以上の顔部品を選択して1つ以上の顔部品対を形成するステップと、
前記顔部品対の間の類似度を取得して前記画像検証ネットワークのパラメータを決定するステップとをさらに含み、
その中で、前記顔部品対のいずれも、それぞれ前記基準画像における同一顔領域に対応した顔部品を含むこと
を特徴とする請求項4に記載の方法。 - 前記正面測定値M(Yi)は、
その中で、Yi∈Diは、顔画像セットDiにおける顔画像を表し、
λは、定数係数であり、
||・||Fは、フロベニウスノルムであり、
||・||*は、核ノルムであり、
P、Qは、2つの定数行列を表し、その中で、P=diag([1a,0a])かつQ=diag([0a,1a])であり、ここで、diag(・)は、対角行列を表すこと
を特徴とする請求項1に記載の方法。 - 同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して前記身元の代表画像とするように構成される獲得ユニットと、
入力顔画像をそれぞれ相応の基準画像として再構成するように構成される画像再構成ユニットと、
前記獲得ユニットで獲得された前記代表画像と前記身元の前記複数の顔画像との間のマッピングに基づいて前記画像再構成ユニットのパラメータを決定するように構成される決定ユニットと、
前記画像再構成ネットワークで再構成された前記基準画像を比較し、再構成された基準画像が同じ身元に属するか否かを検証するように構成される比較ユニットとを備え、
その中で、前記代表画像は正面画像であり、かつ前記正面測定値は各前記顔画像の対称性とシャープネスを表すこと
を特徴とする基準画像に基づく顔画像の検証システム。 - 前記決定ユニットは、さらに、入力顔画像と再構成された相応の基準画像との間の変換に基づいて、前記画像再構成ネットワークのパラメータを調整するように構成されること
を特徴とする請求項7に記載のシステム。 - 前記画像再構成ユニットは、多層画像再構成ニューラルネットワークとして形成されていること
を特徴とする請求項7に記載のシステム。 - 前記画像再構成ニューラルネットワークは、複数層を有するサブネットワークを備え、かつ前記決定ユニットは、さらに、画像訓練セットの入力により前記マッピングに基づいて前記画像再構成ニューラルネットワークの各層の初期パラメータを決定し、その中で、前記画像再構成ニューラルネットワークの各層の初期パラメータを決定する期間に、前記サブネットワークの前の層の出力を前記サブネットワークの現在の層に入力するように構成され、
前記決定ユニットは、さらに、前記サブネットワークの最後の層の出力と、想定ターゲットとを比較して前記サブネットワークの最後の層の出力と前記想定ターゲットとの誤差を取得し、かつ、得られた誤差に基づいて前記初期パラメータを微調整して前記画像再構成ネットワークの全てのパラメータを具体化させるように構成されること
を特徴とする請求項9に記載のシステム。 - 任意の2つの再構成された基準画像の間の類似度を取得するように構成される取得ユニットと、
対になる顔画像が同じ身元に属するか否かを検証するように構成される画像検証ユニットとをさらに備え、
その中で、前記決定ユニットは、さらに、前記取得ユニットで取得された任意の2つの再構成された基準画像の間の類似度に基づいて前記画像検証ユニットのパラメータを決定するように構成されること
を特徴とする請求項8に記載のシステム。 - 再構成された基準画像のいずれの画像から、それぞれ1つ以上の顔部品を選択して1つ以上の顔部品対を形成し、前記顔部品対のいずれも、それぞれ前記基準画像における同一顔領域に対応した顔部品を含むように構成される選択ユニットをさらに備え、かつ
その中で、前記取得ユニットは、さらに、前記顔部品対の間の類似度を取得するように構成され、かつ
前記決定ユニットは、さらに、前記取得ユニットで取得された前記顔部品対の間の類似度に基づいて前記画像検証ユニットのパラメータを決定するように構成されること
を特徴とする請求項11に記載のシステム。 - 前記正面測定値M(Yi)は、
その中で、Yi∈Diは、顔画像セットDiにおける顔画像を表し、
λは、定数係数であり、
||・||Fは、フロベニウスノルムであり、
||・||*は、核ノルムであり、
P、Qは、2つの定数行列を表し、その中で、P=diag([1a,0a])かつQ=diag([0a,1a])であり、ここで、diag(・)は、対角行列を表すこと
を特徴とする請求項7に記載のシステム。 - 前記画像検証ユニットは、多層画像検証ニューラルネットワークとして形成されている、請求項11に記載のシステム。
- 同一の身元の複数の顔画像から顔画像を獲得して前記身元の代表画像とする獲得ステップと、
獲得された代表画像と前記身元の前記複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定する決定ステップと、
決定されたパラメータを有する前記画像再構成ネットワークを介して、少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成する再構成ステップと、
任意の2つの再構成された基準画像の間の類似度を取得して画像検証ネットワークのパラメータを決定する取得ステップと、
決定されたパラメータを有する前記画像検証ネットワークを介して、再構成された基準画像が同じ身元に属するか否かを検証する検証ステップとを含み、
その中で、前記代表画像は、正面画像であること
を特徴とする基準画像に基づく顔画像の検証方法。 - 前記画像再構成ネットワークは、複数のサブネットワーク層を備え、かつ前記決定ステップは、
画像訓練セットの入力により前記マッピングに基づいて前記画像再構成ネットワークの各層の初期パラメータを決定するステップと、
サブネットワークの最後の層の出力と、想定ターゲットとを比較して前記サブネットワークの最後の層の出力と前記想定ターゲットとの誤差を取得するステップと、
得られた誤差に基づいて前記初期パラメータを微調整して前記画像再構成ネットワークの全てのパラメータを具体化させるステップとをさらに含み、
その中で、前記決定期間に、サブネットワークの前層の出力をサブネットワークの現在層に入力こと
を特徴とする請求項15に記載の方法。 - 前記獲得ステップにおいては、
最小の正面測定値を持つ顔画像を獲得して前記身元の前記代表画像とするステップをさらに含み
その中で、前記正面測定値は、各顔画像の対称性とシャープネスを表すこと
を特徴とする請求項15に記載の方法。 - 前記再構成された基準画像のいずれの画像から、それぞれ1つ以上の顔部品を選択して1つ以上の顔部品対を形成するステップと、
前記顔部品対の間の類似度を取得するステップと、
取得された任意の2つの再構成された基準画像の間の類似度、および取得された前記顔部品対の間の類似度に基づいて前記画像検証ネットワークのパラメータを決定するステップとをさらに含み、
その中で、前記顔部品対のいずれも、それぞれ前記基準画像における同一顔領域に対応した顔部品を含むこと
を特徴とする請求項15に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/000389 WO2015154205A1 (en) | 2014-04-11 | 2014-04-11 | Methods and systems for verifying face images based on canonical images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017510927A true JP2017510927A (ja) | 2017-04-13 |
JP6244059B2 JP6244059B2 (ja) | 2017-12-06 |
Family
ID=54287072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503042A Active JP6244059B2 (ja) | 2014-04-11 | 2014-04-11 | 基準画像に基づく顔画像検証方法、及び顔画像検証システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10037457B2 (ja) |
JP (1) | JP6244059B2 (ja) |
CN (1) | CN106462724B (ja) |
WO (1) | WO2015154205A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022501595A (ja) * | 2018-09-20 | 2022-01-06 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド | 標本分類のための仮説および検証ネットワークおよび方法 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127439B2 (en) * | 2015-01-15 | 2018-11-13 | Samsung Electronics Co., Ltd. | Object recognition method and apparatus |
US9836669B2 (en) | 2016-02-22 | 2017-12-05 | International Business Machines Corporation | Generating a reference digital image based on an indicated time frame and searching for other images using the reference digital image |
US10043240B2 (en) | 2016-04-14 | 2018-08-07 | Microsoft Technology Licensing, Llc | Optimal cropping of digital image based on professionalism score of subject |
US10043254B2 (en) | 2016-04-14 | 2018-08-07 | Microsoft Technology Licensing, Llc | Optimal image transformation based on professionalism score of subject |
US9904871B2 (en) * | 2016-04-14 | 2018-02-27 | Microsoft Technologies Licensing, LLC | Deep convolutional neural network prediction of image professionalism |
CN106127120B (zh) * | 2016-06-16 | 2018-03-13 | 北京市商汤科技开发有限公司 | 姿势估计方法和装置、计算机系统 |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US10691923B2 (en) * | 2016-09-30 | 2020-06-23 | Intel Corporation | Face anti-spoofing using spatial and temporal convolutional neural network analysis |
US11017269B2 (en) * | 2016-09-30 | 2021-05-25 | General Electric Company | System and method for optimization of deep learning architecture |
CN107992728B (zh) * | 2016-10-27 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 人脸验证方法及装置 |
US10339408B2 (en) * | 2016-12-22 | 2019-07-02 | TCL Research America Inc. | Method and device for Quasi-Gibbs structure sampling by deep permutation for person identity inference |
US10657446B2 (en) | 2017-06-02 | 2020-05-19 | Mitsubishi Electric Research Laboratories, Inc. | Sparsity enforcing neural network |
US10769261B2 (en) * | 2018-05-09 | 2020-09-08 | Futurewei Technologies, Inc. | User image verification |
CN109636886B (zh) * | 2018-12-19 | 2020-05-12 | 网易(杭州)网络有限公司 | 图像的处理方法、装置、存储介质和电子装置 |
KR20210073135A (ko) * | 2019-12-10 | 2021-06-18 | 삼성전자주식회사 | 눈 복원 기반의 눈 추적 방법 및 장치 |
US11302063B2 (en) | 2020-07-21 | 2022-04-12 | Facebook Technologies, Llc | 3D conversations in an artificial reality environment |
US11810397B2 (en) | 2020-08-18 | 2023-11-07 | Samsung Electronics Co., Ltd. | Method and apparatus with facial image generating |
US11461962B1 (en) * | 2021-06-28 | 2022-10-04 | Meta Platforms Technologies, Llc | Holographic calling for artificial reality |
US11676329B1 (en) | 2022-01-07 | 2023-06-13 | Meta Platforms Technologies, Llc | Mobile device holographic calling with front and back camera capture |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070086627A1 (en) * | 2005-10-18 | 2007-04-19 | Samsung Electronics Co., Ltd. | Face identification apparatus, medium, and method |
JP2008077536A (ja) * | 2006-09-25 | 2008-04-03 | Sony Corp | 画像処理装置および方法、並びにプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE248409T1 (de) * | 1998-04-13 | 2003-09-15 | Eyematic Interfaces Inc | Wavelet-basierte gesichtsbewegungserfassung für avataranimation |
US6671391B1 (en) * | 2000-05-26 | 2003-12-30 | Microsoft Corp. | Pose-adaptive face detection system and process |
US6829384B2 (en) * | 2001-02-28 | 2004-12-07 | Carnegie Mellon University | Object finder for photographic images |
US7194114B2 (en) * | 2002-10-07 | 2007-03-20 | Carnegie Mellon University | Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder |
US7564994B1 (en) * | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
EP2115662B1 (en) * | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
US8831293B2 (en) * | 2008-04-21 | 2014-09-09 | Mts Investments Inc. | System and method for statistical mapping between genetic information and facial image data |
CN100557623C (zh) * | 2008-05-13 | 2009-11-04 | 清华大学 | 基于各向异性双树复小波包变换的人脸识别方法 |
CN101739546A (zh) * | 2008-11-05 | 2010-06-16 | 沈阳工业大学 | 基于图像交叉重建的单样本注册图像人脸识别方法 |
CN101866497A (zh) * | 2010-06-18 | 2010-10-20 | 北京交通大学 | 基于双目立体视觉的智能三维人脸重建方法及系统 |
US8861800B2 (en) * | 2010-07-19 | 2014-10-14 | Carnegie Mellon University | Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction |
US9251402B2 (en) * | 2011-05-13 | 2016-02-02 | Microsoft Technology Licensing, Llc | Association and prediction in facial recognition |
JP5791364B2 (ja) * | 2011-05-16 | 2015-10-07 | キヤノン株式会社 | 顔認識装置、顔認識方法、顔認識プログラム、およびそのプログラムを記録した記録媒体 |
US8655029B2 (en) * | 2012-04-10 | 2014-02-18 | Seiko Epson Corporation | Hash-based face recognition system |
CN103377367B (zh) * | 2012-04-28 | 2018-11-09 | 南京中兴新软件有限责任公司 | 面部图像的获取方法及装置 |
CN103426190B (zh) * | 2013-07-23 | 2016-07-06 | 北京航空航天大学 | 图像重构的方法及系统 |
CN103605972B (zh) * | 2013-12-10 | 2017-02-15 | 康江科技(北京)有限责任公司 | 一种基于分块深度神经网络的非限制环境人脸验证方法 |
-
2014
- 2014-04-11 JP JP2017503042A patent/JP6244059B2/ja active Active
- 2014-04-11 WO PCT/CN2014/000389 patent/WO2015154205A1/en active Application Filing
- 2014-04-11 CN CN201480077597.8A patent/CN106462724B/zh active Active
-
2016
- 2016-09-30 US US15/282,851 patent/US10037457B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070086627A1 (en) * | 2005-10-18 | 2007-04-19 | Samsung Electronics Co., Ltd. | Face identification apparatus, medium, and method |
JP2008077536A (ja) * | 2006-09-25 | 2008-04-03 | Sony Corp | 画像処理装置および方法、並びにプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022501595A (ja) * | 2018-09-20 | 2022-01-06 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド | 標本分類のための仮説および検証ネットワークおよび方法 |
JP7203206B2 (ja) | 2018-09-20 | 2023-01-12 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド | 標本分類のための仮説および検証ネットワークおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2015154205A1 (en) | 2015-10-15 |
JP6244059B2 (ja) | 2017-12-06 |
US20170083754A1 (en) | 2017-03-23 |
CN106462724A (zh) | 2017-02-22 |
US10037457B2 (en) | 2018-07-31 |
CN106462724B (zh) | 2019-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6244059B2 (ja) | 基準画像に基づく顔画像検証方法、及び顔画像検証システム | |
CN108182441B (zh) | 平行多通道卷积神经网络、构建方法及图像特征提取方法 | |
CN107085716B (zh) | 基于多任务生成对抗网络的跨视角步态识别方法 | |
CN109063724B (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN109117826B (zh) | 一种多特征融合的车辆识别方法 | |
KR20230021043A (ko) | 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치 | |
CN112488205B (zh) | 基于优化kpca算法的神经网络图像分类识别方法 | |
CN109800710B (zh) | 行人重识别系统及方法 | |
CN104268593B (zh) | 一种小样本情况下多稀疏表示的人脸识别方法 | |
Thapar et al. | VGR-net: A view invariant gait recognition network | |
CN107463920A (zh) | 一种消除局部遮挡物影响的人脸识别方法 | |
Tuzel et al. | Global-local face upsampling network | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
JP2012160178A (ja) | オブジェクト認識デバイス、オブジェクト認識を実施する方法および動的アピアランスモデルを実施する方法 | |
CN110516537B (zh) | 一种基于自步学习的人脸年龄估计方法 | |
CN110222213A (zh) | 一种基于异构张量分解的图像分类方法 | |
US11093800B2 (en) | Method and device for identifying object and computer readable storage medium | |
CN110879982A (zh) | 一种人群计数系统及方法 | |
Shen et al. | Facial expression recognition based on bidirectional gated recurrent units within deep residual network | |
Liu et al. | Dunhuang murals contour generation network based on convolution and self-attention fusion | |
CN116152645A (zh) | 一种融合多种表征平衡策略的室内场景视觉识别方法及系统 | |
Zhan et al. | Age estimation based on extended non-negative matrix factorization | |
CN105184320A (zh) | 基于结构相似度的非负稀疏编码的图像分类方法 | |
Abayomi-Alli et al. | Facial image quality assessment using an ensemble of pre-trained deep learning models (EFQnet) | |
CN108256569A (zh) | 一种复杂背景下的对象识别方法及使用的计算机技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161004 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6244059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |