JP2022553776A - 視線方向特定方法、装置、電子機器及び記憶媒体 - Google Patents
視線方向特定方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022553776A JP2022553776A JP2022524710A JP2022524710A JP2022553776A JP 2022553776 A JP2022553776 A JP 2022553776A JP 2022524710 A JP2022524710 A JP 2022524710A JP 2022524710 A JP2022524710 A JP 2022524710A JP 2022553776 A JP2022553776 A JP 2022553776A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- features
- eye
- facial
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000001815 facial effect Effects 0.000 claims abstract description 356
- 238000013528 artificial neural network Methods 0.000 claims description 85
- 238000000605 extraction Methods 0.000 claims description 27
- 230000004927 fusion Effects 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本願は、2019年12月30日に提出された、出願番号が201911403648.2である中国特許出願の優先権を要求し、当該出願の全文が引用によって本願に組み込まれる。
g=gb+gr (1)
視線残差情報は、実視線方向と初期視線方向との差異を示すときに、ベクトルで示してもよい。ここで、世界座標系を導入して初期視線方向及び視線残差情報を示してもよい。視線残差情報と初期視線方向との和を求めるときに、初期視線方向と視線残差情報との世界座標系における同一方向軸の値を対応的に加算すると、目標オブジェクトの視線方向を取得する。
顔部画像を第1特徴抽出ネットワークに入力して第1特徴抽出ネットワークの処理を経て顔部特徴を取得する。第1特徴抽出ネットワークは、予めトレーニングされた視線方向予測を行うニューラルネットワークのうち、顔部特徴抽出を行うためのサブニューラルネットワークである。
左目画像を第2特徴抽出ネットワークに入力し、第2特徴抽出ネットワークの処理を経て左目特徴を取得し、且つ右目画像を第3特徴抽出ネットワークに入力し、第3特徴抽出ネットワークの処理を経て右目特徴を取得する。
(1)顔部特徴及び左目特徴に基づいて左目特徴の第1スコアを特定し、且つ、顔部特徴及び右目特徴に基づいて右目特徴の第2スコアを特定することと、
(2)第1スコア及び第2スコアに基づいて、第1重み及び第2重みを特定することと、を含む。
顔部特徴及び左目特徴を注意力ネットワークに入力し、注意力ネットワークの処理を経て左目特徴の第1スコアを取得し、且つ、顔部特徴及び右目特徴を注意力ネットワークに入力し、注意力ネットワークの処理を経て右目特徴の第2スコアを取得する。
ml=W1 Ttanh(W2 Tff+W3 Tfl) (2)
ここでのmlは、左目特徴に対応する第1スコアを示し、W1、W2及びW3は、注意力ネットワークにおけるネットワークパラメータ、即ち、注意力ネットワークのトレーニングを完了して得たネットワークパラメータであり、ffは、顔部特徴を示し、flは、左目特徴を示す。
mr=W1 Ttanh(W2 Tff+W3 Tfr) (3)
ここでのmrは、右目特徴に対応する第2スコアを示し、W1、W2及びW3は、注意力ネットワークにおけるネットワークパラメータ、即ち、注意力ネットワークのトレーニングを完了して得たネットワークパラメータであり、ffは、顔部特徴を示し、frは、右目特徴を示す。
[wl,wr]=soft max([ml,mr]) (4)
ここで、正規化指数関数softmax関数を導入すると、左目特徴に対応する第1重みwlと、右目特徴に対応する第2重みwrとを取得することができる。
fe=wl*fl+wr*fr (5)
本発明の実施例では、顔部特徴と左目特徴とを組み合わせ、且つ顔部特徴と右目画像とを組み合わせることにより、視線方向を特定するときにおける左目画像及び右目画像の異なる貢献をそれぞれ特定し、これによって正確度の高い眼部特徴を特定し、更に視線残差情報の正確度の向上を容易にする。
S501では、顔部特徴における各特徴点の重みを特定し、顔部特徴における各特徴点の重みに基づいて顔部特徴を調整する。
S502では、調整された顔部特徴に基づいて目標オブジェクトの初期視線方向を特定する。
眼部特徴及び調整後の顔部特徴に基づいて、調整後の顔部特徴における各特徴点の重みを特定する。
眼部特徴及び調整後の顔部特徴に基づいて、中間特徴及び調整後の顔部特徴のそれぞれに対応する重みを特定する。
Wz、Wr、Whは、ゲートネットワークにおけるネットワークパラメータであり、σは、sigmoid演算を示し、ReLUは、活性化関数を示し、fは、受信された対応する特徴(顔部特徴を処理するときに、ここでのfは、顔部特徴を示し、眼部特徴を処理するときに、ここでのfは、眼部特徴を示す)を示し、ztは、sigmoid演算を行って得た重みを示し、rtは、sigmoid演算を行って得た重みを示し、
は、入力ゲートネットワークにおける特徴を融合して得た中間特徴を示し、htは、中間特徴と隣接ゲートネットワークから出力された特徴との加重和を示し、h0は、0と設定される。
は、取得される。また、上記取得された顔部特徴の中間特徴の重みz1と、隣接ゲートネットワークから出力された特徴h0に対応する重み1-z1とを上記数式(10)に代入してt=1、f=ffとすると、調整後の顔部特徴
は、取得される。ここで、h0は、0に等しい。
眼部特徴及び調整後の顔部特徴を第2ゲートネットワークに入力し、第2ゲートネットワークの処理を経て融合後の特徴を取得し、第2ゲートネットワークは、予めトレーニングされた視線方向予測を行うニューラルネットワークのうち、融合後の特徴を予測するためのサブニューラルネットワークである。
(1)第2ゲートネットワークを介して、調整後の顔部特徴、眼部特徴、及び調整後の顔部特徴における各特徴点の重みを処理して中間特徴を取得する。
(2)中間特徴、調整後の顔部特徴、並びに、中間特徴及び調整後の顔部特徴のそれぞれに対応する重みに基づいて、第2ゲートネットワークを介して中間特徴及び調整後の顔部特徴を加重加算して融合後の特徴を取得する。
第2ゲートネットワークを介して眼部特徴及び調整後の顔部特徴に対して第1処理を行って調整後の顔部特徴における各特徴点の重みを取得する。ここで、第2ゲートネットワークは、第1処理を行うときに、トレーニングされた重み割当関数における第1ネットワークパラメータ情報を用いる。
である。
眼部特徴及び調整後の顔部特徴に対して第2処理を行って中間特徴及び調整後の顔部特徴のそれぞれに対応する重みを取得する。ここで、第2ゲートネットワークは、第2処理を行うときに、トレーニングされた重み割当関数における第2ネットワークパラメータ情報を利用する。
を取得する。
融合後の特徴を第2多層パーセプトロン(MLP)に入力し、第2多層パーセプトロンの処理を経て視線残差情報を取得する。第2多層パーセプトロンは、予めトレーニングされた視線方向予測を行うニューラルネットワークのうち、視線残差情報を予測するためのサブニューラルネットワークである。
目標オブジェクトの顔部画像及び眼部画像を取得することと、顔部画像から目標オブジェクトの顔部特徴を抽出することと、目標オブジェクトの顔部特徴及び眼部画像に基づいて目標オブジェクトの眼部特徴を特定することと、顔部特徴に基づいて目標オブジェクトの初期視線方向を予測し、且つ、顔部特徴と眼部特徴とを融合した融合特徴に基づいて、視線残差情報を予測して取得することと、視線残差情報に基づいて初期視線方向を修正し、目標オブジェクトの視線方向を取得することという処理は、実施される。
Claims (20)
- 視線方向特定方法であって、
目標オブジェクトの顔部画像及び眼部画像を取得するステップと、
前記顔部画像から前記目標オブジェクトの顔部特徴を抽出するステップと、
前記目標オブジェクトの顔部特徴及び前記眼部画像に基づいて前記目標オブジェクトの眼部特徴を特定するステップと、
前記顔部特徴に基づいて前記目標オブジェクトの初期視線方向を予測し、且つ、前記顔部特徴と前記眼部特徴とを融合した融合特徴に基づいて、視線残差情報を予測して取得するステップと、
前記視線残差情報に基づいて前記初期視線方向を修正し、前記目標オブジェクトの視線方向を取得するステップと、を含むことを特徴とする視線方向特定方法。 - 前記眼部画像は、左目画像及び右目画像を含み、前記目標オブジェクトの顔部特徴及び前記眼部画像に基づいて前記目標オブジェクトの眼部特徴を特定するステップは、
前記左目画像から左目特徴を抽出することと、
前記右目画像から右目特徴を抽出することと、
前記顔部特徴、前記左目特徴及び前記右目特徴に基づいて、前記左目特徴に対応する第1重みと前記右目特徴に対応する第2重みとを特定することと、
前記第1重み及び前記第2重みに基づいて、前記左目特徴と前記右目特徴とを加重加算して前記眼部特徴を取得することと、を含むことを特徴とする請求項1に記載の視線方向特定方法。 - 前記顔部特徴、前記左目特徴及び前記右目特徴に基づいて、前記左目特徴に対応する第1重みと前記右目特徴に対応する第2重みとを特定することは、
前記顔部特徴及び前記左目特徴に基づいて前記左目特徴の第1スコアを特定し、且つ前記顔部特徴及び前記右目特徴に基づいて前記右目特徴の第2スコアを特定することと、
前記第1スコア及び第2スコアに基づいて、前記第1重み及び第2重みを特定することと、を含むことを特徴とする請求項2に記載の視線方向特定方法。 - 前記顔部特徴に基づいて前記目標オブジェクトの初期視線方向を予測することは、
前記顔部特徴における各特徴点の重みを特定し、前記顔部特徴における各特徴点の重みに基づいて前記顔部特徴を調整することと、
調整された顔部特徴に基づいて前記目標オブジェクトの初期視線方向を特定することと、を含むことを特徴とする請求項1から3の何れか一項に記載の視線方向特定方法。 - 前記顔部特徴及び前記眼部特徴に基づいて前記融合特徴を特定することは、
前記調整された顔部特徴と、前記眼部特徴と、前記調整された顔部特徴における各特徴点の重みとに基づいて、中間特徴を特定することと、
前記中間特徴と、前記調整された顔部特徴と、前記中間特徴及び前記調整された顔部特徴のそれぞれに対応する重みとに基づいて、前記中間特徴と前記調整された顔部特徴とを加重加算して前記融合特徴を取得することと、によって実施されることを特徴とする請求項4に記載の視線方向特定方法。 - 前記調整された顔部特徴における各特徴点の重みを特定することは、
前記眼部特徴と前記調整された顔部特徴とに基づいて、前記調整された顔部特徴における各特徴点の重みを特定することによって実施されることを特徴とする請求項5に記載の視線方向特定方法。 - 前記中間特徴及び前記調整された顔部特徴のそれぞれに対応する重みを特定することは、
前記眼部特徴と前記調整された顔部特徴とに基づいて、前記中間特徴及び前記調整された顔部特徴のそれぞれに対応する重みを特定することによって実施されることを特徴とする請求項5に記載の視線方向特定方法。 - 前記視線方向特定方法は、ニューラルネットワークによって実施され、前記ニューラルネットワークは、目標サンプルオブジェクトのマーキング視線方向を含むサンプル画像を利用してトレーニングされたものであることを特徴とする請求項1から7の何れか一項に記載の視線方向特定方法。
- 前記ニューラルネットワークは、
サンプル画像における目標サンプルオブジェクトの顔部サンプル画像及び眼部サンプル画像を取得することと、
前記顔部サンプル画像から前記目標サンプルオブジェクトの顔部特徴を抽出することと、
前記目標サンプルオブジェクトの顔部特徴と前記眼部サンプル画像とに基づいて前記目標サンプルオブジェクトの眼部特徴を特定することと、
前記目標サンプルオブジェクトの顔部特徴に基づいて前記目標サンプルオブジェクトの初期視線方向を予測し、且つ、前記目標サンプルオブジェクトの顔部特徴と前記目標サンプルオブジェクトの眼部特徴とを融合した融合特徴に基づいて、前記目標サンプルオブジェクトの視線残差情報を予測して取得することと、
前記目標サンプルオブジェクトの視線残差情報に基づいて前記目標サンプルオブジェクトの初期視線方向を修正し、前記目標サンプルオブジェクトの視線方向を取得することと、
取得された前記目標サンプルオブジェクトの視線方向と前記目標サンプルオブジェクトのマーキング視線方向とに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整することと、によってトレーニングされたものであることを特徴とする請求項8に記載の視線方向特定方法。 - 目標オブジェクトの顔部画像及び眼部画像を取得するための画像取得モジュールと、
前記顔部画像から前記目標オブジェクトの顔部特徴を抽出し、且つ前記目標オブジェクトの顔部特徴及び前記眼部特徴に基づいて前記目標オブジェクトの眼部特徴を特定するための特徴抽出モジュールと、
前記顔部特徴に基づいて前記目標オブジェクトの初期視線方向を予測し、且つ、前記顔部特徴と前記眼部特徴とを融合した融合特徴に基づいて、視線残差情報を予測して取得するための視線予測モジュールと、
前記視線残差情報に基づいて前記初期視線方向を修正し、前記目標オブジェクトの視線方向を取得するための視線修正モジュールと、を備えることを特徴とする視線方向特定装置。 - 前記眼部画像は、左目画像及び右目画像を含み、
前記特徴抽出モジュールは、前記目標オブジェクトの顔部特徴及び前記眼部特徴に基づいて前記目標オブジェクトの眼部特徴を特定する際に、
前記左目画像から左目特徴を抽出することと、
前記右目画像から右目特徴を抽出することと、
前記顔部特徴、前記左目特徴及び前記右目特徴に基づいて、前記左目特徴に対応する第1重みと前記右目特徴に対応する第2重みとを特定することと、
前記第1重み及び前記第2重みに基づいて、前記左目特徴と前記右目特徴とを加重加算して前記眼部特徴を取得することと、を実行することを特徴とする請求項10に記載の視線方向特定装置。 - 前記特徴抽出モジュールは、前記顔部特徴、前記左目特徴及び前記右目特徴に基づいて、前記左目特徴に対応する第1重みと前記右目特徴に対応する第2重みとを特定する際に、
前記顔部特徴及び前記左目特徴に基づいて前記左目特徴の第1スコアを特定し、且つ前記顔部特徴及び前記右目特徴に基づいて前記右目特徴の第2スコアを特定することと、
前記第1スコア及び第2スコアに基づいて、前記第1重み及び第2重みを特定することと、を実行することを特徴とする請求項11に記載の視線方向特定装置。 - 前記視線予測モジュールは、前記顔部特徴に基づいて前記目標オブジェクトの初期視線方向を予測する際に、
前記顔部特徴における各特徴点の重みを特定し、前記顔部特徴における各特徴点の重みに基づいて前記顔部特徴を調整することと、
調整された顔部特徴に基づいて前記目標オブジェクトの初期視線方向を特定することと、を実行することを特徴とする請求項10から12の何れか一項に記載の視線方向特定装置。 - 前記視線予測モジュールは、
前記調整された顔部特徴と、前記眼部特徴と、前記調整された顔部特徴における各特徴点の重みとに基づいて、中間特徴を特定することと、
前記中間特徴と、前記調整された顔部特徴と、前記中間特徴及び前記調整された顔部特徴のそれぞれに対応する重みとに基づいて、前記中間特徴と前記調整された顔部特徴とを加重加算して前記融合特徴を取得することとにより、
前記顔部特徴及び前記眼部特徴に基づいて前記融合特徴を特定することを実施することを特徴とする請求項13に記載の視線方向特定装置。 - 前記視線予測モジュールは、
前記眼部特徴と前記調整された顔部特徴とに基づいて、前記調整された顔部特徴における各特徴点の重みを特定することにより、前記調整された顔部特徴における各特徴点の重みを特定することを実施することを特徴とする請求項14に記載の視線方向特定装置。 - 前記視線予測モジュールは、
前記眼部特徴と前記調整された顔部特徴とに基づいて、前記中間特徴及び前記調整された顔部特徴のそれぞれに対応する重みを特定することにより、前記中間特徴及び前記調整された顔部特徴のそれぞれに対応する重みを特定することを実施することを特徴とする請求項14に記載の視線方向特定装置。 - 前記視線方向特定装置は、前記目標オブジェクトの視線方向を特定するためのニューラルネットワークをトレーニングするためのニューラルネットワークトレーニングモジュールを更に備え、前記ニューラルネットワークは、目標サンプルオブジェクトのマーキング視線方向を含むサンプル画像を利用してトレーニングされたものであることを特徴とする請求項10から16の何れか一項に記載の視線方向特定装置。
- 前記ニューラルネットワークトレーニングモジュールは、
サンプル画像における目標サンプルオブジェクトの顔部サンプル画像及び眼部サンプル画像を取得することと、
前記顔部サンプル画像から前記目標サンプルオブジェクトの顔部特徴を抽出することと、
前記目標サンプルオブジェクトの顔部特徴と前記眼部サンプル画像とに基づいて前記目標サンプルオブジェクトの眼部特徴を特定することと、
前記目標サンプルオブジェクトの顔部特徴に基づいて前記目標サンプルオブジェクトの初期視線方向を予測し、且つ、前記目標サンプルオブジェクトの顔部特徴と前記目標サンプルオブジェクトの眼部特徴とを融合した融合特徴に基づいて、前記目標サンプルオブジェクトの視線残差情報を予測して取得することと、
前記目標サンプルオブジェクトの視線残差情報に基づいて前記目標サンプルオブジェクトの初期視線方向を修正し、前記目標サンプルオブジェクトの視線方向を取得することと、
取得された前記目標サンプルオブジェクトの視線方向と前記目標サンプルオブジェクトのマーキング視線方向とに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整することとによって、前記ニューラルネットワークをトレーニングすることを特徴とする請求項17に記載の視線方向特定装置。 - 電子機器であって、
プロセッサと、非一時的な記憶媒体と、バスとを備え、
前記記憶媒体には、前記プロセッサで実行され得る機器読み取り可能な指令が記憶され、前記プロセッサと前記記憶媒体との間は、バスを介して通信され、前記機器読み取り可能な指令により、前記プロセッサは、請求項1から9の何れか一項に記載の視線方向特定方法を実行することを特徴とする電子機器。 - コンピュータ可読記憶媒体であって、
当該コンピュータ可読記憶媒体には、コンピュータプログラムが記憶され、当該コンピュータプログラムにより、プロセッサは、請求項1から9の何れか一項に記載の視線方向特定方法を実行することを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911403648.2A CN111178278B (zh) | 2019-12-30 | 2019-12-30 | 视线方向确定方法、装置、电子设备及存储介质 |
CN201911403648.2 | 2019-12-30 | ||
PCT/CN2020/134049 WO2021135827A1 (zh) | 2019-12-30 | 2020-12-04 | 视线方向确定方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022553776A true JP2022553776A (ja) | 2022-12-26 |
JP7309116B2 JP7309116B2 (ja) | 2023-07-18 |
Family
ID=70646509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022524710A Active JP7309116B2 (ja) | 2019-12-30 | 2020-12-04 | 視線方向特定方法、装置、電子機器及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7309116B2 (ja) |
KR (1) | KR20210140763A (ja) |
CN (1) | CN111178278B (ja) |
WO (1) | WO2021135827A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2996269A1 (en) * | 2014-09-09 | 2016-03-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio splicing concept |
CN111178278B (zh) * | 2019-12-30 | 2022-04-08 | 上海商汤临港智能科技有限公司 | 视线方向确定方法、装置、电子设备及存储介质 |
CN113743172B (zh) * | 2020-05-29 | 2024-04-16 | 魔门塔(苏州)科技有限公司 | 一种人员注视位置检测方法及装置 |
CN113807119B (zh) * | 2020-05-29 | 2024-04-02 | 魔门塔(苏州)科技有限公司 | 一种人员注视位置检测方法及装置 |
CN112183200B (zh) * | 2020-08-25 | 2023-10-17 | 中电海康集团有限公司 | 一种基于视频图像的眼动追踪方法和系统 |
CN112749655A (zh) * | 2021-01-05 | 2021-05-04 | 风变科技(深圳)有限公司 | 视线追踪方法、装置、计算机设备和存储介质 |
CN112766163B (zh) * | 2021-01-13 | 2022-05-31 | 北京航空航天大学 | 一种基于对抗优化的视线方向确定方法 |
CN113361441B (zh) * | 2021-06-18 | 2022-09-06 | 山东大学 | 基于头部姿态和空间注意力的视线区域估计方法及系统 |
CN113705550B (zh) * | 2021-10-29 | 2022-02-18 | 北京世纪好未来教育科技有限公司 | 一种训练方法、视线检测方法、装置和电子设备 |
CN116052264B (zh) * | 2023-03-31 | 2023-07-04 | 广州视景医疗软件有限公司 | 一种基于非线性偏差校准的视线估计方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193383A (zh) * | 2017-06-13 | 2017-09-22 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
JP2019028843A (ja) * | 2017-08-01 | 2019-02-21 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
EP3511803A1 (en) * | 2018-01-10 | 2019-07-17 | Samsung Electronics Co., Ltd. | Method and apparatus to determine trigger intent of user |
CN110503068A (zh) * | 2019-08-28 | 2019-11-26 | Oppo广东移动通信有限公司 | 视线估计方法、终端及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101489467B (zh) * | 2006-07-14 | 2011-05-04 | 松下电器产业株式会社 | 视线方向检测装置和视线方向检测方法 |
JP4966816B2 (ja) * | 2007-10-25 | 2012-07-04 | 株式会社日立製作所 | 視線方向計測方法および視線方向計測装置 |
CN102547123B (zh) * | 2012-01-05 | 2014-02-26 | 天津师范大学 | 基于人脸识别技术的自适应视线跟踪系统及其跟踪方法 |
CN103246044B (zh) * | 2012-02-09 | 2017-03-22 | 联想(北京)有限公司 | 一种自动对焦方法、系统及具有该系统的照相机和摄像机 |
US9563805B2 (en) * | 2014-09-02 | 2017-02-07 | Hong Kong Baptist University | Method and apparatus for eye gaze tracking |
CN108615014B (zh) * | 2018-04-27 | 2022-06-21 | 京东方科技集团股份有限公司 | 一种眼睛状态的检测方法、装置、设备和介质 |
CN109508679B (zh) * | 2018-11-19 | 2023-02-10 | 广东工业大学 | 实现眼球三维视线跟踪的方法、装置、设备及存储介质 |
CN111178278B (zh) * | 2019-12-30 | 2022-04-08 | 上海商汤临港智能科技有限公司 | 视线方向确定方法、装置、电子设备及存储介质 |
-
2019
- 2019-12-30 CN CN201911403648.2A patent/CN111178278B/zh active Active
-
2020
- 2020-12-04 KR KR1020217034841A patent/KR20210140763A/ko not_active Application Discontinuation
- 2020-12-04 WO PCT/CN2020/134049 patent/WO2021135827A1/zh active Application Filing
- 2020-12-04 JP JP2022524710A patent/JP7309116B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193383A (zh) * | 2017-06-13 | 2017-09-22 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
JP2019028843A (ja) * | 2017-08-01 | 2019-02-21 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
EP3511803A1 (en) * | 2018-01-10 | 2019-07-17 | Samsung Electronics Co., Ltd. | Method and apparatus to determine trigger intent of user |
CN110503068A (zh) * | 2019-08-28 | 2019-11-26 | Oppo广东移动通信有限公司 | 视线估计方法、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20210140763A (ko) | 2021-11-23 |
CN111178278B (zh) | 2022-04-08 |
WO2021135827A1 (zh) | 2021-07-08 |
CN111178278A (zh) | 2020-05-19 |
JP7309116B2 (ja) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7309116B2 (ja) | 視線方向特定方法、装置、電子機器及び記憶媒体 | |
Chen et al. | Fsrnet: End-to-end learning face super-resolution with facial priors | |
EP3674852B1 (en) | Method and apparatus with gaze estimation | |
US20210012093A1 (en) | Method and apparatus for generating face rotation image | |
EP4307233A1 (en) | Data processing method and apparatus, and electronic device and computer-readable storage medium | |
JP2016515242A (ja) | 校正不要な注視点推定の方法と装置 | |
JP7093427B2 (ja) | オブジェクト追跡方法および装置、電子設備並びに記憶媒体 | |
JP5098739B2 (ja) | シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体 | |
JP6956986B1 (ja) | 判定方法、判定装置、及び判定プログラム | |
KR20180060559A (ko) | 동공 거리 결정 방법 및 장치 | |
CN110570383B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN112330730A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN114120432A (zh) | 基于视线估计的在线学习注意力跟踪方法及其应用 | |
CN111259713A (zh) | 一种基于自适应加权的视线跟踪方法 | |
CN111723707A (zh) | 一种基于视觉显著性的注视点估计方法及装置 | |
CN112446322A (zh) | 眼球特征检测方法、装置、设备及计算机可读存储介质 | |
CN114187624A (zh) | 图像生成方法、装置、电子设备及存储介质 | |
WO2019076264A1 (zh) | 虚拟现实文字显示的方法、装置和虚拟现实设备 | |
WO2021217937A1 (zh) | 姿态识别模型的训练方法及设备、姿态识别方法及其设备 | |
US20160110909A1 (en) | Method and apparatus for creating texture map and method of creating database | |
WO2022262209A1 (zh) | 一种神经网络训练方法、装置、计算机设备及存储介质 | |
CN112400148A (zh) | 使用离轴相机执行眼睛跟踪的方法和系统 | |
CN114399424A (zh) | 模型训练方法及相关设备 | |
CN113903210A (zh) | 虚拟现实模拟驾驶方法、装置、设备和存储介质 | |
Zhang et al. | Eye gaze estimation and its applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7309116 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |