JP2021502618A - 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体 - Google Patents
注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体 Download PDFInfo
- Publication number
- JP2021502618A JP2021502618A JP2019570498A JP2019570498A JP2021502618A JP 2021502618 A JP2021502618 A JP 2021502618A JP 2019570498 A JP2019570498 A JP 2019570498A JP 2019570498 A JP2019570498 A JP 2019570498A JP 2021502618 A JP2021502618 A JP 2021502618A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature points
- eye
- face
- dimensional coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本願は2018年09月28日に出願された、出願番号201811141352.3の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
画像における顔の少なくとも片方の目の、眼球中心領域特徴点を含む眼部特徴点の二次元座標を取得することと、
前記眼球中心領域特徴点の二次元座標に基づき、前記画像内の前記顔に対応する三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得することと、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視点位置に対する判定結果を得ることと、を含む注視点判定方法が提供される。
画像における顔の少なくとも片方の目の、眼球中心領域特徴点を含む眼部特徴点の二次元座標を取得し、および前記眼球中心領域特徴点の二次元座標に基づき、前記画像内の前記顔に対応する三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得するように構成された取得ユニットと、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視点位置に対する判定結果を得るように構成された判定ユニットと、を含む注視点判定装置が提供される。
実行可能命令を記憶するように構成されたメモリ、および
前記メモリと通信して前記実行可能命令を実行することで上記いずれか一つの実施例に記載の方法を完了するように構成されたプロセッサを含む電子機器が提供される。
Claims (35)
- 画像における顔の少なくとも片方の目の眼部特徴点の二次元座標を取得することであって、前記眼部特徴点は眼球中心領域特徴点を含むことと、
前記眼球中心領域特徴点の二次元座標に基づき、前記画像内の前記顔に対応する三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得することと、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視点位置に対する判定結果を得ることと、を含む、注視点判定方法。 - 前記眼部特徴点はさらに、眼瞼輪郭特徴点および眼球輪郭特徴点を含む、請求項1に記載の方法。
- 前記画像における顔の少なくとも片方の目の眼部特徴点の二次元座標を取得することは、
前記画像の特徴を抽出し、前記画像における前記顔特徴点の二次元座標を取得することと、
前記画像における前記顔特徴点の二次元座標に基づき、前記画像における前記顔の少なくとも片方の目の眼部特徴点の二次元座標を取得することと、を含む、請求項1または2に記載の方法。 - 前記画像における前記顔特徴点の二次元座標に基づき、前記画像における前記顔の少なくとも片方の目の眼部特徴点の二次元座標を取得することは、
前記画像における前記顔の目領域の特徴点の二次元座標に基づき、前記画像から対応する目領域を含む矩形画像を切り出すことと、
前記矩形画像の特徴を抽出し、前記画像における前記顔の少なくとも片方の目の眼部特徴点の二次元座標を取得することと、を含む、請求項3に記載の方法。 - 前記画像における前記顔の目領域の特徴点の二次元座標に基づき、前記画像から対応する目領域を含む矩形画像を切り出すことは、
前記画像における前記顔の片目領域の特徴点の二次元座標に基づき、前記画像から対応する目領域を含む矩形画像を切り出すことを含み、
前記矩形画像の特徴を抽出し、前記画像における前記顔の少なくとも片方の目の眼部特徴点の二次元座標を取得することは、
前記矩形画像の特徴を抽出し、前記画像における前記顔の片目の眼部特徴点の二次元座標を取得するか、または、
前記矩形画像のミラーリング処理を行うことと、
前記矩形画像および前記ミラーリング処理後の矩形画像の特徴を抽出し、前記画像における前記顔の両目の眼部特徴点の二次元座標を取得することと、を含む、請求項4に記載の方法。 - 前記眼球中心領域特徴点の二次元座標に基づき、前記画像内の前記顔に対応する三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得することは、
前記画像内の前記顔に基づいて対応する三次元顔モデルを生成することと、
前記眼球中心領域特徴点の二次元座標に基づき、前記三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得することと、を含む、請求項1から5のいずれか一項に記載の方法。 - 前記画像内の前記顔に基づいて対応する三次元顔モデルを生成することは、
前記画像内の前記顔のキーポイントと三次元顔事前モデルのキーポイントとの対応関係に基づき、前記顔に対応する三次元顔モデルを生成することを含む、請求項6に記載の方法。 - 前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視点位置に対する判定結果を得ることは、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視スコアを得ることと、
前記注視スコアを予め設定された閾値と比較し、前記画像における前記顔の目の注視点位置に対する判定結果を得ることと、を含む、請求項1から7のいずれか一項に記載の方法。 - 前記注視スコアを予め設定された閾値と比較し、前記画像における前記顔の目の注視点位置に対する判定結果を得ることは、
前記注視スコアが前記予め設定された閾値よりも大きいことから、前記画像における前記顔の目の注視点が予め設定された領域内にあると判定するか、または、
前記注視スコアが前記予め設定された閾値以下であることから、前記画像における前記顔の目の注視点が予め設定された領域外にあると判定することを含む、請求項8に記載の方法。 - 前記予め設定された閾値は、画像における顔の目の注視点が予め設定された領域内にある場合の正確判定の割合を含む真陽性率と、画像における顔の目の注視点が予め設定された領域外にある場合の判定誤りの割合を含む偽陽性率との差、を含む、請求項9に記載の方法。
- 前記予め設定された領域は、画面領域の一部または全てを含む、請求項9または10に記載の方法。
- 前記注視スコアを予め設定された閾値と比較し、前記画像における前記顔の目の注視点位置に対する判定結果を得た後に、さらに、
前記判定結果に対応して、前記画像を処理することを含む、請求項9から11のいずれか一項に記載の方法。 - 前記判定結果に対応して、前記画像を処理することは、
前記画像における前記顔の目の注視点が予め設定された領域内にあることに応答して、第一の予め設定された提示方式で前記画像を提示することと、
前記画像における前記顔の目の注視点が予め設定された領域外にあることに応答して、第二の予め設定された提示方式で前記画像を提示することと、を含む、請求項12に記載の方法。 - 前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視スコアを得ることは、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、ニューラルネットワークによって前記画像における前記顔の目の注視スコアを得ることを含む、請求項8から13のいずれか一項に記載の方法。 - 前記眼球中心領域特徴点の二次元座標に基づき、前記画像内の前記顔に対応する三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得した後に、さらに、
予め設定されたフォーマットに従い、前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標のフォーマットを調整することを含み、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、ニューラルネットワークによって前記画像における前記顔の目の注視スコアを得る前記ステップは、
前記フォーマット調整後の前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、ニューラルネットワークによって前記画像における前記顔の目の注視スコアを得ることを含む、請求項14に記載の方法。 - 表情認識、端末決済、端末ロック、端末ロック解除のいずれか一つまたは任意の組み合わせに用いられる、請求項1から15のいずれか一項に記載の方法。
- 画像における顔の少なくとも片方の目の眼部特徴点の二次元座標を取得し、および前記眼球中心領域特徴点の二次元座標に基づき、前記画像内の前記顔に対応する三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得するように構成された取得ユニットであって、前記眼部特徴点は眼球中心領域特徴点を含む取得ユニットと、
前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視点位置に対する判定結果を得るように構成された判定ユニットと、を含む、注視点判定装置。 - 前記眼部特徴点はさらに、眼瞼輪郭特徴点および眼球輪郭特徴点を含む、請求項17に記載の装置。
- 前記取得ユニットは、前記画像の特徴を抽出し、前記画像における前記顔特徴点の二次元座標を取得し、そして前記画像における前記顔特徴点の二次元座標に基づき、前記画像における前記顔の少なくとも片方の目の眼部特徴点の二次元座標を取得するように構成される、請求項18に記載の装置。
- 前記取得ユニットは、
前記画像における前記顔の目領域の特徴点の二次元座標に基づき、前記画像から対応する目領域を含む矩形画像を切り出すように構成された切り出しサブユニットと、
前記矩形画像の特徴を抽出し、前記画像における前記顔の少なくとも片方の目の眼部特徴点の二次元座標を取得するように構成された抽出サブユニットと、を含む、請求項19に記載の装置。 - 前記切り出しサブユニットは、前記画像における前記顔の片目領域の特徴点の二次元座標に基づき、前記画像から対応する目領域を含む矩形画像を切り出すように構成され、
前記取得ユニットはさらに、前記矩形画像のミラーリング処理を行うように構成されたミラーリングサブユニットを含み、
前記抽出サブユニットは、前記矩形画像の特徴を抽出し、前記画像における前記顔の片目の眼部特徴点の二次元座標を取得するか、または、前記矩形画像および前記ミラーリング処理後の矩形画像の特徴を抽出し、前記画像における前記顔の両目の眼部特徴点の二次元座標を取得するように構成される、請求項20に記載の装置。 - 前記取得ユニットは、前記画像内の前記顔に基づいて対応する三次元顔モデルを生成し、そして前記眼球中心領域特徴点の二次元座標に基づき、前記三次元顔モデルでの対応する眼球中心領域特徴点の予め設定された三次元座標系における三次元座標を取得するように構成される、請求項17から21のいずれか一項に記載の装置。
- 前記取得ユニットは、前記画像内の前記顔のキーポイントと三次元顔事前モデルのキーポイントとの対応関係に基づき、前記顔に対応する三次元顔モデルを生成するように構成される、請求項22に記載の装置。
- 前記判定ユニットは、前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、前記画像における前記顔の目の注視スコアを得て、そして前記注視スコアを予め設定された閾値と比較し、前記画像における前記顔の目の注視点位置に対する判定結果を得るように構成される、請求項17から23のいずれか一項に記載の装置。
- 前記判定ユニットは、前記注視スコアが前記予め設定された閾値よりも大きいことから、前記画像における前記顔の目の注視点が予め設定された領域内にあると判定するか、または、前記注視スコアが前記予め設定された閾値以下であることから、前記画像における前記顔の目の注視点が予め設定された領域外にあると判定するように構成される、請求項24に記載の装置。
- 前記予め設定された閾値は、画像における顔の目の注視点が予め設定された領域内にある場合の正確判定の割合を含む真陽性率と、画像における顔の目の注視点が予め設定された領域外にある場合の判定誤りの割合を含む偽陽性率との差、を含む、請求項25に記載の装置。
- 前記予め設定された領域は、画面領域の一部または全てを含む、請求項25または26に記載の装置。
- さらに、
前記判定結果に対応して、前記画像を処理するように構成された処理ユニットを含む、請求項25から27のいずれか一項に記載の装置。 - 前記処理ユニットは、前記画像における前記顔の目の注視点が予め設定された領域内にあることに応答して、第一の予め設定された提示方式で前記画像を提示し、そして前記画像における前記顔の目の注視点が予め設定された領域外にあることに応答して、第二の予め設定された提示方式で前記画像を提示するように構成される、請求項28に記載の装置。
- 前記判定ユニットは、前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、ニューラルネットワークによって前記画像における前記顔の目の注視スコアを得るように構成される、請求項24から29のいずれか一項に記載の装置。
- さらに、
予め設定されたフォーマットに従い、前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標のフォーマットを調整するように構成された調整ユニットを含み、
前記判定ユニットは、前記フォーマット調整後の前記眼部特徴点のうち前記眼球中心領域特徴点以外の特徴点の二次元座標および前記眼球中心領域特徴点の予め設定された三次元座標系における三次元座標に基づき、ニューラルネットワークによって前記画像における前記顔の目の注視スコアを得るように構成される、請求項30に記載の装置。 - 表情認識、端末決済、端末ロック、端末ロック解除のいずれか一つまたは任意の組み合わせに用いられる、請求項17から31のいずれか一項に記載の装置。
- 請求項17から32のいずれか一項に記載の装置を含む電子機器。
- 実行可能命令を記憶するように構成されたメモリ、および
前記メモリと通信して前記実行可能命令を実行することで請求項1から16のいずれか一項に記載の方法を完了するように構成されたプロセッサを含む、電子機器。 - コンピュータ読み取り可能命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に請求項1から16のいずれか一項に記載の方法を実現する、コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811141352.3 | 2018-09-28 | ||
CN201811141352.3A CN109389069B (zh) | 2018-09-28 | 2018-09-28 | 注视点判断方法和装置、电子设备和计算机存储介质 |
PCT/CN2018/117287 WO2020062523A1 (zh) | 2018-09-28 | 2018-11-23 | 注视点判断方法和装置、电子设备和计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021502618A true JP2021502618A (ja) | 2021-01-28 |
JP6900516B2 JP6900516B2 (ja) | 2021-07-07 |
Family
ID=65418277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019570498A Active JP6900516B2 (ja) | 2018-09-28 | 2018-11-23 | 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11295474B2 (ja) |
JP (1) | JP6900516B2 (ja) |
KR (1) | KR102347336B1 (ja) |
CN (1) | CN109389069B (ja) |
MY (1) | MY201730A (ja) |
SG (1) | SG11202000065TA (ja) |
TW (1) | TWI714225B (ja) |
WO (1) | WO2020062523A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230064266A (ko) * | 2021-11-03 | 2023-05-10 | 주식회사 유니온커뮤니티 | 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US11113842B2 (en) * | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
CN111435432B (zh) * | 2019-01-15 | 2023-05-26 | 北京市商汤科技开发有限公司 | 网络优化方法及装置、图像处理方法及装置、存储介质 |
CN110335306B (zh) * | 2019-04-23 | 2022-04-15 | 华中科技大学 | 注视点预测方法及装置 |
CN110051319A (zh) * | 2019-04-23 | 2019-07-26 | 七鑫易维(深圳)科技有限公司 | 眼球追踪传感器的调节方法、装置、设备及存储介质 |
CN110428390B (zh) * | 2019-07-18 | 2022-08-26 | 北京达佳互联信息技术有限公司 | 一种素材展示方法、装置、电子设备和存储介质 |
CN110531853B (zh) * | 2019-08-23 | 2021-01-19 | 西安交通大学 | 一种基于人眼注视点检测的电子书阅读器控制方法及系统 |
CN111126137B (zh) * | 2019-11-18 | 2021-02-19 | 珠海格力电器股份有限公司 | 一种交互控制方法、装置、终端及计算机可读介质 |
CN111027492B (zh) * | 2019-12-12 | 2024-01-23 | 广东智媒云图科技股份有限公司 | 一种肢体特征点连线的动物作画方法及装置 |
CN113208591B (zh) * | 2020-01-21 | 2023-01-06 | 魔门塔(苏州)科技有限公司 | 一种眼睛开闭距离的确定方法及装置 |
US10996753B1 (en) | 2020-04-07 | 2021-05-04 | Eyetech Digital Systems, Inc. | Multi-mode eye-tracking with independently operable illuminators |
US11921917B2 (en) | 2020-04-07 | 2024-03-05 | Eyetech Digital Systems, Inc. | Compact eye-tracking camera systems and methods |
CN111985384A (zh) * | 2020-08-14 | 2020-11-24 | 深圳地平线机器人科技有限公司 | 获取脸部关键点的3d坐标及3d脸部模型的方法和装置 |
CN112949551A (zh) * | 2021-03-19 | 2021-06-11 | 科大讯飞股份有限公司 | 一种眼部关键信息确定方法、装置、设备及存储介质 |
CN113596345B (zh) * | 2021-08-09 | 2023-01-17 | 荣耀终端有限公司 | 参数的调整方法、显示的控制方法、电子设备及介质 |
CN113885708A (zh) * | 2021-10-22 | 2022-01-04 | Oppo广东移动通信有限公司 | 电子设备的屏幕控制方法、装置、电子设备以及存储介质 |
TWI819439B (zh) * | 2021-12-21 | 2023-10-21 | 財團法人工業技術研究院 | 視線追蹤方法及應用其之視線追蹤裝置 |
EP4322106A4 (en) * | 2022-06-30 | 2024-02-28 | Contemporary Amperex Technology Co Ltd | METHOD AND DEVICE FOR ERROR DETECTION |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002288670A (ja) * | 2001-03-22 | 2002-10-04 | Honda Motor Co Ltd | 顔画像を使用した個人認証装置 |
JP2007181071A (ja) * | 2005-12-28 | 2007-07-12 | Shunkosha:Kk | コンテンツ注目評価装置及び評価方法 |
JP2007265367A (ja) * | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
JP2008194146A (ja) * | 2007-02-09 | 2008-08-28 | Toshiba Corp | 視線検出装置及びその方法 |
JP2013252301A (ja) * | 2012-06-07 | 2013-12-19 | Toyota Central R&D Labs Inc | 眼球中心推定装置及びプログラム |
JP2015201096A (ja) * | 2014-04-09 | 2015-11-12 | 富士通株式会社 | 視線検出装置、視線検出プログラム及び視線検出方法 |
US20160202756A1 (en) * | 2015-01-09 | 2016-07-14 | Microsoft Technology Licensing, Llc | Gaze tracking via eye gaze model |
JP2016157336A (ja) * | 2015-02-25 | 2016-09-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2018101212A (ja) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | 車載器および顔正面度算出方法 |
JP2018528536A (ja) * | 2015-08-31 | 2018-09-27 | エスアールアイ インターナショナルSRI International | 運転行動を監視する方法及びシステム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7306337B2 (en) * | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
JP2010081480A (ja) * | 2008-09-29 | 2010-04-08 | Fujifilm Corp | 携帯型不審者検出装置、不審者検出方法及びプログラム |
TWI476729B (zh) * | 2010-11-26 | 2015-03-11 | Inst Information Industry | Dimensional image and three - dimensional model of the combination of the system and its computer program products |
CN106125921B (zh) * | 2011-02-09 | 2019-01-15 | 苹果公司 | 3d映射环境中的凝视检测 |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
KR101351745B1 (ko) * | 2012-06-29 | 2014-01-16 | 인텔렉추얼디스커버리 주식회사 | 3차원 얼굴 생성 장치 및 방법 |
TWI471808B (zh) * | 2012-07-20 | 2015-02-01 | Pixart Imaging Inc | 瞳孔偵測裝置 |
CN103870796B (zh) * | 2012-12-13 | 2017-05-24 | 汉王科技股份有限公司 | 一种人眼视线估计的方法与装置 |
JP6234762B2 (ja) * | 2013-10-09 | 2017-11-22 | アイシン精機株式会社 | 眼部検出装置、方法、およびプログラム |
US9727972B2 (en) * | 2013-12-30 | 2017-08-08 | Xiaomi Inc. | Method and terminal for generating thumbnail of image |
CN104978548B (zh) * | 2014-04-02 | 2018-09-25 | 汉王科技股份有限公司 | 一种基于三维主动形状模型的视线估计方法与装置 |
KR102212209B1 (ko) * | 2014-04-10 | 2021-02-05 | 삼성전자주식회사 | 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체 |
CN105989326B (zh) * | 2015-01-29 | 2020-03-03 | 北京三星通信技术研究有限公司 | 人眼三维位置信息的确定方法和装置 |
WO2017069176A1 (ja) * | 2015-10-19 | 2017-04-27 | 株式会社オリィ研究所 | 視線入力装置、視線入力方法、および、視線入力プログラム |
CN105740846A (zh) * | 2016-03-02 | 2016-07-06 | 河海大学常州校区 | 一种基于深度相机的水平视角估计及校准方法 |
CN106598221B (zh) * | 2016-11-17 | 2019-03-15 | 电子科技大学 | 基于眼部关键点检测的3d视线方向估计方法 |
CN106843500B (zh) * | 2017-02-27 | 2020-07-07 | 南通大学 | 基于眼动追踪技术的认知水平康复训练系统 |
CN107679447A (zh) * | 2017-08-17 | 2018-02-09 | 平安科技(深圳)有限公司 | 面部特征点检测方法、装置及存储介质 |
CN107679448B (zh) * | 2017-08-17 | 2018-09-25 | 平安科技(深圳)有限公司 | 眼球动作分析方法、装置及存储介质 |
-
2018
- 2018-09-28 CN CN201811141352.3A patent/CN109389069B/zh active Active
- 2018-11-23 SG SG11202000065TA patent/SG11202000065TA/en unknown
- 2018-11-23 KR KR1020197038765A patent/KR102347336B1/ko active IP Right Grant
- 2018-11-23 MY MYPI2019007790A patent/MY201730A/en unknown
- 2018-11-23 JP JP2019570498A patent/JP6900516B2/ja active Active
- 2018-11-23 WO PCT/CN2018/117287 patent/WO2020062523A1/zh active Application Filing
-
2019
- 2019-08-20 TW TW108129696A patent/TWI714225B/zh active
- 2019-12-29 US US16/729,424 patent/US11295474B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002288670A (ja) * | 2001-03-22 | 2002-10-04 | Honda Motor Co Ltd | 顔画像を使用した個人認証装置 |
JP2007181071A (ja) * | 2005-12-28 | 2007-07-12 | Shunkosha:Kk | コンテンツ注目評価装置及び評価方法 |
JP2007265367A (ja) * | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
JP2008194146A (ja) * | 2007-02-09 | 2008-08-28 | Toshiba Corp | 視線検出装置及びその方法 |
JP2013252301A (ja) * | 2012-06-07 | 2013-12-19 | Toyota Central R&D Labs Inc | 眼球中心推定装置及びプログラム |
JP2015201096A (ja) * | 2014-04-09 | 2015-11-12 | 富士通株式会社 | 視線検出装置、視線検出プログラム及び視線検出方法 |
US20160202756A1 (en) * | 2015-01-09 | 2016-07-14 | Microsoft Technology Licensing, Llc | Gaze tracking via eye gaze model |
JP2016157336A (ja) * | 2015-02-25 | 2016-09-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2018528536A (ja) * | 2015-08-31 | 2018-09-27 | エスアールアイ インターナショナルSRI International | 運転行動を監視する方法及びシステム |
JP2018101212A (ja) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | 車載器および顔正面度算出方法 |
Non-Patent Citations (1)
Title |
---|
山添 大丈、外3名: ""単眼カメラを用いた視線推定のための三次元眼球モデルの自動キャリブレーション"", 電子情報通信学会論文誌, vol. 94, no. 6, JPN6020050593, 1 June 2011 (2011-06-01), JP, pages 998 - 1006, ISSN: 0004416814 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230064266A (ko) * | 2021-11-03 | 2023-05-10 | 주식회사 유니온커뮤니티 | 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법 |
KR102567390B1 (ko) * | 2021-11-03 | 2023-08-16 | 주식회사 유니온커뮤니티 | 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20200134868A1 (en) | 2020-04-30 |
US11295474B2 (en) | 2022-04-05 |
MY201730A (en) | 2024-03-14 |
CN109389069B (zh) | 2021-01-05 |
WO2020062523A1 (zh) | 2020-04-02 |
JP6900516B2 (ja) | 2021-07-07 |
KR102347336B1 (ko) | 2022-01-05 |
TWI714225B (zh) | 2020-12-21 |
KR20200037147A (ko) | 2020-04-08 |
SG11202000065TA (en) | 2020-05-28 |
CN109389069A (zh) | 2019-02-26 |
TW202013244A (zh) | 2020-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6900516B2 (ja) | 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体 | |
US11487995B2 (en) | Method and apparatus for determining image quality | |
US11775056B2 (en) | System and method using machine learning for iris tracking, measurement, and simulation | |
EP3674852B1 (en) | Method and apparatus with gaze estimation | |
WO2019128932A1 (zh) | 人脸姿态分析方法、装置、设备、存储介质以及程序 | |
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
US9864430B2 (en) | Gaze tracking via eye gaze model | |
WO2021169637A1 (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
CN108229330A (zh) | 人脸融合识别方法及装置、电子设备和存储介质 | |
WO2019029486A1 (zh) | 人脸图像处理方法、装置和电子设备 | |
CN109359548A (zh) | 多人脸识别监控方法及装置、电子设备及存储介质 | |
CN106778453B (zh) | 人脸图像中检测眼镜佩戴的方法及装置 | |
US11455765B2 (en) | Method and apparatus for generating virtual avatar | |
CN108734078B (zh) | 图像处理方法、装置、电子设备、存储介质及程序 | |
CN108229301B (zh) | 眼睑线检测方法、装置和电子设备 | |
WO2022160676A1 (zh) | 热力图生成模型的训练方法、装置、电子设备和存储介质 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
CN114333046A (zh) | 舞蹈动作评分方法、装置、设备和存储介质 | |
CN112232128A (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
EP3074844B1 (en) | Estimating gaze from un-calibrated eye measurement points | |
CN111784660B (zh) | 一种用于人脸图像的正脸程度的分析方法和系统 | |
CN110443765A (zh) | 图像处理方法、装置及电子设备 | |
US11195301B1 (en) | Estimation of head yaw in an image | |
CN114680822A (zh) | 一种基于眼部图像的快速筛查系统 | |
CN114299541B (zh) | 模型的训练方法及装置、人体姿态识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6900516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |