JP7570513B2 - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
JP7570513B2
JP7570513B2 JP2023526789A JP2023526789A JP7570513B2 JP 7570513 B2 JP7570513 B2 JP 7570513B2 JP 2023526789 A JP2023526789 A JP 2023526789A JP 2023526789 A JP2023526789 A JP 2023526789A JP 7570513 B2 JP7570513 B2 JP 7570513B2
Authority
JP
Japan
Prior art keywords
image
point
gaze
detection device
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023526789A
Other languages
English (en)
Other versions
JPWO2022259499A5 (ja
JPWO2022259499A1 (ja
Inventor
亮介 虎間
雄大 中村
大智 常道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022259499A1 publication Critical patent/JPWO2022259499A1/ja
Publication of JPWO2022259499A5 publication Critical patent/JPWO2022259499A5/ja
Application granted granted Critical
Publication of JP7570513B2 publication Critical patent/JP7570513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three-dimensional [3D] modelling for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Description

本開示技術は、視線検出装置に関する。
1台のカメラにより撮影された画像情報に基づいて、リアルタイムに視線を追跡する視線方向の推定装置が開示されている(例えば特許文献1)。特許文献1に係る視線方向の推定装置は、特定された顔の位置・姿勢の相対的な変化に基づいて人間の眼球中心位置を推定し、画像領域内において虹彩を抽出し虹彩中心位置を抽出し、抽出された前記虹彩中心位置と推定された前記眼球中心位置とに基づいて視線方向を推定している。
特許文献1に係る視線方向の推定装置は、初期校正において、ユーザがカメラを注視しながら顔の向きを変えることによって得られる2枚以上の画像フレーム列を用いる。特許文献1に例示される従来の視線方向の推定装置は、当該画像フレーム列から顔特徴点と虹彩中心を抽出して追跡し、顔特徴点と眼球中心との相対関係をモデル化している。
特開2008-102902号公報
初期校正時のみとはいえ、ユーザがカメラを注視しながら顔の向きを変える画像フレーム準備動作は、ユーザに負担を強いる。本技術分野において、ユーザへの負担をできる限りかけない装置が求められている。本開示技術は上記課題を解決し、画像フレーム準備動作を必要としない視線検出装置の提供を目的とする。
本開示技術に係る視線検出装置は、対象者の画像を取得する画像取得部と、画像処理を行う演算処理部と、画像処理の結果に基づいて視線方向ベクトルを算出する視線角度算出部と、を備え、演算処理部は、画像空間における実画像に対する演算処理を行う実画像演算処理部と3次元顔モデルを用いて画像空間に重合せ処理を行う3次元モデル重合せ処理部とで構成され、3次元モデル重合せ処理部は、鼻点Nから瞳孔までの距離に基づいて瞳孔の向きを推定する眼球位置補正部を有し、眼球位置補正部は、3次元顔モデルにおいて予め定義された複数の参照点を画像座標系へ座標変換し、参照点のうちの一つである点Aの位置を補正し点A’としてあらたに定義し、鼻点Nと点A’とを結ぶベクトルNA’をX軸方向とY軸方向とに分解し、ベクトルNA’のY軸方向成分に基づいて鼻点Nから瞳孔までの距離を算出する。ここで、画像座標系におけるX軸方向は概ね水平方向であり、画像座標系におけるY軸方向は概ね鉛直方向である。
本開示技術に係る視線検出装置は上記構成を備えるため、画像フレーム準備動作を必要とせずに視線方向を検出することができる。
図1は、実施の形態1に係る視線検出装置の機能構成を示したブロック図である。 図2は、実施の形態1に係る視線検出装置の処理フローを示したフローチャートである。 図3は、実施の形態2に係る視線検出装置の機能構成を示したブロック図である。 図4は、実施の形態2に係る視線検出装置の処理ステップを図解した参考図その1である。 図5は、実施の形態2に係る視線検出装置の処理ステップを図解した参考図その2である。 図6は、実施の形態2に係る視線検出装置の処理ステップを図解した参考図その3である。 図7は、実施の形態2に係る視線検出装置の処理ステップを図解した参考図その4である。 図8は、実施の形態2に係る視線検出装置の処理ステップを図解した参考図その5である。 図9は、実施の形態2に係る視線検出装置の処理ステップを図解した参考図その6である。 図10は、実施の形態2に係る視線検出装置の効果を示した参考図である。
本開示技術に係る視線検出装置1は、以下の実施の形態ごとの図にそった説明により明らかになる。
実施の形態1.
図1は、実施の形態1に係る視線検出装置1の機能構成を示したブロック図である。図1が示すとおり、実施の形態1に係る視線検出装置1は、画像取得部10と、演算処理部100と、を含む。演算処理部100は、画像処理を行う。また演算処理部100は、実画像演算処理部20と、3次元モデル重合せ処理部30と、視線角度算出部40と、を含む。さらに実画像演算処理部20は、顔パーツ点抽出部21と、瞳孔位置検出部22と、を含む。また3次元モデル重合せ処理部30は、3次元位置姿勢推定部31と、3次元モデル補正部32と、3次元眼球位置推定部33と、を含む。
図2は、実施の形態1に係る視線検出装置1の処理フローを示したフローチャートである。図2が示すとおり視線検出装置1の処理フローは、画像取得部10が行う画像を取得するステップ(ST10)と、演算処理部100が行う演算処理ステップ(ST100)と、視線角度算出部40が行う結果を出力するステップ(ST40)と、を有する。演算処理ステップ(ST100)は、実画像演算処理部20が行う実画像に対する演算処理ステップ(ST20)と、3次元モデル重合せ処理部30が行う3次元モデルを重ね合わせて行う処理ステップ(ST30)と、に分けられる。
画像取得部10は、視線検出装置1と接続されたカメラ2により撮像された画像データを取得する(図2のST10で示されるステップ)。取得された画像データは、実画像演算処理部20へ出力される。
実画像演算処理部20は、出力された画像データに対して演算処理を行う。より具体的に実画像演算処理部20は、画像空間における実画像に対する演算処理を行う(図2のST20で示されるステップ)。実施の形態1に係る実画像演算処理部20は、入力側から順に、顔パーツ点抽出部21と、瞳孔位置検出部22と、から構成されている。
顔パーツ点抽出部21は、出力された画像データから、まず顔検出を行う。顔検出は、既存の機械学習による手法を用いてよい。本開示技術に係る視線検出装置1における顔検出は、例えばHaar-Like特徴とAdaBoostを用いた手法を用いてよい。
顔パーツ点抽出部21は、次に顔パーツ抽出を行う。ここで顔パーツとは、目尻、目頭、鼻先、及び口角、等の顔の特徴となるパーツ点のことをいう。顔パーツ抽出は、既存の機械学習による手法を用いてよい。本開示技術に係る視線検出装置1における顔パーツ抽出は、例えばHOG特徴量を用いたランダムフォレストを利用した方法を用いてよい。
瞳孔位置検出部22は、顔パーツ点抽出部21が抽出した顔パーツのうち目尻及び目頭の情報を用いて目領域を確定し、確定した目領域内をスポット的に画像認識して行ってよい。瞳孔中心検出は、瞳孔の輪郭情報から行えばよく、例えばHuff変換を用いて瞳孔の円の中心を求めるようにして行ってもよい。
本開示技術に係る視線検出装置1は、演算処理部100の3次元モデル重合せ処理部30に3次元顔モデルを有している。すなわち3次元モデル重合せ処理部30は、3次元顔モデルを用いて3次元モデルを重ね合わせて行う処理ステップ(ST30)を実施する。3次元モデル重合せ処理部30は、実画像演算処理部20からの実画像情報に基づいて、もっともらしい3次元情報の構築を試みる。実施の形態1に係る3次元モデル重合せ処理部30は、入力側から順に、3次元位置姿勢推定部31と、3次元モデル補正部32と、3次元眼球位置推定部33と、から構成されている。
3次元位置姿勢推定部31は、実画像演算処理部20の顔パーツ点抽出部21からの顔パーツ抽出結果に基づいて、顔向き算出を行う。3次元位置姿勢推定部31は、抽出された顔パーツ点が3次元顔モデル上での顔パーツ点に一致するように、仮想的な3次元空間内で3次元顔モデルを回転並進させる。仮想的な3次元空間とは、現実の3次元空間を模した計算機上の空間である。現実の3次元空間がカメラ2により2次元の画像平面へと変換されるのと同様に、仮想的な3次元空間も2次元の画像平面へと変換可能である。
3次元顔モデル上での顔パーツ点を一致させる作業は、例えば、抽出された顔パーツ点と3次元顔モデル上での顔パーツ点との画像平面での位置の二乗誤差の総和が最小となるものを解としてよい。
解として求めた3次元顔モデルの位置と向きは、顔向きの推定結果として出力される。顔向きの推定結果として出力されるものは、具体的には架空の3次元空間における3次元顔モデルの位置座標と姿勢行列である。3次元顔モデルの位置座標は、例えば3次元顔モデルの右目の眼球中心と左目の眼球中心との中点を代表点としてこの座標として定義してもよい。また、3次元顔モデルの姿勢行列は、3次元顔モデルを作成したときに事前に定義したものであれば何でもよい。ここでは簡単のため、人間が正面を見たときの視線方向と同様に、3次元顔モデルについての姿勢行列を定める。具体的には3次元顔モデルの視線方向、左右方向、上下方向の基底ベクトルが、3次元空間内でどちらを向いているかを表した3つのベクトルからなる行列となる。
本開示技術における視線検出装置1の3次元モデル重合せ処理部30は、性別、年代、国籍、等のクラス分類を行い、それぞれのクラスごとに3次元顔モデルを準備していてもよい。視線検出装置1は、どのクラスの3次元顔モデルを使用するか選択できるような構成としてよい。また、顔向き算出ステップにおいて複数の3次元顔モデルを使用し、その複数の中から上記の位置の二乗誤差の総和が最小となる3次元顔モデルが選択されるような構成としてもよい。
本開示技術に係る視線検出装置1は、3次元位置姿勢推定部31による位置姿勢の推定の処理工程の後、上記の画像平面での一致作業で生じた誤差を無くすよう、3次元顔モデルの修正を行う。3次元顔モデルの補正は、3次元モデル補正部32において実施される。ここで3次元顔モデルの補正とは3次元顔モデルの変形であり、例えば3次元顔モデルにおける眼球そのものの位置を、誤差が少なくなるように移動することである。本開示技術に係る視線検出装置1は、この処理工程を備えることにより初期校正が不要となり、従来技術が必要としていた画像フレーム準備動作を要さない。
3次元眼球位置推定部33は、3次元位置姿勢推定部31により求めた顔向きの推定結果と補正された3次元顔モデルの情報とを用いて、3次元空間内での眼球中心位置の座標を算出する。ここで、本開示技術で用いる3次元顔モデルは、あらかじめ眼球中心の相対的な位置が定義されている。また、カメラ2が撮影する人間の眼球中心位置は、視線方向を変えるように眼球だけを動かしても変わらない、と仮定する。これにより本開示技術に係る視線検出装置1は、3次元顔モデルの定義情報と3次元位置姿勢推定部31により求めた顔向きの推定結果すなわち位置姿勢情報とから、簡単に3次元空間内での眼球中心位置の座標(以下、「眼球中心座標」という)を算出できる。
本開示技術における視線検出装置1は、瞳孔が眼球という球の表面上にあるものと仮定する(仮定その1)。また、ここで考える眼球の大きさは平均的なものとし(仮定その2)、3次元顔モデルの眼球を定義する。また右目と左目とのそれぞれにおいて、眼球中心と瞳孔中心とは常に一定の距離にあると仮定する(仮定その3)。この一定の距離は、すなわち眼球半径rである。仮定その1から仮定その3は、3次元モデル重合せ処理部30が有する3次元顔モデルに関する仮定である。演算処理部100の3次元モデル重合せ処理部30は、3次元顔モデルに関する仮定のもと、3次元眼球位置推定部33で求めた眼球中心位置から3次元空間内での瞳孔中心位置の座標(以下、「瞳孔中心座標」という)を算出する。
3次元空間内での瞳孔中心座標を算出することは、3次元空間内において直線と球との交点を求める問題に帰着する。一般に直線と球とが交わる場合、交点は最大で2点存在する。瞳孔はカメラ2からみて見える側のものであるから、求めた2つの交点のうちカメラ2に近い点を瞳孔中心と認定すればよい。
視線角度算出部40は、3次元モデル重合せ処理部30で算出した眼球中心位置と瞳孔中心位置とに基づいて、視線方向ベクトルを算出する。具体的に視線角度算出部40は、3次元空間内で眼球中心位置から瞳孔中心位置へ結んだベクトルを視線方向ベクトルとして算出する。視線方向ベクトルは、右目と左目とそれぞれ算出される。本開示技術に係る視線検出装置1は、あらかじめ右目又は左目を「利き目」として登録しておき、利き目についての視線方向ベクトルを出力する構成としてもよい。あるいは本開示技術に係る視線検出装置1は、右目の視線と左目の視線との交点を算出し、右目の眼球中心位置と左目の眼球中心位置との中点を起点として、前記交点を終点としたベクトルを、視線方向ベクトルとして出力する構成としてもよい。右目の視線と左目の視線とが交わらない場合も、利き目についての視線方向ベクトルを出力する構成としてよい。
以上のように実施の形態1に係る視線検出装置1は上記の構成を備えるため初期校正が不要となり、ユーザの画像フレーム準備動作を必要とせずに視線方向を検出することができる。
実施の形態2.
図3は、実施の形態2に係る視線検出装置1の機能構成を示したブロック図である。図3が示すとおり実施の形態2に係る視線検出装置1は、実施の形態1の3次元モデル補正部32に代えて、眼球位置補正部32Bを備える。ここでは特に明示する場合を除き、実施の形態1で用いたものと同じ符号が用いられる。また、実施の形態1と重複する説明は、適宜省略される。
眼球位置補正部32Bにて実施される処理ステップは、具体的には3Dモデル座標系での眼球中心位置を補正する処理ステップである。この補正に用いる補正量は、例えば画像上の鼻に関する特定点から瞳孔に関する特定点までの距離に基づいて算出してもよい。鼻に関する特定点(以降、「鼻点」と称する)は、例えば小鼻の中点、又は鼻下としてもよい。鼻点は顔の中でも特定しやすい場所であるため、実施の形態2に係る視線検出装置1では鼻点が基準点の一つとして用いられている。
実施の形態2に係る視線検出装置1が採用する前提は、実際のヒトの顔の寸法はそれほど個体差がない、というものである。したがって鼻点から瞳孔までの距離のY軸成分がわかれば、瞳孔の向きがわかる、というものである。具体的には、鼻点から瞳孔までの距離のY軸成分が3次元顔モデルのものよりも大きければ、画像に写っている対象者は瞳孔を上に向けている、と考える。鼻点から瞳孔までの距離のY軸成分が3次元顔モデルのものよりも小さければ、画像に写っている対象者は瞳孔を下に向けている、と考える。
図4は、実施の形態2に係る視線検出装置1の処理ステップを図解した参考図その1である。3Dモデル座標系での眼球中心位置を補正する処理で用いる補正量の算出は、図4に示す一例により明らかになる。
眼球中心位置を補正する処理の一例は、さらに細かい処理ステップに分けることができる。眼球中心位置を補正する処理の一例は、3Dモデル上に定義された複数の参照点を画像座標系へ座標変換するステップ(処理A)と、参照点の一つ点Aの位置を補正し点A’を定義するステップ(処理B)と、鼻点と定義した点A’を結ぶベクトル(NA’)をX軸方向とY軸方向とに分解するステップ(処理C)と、分解されたベクトル(NA’)のY軸方向成分に基づいて鼻点位置から瞳孔位置までの距離を算出するステップ(処理D)と、を含む。
3Dモデル上に定義された複数の参照点は、具体的には図4の3Dモデル座標系に示される鼻点、点M、点A、点P、が考えられる。
図5は、実施の形態2に係る視線検出装置1の処理ステップを図解した参考図その2である。より具体的に図5は、3Dモデル上に定義された複数の参照点を画像座標系へ座標変換するステップ(処理A)を図解した参考図である。
3Dモデル座標系は、図5に示すようにX軸、Y軸、及びZ軸が定義されてよい。具体的に図5で例示する3Dモデル座標系は、体の右から左をX軸方向、体の上から下をY軸方向、体の前から後ろをZ軸方向、としている右ネジ系の座標系である。また3Dモデル座標系は、3Dモデルに固定された座標系とする。すなわち、3Dモデル座標系は、重力の方向には依らず、3Dモデルの位置姿勢により一意に決まる。3Dモデル座標系はモデル座標系の一つであり、物体ごとの座標系であるからローカル座標系とも呼ばれる。
図5が示すとおり3Dモデル上に定義された複数の参照点は、例えば以下のように定義されてよい。
参照点の一つである点Pは、例えば眼球中心から眼球の半径だけマイナスZ方向に移動した点として定義されてよい。眼球の半径は統計的に求めた値が用いられてよい。眼球の半径は、ここでは例えば10.00[mm]とする。
参照点の一つである点Aは、点PをマイナスZ方向にのみ移動した点であって、鼻点と同じZ座標を有する点、として定義されてよい。
参照点の一つである点Aは、点Pを起点とし、ベクトルPAを1.2倍にした方向ベクトルの終点にある点、として定義されてよい。点Aは、点Pとも点Aとも同じXY座標を有する。なお、ここでベクトルPAを1.2倍にする例が示されているが、本開示技術をこれに限定する意図ではない。
参照点の一つである点Mは、点AをX方向にのみ移動した点であって、鼻点と同じX座標を有する点、として定義されてよい。なお図6は左目での例示であり、点Mは点AよりもマイナスX方向に位置する。逆に右目の場合に点Mは、点AよりもプラスX方向に位置する。
図6は、実施の形態2に係る視線検出装置1の処理ステップを図解した参考図その3である。より具体的に図7は、3Dモデル上に定義された複数の参照点を画像座標系へ座標変換するステップ(処理A)を図解した参考図その2である。
3Dモデル座標系から画像座標系への変換は、カメラ座標系を経由して行う方法がわかりやすい。カメラ座標系は、ビュー座標系とも呼ばれる。モデル座標系(N、X、Y、Z)からカメラ座標系(N’、X’、Y’、Z’)への変換は、4×4の行列を掛けることで実現される。カメラ座標系から画像座標系への変換も、行列の掛け算に帰着する。
図7は、実施の形態2に係る視線検出装置1の処理ステップを図解した参考図その4である。より具体的に図7は、参照点の一つ点Aの位置を補正し点A’を定義するステップ(処理B)を図解した参考図である。点A’とは、カメラ2により撮像された画像データ情報に基づいて、特に瞳孔がどの位置に写っているかの情報に基づいて、点Aの位置を補正した点である。眼球位置補正部32Bにて実施される点Aの位置を補正する処理は、画像座標系の平面内で行われる。この画像座標系の平面には、カメラ2により撮像された画像と座標変換により画像座標系に変換された複数の参照点とが、重ね合わせられて存在していると考えてよい。
図7が示すとおり点Aの位置を補正する処理は、まずベクトルPAを考える。点Pとは、眼球中心から眼球の半径だけマイナスZ方向に移動した点であることに留意する。瞳孔の位置が点Pにあれば、視線の起点を点Pとして視線の方向はベクトルPAの方向としてよい。しかし、カメラ2により撮像された画像に写っている瞳孔の位置が点Pと異なっている場合、視線の起点を点Pとする方法では誤差が生じる。
画像座標系に重ね合わせられた画像の瞳孔と点Pとが一致しない現象は、3Dモデルが実際にカメラ2が撮像した対象と一致しないときに生じる。特に、生身の人間は、顔の向きはそのままで、眼球を動かし、視線を上下左右に移動させることができる。しかし、この眼球の状態までを3Dモデルに反映することは、容易ではない。
眼球位置補正部32Bは、画像座標系の平面において、ベクトルPAを平行移動させる。具体的に眼球位置補正部32Bは、起点が画像に写っている瞳孔の位置となるように、ベクトルPAを平行移動させる。点A’は、並行移動後のベクトルの終点である。
図8は、実施の形態2に係る視線検出装置1の処理ステップを図解した参考図その5である。より具体的に図8は、鼻点と定義した点A’を結ぶベクトル(NA’)をX軸方向とY軸方向とに分解するステップ(処理C)を図解した参考図である。実施の形態2に係る視線検出装置1は、図8に示す「判断基準長さ」を求め、画像に写っている対象者の瞳孔がどこを向いているかを推定する。判断基準長さは、鼻点と定義した点A’を結ぶベクトル(NA’)のY軸方向成分の長さである。
判断基準長さは、線形代数の知識を用いれば容易に求まる。具体的に判断基準長さを求める計算は、ベクトルと行列との演算でよい。この問題は、以下のように一般化できる。2次元で表された画像空間内(xy座標系)において、ベクトルNPと、方向が異なるXベクトルとYベクトルと、が与えられている(図8の右列)。ベクトルNPは、XY座標系によって、以下のように表せると仮定する。
Figure 0007570513000001
ここで、画像座標系(xy座標系)からXY座標系の変換行列をTとすると、以下の式が成り立つ。
Figure 0007570513000002
ベクトルNPのX座標成分(s)とY座標成分(t)とは、以下の式で与えられる。
Figure 0007570513000003
図9は、実施の形態2に係る視線検出装置1の処理ステップを図解した参考図その6である。より具体的に図8は、分解されたベクトル(NA’)のY軸方向成分に基づいて鼻点位置から瞳孔位置までの距離を算出するステップ(処理D)を図解した参考図である。この処理Dでは、参照点の一つである点Mが用いられる。点Mは、点AをX方向にのみ移動した点であって、鼻点と同じX座標を有する点である。言い換えれば点Mは、3次元顔モデルの眼球中心と同じ高さ(Y座標)を持つ点である。
実施の形態2に係る視線検出装置1は、最終的に、鼻点を起点として、点A’の高さ(Y座標)を点Mの高さ(Y座標)とを比較する。ベクトル(NA’)のY軸方向成分がベクトル(NM)のY軸方向成分よりも大きければ、瞳孔は上を向いている、と推定する。逆にベクトル(NA’)のY軸方向成分がベクトル(NM)のY軸方向成分よりも小さければ、瞳孔は下を向いている、と推定する。
図10は、実施の形態2に係る視線検出装置1の効果を示した参考図である。本開示技術が属する技術分野において、目の虹彩を用いて視線を検出しようとする試みも考えられる。しかし、実際に虹彩の変化だけでは、視線を上下させたときの変化を捉えることは難しい。実施の形態2に係る視線検出装置1は、眼球中心に対する瞳孔の相対的な位置を求めているため、対象者の瞳孔の向きを検知することができる。
以上のように実施の形態2に係る視線検出装置1は上記の構成を備えるため、対象者の瞳孔の向きを検知でき、初期校正を不要とすることができる。この構成により実施の形態2に係る視線検出装置1は、ユーザの画像フレーム準備動作を必要とせずに視線方向を検出することができる。
本開示技術に係る視線検出装置1は、車載器、DMS(Driver Monitoring System)、その他電気機器に応用でき、産業上の利用可能性を有する。
1 視線検出装置、 2 カメラ、 10 画像取得部、 20 実画像演算処理部、 21 顔パーツ点抽出部、 22 瞳孔位置検出部、 30 3次元モデル重合せ処理部、 31 3次元位置姿勢推定部、 32 3次元モデル補正部、 32B 眼球位置補正部、 33 3次元眼球位置推定部、 40 視線角度算出部、 100 演算処理部。

Claims (1)

  1. 対象者の画像を取得する画像取得部と、
    画像処理を行う演算処理部と、
    前記画像処理の結果に基づいて視線方向ベクトルを算出する視線角度算出部と、を備え、
    前記演算処理部は、画像空間における実画像に対する演算処理を行う実画像演算処理部と3次元顔モデルを用いて前記画像空間に重合せ処理を行う3次元モデル重合せ処理部とで構成され、
    前記3次元モデル重合せ処理部は、鼻点Nから瞳孔までの距離に基づいて前記瞳孔の向きを推定する眼球位置補正部を有し、
    前記眼球位置補正部は、
    前記3次元顔モデルにおいて予め定義された複数の参照点を画像座標系へ座標変換し、
    前記参照点のうちの一つである点Aの位置を補正し点A’としてあらたに定義し、
    前記鼻点Nと前記点A’とを結ぶベクトルNA’をX軸方向とY軸方向とに分解し、
    前記ベクトルNA’のY軸方向成分に基づいて前記鼻点Nから前記瞳孔までの距離を算出する、
    ここで、画像座標系におけるX軸方向は概ね水平方向であり、画像座標系におけるY軸方向は概ね鉛直方向である、
    視線検出装置。
JP2023526789A 2021-06-11 2021-06-11 視線検出装置 Active JP7570513B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/022230 WO2022259499A1 (ja) 2021-06-11 2021-06-11 視線検出装置

Publications (3)

Publication Number Publication Date
JPWO2022259499A1 JPWO2022259499A1 (ja) 2022-12-15
JPWO2022259499A5 JPWO2022259499A5 (ja) 2023-10-20
JP7570513B2 true JP7570513B2 (ja) 2024-10-21

Family

ID=84425095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023526789A Active JP7570513B2 (ja) 2021-06-11 2021-06-11 視線検出装置

Country Status (4)

Country Link
US (1) US12124626B2 (ja)
JP (1) JP7570513B2 (ja)
DE (1) DE112021007811T5 (ja)
WO (1) WO2022259499A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017514193A (ja) 2014-02-04 2017-06-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 視線方向を決定するための3d画像分析装置
JP2019519859A (ja) 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692526B2 (ja) 2006-07-18 2011-06-01 株式会社国際電気通信基礎技術研究所 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
US9547798B2 (en) * 2014-05-20 2017-01-17 State Farm Mutual Automobile Insurance Company Gaze tracking for a vehicle operator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017514193A (ja) 2014-02-04 2017-06-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 視線方向を決定するための3d画像分析装置
JP2019519859A (ja) 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法

Also Published As

Publication number Publication date
US12124626B2 (en) 2024-10-22
JPWO2022259499A1 (ja) 2022-12-15
DE112021007811T5 (de) 2024-04-18
WO2022259499A1 (ja) 2022-12-15
US20240281059A1 (en) 2024-08-22

Similar Documents

Publication Publication Date Title
KR102136241B1 (ko) 표정 검출 성능을 갖는 머리-장착형 디스플레이
CN110913751B (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪系统
EP3608755B1 (en) Electronic apparatus operated by head movement and operation method thereof
US20220198834A1 (en) Skeleton recognition method, storage medium, and information processing device
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2008194146A (ja) 視線検出装置及びその方法
CN113505694A (zh) 一种基于视线追踪的人机交互方法、装置及计算机设备
EP3506149A1 (en) Method, system and computer program product for eye gaze direction estimation
CN112232128B (zh) 基于视线追踪的老年残障人士照护需求识别方法
CN108629248A (zh) 一种实现增强现实的方法及设备
JP4865517B2 (ja) 頭部の位置・姿勢検出装置
JP6906943B2 (ja) 車載器
JP7570513B2 (ja) 視線検出装置
EP3710774A1 (en) Systems and methods for calibrating an eye tracking system
WO2022074886A1 (ja) 姿勢検出装置、姿勢検出方法および寝相判定方法
JP6210447B2 (ja) 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
CN116563827A (zh) 一种视线估计方法、系统及电子设备
JP6170696B2 (ja) 画像処理装置及び画像処理方法
WO2023043442A1 (en) Correcting raw coordinates of facial feature point
CN113837098A (zh) 一种通过简单面部关键点实时估计2d头部姿势的方法
Sumi et al. Active wearable vision sensor: recognition of human activities and environments
CN118570277B (zh) 面部器官的闭合度计算方法及装置、介质及电子设备
US12422919B2 (en) System and method for providing virtual reality service
JPWO2022259499A5 (ja)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241008

R150 Certificate of patent or registration of utility model

Ref document number: 7570513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150