JP2019098024A - Image processing device and method - Google Patents
Image processing device and method Download PDFInfo
- Publication number
- JP2019098024A JP2019098024A JP2017234588A JP2017234588A JP2019098024A JP 2019098024 A JP2019098024 A JP 2019098024A JP 2017234588 A JP2017234588 A JP 2017234588A JP 2017234588 A JP2017234588 A JP 2017234588A JP 2019098024 A JP2019098024 A JP 2019098024A
- Authority
- JP
- Japan
- Prior art keywords
- inclination
- right eyes
- line
- dimensional coordinates
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、人の画像を処理する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for processing an image of a person.
近年、近赤外光源等の光源とビデオカメラを使用した視線検出装置が普及しつつある(例えば、下記特許文献1参照)。このような視線検出装置では、「瞳孔−角膜反射法」と呼ばれる検出方法が用いられている。「瞳孔−角膜反射法」とは、ビデオカメラに対する被験者の眼の光軸の向きの変化によりビデオカメラで得られる画像中の瞳孔と角膜反射との位置関係が変化することを用いて、視線方向を検出する方法である。
In recent years, a gaze detection apparatus using a light source such as a near-infrared light source and a video camera is becoming popular (for example, see
一般に、カメラによって取得される画像によって検出される眼球の光軸(例えば、眼球の対象軸)と、注視点と眼球の中心点(例えば、瞳孔中心、眼球中心)とを通る視軸とには、ずれが存在する。このずれは、個人間あるいは左右の眼球間で異なっている。上記の装置では、被験者の光軸と実際の注視点を通る視軸とのずれとして原点補正ベクトルをあらかじめ計算し、被験者の頭部が傾いたときに原点補正ベクトルの視軸周りの回転角度が被験者の左眼と右眼で同一であるという拘束条件に基づいて、両眼の注視点が所定平面上で近くなるように回転角度を求めることにより原点補正ベクトルを補正し、その原点補正ベクトルを用いて被験者の視線の方向を計算する。 Generally, for the optical axis of the eye detected by the image acquired by the camera (for example, the target axis of the eye) and the visual axis passing through the gaze point and the central point of the eye (for example, pupil center or eye center) There is a gap. This deviation is different between individuals or between the left and right eyeballs. In the above apparatus, the origin correction vector is calculated in advance as a deviation between the subject's optical axis and the visual axis passing through the actual fixation point, and when the subject's head is inclined, the rotation angle of the origin correction vector around the visual axis is Based on the constraint that the left eye and right eye of the subject are identical, the origin correction vector is corrected by finding the rotation angle so that the fixation points of both eyes are close on a predetermined plane, and the origin correction vector is Use to calculate the subject's gaze direction.
一方、原点補正ベクトルを異なる手法で補正が可能な視線検出装置も知られている(下記特許文献2参照。)。この装置においては、被験者の眼を撮像することで得られた瞳孔画像を用いて瞳孔の輪郭を算出し、その輪郭に基づいて被験者の眼球の視軸周りの回転角度を算出し、この回転角度を用いて原点補正ベクトルを補正することを行う。 On the other hand, there is also known a gaze detection apparatus capable of correcting the origin correction vector by a different method (see Patent Document 2 below). In this device, the pupil contour is calculated using a pupil image obtained by imaging the subject's eye, and the rotation angle of the subject's eye around the visual axis is calculated based on the contour, and this rotation angle Use to correct the origin correction vector.
しかしながら、上述した特許文献1に記載の装置では、被験者の両眼の所定平面上における注視点が輻輳開放眼球運動等によって離れた場合、眼球の回転角度の状態が正しく認識できず原点補正ベクトルの補正値の解が安定せず、検出する視線が不安定になる傾向があった。また、上述した特許文献2に記載の装置では、カメラの分解能の影響で瞳孔の輪郭の形状を精度よく検出できなかった場合、または、被験者の眼球がカメラに対して斜めを向いている場合には、眼球の回転角度の算出精度が低下する傾向にあった。
However, in the device described in
本発明は、上記課題に鑑みて為されたものであり、被験者の眼球の回転角度を安定して精度よく検出することが可能な画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of stably and accurately detecting the rotation angle of the eyeball of a subject.
上記課題を解決するため、本発明の一形態に係る画像処理装置は、対象者の左右の眼及び該眼の周辺部を撮像することで眼画像を取得する少なくとも1台のカメラと、眼画像を基に左右の眼のいずれかの光軸あるいは視線を算出する算出部と、を備え、算出部は、算出した光軸あるいは視線のいずれかである基準線に沿って見たときの左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、傾きを基に対象者の頭部の傾きの回転角度を算出する。 In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes at least one camera for acquiring an eye image by imaging the left and right eyes of a subject and the peripheral part of the eye, and an eye image Calculating the optical axis or the line of sight of either of the left and right eyes based on the left and right of the right eye as viewed along the reference line which is either the calculated optical axis or the line of sight The inclination of a line connecting the three-dimensional coordinates of the feature points of the eye or the three-dimensional coordinates of the feature points at the peripheral portions of the left and right eyes is calculated, and the rotation angle of the inclination of the head of the subject is calculated based on the inclination.
或いは、本発明の他の形態にかかる画像処理方法は、対象者の左右の眼及び該眼の周辺部を撮像することで眼画像を取得する画像取得ステップと、眼画像を基に左右の眼のいずれかの光軸あるいは視線を算出する算出ステップと、を備え、算出ステップでは、算出した光軸あるいは視線のいずれかである基準線に沿って見たときの左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、傾きを基に対象者の頭部の傾きの回転角度を算出する。 Alternatively, in the image processing method according to another aspect of the present invention, an image acquisition step of acquiring an eye image by imaging the left and right eyes of the subject and the periphery of the eye, and the left and right eyes based on the eye image Calculating at least one of the optical axis or the line of sight, and in the calculating step, three of the feature points of the left and right eyes when viewed along the reference line which is either the calculated optical axis or the line of sight The inclination of the line connecting the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes is calculated, and the rotation angle of the inclination of the subject's head is calculated based on the inclination.
上記形態の画像処理装置或いは画像処理方法によれば、対象者の左右の眼の眼画像を基に左右の眼のいずれかの光軸あるいは視線が算出される。その際、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺の特徴点の間の傾きが算出され、その傾きを基に対象者の頭部の傾きの回転角度が求められる。これにより、対象者の両眼の注視点の位置の関係にかかわらず対象者の眼球の回転角度を安定して検出することができるとともに、カメラの性能、あるいは、対象者の眼部のカメラに対する向きに関係なく、対象者の眼球の回転角度を精度よく検出することができる。 According to the image processing apparatus or the image processing method of the above aspect, an optical axis or a line of sight of either of the left and right eyes is calculated based on the eye images of the left and right eyes of the object person. At that time, the inclination between the feature points of the left and right eyes of the object person or the feature points around the left and right eyes as viewed from the direction of the line of sight or the optical axis of the object person is calculated. The rotation angle of the head tilt is determined. This makes it possible to stably detect the rotational angle of the eye of the subject regardless of the positional relationship of the fixation points of the subject's eyes, and also to the performance of the camera or the camera of the eye of the subject. Regardless of the orientation, it is possible to accurately detect the rotation angle of the subject's eyeball.
ここで、算出部は、基準線に沿って見たときの頭部の傾きの回転角度を算出する、こととしてもよい。かかる構成により、基準線に沿って見たときの対象者の眼球の回転角度を精度よく検出することができる。 Here, the calculation unit may calculate the rotation angle of the inclination of the head when viewed along the reference line. According to this configuration, it is possible to accurately detect the rotation angle of the eyeball of the subject when viewed along the reference line.
また、算出部は、光軸を予め設定されるずれ角度及びずれ方向に補正することによって視線を算出し、傾きを基にずれ方向を補正し、補正後のずれ方向を用いて視線を算出する、こととしてもよい。こうすれば、対象者の左右の眼の眼画像を基に左右の眼のいずれかの光軸が算出され、光軸を予め設定されるずれ角度及びずれ方向に補正することによって視線が算出される。その際、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺部の特徴点の間の傾きが算出され、視線を算出するためのずれ方向がその傾きによって補正される。これにより、対象者の両眼の注視点の位置の関係にかかわらず視線を安定して検出することができるとともに、カメラの性能、あるいは、対象者の眼部のカメラに対する向きに関係なく、視線を精度よく検出することができる。 Further, the calculation unit calculates the line of sight by correcting the optical axis to the preset deviation angle and direction, corrects the deviation direction based on the inclination, and calculates the line of sight using the corrected deviation direction. , May be. In this way, the optical axis of either of the left and right eyes is calculated based on the eye images of the left and right eyes of the object person, and the line of sight is calculated by correcting the optical axis to the preset shift angle and shift direction. Ru. At that time, the inclination between the feature points of the left and right eyes of the subject or the feature points of the peripheral portions of the left and right eyes as calculated from the line of sight or the optical axis of the subject is calculated, and the line of sight is calculated. The deviation direction is corrected by the inclination. As a result, the line of sight can be stably detected regardless of the positional relationship of the fixation points of the subject's eyes and the line of sight regardless of the camera performance or the direction of the subject's eyes with respect to the camera. Can be accurately detected.
また、算出部は、基準線を含み所定軸に沿った基準平面と、基準線と左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標とを含む顔方向平面とを設定し、基準平面に対する顔方向平面の傾きを、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きとして算出する、こととしてもよい。この場合、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺の特徴点の傾きが簡易に算出できるので、視線検出のための演算量を削減することができる。 In addition, the calculation unit includes a reference plane and a reference plane along a predetermined axis, and a face including the reference line and the three-dimensional coordinates of the left and right eye feature points or the three-dimensional coordinates of the left and right eye peripheral points. Set the orientation plane and calculate the inclination of the face orientation plane with respect to the reference plane as the inclination of the line connecting the three-dimensional coordinates of the left and right eye feature points or the three-dimensional coordinates of the left and right eye peripheral points. You may do it. In this case, the inclinations of the feature points of the left and right eyes of the subject or the feature points around the left and right eyes viewed from the direction of the line of sight or the optical axis of the subject can be easily calculated. The amount can be reduced.
また、算出部は、基準平面の法線と顔方向平面の法線との間の傾きを、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きとして算出する、こととしてもよい。この場合にも、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺部の特徴点の傾きがさらに簡易に算出できるので、視線検出のための演算量をさらに削減することができる。 In addition, the calculation unit may set the inclination between the normal to the reference plane and the normal to the face direction plane, the three-dimensional coordinates of the feature points of the left and right eyes, or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes. It may be calculated as the slope of the connecting line. Also in this case, the inclinations of the feature points of the left and right eyes of the subject or the feature points of the peripheral portions of the left and right eyes viewed from the direction of the line of sight or the optical axis of the subject can be calculated more simply. Can further reduce the amount of computation for
また、算出部は、予め設定された位置の視標を対象者に見させた際の左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標及び光軸を基に、ずれ方向の初期値及び傾きの初期値を算出し、視線を検出する際に、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標及び光軸を基に傾きの実測値を算出し、傾きの実測値から傾きの初期値を減算した値を基にずれ方向の初期値を補正し、補正後のずれ方向の初期値を用いて視線を算出する、こととしてもよい。この場合には、視標を用いてずれ方向及び傾きの初期値が正確に算出でき、その後の傾きの実測値を基に視線が正確に算出できる。 In addition, the calculation unit may be configured to calculate the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates and the optical axis of the feature points of the peripheral portions of the left and right eyes When the line of sight is detected by calculating the initial value of the shift direction and the initial value of the inclination based on the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes The actual measured value of the inclination is calculated based on the optical axis, and the initial value of the deviation direction is corrected based on the value obtained by subtracting the initial value of the inclination from the measured value of inclination, and the sight line is used using the initial value of the deviation direction after correction. May be calculated. In this case, the initial values of the shift direction and the inclination can be accurately calculated using the visual target, and the line of sight can be accurately calculated based on the actual measurement values of the inclination thereafter.
また、眼画像を取得する2台のカメラを備え、算出部は、2台のカメラによって取得された眼画像を基に、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を算出する、こととしてもいてもよい。この場合には、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標が簡易な構成で算出でき、視線の検出が簡易な構成で実現できる。 In addition, the camera includes two cameras for acquiring eye images, and the calculation unit calculates three-dimensional coordinates of feature points of the left and right eyes or peripheral parts of the left and right eyes based on the eye images acquired by the two cameras. The three-dimensional coordinates of the feature points may be calculated. In this case, the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes can be calculated with a simple configuration, and detection of the sight line can be realized with a simple configuration.
また、算出部は、左右の眼の特徴点として、瞳孔、目頭、目尻、虹彩、角膜球、あるいは角膜反射のうちのいずれか、左右の眼の周辺部の特徴点として、両眼中点、眉間、眉毛、鼻孔、鼻の先端、鼻の周囲、口角、口の中心のうちのいずれかを検出する、こととしてもよい。 In addition, the calculation unit may use any one of the pupil, the inside of the eye, the corner of the eye, an iris, a cornea ball, and a corneal reflex as feature points of the left and right eyes, and a binocular midpoint and an intercostal space as feature points of the peripheral portions of the left and right eyes The eyebrow, the nostril, the tip of the nose, the circumference of the nose, the corner of the mouth, or the center of the mouth may be detected.
本発明によれば、被験者の眼球の回転角度を安定して精度よく検出することができる。 According to the present invention, it is possible to stably and accurately detect the rotation angle of the eyeball of the subject.
以下、図面を参照しつつ本発明に係る画像処理装置及び画像処理方法の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of an image processing apparatus and an image processing method according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts will be denoted by the same reference symbols, without redundant description.
[視線検出装置の構成]
まず、図1〜4を用いて、実施形態に係る画像処理装置である視線検出装置1の構成を説明する。視線検出装置1は、対象者の眼を撮像することで対象者の視線方向を検出するコンピュータシステムであり、この装置により、本実施形態に係る視線検出方法が実施される。対象者とは、視線方向を検出する対象となる人であり、被験者ともいうことができる。視線検出装置1および視線検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者のサイドミラーやルームミラーの安全確認動作の確認、運転者の眠気の検出、商品の興味の度合いの調査、アミューズメント装置等に利用されるコンピュータへのデータ入力、乳幼児の自閉症診断等の診断用装置などに視線検出装置1を利用することができる。
[Configuration of gaze detection device]
First, the configuration of the visual
図1に模式的に示すように、視線検出装置1は、ステレオカメラとして機能する一対のカメラ10と画像処理装置20とを備える。以下では、必要に応じて、一対のカメラ10を、対象者Aの左側にある左カメラ10Lと、対象者Aの右側にある右カメラ10Rとに区別する。本実施形態では、視線検出装置1は、対象者Aが見る対象であるディスプレイ装置30をさらに備えるが、視線検出装置1の利用目的は上記のように限定されないので、対象者Aの視線の先にある物はディスプレイ装置30に限定されず、例えば自動車のフロントガラスでもあり得る。したがって、ディスプレイ装置30は視線検出装置1における必須の要素ではない。それぞれのカメラ10は画像処理装置20と無線または有線により接続され、カメラ10と画像処理装置20との間で各種のデータまたは命令が送受信される。各カメラ10に対しては予めカメラ較正が行われる。
As schematically shown in FIG. 1, the visual
カメラ10は対象者Aの左右の眼およびそれらの周辺部を含む部分を撮影するために用いられる。一対のカメラ10は水平方向に沿って所定の間隔をおいて配され、かつ、対象者Aが眼鏡をかけているときの顔画像における反射光の写り込みを防止する目的で対象者Aの顔より低い位置に設けられる。水平方向に対するカメラ10の仰角は、瞳孔の確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20〜35度の範囲に設定される。個々のカメラ10に対しては予めカメラ較正が行われる。
The
本実施形態では、カメラ10は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されることで生成される。したがって、一つのフレームは、一対の奇数フィールドおよび偶数フィールドに相当する。カメラ10は、画像処理装置20からの命令に応じて対象者Aを撮像し、画像データを画像処理装置20に出力する。
In the present embodiment, the
カメラ10のレンズ部分を図2に模式的に示す。この図に示すように、カメラ10では、対物レンズ11が円形状の開口部12に収容され、開口部12の外側に光源13が取り付けられている。光源13は、対象者Aの眼に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。したがって、カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。光源13は、画像処理装置20からの命令に応じたタイミングで照明光を出射する。
The lens portion of the
画像処理装置20は、カメラ10、及び光源13の制御と、対象者Aの視線方向の検出とを実行するコンピュータである。画像処理装置20は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置20は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
The
画像処理装置20の一般的なハードウェア構成を図3に示す。画像処理装置20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。
A general hardware configuration of the
後述する画像処理装置20の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。
Each functional element of the
図4に示すように、画像処理装置20は機能的構成要素として点灯制御部21、画像取得部22、及び算出部23を備える。点灯制御部21は、光源13の点灯タイミングを制御する。画像取得部22は、カメラ10の撮影タイミングを光源13の点灯タイミングに同期して制御することで、カメラ10から画像データ(眼画像のデータ)を取得する機能要素である。算出部23は、画像データから得られる視線ベクトルに基づいて視軸(視線ともいう)の方向を検出する機能要素である。視軸(視線)とは、対象者の瞳孔中心と該対象者の注視点(対象者が見ている点)とを結ぶ線である。なお、「視軸」という用語は、起点、終点、および方向の意味(概念)を含む。また、「視線ベクトル」とは、対象者の視軸の方向をベクトルで表したもので、「視軸の方向」を表す一形態である。画像処理装置20の検出結果の視軸の方向の出力先は何ら限定されない。例えば、画像処理装置20は判定結果を画像、図形、またはテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。
As shown in FIG. 4, the
[視線検出方法の基本動作]
次に、図5及び図6を用いて、視線検出装置1による視線検出方法(画像処理方法)の基本動作について説明する。図5は、視線検出方法の基本動作を示すフローチャート、図6は、視線検出装置1による視線の検出を説明するための図である。
[Basic operation of gaze detection method]
Next, the basic operation of the gaze detection method (image processing method) by the
まず、点灯制御部21が光源13の点灯タイミングを制御し、そのタイミングに合わせて画像取得部22がそれぞれのカメラ10から明瞳孔画像(眼画像)および暗瞳孔画像(眼画像)を取得する(ステップS11;画像取得ステップ)。続いて、算出部23が、それぞれのカメラ10からの明瞳孔画像及び暗瞳孔画像を対象にして、それぞれのカメラ10の眼画像中の瞳孔中心(眼の特徴点)の位置及び角膜反射の位置を検出する(ステップS12)。そして、算出部23は、対象者Aの左右の瞳孔中心の3次元座標を算出する(ステップS13)。さらに、算出部23は、算出したいずれかのカメラ10の眼画像における瞳孔中心の位置及び角膜反射の位置、及び左右の瞳孔の3次元座標を基に、左右の瞳孔の光軸を算出する(ステップS14)。ここでいう、「光軸」とは、カメラ10によって取得される画像によって検出される眼球の光軸であり、例えば、眼球の対象軸と一致する。その後、算出部23は、左右の瞳孔における光軸と視軸との間のずれ角度及びずれ方向を示すずれ角度ベクトルを算出する(ステップS15)。さらに、算出部23は、算出したずれ角度ベクトルを用いて光軸を補正することによって視軸を算出した後、算出した視軸を参照して所定の視対称平面上の注視点を算出する(ステップS16、以上算出ステップ)。以上の処理は、視線検出処理の終了の指示が受け付けられるまで、繰り返し実行される(ステップS17)。
First, the
以下、各ステップの処理について詳細に説明する。 The process of each step will be described in detail below.
(眼画像の取得)
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
(Acquisition of eye image)
The light entering the eye is diffusely reflected by the retina, and of the reflected light, the light passing through the pupil has the property of returning to the light source with strong directivity. When the camera is exposed when the light source near the camera aperture emits light, a part of the light reflected by the retina enters the aperture, so it is possible to obtain an image in which the pupil is brighter than the periphery of the pupil . This image is a bright pupil image. On the other hand, if the camera is exposed when the light source located at a distance from the camera aperture emits light, the light returned from the eye hardly returns to the camera aperture, so an image with a dark pupil appears It can be acquired. This image is a dark pupil image. In addition, when light with a wavelength with high transmittance is irradiated to the eye, reflection of light at the retina increases, so the pupil appears bright, and when light with a wavelength with low transmittance is irradiated to the eye, light is reflected in the retina The pupils appear dark because they are reduced.
本実施形態では、透過率が高い波長の光(中心波長が850nm)を発する発光素子13aが開口部12に隣接した位置に設けられ、眼の透過率が低い波長の光(中心波長が940nm)を発する発光素子13bを開口部12から離れた位置に設けられる。点灯制御部21及び画像取得部22は、カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、カメラ10の偶数フィールドに合わせて発光素子13bを点灯させて暗瞳孔画像を撮影する。さらに、画像取得部22は2つのカメラ10の間で作動タイミングをわずかにずらし、個々のカメラ10の露光時間はそのずらし時間以下に設定される。点灯制御部21は、各カメラ10の露光時間中に、対応する発光素子13aおよび発光素子13bを交互に発光させることで、一方のカメラ10の光源13からの光が他方のカメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。
In the present embodiment, the
画像取得部22は、これらの一連の制御により得られる明瞳孔画像および暗瞳孔画像を取得する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像取得部22は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像または暗瞳孔画像を生成する。画像取得部22は2つのカメラ10によって得られた明瞳孔画像および暗瞳孔画像を算出部23に出力する。
The
(角膜反射の位置及び瞳孔中心の位置の検出)
算出部23は、画像取得部22から入力された明瞳孔画像および暗瞳孔画像のそれぞれから左右の眼における角膜反射を検出する。具体的には、算出部23は1枚の画像に対してPタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報に基づいてその画像から左右の眼における角膜反射を選択する。このような処理により、算出部23は明瞳孔画像および暗瞳孔画像のそれぞれから、左右の眼における角膜反射を得る。
(Detection of position of corneal reflex and position of pupil center)
The
さらに、算出部23は、算出された角膜反射の位置に基づいて明瞳孔画像と暗瞳孔画像との間での角膜反射の移動量を位置補正量として計算する。続いて、算出部23はそれら二つの角膜反射の位置が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。そして、算出部23は一致させた角膜反射の画像上の座標(位置)を取得する。
Furthermore, the
続いて、算出部23は差分画像から左右の瞳孔位置を特定する。具体的には、算出部23は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、算出部23は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔を選択し、左右の瞳孔中心の座標(位置)を算出する。
Subsequently, the
(左右の瞳孔の3次元座標の算出)
続いて、算出部23は左右の瞳孔中心の3次元座標を求める。具体的には、算出部23はステレオ法を用いて、2つのカメラ10から取得した差分画像を用いて算出した左右の瞳孔中心の座標から、左右の瞳孔中心の3次元位置をそれぞれ計算する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。具体的には、算出部23は、2台のカメラ10からの画像データを基に検出した画像座標系における瞳孔中心の座標と、3次元空間内の世界座標系における瞳孔中心の座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、算出部23は、関係式から世界座標系における対象者Aの瞳孔中心の3次元座標を求める。
(Calculation of 3D coordinates of left and right pupils)
Subsequently, the
(光軸の算出)
算出部23は、左右の瞳孔中心の3次元座標、差分画像上における瞳孔中心の位置、及び差分画像上における角膜反射の位置に基づいて光軸を算出する。なお、算出部23は、左右の眼のいずれか眼の瞳孔中心の位置、及び左右の眼のいずれか眼の角膜反射の位置に基づいて、その眼の光軸を検出してもよいし、左右の眼の両方の瞳孔中心の位置、及び左右の眼の両方の角膜反射の位置に基づいて、両方の眼の光軸を検出してもよい。以降では、いずれか一方の眼の光軸を検出することを例に説明する。
(Calculation of optical axis)
The
図6に示すように、瞳孔中心の3次元位置Pに基づいて、カメラ10の開口部12の中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を考える。この仮想視点平面X’−Y’は、カメラ10で捉えられる画像の投影面(画像面)に対応する。ここで、X’軸は、世界座標系のXW−ZW平面と仮想視点平面との交線に相当する。
As shown in FIG. 6, based on the three-dimensional position P of the pupil center, a virtual viewpoint with the center of the
算出部23は、画像面SGにおける角膜反射Gから瞳孔中心PまでのベクトルrGを算出し、そのベクトルrGを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する。このとき、各カメラ10をピンホールモデルと考え、角膜反射Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、算出部23は、仮想視点平面と平行であって瞳孔中心Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルrとして算出し、このベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。
続いて、算出部23は、対象者Aの仮想視点平面上の光軸との交点T’に関して、直線OT’の水平軸X’に対する傾きφが、ベクトルrの画像面上の水平軸XGに対する傾きφ’と等しいと仮定する。さらに、算出部23は、対象者Aの光軸のベクトル、すなわち、瞳孔中心Pと交点T’とを結ぶベクトルPT’と、基準線OPとの成す角θを、ゲイン値kを含むパラメータを使った下記式(1)により計算する。
θ=f1(r)=k×|r| …(1)
Subsequently, the calculating
θ = f 1 (r) = k × | r | (1)
このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面上で拡大したものがそのまま対象者Aの光軸との交点T’に対応するとみなすことにより行われる。より詳しくは、対象者Aの光軸のベクトルPT’の基準線OPに対する角度θは、瞳孔中心と角膜反射の距離|r|との間で線形関係を有すると仮定する。 Such calculation of the angles φ and θ is performed by assuming that the vector r on the plane on which the pupil center P exists is enlarged on the virtual viewpoint plane as it corresponds to the intersection T ′ with the optical axis of the object person A as it is. To be done. More specifically, it is assumed that the angle θ of the vector PT 'of the optical axis of the subject A with respect to the reference line OP has a linear relationship between the pupil center and the distance | r | of the corneal reflection.
角度θと距離|r|とは線形近似できるという仮定、および二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r|,φ’)とを1対1に対応させることができる。そして、算出部23は、算出した(θ,φ)を基に、対象者Aの光軸のベクトルPT’を得ることができる。
By using the assumption that the angle θ and the distance | r | can be linearly approximated and the assumption that the two inclinations φ and φ 'are equal, (θ, φ) and (| r |, φ') can be 1 It can be made to correspond to a pair. Then, the
(光軸と視軸との間のずれ角度ベクトルの算出)
算出部23によるずれ角度ベクトルの算出手順を説明する前に、ずれ角度ベクトルの算出の必要性について説明する。
(Calculation of deviation angle vector between the optical axis and the visual axis)
Before describing the calculation procedure of the shift angle vector by the
光源13とカメラ10が実質的に同じ位置にある場合は、例えば対象者Aがそのカメラ10のほうを見たときは眼球の対称性があれば、そのカメラ10によって取得された画像においては瞳孔の中央に角膜反射が映るはずである。しかし、実際には対象者Aの眼において光軸と視軸とはずれが生じるのが一般的である。このような光軸と視軸とのずれは、個人間あるいは左右の眼球間で異なる。つまり、対象者Aの仮想視点平面上の注視点をTとした場合に、視軸のベクトルPTは、光軸のベクトルPT’からずれることとなる(図6)。
In the case where the
従来の視線検出装置では、対象者Aが規定点を見た際に算出される光軸が視軸に一致するようにベクトルrを補正するための補正ベクトルr0を算出し、画像上で検出したベクトルr’を、下記式;
r=r’−r0
で補正し、補正したベクトルrを用いて視軸のベクトルPTを検出していた。
The conventional gaze detection apparatus calculates a correction vector r 0 for correcting the vector r so that the optical axis calculated when the target person A sees the specified point coincides with the visual axis, and detects it on the image The following equation r;
r = r '-r 0
, And the vector PT of the visual axis is detected using the corrected vector r.
しかしながら、対象者Aに対していったん補正ベクトルr0を決定した場合であっても、装置に対して対象者Aの頭部が視線を同じ方向に向けながら左右方向に傾いた(以下、「側屈」という。)場合に、視軸と光軸との間のずれ方向が変化するため正確に光軸から視軸を検出することができない。具体的には、図7(a)に示すように、補正ベクトルr0を算出した時の対象者Aの側屈の傾きと視軸検出時の側屈の傾きが同一の場合には、両眼のそれぞれにおいて光軸と視軸のずれが正しく補正されるために両眼において検出された視軸がディスプレイ装置30上の注視点Qにおいて一致する。一方で、図7(b)に示すように、補正ベクトルr0を算出した時の対象者Aの側屈の傾きから視軸検出時の側屈の傾きが変化した場合には、光軸と視軸とのずれの方向も視軸(光軸)周りに変化するために補正ベクトルr0をそのまま使った場合には両眼において検出された視軸が注視点Qに一致しない。
However, even when the correction vector r 0 is determined once for the subject A, the head of the subject A is inclined in the left-right direction while the sight line is directed in the same direction with respect to the device (hereinafter referred to as “side In the case of “bending”), since the direction of displacement between the visual axis and the optical axis changes, the visual axis can not be accurately detected from the optical axis. Specifically, as shown in FIG. 7A, when the inclination of the lateral bending of the subject A at the time of calculating the correction vector r 0 and the inclination of the lateral bending at the time of visual axis detection are the same, The visual axes detected in both eyes coincide at the gaze point Q on the
本実施形態では、光軸(あるいは視軸)方向から見た対象者Aの側屈の傾きを基に、光軸に対する視軸のずれる方向を光軸周りに変化させることで視軸の検出精度を上げようとするものである。ただし、単純にカメラ10によって得られた画像上の対象者Aの左右の眼の位置から対象者Aの側屈の傾きを得るのは限界がある。つまり、カメラ10によって対象者Aの視線方向に対して斜め方向から(例えば、上下にずれた方向から)対象者の眼部の2次元画像を取得した場合には、2次元画像において、対象者Aの側屈の状態と対象者Aが視線方向に垂直な方向を軸に回転(以下、単に「回転」という。)した状態を区別することが困難となる。
In this embodiment, the detection accuracy of the visual axis is changed by changing the direction in which the visual axis deviates from the optical axis based on the inclination of the lateral bending of the subject person A viewed from the optical axis (or visual axis) direction. Try to raise However, there is a limit to simply obtaining the inclination of the lateral bending of the subject A from the positions of the eyes of the subject A on the image obtained by the
図8〜図10を参照して、カメラ10によって取得される2次元画像における対象者Aの瞳孔の検出状態を説明する。
The detection state of the pupil of the subject person A in the two-dimensional image acquired by the
図8に示すように、対象者Aの前方に2台のカメラ10R,10Lが設置してあり、対象者Aが左カメラ10Lを注視しており、左カメラ10Lから見て対象者Aの頭部の側屈の傾きはなく左の瞳孔PLと右の瞳孔PRとが水平線上に位置している状態を想定する。このとき対象者Aの左の瞳孔PLに着目すると、視軸Vが瞳孔PLの中心及び左カメラ10Lを通ることになる。画像処理装置20の算出部23によって検出されるのは瞳孔PLの光軸Eであり、光軸Eに対する視軸Vのずれは、左カメラ10Lを通り視軸Vに垂直な平面として仮想平面VP1を設定すると、光軸Eと視軸Vとのなす角度(ずれ角度)Δθ0と、光軸Eと視軸Vの仮想平面VP1上の2つの交点を結ぶ直線LN1の仮想平面VP1上での傾き(ずれ方向)Δφ0とで表現することができる。言い換えれば、傾き(ずれ方向)Δφ0は、2台のカメラ10L,10Rと瞳孔PLとを通る平面PLA1と、光軸Eと視軸Vとの両方を含む平面PLA2とのなす角度でもある。このとき、右の瞳孔PRも平面PLA1上に位置している。この傾きΔφ0の基準線は特定のものには限定されないが、例えば2つのカメラ10L,10Rを結ぶ水平軸LN0とすることができる。本実施形態では、光軸Eに対する視軸Vのずれが、角度ベクトル(ずれ角度ベクトル)Vθ=(Δθ0,Δφ0)で表現される。本実施形態では、視軸Vを仮想平面VP1を基準とした角度ベクトルVθVで表し、光軸Eを仮想平面VP1を基準とした角度ベクトルVθEで表した場合に、VθV=VθE −Vθと表せて、vθを角度ベクトル(ずれ角度ベクトル)Vθ=(Δθ0,Δφ0)として定義する。そして、本実施形態では、後述するように、角度ベクトルVθのうちの値Δφ0を対象者Aの側屈の状態に応じて補正しようとするものである。
As shown in FIG. 8, the
ここで、対象者Aの頭部が回転して対象者Aの右の瞳孔PRが平面PLA1上で移動したことを考えると、対象者Aの側屈は生じないため、光軸Eに対する視軸Vのずれは変化しない。それとともに、カメラ10Lから見た2次元画像における左の瞳孔PLに対する右の瞳孔PRの水平軸LN0からの高さは変化しない。
Here, considering that the head of the subject A rotates and the right pupil P R of the subject A moves on the plane PLA 1 , lateral bending of the subject A does not occur. The shift of the visual axis V does not change. At the same time, the height from the horizontal axis LN 0 of the right pupil P R with respect to the left pupil P L in the two-dimensional image viewed from the
一方で、図9に示すように、対象者Aの側屈の傾きが左に傾くように変化して左の瞳孔PLの位置がそのままで右の瞳孔PRが視軸V周りに角度α2だけ回転した状態を想定する。この場合、光軸Eは視軸V周りに側屈の傾きの変化角度α2だけ回転する。その結果、算出部23の検出する角度ベクトルVθ=(Δθ0,Δφ0+α2)となる。つまり、図8の状態を基準とした場合は、基準となる対象者Aの頭部姿勢におけるカメラ10Lと左右の瞳孔PL,PRとを含む平面PLA1と、頭部の側屈状態の変化後の平面PLA3とのなす角度が、視軸V周りの光軸Eの回転角度となる。このとき、カメラ10Lから見た2次元画像において、左の瞳孔PLに対する右の瞳孔PRの水平軸LN0からの高さが変化するため、2次元画像上で左の瞳孔PLに対する右の瞳孔PRの回転角度を算出すれば角度α2を検出することができ、その結果、角度ベクトルVθ=(Δθ0,Δφ0+α2)を正しく計算することができる。
On the other hand, as shown in FIG. 9, the inclination angle of the lateral bending is changed to be inclined in the left position of the left pupil P L is the right pupil P R as it around the visual axis V of the subject A alpha Assume a state of rotating by two . In this case, the optical axis E rotates around the visual axis V by the change angle α 2 of the inclination of the side bending. As a result, the angle vector Vθ detected by the
さらに、対象者Aが右カメラ10Rを注視した場合も同様に考えることができ、2つの瞳孔PL,PRと2台のカメラ10L,10Rとが同一平面上にある場合は、光軸Eの視軸V周りの回転は生じない。従って、左の瞳孔PLに関しては、右カメラ10Rをあるいは左カメラ10Lのいずれかの2次元画像を用いて、左瞳孔PLの視軸Vを中心に右の瞳孔PRが回転した角度を計測し、それを基に角度ベクトルVθを計算することができる。右の瞳孔PRに関しても、同様に2次元画像を用いて角度ベクトルVθを計算することができる。
Furthermore, it can be considered similarly when the subject A gazes at the
次に、図10に示すように、図8に示す状態から対象者Aの視軸Vに対してカメラ10L,10Rをカメラ10L,10Rを結ぶ線を平行に保ったまま下方に移動させた場合を想定する。図10には、移動させる前のカメラの位置を符号10L’,10R’で示している。この場合はカメラ10L,10Rの高さに対して視軸Vを上方に変化させたのと同じ状態と考えることができる。
Next, as shown in FIG. 10, downwardly while keeping parallel to the line of the camera 10 L, 10 R connecting the camera 10 L, 10 R with respect to the visual axis V of the subject A from the state shown in FIG. 8 Assume the case of moving. In FIG. 10, the position of the camera before moving is indicated by
最初に、元のカメラの位置10L’,10R’及び左の瞳孔PLを含む平面PLA1上に右の瞳孔PRが位置しており、その後、対象者Aの頭部が回転した結果、右の瞳孔PRが平面PLA1上を左カメラ10Lから見て後方に移動して瞳孔PR’の位置となったことを考える。このとき、右の瞳孔PR’は、もはや2つのカメラ10L,10Rと左の瞳孔PLを含む平面PLA4上には存在しないことになる。このことは、左カメラ10Lから見れば、対象者Aの頭部の回転の状態と図9に示したような対象者Aの頭部の側屈の傾きとを区別することはできないことを意味する。このように、カメラ10L,10Rによって撮像した2次元画像のみでは、対象者Aの視軸V周りの光軸Eの回転角度を検出することは困難である。
First,
そこで、本実施形態に係る算出部23は、以下のようにして、光軸と視軸との間の角度ベクトルVθを補正して算出する。
Therefore, the
すなわち、図11に示すように、算出部23は、対象者Aにディスプレイ装置30に表示された較正用の規定点(視標)POを注視させた状態で、左右の瞳孔(眼の特徴点)PL,PRの3次元位置と、左の瞳孔PLの光軸E0を算出する。次に、算出部23は、光軸E0に垂直な仮想平面VP0を設定し、光軸E0と、規定点PO及び左の瞳孔PLの位置によって決まる視軸V0とを基に、角度ベクトルの初期値Vθ=(Δθ0,Δφ0)を較正する。ここで、仮想平面VP0の横軸は、仮想平面VP0と世界座標系のXW−ZW平面と交線に相当する(以下、別の仮想平面においても同じ)。さらに、算出部23は、基準線である光軸E0に沿った方向から見たときの左右の瞳孔PL,PRの3次元座標を結ぶ線の傾き(傾きの初期値)α0を算出する。この傾きα0が、光軸E0周りの右の瞳孔PRの回転角度である。具体的には、算出部23は、左右の瞳孔PL,PRの3次元座標のそれぞれを仮想平面VP0上に投影することによって仮想平面VP0上に座標変換される投影点PJL,PJRに関して、仮想平面VP0上の水平線からの2つの投影点PJL,PJRを結ぶ線の傾きを求めることによって、左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きα0を算出する。なお、算出部23は、算出した視軸V0に沿った基準線の方向から見たときの左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きを算出してもよい。
That is, as illustrated in FIG. 11, the
さらに、算出部23は、対象者Aの視軸を実際に算出するタイミングにおいて、左右の瞳孔PL,PRの3次元位置と、左の瞳孔PLの光軸E1を算出する。次に、算出部23は、光軸E1に垂直な仮想平面VP2をあらためて設定する。さらに、算出部23は、基準線である光軸E1に沿った方向から見たときの左右の瞳孔PL,PRの3次元座標を結ぶ線の傾き(傾きの実測値)α1を算出する。具体的には、算出部23は、左右の瞳孔PL,PRの3次元座標のそれぞれを仮想平面VP2上に投影することによって仮想平面VP2上に座標変換される投影点PJL,PJRに関して、仮想平面VP2上の水平線からの2つの投影点PJL,PJRを結ぶ線の傾きを求めることによって、左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きα1を算出する。なお、算出部23は、角度ベクトルの初期値Vθ=(Δθ0,Δφ0)と光軸E1とを基にいったん算出した視軸に沿った方向を基準線として、その基準線から見た左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きを算出してもよい。
Furthermore, the
そして、算出部23は、算出した左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きα1を基に、角度ベクトルVθの初期値を視軸算出のための角度ベクトルVθに補正する。具体的には、算出部23は、傾きα1から傾きα0を減算し、その減算値(α1−α0)を基に角度ベクトルVθの傾きの初期値Δφ0を、下記式によって補正する。
Δφ=Δφ0+(α1−α0)
このようにして、算出部23は、視軸を検出する際に用いる角度ベクトルVθ=(Δθ0,Δφ)を決定する。なお、対象者Aに較正用の規定点POを注視させた状態での傾きα0及び角度ベクトルVθの初期値Δθ0,Δφ0の算出は、最初の視軸検出時に一度実行されればよく、それらの値がその後の複数回の視軸の検出時に繰り返し用いられてもよい。
The
Δφ = Δφ 0 + (α 1 −α 0 )
Thus, the
図12を参照して、算出部23による角度ベクトルVθの初期値及び左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きの算出方法の詳細について説明する。
Details of a method of calculating the inclination of a line connecting the initial value of the angle vector Vθ and the three-dimensional coordinates of the left and right pupils P L and P R by the
算出部23は、規定点POを対象者に注視させた際に得られる視軸Vと光軸Eとのなす角を計算することにより、なす角度の初期値Δθ0を検出できる。また、算出部23は、視軸の検出対象の左の瞳孔PLと2台のカメラ10L,10Rとを通る平面PLA4の法線ベクトルNS1と光軸Eとの外積ベクトルに対して平行であって、左の瞳孔を通る直線LN2を設定し、その直線LN2の周りに平面PLA4を角度η回転させた面を平面PLA1と設定する。この角度ηは、平面PLA4と光軸Eとのなす角として求められる。このようにして設定される平面PLA1は、基準線である光軸Eを含み、直線LN2に沿った基準平面である。そして、算出部23は、平面PLA1の法線ベクトルNS2と視軸Vと光軸Eとを含む平面PLA2の法線ベクトルNPとのなす角を計算することにより、傾きの初期値Δφ0を検出できる。
The
また、算出部23は、左右の瞳孔PL,PRの3次元座標を結ぶ線の傾きα0,α1を、平面PLA1に対する、左右の瞳孔PL,PRと光軸Eとを含む平面(顔方向平面)のなす角(傾き)を計算することで得ることができる。具体的には、算出部23は、平面PLA1の法線ベクトルNS2と顔方向平面の法線ベクトルとの間のなす角を計算する。
Further, the
(視軸及び注視点の算出) (Calculation of visual axis and gaze point)
算出部23は、計算によって求めた光軸Eを、上記の手法で補正した角度ベクトルVθを用いて補正することによって、視軸VをベクトルPTとして求める。さらに、算出部23は、視軸Vと視対象平面(ディスプレイ装置30)との交点である注視点Qを次式で求める。
Q=nPT+P
The
Q = nPT + P
以上説明した視線検出装置1、及びそれを用いた視線検出方法によれば、対象者Aの左右の瞳孔の画像を基に、左右の瞳孔の3次元位置及び左右の眼のいずれかの光軸Eが算出され、光軸を予め設定されるずれ角度及びずれ方向に補正することによって視軸Vが算出される。その際、対象者Aの視軸あるいは光軸に沿った方向から見た対象者Aの左右の瞳孔の間の傾きが算出され、視軸を算出するためのずれ方向がその傾きによって補正される。これにより、対象者Aの両眼の注視点の位置の関係にかかわらず視線を安定して検出することができるとともに、カメラ10の性能、あるいは、対象者Aの眼部のカメラに対する向きに関係なく、視線を精度よく検出することができる。
According to the line-of-
ここで、画像処理装置20の算出部23は、2つの平面の傾きを計算することで左右の瞳孔の3次元座標を結ぶ線の傾きとして算出している。このようにすることで、対象者Aの視線あるいは光軸に沿った方向から見た対象者Aの左右の瞳孔の傾きが簡易に算出できるので、視線検出のための演算量を削減することができる。さらには、算出部23は、2つの平面の法線の傾きを計算することで左右の瞳孔の3次元座標を結ぶ線の傾きとして算出している。このようにすることで、対象者Aの視線あるいは光軸に沿った方向から見た対象者Aの左右の瞳孔の傾きが一層簡易に算出できるので、視線検出のための演算量をさらに削減することができる。
Here, the calculating
また、算出部23は、予め設定された位置の視標を対象者Aに見させた際の左右の瞳孔の3次元座標及び光軸を基に、光軸に対する視軸のずれ方向の初期値及び左右の瞳孔の3次元座標を結ぶ線の傾きの初期値を算出している。その後、算出部23は、視線を検出する際に、対象者Aの瞳孔の3次元座標及び光軸を基に傾きの実測値を算出し、傾きの実測値から傾きの初期値を減算した値を基にずれ方向の初期値を補正し、補正後のずれ方向の初期値を用いて視線を算出している。この場合、視標を用いてずれ方向及び傾きの初期値が正確に算出でき、その後の傾きの実測値を基に視線が正確に算出できる。
In addition, the
また、本実施形態では2台のカメラ10L,10Rを用いている。このような構成により、左右の瞳孔の3次元座標が簡易な構成で算出でき、視線の検出が簡易な構成で実現できる。
In the present embodiment, two
ここで、本実施形態に係る視線検出装置1による視線検出の効果を具体的に説明する。
Here, the effect of the gaze detection by the
図13には、視線検出装置1を用いた実験結果を示している。実験においては、カメラ10として16mmレンズおよび可視光カットフィルタを備えるデジタルカメラを用い、光源13として中心波長850nmの近赤外線LED光源と中心波長940nmの近赤外線LED光源とを用い、ディスプレイ装置30には19インチディスプレイを用いた。実験の対象者として被験者A〜Eの5名をディスプレイ装置30の画面正面から約80cmの位置に座らせ、画面上の5行5列で均等に配置された位置に視標25点を順番に表示させ1点ずつ注視させた。その上で、視線検出装置1を動作させて注視点を検出し、検出結果から平均視角誤差[deg]を計測した。図13(a)には、各被験者A〜E及び被験者全体の平均の左眼に関する平均視角誤差を示し、図13(b)には、各被験者A〜E及び被験者全体の平均の右眼に関する平均視角誤差を示している。それぞれの測定結果においては、被験者A〜Eの頭部の傾き(側屈の傾き)が発生しない場合と、被験者A〜Eの頭部の傾きがあって角度ベクトルVθの補正処理を動作させていない場合と、被験者A〜Eの頭部の傾きがあって角度ベクトルVθの補正処理を動作させている場合とにおける結果を分けて示している。
FIG. 13 shows an experimental result using the sight
この結果より、頭部の傾きが発生しない場合の左眼の平均視角誤差が0.90±0.33deg、右眼の平均視角誤差が1.10±0.41degであり、頭部の傾きがあって補正処理を動作させていない場合の左眼の平均視角誤差が1.58±0.61deg、右眼の平均視角誤差が1.73±0.59degであり、頭部の傾きがあって補正処理を動作させている場合の左眼の平均視角誤差が0.95±0.57deg、右眼の平均視角誤差が1.22±0.62degであった。このように、補正なしの場合に対して補正ありの場合は左眼で約30.9%、右眼で約27.6%ほど誤差が軽減されていることがわかった。また、補正ありの場合の結果は頭部の傾きがない場合の結果とほぼ同程度であった。なお、補正の効果が対象者によって異なっているが、本実施形態の方法は視軸と光軸とのずれを補正するものであるため、視軸と光軸とのずれが大きい被験者のほうが誤差軽減の効果が大きいためと思われる。 From this result, the average visual angle error of the left eye is 0.90 ± 0.33 deg, the average visual angle error of the right eye is 1.10 ± 0.41 deg when the head inclination does not occur, and the head inclination is The average viewing angle error of the left eye is 1.58 ± 0.61 deg and the average viewing angle error of the right eye is 1.73 ± 0.59 deg when the correction processing is not operated, and the head tilt is When the correction process was operated, the average visual angle error of the left eye was 0.95 ± 0.57 deg, and the average visual angle error of the right eye was 1.22 ± 0.62 deg. Thus, it was found that the error was reduced by about 30.9% with the left eye and about 27.6% with the right eye when corrected with respect to the case without correction. The results with correction were almost the same as the results without head tilt. Although the effect of the correction differs depending on the subject, since the method of the present embodiment corrects the deviation between the visual axis and the optical axis, the subject with a large deviation between the visual axis and the optical axis has an error. It seems that the effect of mitigation is large.
本発明は、上述した実施形態に限定されるものではない。例えば、上記実施形態では、カメラ10として2台のカメラ10L,10Rを含むステレオカメラを用いていたが、TOF(Time-of-Flight)カメラのような1台のカメラで対象者Aの瞳孔の3次元座標を検出可能なカメラを用いてもよい。また、TOFカメラを用いなくても、1台のカメラで対象者Aの2つの瞳孔PL,PRに含めて鼻孔等の対象者Aの他の特徴点を撮像し、その結果得られた3点の画像上の位置を用いて2つの瞳孔PL,PRの3次元位置を検出する構成であってもよい。
The present invention is not limited to the embodiments described above. For example, in the above embodiment, a stereo camera including two
また、上記実施形態では、対象者Aの左右の眼の特徴点として、左右の瞳孔PL,PRを用いて視軸を計算しているがこれに限定されるものではなく、瞳孔の代わりに、左右の眼の特徴点として、目頭、目尻、虹彩、角膜球、あるいは角膜反射のうちのいずれか、あるいはこれらの組み合わせを検出してもよい。 In the above embodiment, the visual axes are calculated using the left and right pupils P L and P R as feature points of the left and right eyes of the subject person A, but the present invention is not limited to this. In addition, as the feature points of the left and right eyes, any one of the inside of the eye, the back of the eye, the iris, the cornea, the corneal reflection, or a combination thereof may be detected.
例えば、算出部23は、瞳孔中心、虹彩中心、あるいは角膜球中心を検出してもよいし、それらの端部を検出してもよい。角膜球中心は、角膜半径を予め与えておくことで検出することができる。角膜球の表面で反射する位置を検出してもよい。
For example, the
算出部23は、目頭、目尻等のそのものの特徴点の3次元座標を求めてもよいし、両方の中点の3次元座標を求めてもよい。さらに、両目の目頭、目尻の計4点の位置を基に最小二乗法で求めた直線の傾きを計算してもよい。さらに、眼画像中の黒い部分を眼部として検出し、それら輝度重心を特徴点の位置として検出してもよい。
The
また、上記実施形態では、対象者Aの左右の眼の特徴点の代わりに対象者Aの左右の眼の周辺部の特徴点の3次元座標を検出して、それらの3次元座標を基に対象者Aの側屈の傾きの角度を算出してもよい。このような眼の周辺部としては、両眼中点、眉間、眉毛、鼻孔、鼻の先端、鼻の周囲、口角、口の中心のうちのいずれか、あるいはこれらの組み合わせが例示される。対象者Aの眼の周辺部の特徴点として、鼻の先端、眉間、口の中心等を検出する場合には、算出部23は、左右の瞳孔をつなぐ直線を水平線として考えたとき、水平線に対して垂直であって特徴点を通る線を代わりに求めて、この線を含む顔方向平面を対象に傾きを計算することができる。
Further, in the above embodiment, instead of the feature points of the left and right eyes of the subject person A, the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes of the subject person A are detected. The inclination angle of the side bend of the subject person A may be calculated. As such a peripheral part of the eye, any one of a binocular middle point, intercostal space, eyebrow, nostril, nose tip, circumference of nose, mouth corner, mouth center, or a combination thereof is exemplified. When detecting the tip of the nose, intercostal space, center of the mouth, etc. as the feature points of the peripheral part of the subject A's eyes, the calculating
A…対象者、1…視線検出装置、10,10L,10R…カメラ、13…光源、20…画像処理装置、21…点灯制御部、22…画像取得部、23…算出部、E,E0,E1…光軸、PL,PR…瞳孔、PO…規定点(視標)、Q…注視点、V,V0…視軸、Vθ…角度ベクトル、Δθ0…ずれ角度、Δφ0…ずれ方向。 A: target person, 1: eye gaze detection device, 10, 10 L , 10 R : camera, 13: light source, 20: image processing device, 21: lighting control unit, 22: image acquisition unit, 23: calculation unit, E, E 0 , E 1 ... optical axis, P L , P R ... pupil, PO ... prescribed point (target), Q ... fixation point, V, V 0 ... visual axis, Vθ ... angle vector, Δθ 0 ... shift angle, Δφ 0 ... shift direction.
Claims (9)
前記眼画像を基に前記左右の眼のいずれかの光軸あるいは視線を算出する算出部と、を備え、
前記算出部は、算出した前記光軸あるいは前記視線のいずれかである基準線に沿って見たときの前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、前記傾きを基に前記対象者の頭部の傾きの回転角度を算出する、
画像処理装置。 At least one camera for acquiring an eye image by imaging the left and right eyes of the subject and the periphery of the eye;
A calculation unit that calculates an optical axis or a line of sight of one of the left and right eyes based on the eye image;
The calculation unit may select three-dimensional coordinates of feature points of the left and right eyes or feature points of peripheral portions of the left and right eyes when viewed along a reference line which is either the calculated optical axis or the line of sight. The inclination of a line connecting three-dimensional coordinates is calculated, and the rotation angle of the inclination of the head of the subject is calculated based on the inclination.
Image processing device.
請求項1記載の画像処理装置。 The calculation unit calculates a rotation angle of the inclination of the head when viewed along the reference line.
An image processing apparatus according to claim 1.
請求項1又は2に記載の画像処理装置。 The calculation unit calculates the sight line by correcting the optical axis to a preset shift angle and shift direction, corrects the shift direction based on the inclination, and uses the corrected shift direction. Calculate the line of sight,
The image processing apparatus according to claim 1.
請求項1〜3のいずれか1項に記載の画像処理装置。 The calculation unit includes: a reference plane including the reference line and extending along a predetermined axis; three-dimensional coordinates of the reference line and the feature points of the left and right eyes or three-dimensional coordinates of feature points of peripheral portions of the left and right eyes Setting the inclination of the face direction plane with respect to the reference plane, and connecting the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes Calculated as the slope of the line,
The image processing apparatus according to any one of claims 1 to 3.
請求項4記載の画像処理装置。 The calculation unit may determine an inclination between the normal line of the reference plane and the normal line of the face direction plane, the three-dimensional coordinates of the feature points of the left and right eyes, or the feature points of peripheral parts of the left and right eyes. Calculated as the slope of a line connecting dimensional coordinates,
The image processing apparatus according to claim 4.
請求項3に記載の画像処理装置。 The calculation unit is configured to: three-dimensional coordinates of feature points of the left and right eyes or three-dimensional coordinates of feature points of peripheral portions of the left and right eyes when the target person is caused to look at a target at a preset position. When calculating the initial value of the shift direction and the initial value of the inclination based on the optical axis and detecting the sight line, three-dimensional coordinates of the feature points of the left and right eyes or peripheral parts of the left and right eyes The actual measurement value of the inclination is calculated based on the three-dimensional coordinates of the feature points of the feature point and the optical axis, and the initial value in the deviation direction is corrected based on a value obtained by subtracting the initial value of the inclination from the actual measurement value of the inclination. Calculating the sight line using an initial value of the deviation direction after correction;
The image processing apparatus according to claim 3.
前記算出部は、前記2台のカメラによって取得された前記眼画像を基に、前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を算出する、
請求項1〜6のいずれか1項に記載の画像処理装置。 It has two cameras for acquiring the eye image,
The calculation unit calculates the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral part of the left and right eyes based on the eye images acquired by the two cameras. ,
The image processing apparatus according to any one of claims 1 to 6.
請求項1〜7のいずれか1項に記載の画像処理装置。 The calculation unit is any one of the pupil, the inner eye, the corner of the eye, an iris, a corneal ball, and a corneal reflex as feature points of the left and right eyes, and a binocular midpoint as a feature point of peripheral portions of the left and right eyes. Detect any of the intercostal region, eyebrows, nostrils, nose tip, nose circumference, mouth corners, mouth center,
The image processing apparatus according to any one of claims 1 to 7.
前記眼画像を基に前記左右の眼のいずれかの光軸あるいは視線を算出する算出ステップと、を備え、
前記算出ステップでは、算出した前記光軸あるいは前記視線のいずれかである基準線に沿って見たときの前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、前記傾きを基に前記対象者の頭部の傾きの回転角度を算出する、
画像処理方法。 An image acquisition step of acquiring an eye image by imaging the left and right eyes of the subject and the periphery of the eye;
Calculating an optical axis or a line of sight of one of the left and right eyes based on the eye image;
In the calculating step, the three-dimensional coordinates of the feature points of the left and right eyes or the feature points of the peripheral part of the left and right eyes when viewed along the reference line which is either the calculated optical axis or the sight line The inclination of a line connecting three-dimensional coordinates is calculated, and the rotation angle of the inclination of the head of the subject is calculated based on the inclination.
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017234588A JP7046347B2 (en) | 2017-12-06 | 2017-12-06 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017234588A JP7046347B2 (en) | 2017-12-06 | 2017-12-06 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019098024A true JP2019098024A (en) | 2019-06-24 |
JP7046347B2 JP7046347B2 (en) | 2022-04-04 |
Family
ID=66974893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017234588A Active JP7046347B2 (en) | 2017-12-06 | 2017-12-06 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7046347B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110750157A (en) * | 2019-10-18 | 2020-02-04 | 天津理工大学 | Eye control auxiliary input device and method based on 3D eyeball model |
CN112597872A (en) * | 2020-12-18 | 2021-04-02 | 深圳地平线机器人科技有限公司 | Gaze angle estimation method and device, storage medium, and electronic device |
WO2021090354A1 (en) | 2019-11-05 | 2021-05-14 | 日本電気株式会社 | Iris authentication device and iris authentication method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130188834A1 (en) * | 2010-08-09 | 2013-07-25 | Yoshinobu Ebisawa | Gaze point detection method and gaze point detection device |
JP2015169959A (en) * | 2014-03-04 | 2015-09-28 | 国立大学法人静岡大学 | Rotation angle calculation method, gaze point detection method, information input method, rotation angle calculation apparatus, gaze point detection apparatus, information input apparatus, rotation angle calculation program, gaze point detection program, and information input program |
JP2016024616A (en) * | 2014-07-18 | 2016-02-08 | 国立大学法人静岡大学 | Eyeball measurement system, visual line detection system, eyeball measurement method, eyeball measurement program, visual line detection method, and visual line detection program |
JP2016099759A (en) * | 2014-11-20 | 2016-05-30 | 国立大学法人静岡大学 | Face detection method, face detection device, and face detection program |
-
2017
- 2017-12-06 JP JP2017234588A patent/JP7046347B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130188834A1 (en) * | 2010-08-09 | 2013-07-25 | Yoshinobu Ebisawa | Gaze point detection method and gaze point detection device |
JP2015169959A (en) * | 2014-03-04 | 2015-09-28 | 国立大学法人静岡大学 | Rotation angle calculation method, gaze point detection method, information input method, rotation angle calculation apparatus, gaze point detection apparatus, information input apparatus, rotation angle calculation program, gaze point detection program, and information input program |
JP2016024616A (en) * | 2014-07-18 | 2016-02-08 | 国立大学法人静岡大学 | Eyeball measurement system, visual line detection system, eyeball measurement method, eyeball measurement program, visual line detection method, and visual line detection program |
JP2016099759A (en) * | 2014-11-20 | 2016-05-30 | 国立大学法人静岡大学 | Face detection method, face detection device, and face detection program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110750157A (en) * | 2019-10-18 | 2020-02-04 | 天津理工大学 | Eye control auxiliary input device and method based on 3D eyeball model |
CN110750157B (en) * | 2019-10-18 | 2023-12-01 | 天津理工大学 | Eye control auxiliary input device and method based on 3D eyeball model |
WO2021090354A1 (en) | 2019-11-05 | 2021-05-14 | 日本電気株式会社 | Iris authentication device and iris authentication method |
CN112597872A (en) * | 2020-12-18 | 2021-04-02 | 深圳地平线机器人科技有限公司 | Gaze angle estimation method and device, storage medium, and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP7046347B2 (en) | 2022-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6548171B2 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
JP6586523B2 (en) | Eye tracking using structured light | |
JP6631951B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP5858433B2 (en) | Gaze point detection method and gaze point detection device | |
JP6963820B2 (en) | Line-of-sight detector | |
JP4649319B2 (en) | Gaze detection device, gaze detection method, and gaze detection program | |
US6659611B2 (en) | System and method for eye gaze tracking using corneal image mapping | |
JP5915981B2 (en) | Gaze point detection method and gaze point detection device | |
JP7030317B2 (en) | Pupil detection device and pupil detection method | |
JP2005185431A (en) | Line-of-sight detection method and line-of-sight detector | |
US11624907B2 (en) | Method and device for eye metric acquisition | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
JP7046347B2 (en) | Image processing device and image processing method | |
JP6948688B2 (en) | Line-of-sight measurement device, line-of-sight measurement method, and line-of-sight measurement program | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
JP2019215688A (en) | Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration | |
JP5590487B2 (en) | Gaze measurement method and gaze measurement device | |
JP6430813B2 (en) | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus | |
JP6780161B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP6468755B2 (en) | Feature point detection system, feature point detection method, and feature point detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7046347 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |