JP2022128697A - Sight line detection apparatus - Google Patents
Sight line detection apparatus Download PDFInfo
- Publication number
- JP2022128697A JP2022128697A JP2021027059A JP2021027059A JP2022128697A JP 2022128697 A JP2022128697 A JP 2022128697A JP 2021027059 A JP2021027059 A JP 2021027059A JP 2021027059 A JP2021027059 A JP 2021027059A JP 2022128697 A JP2022128697 A JP 2022128697A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- vehicle
- sight line
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、視線検出装置に関する。 The present invention relates to a line-of-sight detection device.
従来、運転者の顔を撮影した動画から、画像処理により運転者の視線を推定する視線推定装置、視線検出装置が知られている(例えば、特許文献1-3参照)。
2. Description of the Related Art Conventionally, a line-of-sight estimation device and a line-of-sight detection device for estimating a driver's line of sight by image processing from a moving image of a driver's face have been known (see
従来の視線検出装置では、運転者の視線を検出するためには、運転者の顔画像から黒目の中心位置及び眼球の中心点を正確に検出する必要がある。例えば、眼球の中心点は、見た目には表れないため、眼球の見えている部分で検出したり、目尻-目頭の中心から推定したりしている。そのため、車載環境において、正確な視線検出による視線データの提供が望まれる。 In order to detect the line of sight of the driver, the conventional line-of-sight detection device needs to accurately detect the center position of the iris and the center point of the eyeball from the face image of the driver. For example, since the center point of the eyeball does not appear visually, it is detected from the visible part of the eyeball or estimated from the center of the outer corner-inner corner of the eye. Therefore, in an in-vehicle environment, it is desired to provide line-of-sight data through accurate line-of-sight detection.
本発明は、車載環境において、運転者の正確な視線データを提供することができる視線検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a line-of-sight detection device capable of providing accurate line-of-sight data of a driver in an in-vehicle environment.
上記目的を達成するために、本発明に係る視線検出装置は、車両の運転者の顔を撮影して顔画像を取得する画像取得部と、取得された前記顔画像を画像処理して、少なくとも前記運転者の視線位置を含む視線データを算出する処理部と、を備え、前記処理部は、前記視線データを時系列に関連付けて記憶部に記憶する視線データ収集モードと、前記視線データを補正する視線データ較正モードと、を有し、前記視線データ較正モードは、前記車両の車室内情報に基づいて設定される運転時の複数の注視範囲のうち、頻度の高い複数の高頻度注視範囲を算出し、前記記憶部に記憶された複数の前記視線データに基づいて視線分布を算出し前記視線分布から各前記高頻度注視範囲に対応する実視線位置範囲をそれぞれ特定し、複数の前記高頻度注視範囲の相対位置と複数の前記実視線位置範囲の相対位置とに基づいて、前記視線データの補正値を算出し、算出された前記補正値に基づいて前記視線データを補正して生成する、ことを特徴とする。 In order to achieve the above object, the line-of-sight detection device according to the present invention includes an image acquisition unit that acquires a face image by photographing the face of a driver of a vehicle; and a processing unit that calculates line-of-sight data including the line-of-sight position of the driver, wherein the processing unit has a line-of-sight data collection mode in which the line-of-sight data is stored in a storage unit in association with time series, and the line-of-sight data is corrected. and a line-of-sight data calibration mode, wherein the line-of-sight data calibration mode selects a plurality of high-frequency gaze ranges from among a plurality of gaze ranges during driving set based on the vehicle interior information. calculating a line-of-sight distribution based on a plurality of the line-of-sight data stored in the storage unit; identifying actual line-of-sight position ranges corresponding to each of the high-frequency gaze ranges from the line-of-sight distribution; calculating a correction value for the line-of-sight data based on the relative position of the gaze range and the relative positions of the plurality of the actual line-of-sight position ranges, and correcting and generating the line-of-sight data based on the calculated correction value; It is characterized by
本発明に係る視線検出装置は、車載環境において、運転者の正確な視線データを提供することができる、という効果を奏する。 INDUSTRIAL APPLICABILITY The line-of-sight detection device according to the present invention has the effect of being able to provide accurate line-of-sight data of a driver in an in-vehicle environment.
以下に、本発明の実施形態に係る視線検出装置について図面を参照しつつ詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。以下の実施形態における構成要素には、いわゆる当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。また、以下の実施形態における構成要素は、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。 A line-of-sight detection device according to an embodiment of the present invention will be described in detail below with reference to the drawings. In addition, this invention is not limited by embodiment shown below. Components in the following embodiments include components that can be easily assumed by those skilled in the art, or components that are substantially the same. Also, the constituent elements in the following embodiments can be omitted, replaced, and changed in various ways without departing from the scope of the invention.
[実施形態]
図1に示す本実施形態の視線検出装置1は、自動車等の車両2に搭載され、車両2に乗車した運転者11の視線を検出するものである。視線検出装置1は、カメラ12と、処理部13とを含んで構成される。
[Embodiment]
A line-of-
カメラ12は、画像取得部または画像取得装置の一例であり、車両2の運転者11の顔を撮影して運転者の顔を含む顔画像を時系列で取得するものである。カメラ12は、例えば、CCD(Charge-Coupled Device)型のイメージセンサ、CMOS(complementary metal oxide semiconductor)型イメージセンサ等を有するデジタルカメラで構成される。カメラ12は、車両2の車室10内の運転席に着座している運転者11の顔を撮影するために、例えば運転席前方のメータユニット内、または、コラムカバー上部に設置される。カメラ12は、運転者11の目の領域11aを含む顔画像を取得する。カメラ12は、処理部13に電気的に接続されており、取得した顔画像に対応する動画データ(または静止画データ)、顔画像の撮影時刻等の各種情報を処理部13に出力する。
The
処理部13は、処理装置の一例であり、カメラ12で取得された顔画像を画像処理して、視線データを算出して出力するものである。視線データは、顔画像における目の領域11aから視線11bの方向を示す情報である。具体的には、視線データは、顔画像を画像処理することで得られた運転者11の視線角度、注視位置、及び、顔画像の撮影時刻等が含まれる。視線データは、運転者11が安全確認のための視線移動をしているか否かを車載装置(例えば、運転者11の居眠り等を把握して警告するもの等)が認識するために利用することができる。
The
処理部13は、例えば、視線検出装置1における各種処理機能を実現する処理回路(不図示)を有する。処理回路は、例えば、プロセッサによって実現される。プロセッサとは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路を意味する。処理部13は、例えば、不図示の記憶回路(記憶部)から読み出したプログラムを実行することにより、各処理機能を実現する。また、処理部13は、複数の視線データを、顔画像の撮影時刻に関連付けて記憶部に記憶することが可能であり、記憶部に記憶された視線データを読み出して画像処理することができる。
The
処理部13は、視線データ収集モードと、視線データ較正モードとを有する。視線データ収集モードは、視線データを時系列に関連付けて記憶部に記憶するモードである。視線データ較正モードは、視線データ収集モードで記憶部に記憶した視線データにより、当該視線データを補正するモードである。処理部13は、視線データ収集モードと、視線データ較正モードとを切り替えて実行する。処理部13は、例えば、車両2が走行状態であるときは、視線データ収集モードに切り替え、車両2が停止状態にあるときは、視線データ較正モードに切り替える。処理部13は、例えば、車両2側のECU(Electronic Control Unit)から取得した車両状態情報に基づいて、車両2が走行状態か、停止状態かを判定する。車両状態情報は、例えば、車両2の不図示のアクセルペダルやブレーキペダルへの操作がなされたか否かを示すものである。なお、車両2が走行状態か否かを判定には、車両2のアクセルペダルやブレーキペダルへの操作有無だけでなく、走行センサ等を用いて行うようにしてもよい。
The
次に、視線検出装置1で実行される視線検出アルゴリズムについて図2を参照して説明する。図2に示す処理は、処理部13が記憶部から読みだしたプログラムを実行することにより、各ステップが順次行われる。
Next, a line-of-sight detection algorithm executed by the line-of-
カメラ12は、運転者11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。ステップS12では、処理部13は、カメラ12から映像の信号を1フレーム分取り込む。
The
ステップS13では、処理部13は、グレースケール化を含む、画像のデータ形式の変換(下処理)を行う。例えば、1フレーム内の画素位置毎に、輝度を「0~255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向及び横方向に並べた二次元(2D)配列の画像データを生成する。
In step S13, the
ステップS14では、処理部13は、例えば「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。「Viola-Jones法」の技術は、例えば以下の文献に示されている。「P.viola and M.J.Jones,Rapid Object Detection Using a Boosted Cascade of Simple Features, IEEE CVPR(2001).」
In step S14, the
ステップS15では、処理部13は、ステップS14で抽出した顔の矩形領域のデータの中から、例えば上述したViola-Jones法を用いて目の領域を検出する。
In step S15, the
ステップS16では、処理部13は、後述する眼球3Dモデルを用いるモデルベース手法によって視線を検出する場合、眼球中心を推定する。ここでは、ステップS15で検出した目の矩形領域の中心座標を眼球中心と仮定する。例えば、目尻、目頭位置に基づき眼球中心を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することも想定される。
In step S<b>16 , the
ステップS17では、処理部13は、ステップS15で検出した目の矩形領域のデータについて、テンプレートマッチングの手法を適用して、黒目(瞳孔または虹彩)の粗探索を行う。具体的には、目周辺を切り出した目画像を二値化した画像に対して、テンプレートとして黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の画像中心(黒丸の中心)の座標を目画像中の黒目の中心位置とし、最も尤度の大きかった黒丸画像の半径を目画像中の黒目の半径とする。なお、ステップS17の処理は、目画像中の黒目の中心位置及び半径に関して大凡の目処をつけるために行うものである。
In step S17, the
ステップS18では、処理部13は、ステップS17で探索した黒目の中心位置及び半径を利用し、パーティクルフィルタの手法を適用して、より精度の高い黒目の中心位置及び半径を検出する。
In step S18, the
ステップS19では、処理部13は、上述したステップS13~ステップS18の処理により、1フレームの画像について、眼球中心座標、黒目の中心位置の座標の数値データを得るので、その数値データを出力する。眼球中心座標および黒目の中心位置の座標により視線の方向を特定できる。また、カメラ12が出力する映像が途切れるまで、ステップS11~ステップS20のループ状の処理を繰り返すことで、リアルタイムでの視線検出を実現する。これらのデータを用いて画像平面上の座標から眼球回転角を計算する際には、図3の(A)に示す、眼球モデルを用いた変換を行う。
In step S19, the
図3の(A)に示す眼球3Dモデル30において、この眼球は、眼球中心31と、眼球半径Rとで表される球体である。また、この眼球の表面には、黒目を構成する円形形状の虹彩32があり、虹彩32の中央には円形形状の瞳孔33がある。視線の方向は、眼球中心31から虹彩32または瞳孔33の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、虹彩32または瞳孔33の中心座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。一方、カメラ12で撮影された映像は、2次元平面を表していることから、カメラ12の撮影で得た二次元画像34を眼球3Dモデル30に適用する場合には、二次元/三次元の相互変換を行う必要がある。例えば、次式を用いて変換する。
In the
X=-R×cos(pitch)×sin(yaw)・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X=−R×cos(pitch)×sin(yaw) (1)
Y=R×sin(pitch) (2)
X: distance in the x direction from the
次に、顔画像から黒目を探索する処理について図3の(B)を参照して説明する。ステップS41では、処理部13は、図2中のステップS15の結果を利用し、1フレーム全体の二次元画像データの中から目及びその周辺の矩形領域を切り出して、データD41を取得する。
Next, the process of searching for black eyes from a face image will be described with reference to FIG. 3B. In step S41, the
ステップS42では、処理部13は、ステップS41で取得したデータD41を画素毎の階調が黒/白の二値のみになるように二値化したデータD42を生成した後で、このデータD42に対して図2中のステップS17のテンプレートマッチングを実施する。すなわち、黒目の形状に似た黒丸形状の画像をテンプレートとして利用し、このテンプレートをデータD42の画像上で走査しながら、特徴が尤も似ている大凡の黒目の位置を探索し、その位置および黒目の半径または直径を特定する。
In step S42, the
ステップS43では、処理部13は、ステップS41で取得した目のデータD41に対してソーベルフィルタの処理を施す。具体的には、目のデータD41を左から右に向かって水平方向に順次に走査し、輝度変化のない部分では黒(階調値:0)を出力し、輝度変化の勾配が大きいほど白(階調値:255)に近づくようにして、エッジを検出する。これにより、エッジを抽出した目画像のデータD43が得られる。
In step S43, the
ステップS44では、処理部13は、ステップS42で得られた大凡の黒目の位置を起点として、ステップS43で得られた目画像のデータD43に対してパーティクルフィルタの処理を実行する。パーティクルフィルタによる黒目検出は、以下の[1]~[4]の順に行う。
In step S44, the
[1]処理部13は、テンプレートマッチングで大まかな黒目位置を探索する
[2]処理部13は、眼球3Dモデル30に基づき、上記[1]の黒目位置から眼球回転角を算出する。
[3]処理部13は、上記[2]で得たおおまかな眼球回転角近傍に、黒目楕円候補サンプリングのためのパーティクルを散布する。
[4]処理部13は、ソーベルフィルタのエッジ画像から,各散布位置での尤度を計算し、状態を推定する。
[1] The
[3] The
[4] The
上記[3]の眼球回転角近傍は、図3の(A)に示した眼球3Dモデルのyaw、pitchの値に乱数によるブレを加え複数パターン作成する。このとき、それぞれの回転角から、黒目楕円候補を画像上に投影したものが、D44の円44aの重なりで確認することができる。それぞれの候補楕円円周上から階調値をサンプリングし足し合わせた値を用いて[4]の尤度計算を行う。
In the vicinity of the eyeball rotation angle of [3] above, multiple patterns are created by adding random numbers to the yaw and pitch values of the
次に、視線検出装置1で実行されるモード切り替えアルゴリズムについて図4を参照して説明する。図4に示す処理は、電源投入(例えばイグニッション・スイッチ(IGN)のON)に応じて、処理部13が記憶部から読みだしたプログラムを実行することにより、各ステップが順次行われる。
Next, a mode switching algorithm executed by the line-of-
ステップS51では、処理部13は、初期設定処理を行う。初期設定処理では、視線検出に必要なカメラ12の情報の読み込みや、視線検出装置1の正常動作確認を行う。
In step S51, the
ステップS52では、処理部13は、車両2が走行状態か否かを判定する。車両2が走行状態であると判定した場合は、ステップS53へ移行し、視線データ収集モードに切り替える。一方、車両2が停止状態であると判定した場合は、ステップS55の視線データ較正モードに切り替える。つまり、処理部13は、車両2の走行状態に応じて視線データ収集モードと視線データ較正モードとを切り替える。
At step S52, the
ステップS54では、処理部13は、IGNがOFFされたか否かを判定する。処理部13は、例えば、車両2側のECUから取得したIGN状態情報に基づいて、IGNがON状態か、OFF状態かを判定する。ステップS54でIGNがON状態である場合、ステップS52に戻る。一方、IGNがOFFされた場合、本処理を終了する。
At step S54, the
本実施形態では、図5に示すように、車両2が一定区間を走行している場合、視線データ収集モードに移行し、一時駐車や信号待ち等の停車状態になると、視線データ較正モードへ移行する。例えば、車両2が交差点に向けて走行状態にあるときは、視線データ収集モードに移行している。一方、車両2が交差点の赤信号に応じて停止し停止状態にあるときは、視線データ収集モードを一時的に停止して視線データ較正モードに移行する。車両2が交差点の青信号に応じて再び走行状態になったときは、視線データ較正モードを一時的に停止して視線データ収集モードに移行する。
In this embodiment, as shown in FIG. 5, when the
次に、視線検出装置1で実行される視線データ較正モードのアルゴリズムについて図6を参照して説明する。図6に示す処理は、電源投入(例えばIGNのON)に応じて、処理部13が記憶部から読みだしたプログラムを実行することにより、各ステップが順次行われる。
Next, the algorithm of the line-of-sight data calibration mode executed by the line-of-
ステップS61では、処理部13は、車室内情報を読み出し、当該車室内情報に基づいて複数の高頻度注視範囲を算出する。車室内情報は、例えば、運転者11のアイポイントや車両2の設計値を示す。アイポイントは、運転者11固有のものであってもよいし、車両の設計基準である基準アイポイントであってもよい。アイポイントは、車両2におけるいわゆるアイレンジ内に位置するものとして予め想定される。アイレンジは、車両に応じて予め定まる運転者11の視点が位置する領域に相当する。アイレンジは、車両2において運転者11の目の位置の分布を統計的に表したものであり、例えば、運転者11が運転席に座った状態で所定割合(例えば、95%)の運転者の目の位置が含まれる領域に相当する。車両2の設計値は、例えば、車室10内の設計値である。車室内情報は、車両2の車種によって決定されるため、予め処理部13内の記憶部に登録される。なお、車室内情報は、車両2側のECU等に予め登録され、処理部13が必要に応じて当該ECUから取得する構成であってもよい。
In step S61, the
運転者11の運転中の視線は、車両2の前方に存在する対象物、例えば車線、標識、信号器、他の車両、歩行者等におおむね集中する。このとき、運転者11の注視位置(注視方向)は、例えば、図7の(A)に示すように、車両2の前方に想定される運転視野範囲21に含まれる。本実施形態では、運転視野範囲21を、運転者11の注視位置が集中する高頻度注視範囲の1つとする。運転視野範囲21は、一般的に、運転中の運転者11が目を動かさずに見える範囲であり、例えば、矩形状に構成され、運転者11のアイポイント(基準アイポイント)を起点とした、左12°、右11°、上6°、下5°の範囲である。
The line of sight of the
また、運転者11の運転中の視線は、車両2の左右のミラー、車両2のメーター類(例えば、速度計、回転計、ナビ等)に向けられる。左右のミラーやメーター類は、運転視野範囲外であるが、運転に必要な情報を取得するために、運転者11が定期的に視認する必要がある。そこで、運転視野範囲21以外の注視位置として、左ミラーに対応する注視範囲22、右ミラーに対応する注視範囲23、および、メーター類に対応する注視範囲24が含まれる。本実施形態では、左ミラーに対応する注視範囲22、右ミラーに対応する注視範囲23、および、メーター類に対応する注視範囲24を高頻度注視範囲とする。複数の高頻度注視範囲のうち、運転者11が最も注視する範囲は、運転視野範囲21である。次いで右ミラーに対応する注視範囲23、左ミラーに対応する注視範囲22、メーター類に対応する注視範囲24の順となる。
In addition, the line of sight of the
ステップS61において、処理部13は、複数の高頻度注視範囲の相対位置を算出する。まず、処理部13は、アイポイント、車両2の設計値に基づいて、各高頻度注視範囲の中心位置を算出する。運転視野範囲21の車両2の水平方向における相対位置は、図7の(B)に示すように、運転者11のアイポイント及び視野中心を通る仮想線25と、当該アイポイント及び運転視野範囲21の中心位置21aを通る仮想線26とがなす角度θd(挟角度の方)で算出される。右ミラーに対応する注視範囲23の車両2の水平方向における相対位置は、図7の(B)に示すように、仮想線25と、アイポイント及び右ミラーの中心位置23aを通る仮想線27とがなす角度θR(挟角度の方)で算出される。左ミラーに対応する注視範囲22の車両2の水平方向における相対位置は、図7の(B)に示すように、仮想線25と、アイポイント及び左ミラーの中心位置22aを通る仮想線28とがなす角度θL(挟角度の方)で算出される。このように、処理部13は、算出された角度θd,θR,θLに基づいて、車両2の水平方向における各高頻度注視範囲の相対位置を算出する。また、処理部13は、上記と同様の方法で、車両2の垂直方向における各高頻度注視範囲の相対位置を算出する。
In step S61, the
ステップS62では、処理部13は、視線データ収集モード時において記憶された複数の視線データに基づいて視線位置の分布(以下、「視線分布」とも呼ぶ)を算出する(図8)。視線分布は、視線位置の分布数:dist、分布幅:σ、中央値:g(yaw,pitch)を含む。まず、複数の視線データから得られた視線分布のうち、分布数の最も多い範囲41を第1分布Gd1とし、次いで分布数の多い範囲42を第2分布Gd2,次いで分布数の多い範囲43を第3分布Gd3,…とする(図9)。次に、処理部13は、第1分布Gd1,第2分布Gd2,第3分布Gd3,…それぞれの視線分布の中央値と分布範囲(標準偏差σ)を算出する。なお、第2分布Gd2、第3分布Gd3は、第1分布Gd1の20%~5%の範囲の分布数とし、分布数が5%以下の分布は廃棄する。
In step S62, the
ステップS63では、処理部13は、ステップS61で算出した複数の高頻度注視範囲と、ステップS62で算出した複数の実視線位置範囲との対応関係を求める。本実施形態では、第1分布Gd1(41)、第2分布Gd2(42),第3分布Gd3(43),…を、実視線位置範囲とする。まず、処理部13は、視線分布のうち、分布数が最も多い範囲が第1分布Gd1であることから、当該第1分布Gd1を運転視野範囲21に対応させる。次に、第2分布Gd2,第3分布Gd3,…と、注視範囲22,23,…との対応を調べるために、処理部13は、既知の注視範囲22,23,…の視線角度と、視線分布Gdn(n=2,3,4,…)の中央値(中心位置)との距離(ユーグリッド距離)を下式(3)により算出する。この結果、距離dが最小のものを対応させる。
In step S63, the
距離d={(Gdn.yaw-R.yaw)2+(Gdn.pitch-R.pitch)2}1/2・・・(3) Distance d={(Gdn.yaw−R.yaw) 2 +(Gdn.pitch−R.pitch) 2 } 1/2 (3)
上式(3)は、視線分布Gdnと右ミラーに対応する注視範囲23との間の距離dに対応するものである。処理部13は、式(3)を用いて、視線分布Gdnと注視範囲22,23,…との間の距離dを算出し、各高頻度注視範囲に対応する実視線位置範囲を特定する。
The above formula (3) corresponds to the distance d between the line-of-sight distribution Gdn and the
ステップS64では、処理部13は、補正値計算が可能か否かを判定する。運転者11の視線の誤検出や運転中の予期しない視認行動が発生し、運転視野、右ミラー、左ミラー、メーター類以外の部分に視線が分布してしまう場合がある。このような場合には、視線データに対する補正の精度が大きく低下してしまうため、運転区間にて想定される視線分布になっているか否かを、補正値を算出する前にチェックする。チェックは以下の2項目で実施する。
In step S64, the
標準偏差値:σ
処理部13は、運転視野範囲21の分布幅と第1分布Gd1の分布幅とを比較する。分布幅が一定幅(閾値)より大きく異なる場合、処理部13は、補正値として適当でないと判断し、補正値計算できないと判定する。また、右ミラーに対応する注視範囲23、及び、左ミラーに対応する注視範囲22は、車両2の設計値より相当する角度範囲(左右それぞれのミラーが視認できる範囲)が決められるため、それらを参考に、補正値として適当か否か判断される。
Standard deviation value: σ
The
距離:d
処理部13は、運転視野範囲21、注視範囲22,23の中心位置21a,22a,23aと、それぞれに対応する第1分布Gd1,第2分布Gd2,第3分布Gd3間の距離dより判断する。距離dが一定距離(閾値)より離れすぎている場合、処理部13は、補正値として適当でないと判断し、補正値計算できないと判定する。本実施形態では、目安として5度以内とする。目安の5度は、人間の眼球における視軸と光軸とのズレと同じである。また、目安の5度は、実際に使用する視線検出装置(視線計測システム等)の検出精度(計測精度)を参考に決めることもできる。なお、距離dは、上記式(3)により求める。
Distance: d
The
ステップS64の判定の結果、補正値計算が可能でない場合は、本処理を終了する。一方、補正値計算が可能である場合は、ステップS65へ進む。 If the correction value calculation is not possible as a result of the determination in step S64, this process ends. On the other hand, if correction value calculation is possible, the process proceeds to step S65.
ステップS65では、処理部13は、複数の高頻度注視範囲の相対位置と複数の実視線位置範囲の相対位置とに基づいて、視線データの補正値を算出する。まず、処理部13は、運転視野範囲21、注視範囲22,23の各中心位置21a,22a,23aを頂点とする三角形51の形状(図10の(B))と、それらに対応する第1分布Gd1(41)、第2分布Gd2(42)、第3分布Gd3(43)の各実中心位置41a,43a,42aを頂点とする三角形52の形状(図10の(A))とを比較する。三角形51,52の形状変化は、下式(4)にて算出することができる。三角形51の一点D(x,y)が形状変化後にGd1(x’,y’)になるものとする。このとき、変換行列を用いて、形状変化は下式(4)で表される。
In step S<b>65 , the
ただし、補正行列Aは、下記とする。
However, the correction matrix A is as follows.
補正行列Aの成分を求めるためには、対応する3以上の点が必要であるため、対応する運転視野範囲21、注視範囲22,23と、第1分布Gd1、第2分布Gd2、第3分布Gd3との3組を用いる。 In order to obtain the components of the correction matrix A, three or more corresponding points are required. A triplicate with Gd3 is used.
ステップS66では、処理部13は、算出した補正行列Aを、視線データの補正値として記憶部に保存する。
In step S66, the
処理部13は、視線データ収集モードで検出した視線角度G(y,p)を、補正行列Aを用いて下式(5)で算出する。視線角度Gc(y’,p’)は、式(5)により求めることができる。
The
処理部13は、視線データの補正値を用いて、記憶部に記憶されている視線データを補正し、補正後の視線データを車載装置に出力する。車載装置は、補正後の視線データを用いることで、例えば、運転者11の視認行動を正確に把握することが可能となる。
The
以上説明した視線検出装置1は、車両2の運転者11の顔を撮影して顔画像を取得するカメラ12と、取得された顔画像を画像処理して、運転者11の視線位置を含む視線データを算出する処理部13とを備える。処理部13は、視線データを時系列に関連付けて記憶部に記憶する視線データ収集モードと、視線データを補正する視線データ較正モードとを有する。視線データ較正モードは、車両2の車室内情報に基づいて設定される運転時の複数の注視範囲のうち、頻度の高い複数の高頻度注視範囲を算出する。視線データ較正モードは、記憶部に記憶された複数の視線データに基づいて視線分布を算出し視線分布から各高頻度注視範囲に対応する実視線位置範囲をそれぞれ特定する。視線データ較正モードは、複数の高頻度注視範囲の相対位置と複数の実視線位置範囲の相対位置とに基づいて、視線データの補正値を算出し、算出された補正値に基づいて視線データを補正して生成する。
The line-of-
上記構成により、基準となる車両2側の高頻度注視範囲(21,22,23)と、運転者11の実際の視線分布に基づく実視線位置範囲(Gd1,Gd2,Gd3)とを比較して視線の方向がどれだけずれているかを明確にすることできる。この結果、複数の視線データから全体的な補正値を導きだすことができるので、車載環境における運転者の正確な視線データを提供することが可能となる。また、視線データの測定開始時に実施されていた視線検出装置のキャリブレーション作業が不要となる。
With the above configuration, the reference high-frequency gaze range (21, 22, 23) on the side of the
また、視線検出装置1は、処理部13が、車両2が走行状態であるときは、視線データ収集モードに切り替え、車両2が停止状態であるときは、視線データ較正モードに切り替える。車両2が走行状態のときの視線データの利用が望まれるが、視線データの較正を走行中に行うこととなると、処理部13を高性能化する必要がある。また、車両2が停止状態のときに視線データを収集する場合、例えば運転者11がよそ見等をすることで視線データの正確性が低下することから、車両停止時における視線データ収集は不要となる。そこで、車両2が走行状態のときは、視線データ収集モードに切り替え、車両2が停止状態のときは、視線データ較正モードに切り替えることで、処理部13を高性能化することなく、効率よく正確な視線データを提供することができる。
Further, the line-of-
また、視線検出装置1は、複数の高頻度注視範囲が、車両2の前方の視認範囲に対応する運転視野範囲、車両2の左ミラーに対応する視認範囲、及び、車両2の右ミラーに対応する視認範囲が含まれる。処理部13は、複数の高頻度注視範囲の中心位置を結ぶ三角形と、複数の実視線位置範囲内の視線データに基づいて算出される実中心位置を結ぶ三角形とを比較して視線データの補正値を算出する。これにより、簡単な処理で視線データの補正値の算出が可能となることから、正確性を担保しつつ短時間の停止状態であっても効率よく視線データの補正値を算出ことができる。
Further, in the line-of-
[変形例]
なお、上記実施形態では、処理部13は、3つの高頻度注視範囲の中心位置21a,22a,23aを結ぶ三角形と、3つの実視線位置範囲内の視線データに基づいて算出される実中心位置41a,42a,43aを結ぶ三角形とを比較して視線データの補正値を算出しているが、これに限定されるものではない。例えば、複数の高頻度注視範囲のうち、頻度の高いものから順に4つ以上の高頻度注視範囲の中心位置を結ぶ多角形と、複数の高頻度注視範囲を同数の実視線位置範囲内の視線データに基づく実中心位置41a,42a,43aを結ぶ多角形とを比較して視線データの補正値を算出する構成であってもよい。また、複数の高頻度注視範囲のうち、比較対象となるものの注視範囲の数と、実視線位置範囲の数とは同数であることが好ましい。
[Modification]
In the above embodiment, the
また、上記実施形態及び変形例では、処理回路は、単一のプロセッサによって各処理機能が実現されるものとして説明したがこれに限らない。処理回路は、複数の独立したプロセッサを組み合わせて各プロセッサがプログラムを実行することにより各処理機能が実現されてもよい。また、処理回路が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、処理回路が有する処理機能は、その全部又は任意の一部をプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。 Further, in the above embodiments and modified examples, the processing circuit is described as one in which each processing function is realized by a single processor, but the present invention is not limited to this. The processing circuit may implement each processing function by combining a plurality of independent processors and having each processor execute a program. Moreover, the processing functions of the processing circuit may be appropriately distributed or integrated in a single or a plurality of processing circuits. Further, the processing functions of the processing circuit may be implemented entirely or in part by a program, or may be implemented by hardware such as wired logic.
また、上記実施形態及び変形例では、視線検出装置1は、自動車等の車両2に適用されているが、これに限定されず、例えば車両2以外の船舶や航空機等に適用してもよい。また、視線検出装置1は、カメラ12と、処理部13とに分かれているが、これに限定されず、一体で構成されていてもよい。
In addition, in the above embodiments and modifications, the line-of-
以上で説明したプロセッサによって実行されるプログラムは、記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。 The program executed by the processor described above is pre-installed in a memory circuit or the like and provided. This program may be recorded in a computer-readable storage medium and provided as a file in a format that can be installed in these devices or in a format that can be executed. Also, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network.
1 視線検出装置
2 車両
10 車室
11 運転者
12 カメラ
13 処理部
21 運転視野範囲
22,23 注視範囲
21a,22a,23a 中心位置
Claims (3)
取得された前記顔画像を画像処理して、少なくとも前記運転者の視線位置を含む視線データを算出する処理部と、を備え、
前記処理部は、
前記視線データを時系列に関連付けて記憶部に記憶する視線データ収集モードと、
前記視線データを補正する視線データ較正モードと、を有し、
前記視線データ較正モードは、
前記車両の車室内情報に基づいて設定される運転時の複数の注視範囲のうち、頻度の高い複数の高頻度注視範囲を算出し、
前記記憶部に記憶された複数の前記視線データに基づいて視線分布を算出し前記視線分布から各前記高頻度注視範囲に対応する実視線位置範囲をそれぞれ特定し、
複数の前記高頻度注視範囲の相対位置と複数の前記実視線位置範囲の相対位置とに基づいて、前記視線データの補正値を算出し、
算出された前記補正値に基づいて前記視線データを補正して生成する、
ことを特徴とする視線検出装置。 an image acquisition unit that acquires a face image by photographing the face of the driver of the vehicle;
a processing unit that performs image processing on the acquired face image to calculate line-of-sight data including at least the line-of-sight position of the driver;
The processing unit is
a line-of-sight data collection mode in which the line-of-sight data is associated with time series and stored in a storage unit;
a line-of-sight data calibration mode for correcting the line-of-sight data;
The line-of-sight data calibration mode includes:
calculating a plurality of high-frequency gaze ranges with high frequency among a plurality of gaze ranges during driving set based on the vehicle interior information;
calculating a line-of-sight distribution based on the plurality of line-of-sight data stored in the storage unit, and specifying actual line-of-sight position ranges corresponding to each of the high-frequency gaze ranges from the line-of-sight distribution;
calculating a correction value for the line-of-sight data based on the relative positions of the plurality of high-frequency gaze ranges and the relative positions of the plurality of actual line-of-sight position ranges;
correcting and generating the line-of-sight data based on the calculated correction value;
A line-of-sight detection device characterized by:
前記車両が走行状態であるときは、前記視線データ収集モードに切り替え、
前記車両が停止状態であるときは、前記視線データ較正モードに切り替える、
請求項1に記載の視線検出装置。 The processing unit is
when the vehicle is in a running state, switching to the line-of-sight data collection mode;
Switching to the line-of-sight data calibration mode when the vehicle is stationary;
The line-of-sight detection device according to claim 1 .
前記車両の前方の視認範囲に対応する運転視野範囲、前記車両の左ミラーに対応する視認範囲、及び、前記車両の右ミラーに対応する視認範囲が含まれ、
前記処理部は、
複数の前記高頻度注視範囲の中心位置を結ぶ多角形と、複数の前記実視線位置範囲内の視線データに基づいて算出される実中心位置を結ぶ多角形とを比較して前記視線データの補正値を算出する、
請求項1または2に記載の視線検出装置。 The plurality of high-frequency gaze ranges are
A driving visual field range corresponding to a visual range in front of the vehicle, a visual range corresponding to the left mirror of the vehicle, and a visual range corresponding to the right mirror of the vehicle,
The processing unit is
correcting the line-of-sight data by comparing a polygon connecting the center positions of the plurality of high-frequency gaze ranges with a polygon connecting the actual center positions calculated based on the line-of-sight data within the plurality of the actual line-of-sight position ranges; calculate the value,
The line-of-sight detection device according to claim 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027059A JP2022128697A (en) | 2021-02-24 | 2021-02-24 | Sight line detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027059A JP2022128697A (en) | 2021-02-24 | 2021-02-24 | Sight line detection apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022128697A true JP2022128697A (en) | 2022-09-05 |
Family
ID=83150350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021027059A Pending JP2022128697A (en) | 2021-02-24 | 2021-02-24 | Sight line detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022128697A (en) |
-
2021
- 2021-02-24 JP JP2021027059A patent/JP2022128697A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10684681B2 (en) | Neural network image processing apparatus | |
US8649583B2 (en) | Pupil detection device and pupil detection method | |
US9405982B2 (en) | Driver gaze detection system | |
JPWO2020121973A1 (en) | Learning methods for object identification systems, arithmetic processing devices, automobiles, lamps for vehicles, and classifiers | |
JP4263737B2 (en) | Pedestrian detection device | |
CN110703904B (en) | Visual line tracking-based augmented virtual reality projection method and system | |
US8345922B2 (en) | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil | |
JP2019527448A (en) | Method and system for monitoring the status of a vehicle driver | |
EP2541493B1 (en) | Pupil detection device and pupil detection method | |
JP6819996B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
EP2620907A1 (en) | Pupil detection device and pupil detection method | |
US11455810B2 (en) | Driver attention state estimation | |
EP1703480B1 (en) | System and method to determine awareness | |
CN111527374B (en) | Sight direction correction device, sight direction correction method, and sight direction correction program | |
JP2010191793A (en) | Alarm display and alarm display method | |
US11657592B2 (en) | Systems and methods for object recognition | |
JP2007164517A (en) | Graphic center detection method, ellipse detection method, image recognition device and controller | |
CN106991376B (en) | Depth information-combined side face verification method and device and electronic device | |
JP2021051347A (en) | Distance image generation apparatus and distance image generation method | |
WO2018051836A1 (en) | Iris detection device, iris detection method, iris detection program, and recording medium onto which iris detection program is recorded | |
JP4701961B2 (en) | Pedestrian detection device | |
JP2022128697A (en) | Sight line detection apparatus | |
JP7278425B2 (en) | Pupil detection device, line-of-sight detection device, passenger monitoring system, and pupil detection method | |
JP2021051348A (en) | Object distance estimation apparatus and object distance estimation method | |
JP2009110065A (en) | Driving support device |