JP6187155B2 - Gaze target estimation device - Google Patents

Gaze target estimation device Download PDF

Info

Publication number
JP6187155B2
JP6187155B2 JP2013223579A JP2013223579A JP6187155B2 JP 6187155 B2 JP6187155 B2 JP 6187155B2 JP 2013223579 A JP2013223579 A JP 2013223579A JP 2013223579 A JP2013223579 A JP 2013223579A JP 6187155 B2 JP6187155 B2 JP 6187155B2
Authority
JP
Japan
Prior art keywords
gaze
point data
driver
gazing
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013223579A
Other languages
Japanese (ja)
Other versions
JP2015085719A (en
Inventor
佑介 可児
佑介 可児
鈴木 幸一郎
幸一郎 鈴木
顕 吉澤
顕 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2013223579A priority Critical patent/JP6187155B2/en
Publication of JP2015085719A publication Critical patent/JP2015085719A/en
Application granted granted Critical
Publication of JP6187155B2 publication Critical patent/JP6187155B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の運転者が注視している注視対象物を推定する注視対象物推定装置に関する。   The present invention relates to a gaze target estimation device that estimates a gaze target that a driver of a vehicle is gazing at.

例えば、特許文献1には、運転者の視線を利用して、必要な情報の提供を行う走行情報提供装置が開示されている。この走行情報提供装置は、車載カメラなどを用いて、運転者の視線方向を計測する。さらに、自車両の周辺に存在する、他車両、歩行者、二輪車、標識、表示、信号、横断歩道および一時停止線などの交通環境対象物の位置を検出する。そして、計測された視線方向及び検出された交通環境対象物の位置に基づいて、運転者の交通環境対象物に対する視認度を算出する。算出された視認度が低い交通環境対象物は、運転者が認識していない可能性が高いので、例えば画面上において強調表示することにより運転者に注意喚起する。   For example, Patent Document 1 discloses a travel information providing device that provides necessary information using a driver's line of sight. This travel information providing apparatus measures the driver's line-of-sight direction using an in-vehicle camera or the like. Further, the position of traffic environment objects such as other vehicles, pedestrians, two-wheeled vehicles, signs, displays, signals, pedestrian crossings, and temporary stop lines existing around the host vehicle is detected. Based on the measured line-of-sight direction and the detected position of the traffic environment object, the visibility of the driver with respect to the traffic environment object is calculated. Since the calculated traffic environment object with low visibility is highly likely not to be recognized by the driver, the driver is alerted by highlighting it on the screen, for example.

しかし、カメラ画像などを用いて運転者の視線方向を計測する場合、その視線方向の計測値は、瞳孔中心の推定誤差や顔向きの推定誤差など、さまざまな要因の誤差の累積的な影響を受ける。また、運転者の姿勢が変化した場合なども、視線方向と対象物との相対的な位置関係が変化する。   However, when measuring the driver's gaze direction using camera images etc., the gaze direction measurement value has the cumulative effect of errors due to various factors such as pupil center estimation error and face orientation estimation error. receive. Also, when the driver's posture changes, the relative positional relationship between the line-of-sight direction and the object changes.

このような点に鑑みて、特許文献2には、推定した視線方向が、実際の視線方向と一致するように自動較正を行う装置が開示されている。この特許文献2の装置では、運転中における特定の操作(例えば車線変更のための操作)が行われるときには、特定の位置(後方確認のためルームミラーやサイドミラー)への注視が増えるとの考えの下、特定の操作の開始時点の所定時間前から終了時点までの視線データを抽出する。そして、抽出した視線データの分布に基づいて特定位置の注視位置を算出し、その注視位置が、特定の操作に対して予め定めた注視位置に一致するように視線データを補正するための補正係数を算出する。   In view of such points, Patent Document 2 discloses an apparatus that performs automatic calibration so that the estimated line-of-sight direction matches the actual line-of-sight direction. In the device of Patent Document 2, when a specific operation during driving (for example, an operation for changing lanes) is performed, it is considered that attention to a specific position (a rearview mirror or a side mirror for rearward confirmation) increases. The line-of-sight data from a predetermined time before the start time of the specific operation to the end time is extracted. Then, a gaze position at a specific position is calculated based on the distribution of the extracted gaze data, and a correction coefficient for correcting the gaze data so that the gaze position matches a gaze position predetermined for a specific operation Is calculated.

特許第5171629号公報Japanese Patent No. 5171629 特開2010−29262号公報JP 2010-29262 A

しかしながら、運転者が特定の操作を行う場合であっても、運転者は、その特定の操作に対応する特定の位置だけを注視するわけではない。例えば車線変更をする場合、運転者は、その準備として、前方の先行車や道路状況を注視しつつ、短時間の内に、ルームミラーやサイドミラーによって、自車両後方の状況を確認する。そして、車線変更する直前には、車線変更を行う側の後方を振り返ることによって、安全に車線変更を行いうるかを目視によって確認する。このような運転者の確認動作は、あくまで一般的なものであり、道路状況や運転者の癖などにより、確認動作、すなわち視線の動きは、運転者ごとに異なることが多い。   However, even when the driver performs a specific operation, the driver does not pay attention to only a specific position corresponding to the specific operation. For example, when changing lanes, as a preparation, the driver checks the situation behind the host vehicle with a rearview mirror or side mirror within a short period of time while paying attention to the preceding preceding vehicle and road conditions. Then, immediately before changing the lane, it is visually confirmed whether the lane can be changed safely by looking back at the rear side of the lane changing side. Such a driver's confirmation operation is a general one, and the confirmation operation, that is, the movement of the line of sight often differs depending on the driver, depending on the road condition or the driver's habit.

従って、特許文献2の装置のように、特定の操作の開始時点の所定時間前から終了時点までの視線データを抽出しても、抽出した視線データには、特定位置(ルームミラーやサイドミラー)を注視している視線データ以外に、特に車室外の様々な方向への視線データが含まれることになる。そのため、抽出した視線データから、特定操作に対応する特定位置を高精度に定めることは困難である。   Therefore, even if gaze data from a predetermined time before the start time of a specific operation to the end time is extracted as in the device of Patent Document 2, the extracted gaze data has a specific position (room mirror or side mirror). In addition to the line-of-sight data that is gazing, the line-of-sight data in various directions outside the passenger compartment is included. Therefore, it is difficult to determine the specific position corresponding to the specific operation with high accuracy from the extracted line-of-sight data.

本発明は、上述した点に鑑みてなされたものであり、車両の運転者が注視している注視対象物を、より高精度に推定することが可能な注視対象物推定装置を提供することを目的とする。   The present invention has been made in view of the above-described points, and provides a gaze target estimation device capable of estimating a gaze target that a driver of a vehicle is gaze with higher accuracy. Objective.

上述した目的を達成するために、本発明による注視対象物推定装置は、
車両の運転者の左右の目のそれぞれの視線方向、及び当該運転者の顔向き方向を含む頭部位置を検出する検出手段(10)と、
視線方向、及び前記顔向き方向を含む頭部位置に基づき、運転者が注視している注視点の位置を示す注視点データを算出するものであって、その注視点データは運転者から注視点までの距離を含む算出手段(14)と、
算出手段により繰り返し算出される注視点データの中から、所定の閾値以下の距離を持つ複数の注視点データを抽出する抽出手段(16、18)と、
抽出手段により抽出された複数の注視点データを対象として、複数の注視点データの分布から、車両に付属する少なくとも1つの特定の注視対象物を注視しているとみなされる注視点データと、それ以外の注視点データとを分類するとともに、特定の注視対象物を注視しているとみなされる注視点データとして分類された注視点データに基づき、特定の注視対象物に対応する注視点データが示す位置の範囲を定める範囲設定手段(20)と、
算出手段により算出された注視点データが示す位置が、範囲設定手段により定められた範囲に属する場合、車両の運転者が注視している対象物は、特定の注視対象物であると推定する推定手段(22)と、を備えることを特徴とする。
In order to achieve the above-described object, a gaze target estimation device according to the present invention includes:
Detecting means (10) for detecting a head position including a gaze direction of each of the left and right eyes of the driver of the vehicle and a face direction of the driver;
Based on the gaze direction and the head position including the face direction, gaze point data indicating the position of the gaze point being watched by the driver is calculated, and the gaze point data is calculated from the driver. A calculation means (14) including a distance to
Extraction means (16, 18) for extracting a plurality of gazing point data having a distance equal to or less than a predetermined threshold value from gazing point data repeatedly calculated by the calculation means;
Gazing point data regarded as gazing at least one specific gazing target attached to the vehicle from a plurality of gazing point data distributions , targeting a plurality of gazing point data extracted by the extracting means ; and Gazing point data corresponding to a specific gaze object based on gazing point data classified as gaze point data considered to be gazing at a specific gaze target object Range setting means (20) for determining the range of the position;
When the position indicated by the gazing point data calculated by the calculation means belongs to the range determined by the range setting means, the estimation that the object being watched by the driver of the vehicle is a specific gazing target And means (22).

このように本発明による注視対象物推定装置においては、車両の運転者が注視している注視点の位置を示す注視点データを求める。この注視点データは、運転者から注視点までの距離を含んでいる。注視点対象物推定装置は、複数の注視点データに基づき、特定の注視対象物に対応する注視点データが示す位置の範囲を定める。そして、新たに算出された注視点データが、定められた範囲に属する場合、車両の運転者は、特定の注視対象物を注視していると推定する。   As described above, the gaze target estimation device according to the present invention obtains gaze point data indicating the position of the gaze point that the driver of the vehicle is gazes at. This gazing point data includes the distance from the driver to the gazing point. The gaze point object estimation device determines a range of positions indicated by gaze point data corresponding to a specific gaze object based on a plurality of gaze point data. When the newly calculated gazing point data belongs to a predetermined range, it is estimated that the driver of the vehicle is gazing at a specific gazing target.

ここで、本発明による注視対象物推定装置は、車両の付属物を特定の注視対象物とするとともに、特定の注視対象物に対応する範囲を定めるための注視点データとして、所定の閾値以下の距離を持つ注視点データに絞り込んでいる。このように、注視点データに対して距離によるフィルタリングをかけることで、車両の付属物である特定の注視対象物を注視している注視点データを確実に抽出するとともに、先行車、歩行者、道路状況など運転者が車外を注視しているときの注視点データを除外することが可能となる。これにより、特定の注視対象物に対応する範囲を定める上で、ノイズとなる注視点データを極力除外することが可能となる。このため、従来よりも高い精度で、特定の注視対象物に対応する範囲を定めることができる。   Here, the gaze target estimation device according to the present invention uses a vehicle accessory as a specific gaze target, and as gaze point data for defining a range corresponding to the specific gaze target, a predetermined threshold value or less. We narrow down to gaze point data with distance. In this way, by filtering the gaze point data by distance, it is possible to reliably extract the gaze point data that is gazing at a specific gaze target object that is an accessory of the vehicle, and the preceding vehicle, pedestrian, It is possible to exclude gaze point data such as road conditions when the driver is gazing outside the vehicle. Accordingly, it is possible to exclude as much as possible gaze point data that becomes noise in determining a range corresponding to a specific gaze target. For this reason, the range corresponding to a specific gaze object can be determined with higher accuracy than before.

なお、上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、なんら本発明の範囲を制限することを意図したものではない。   Note that the reference numerals in the parentheses merely show an example of a correspondence relationship with a specific configuration in an embodiment described later in order to facilitate understanding of the present invention, and limit the scope of the present invention. It is not intended.

また、上述した特徴以外の、特許請求の範囲の各請求項に記載した技術的特徴に関しては、後述する実施形態の説明及び添付図面から明らかになる。   Further, the technical features described in the claims of the claims other than the features described above will become apparent from the description of embodiments and the accompanying drawings described later.

実施形態に係る注視対象物推定装置を含むシステム全体の構成を示したブロック図である。It is the block diagram which showed the structure of the whole system containing the gaze target object estimation apparatus which concerns on embodiment. 注視対象物推定装置において実行される処理を示すフローチャートである。It is a flowchart which shows the process performed in a gaze target object estimation apparatus. 一定期間の間に蓄積された注視点データを、水平方向の角度と垂直方向の角度とを2軸とするグラフにプロットした結果を示す図であるIt is a figure which shows the result of having plotted the gaze point data accumulate | stored during the fixed period on the graph which makes the angle of a horizontal direction and the angle of a perpendicular direction 2 axes | shafts. 図3に表された注視点データから、閾値以下の距離を持つ注視点データを抽出し、その抽出した注視点データが示す位置をグラフにプロットした結果を示す図である。It is a figure which shows the result of having extracted the gaze point data which has the distance below a threshold value from the gaze point data represented by FIG. 3, and plotted the position which the extracted gaze point data showed on the graph. 特定の注視対象物に対応する注視点データと、それ以外の注視点データとを分類した結果を示す図である。It is a figure which shows the result of having classified the gaze point data corresponding to a specific gaze object, and other gaze point data.

以下、本発明の実施形態に係る注視対象物推定装置に関して、図面を参照しつつ、説明する。図1は、本実施形態に係る注視対象物推定装置12を含むシステム全体の構成を示したブロック図である。   Hereinafter, a gaze target estimating device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of the entire system including the gaze target estimation device 12 according to the present embodiment.

図1において、視線方向及び頭部位置検出装置10は、車両の運転者の左右それぞれの目の視線方向を別々に検出するとともに、運転者の顔向き方向を含む頭部位置を検出し、検出結果を示す情報を注視対象物推定装置12に出力するものである。   In FIG. 1, the gaze direction and head position detection device 10 separately detects the gaze directions of the left and right eyes of the driver of the vehicle, and detects the head position including the direction of the driver's face. Information indicating the result is output to the gaze target estimation device 12.

視線方向の検出に関しては、例えば、運転者の左右の目を撮影するカメラを設け、撮影された画像において、目頭を基準点とし、その基準点に対する虹彩の位置関係から、左右それぞれの目の視線方向を検出することができる。あるいは、いわゆる角膜照射法を適用して、視線方向を検出しても良い。この場合、赤外線LEDなどにより運転者に赤外線を照射するとともに、赤外光を撮影可能なカメラで運転者の左右の目を撮影する。そして、撮影した画像において、角膜上の反射光の位置(プルキニエ像)を基準点とし、その基準点に対する瞳孔の位置関係から、左右それぞれの目の視線方向を検出する。さらに、角膜と強膜との境界を利用する強膜トラッカー法や、コイルを組み込んだコンタクトレンズを利用するサーチコイル法、角膜−網膜電位を利用したEOG法など、他の視線検出技術を適用して、左右それぞれの目の視線方向を検出しても良い。   With regard to detection of the gaze direction, for example, a camera that captures the left and right eyes of the driver is provided. The direction can be detected. Alternatively, the line-of-sight direction may be detected by applying a so-called corneal irradiation method. In this case, the driver is irradiated with infrared rays using an infrared LED or the like, and the left and right eyes of the driver are photographed with a camera capable of photographing infrared light. Then, in the photographed image, the position of the reflected light on the cornea (Purkinje image) is used as a reference point, and the line-of-sight directions of the left and right eyes are detected from the positional relationship of the pupil with respect to the reference point. In addition, other line-of-sight detection technologies such as the sclera tracker method using the boundary between the cornea and the sclera, the search coil method using a contact lens incorporating a coil, and the EOG method using the cornea-retinal potential are applied. Thus, the line-of-sight directions of the left and right eyes may be detected.

視線の検出にカメラを用いる場合、そのカメラは、車室内に設置された据え置き型であっても良いし、運転者が装着するカメラや帽子に取り付けられた装着型であっても良い。   When a camera is used to detect the line of sight, the camera may be a stationary type installed in the passenger compartment, or a wearing type attached to a camera or hat worn by the driver.

頭部位置の検出に関しては、運転者の顔を撮影するカメラを設け、その撮影画像から、運転者の顔を認識することにより、運転者の顔の向きを含む頭部位置を検出する。頭部位置検出用のカメラは、視線方向の検出の場合と同様に、据え置き型であっても、装着型であっても良い。さらに、頭部位置検出用のカメラは、視線検出用のカメラと共用されても良いし、別個のものであっても良い。   Regarding the detection of the head position, a camera for photographing the driver's face is provided, and the head position including the direction of the driver's face is detected by recognizing the driver's face from the captured image. The head position detection camera may be a stationary type or a wearable type as in the case of detection of the line-of-sight direction. Further, the head position detection camera may be shared with the line-of-sight detection camera, or may be a separate one.

また、カメラ以外の手段を用いて、運転者の頭部位置を検出しても良い。例えば、運転者が頭部に装着する帽子や眼鏡等の装着物にジャイロセンサや加速度センサを組み込んで、運転者の頭部の回転や平行移動を検出することにより、運転者の顔の向きを含む頭部位置を検出しても良い。   Moreover, you may detect a driver | operator's head position using means other than a camera. For example, a gyro sensor or an acceleration sensor is incorporated into an attachment such as a hat or glasses worn by the driver on the head, and the orientation of the driver's face is detected by detecting rotation or translation of the driver's head. The head position including the head position may be detected.

視線方向及び頭部位置検出装置10によって検出された視線方向及び頭部位置を示す情報は、注視対象物推定装置12に入力される。注視対象物推定装置12は、CPU、ROM、RAM、I/Oなどから構成される一般的なマイクロコンピュータからなる。図1には、CPUが、ROMに記憶されたプログラムを実行することにより、注視対象物推定装置12において実現される機能が機能ブロックにより示されている。以下、各機能ブロックについて説明する。   Information indicating the gaze direction and head position detected by the gaze direction and head position detection device 10 is input to the gaze target estimation device 12. The gaze target estimation device 12 is composed of a general microcomputer including a CPU, a ROM, a RAM, an I / O, and the like. In FIG. 1, functions that are realized in the gaze target estimation device 12 when the CPU executes a program stored in the ROM are shown by functional blocks. Hereinafter, each functional block will be described.

注視点データ算出部14は、視線方向及び頭部位置検出装置10から与えられた視線方向及び頭部位置を示す情報に基づき、運転者が注視している注視点の位置を示す注視点データを算出する。本実施形態では、独立して検出された左右それぞれの目の視線が交差する点を注視点とする。注視点データの算出においては、まず、左右それぞれの目の視線方向を用いて、運転者の眉間(両目の間)を原点とする運転者基準の座標系において、注視点位置を求める。   The gazing point data calculation unit 14 generates gazing point data indicating the position of the gazing point that the driver is gazing based on the information indicating the gazing direction and the head position given from the sight line direction and the head position detection device 10. calculate. In this embodiment, the point of gaze is a point where the line of sight of the left and right eyes detected independently intersect. In calculating the gaze point data, first, the gaze point position is obtained in the driver-based coordinate system with the origin between the eyebrows of the driver (between both eyes) using the gaze directions of the left and right eyes.

そして、運転者基準の座標系における注視点位置を、運転者の顔の向きを含む頭部位置を用いて、運転者が正面を向いて運転席に着座したときの標準的な頭部位置を原点とする車両基準の座標系における注視点位置に変換する。具体的には、運転者基準の座標系における注視点位置を運転者の顔の向き分、Yaw方向、Roll方向、Pitch方向に回転させるとともに、運転者の頭部位置の原点からのずれ分、水平方向、垂直方向、前後方向に平行移動させる。これにより、車両基準の座標系における注視点位置が求まる。   And the standard head position when the driver is seated in the driver's seat facing the front using the head position including the direction of the driver's face as the gaze point position in the driver reference coordinate system. It is converted into the point of gaze position in the vehicle reference coordinate system that is the origin. Specifically, the gaze point position in the driver reference coordinate system is rotated in the direction of the driver's face, the Yaw direction, the Roll direction, and the Pitch direction, and the deviation of the driver's head position from the origin, Translate horizontally, vertically, and back and forth. Thereby, the gazing point position in the vehicle-based coordinate system is obtained.

本実施形態では、注視点位置を、注視点の水平方向(左右方向)の角度、注視点の垂直方向(上下方向)の角度、及び注視点までの距離によって表わす。従って、注視点データ算出部14によって算出される注視点データは、水平方向の角度、垂直方向の角度、及び注視点までの距離を含んでいる。   In this embodiment, the gazing point position is represented by the angle of the gazing point in the horizontal direction (left and right direction), the angle of the gazing point in the vertical direction (up and down direction), and the distance to the gazing point. Therefore, the gazing point data calculated by the gazing point data calculation unit 14 includes a horizontal angle, a vertical angle, and a distance to the gazing point.

なお、検出された左右の目の視線が交差しない場合、左右の視線方向の中間の方向を注視方向としたり、運転者に予めどちらが効き目であるかの情報を注視対象物推定装置12に入力させておき、その効き目の視線方向を注視方向としたりしても良い。このような場合、注視点までの距離は、予め定めた固定距離とする。   Incidentally, if the detected left and right eye sight do not intersect, then enter the middle direction of the left and right viewing direction or the gaze direction, the advance of the information which is efficacious to the driver watch object estimating apparatus 12 In addition, the gaze direction of the effect may be the gaze direction. In such a case, the distance to the gazing point is a predetermined fixed distance.

注視点データ算出部14における、注視点データの算出は、所定周期ごとに繰り返し行われる。注視点データ算出部14は、注視点データを算出するごとに、算出した注視点データを、注視点データ蓄積部16及び注視対象物推定部22に出力する。   The calculation of the gazing point data in the gazing point data calculation unit 14 is repeatedly performed at predetermined intervals. The gaze point data calculation unit 14 outputs the calculated gaze point data to the gaze point data storage unit 16 and the gaze target estimation unit 22 each time gaze point data is calculated.

注視点データ蓄積部16は、注視点データ算出部14から繰り返し出力される注視点データを蓄積しておくものである。この注視点データ蓄積部16に蓄積された注視点データを用いて、後述する注視対象物範囲設定部20が、特定の注視対象物に対応する注視点データが示す位置の範囲を定める。特定の注視対象物に対応する範囲の設定に使用された注視点データは、注視点データ蓄積部16から消去される。ただし、注視点データを消去せずに、そのまま残しても良い。この場合、注視点データ蓄積部16の記憶容量の上限に達したときに、最も古い注視点データを、最新の注視点データで上書きすれば良い。   The gazing point data accumulation unit 16 accumulates gazing point data repeatedly output from the gazing point data calculation unit 14. Using the gazing point data stored in the gazing point data storage unit 16, the gazing target range setting unit 20 described later determines the range of the position indicated by the gazing point data corresponding to the specific gazing target. The gazing point data used for setting the range corresponding to the specific gazing target is deleted from the gazing point data storage unit 16. However, the gazing point data may be left as it is without being erased. In this case, when the upper limit of the storage capacity of the gazing point data storage unit 16 is reached, the oldest gazing point data may be overwritten with the latest gazing point data.

注視点データ抽出部18は、注視点データ蓄積部16が蓄積している注視点データの中で、所定の閾値以下の距離を持つ注視点データを抽出するものである。この注視点データ抽出部18は、抽出した注視点データを注視対象物範囲設定部20に与える。   The gazing point data extraction unit 18 extracts gazing point data having a distance equal to or less than a predetermined threshold from the gazing point data accumulated in the gazing point data accumulation unit 16. The gaze point data extraction unit 18 gives the extracted gaze point data to the gaze target range setting unit 20.

ここで、注視点データ算出部14が算出する注視点データは、上述したように、さまざまな要因の誤差の累積的な影響を受ける。さらに、運転者の頭部位置や姿勢が変化した場合、その誤差の大きさが変化したり、視線方向と注視対象物との相対的な位置関係が変化したりする。そのため、注視点データが示す注視点の位置と、実際の注視対象物との位置とを一致させる較正処理を行うことが必要となる。   Here, the gazing point data calculated by the gazing point data calculation unit 14 is cumulatively affected by errors of various factors as described above. Furthermore, when the driver's head position or posture changes, the magnitude of the error changes, or the relative positional relationship between the line-of-sight direction and the gaze target changes. Therefore, it is necessary to perform a calibration process for matching the position of the gazing point indicated by the gazing point data with the position of the actual gaze target.

その較正処理を行うため、本実施形態では、左サイドミラー(左ドアミラー)、右サイドミラー(右ドアミラー)、ルームミラー(バックミラー)、メーター、ナビゲーション装置、ヘッドアップディスプレィの画面などの内、少なくとも1つの車両の付属物を、特定の注視対象物として定める。そして、注視対象物範囲設定部20において、その特定の注視対象物に対応する範囲を定めるための注視点データとして、上述したように、注視点データ抽出部18により抽出された、所定の閾値以下の距離を持つ注視点データを用いる。このように、注視点データに対して距離によるフィルタリングをかけることで、車両の付属物である特定の注視対象物を注視している注視点データを確実に抽出することができる。その一方で、特定の注視対象物に対応する範囲を定めるための注視点データから、先行車、歩行者、道路状況など運転者が車外を注視しているときの注視点データを除外することが可能となる。このため、特定の注視対象物に対応する範囲を定める上で、ノイズとなる注視点データを極力除外することが可能となる。その結果、従来よりも高い精度で、特定の注視対象物に対応する範囲を定めることができるようになる。   In order to perform the calibration process, at least one of the left side mirror (left door mirror), the right side mirror (right door mirror), the room mirror (back mirror), the meter, the navigation device, and the head-up display screen is used in the present embodiment. One vehicle accessory is defined as a specific gaze target. Then, in the gaze object range setting unit 20, as described above, the gaze point data for determining the range corresponding to the specific gaze object is equal to or less than the predetermined threshold value extracted by the gaze point data extraction unit 18, as described above. Gaze point data having a distance of. In this way, by applying the filtering by the distance to the gazing point data, it is possible to reliably extract the gazing point data that is gazing at a specific gaze target that is an accessory of the vehicle. On the other hand, it is possible to exclude the gazing point data when the driver is gazing outside the vehicle, such as the preceding vehicle, pedestrians, and road conditions, from the gazing point data for determining the range corresponding to the specific gazing object. It becomes possible. For this reason, in determining the range corresponding to a specific gaze object, it is possible to exclude gaze point data that becomes noise as much as possible. As a result, a range corresponding to a specific gaze object can be determined with higher accuracy than before.

注視点データ抽出部18が、注視点データの抽出に用いる閾値は、本実施形態による注視対象物推定装置12が適用される車両の車体構造に基づいて一定の値に設定されても良い。このように車体構造に基づいて閾値を設定することにより、運転者と車両の付属物である特定の注視対象物との位置関係を考慮することが可能となる。より具体的には、特定の注視対象物を注視している注視点データと、車外のいずれかの対象物を注視している注視点データとを識別可能な閾値を定めることができる。   The threshold used by the gazing point data extraction unit 18 to extract the gazing point data may be set to a constant value based on the vehicle body structure of the vehicle to which the gazing target estimation device 12 according to the present embodiment is applied. Thus, by setting the threshold value based on the vehicle body structure, it is possible to consider the positional relationship between the driver and a specific gaze target that is an accessory of the vehicle. More specifically, it is possible to determine a threshold value capable of distinguishing gazing point data gazing at a specific gazing target and gazing point data gazing at any object outside the vehicle.

あるいは、閾値は、運転者の着座位置や、運転姿勢に応じて、設定、更新されても良い。例えば、感圧センサなど、車両の運転席への着座を検出する着座検出手段を設ける。そして、車両の運転席への着座を検出すると、運転席のシートポジション(前後方向の位置、上下方向の位置、背もたれの角度など)に基づいて、閾値を設定しても良い。このようにすれば、運転者のシートポジションを考慮することで、特定の注視対象物を注視しているときの注視点データと、車室外を注視しているときの注視点データを識別するための閾値として、より適切な閾値を設定することができる。   Alternatively, the threshold value may be set and updated according to the driver's seating position and driving posture. For example, a seating detection unit that detects seating of the vehicle on the driver's seat such as a pressure sensor is provided. Then, when seating of the vehicle in the driver's seat is detected, a threshold may be set based on the seat position of the driver's seat (front-rear direction position, vertical position, backrest angle, etc.). In this way, by taking into account the driver's seat position, it is possible to identify the gazing point data when gazing at a specific gazing object and the gazing point data when gazing outside the passenger compartment. As the threshold value, a more appropriate threshold value can be set.

さらに、運転席への着座時に、シートポジションに応じて閾値を設定した場合、そのシートポジションが変更されたときには、設定した閾値を更新することが望ましい。例えば、長時間の運転を行った場合など、疲労の緩和のため、運転者は、背もたれの角度を変更したり、前後方向の位置を調整したりすることもある。このような場合には、調整後のシートポジションに基づいて、閾値を再設定(更新)する。   Further, when a threshold value is set according to the seat position when sitting in the driver's seat, it is desirable to update the set threshold value when the seat position is changed. For example, when driving for a long time, the driver may change the angle of the backrest or adjust the position in the front-rear direction in order to reduce fatigue. In such a case, the threshold value is reset (updated) based on the adjusted sheet position.

また、運転席のシートポジションに加えて、運転者の運転姿勢も考慮して、閾値を設定、更新しても良い。シートポジションが同じであっても、そのシートへの着座位置や上半身の姿勢によって、運転者と特定の注視対象物との位置関係が異なることが起こりえるためである。この場合、例えば、運転席への座面や背もたれに印加される荷重分布を検出する荷重センサや、あるいは運転者を撮影するカメラなどを用いて、運転者の運転姿勢を検出する。そして、運転席への着座検出時に、シートボジションに加えて、運転者の運転姿勢も考慮して、閾値を設定する。その後、シートポジションが変更されなくとも、運転者の運転姿勢が変化した場合には、その変化後の運転者の運転姿勢に基づいて、閾値を更新する。このように、運転者の運転姿勢も考慮することで、より適切な閾値を設定することが可能となる。   Further, the threshold value may be set and updated in consideration of the driving posture of the driver in addition to the seat position of the driver seat. This is because even if the seat position is the same, the positional relationship between the driver and a specific gaze object may differ depending on the seating position on the seat and the posture of the upper body. In this case, for example, the driver's driving posture is detected by using a load sensor that detects a load distribution applied to the seat surface and the backrest of the driver's seat, a camera that shoots the driver, and the like. Then, when seating in the driver's seat is detected, a threshold is set in consideration of the driver's driving posture in addition to the seat position. Thereafter, even if the seat position is not changed, when the driving posture of the driver changes, the threshold value is updated based on the driving posture of the driver after the change. In this way, it is possible to set a more appropriate threshold value by considering the driving posture of the driver.

なお、特定の注視対象物が複数定められる場合、閾値は、複数の注視対象物ごとに個別に設定されても良い。運転者から注視対象物までの距離は、それぞれの注視対象物で異なるためである。この場合、注視点データ抽出部18において、注視点データの座標系を複数の注視対象物をそれぞれ含む複数の領域に区画し、各領域ごとに、対応する注視対象物に応じた閾値を用いて注視点データを抽出すれば良い。   When a plurality of specific gaze objects are determined, the threshold value may be set individually for each of the plurality of gaze objects. This is because the distance from the driver to the gaze object is different for each gaze object. In this case, the gazing point data extraction unit 18 divides the coordinate system of the gazing point data into a plurality of areas each including a plurality of gazing objects, and uses a threshold corresponding to the corresponding gazing object for each area. What is necessary is just to extract gaze point data.

注視対象物範囲設定部20は、特定の注視対象物に対応する注視点データが示す位置の範囲を設定すべきタイミングとなったときに、注視点データ抽出部18によって与えられる複数の注視点データに基づいて、特定の注視対象物に対応する注視点データが示す位置の範囲を定める。   The gaze target range setting unit 20 sets a plurality of gaze point data provided by the gaze point data extraction unit 18 when it is time to set the position range indicated by the gaze point data corresponding to the specific gaze target. Based on the above, the range of the position indicated by the gaze point data corresponding to the specific gaze object is determined.

特定の注視対象物に対応する注視点データが示す位置の範囲を設定すべきタイミングとしては、予め定められた一定時間が経過したときを、そのタイミングとすることが好ましい。このように、定期的に、特定の注視対象物に対応する注視点データが示す位置の範囲を設定し直す(更新する)ことで、運転者の頭部位置などが変化しても、注視点データが示す位置と、実際に運転者が注視する位置とを合わせ込むことができる。   The timing at which the range of the position indicated by the gaze point data corresponding to the specific gaze target is to be set is preferably the timing when a predetermined time has elapsed. In this way, by periodically resetting (updating) the range of the position indicated by the gaze point data corresponding to the specific gaze target, even if the driver's head position changes, the gaze point The position indicated by the data can be matched with the position where the driver actually watches.

また、所定の条件が成立したときを、特定の注視対象物に対応する注視点データが示す位置の範囲を設定すべきタイミングとしても良い。その所定の条件としては、例えば、右折のための運転操作、左折のための運転操作、後進のための運転操作、車線変更のための運転操作、ナビゲーション装置の操作など、運転者により所定の操作が行われたことを採用することができる。これらの操作が行われた場合、運転者は、左右のサイドミラー、ルームミラー、ナビゲーション装置などの特定の注視対象物を確認する確率が高い。そのため、注視点データ蓄積部16には、特定の注視対象物を注視したときの注視点データを含む注視点データが蓄積される。従って、注視対象物範囲設定部20は、特定の注視対象物を注視したときの注視点データを含む注視点データに基づき、特定の注視対象物に対応する範囲を設定したり、更新したりすることができる。   Further, the time when a predetermined condition is satisfied may be set as a timing at which the range of the position indicated by the gaze point data corresponding to the specific gaze object should be set. The predetermined conditions include, for example, a driving operation for a right turn, a driving operation for a left turn, a driving operation for a reverse drive, a driving operation for changing lanes, an operation of a navigation device, etc. Can be adopted. When these operations are performed, the driver has a high probability of confirming a specific target object such as left and right side mirrors, a room mirror, and a navigation device. Therefore, the gazing point data storage unit 16 accumulates gazing point data including gazing point data when a specific gaze target is gazed. Accordingly, the gaze target range setting unit 20 sets or updates a range corresponding to a specific gaze target based on gaze point data including gaze point data when the specific gaze target is gazeed. be able to.

あるいは、所定の条件として、例えば、減速、旋回、停止など、車両が所定の走行状態となったことを採用しても良い。このように、車両が所定の走行状態となったときにも、車両の運転者は、車両の付属物である特定の注視対象物を確認することが多いためである。   Alternatively, as the predetermined condition, for example, it may be adopted that the vehicle is in a predetermined traveling state such as deceleration, turning, or stopping. Thus, even when the vehicle is in a predetermined traveling state, the driver of the vehicle often confirms a specific gaze object that is an accessory of the vehicle.

さらに、所定の条件として、注視点データ蓄積部16に蓄積される注視点データに関して、特定の注視対象物の近傍範囲に含まれるデータ数が所定数以上になったことを採用しても良い。このように、注視対象物の近傍範囲に含まれる注視点データのデータ数が所定数以上となった場合、その注視点データには、特定の注視対象物を注視したときの注視点データが多く含まれるものと推測できるためである。   Furthermore, as the predetermined condition, regarding the gazing point data stored in the gazing point data storage unit 16, it may be adopted that the number of data included in the vicinity range of the specific gazing target is equal to or greater than the predetermined number. As described above, when the number of data of the gazing point data included in the vicinity range of the gazing target is equal to or larger than the predetermined number, the gazing point data includes a large amount of gazing point data when gazing at the specific gazing object. It is because it can be estimated that it is included.

そして、注視対象物範囲設定部20は、注視点データにおける、水平方向の角度及び垂直方向の角度によって示される位置を、注視点データが示す位置とする。すなわち、注視点データの位置は、水平方向の角度及び垂直方向の角度を2軸とする面に表すことができるものである。そして、複数の注視点データの位置の分布から、特定の注視対象物に対応する注視点データと、それ以外の注視点データとを分類する。注視対象物範囲設定部20は、特定の注視対象物に対応する注視点データとして分類された、複数の注視点データの位置をカバーするように、特定の注視対象物に対応する範囲を定める。   Then, the gaze target range setting unit 20 sets the position indicated by the horizontal angle and the vertical angle in the gaze point data as the position indicated by the gaze point data. In other words, the position of the gazing point data can be expressed on a plane having two angles of a horizontal angle and a vertical angle. Then, the gaze point data corresponding to the specific gaze object and the other gaze point data are classified from the distribution of the positions of the plurality of gaze point data. The gaze target range setting unit 20 determines a range corresponding to a specific gaze target so as to cover the positions of a plurality of gaze point data classified as gaze point data corresponding to the specific gaze target.

注視対象物範囲設定部20に与えられる注視点データは、注視点データ抽出部18により所定の閾値以下の距離を持つ注視点データに絞り込まれている。そのため、距離に関しては、特定の注視対象物に対応する注視点データと、それ以外の注視点データとを分類(選別)する上での影響は小さいと考えられる。従って、本実施形態では、上記したように、注視点データにおける、水平方向の角度及び垂直方向の角度によって示される位置を、注視点データが示す位置としている。ただし、各注視点データの位置を定める際に、注視点データの距離を用いても良い。   The gaze point data given to the gaze target range setting unit 20 is narrowed down to gaze point data having a distance equal to or smaller than a predetermined threshold by the gaze point data extraction unit 18. Therefore, regarding the distance, it is considered that the influence on classifying (selecting) gaze point data corresponding to a specific gaze object and other gaze point data is small. Therefore, in the present embodiment, as described above, the position indicated by the horizontal angle and the vertical angle in the gazing point data is the position indicated by the gazing point data. However, when determining the position of each gazing point data, the distance of the gazing point data may be used.

複数の注視点データの位置の分布から、特定の注視対象物に対応する注視点データと、それ以外の注視点データとを分類する手法について簡単に説明する。例えば、注視対象物に対応する注視点データが示す位置は、ガウス分布に近似した混合ガウス分布を示すと仮定する。そして、注視点データ抽出部18から与えられた注視点データが示す位置を、混合ガウス分布を示すクラスと、それ以外の外れ値のクラスとに分けるように、EMアルゴリズムを用いてクラスタリングする。   A method for classifying gaze point data corresponding to a specific gaze object and other gaze point data from the distribution of the positions of a plurality of gaze point data will be briefly described. For example, it is assumed that the position indicated by the gaze point data corresponding to the gaze target indicates a mixed Gaussian distribution approximate to the Gaussian distribution. Then, clustering is performed using the EM algorithm so that the position indicated by the gazing point data given from the gazing point data extraction unit 18 is divided into a class indicating a mixed Gaussian distribution and a class of other outliers.

なお、注視対象物に対応する注視点データが示す位置はガウス分布でなく、他の分布を仮定しても良い。また、特定の注視対象物に対応する注視点データと、それ以外の注視点データとを分類する手法として、EMアルゴリズム以外に、例えばSVM(サポートベクターマシン)などの他の手法を用いても良い。   Note that the position indicated by the gaze point data corresponding to the gaze object may be assumed to be other than the Gaussian distribution. In addition to the EM algorithm, other methods such as SVM (support vector machine) may be used as a method for classifying the gazing point data corresponding to the specific gazing target object and the other gazing point data. .

注視対象物推定部22は、注視点データ算出部14から、繰り返し算出される注視点データを受け取る。また、注視対象物推定部22は、特定の注視対象物に対応する範囲を、注視対象物範囲設定部20から受け取る。そして、注視対象物推定部22は、注視点データ算出部14により算出された注視点データが示す位置が、注視対象物範囲設定部20により定められた範囲に属する場合、車両の運転者が注視している対象物は、特定の注視対象物であると推定する。   The gaze target estimation unit 22 receives the gaze point data that is repeatedly calculated from the gaze point data calculation unit 14. Further, the gaze target estimation unit 22 receives a range corresponding to the specific gaze target from the gaze target range setting unit 20. The gaze target estimating unit 22 gazes the driver of the vehicle when the position indicated by the gaze point data calculated by the gaze point data calculation unit 14 belongs to the range determined by the gaze target range setting unit 20. The target object is estimated to be a specific gaze target object.

さらに、注視対象物推定部22は、注視対象物範囲設定部20により定められた範囲を基準として、他の注視対象物の範囲を定め、注視点データが示す位置が、他の注視対象物の範囲に属する場合、その注視対象物を、運転者が注視している対象物と推定しても良い。他の注視対象物としては、例えば、車外における正面、左前方、右前方などの領域や、右ドアウインドウ、左ドアウインドウなどを設定すれば良い。また、図示していないが、自車両周囲の他車両、歩行者、道路標識、信号機などを認識する装置を設け、認識された対象物を、他の注視対象物として設定しても良い。   Furthermore, the gaze target estimation unit 22 determines the range of other gaze objects based on the range determined by the gaze target range setting unit 20, and the position indicated by the gaze point data indicates the position of the other gaze target. When belonging to the range, the gaze target object may be estimated as the target object being watched by the driver. As other gaze objects, for example, a region such as the front, left front, and right front outside the vehicle, a right door window, a left door window, and the like may be set. Although not shown, a device for recognizing other vehicles around the host vehicle, pedestrians, road signs, traffic lights, and the like may be provided, and the recognized object may be set as another gaze object.

注視対象物推定部22における推定結果は、報知装置又は車両制御装置24に出力される。報知装置又は車両制御装置24は、注視対象物の推定結果に基づき、運転者に、注視すべき方向や対象物を報知したり、運転者が気付いていないと思われる車両周囲の対象物について注意喚起したり、あるいは、車両速度の減速や操舵などの車両制御を行う。   The estimation result in the gaze target estimation unit 22 is output to the notification device or the vehicle control device 24. The notification device or the vehicle control device 24 notifies the driver of the direction to be watched or the target object based on the estimation result of the target object, or is careful about the target object around the vehicle that the driver is not aware of. Arouse or perform vehicle control such as vehicle speed reduction or steering.

次に、本実施形態による注視対象物推定装置12における処理について、図2のフローチャートを用いて説明する。なお、図2のフローチャートに示す処理は、車両の運転が継続している限り、定期的に、繰り返し実行される。   Next, the process in the gaze target estimation device 12 according to the present embodiment will be described using the flowchart of FIG. Note that the processing shown in the flowchart of FIG. 2 is repeatedly executed periodically as long as the vehicle continues to operate.

まず、ステップS100において、視線方向及び頭部位置検出装置10によって検出された視線方向及び顔向き方向を含む頭部位置を示す情報を取得する。続くステップS110では、視線方向及び頭部位置を示す情報に基づき、運転者が注視している注視点の位置を示す注視点データを算出する。そして、ステップS120において、算出された注視点データを蓄積する。   First, in step S100, information indicating the head position including the gaze direction and the face direction detected by the gaze direction and head position detection device 10 is acquired. In subsequent step S110, gazing point data indicating the position of the gazing point being watched by the driver is calculated based on the information indicating the line-of-sight direction and the head position. In step S120, the calculated gazing point data is accumulated.

図3に、一定期間の間に蓄積された注視点データを、水平方向の角度と垂直方向の角度とを2軸とするグラフにプロットした結果の一例を示す。通常、車両の運転者は、主として、車両前方の正面方向や、左前方向、右前方向を見ているが、車両の左右後方の確認のため、ある割合で、左右サイドミラーにも視線を向ける。このため、運転者の注視点位置をプロットした場合、図3示すように、主に正面方向から左前方向及び右前方向までを見ているときの注視点位置の集まりの他、左サイドミラーを見ているときの注視点位置の集まり、及び右サイドミラーを見ているときの注視点位置の集まりができる。   FIG. 3 shows an example of the result of plotting the gazing point data accumulated during a certain period on a graph having the horizontal angle and the vertical angle as two axes. Usually, the driver of the vehicle mainly looks at the front direction of the vehicle front, the front left direction, and the front right direction, but also turns the gaze on the left and right side mirrors at a certain rate for confirmation of the left and right rear of the vehicle. Therefore, when the driver's gaze position is plotted, as shown in FIG. 3, in addition to the collection of gaze positions when looking mainly from the front direction to the left front direction and right front direction, the left side mirror is viewed. A collection of gazing point positions when looking at the camera and a gazing point position when looking at the right side mirror can be made.

続くステップS130では、車両の付属物である特定の注視対象物を見ている注視点データを抽出し、車室外を見ている注視点データを除外するための閾値を設定、更新する条件が成立したか否かを判定する。この判定処理においては、上述したように、運転者が運転席に着座したとき、運転席のシートポジションを変更したとき、あるいは運転姿勢を変えたときなどに、条件が成立したと判定される。条件が成立したと判定されると、ステップS140に進んで、閾値を設定、もしくは更新する。これにより、特定の注視対象物を注視しているときの注視点データと、車室外を注視しているときの注視点データとを精度良く区別可能な閾値を定めることが可能となる。   In the subsequent step S130, the condition for extracting the gazing point data looking at the specific gazing target object that is an accessory of the vehicle and setting and updating the threshold for excluding the gazing point data looking outside the passenger compartment is established. Determine whether or not. In this determination process, as described above, it is determined that the condition is satisfied when the driver is seated in the driver's seat, when the seat position of the driver's seat is changed, or when the driving posture is changed. If it is determined that the condition is satisfied, the process proceeds to step S140, and the threshold value is set or updated. Accordingly, it is possible to set a threshold value that can accurately distinguish the gazing point data when gazing at a specific gazing target and the gazing point data when gazing outside the passenger compartment.

ステップS150では、特定の注視対象物に対応する注視点データが示す位置の範囲を設定すべきタイミングとなったか否かを判定する。この判定処理では、上述したように、前回の設定から予め定めた一定時間が経過したとき、特定の注視対象物の範囲設定タイミングであると判定する。あるいは、運転者により所定の操作が行われたとき、車両が所定の状態になったとき、又は、蓄積された注視点データに関して、特定の注視対象物の近傍範囲に含まれるデータ数が所定数以上になったとき、特定の注視対象物の範囲設定タイミングであると判定しても良い。特定の注視対象物の範囲設定タイミングであると判定された場合、ステップS160の処理に進む。一方、特定の注視対象物の範囲設定タイミングではないと判定された場合、ステップS180の処理に進む。   In step S150, it is determined whether or not it is time to set the position range indicated by the gaze point data corresponding to the specific gaze target. In this determination process, as described above, when a predetermined time has elapsed from the previous setting, it is determined that it is the range setting timing of the specific gaze target. Alternatively, when a predetermined operation is performed by the driver, when the vehicle is in a predetermined state, or with respect to the accumulated gazing point data, the number of data included in the vicinity range of the specific gaze object is a predetermined number. When it becomes above, you may determine with it being the range setting timing of a specific gaze object. If it is determined that it is time to set the range of the specific gaze target, the process proceeds to step S160. On the other hand, when it is determined that it is not the time to set the range of the specific gaze target, the process proceeds to step S180.

ステップS160では、蓄積された注視点データから、閾値以下の距離を持つ注視点データを抽出する。このように、注視点データに対して距離によるフィルタリングをかけることで、特定の注視対象物を注視している注視点データを確実に抽出することができる。その一方で、運転者が車外を注視しているときの注視点データを除外することが可能となる。   In step S160, gazing point data having a distance equal to or smaller than the threshold is extracted from the accumulated gazing point data. In this way, by applying the filtering by the distance to the gazing point data, it is possible to reliably extract the gazing point data that is gazing at a specific gaze target. On the other hand, it is possible to exclude gazing point data when the driver is gazing outside the vehicle.

図4に、図3に表された注視点データから、閾値以下の距離を持つ注視点データを抽出し、その抽出した注視点データが示す位置をグラフにプロットした結果を示す。図3のグラフにおける、車両の正面方向から左前方向及び右前方向を見ているときの注視点データは、ほとんどが車外を見ているときのものであるため、図4のグラフからは除外されている。それに対して、車両の付属物である左サイドミラーや右サイドミラーを見ているときの注視点データは、そのほとんどが図4のグラフに残っている。   FIG. 4 shows the result of extracting gaze point data having a distance equal to or smaller than the threshold from the gaze point data shown in FIG. 3 and plotting the position indicated by the extracted gaze point data on a graph. In the graph of FIG. 3, the gazing point data when looking at the left front direction and the right front direction from the front direction of the vehicle is mostly when looking outside the vehicle, and is therefore excluded from the graph of FIG. 4. Yes. On the other hand, most of the gazing point data when looking at the left side mirror and the right side mirror that are accessories of the vehicle remains in the graph of FIG.

続くステップS170では、図4に示されるような、複数の注視点データの位置の分布から、EMアルゴリズムなどを用いることにより、特定の注視対象物に対応する注視点データと、それ以外の注視点データとを分類する。   In the subsequent step S170, using the EM algorithm or the like from the distribution of the positions of the plurality of gaze point data as shown in FIG. Classify the data.

図5に、分類の結果の一例を示す。なお、図5に示す例では、左サイドミラーと右サイドミラーとを特定の注視対象物とし、それら左右のサイドミラーと、それ以外とに、注視点データを分類している。このような分類が行われた後に、図5に示すように、特定の注視対象物に対応する注視点データとして分類された、複数の注視点データの位置をカバーするように、特定の注視対象物に対応する範囲が設定される。   FIG. 5 shows an example of the classification result. In the example illustrated in FIG. 5, the left side mirror and the right side mirror are specific gaze objects, and the gaze point data is classified into the left and right side mirrors and the other. After such a classification is performed, as shown in FIG. 5, a specific gaze target is covered so as to cover the positions of a plurality of gaze point data classified as gaze point data corresponding to a specific gaze target object. A range corresponding to the object is set.

続くステップS180では、ステップS110において算出された注視点データと、ステップS170において設定された範囲とに基づいて、運転者が注視している対象物を推定する。最後に、ステップS190において、例えばイグニッションスイッチがオフされたことにより、車両の運転が終了したか否かを判定する。運転が終了したと判定された場合、図2のフローチャートに示す処理を終了し、まだ運転は終了していないと判定された場合、ステップS100からの処理を繰り返す。   In the subsequent step S180, the object being watched by the driver is estimated based on the gazing point data calculated in step S110 and the range set in step S170. Finally, in step S190, for example, it is determined whether or not driving of the vehicle has ended due to the ignition switch being turned off. If it is determined that the operation has been completed, the processing shown in the flowchart of FIG. 2 is terminated. If it is determined that the operation has not yet been completed, the processing from step S100 is repeated.

以上、本発明の好ましい実施形態について説明したが、本発明は、上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々、変形して実施することが可能である。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention. is there.

例えば、上述した実施形態では、注視点位置を、注視点の水平方向の角度、注視点の垂直方向の角度、及び注視点までの距離によって表していたが、例えば、運転者を基準とする3次元の座標によって、注視点位置を表しても良い。   For example, in the above-described embodiment, the gazing point position is represented by the horizontal angle of the gazing point, the vertical angle of the gazing point, and the distance to the gazing point. The position of the gazing point may be represented by a dimensional coordinate.

また、図2のフローチャートのステップS140では、閾値を設定、変更していたが、閾値は、一定の値であっても良く、その場合、ステップS130、S140の処理は省略される。   Further, although the threshold value is set and changed in step S140 of the flowchart of FIG. 2, the threshold value may be a constant value, and in this case, the processing of steps S130 and S140 is omitted.

10 視線方向及び頭部位置検出装置
12 注視対象物推定装置
14 注視点データ算出部
16 注視点データ蓄積部
18 注視点データ抽出部
20 注視対象物範囲設定部
22 注視対象物推定部
24 報知装置又は車両制御装置
DESCRIPTION OF SYMBOLS 10 Gaze direction and head position detection device 12 Gaze target estimation device 14 Gaze point data calculation unit 16 Gaze point data storage unit 18 Gaze point data extraction unit 20 Gaze target range setting unit 22 Gaze target range estimation unit 24 Notification device or Vehicle control device

Claims (12)

車両の運転者の左右の目のそれぞれの視線方向、及び当該運転者の顔向き方向を含む頭部位置を検出する検出手段(10)と、
前記視線方向、及び前記顔向き方向を含む頭部位置に基づき、前記運転者が注視している注視点の位置を示す注視点データを算出するものであって、前記注視点データは前記運転者から前記注視点までの距離を含む算出手段(14)と、
前記算出手段により繰り返し算出される前記注視点データの中から、所定の閾値以下の距離を持つ複数の注視点データを抽出する抽出手段(16、18)と、
前記抽出手段により抽出された複数の前記注視点データを対象として、複数の前記注視点データの分布から、車両に付属する少なくとも1つの特定の注視対象物を注視しているとみなされる注視点データと、それ以外の注視点データと分類するとともに、前記特定の注視対象物を注視しているとみなされる注視点データとして分類された注視点データに基づき、前記特定の注視対象物に対応する前記注視点データが示す位置の範囲を定める範囲設定手段(20)と、
前記算出手段により算出された注視点データが示す位置が、前記範囲設定手段により定められた範囲に属する場合、前記車両の運転者が注視している対象物は、前記特定の注視対象物であると推定する推定手段(22)と、を備えることを特徴とする注視対象物推定装置。
Detecting means (10) for detecting a head position including a gaze direction of each of the left and right eyes of the driver of the vehicle and a face direction of the driver;
Based on the head position including the gaze direction and the face direction, gaze point data indicating the position of the gaze point being watched by the driver is calculated, and the gaze point data is the driver A calculating means (14) including a distance from the gazing point;
Extracting means (16, 18) for extracting a plurality of gazing point data having a distance equal to or less than a predetermined threshold from the gazing point data repeatedly calculated by the calculating unit;
The gazing point data regarded as gazing at least one specific gazing object attached to the vehicle from the distribution of the plurality of gazing point data, targeting the plurality of gazing point data extracted by the extracting means. When, with classifying and other gazing point data, based on the gazing point data classified as gazing point data is considered to gazing at the specific watch object, corresponding to the specific watch object Range setting means (20) for determining the range of the position indicated by the gazing point data;
When the position indicated by the gazing point data calculated by the calculating unit belongs to the range determined by the range setting unit, the object that the driver of the vehicle is gazing at is the specific gazing object. A gaze target estimating device comprising: an estimation means (22) for estimating
前記算出手段は、前記注視点データとして、前記運転者からの水平方向の角度、垂直方向の角度、及び注視点までの距離を算出し、
前記範囲設定手段は、前記特定の注視対象物を注視しているとみなされる注視点データとして分類された注視点データに基づき、前記水平方向の角度及び垂直方向の角度を2軸とする面において、前記特定の注視対象物に対応する範囲を定めることを特徴とする請求項1に記載の注視対象物推定装置。
The calculating means, as the gaze point data, calculates the distance to the horizontal angle, vertical angle, and the gaze point from the driver,
The range setting means is based on gazing point data classified as gazing point data regarded as gazing at the specific gazing object, on a plane having the horizontal angle and the vertical angle as two axes. The gaze object estimation device according to claim 1, wherein a range corresponding to the specific gaze object is defined.
前記抽出手段は、前記算出手段により繰り返し算出される前記注視点データを蓄積する蓄積手段(16)を備え、当該蓄積手段に蓄積された前記注視点データの中から、所定の閾値以下の距離を持つ注視点データを抽出することを特徴とする請求項1又は2に記載の注視対象物推定装置。   The extraction means includes storage means (16) for storing the gazing point data repeatedly calculated by the calculation means, and sets a distance equal to or less than a predetermined threshold from the gazing point data stored in the storage means. The gaze target estimation apparatus according to claim 1, wherein gaze point data is extracted. 前記範囲設定手段は、定期的に、前記特定の注視対象物に対応する範囲を更新することを特徴とする請求項1乃至3のいずれか1項に記載の注視対象物推定装置。   The gaze target estimating apparatus according to any one of claims 1 to 3, wherein the range setting unit periodically updates a range corresponding to the specific gaze target. 前記範囲設定手段は、前記車両の運転者により所定の操作が行われたときに、前記特定の注視対象物に対応する範囲を更新することを特徴とする請求項1乃至3のいずれか1項に記載の注視対象物推定装置。   The range setting means updates a range corresponding to the specific gaze object when a predetermined operation is performed by a driver of the vehicle. The gaze target estimation device according to claim 1. 前記範囲設定手段は、前記車両が所定の走行状態となったときに、前記特定の注視対象物に対応する範囲を更新することを特徴とする請求項1乃至3のいずれか1項に記載の注視対象物推定装置。   The range setting means updates a range corresponding to the specific gaze object when the vehicle is in a predetermined traveling state. Gaze target estimation device. 前記範囲設定手段は、前記蓄積手段に蓄積される前記注視点データに関して、前記特定の注視対象物の近傍範囲に含まれるデータ数が所定数以上になったときに、前記特定の注視対象物に対応する範囲を更新することを特徴とする請求項3に記載の注視対象物推定装置。   When the number of data included in the vicinity range of the specific gaze object is greater than or equal to a predetermined number with respect to the gaze data stored in the accumulation means, the range setting unit sets the specific gaze object The gaze target estimating apparatus according to claim 3, wherein a corresponding range is updated. 前記抽出手段が前記注視点データを抽出するための閾値は、前記運転者と前記特定の注視対象物との位置関係を考慮すべく、車体構造に基づいて設定されることを特徴とする請求項1乃至7のいずれか1項に記載の注視対象物推定装置。   The threshold for the extraction means to extract the gazing point data is set based on a vehicle body structure in consideration of a positional relationship between the driver and the specific gazing target. The gaze target object estimation device according to any one of 1 to 7. 前記車両の運転席への着座を検出する着座検出手段と、
前記車両の運転席への着座を検出すると、前記運転席のシートポジションに基づいて、前記閾値を設定する設定手段(S140)とを備えることを特徴とする請求項1乃至7のいずれか1項に記載の注視対象物推定装置。
Seating detection means for detecting seating of the vehicle in the driver's seat;
8. The apparatus according to claim 1, further comprising a setting unit configured to set the threshold based on a seat position of the driver seat when seating of the vehicle in the driver seat is detected. The gaze target estimation device according to claim 1.
前記車両の運転席のシートポジションが変更されると、変更後のシートポジションに基づいて、前記閾値を更新する更新手段(S140)を備えることを特徴とする請求項9に記載の注視対象物推定装置。   The gaze target estimation according to claim 9, further comprising an updating unit (S140) that updates the threshold based on a changed seat position when the seat position of the driver's seat of the vehicle is changed. apparatus. 前記車両の運転者の姿勢を検出する姿勢検出手段と、
前記姿勢検出手段によって検出される運転者の姿勢が変化すると、その変化後の運転者の姿勢に基づいて、前記閾値を更新する更新手段(S140)とを備えることを特徴とする請求項9又は10に記載の注視対象物推定装置。
Attitude detection means for detecting the attitude of the driver of the vehicle;
The update means (S140) which updates the threshold based on the attitude of the driver after the change when the attitude of the driver detected by the attitude detection means changes. The gaze target object estimation device according to 10.
前記特定の注視対象物を複数定めた場合、前記閾値は、複数の注視対象物ごとに個別に設定されることを特徴とする請求項8乃至11のいずれか1項に記載の注視対象物推定装置。   The gaze target estimation according to any one of claims 8 to 11, wherein when a plurality of the specific gaze objects are determined, the threshold is individually set for each of the plurality of gaze objects. apparatus.
JP2013223579A 2013-10-28 2013-10-28 Gaze target estimation device Expired - Fee Related JP6187155B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013223579A JP6187155B2 (en) 2013-10-28 2013-10-28 Gaze target estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013223579A JP6187155B2 (en) 2013-10-28 2013-10-28 Gaze target estimation device

Publications (2)

Publication Number Publication Date
JP2015085719A JP2015085719A (en) 2015-05-07
JP6187155B2 true JP6187155B2 (en) 2017-08-30

Family

ID=53048998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013223579A Expired - Fee Related JP6187155B2 (en) 2013-10-28 2013-10-28 Gaze target estimation device

Country Status (1)

Country Link
JP (1) JP6187155B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11341680B2 (en) 2018-03-30 2022-05-24 Preferred Networks, Inc. Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099718A (en) * 2014-11-19 2016-05-30 株式会社デンソー Visual line direction area setting device and visual line direction area setting system
KR101704524B1 (en) 2015-09-02 2017-02-08 현대자동차주식회사 Vehicle and method for controlling thereof
JP6770488B2 (en) * 2017-06-13 2020-10-14 株式会社デンソーアイティーラボラトリ Gaze object estimator, gaze object estimation method, and program
KR102494865B1 (en) * 2018-02-20 2023-02-02 현대자동차주식회사 Vehicle, and control method for the same
JP2020166309A (en) * 2019-03-28 2020-10-08 アイシン・エィ・ダブリュ株式会社 Driving support system, driving support method, and driving support program
JP2020181281A (en) * 2019-04-24 2020-11-05 株式会社デンソーアイティーラボラトリ Line-of-sight direction estimation device, method of calibrating line-of-sight direction estimation device, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000060799A (en) * 1998-08-26 2000-02-29 Nissan Motor Co Ltd Eye position detector
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP4826506B2 (en) * 2007-02-27 2011-11-30 日産自動車株式会社 Gaze estimation device
JP5089516B2 (en) * 2008-07-16 2012-12-05 日野自動車株式会社 Air tank support structure
JP5161685B2 (en) * 2008-07-25 2013-03-13 株式会社豊田中央研究所 Gaze measurement apparatus and program
JP5042296B2 (en) * 2009-12-02 2012-10-03 本田技研工業株式会社 Gaze determination device
EP2564766B1 (en) * 2011-09-02 2018-03-21 Volvo Car Corporation Visual input of vehicle operator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11341680B2 (en) 2018-03-30 2022-05-24 Preferred Networks, Inc. Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method
US11748904B2 (en) 2018-03-30 2023-09-05 Preferred Networks, Inc. Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method

Also Published As

Publication number Publication date
JP2015085719A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6187155B2 (en) Gaze target estimation device
JP6811834B2 (en) Operating condition determination device and operating condition determination method
EP2535224B1 (en) Driving support equipment for vehicles
EP2564766B1 (en) Visual input of vehicle operator
JP6454368B2 (en) Vehicle display system and method for controlling vehicle display system
JP6350145B2 (en) Face orientation detection device and vehicle warning system
WO2017056401A1 (en) Control device, control method, and program
CN108621794B (en) Display system for vehicle and control method for display system for vehicle
JP5600256B2 (en) Information display device
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
JP6090129B2 (en) Viewing area estimation device
US11455810B2 (en) Driver attention state estimation
JP4647387B2 (en) Vehicle driving support device
JP2015207163A (en) State estimation device and state estimation program
WO2017199709A1 (en) Face orientation estimation device and face orientation estimation method
JP5498183B2 (en) Behavior detection device
JP4916755B2 (en) Vehicle driving support device
JP2019180075A (en) Operation support system, image processing system, and image processing method
JP6649063B2 (en) Vehicle rear display device and display control device
JP7276082B2 (en) Driver state estimation device
CN111267865B (en) Vision-based safe driving early warning method and system and storage medium
JP2023047835A (en) On-vehicle device and passenger monitoring method
JP7342635B2 (en) Driver state estimation device and driver state estimation method
JP7072491B2 (en) Visual target detection device, visual target detection method, and program
CN113696897B (en) Driver distraction early warning method and driver distraction early warning system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R150 Certificate of patent or registration of utility model

Ref document number: 6187155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees