JP2021077139A - Driver state estimating device - Google Patents

Driver state estimating device Download PDF

Info

Publication number
JP2021077139A
JP2021077139A JP2019203788A JP2019203788A JP2021077139A JP 2021077139 A JP2021077139 A JP 2021077139A JP 2019203788 A JP2019203788 A JP 2019203788A JP 2019203788 A JP2019203788 A JP 2019203788A JP 2021077139 A JP2021077139 A JP 2021077139A
Authority
JP
Japan
Prior art keywords
driver
line
sight
vehicle
attraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019203788A
Other languages
Japanese (ja)
Other versions
JP7276083B2 (en
Inventor
耕二 岩瀬
Koji Iwase
耕二 岩瀬
坂本 和夫
Kazuo Sakamoto
和夫 坂本
利宏 原
Toshihiro Hara
利宏 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019203788A priority Critical patent/JP7276083B2/en
Publication of JP2021077139A publication Critical patent/JP2021077139A/en
Application granted granted Critical
Publication of JP7276083B2 publication Critical patent/JP7276083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a driver state estimating device which improves an accuracy of estimating a driver's state when a vehicle is running.SOLUTION: A driver state estimating device 20 is comprised of: an image processing unit 52 which synthesizes an image showing a front pillar trim with an image taken by a camera 100 and outputs the synthesized image data; an eye-catching degree calculation unit 53 which calculates an eye-catching degree indicating an ease of attracting a driver's line of sight with respect to a target shown in the synthesized image data, and generates an eye-catching degree map; and an estimating unit 54 which estimates a state of the driver based on the driver's line-of-sight direction and the eye-catching degree map. The eye-catching degree calculation unit calculates an eye-catching degree in a region near the front pillar trim in consideration of an inclination angle of the front pillar trim with respect to a vertical direction when calculating the eye-catching degree.SELECTED DRAWING: Figure 3

Description

ここに開示された技術は、運転者状態推定装置に関する技術分野に属する。 The technology disclosed herein belongs to the technical field relating to the driver state estimation device.

昨今、国家的に自動運転システムの開発が推進されている。本願出願人は、現時点において、自動運転システムには、大きく分けると2つの方向性があると考えている。 Recently, the development of autonomous driving systems is being promoted nationally. At present, the applicant of the present application considers that the autonomous driving system has two main directions.

第1の方向性は、自動車が主体となって運転者の操作を要することなく乗員を目的地まで運ぶシステムであり、いわゆる自動車の完全自動走行である。一方、第2の方向性は、自動車の運転を楽しみたい等、あくまで人間が運転をすることを前提とした自動運転システムである。 The first direction is a system in which the automobile takes the lead in transporting the occupants to the destination without requiring the driver's operation, which is the so-called fully automatic driving of the automobile. On the other hand, the second direction is an automatic driving system that is premised on human driving, such as wanting to enjoy driving a car.

第2の方向性の自動運転システムでは、例えば、運転者に疾患等が発生し正常な運転が困難な状況が発生した場合等に、自動車が自動的に乗員に変わって自動運転を行うことが想定される。このため、運転者に異常が発生したこと、特に、運転者に機能障害や疾患が発生したことをいかに早期にかつ精度良く発見できるかが、運転者の救命率の向上や周囲を含めた安全を確保する観点から極めて重要となる。 In the second directional automatic driving system, for example, when a driver has a disease or the like and a situation occurs in which normal driving is difficult, the automobile automatically changes to a occupant and automatically drives. is assumed. For this reason, how quickly and accurately it is possible to detect the occurrence of an abnormality in the driver, especially the occurrence of a dysfunction or disease in the driver, is the improvement of the lifesaving rate of the driver and the safety including the surroundings. It is extremely important from the viewpoint of ensuring.

運転者の異常を推定する方法として、例えば、特許文献1のように、車両の運転者の視線移動に基づいて、該運転者の状態を推定する試みが行われている。具体的に、特許文献1には、運転者の視線方向、及び自車両周辺を撮像する撮像手段より撮像された画像を取得すると共に、自車両周辺に存在する物体上の複数の点の各々の自車両を基準とする位置を特定する3次元位置情報を取得する取得手段と、運転者の視線先の目立ち度を計算する目立ち度計算手段と、目立ち度計算手段により計算された目立ち度に基づいて、運転者が目立つ部分に視線を向けた度合いと予め定めた閾値とを比較して、運転者の状態を判定する判定手段とを有する運転者状態判定装置が開示されている。 As a method of estimating an abnormality of a driver, for example, as in Patent Document 1, an attempt is made to estimate the state of the driver based on the movement of the line of sight of the driver of the vehicle. Specifically, in Patent Document 1, the driver's line-of-sight direction and the image captured by the imaging means for imaging the vicinity of the own vehicle are acquired, and each of the plurality of points on the object existing in the vicinity of the own vehicle is obtained. Based on the acquisition means for acquiring three-dimensional position information that specifies the position with respect to the own vehicle, the conspicuity calculation means for calculating the conspicuity of the driver's line of sight, and the conspicuity calculation means for calculating the conspicuity. A driver state determination device including a determination means for determining a driver's condition by comparing the degree to which the driver directs his / her line of sight to a conspicuous portion and a predetermined threshold value is disclosed.

特許第5966640号公報Japanese Patent No. 5966640

しかしながら、カメラにより取得された画像と、実際の運転者の視界領域とには違いがある。すなわち、一般に、運転者の視界には車両前側の外部環境に加えて、車両構成部材が含まれる。本願発明者らが鋭意研究した結果、これら車両構成部材の有無により、運転者の視界領域において、運転者の視線が惹きつけられる場所が変化することが分かった。このため、単純にカメラで撮影された画像から目立ち度等を算出するのでは、運転者の状態を推定する精度が低くなってしまう。 However, there is a difference between the image acquired by the camera and the actual driver's field of view. That is, in general, the driver's field of vision includes vehicle components in addition to the external environment on the front side of the vehicle. As a result of diligent research by the inventors of the present application, it has been found that the place where the driver's line of sight is attracted changes in the driver's field of view depending on the presence or absence of these vehicle components. Therefore, if the degree of conspicuity or the like is simply calculated from the image taken by the camera, the accuracy of estimating the driver's state will be low.

ここに開示された技術は、車両走行時における運転者の状態を推定する精度を向上させる。 The techniques disclosed herein improve the accuracy of estimating the driver's condition when the vehicle is running.

前記課題を解決するために、ここに開示された技術では、車両の運転者の視線移動に基づいて、該運転者の状態を推定する運転者状態推定装置を対象として、前記運転者の視線方向を検知する視線検知装置と、前記車両に搭載され、車両前側の外部環境を撮影するカメラと、前記カメラにより撮影された画像に対して、前記車両の走行時に前記運転者の視界領域に入るフロントピラートリムを示す画像を合成して、合成画像データを出力する画像処理部と、前記合成画像データに基づいて、車両前側の物標に対して、前記運転者の視線の惹きつけやすさを示す誘目度を算出して、誘目度マップを生成する誘目度算出部と、前記視線検知装置が検知した前記運転者の視線方向及び前記誘目度マップに基づいて、前記運転者の状態を推定する推定部とを備え、前記誘目度算出部は、前記フロントピラートリムの近傍領域の誘目度を算出するときには、前記合成画像データにおける当該フロントピラートリムの鉛直方向に対する傾斜角度を考慮して誘目度を算出する、という構成とした。 In order to solve the above-mentioned problems, in the technique disclosed here, the line-of-sight direction of the driver is targeted at a driver state estimation device that estimates the state of the driver based on the movement of the line-of-sight of the driver of the vehicle. A line-of-sight detection device that detects the above, a camera mounted on the vehicle that captures the external environment on the front side of the vehicle, and a front that enters the driver's field of view when the vehicle is traveling with respect to the image captured by the camera. An image processing unit that synthesizes an image showing the pillar trim and outputs the composite image data, and an attraction indicating the ease of attracting the driver's line of sight to the target on the front side of the vehicle based on the composite image data. An attraction degree calculation unit that calculates the degree and generates an attraction degree map, and an estimation unit that estimates the driver's state based on the driver's line-of-sight direction and the attraction degree map detected by the line-of-sight detection device. When calculating the attractiveness of the region near the front pillar trim, the attractiveness calculation unit calculates the attractiveness in consideration of the inclination angle of the front pillar trim with respect to the vertical direction in the composite image data. It was configured.

すなわち、本願発明者らの研究により、フロントピラートリムの角度が誘目度に影響を与えることが分かった。具体的には、フロントピラートリムの鉛直方向に対する傾斜角度(鋭角側の角度、以下、ピラー傾斜角度という)が大きいときには、運転者の視界領域におけるフロントピラートリムの近傍領域の誘目度が高くなることが分かった。ピラー傾斜角度が小さい場合、フロントピラートリムの近傍に位置する物標は、車両が前進したときには、その全体が略同時にフロントピラートリムによって遮られる。一方で、ピラー傾斜角度が大きい場合、フロントピラートリムの近傍領域に視認される物標は、車両が前進したときには、下側の部分から徐々にフロントピラートリムによって遮られる。これにより、ピラー傾斜角度が大きい場合、物標が後側かつ上側に移動しているように錯覚される。このため、ピラー傾斜角度が大きい場合、フロントピラートリムの近傍領域に視認される物標は運転者の視線を惹きつけやすくなる。 That is, according to the research by the inventors of the present application, it was found that the angle of the front pillar trim affects the degree of attraction. Specifically, it was found that when the tilt angle of the front pillar trim with respect to the vertical direction (the angle on the acute angle side, hereinafter referred to as the pillar tilt angle) is large, the degree of attraction in the region near the front pillar trim in the driver's field of vision is high. It was. When the pillar tilt angle is small, the target located in the vicinity of the front pillar trim is blocked by the front pillar trim almost at the same time when the vehicle moves forward. On the other hand, when the pillar inclination angle is large, the target visible in the vicinity of the front pillar trim is gradually blocked by the front pillar trim from the lower portion when the vehicle advances. As a result, when the pillar inclination angle is large, it is illusion that the target is moving to the rear side and the upper side. Therefore, when the pillar inclination angle is large, the target visually recognized in the vicinity of the front pillar trim tends to attract the driver's line of sight.

前述の構成によると、フロントピラートリムの鉛直方向に対する傾斜角度を考慮して誘目度を算出されるため、運転者の視界領域における誘目度の算出精度が向上する。よって、運転者の視線移動に基づいて運転者の状態を推定する場合に、車両走行時における運転者の状態を推定する精度を向上させることができる。 According to the above configuration, since the attractiveness is calculated in consideration of the inclination angle of the front pillar trim with respect to the vertical direction, the accuracy of calculating the attractiveness in the driver's field of view is improved. Therefore, when estimating the driver's state based on the movement of the driver's line of sight, it is possible to improve the accuracy of estimating the driver's state when the vehicle is running.

尚、ここでいう誘目度は、周囲に対する目立ちやすさを表すものであって、熟練の運転者が意識的に見る場合は考慮しないものである。 It should be noted that the degree of attraction referred to here indicates the degree of conspicuity to the surroundings, and is not considered when a skilled driver consciously looks at it.

前記運転者状態推定装置において、前記誘目度算出部は、前記フロントピラートリムの前記傾斜角度が大きいときには、前記傾斜角度が小さいときと比較して、誘目度を高くする、という構成でもよい。 In the driver state estimation device, the attraction degree calculation unit may be configured such that when the inclination angle of the front pillar trim is large, the attraction degree is increased as compared with the case where the inclination angle is small.

すなわち、前記ピラー傾斜角度が大きいときには、運転者の視線を惹きつけやすい。このため、前述の構成によると、運転者の視界領域における誘目度を一層精度良く算出することができる。この結果、車両走行時における運転者の状態を推定する精度を一層向上させることができる。 That is, when the pillar inclination angle is large, it tends to attract the driver's line of sight. Therefore, according to the above-described configuration, the degree of attraction in the driver's field of view can be calculated more accurately. As a result, the accuracy of estimating the driver's state when the vehicle is running can be further improved.

前記運転者状態推定装置において、前記誘目度算出部は、前記合成画像データにおいて前記近傍領域に位置する物標の長手方向と前記フロントピラートリムの長手方向とのなす角度が大きいときには、前記角度が小さいときと比較して、誘目度を高くする、という構成でもよい。 In the driver state estimation device, when the angle formed by the attraction degree calculation unit between the longitudinal direction of the target located in the vicinity region and the longitudinal direction of the front pillar trim in the composite image data is large, the angle is small. It may be configured to increase the degree of attraction compared to the case.

すなわち、前記ピラー傾斜角度が大きかったとしても、物標の長手方向がフロントピラートリムの長手方向と略平行であれば、車両が前進したときには、当該物標の全体が略同時にフロントピラートリムによって遮られる。つまり、物標の長手方向とフロントピラートリムの長手方向とのなす角度が小さければ、物標が動いているように錯覚されにくいため、運転者の視線を惹きつけにくくなる。したがって、物標の長手方向とフロントピラートリムの長手方向とのなす角度が小さければ誘目度は低くなる。よって、前述の構成によると、運転者の視界領域における誘目度を一層精度良く算出することができる。この結果、車両走行時における運転者の状態を推定する精度を一層向上させることができる。 That is, even if the pillar inclination angle is large, if the longitudinal direction of the target is substantially parallel to the longitudinal direction of the front pillar trim, when the vehicle moves forward, the entire target is blocked by the front pillar trim at substantially the same time. That is, if the angle between the longitudinal direction of the target and the longitudinal direction of the front pillar trim is small, it is difficult to give the illusion that the target is moving, and it is difficult to attract the driver's line of sight. Therefore, if the angle between the longitudinal direction of the target and the longitudinal direction of the front pillar trim is small, the degree of attraction is low. Therefore, according to the above-described configuration, the degree of attraction in the driver's field of view can be calculated more accurately. As a result, the accuracy of estimating the driver's state when the vehicle is running can be further improved.

前記運転者状態推定装置の一実施形態において、前記推定部は、前記視線検知装置により検知される前記運転者の視線が、誘目度が所定値以上の領域に向いた頻度である視線頻度に基づいて、前記運転者の状態を推定する、という構成であってもよい。 In one embodiment of the driver state estimation device, the estimation unit is based on the line-of-sight frequency, which is the frequency at which the line-of-sight of the driver detected by the line-of-sight detection device is directed to a region where the degree of attraction is a predetermined value or more. The driver's condition may be estimated.

特に、前記一実施形態において、前記推定部は、前記視線頻度が所定頻度以上であるときに、前記運転者に異常が生じていると推定する、という構成であってもよい。 In particular, in the one embodiment, the estimation unit may be configured to estimate that an abnormality has occurred in the driver when the line-of-sight frequency is equal to or higher than a predetermined frequency.

すなわち、運転者は、正常な状態であれば、車両走行時には駐車車両、歩行者、脇道等の注視すべき視認対象物を見ながら運転する。しかしながら、運転者が漫然状態であったり、運転者に体調異常が発生して能動的な運転が出来なくなったりしたときには、運転者は、誘目度が高い領域に自然と視線を向けるようになる。つまり、運転者が誘目度の高い領域を見る頻度が高いときには、運転者に異常が生じている可能性が高い。このため、運転者の視線頻度により運転者の状態を推定するようにすれば、車両走行時における運転者の状態を推定する精度をより一層向上させることができる。 That is, under normal conditions, the driver drives while looking at a parked vehicle, a pedestrian, a side road, or other visible object to be watched when the vehicle is running. However, when the driver is in a vague state or when the driver becomes ill and cannot actively drive, the driver naturally turns his / her gaze to the area where the degree of attraction is high. That is, when the driver frequently sees the area with a high degree of attraction, there is a high possibility that the driver has an abnormality. Therefore, if the driver's state is estimated based on the driver's line-of-sight frequency, the accuracy of estimating the driver's state when the vehicle is running can be further improved.

以上説明したように、ここに開示された技術によると、運転者の視線移動に基づいて運転者の状態を推定する場合に、車両走行時における運転者の状態を推定する精度を向上させることができる。 As described above, according to the technology disclosed herein, when estimating the driver's state based on the movement of the driver's line of sight, it is possible to improve the accuracy of estimating the driver's state when the vehicle is running. it can.

例示的な実施形態1に係る運転者状態推定装置を搭載した車両の車室内を前側部分を示す概略図である。It is the schematic which shows the front side part in the vehicle interior of the vehicle equipped with the driver state estimation device which concerns on an exemplary Embodiment 1. 車両を前側から見た正面図である。It is a front view which looked at the vehicle from the front side. 運転者状態推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the driver state estimation device. カメラにより撮影された車両前側の外部環境を示す図である。It is a figure which shows the external environment of the front side of a vehicle photographed by a camera. 合成画像データを示す図であって、フロントピラートリムの鉛直方向に対する傾斜角度が小さい場合を示す。It is a figure which shows the composite image data, and shows the case where the inclination angle with respect to the vertical direction of a front pillar trim is small. 合成画像データを示す図であって、フロントピラートリムの鉛直方向に対する傾斜角度が大きい場合を示す。It is a figure which shows the composite image data, and shows the case where the inclination angle with respect to the vertical direction of a front pillar trim is large. 図5Aに示す合成画像データに基づいて算出されたサリエンシーの分布を示す図である。It is a figure which shows the distribution of salience calculated based on the composite image data shown in FIG. 5A. 図5Bに示す合成画像データに基づいて算出されたサリエンシーの分布を示す図である。It is a figure which shows the distribution of salience calculated based on the composite image data shown in FIG. 5B. 運転者の注視点のサリエンシーを示すグラフである。It is a graph which shows the salience of the driver's gaze point. 誘目度マップからランダムに摘出した点のサリエンシーを示すグラフである。It is a graph which shows the salience of the point randomly extracted from the attraction degree map. ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とを比較したグラフである。It is a graph comparing the ratio exceeding the threshold value at a random point and the ratio exceeding the threshold value at the driver's gaze point. 推定部の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the estimation part. 実施形態2に係る運転者状態推定装置において、サリエンシーの算出方法を概念的に示す図である。It is a figure which conceptually shows the calculation method of salience in the driver state estimation apparatus which concerns on Embodiment 2. FIG.

以下、例示的な実施形態について、図面を参照しながら詳細に説明する。尚、以下の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。 Hereinafter, exemplary embodiments will be described in detail with reference to the drawings. In the following description, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. The left side when looking at the front side from the rear side is called the left side, and the opposite is called the right side.

〈実施形態1〉
図1は、車両としての自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール8が配置されている。
<Embodiment 1>
FIG. 1 schematically shows the interior of an automobile as a vehicle. This vehicle is a right-hand drive vehicle, and the steering wheel 8 is arranged on the right side.

車室内において、運転席から見て車両前側にはフロントウィンドウガラス1が配置されている。フロントウィンドウガラス1は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス1は、左右のフロントピラートリム2と、ルーフトリム3と、インストルメントパネル4とによって区画されている。 In the vehicle interior, the front window glass 1 is arranged on the front side of the vehicle when viewed from the driver's seat. The front window glass 1 is partitioned by a plurality of vehicle components when viewed from the vehicle interior side. Specifically, the front window glass 1 is partitioned by the left and right front pillar trims 2, the roof trim 3, and the instrument panel 4.

左右のフロントピラートリム2は、フロントウィンドウガラス1の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム2は、各フロントピラー12に沿って配置されている。各フロントピラートリム2は、図1に示すように、上側に向かって互いに離間するように斜めに傾斜してそれぞれ配置されている。 The left and right front pillar trims 2 form boundaries on the outer side of the front window glass 1 in the vehicle width direction. Each front pillar trim 2 is arranged along each front pillar 12. As shown in FIG. 1, each front pillar trim 2 is arranged so as to be inclined obliquely so as to be separated from each other toward the upper side.

ルーフトリム3は、フロントウィンドウガラス1の上側の境界を構成している。ルーフトリム3は、車両のルーフパネル13の車室内側を覆っている。フロントウィンドウガラス1の車幅方向の中央でかつルーフトリム3のやや下側の部分には、バックミラー5が取り付けられている。ルーフトリム3におけるバックミラー5の近傍部分には、車室内、特に、運転者の顔面を撮影する車室内カメラ101(図3参照)が設けられている。車室内カメラ101は、運転者の瞳孔の変化を検出できる程度に高性能なカメラで構成されている。 The roof trim 3 constitutes the upper boundary of the front window glass 1. The roof trim 3 covers the vehicle interior side of the roof panel 13 of the vehicle. A rear-view mirror 5 is attached to the center of the front window glass 1 in the vehicle width direction and slightly below the roof trim 3. A vehicle interior camera 101 (see FIG. 3) for photographing the vehicle interior, particularly the driver's face, is provided in the vicinity of the rear-view mirror 5 in the roof trim 3. The vehicle interior camera 101 is composed of a high-performance camera that can detect changes in the driver's pupil.

インストルメントパネル4は、フロントウィンドウガラス1の下側の境界を構成している。インストルメントパネル4には、メーターボックスやディスプレイ7が設けられている。 The instrument panel 4 constitutes the lower boundary of the front window glass 1. The instrument panel 4 is provided with a meter box and a display 7.

また、前記車両は、左右のフロントピラー12よりも車幅方向外側に、サイドミラー6をそれぞれ有している。各サイドミラー6は、運転席に着座した運転手がサイドドアのウィンドウ越しに見ることが出来るように配置されている。 Further, the vehicle has side mirrors 6 on the outer side in the vehicle width direction with respect to the left and right front pillars 12, respectively. Each side mirror 6 is arranged so that the driver seated in the driver's seat can see through the window of the side door.

前記車両は、図2に示すように、車両前側の外部環境を撮影するためのカメラ100が設けられている。カメラ100は、車両の前側端部であって、車両のボンネット9よりもやや下側に配置されている。 As shown in FIG. 2, the vehicle is provided with a camera 100 for photographing the external environment on the front side of the vehicle. The camera 100 is a front end portion of the vehicle and is arranged slightly below the bonnet 9 of the vehicle.

(運転者状態推定装置の構成)
本実施形態1に係る車両は、運転者の視線移動に基づいて、該運転者の状態を推定する機能を有している。図3は、運転者状態推定装置20の構成を示す。運転者状態推定装置20は、実際に運転者状態を推定するための推定部54を有するコントローラ50を有する。このコントローラ50は、周知のマイクロコンピュータをベースとするコントローラであって、プログラムを実行する中央演算処理装置(Central Processing Unit:CPU)と、例えばRAM(Random Access Memory)やROM(Read Only Memory)により構成されてプログラム及びデータを格納するメモリと、電気信号の入出力をする入出力バスと、を備えている。
(Configuration of driver state estimation device)
The vehicle according to the first embodiment has a function of estimating the state of the driver based on the movement of the driver's line of sight. FIG. 3 shows the configuration of the driver state estimation device 20. The driver state estimation device 20 has a controller 50 having an estimation unit 54 for actually estimating the driver state. The controller 50 is a controller based on a well-known microcomputer, and uses a central processing unit (CPU) for executing a program and, for example, a RAM (Random Access Memory) or a ROM (Read Only Memory). It includes a memory that is configured to store programs and data, and an input / output bus that inputs and outputs electrical signals.

コントローラ50は、図3に示すように、各種のセンサと接続されている。センサは、例えば、車両前側の外部環境を撮影するカメラ100と、運転者の顔面を撮影する車室内カメラ101と、ステアリングホイール8に設けられ、運転者の手の発汗状態を検知する発汗センサ102とを含む。 As shown in FIG. 3, the controller 50 is connected to various sensors. The sensors are, for example, a camera 100 that captures the external environment on the front side of the vehicle, a vehicle interior camera 101 that captures the driver's face, and a sweating sensor 102 that is provided on the steering wheel 8 and detects the sweating state of the driver's hand. And include.

コントローラ50は、車室内カメラ101により撮影された運転者の眼球から、運転者の視線方向を算出する視線算出部51を有する。視線算出部51は、例えば、運転者が車室内カメラ101のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線方向の算出は、運転者の左目及び右目のどちらか一方から算出してもよいし、運転者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、運転者の瞳孔の変化から運転者の視線方向を算出することが困難であるときには、運転者の顔面の向きを更に考慮して視線方向を算出してもよい。車室内カメラ101及びコントローラ50は、視線検知装置の一例である。 The controller 50 has a line-of-sight calculation unit 51 that calculates the driver's line-of-sight direction from the driver's eyeball photographed by the vehicle interior camera 101. The line-of-sight calculation unit 51 calculates the line-of-sight direction of the driver by detecting a change in the driver's pupil from the state in which the driver looks into the lens of the vehicle interior camera 101, for example. The line-of-sight direction may be calculated from either the driver's left eye or the right eye, or may be the average value of the line-of-sight directions (line-of-sight vectors) obtained from each of the driver's eyes. Further, when it is difficult to calculate the driver's line-of-sight direction from the change in the driver's pupil, the line-of-sight direction may be calculated in consideration of the direction of the driver's face. The vehicle interior camera 101 and the controller 50 are examples of the line-of-sight detection device.

コントローラ50は、カメラ100により撮影された画像D1に対して、フロントピラートリムを示す画像を合成する画像処理を行って、合成画像データD2を出力する画像処理部52を有する。画像処理部52により実行される画像処理については後述する。 The controller 50 has an image processing unit 52 that performs image processing for synthesizing an image showing the front pillar trim on the image D1 taken by the camera 100 and outputs the composite image data D2. The image processing executed by the image processing unit 52 will be described later.

コントローラ50は、合成画像データD2に基づいて、車両前側の物標に対して、運転者の視線の惹きつけやすさを示す誘目度を算出して、誘目度マップD3を生成する誘目度算出部53を有する。本実施形態1では、誘目度算出部53は、誘目度としてサリエンシー(視覚的顕著性)を算出する。サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。すなわち、サリエンシーが高いとは、顕著性が高いことを表し、サリエンシーが高い領域とは周囲に対して目立つ領域のことである。より具体的には、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して動きが生じていたりする領域は、サリエンシーが高くなる。 Based on the composite image data D2, the controller 50 calculates the degree of attraction indicating the ease with which the driver's line of sight is attracted to the target on the front side of the vehicle, and generates the degree of attraction map D3. Has 53. In the first embodiment, the attraction degree calculation unit 53 calculates salience (visual prominence) as the attraction degree. Salience is a visual feature amount consisting of prominence that changes from moment to moment depending on color, brightness, movement, and the like. That is, a high salience means a high degree of prominence, and a high salience area is a area that stands out with respect to the surroundings. More specifically, the salience is high in the region where the color difference or the luminance difference is large with respect to the surrounding region or the movement is occurring with respect to the surrounding region.

コントローラ50は、誘目度マップD3、視線算出部51が算出した運転者の視線方向、発汗センサ102の検出結果、及び車室内カメラ101により撮影された運転者の瞳孔径の変化に基づいて、運転者の状態を推定する推定部54を有する。詳しくは後述するが、推定部54は、誘目度マップD3及び視線算出部51の算出結果から、運転者が正常状態であるか異常状態であるかを推定する。推定部54は、運転者が異常状態であると推定されるときに、発汗センサ102の検出結果及び車室内カメラ101により撮影された運転者の瞳孔径の変化等から、運転者の状態をより詳細に推定する。尚、運転者の異常状態とは、運転者に体調異常が発生している状態に限らず、運転者の漫然状態や、運転者の覚醒度が低下(眠気が増加)している状態を含む。 The controller 50 operates based on the attraction degree map D3, the driver's line-of-sight direction calculated by the line-of-sight calculation unit 51, the detection result of the sweating sensor 102, and the change in the driver's pupil diameter photographed by the vehicle interior camera 101. It has an estimation unit 54 for estimating the state of a person. As will be described in detail later, the estimation unit 54 estimates whether the driver is in a normal state or an abnormal state from the calculation results of the attraction degree map D3 and the line-of-sight calculation unit 51. When the driver is presumed to be in an abnormal state, the estimation unit 54 determines the driver's state from the detection result of the sweating sensor 102 and the change in the driver's pupil diameter photographed by the vehicle interior camera 101. Estimate in detail. The driver's abnormal state is not limited to the state in which the driver is in an abnormal physical condition, but also includes the driver's absent-minded state and the state in which the driver's arousal level is reduced (drowsiness is increased). ..

コントローラ50は、推定部54の推定結果に基づいて、車両に搭載された各種アクチュエータA、ディスプレイ7、ブザーB等を制御する。尚各種アクチュエータAとは、エンジンシステム、ブレーキシステム、及びステアリングシステムを構成するアクチュエータを含む。 The controller 50 controls various actuators A, a display 7, a buzzer B, etc. mounted on the vehicle based on the estimation result of the estimation unit 54. The various actuators A include actuators constituting the engine system, the brake system, and the steering system.

(画像処理部による画像処理)
次に、画像処理部52による画像処理について説明する。画像処理部52は、カメラ100で撮影された車両前側の外部環境を示す画像D1に対して、車両の走行時に前記運転者の視界領域に入るフロントピラートリムを示す画像を合成して合成画像データD2を生成する処理を行う。また、画像処理部52は、カメラ100の撮影した画像D1に対して、画像D1を構成する素子のうち誘目度算出部53での処理(サリエンシーの算出)に不要な画素を削除する処理を行う。
(Image processing by the image processing unit)
Next, the image processing by the image processing unit 52 will be described. The image processing unit 52 synthesizes the image D1 showing the external environment on the front side of the vehicle taken by the camera 100 with the image showing the front pillar trim that enters the driver's field of view when the vehicle is running, and synthesizes the composite image data D2. Performs the process of generating. Further, the image processing unit 52 performs processing on the image D1 captured by the camera 100 to delete pixels unnecessary for processing (calculation of salience) by the attraction degree calculation unit 53 among the elements constituting the image D1. ..

図4は、カメラ100が撮影した車両前側の外部環境を示す画像D1である。この画像D1に示す外部環境には、車道150と、車道150上の白線151とが含まれている。また、この画像D1に示された外部環境には、他車両161と、車道150の右側に形成された壁162と、壁162よりも右側の領域に植えられた樹木163と、樹木163よりも右側の領域に広がる丘164と、車道150の左側に形成された森林165が含まれている。また、この画像D1に示された外部環境には、建物166と、建物166及び森林165の上側に広がる空167が含まれている。尚、以下の説明において、画像D1の空167は曇り空であり、ほぼ白色であると仮定する。 FIG. 4 is an image D1 showing the external environment on the front side of the vehicle taken by the camera 100. The external environment shown in the image D1 includes a roadway 150 and a white line 151 on the roadway 150. Further, in the external environment shown in this image D1, the other vehicle 161 and the wall 162 formed on the right side of the roadway 150, the trees 163 planted in the area on the right side of the wall 162, and the trees 163 It includes hills 164 extending to the area on the right and forests 165 formed on the left side of the roadway 150. Further, the external environment shown in the image D1 includes the building 166 and the sky 167 extending above the building 166 and the forest 165. In the following description, it is assumed that the sky 167 of the image D1 is a cloudy sky and is substantially white.

本実施形態1において、画像処理部52は、画像D1に対して、車両の走行時に運転者の視界領域に入るフロントピラートリム2を示す画像を合成する。実際には、画像処理部52は、フロントピラートリム2以外に、運転席に着座した運転者が車両前側を見たときに該運転者の視界領域に入る車両構成部材を示す画像についても合成する。具体的には、図5Aや図5Bに示すように、画像処理部52は、運転席に着座した運転者が車両前側を見たときの、左側(運転席側)のフロントピラートリム2と、ルーフトリム3の左側の部分と、インストルメントパネル4の左側の部分と、左側のサイドミラー6と、ステアリングホイール8と、ボンネット9の一部とを示す画像を画像D1に合成する。この合成用の画像は、例えば、運転席側から予め撮影しておき、撮影したデータをレイヤとしてコントローラ50のメモリに保存させておくことができる。そして、画像D1に合成用の画像を合成するときには、画像処理部52がメモリから当該画像を読み込んで、当該画像をレイヤとして画像D1に重ねるようにすればよい。 In the first embodiment, the image processing unit 52 synthesizes an image showing the front pillar trim 2 that enters the driver's field of view when the vehicle is traveling with the image D1. Actually, in addition to the front pillar trim 2, the image processing unit 52 also synthesizes an image showing a vehicle component that enters the driver's field of view when the driver seated in the driver's seat looks at the front side of the vehicle. Specifically, as shown in FIGS. 5A and 5B, the image processing unit 52 includes the front pillar trim 2 on the left side (driver's seat side) and the roof when the driver seated in the driver's seat looks at the front side of the vehicle. An image showing the left part of the trim 3, the left part of the instrument panel 4, the left side mirror 6, the steering wheel 8, and a part of the bonnet 9 is combined with the image D1. The image for compositing can be, for example, photographed in advance from the driver's seat side, and the photographed data can be stored in the memory of the controller 50 as a layer. Then, when synthesizing an image for compositing with the image D1, the image processing unit 52 may read the image from the memory and superimpose the image on the image D1 as a layer.

図5Aや図5Bに示すように、合成画像では、画像D1の一部が車両構成部材により遮られた状態になる。画像処理部52は、この合成画像を示す合成画像データD2を誘目度算出部53に出力する。 As shown in FIGS. 5A and 5B, in the composite image, a part of the image D1 is blocked by the vehicle component. The image processing unit 52 outputs the composite image data D2 indicating the composite image to the attraction degree calculation unit 53.

(誘目度マップの生成)
誘目度算出部53は、合成画像データD2に対してサリエンシーを算出して、誘目度マップ(ここでは、サリエンシーマップ)を生成する。具体的には、誘目度算出部53は、合成画像データD2のうち外部環境を表す部分、すなわち、画像処理部52で合成した画像以外の部分についてサリエンシーを算出する。このとき、誘目度算出部53は、画像処理部52で合成した画像の部分(車両構成部材の部分)については、サリエンシー自体は算出しないものの、合成画像データD2のうち外部環境を表す部分のサリエンシーの算出には利用する。つまり、誘目度算出部53は、車両の走行時に運転者の視界領域に入る車両構成部材を考慮して誘目度を算出する。
(Generation of attraction map)
The attraction degree calculation unit 53 calculates the salience with respect to the composite image data D2 and generates an attraction degree map (here, a salience map). Specifically, the attractiveness calculation unit 53 calculates salience for a portion of the composite image data D2 that represents the external environment, that is, a portion other than the image synthesized by the image processing unit 52. At this time, the attraction degree calculation unit 53 does not calculate the salience itself for the part of the image (the part of the vehicle component) synthesized by the image processing unit 52, but the salience of the part of the composite image data D2 representing the external environment. It is used to calculate. That is, the attraction degree calculation unit 53 calculates the attraction degree in consideration of the vehicle constituent members that enter the driver's field of view when the vehicle is traveling.

前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。そこで、本実施形態1では、誘目度算出部53は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎の誘目度マップを生成した後に、それらを足し合わせることで最終的な誘目度マップD3を生成する。 As described above, salience changes depending on the color, brightness, movement, etc. of the target. Therefore, in the first embodiment, the attraction degree calculation unit 53 calculates the salience for each feature such as color-based salience, brightness-based salience, and motion-based salience, and generates an attraction degree map for each feature. , The final attraction map D3 is generated by adding them together.

例えば、色に基づくサリエンシーについては、誘目度算出部53は、合成画像データD2における車両構成部材の近傍領域において、当該近傍領域と車両構成部材との色差が大きいときには、該色差が小さいときと比較して、近傍領域のサリエンシーを高くする。尚、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2−R1)+(G2−G1)+(B2−B1)}1/2
誘目度算出部53は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, regarding color-based salience, the attraction degree calculation unit 53 compares when the color difference between the neighborhood region and the vehicle component is large in the region near the vehicle component in the composite image data D2, as compared with when the color difference is small. Then, the salience of the neighboring region is increased. The color difference is calculated by the following formula when the RGB of the color of a certain pixel is (R1, G1, B1) and the RGB of the color of another pixel is (R2, G2, B2).
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The attractiveness calculation unit 53 may calculate so that the larger the color difference, the higher the salience continuously, or may set a plurality of threshold values and calculate so that the salience increases by a certain value each time the threshold value is exceeded. Good.

また、例えば、輝度に基づくサリエンシーについては、誘目度算出部53は、合成画像データD2における車両構成部材の近傍領域において、当該近傍領域と車両構成部材との輝度差が大きいときには、該輝度差が小さいときと比較して、近傍領域のサリエンシーを高くする。例えば、誘目度算出部53は、合成した車両構成部品が黒色であるときには、白色に近い部分ほど輝度差が大きくなるため、近傍領域のうち白色に近い部分のサリエンシーを高くする。誘目度算出部53は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。 Further, for example, regarding salience based on brightness, the attractiveness calculation unit 53 determines that when the brightness difference between the neighborhood region and the vehicle constituent member is large in the vicinity region of the vehicle constituent member in the composite image data D2, the brightness difference is large. Increase the salience of the neighboring area compared to when it is small. For example, when the combined vehicle component is black, the attractiveness calculation unit 53 increases the salience of the portion of the vicinity region that is close to white because the brightness difference becomes larger as the portion is closer to white. The attractiveness calculation unit 53 may calculate so that the larger the difference in brightness, the higher the salience continuously, or set a plurality of threshold values and calculate so that the salience increases by a certain value each time the threshold value is exceeded. May be good.

特に、本実施形態1では、動きに基づくサリエンシーを算出する際に、フロントピラートリム2の長手方向の鉛直方向に対する鋭角側の角度α(以下、ピラー傾斜角度αという)が考慮される。具体的には、誘目度算出部53は、ピラー傾斜角度αが大きいときには、該ピラー傾斜角度αが小さいときと比較して、フロントピラートリム2の近傍領域の誘目度を高くする。尚、本実施形態1では、ピラー傾斜角度αは、図5A及び図5Bに示すように、フロントピラートリム2におけるフロントウィンドウガラス1との境界部分の傾斜角度としている。当該境界部分の延びる方向は、フロントピラートリム2の長手方向とほぼ一致しているので、特に問題とならない。 In particular, in the first embodiment, when calculating the salience based on the movement, the angle α on the acute angle side of the front pillar trim 2 with respect to the vertical direction in the longitudinal direction (hereinafter referred to as the pillar inclination angle α) is taken into consideration. Specifically, when the pillar inclination angle α is large, the attraction degree calculation unit 53 increases the attraction degree in the vicinity region of the front pillar trim 2 as compared with the case where the pillar inclination angle α is small. In the first embodiment, the pillar inclination angle α is the inclination angle of the boundary portion of the front pillar trim 2 with the front window glass 1, as shown in FIGS. 5A and 5B. Since the extending direction of the boundary portion substantially coincides with the longitudinal direction of the front pillar trim 2, there is no particular problem.

ピラー傾斜角度αが小さいときには、車両の前進時に、運転者の視界領域において物標の全体が略同時にフロントピラートリム2に遮られる。この場合には、物標に特に動きは生じない。 When the pillar inclination angle α is small, the entire target is blocked by the front pillar trim 2 substantially at the same time in the driver's field of view when the vehicle is moving forward. In this case, the target does not move in particular.

一方で、ピラー傾斜角度αが大きいときには、車両の前進時に、運転者の視界領域において物標が下側の部分から徐々にフロントピラートリム2に遮られる。これにより、運転者は物標が後側かつ下側に移動しているように錯覚してしまう。つまり、物標自体は動いていないが、運転者の視界には物標に動きがあるように見える。このため、フロントピラートリム2の近傍領域は、他の部分と比較して目立ちやすくなる。このことから、ピラー傾斜角度αが大きいときには、フロントピラートリム2に近傍領域の誘目度を高くする。 On the other hand, when the pillar inclination angle α is large, the target is gradually blocked by the front pillar trim 2 from the lower portion in the driver's field of view when the vehicle moves forward. This gives the driver the illusion that the target is moving backwards and downwards. In other words, the target itself is not moving, but the target appears to be moving in the driver's field of view. Therefore, the area near the front pillar trim 2 becomes more conspicuous than other parts. For this reason, when the pillar inclination angle α is large, the degree of attraction in the vicinity region to the front pillar trim 2 is increased.

誘目度算出部53は、ピラー傾斜角度αが大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて、ピラー傾斜角度αが各閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。特に、ピラー傾斜角度αが第1所定角度よりも大きいときに、ピラー傾斜角度αが該第1所定角度から大きくなるほどサリエンシーが高くなるように算出してもよい。 The attractiveness calculation unit 53 may calculate so that the larger the pillar inclination angle α is, the higher the salience is continuously. Alternatively, a plurality of threshold values are provided, and the salience is increased each time the pillar inclination angle α exceeds each threshold value. It may be calculated so as to be higher by a certain value. In particular, when the pillar inclination angle α is larger than the first predetermined angle, the salience may be calculated so that the larger the pillar inclination angle α is from the first predetermined angle, the higher the salience.

尚、前述したように、合成用の画像は予め運転席から撮影したものを用いることができる。このため、ピラー傾斜角度αは、合成用の画像から予め算出された値をメモリに保存しておいてもよい。 As described above, the image for compositing can be an image taken from the driver's seat in advance. Therefore, the pillar inclination angle α may be stored in the memory as a value calculated in advance from the image for compositing.

サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎の誘目度マップ(ここではサリエンシーマップ)の算出及び各誘目度マップの統合についても既知のコンピュータプログラムを用いることができる。 For the calculation of salience itself, a known computer program published on the Internet or the like can be used. In addition, a known computer program can be used for calculating the attraction map for each feature (here, the salency map) and integrating each attraction map.

図6Aは、ピラー傾斜角度αが小さい場合の、サリエンシーの分布を示す誘目度マップD3である。図6Aに示すように、空166におけるルーフトリム3と森林164とで仕切られた部分が、特にサリエンシーの高い部分となっている。これは、ピラー傾斜角度αが小さい場合には、色差及び輝度差がサリエンシーに大きく影響するためである。つまり、空166におけるルーフトリム3と森林164とで仕切られた部分は、ルーフトリム3及び森林164との色差及び輝度差が大きくなるため、サリエンシーが高くなる。 FIG. 6A is an attraction map D3 showing the distribution of salience when the pillar inclination angle α is small. As shown in FIG. 6A, the portion of the sky 166 separated by the roof trim 3 and the forest 164 is a portion having particularly high salience. This is because when the pillar inclination angle α is small, the color difference and the brightness difference greatly affect the salience. That is, the portion of the sky 166 partitioned by the roof trim 3 and the forest 164 has a large color difference and brightness difference between the roof trim 3 and the forest 164, and thus has high salience.

一方で、図6Bは、ピラー傾斜角度αが大きい場合の、サリエンシーの分布を示す誘目度マップD3である。図6Bに示すように、空166におけるルーフトリム3と森林164とで仕切られた部分に加えて、フロントピラートリム2の近傍部分がサリエンシーの高い部分となっている。これは、ピラー傾斜角度αが大きい場合には、フロントピラートリム2の近傍部分、特に境界部分には、色差及び輝度差に加えて、動きがサリエンシーを高める要素として加えられるためである。 On the other hand, FIG. 6B is an attraction map D3 showing the distribution of salience when the pillar inclination angle α is large. As shown in FIG. 6B, in addition to the portion partitioned by the roof trim 3 and the forest 164 in the sky 166, the portion near the front pillar trim 2 is a portion having high salience. This is because when the pillar inclination angle α is large, movement is added to the vicinity portion of the front pillar trim 2, particularly the boundary portion, as an element for enhancing salience, in addition to the color difference and the brightness difference.

このように、本実施形態1のように、ピラー傾斜角度αを考慮してサリエンシーを算出することで、車両の走行時に、運転者が視線を惹きつけられやすい領域を精度良く算出することができる。 In this way, by calculating the salience in consideration of the pillar inclination angle α as in the first embodiment, it is possible to accurately calculate the region where the driver is likely to attract the line of sight when the vehicle is running. ..

(視線頻度の算出)
次に視線頻度の算出について図7〜図9を参照しながら説明する。尚、本実施形態では、視線頻度の算出は推定部54が行う。
(Calculation of line-of-sight frequency)
Next, the calculation of the line-of-sight frequency will be described with reference to FIGS. 7 to 9. In this embodiment, the estimation unit 54 calculates the line-of-sight frequency.

図7は、運転者の注視点、すなわち、運転者の視線の先にある点のサリエンシーをプロットしたものである。このグラフは、視線算出部51により運転者の視線方向を割り出して、該視線方向の先にある注視点を誘目度マップD3に当てはめて、該誘目度マップD3から当該注視点のサリエンシーを求めることで生成される。この各点は所定のサンプリング周期毎に求められる。 FIG. 7 is a plot of the driver's gaze point, that is, the salience of a point beyond the driver's line of sight. In this graph, the line-of-sight calculation unit 51 determines the line-of-sight direction of the driver, applies the gaze point ahead of the line-of-sight direction to the attraction degree map D3, and obtains the salience of the gaze point from the attraction degree map D3. Is generated by. Each of these points is obtained at a predetermined sampling cycle.

一方で、図8は、誘目度算出部53により生成された誘目度マップD3からランダムに座標を指定して、該座標のサリエンシーを求めることで生成される。この各点は所定のサンプリング周期毎に求められる。 On the other hand, FIG. 8 is generated by randomly designating coordinates from the attractiveness map D3 generated by the attractiveness calculation unit 53 and obtaining the salience of the coordinates. Each of these points is obtained at a predetermined sampling cycle.

図7及び図8のグラフをそれぞれ作成した後は、ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図7及び図8のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図7及び図8のグラフにおいて最小値以下になるまで繰り返す。 After creating the graphs of FIGS. 7 and 8, respectively, the ROC (Receiver Operating Characteristic) curve of the ratio exceeding the threshold value at the random point and the ratio exceeding the threshold value at the driver's gaze point is obtained. Specifically, first, as a first step, the threshold value is set to a value larger than the maximum value in the graphs of FIGS. 7 and 8. Next, as a second step, while lowering the threshold value, the ratio of points exceeding the threshold value is obtained for each threshold value. Then, the process of this second step is repeated until the threshold value becomes equal to or less than the minimum value in the graphs of FIGS. 7 and 8.

図7及び図8に示すグラフは、所定の計測周期毎に区切って生成される。計測周期は任意に定めることができ、例えば、5秒に設定することができる。 The graphs shown in FIGS. 7 and 8 are generated by dividing them into predetermined measurement cycles. The measurement cycle can be arbitrarily set, for example, 5 seconds.

前記第1及び第2ステップの後、第3ステップとして、ランダム点における閾値を超える割合(第1確率という)を横軸にとりかつ運転者の注視点における閾値を超える割合(第2確率という)を縦軸にとって、図9のようなグラフを作成する。図9のグラフは、同一の閾値におけるランダム確率に対する注視確率を表す。図9のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, as the third step, the ratio exceeding the threshold value at the random point (referred to as the first probability) is taken on the horizontal axis and the ratio exceeding the threshold value at the driver's gaze point (referred to as the second probability). For the vertical axis, a graph as shown in FIG. 9 is created. The graph of FIG. 9 shows the gaze probability with respect to the random probability at the same threshold. In the graph of FIG. 9, since both the horizontal axis and the vertical axis are probabilities, the minimum value of the curve is 0 and the maximum value is 1.

図9において破線は、運転者の視線が視界全体に偏りなく向いていることを表す。すなわち、運転者の視線が視角領域全体に亘っているのであれば、第1確率と第2確率とは大きくずれることはない。このため、運転者の視線が視角領域全体に亘っているのであれば、第1確率と第2確率とを比較したときには、図9に破線で示すような直線形状になる。これに対して、図9の曲線C1のように、曲線が上側に凸に広がる場合は、運転者の注視点は閾値を超える割合が高いことを表す。すなわち、図9の曲線C1のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの高い箇所を見る傾向にあることを意味している。一方で、図9の曲線C2のように、曲線が下側に凸に広がる場合は、運転者の注視点は閾値を超える割合が低いことを表す。すなわち、図9の曲線C2のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの低い箇所を見る傾向にあることを意味している。 In FIG. 9, the broken line indicates that the driver's line of sight is evenly directed to the entire field of view. That is, if the driver's line of sight extends over the entire viewing angle region, the first probability and the second probability do not deviate significantly. Therefore, if the driver's line of sight extends over the entire viewing angle region, the linear shape as shown by the broken line in FIG. 9 is obtained when the first probability and the second probability are compared. On the other hand, when the curve expands convexly upward as shown by the curve C1 in FIG. 9, it means that the driver's gaze point has a high ratio of exceeding the threshold value. That is, when a curve having a shape like the curve C1 in FIG. 9 is calculated, it means that the driver's line of sight tends to see a portion having high salience. On the other hand, when the curve spreads downwardly as shown by the curve C2 in FIG. 9, it means that the driver's gaze point has a low ratio of exceeding the threshold value. That is, when a curve having a shape like the curve C2 in FIG. 9 is calculated, it means that the driver's line of sight tends to see a portion having low salience.

本実施形態では、第4ステップとして、AUC(Area Under Curve)を求める。AUCは、この曲線の右下部分の積分値(つまり、曲線と図9の2点鎖線とで囲まれた部分の面積)である。本実施形態では、この積分値を視線頻度としている。このように、運転者が注視した箇所のサリエンシーと、誘目度マップD3からランダムに指定した座標のサリエンシーとを比較して視線頻度を算出することで、視線頻度の算出精度を向上させることができる。すなわち、誘目度マップD3においてサリエンシーが高い領域がマップ全体に広がっていた場合、運転者がどの位置を注視したとしてもサリエンシーの高い箇所を見ることになる。この場合、単純に閾値以上のサリエンシーを見た割合を算出するだけでは、たとえ運転者が視界領域全体を偏りなく見ていたとしても、視線頻度が高いと算出されてしまう。これに対して、本実施形態のように、ランダム点との比較を行うようにすれば、サリエンシーが高い領域がマップ全体に広がっていたとしても、運転者の視界領域全体をランダムに見た場合と同じ傾向にあるか比較できる。したがって、運転者の視線方向に偏りがあるか否かをより正確に判断することができる。 In the present embodiment, the AUC (Area Under Curve) is obtained as the fourth step. AUC is the integrated value of the lower right part of this curve (that is, the area of the part surrounded by the curve and the alternate long and short dash line in FIG. 9). In the present embodiment, this integrated value is used as the line-of-sight frequency. In this way, the accuracy of calculating the line-of-sight frequency can be improved by comparing the salience of the part gazed by the driver with the salience of the coordinates randomly specified from the attraction degree map D3 and calculating the line-of-sight frequency. .. That is, when the region having high salience spreads over the entire map in the attraction degree map D3, the driver sees the portion having high salience no matter which position he / she looks at. In this case, simply calculating the ratio of seeing salience above the threshold value will calculate that the line-of-sight frequency is high even if the driver looks at the entire field of view without bias. On the other hand, if the comparison with the random points is performed as in the present embodiment, even if the area with high salience extends over the entire map, the entire field of view of the driver is randomly viewed. Can be compared if they have the same tendency as. Therefore, it is possible to more accurately determine whether or not there is a bias in the line-of-sight direction of the driver.

(運転者状態の推定)
次に、推定部54により運転者状態を推定する処理動作を図10のフローチャートに基づいて説明する。
(Estimation of driver status)
Next, the processing operation of estimating the driver state by the estimation unit 54 will be described with reference to the flowchart of FIG.

まず、ステップS101において、推定部54は、各種データを取得する。特に、推定部54は、視線算出部51の算出結果、誘目度算出部53により生成された誘目度マップD3、車室内カメラ101で取得された運転者の顔面の画像データ、及び発汗センサ102の検知結果を取得する。 First, in step S101, the estimation unit 54 acquires various data. In particular, the estimation unit 54 includes the calculation result of the line-of-sight calculation unit 51, the attraction degree map D3 generated by the attraction degree calculation unit 53, the image data of the driver's face acquired by the vehicle interior camera 101, and the sweating sensor 102. Acquire the detection result.

次のステップS102において、推定部54は、視線頻度を算出する。推定部54は、前述したような計算方法により視線頻度を算出する。 In the next step S102, the estimation unit 54 calculates the line-of-sight frequency. The estimation unit 54 calculates the line-of-sight frequency by the calculation method as described above.

続くステップS103において、推定部54は、運転者の注意力が低下しているか否かを推定する。具体的には、推定部54は、前記ステップS102で算出した視線頻度が所定頻度以上であるときには運転者の注意力が低下していると推定する。推定部54は、視線頻度が所定頻度以上であって、運転者の注意力が低下していると推定されるYESのときには、ステップS104に進む。一方で、推定部54は、視線頻度が所定頻度未満であって、運転者の注意力が低下していないと推定されるNOのときには、ステップS106に進む。 In the following step S103, the estimation unit 54 estimates whether or not the driver's attention is reduced. Specifically, the estimation unit 54 estimates that the driver's attention is reduced when the line-of-sight frequency calculated in step S102 is equal to or higher than a predetermined frequency. The estimation unit 54 proceeds to step S104 when the line-of-sight frequency is equal to or higher than a predetermined frequency and YES is estimated to reduce the driver's attention. On the other hand, the estimation unit 54 proceeds to step S106 when the line-of-sight frequency is less than the predetermined frequency and the driver's attention is presumed to be NO.

前記ステップS104では、推定部54は、運転者が、交感神経が優位な状態であるか否かを推定する。具体的には、推定部54は、発汗センサ102により検知される単位時間あたりの発汗量が所定量以上であるときには、交感神経が優位な状態であると推定する。一方で、推定部54は、発汗センサ102により検知される単位時間あたりの発汗量が所定量未満であるときには、副交感神経が優位な状態であると推定する。推定部54は、発汗センサ102の検知結果が所定量以上であって、交感神経が優位であると推定されるYESのときには、ステップS105に進む。一方で、推定部54は、発汗センサ102の検知結果が所定量未満であって、副交感神経が優位であると推定されるYESのときには、ステップS107に進む。 In step S104, the estimation unit 54 estimates whether or not the driver has a predominant sympathetic nerve. Specifically, the estimation unit 54 estimates that the sympathetic nerve is in a predominant state when the amount of perspiration per unit time detected by the perspiration sensor 102 is equal to or greater than a predetermined amount. On the other hand, the estimation unit 54 estimates that the parasympathetic nerve is in a predominant state when the amount of sweating per unit time detected by the sweating sensor 102 is less than a predetermined amount. The estimation unit 54 proceeds to step S105 when the detection result of the sweating sensor 102 is equal to or greater than a predetermined amount and YES is presumed that the sympathetic nerve is dominant. On the other hand, the estimation unit 54 proceeds to step S107 when the detection result of the sweating sensor 102 is less than a predetermined amount and YES, which is presumed that the parasympathetic nerve is dominant.

前記ステップS105では、推定部54は、運転者が、能動的に運転している状態であるか否かを推定する。具体的には、推定部54は、車室内カメラ101により撮影された運転者の瞳孔径の変化から推定する。より詳しくは、推定部54は、運転者の視線移動の前後で瞳孔径にほとんど変化がなかった場合には、運転者は能動的に運転していると推定する。一方で、推定部54は、運転者の視線移動の前後で瞳孔径が変化している場合には、運転者は受動的に運転していると推定する。これは、運転者が受動的に運転をしているときには、目に刺激を受けてから視線を移動させるためである。推定部54は、運転者が能動的に運転していると推定されるYESのときには、ステップS109に進む。一方、推定部54は、運転者が受動的に運転していると推定されるNOのときには、ステップS108に進む。尚、運転者の左目の視線と右目の視線との交差角である輻輳角を算出して、該輻輳角に基づいて運転者が能動的に運転しているか否かを推定するようにしてもよい。 In step S105, the estimation unit 54 estimates whether or not the driver is actively driving. Specifically, the estimation unit 54 estimates from the change in the pupil diameter of the driver photographed by the vehicle interior camera 101. More specifically, the estimation unit 54 estimates that the driver is actively driving when there is almost no change in the pupil diameter before and after the movement of the driver's line of sight. On the other hand, the estimation unit 54 estimates that the driver is passively driving when the pupil diameter changes before and after the driver's line-of-sight movement. This is because when the driver is driving passively, the line of sight is moved after being stimulated by the eyes. The estimation unit 54 proceeds to step S109 when YES is presumed that the driver is actively driving. On the other hand, the estimation unit 54 proceeds to step S108 when the driver is presumed to be passively driving NO. Even if the convergence angle, which is the intersection angle between the driver's left eye line of sight and the right eye line of sight, is calculated and it is estimated whether or not the driver is actively driving based on the convergence angle. Good.

前記ステップS106では、推定部54は、運転者は正常な状態であると推定する。すなわち、運転者に何らかの異常がある場合には、運転者の注意力が低下する。よって、運転者に注意力の低下が見られない場合には、運転者は正常な状態であると推定する一方、運転者に注意力の低下が見られる場合には、運転者に異常が生じていると推定することができる。ステップS106の後は、リターンする。 In step S106, the estimation unit 54 estimates that the driver is in a normal state. That is, if the driver has some abnormality, the driver's attention is reduced. Therefore, if the driver does not have a decrease in attention, it is presumed that the driver is in a normal state, but if the driver has a decrease in attention, an abnormality occurs in the driver. It can be estimated that it is. After step S106, it returns.

前記ステップS107では、推定部54は、運転者の覚醒度が低下(眠気が増加)している状態であると推定する。一般に、副交感神経が優位な状態は、睡眠時に交感神経に対して優位になる。このため、注意力が低下しかつ副交感神経が優位な状態とは、運転者の覚醒度が低下している状態であると推定することができる。ステップS107の後はリターンする。 In step S107, the estimation unit 54 estimates that the driver's alertness is reduced (sleepiness is increased). In general, a parasympathetic predominant state predominates over the sympathetic nerve during sleep. Therefore, it can be presumed that the state in which the attention is lowered and the parasympathetic nerve is dominant is the state in which the driver's alertness is lowered. After step S107, it returns.

前記ステップS108では、推定部54は、運転者が漫然状態であると推定する。すなわち、運転者が覚醒状態でありながら受動的に運転していることから、運転者は運転以外のことを考えながら運転している漫然状態であると推定することができる。ステップS108の後はリターンする。 In step S108, the estimation unit 54 estimates that the driver is in a loose state. That is, since the driver is passively driving while being awake, it can be presumed that the driver is in a distracted state while thinking about something other than driving. After step S108, it returns.

前記ステップS109では、推定部54は、運転者に体調異常が生じていると推定する。すなわち、運転者は、体調に異常が生じていたとしても正常な運転を続けようとする。このため、正常な運転を運転者が覚醒状態であって、能動的に運転しているにも拘わらず、注意力が低下している状態であれば、運転者の体調に何らかの異常が生じていると推定することができる。ステップS109の後はリターンする。 In step S109, the estimation unit 54 estimates that the driver is in an abnormal physical condition. That is, the driver tries to continue normal driving even if the physical condition is abnormal. For this reason, if the driver is awake during normal driving and the driver's attention is reduced despite being actively driving, some abnormality may occur in the driver's physical condition. It can be estimated that there is. Return after step S109.

以上のようにして、推定部54により運転者の状態が推定される。コントローラ50は、運転者の覚醒度が低下していたり(ステップS107)、運転者が漫然状態であったり(ステップS108)と推定されたときには、例えば、ブザーBを鳴らしたり、ディスプレイ7に表示したりする。これにより、コントローラ50は、運転者の覚醒を促したり、運転に集中するように促したりする。また、コントローラ50は、推定部54により運転者に体調異常が生じていると推定されたときには、例えば、各種アクチュエータAに制御信号を出力して、車両を路肩等の安全な領域まで走行させるとともに、該安全な領域に車両を停止させる。 As described above, the driver's state is estimated by the estimation unit 54. When it is estimated that the driver's alertness is low (step S107) or the driver is in a vague state (step S108), the controller 50 sounds, for example, a buzzer B or displays it on the display 7. Or As a result, the controller 50 encourages the driver to awaken or concentrate on driving. Further, when the estimation unit 54 estimates that the driver is in an abnormal physical condition, the controller 50 outputs control signals to various actuators A, for example, to drive the vehicle to a safe area such as a shoulder. , Stop the vehicle in the safe area.

したがって、本実施形態1では、運転者の視線方向を検知する視線検知装置(車室内カメラ101及び視線算出部51)と、車両に搭載され、車両前側の外部環境を撮影するカメラ100と、カメラ100により撮影された画像D1に対して、車両の走行時に運転者の視界領域に入るフロントピラートリム2を示す画像を合成して、合成画像データD2を出力する画像処理部52と、合成画像データD2に基づいて、車両前側の物標に対して、運転者の視線の惹きつけやすさを示す誘目度を算出して、誘目度マップD3を生成する誘目度算出部53と、前記視線検知装置が検知した運転者の視線方向及び誘目度マップD3に基づいて、運転者の状態を推定する推定部54とを備え、誘目度算出部53は、フロントピラートリム2の近傍領域の誘目度を算出するときには、合成画像データD2における当該フロントピラートリム2の鉛直方向に対する傾斜角度(ピラー傾斜角度α)を考慮して誘目度を算出する。 Therefore, in the first embodiment, the line-of-sight detection device (vehicle interior camera 101 and line-of-sight calculation unit 51) for detecting the driver's line-of-sight direction, the camera 100 mounted on the vehicle and photographing the external environment on the front side of the vehicle, and the camera. The image processing unit 52 that outputs the composite image data D2 by synthesizing the image showing the front pillar trim 2 that enters the driver's field of view when the vehicle is traveling with the image D1 taken by the 100, and the composite image data D2. Based on the above, the attraction degree calculation unit 53 that calculates the attraction degree indicating the ease of attracting the driver's line of sight to the target on the front side of the vehicle and generates the attraction degree map D3, and the line-of-sight detection device It is provided with an estimation unit 54 that estimates the driver's state based on the detected driver's line-of-sight direction and attraction degree map D3, and when the attraction degree calculation unit 53 calculates the attraction degree in the vicinity region of the front pillar trim 2. , The degree of attraction is calculated in consideration of the inclination angle (pillar inclination angle α) of the front pillar trim 2 in the composite image data D2 with respect to the vertical direction.

特に、本実施形態1において、誘目度算出部53は、フロントピラートリム2のピラー傾斜角度αが大きいときには、ピラー傾斜角度αが小さいときと比較して、誘目度を高くする。 In particular, in the first embodiment, the attractiveness calculation unit 53 increases the attractiveness when the pillar inclination angle α of the front pillar trim 2 is large as compared with the case where the pillar inclination angle α is small.

すなわち、ピラー傾斜角度αが小さい場合、フロントピラートリム2の近傍に位置する物標は、車両が前進したときには、その全体が略同時にフロントピラートリム2によって遮られる。一方で、ピラー傾斜角度αが大きい場合、フロントピラートリム2の近傍領域に視認される物標は、車両が前進したときには、下側の部分から徐々にフロントピラートリム2によって遮られる。これにより、ピラー傾斜角度αが大きい場合、物標が後側かつ下側に移動しているように錯覚される。このため、ピラー傾斜角度αが大きい場合、フロントピラートリム2の近傍領域に視認される物標は運転者の視線を惹きつけやすくなる。したがって、ピラー傾斜角度αを考慮して誘目度を算出することで、運転者の視界領域における誘目度の算出精度が向上する。よって、運転者の視線移動に基づいて運転者の状態を推定する場合に、車両走行時における運転者の状態を推定する精度を向上させることができる。 That is, when the pillar inclination angle α is small, the target located in the vicinity of the front pillar trim 2 is blocked by the front pillar trim 2 substantially at the same time when the vehicle moves forward. On the other hand, when the pillar inclination angle α is large, the target visually recognized in the vicinity region of the front pillar trim 2 is gradually blocked by the front pillar trim 2 from the lower portion when the vehicle moves forward. As a result, when the pillar inclination angle α is large, it is illusion that the target is moving backward and downward. Therefore, when the pillar inclination angle α is large, the target visually recognized in the vicinity of the front pillar trim 2 tends to attract the driver's line of sight. Therefore, by calculating the degree of attraction in consideration of the pillar inclination angle α, the accuracy of calculating the degree of attraction in the driver's field of view is improved. Therefore, when estimating the driver's state based on the movement of the driver's line of sight, it is possible to improve the accuracy of estimating the driver's state when the vehicle is running.

また、本実施形態において、推定部54は、前記視線検知装置により検知される運転者の視線が、誘目度が所定値以上の領域に向いた頻度である視線頻度が所定頻度以上であるときに、運転者に異常が生じていると推定する。すなわち、運転者は、正常な状態であれば、車両走行時には駐車車両、歩行者、脇道等の注視すべき視認対象物を見ながら運転する。しかしながら、運転者が漫然状態であったり、運転者に体調異常が発生して能動的な運転が出来なくなったりしたときには、運転者は、誘目度が高い領域に自然と視線を向けるようになる。つまり、運転者が誘目度の高い領域を見る頻度が高いときには、運転者に異常が生じている可能性が高い。このため、運転者の視線頻度により運転者の状態を推定するようにすれば、車両走行時における運転者の状態を推定する精度をより一層向上させることができる。 Further, in the present embodiment, the estimation unit 54 determines when the line-of-sight frequency detected by the line-of-sight detection device is the frequency at which the driver's line-of-sight is directed to a region where the degree of attraction is a predetermined value or more. , It is estimated that the driver has an abnormality. That is, under normal conditions, the driver drives while looking at a parked vehicle, a pedestrian, a side road, or other visible object to be watched when the vehicle is running. However, when the driver is in a vague state or when the driver becomes ill and cannot actively drive, the driver naturally turns his / her gaze to the area where the degree of attraction is high. That is, when the driver frequently sees the area with a high degree of attraction, there is a high possibility that the driver has an abnormality. Therefore, if the driver's state is estimated based on the driver's line-of-sight frequency, the accuracy of estimating the driver's state when the vehicle is running can be further improved.

〈実施形態2〉
以下、実施形態2について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
<Embodiment 2>
Hereinafter, the second embodiment will be described in detail with reference to the drawings. In the following description, the parts common to the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

本実施形態2では、誘目度算出部53によるサリエンシーの算出方法が前記実施形態1とは異なる。具体的には、本実施形態2において、誘目度算出部53は、合成画像データD2において近傍領域に位置する物標の長手方向とフロントピラートリム2の長手方向とのなす角度β(以下、相対角度βという)が大きいときには、相対角度βが小さいときと比較して、サリエンシーを高くする。すなわち、物標の長手方向がフロントピラートリム2の長手方向と略平行であれば、車両が前進したときには、当該物標の全体が略同時にフロントピラートリム2によって遮られる。つまり、相対角度βが小さければ、物標が動いているように錯覚されにくいため、運転者の視線を惹きつけにくくなる。したがって、相対角度βが小さければサリエンシーは低くなる。よって、物標の長手方向まで考慮することにより、運転者の視界領域におけるサリエンシーを一層精度良く算出することができる。 In the second embodiment, the method of calculating the salience by the attractiveness calculation unit 53 is different from that of the first embodiment. Specifically, in the second embodiment, the attractiveness calculation unit 53 determines the angle β (hereinafter, relative angle) formed by the longitudinal direction of the target located in the vicinity region in the composite image data D2 and the longitudinal direction of the front pillar trim 2. When β) is large, the salience is increased as compared with when the relative angle β is small. That is, if the longitudinal direction of the target is substantially parallel to the longitudinal direction of the front pillar trim 2, when the vehicle moves forward, the entire target is blocked by the front pillar trim 2 at substantially the same time. That is, if the relative angle β is small, it is difficult to give the illusion that the target is moving, and it is difficult to attract the driver's line of sight. Therefore, the smaller the relative angle β, the lower the salience. Therefore, by considering the longitudinal direction of the target, the salience in the driver's field of view can be calculated more accurately.

具体的に、誘目度算出部53は、図11に示すように、まず合成画像データD2から物標の長手方向を算出する。次に、誘目度算出部53は、物標の長手方向とフロントピラートリム2の長手方向とのなす相対角度βを算出する。そして、誘目度算出部53は、該相対角度βに応じてサリエンシーを算出する。尚、本実施形態2でも、前記実施形態1と同様に、フロントピラートリム2の長手方向として、フロントピラートリム2におけるフロントウィンドウガラス1との境界部分が延びる方向を採用している。 Specifically, as shown in FIG. 11, the attraction degree calculation unit 53 first calculates the longitudinal direction of the target from the composite image data D2. Next, the attractiveness calculation unit 53 calculates the relative angle β formed between the longitudinal direction of the target and the longitudinal direction of the front pillar trim 2. Then, the attractiveness calculation unit 53 calculates salience according to the relative angle β. In the second embodiment as well, as in the first embodiment, the longitudinal direction of the front pillar trim 2 is the direction in which the boundary portion of the front pillar trim 2 with the front window glass 1 extends.

誘目度算出部53は、相対角度βが大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて、相対角度βが各閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。特に、相対角度βが第2所定角度よりも大きいときに、相対角度βが該第2所定角度から大きくなるほどサリエンシーが高くなるように算出してもよい。 The attractiveness calculation unit 53 may calculate so that the larger the relative angle β is, the higher the salience is continuously. Alternatively, a plurality of threshold values are provided, and the salience is a constant value each time the relative angle β exceeds each threshold value. It may be calculated to be higher. In particular, when the relative angle β is larger than the second predetermined angle, the salience may be calculated so that the larger the relative angle β is from the second predetermined angle, the higher the salience.

このように、物標とフロントピラートリム2との相対角度βを考慮することにより、運転者の視界領域における誘目度(ここではサリエンシー)を一層精度良く算出することができる。この結果、車両走行時における運転者の状態を推定する精度を一層向上させることができる。 In this way, by considering the relative angle β between the target and the front pillar trim 2, the degree of attraction (here, salience) in the driver's visual field can be calculated more accurately. As a result, the accuracy of estimating the driver's state when the vehicle is running can be further improved.

尚、誘目度算出部53は、物標の長手方向を算出した後、物標の長手方向の鉛直方向に対する傾斜角度(以下、物標傾斜角度という)を算出するようにしてもよい。この場合、誘目度算出部53は、物標がフロントピラートリム2側に傾いているときには、ピラー傾斜角度αと物標傾斜角度との差を計算する一方、物標がフロントピラートリム2とは反対側に傾いているときには、ピラー傾斜角度αと物標傾斜角度との和を計算する。そして、誘目度算出部53は、該計算値を物標の長手方向とフロントピラートリム2の長手方向とのなす相対角度βとして、サリエンシーを算出する。 The attraction degree calculation unit 53 may calculate the inclination angle (hereinafter, referred to as the target inclination angle) with respect to the vertical direction in the longitudinal direction of the target after calculating the longitudinal direction of the target. In this case, the attraction degree calculation unit 53 calculates the difference between the pillar inclination angle α and the target inclination angle when the target is tilted toward the front pillar trim 2, while the target is on the opposite side of the front pillar trim 2. When tilted to, the sum of the pillar tilt angle α and the target tilt angle is calculated. Then, the attractiveness calculation unit 53 calculates salience by using the calculated value as a relative angle β formed by the longitudinal direction of the target and the longitudinal direction of the front pillar trim 2.

〈その他の実施形態〉
ここに開示された技術は、前述の実施形態に限られるものではなく、請求の範囲の主旨を逸脱しない範囲で代用が可能である。
<Other Embodiments>
The technique disclosed herein is not limited to the above-described embodiment, and can be substituted as long as it does not deviate from the gist of the claims.

例えば、前述の実施形態1及び2では、誘目度算出部53は、ピラー傾斜角度α及びフロントピラートリム2と物標との相対角度βを考慮して、誘目度を算出していた。これに加えて、誘目度算出部53は、車速を更に考慮するようにしてもよい。すなわち、ピラー傾斜角度αや相対角度βが大きい場合において、運転者の視界領域における物標の動く速さは車速によって変化するため、車速によっても誘目度が変化する。このため、誘目度算出部53は、例えば、ピラー傾斜角度αや相対角度βが大きい場合において、車速が高いほど誘目度を高くするようにしてもよい。 For example, in the above-described first and second embodiments, the attractiveness calculation unit 53 calculates the attractiveness in consideration of the pillar inclination angle α and the relative angle β between the front pillar trim 2 and the target. In addition to this, the attraction degree calculation unit 53 may further consider the vehicle speed. That is, when the pillar inclination angle α or the relative angle β is large, the moving speed of the target in the driver's field of view changes depending on the vehicle speed, so that the degree of attraction also changes depending on the vehicle speed. Therefore, for example, when the pillar inclination angle α and the relative angle β are large, the attractiveness calculation unit 53 may increase the attractiveness as the vehicle speed increases.

また、前述の実施形態1及び2では、フロントピラートリム2の長手方向として、フロントピラートリム2におけるフロントウィンドウガラス2との境界部分が延びる方向を採用した。これに限らず、フロントピラートリム2の車幅方向の中間部分が延びる方向をフロントピラートリム2の長手方向としてもよい。 Further, in the above-described first and second embodiments, as the longitudinal direction of the front pillar trim 2, the direction in which the boundary portion of the front pillar trim 2 with the front window glass 2 extends is adopted. Not limited to this, the direction in which the intermediate portion of the front pillar trim 2 in the vehicle width direction extends may be the longitudinal direction of the front pillar trim 2.

また、前述の実施形態1及び2では、誘目度を算出する際に考慮する車両構成部材として、左側(運転席側)のフロントピラートリム2と、ルーフトリム3の左側の部分と、インストルメントパネル4の左側の部分と、左側のサイドミラー6と、ステアリングホイール8と、ボンネット9の一部とを採用した。これに限らず、少なくとも、フロントウィンドウガラス1の周縁に位置する、左側(運転席側)のフロントピラートリム2を考慮すればよい。 Further, in the above-described first and second embodiments, the front pillar trim 2 on the left side (driver's seat side), the left side portion of the roof trim 3, and the instrument panel 4 are used as vehicle components to be considered when calculating the degree of attraction. The left side part, the left side mirror 6, the steering wheel 8, and a part of the bonnet 9 are adopted. Not limited to this, at least the front pillar trim 2 on the left side (driver's seat side) located on the peripheral edge of the front window glass 1 may be considered.

また、前述の実施形態1及び2では、視線頻度の算出を推定部54が行っていたが、これに限らず、視線頻度を計算するためのプロセッサを推定部54とは別に設けてもよい。 Further, in the above-described first and second embodiments, the line-of-sight frequency is calculated by the estimation unit 54, but the present invention is not limited to this, and a processor for calculating the line-of-sight frequency may be provided separately from the estimation unit 54.

前述の実施形態は単なる例示に過ぎず、本開示の範囲を限定的に解釈してはならない。本開示の範囲は請求の範囲によって定義され、請求の範囲の均等範囲に属する変形や変更は、全て本開示の範囲内のものである。 The above embodiments are merely examples, and the scope of the present disclosure should not be construed in a limited manner. The scope of the present disclosure is defined by the scope of claims, and all modifications and changes belonging to the equivalent scope of the scope of claims are within the scope of the present disclosure.

ここに開示された技術は、車両の運転者の視線移動に基づいて、運転者の状態を推定する運転者状態推定装置として有用である。 The technique disclosed herein is useful as a driver state estimation device that estimates the driver's state based on the movement of the driver's line of sight of the vehicle.

2 フロントピラートリム
20 運転者状態推定装置
50 コントローラ
51 視線算出部(視線検知装置)
52 画像処理部
53 誘目度算出部
54 推定部
100 カメラ
101 車室内カメラ(視線検知装置)
D1 画像
D2 合成画像データ
D3 誘目度マップ
α ピラー傾斜角度(フロントピラートリムの鉛直方向に対する傾斜角度)
β 相対角度(物標の長手方向とフロントピラートリムの長手方向とのなす角度)
2 Front pillar trim 20 Driver state estimation device
50 controller
51 Line-of-sight calculation unit (line-of-sight detection device)
52 Image processing unit
53 Invitation degree calculation unit
54 Estimator
100 cameras
101 Interior camera (line-of-sight detection device)
D1 image D2 composite image data D3 attraction map α pillar tilt angle (tilt angle of front pillar trim with respect to vertical direction)
β Relative angle (angle between the longitudinal direction of the target and the longitudinal direction of the front pillar trim)

Claims (5)

車両の運転者の視線移動に基づいて、該運転者の状態を推定する運転者状態推定装置であって、
前記運転者の視線方向を検知する視線検知装置と、
前記車両に搭載され、車両前側の外部環境を撮影するカメラと、
前記カメラにより撮影された画像に対して、前記車両の走行時に前記運転者の視界領域に入るフロントピラートリムを示す画像を合成して、合成画像データを出力する画像処理部と、
前記合成画像データに基づいて、車両前側の物標に対して、前記運転者の視線の惹きつけやすさを示す誘目度を算出して、誘目度マップを生成する誘目度算出部と、
前記視線検知装置が検知した前記運転者の視線方向及び前記誘目度マップに基づいて、前記運転者の状態を推定する推定部とを備え、
前記誘目度算出部は、前記フロントピラートリムの近傍領域の誘目度を算出するときには、前記合成画像データにおける当該フロントピラートリムの鉛直方向に対する傾斜角度を考慮して誘目度を算出することを特徴とする運転者状態推定装置。
It is a driver state estimation device that estimates the state of the driver based on the movement of the line of sight of the driver of the vehicle.
A line-of-sight detection device that detects the driver's line-of-sight direction,
A camera mounted on the vehicle that captures the external environment on the front side of the vehicle,
An image processing unit that combines an image taken by the camera with an image showing a front pillar trim that enters the driver's field of view when the vehicle is running, and outputs composite image data.
Based on the composite image data, an attraction degree calculation unit that calculates an attraction degree indicating the ease of attracting the driver's line of sight to a target on the front side of the vehicle and generates an attraction degree map.
It is provided with an estimation unit that estimates the state of the driver based on the line-of-sight direction of the driver detected by the line-of-sight detection device and the attraction degree map.
When calculating the degree of attraction in the region near the front pillar trim, the degree of attraction calculation unit calculates the degree of attraction in consideration of the inclination angle of the front pillar trim with respect to the vertical direction in the composite image data. Person state estimation device.
請求項1に記載の運転者状態推定装置において、
前記誘目度算出部は、前記フロントピラートリムの前記傾斜角度が大きいときには、前記傾斜角度が小さいときと比較して、誘目度を高くすることを特徴とする運転者状態推定装置。
In the driver state estimation device according to claim 1,
The driver state estimation device is characterized in that when the inclination angle of the front pillar trim is large, the degree of attraction is increased as compared with the case where the inclination angle is small.
請求項1に記載の運転者状態推定装置において、
前記誘目度算出部は、前記合成画像データにおいて前記近傍領域に位置する物標の長手方向と前記フロントピラートリムの長手方向とのなす角度が大きいときには、前記角度が小さいときと比較して、誘目度を高くすることを特徴とする運転者状態推定装置。
In the driver state estimation device according to claim 1,
When the angle formed by the longitudinal direction of the target located in the vicinity region and the longitudinal direction of the front pillar trim is large in the composite image data, the attractiveness calculation unit determines the attractiveness as compared with the case where the angle is small. A driver state estimator characterized by increasing the height.
請求項1〜3のいずれか1つに記載の運転者状態推定装置において、
前記推定部は、前記視線検知装置により検知される前記運転者の視線が、誘目度が所定値以上の領域に向いた頻度である視線頻度に基づいて、前記運転者の状態を推定することを特徴とする運転者状態推定装置。
In the driver state estimation device according to any one of claims 1 to 3,
The estimation unit estimates the state of the driver based on the line-of-sight frequency at which the line-of-sight of the driver detected by the line-of-sight detection device is directed to a region where the degree of attraction is equal to or higher than a predetermined value. A characteristic driver state estimation device.
請求項4に記載の運転者状態推定装置において、
前記推定部は、前記視線頻度が所定頻度以上であるときに、前記運転者に異常が生じていると推定することを特徴とする運転者状態推定装置。
In the driver state estimation device according to claim 4,
The estimation unit is a driver state estimation device that estimates that an abnormality has occurred in the driver when the line-of-sight frequency is equal to or higher than a predetermined frequency.
JP2019203788A 2019-11-11 2019-11-11 Driver state estimation device Active JP7276083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203788A JP7276083B2 (en) 2019-11-11 2019-11-11 Driver state estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203788A JP7276083B2 (en) 2019-11-11 2019-11-11 Driver state estimation device

Publications (2)

Publication Number Publication Date
JP2021077139A true JP2021077139A (en) 2021-05-20
JP7276083B2 JP7276083B2 (en) 2023-05-18

Family

ID=75897967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203788A Active JP7276083B2 (en) 2019-11-11 2019-11-11 Driver state estimation device

Country Status (1)

Country Link
JP (1) JP7276083B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066023A (en) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd Apparatus for detecting driver's condition
WO2007111223A1 (en) * 2006-03-24 2007-10-04 Pioneer Corporation Device and method for detecting mental conditions of driver
JP2010105664A (en) * 2010-02-19 2010-05-13 Honda Motor Co Ltd Body structure of vehicle
JP2011116210A (en) * 2009-12-02 2011-06-16 Honda Motor Co Ltd Gaze determination device
JP2013246659A (en) * 2012-05-25 2013-12-09 Mazda Motor Corp Vehicle planning support system
JP2015217700A (en) * 2014-05-14 2015-12-07 マツダ株式会社 Front pillar structure of vehicle
JP2016097942A (en) * 2014-11-26 2016-05-30 トヨタ自動車株式会社 Vehicle display device
JP5966640B2 (en) * 2012-06-08 2016-08-10 株式会社豊田中央研究所 Abnormal driving detection device and program
JP2017045351A (en) * 2015-08-28 2017-03-02 トヨタ自動車株式会社 Vehicle driving support device, vehicle driving support method and program
WO2017195405A1 (en) * 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066023A (en) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd Apparatus for detecting driver's condition
WO2007111223A1 (en) * 2006-03-24 2007-10-04 Pioneer Corporation Device and method for detecting mental conditions of driver
JP2011116210A (en) * 2009-12-02 2011-06-16 Honda Motor Co Ltd Gaze determination device
JP2010105664A (en) * 2010-02-19 2010-05-13 Honda Motor Co Ltd Body structure of vehicle
JP2013246659A (en) * 2012-05-25 2013-12-09 Mazda Motor Corp Vehicle planning support system
JP5966640B2 (en) * 2012-06-08 2016-08-10 株式会社豊田中央研究所 Abnormal driving detection device and program
JP2015217700A (en) * 2014-05-14 2015-12-07 マツダ株式会社 Front pillar structure of vehicle
JP2016097942A (en) * 2014-11-26 2016-05-30 トヨタ自動車株式会社 Vehicle display device
JP2017045351A (en) * 2015-08-28 2017-03-02 トヨタ自動車株式会社 Vehicle driving support device, vehicle driving support method and program
WO2017195405A1 (en) * 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Also Published As

Publication number Publication date
JP7276083B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP6047318B2 (en) Driver state detection device and driver state notification device
JP4872245B2 (en) Pedestrian recognition device
US20180268701A1 (en) Vehicle display system and method of controlling vehicle display system
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
US10227002B2 (en) Vehicle display system and method of controlling vehicle display system
JP6669019B2 (en) VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
WO2010061272A1 (en) Vehicle display device and display method
JP3990619B2 (en) Face orientation detection device
JP2007008382A (en) Device and method for displaying visual information
JP2017056909A (en) Vehicular image display device
EP3868622B1 (en) Driver state estimation device and movable body
EP3868621B1 (en) Driver state estimation device and movable body
JP7342636B2 (en) Vehicle control device and driver condition determination method
JP7342637B2 (en) Vehicle control device and driver condition determination method
JPWO2020208804A1 (en) Display control device, display control method, and display control program
JP7276083B2 (en) Driver state estimation device
JP7322667B2 (en) Driver state estimation device
JP2009098501A (en) Visual information display device and visual information display method
JP5109851B2 (en) Alarm display control device for vehicles
JP7342635B2 (en) Driver state estimation device and driver state estimation method
JP7276082B2 (en) Driver state estimation device
JP6649063B2 (en) Vehicle rear display device and display control device
JP2019113720A (en) Vehicle surrounding display control device
JP4935387B2 (en) Information display device
JP2000194997A (en) Obstacle alarm device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7276083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150