JP5742180B2 - Gaze point estimation device - Google Patents

Gaze point estimation device Download PDF

Info

Publication number
JP5742180B2
JP5742180B2 JP2010250916A JP2010250916A JP5742180B2 JP 5742180 B2 JP5742180 B2 JP 5742180B2 JP 2010250916 A JP2010250916 A JP 2010250916A JP 2010250916 A JP2010250916 A JP 2010250916A JP 5742180 B2 JP5742180 B2 JP 5742180B2
Authority
JP
Japan
Prior art keywords
information
attention
vehicle
driver
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010250916A
Other languages
Japanese (ja)
Other versions
JP2012103850A (en
Inventor
誉司 坂東
誉司 坂東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010250916A priority Critical patent/JP5742180B2/en
Publication of JP2012103850A publication Critical patent/JP2012103850A/en
Application granted granted Critical
Publication of JP5742180B2 publication Critical patent/JP5742180B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、ドライバの注視点を推定する注視点推定装置に関する。   The present invention relates to a gaze point estimation apparatus that estimates a driver's gaze point.

従来、車両の前方を撮像した画像等に基づいて、車両周辺の物体を認識し、ドライバに対して、認識すべき物体に関する情報を、表示や音声,振動等によって提供する装置が各種知られている。   Conventionally, various devices for recognizing an object around a vehicle based on an image taken in front of the vehicle and providing the driver with information on the object to be recognized by display, sound, vibration, or the like are known. Yes.

この種の装置では、ドライバが必要としない過度な情報は、却って運転の妨げとなるおそれがあるため、ドライバの状態や画像から得られる情報に基づいて、提供する情報を選択することが行われている。   In this type of device, excessive information that the driver does not need may interfere with driving, and therefore the information to be provided is selected based on information obtained from the driver status and images. ing.

なお、ドライバの状態を知る上で、ドライバの注視点を知ることは非常に重要であり、一般に、車室内にドライバの顔画像を取得するようなカメラ等のセンサを設置し、ドライバの視線方向を検出している。   Note that it is very important to know the driver's point of sight to know the driver's condition. Generally, a camera or other sensor is installed in the passenger compartment to obtain the driver's face image, and the driver's line-of-sight direction. Is detected.

この手法では、精度の良い注視点情報を得ることができるが、視線方向を検出するために専用のセンサが必要となるため、装置が高価なものとなるという問題があった。
一方、認知科学の分野では、人の注意モデルについての研究が行われており、画像が入力された時に、その画像のどこに人の注意が向くのかを、画像の低次の特徴量(輝度・色・エッジなど)から求めることが提案されている(非特許文献1参照)。
With this method, accurate gazing point information can be obtained, but there is a problem that the apparatus becomes expensive because a dedicated sensor is required to detect the direction of the line of sight.
On the other hand, in the field of cognitive science, research on human attention models has been carried out, and when an image is input, the low-order feature quantity (brightness / It has been proposed to obtain it from color, edge, etc. (see Non-Patent Document 1).

すなわち、脳(低次の視覚野)には、輝度・色・エッジ勾配に反応するニューロンが存在することが知られており、このニューロンの活動や情報の伝達経路をモデル化したものを利用することで、人の注意が向きやすい画像上の点を知ること、換言すれば、画像上の各点について人の注意の向き易さを表す指標(誘目性)を求めることができる。   In other words, it is known that there are neurons in the brain (low-order visual cortex) that respond to luminance, color, and edge gradient, and use the models of these neurons' activities and information transmission pathways. In this way, it is possible to know points on the image where people's attention is easily directed, in other words, an index (attractiveness) representing the ease of orientation of people's attention at each point on the image.

L. Itti and C. Koch, “Computational Modeling of Visual Attention,” Nature Reviews Neuroscience, Vol. 2(3), pp. 194-203, (2001)L. Itti and C. Koch, “Computational Modeling of Visual Attention,” Nature Reviews Neuroscience, Vol. 2 (3), pp. 194-203, (2001)

ところで、実際の運転において、ドライバの注意が向けられる位置(注視点)は、周囲の状況が同じであっても、その時のドライバの意図(どのような車両操作を行おうとしているか)等によって様々に変化する。   By the way, in actual driving, the position where the driver's attention is directed (gaze point) varies depending on the driver's intention (what kind of vehicle operation he is trying to perform), etc., even if the surrounding situation is the same To change.

例えば、図7は、車両の運転席から車両前方を撮像した画像の一例である。この画像に示されたシーン(T字路の手前)において、ドライバが直進しようとしている時は、自車の進行方向にあるオブジェクト、即ち、先行車(トラック)に関する情報の重要度が高く、自車の進行方向から外れた位置にあるオブジェクト、例えば、対向車に関する情報の重要度は相対的に低い。特に、左折(自車からみれば右折)しようとしている対向車や、その先にいる歩行者に関する情報の重要度は極めて低い。一方、ドライバが右折しようとしている時は、先行車より、対向車に関する情報の重要度の方が相対的に高くなり、左折しようとしている対向車についても、一定の注意を払う必要が生じる。更に、右折先に歩行者が存在すれば、その歩行者に関する情報の重要度も非常に高くなる。   For example, FIG. 7 is an example of an image obtained by imaging the front of the vehicle from the driver's seat of the vehicle. In the scene shown in this image (before the T-junction), when the driver is going straight ahead, the information on the object in the traveling direction of the vehicle, that is, the information on the preceding vehicle (truck) is high, The importance of information regarding an object at a position deviating from the traveling direction of the vehicle, for example, an oncoming vehicle, is relatively low. In particular, the importance of information regarding an oncoming vehicle that is about to turn left (turned to the right when viewed from the host vehicle) and pedestrians ahead is very low. On the other hand, when the driver is going to turn right, the importance of the information on the oncoming vehicle is relatively higher than that of the preceding vehicle, and it is necessary to pay certain attention to the oncoming vehicle that is about to turn left. Furthermore, if there is a pedestrian at the right turn destination, the importance of the information about the pedestrian will be very high.

ところが、従来手法では、こういったドライバを取り巻く状況(ドライバの意図を含む)が考慮されず、画像の特徴から一意に決まる情報だけで、ドライバの注視点を推定することになるため、その推定結果は、ドライバに提供する情報を選択する等の用途においては、十分に機能しない可能性があるという問題があった。   However, in the conventional method, the situation surrounding the driver (including the driver's intention) is not considered, and the driver's gaze point is estimated only by information uniquely determined from the image characteristics. As a result, there has been a problem in that it may not function sufficiently in applications such as selecting information to be provided to the driver.

本発明は、上記問題点を解決するために、ドライバを取り巻く状況に応じた注視点の推定を行う注視点推定装置を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide a gaze point estimation device that estimates a gaze point according to a situation surrounding a driver.

上記目的を達成するためになされた本発明の注視点推定装置では、運転行動に対するドライバの意図が反映される情報又はドライバの運転行動に影響を与える情報を特定情報として、モデル記憶手段には、特定情報が示す値と画像上でドライバの注意が向いている位置である注視点との関係を示した注意モデルが記憶されている。   In the gaze point estimation device of the present invention made to achieve the above object, information reflecting the driver's intention for driving behavior or information affecting the driving behavior of the driver as specific information, the model storage means, An attention model indicating a relationship between a value indicated by the specific information and a gaze point that is a position where the driver's attention is directed on the image is stored.

そして、情報取得手段が、特定情報を取得すると、注意分布生成手段が、モデル記憶手段に記憶された注意モデルに基づき、情報取得手段にて検出された特定情報から注視点を推定した注意分布を生成する。   Then, when the information acquisition unit acquires the specific information, the attention distribution generation unit calculates the attention distribution in which the gaze point is estimated from the specific information detected by the information acquisition unit based on the attention model stored in the model storage unit. Generate.

このように、本発明の注視点推定装置によれば、ドライバの意図を示す情報やドライバの運転行動に影響を与える情報が反映された注意分布を生成することができ、その注意分布から、ドライバの注意がどこに向けられているのかを、ドライバの視線方向を計測することなく知ることができる。   As described above, according to the gaze point estimation device of the present invention, it is possible to generate a caution distribution that reflects information indicating the driver's intention and information that affects the driving behavior of the driver. It is possible to know where the attention is directed without measuring the driver's gaze direction.

なお、モデル記憶手段に記憶される注意モデルは、特定情報に属する一又は複数の情報で構成された複数種類の生成情報群毎に用意されていIncidentally, the model attention model stored in the storage means, that are provided one or a plurality of a plurality of types that have been configured with the information for each product information group belonging to a specific information.

そして、注意分布生成手段は、注意モデル毎に、情報取得手段にて検出された特定情報から注視点を推定した個別分布を生成し、その個別分布を統合することで注意分布を生成す Then, careful distribution generating means, for each attention model to generate individual distribution estimating the gazing point from the specific information detected by the information acquisition means, that generates the attention distribution by integrating the individual distribution.

これにより、特定情報が全部揃っていなくても、取得可能な特定情報から得られた個別分布によって、注意分布を生成することができるため、車両がどのような特定情報を検出できるかによらず、本発明の注視点推定装置を適用することができ、汎用性の高い装置を提供することができる。 As a result, the attention distribution can be generated by the individual distribution obtained from the specific information that can be acquired even if the specific information is not all available, so regardless of what specific information the vehicle can detect. The gaze point estimation apparatus of the present invention can be applied, and a highly versatile apparatus can be provided.

なお、特定情報として、例えば、ドライバの操作に関する情報又は車両の挙動を示す情報のうち少なくとも一方を含む車両情報や、ドライバの生体反応に関する情報であるドライバ情報や、車両の走行環境に関する情報である環境情報を用いることが考えられる。   The specific information includes, for example, vehicle information including at least one of information related to driver operation or information indicating vehicle behavior, driver information that is information related to a driver's biological reaction, and information related to a driving environment of the vehicle. It is conceivable to use environmental information.

但し、ドライバの操作には、ドライバの意図が反映されているため、ドライバの操作に関する車両情報が、ドライバの意図が反映された情報に相当する。また、車両の挙動に関する車両情報や、環境情報、生体情報がドライバの運転行動に影響を与える情報に相当する。なお、車両の挙動に関する車両情報の一部や生体情報の一部についても、ドライバの意図との相関関係が明らかである場合は、ドライバの意図が反映された情報として扱ってもよい。   However, since the driver's operation reflects the driver's intention, the vehicle information related to the driver's operation corresponds to the information reflecting the driver's intention. In addition, vehicle information related to the behavior of the vehicle, environmental information, and biological information correspond to information that affects the driving behavior of the driver. Note that part of the vehicle information and part of the biological information related to the behavior of the vehicle may be treated as information reflecting the driver's intention when the correlation with the driver's intention is clear.

また、本発明の注視点推定装置において、環境情報の少なくとも一部は、路車間通信又は車車間通信によって取得してもよい。具体的には、渋滞情報や、先行車や対向車の挙動に関する情報等、車両に搭載されている各種センサからは正確に把握できない情報を取得することが考えられる。   In the gaze point estimation device of the present invention, at least a part of the environmental information may be acquired by road-to-vehicle communication or vehicle-to-vehicle communication. Specifically, it is conceivable to acquire information that cannot be accurately grasped from various sensors mounted on the vehicle, such as traffic jam information and information on the behavior of preceding vehicles and oncoming vehicles.

ところで、本発明の注視点推定算出装置は、更に、画像取得手段が、ドライバの視界に対応する画像を取得し、オブジェクト抽出手段が、画像取得手段が取得した画像からオブジェクトを抽出し、重要度設定手段が、オブジェクト抽出手段にて抽出されたオブジェクトの重要度を、予め設定されたルールに従って設定し、注意分布生成手段は、情報提供手段は、注意量に加え、重要度設定手段にて設定された重要度に従って、提供する情報を制御するように構成されていてもよい。   By the way, in the gaze point estimation calculation device of the present invention, the image acquisition unit further acquires an image corresponding to the driver's field of view, the object extraction unit extracts an object from the image acquired by the image acquisition unit, The setting means sets the importance of the object extracted by the object extracting means according to a preset rule, the attention distribution generating means sets the information providing means by the importance setting means in addition to the attention amount It may be configured to control information to be provided according to the degree of importance.

このように構成された本発明の注視点推定装置によれば、ドライバの注意が向けられている位置に関する情報だけでなく、オブジェクトの重要度に関する情報も利用できるため、オブジェクトに関する情報の提供を、状況に応じてより的確に制御することができる。   According to the gaze point estimation device of the present invention configured as described above, not only information on the position where the driver's attention is directed but also information on the importance of the object can be used. More accurate control can be performed according to the situation.

なお、重要度設定手段が重要度の設定に使用するルールには、情報取得手段にて取得される特定情報から特定される状況を条件部とするIF−THENルールが含まれていることが望ましい。 Note that the rules used by the importance level setting means for setting the importance level preferably include an IF-THEN rule whose condition is a condition specified from the specific information acquired by the information acquisition means. .

即ち、オブジェクトの重要度は、状況に応じて変化するものであるため、このように設定された重要度を利用することにより、提供情報の制御をより的確なものとすることができる。   In other words, since the importance level of an object changes depending on the situation, the provided information can be controlled more accurately by using the importance level set in this way.

また、重要度設定手段が重要度の設定に使用するルールには、オブジェクト抽出手段にて抽出されたオブジェクトの位置またはオブジェクト同士の相関関係を条件部とするIF−THENルールが含まれていることが望ましい。 Further, the rules used by the importance setting means for setting the importance include IF-THEN rules that use the position of the object extracted by the object extraction means or the correlation between objects as a condition part . Is desirable.

つまり、ある種のオブジェクトが同時に存在する場合や、オブジェクト同士が特定の位置関係にある場合など、オブジェクト間の関係性の中で、そのオブジェクトの重要度が変化する場合がある。従って、このような情報を使用することによって、提供情報の制御をより的確なものとすることができる。   That is, the importance of an object may change in the relationship between objects, such as when a certain type of object exists at the same time or when the objects are in a specific positional relationship. Therefore, by using such information, it is possible to more accurately control the provided information.

運転支援システムの概要、および車載装置の全体構成を示すブロック図。The block diagram which shows the outline | summary of a driving assistance system, and the whole structure of a vehicle-mounted apparatus. 車載装置の制御部が実行する情報提供処理の内容を示すフローチャート。The flowchart which shows the content of the information provision process which the control part of a vehicle-mounted apparatus performs. 注意分布の生成する際の処理のイメージを示した説明図。Explanatory drawing which showed the image of the process at the time of generating attention distribution. 情報を提示するか否か等の判断時に使用する提示制御テーブルの内容を例示した表。The table | surface which illustrated the content of the presentation control table used at the time of judgment whether information is shown, etc. 注意モデルを学習する際に使用する学習用車載装置の構成を示すブロック図。The block diagram which shows the structure of the vehicle-mounted apparatus for learning used when learning an attention model. 本発明の手法による効果を示すグラフ。The graph which shows the effect by the method of this invention. 前方画像を例示した図。The figure which illustrated the front picture. 本発明の手法による効果を示すグラフ。The graph which shows the effect by the method of this invention.

以下に本発明の実施形態を図面と共に説明する。
[全体構成]
図1は、本発明が適用された運転支援システム1の概要を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
[overall structure]
FIG. 1 is a block diagram showing an outline of a driving support system 1 to which the present invention is applied.

図1に示すように、運転支援システム1は、車両に搭載され、ドライバに情報提供することによって運転支援を行う車載装置2と、車両の走行環境に関する各種情報をVICS(登録商標)の路側機や携帯電話の基地局等を含む無線通信用の通信インフラ3を介して、車両(車載装置2)に提供する情報サーバ4とで構成されている。 As shown in FIG. 1, a driving support system 1 is mounted on a vehicle and provides on-board device 2 that provides driving assistance by providing information to a driver, and various information relating to the traveling environment of the vehicle is transmitted to a VICS (registered trademark) roadside machine. And an information server 4 provided to a vehicle (vehicle-mounted device 2) via a communication infrastructure 3 for wireless communication including a base station of a mobile phone and the like.

そして、車載装置2は、通信インフラ3介した情報サーバ4との無線通信、即ち路車間通信だけでなく、車載装置2同士が直接行う無線通信、即ち車車間通信を行うように構成されている。   The in-vehicle device 2 is configured to perform not only wireless communication with the information server 4 via the communication infrastructure 3, that is, road-to-vehicle communication, but also wireless communication directly performed between the in-vehicle devices 2, that is, vehicle-to-vehicle communication. .

なお、路車間通信によって車載装置2が取得する情報には、例えば、渋滞情報、信号の色や待ち時間、天候(トンネルの出口の雨風情報など)、落下物の有無、路面状態、交通規制等の情報等が含まれ、車車間通信によって車載装置2同士が交換する情報には、例えば、車速、加速度、操舵角、およびそれらの情報から予測される車両の運転行動など(即ち、後述する車両情報の一部)が含まれている。   Information acquired by the in-vehicle device 2 through road-to-vehicle communication includes, for example, traffic jam information, signal color and waiting time, weather (such as rain and wind information at the exit of a tunnel), presence of falling objects, road surface conditions, traffic regulations, etc. The information exchanged between the in-vehicle devices 2 by inter-vehicle communication includes, for example, vehicle speed, acceleration, steering angle, and driving behavior of the vehicle predicted from the information (that is, a vehicle to be described later) Part of the information).

[車載装置]
車載装置2は、車両の挙動,ドライバによる車両操作,各種車載機器の作動状態などを検出するための各種センサからなる車両センサ群21と、ドライバの身体的変化(生体反応)を検出するための各種センサからなる生体センサ群22と、車両の周囲の走行環境を検出するための各種センサからなる環境センサ群23と、GPS衛星より送信されるGPS信号を受信して、車両の位置(緯度,経度)や進行方向を検出するGPS受信機24とを備えている。
[In-vehicle device]
The in-vehicle device 2 detects a vehicle sensor group 21 including various sensors for detecting vehicle behavior, vehicle operation by a driver, operating states of various in-vehicle devices, and the like, and detecting a physical change (biological reaction) of the driver. A biosensor group 22 composed of various sensors, an environment sensor group 23 composed of various sensors for detecting the traveling environment around the vehicle, and a GPS signal transmitted from a GPS satellite are received, and the position of the vehicle (latitude, Longitude) and a GPS receiver 24 for detecting the traveling direction.

また、車載装置2は、通信インフラ3を利用した路車間通信、車両同士の車車間通信を行う無線通信部25と、ドライバに対して、視覚,聴覚,触覚を利用した情報提示を行う情報提示部26と、車載装置2に対する指令を入力するための各種入力装置からなる指令入力部27と、地図データが記憶された地図データベース28と、CPU,ROM,RAM,I/O等からなる周知のマイクロコンピュータを中心にして構成され、各種処理を実行する制御部29とを備えている。   The in-vehicle device 2 also provides information presentation that uses visual, auditory, and tactile information to the driver and the wireless communication unit 25 that performs road-to-vehicle communication using the communication infrastructure 3 and vehicle-to-vehicle communication between vehicles. Unit 26, command input unit 27 including various input devices for inputting commands to in-vehicle device 2, map database 28 storing map data, CPU, ROM, RAM, I / O, and the like. A control unit 29 that is configured around a microcomputer and executes various processes is provided.

[センサ群]
車両センサ群21の検出対象は、車体の速度,加速度,ヨーレート等の車両の挙動の他、アクセルペダル,ブレーキペダル,ステアリング等の操作量(アクセル開度率,ブレーキM/C圧,操舵角等)や、ウインカ,ワイパ,ヘッドライト,シートベルトの作動状態、走行モードの設定(スポーツモードやオートクルーズ機能がある場合)等である。
[Sensor group]
The detection target of the vehicle sensor group 21 includes vehicle behavior such as vehicle body speed, acceleration, and yaw rate, as well as operation amounts of the accelerator pedal, brake pedal, steering, etc. (accelerator opening rate, brake M / C pressure, steering angle, etc.) ), Turn signal, wiper, headlight, seat belt operating state, travel mode setting (when there is a sport mode or an auto cruise function), and the like.

生体センサ群22の検出対象は、視線や顔向き,心拍,血圧,発汗等である。また、 環境センサ群23は、レーザレーダやミリ波レーダ、車両の前方や後方を撮影する各種カメラ、ソナー等の近距離センサ等からなり、その検出対象は、各種オブジェクト(車両、路側物、歩行者、路面標識を含む各種標識、その他の障害物)との距離や相対速度、オブジェクトの大きさ、画像における画素毎の輝度,色、画像中のエッジ分等である。   The detection targets of the biometric sensor group 22 are line of sight, face orientation, heart rate, blood pressure, sweating, and the like. The environmental sensor group 23 includes a laser radar, a millimeter wave radar, various cameras for photographing the front and rear of the vehicle, a short-range sensor such as sonar, and the like. The detection target is various objects (vehicle, roadside object, walking). Distance, relative speed, object size, luminance and color for each pixel in the image, edge portion in the image, and the like.

なお、これらセンサ群21〜23を構成する各センサは車両の各部に配置されており、制御部29は、図示しない車載LAN(CANやLIN)を介して各センサでの検出結果を取得するようにされている。また、センサ群21〜23を構成する個々のセンサは、必ずしも全ての車両が全種類を備えている必要はなく、車両毎に部分的に異なっていてもよい。但し、環境センサ群23のうち、ドライバの視界に対応する画像を取得するために設けられる車両の前方を撮影するカメラは必須であり、以下では、このカメラによって撮影された画像を「前方画像」と称する。   In addition, each sensor which comprises these sensor groups 21-23 is arrange | positioned at each part of a vehicle, and the control part 29 seems to acquire the detection result in each sensor via vehicle-mounted LAN (CAN and LIN) which is not shown in figure. Has been. Further, the individual sensors constituting the sensor groups 21 to 23 are not necessarily required to have all types of all vehicles, and may be partially different for each vehicle. However, in the environment sensor group 23, a camera that captures the front of the vehicle provided to acquire an image corresponding to the driver's field of view is essential. Hereinafter, an image captured by the camera is referred to as a “front image”. Called.

[情報提示部]
情報提示部26は、各種画像を表示し視覚的に情報を提示するためのディスプレイ、警報音や音声を出力し聴覚的に情報を提示するためのスピーカ、ステアリングやシート等のドライバと接触する位置に埋め込まれ、振動を発生させることにより触覚的に情報を提示するための振動発生器等からなる。
[Information presentation section]
The information presenting unit 26 displays various images and visually presents information, a speaker for outputting an alarm sound and sound and presents information audibly, and a position in contact with a driver such as a steering wheel or a seat And a vibration generator for tactilely presenting information by generating vibration.

[制御部]
制御部29は、地図データベース28に格納された地図データ、GPS受信機24から得られる位置データ等を用い、情報提示部26を介して、車両位置周辺の地図の表示や設定経路に関する案内表示や音声ガイダンス等を行ういわゆるナビゲーション機能を実現するための処理を実行する。つまり、車載装置2は、基本的には、周知のナビゲーション装置として機能するように構成されている。
[Control unit]
The control unit 29 uses the map data stored in the map database 28, the position data obtained from the GPS receiver 24, and the like, via the information presentation unit 26, displays a map around the vehicle position, a guidance display regarding the set route, Processing for realizing a so-called navigation function for performing voice guidance or the like is executed. That is, the in-vehicle device 2 is basically configured to function as a known navigation device.

また、制御部29は、センサ群等21〜24や無線通信部25を介して各種情報を取得すると共に、取得した情報を更に加工(画像処理や各種演算,統計処理等を実行)することによって各種情報を生成し、これら取得,生成した各種情報を、ドライバを取り巻く状況を特定するための特定情報として記録する特定情報記録処理を実行する。   The control unit 29 acquires various information via the sensor groups 21 to 24 and the wireless communication unit 25, and further processes the acquired information (executes image processing, various calculations, statistical processing, and the like). Various information is generated, and specific information recording processing is performed for recording the acquired and generated various information as specific information for specifying a situation surrounding the driver.

ここで、加工することによって得られる情報として、具体的には、それら情報の微分値,積分値,各種平均値の他、生体センサ群22からの情報等から生成されるドライバの生理的状態(例えば、漫然,集中,脇見,眠気,疲労,焦り)を表す情報や、環境センサ群23からの情報等から生成される、オブジェクトの位置や種類(例えば、車両,歩行者,標識,落下物,横断歩道,歩道)、オブジェクトが車両である場合に特有な情報(先行車や対向車の有無,車間距離,相対速度,相対加速度)、道路形状(曲率,勾配,交差点)、路面状態、車線数、道路幅、オブジェクトが標識である場合にその内容(制限速度、進入禁止、一方通行)などの情報がある。なお、環境センサ群23からの情報を加工することによって得られる情報は、無線通信部25を介して取得する情報と一部重複していてもよい。また、環境情報には、GPS受信機24や地図データベース28から得られる情報を含めてもよい。   Here, as the information obtained by processing, specifically, the physiological state of the driver generated from the information from the biosensor group 22 in addition to the differential value, the integral value, and various average values of the information ( For example, the position and type of an object (for example, a vehicle, a pedestrian, a sign, a fallen object, etc.) that is generated from information representing ill-mannered, concentrated, looking aside, drowsiness, fatigue, impatience, etc. (Pedestrian crossings, sidewalks), information specific to the object being a vehicle (presence / absence of preceding or oncoming vehicles, distance between vehicles, relative speed, relative acceleration), road shape (curvature, gradient, intersection), road surface condition, number of lanes When the object is a sign, there is information such as the content (speed limit, entry prohibition, one-way). Information obtained by processing information from the environmental sensor group 23 may partially overlap with information acquired via the wireless communication unit 25. The environment information may include information obtained from the GPS receiver 24 and the map database 28.

以下では、車両センサ群21から取得した各種情報、およびそれらの情報を加工することで得られた情報を「車両情報」と称し、生体センサ群22から取得した各種情報、およびそれらの情報を加工することで得られた情報を「ドライバ情報」と称し、環境センサ群23(GPS受信機24や地図データベース28を含む)から取得した各種情報、およびそれらの情報を加工することで得られた情報を「環境情報」と称し、無線通信部25を介して取得した各種情報を、およびそれらの情報を加工することで得られた情報を「通信情報」と称する。   Hereinafter, various information acquired from the vehicle sensor group 21 and information obtained by processing the information are referred to as “vehicle information”, and various information acquired from the biological sensor group 22 and the information are processed. The information obtained by doing this is referred to as “driver information”, and various information obtained from the environmental sensor group 23 (including the GPS receiver 24 and the map database 28) and information obtained by processing the information. Is referred to as “environment information”, various information acquired through the wireless communication unit 25, and information obtained by processing the information is referred to as “communication information”.

更に、特定情報(車両情報,ドライバ情報,環境情報,通信情報)のうち、ドライバの操作に関する車両情報を、運転行動に対するドライバの意図が反映された情報であるものとして「意図反映情報」とも称し、それ以外の情報を、ドライバの運転行動に影響を与える情報であるものとして「行動影響情報」とも称する。   Further, among the specific information (vehicle information, driver information, environmental information, communication information), the vehicle information related to the driver's operation is also referred to as “intention reflecting information” as information reflecting the driver's intention for driving behavior. The other information is also referred to as “behavior influence information” as information that affects the driving behavior of the driver.

更に、制御部29は、特定情報記録処理によって記録された特定情報に基づき、ドライバの注意が向いている位置を推定し、その推定結果に基づいて、ドライバに対する情報提供を行う情報提供処理を実行する。   Further, the control unit 29 estimates a position where the driver is paying attention based on the specific information recorded by the specific information recording process, and executes an information providing process for providing information to the driver based on the estimation result. To do.

また、制御部29を構成する不揮発性のメモリ(例えば、ROM)には、情報提供処理で使用される注意モデルが格納されている。この注意モデルとは、特定情報を、該特定情報に属する一又は複数の情報で構成された複数種類の生成情報群に分割し、その生成情報群毎に、該生成情報群の値とドライバの注意が向く位置(以下「注視点」と称する)との関係を示したものであり、事前の学習によって生成される。   In addition, a caution model used in the information providing process is stored in a non-volatile memory (for example, ROM) constituting the control unit 29. This attention model divides specific information into a plurality of types of generation information groups composed of one or a plurality of information belonging to the specific information, and for each generation information group, the value of the generation information group and the driver information It shows the relationship with the position where attention is directed (hereinafter referred to as “gaze point”), and is generated by prior learning.

なお、生成情報群は、特定情報の分類(車両情報,環境情報,ドライバ情報,通信情報)を単位としてもよいし、特定情報を関連性の強い情報毎にグループ化したものを単位としてもよいし、個別の特定情報を単位としてもよい。但し、本実施形態では、特定情報の分類毎に注意モデルが用意されている。   The generated information group may be based on classification of specific information (vehicle information, environmental information, driver information, communication information), or may be a unit obtained by grouping specific information for each highly relevant information. However, individual specific information may be used as a unit. However, in this embodiment, a caution model is prepared for each classification of specific information.

また、注意モデルは、具体的には、生成情報群に属する情報を入力として、前方画像を、決められた領域(例えば画素)毎に、注視点であるか否かを0,1の二値によって分類す識別器や、注視点であるか否かを0〜1の間の連続値によって確率的に推定する推定器等によって実現される。   Specifically, the attention model is input with information belonging to the generation information group, and whether the forward image is a gazing point for each predetermined area (for example, pixel) is binary of 0 and 1. Is realized by a classifier that classifies according to the above, an estimator that probabilistically estimates whether or not it is a gazing point by a continuous value between 0 and 1.

なお、注意モデルの形式(上述の識別器や推定器)は、全ての生成情報群について同じでもよいが、生成情報群毎に異なっていてもよい。
[情報提供処理]
ここで、制御部29が実行する情報提供処理を、図2に示すフローチャートに沿って説明する。
Note that the format of the attention model (the above-described discriminator and estimator) may be the same for all the generation information groups, but may be different for each generation information group.
[Information provision processing]
Here, the information provision process which the control part 29 performs is demonstrated along the flowchart shown in FIG.

本処理は、上述した特定情報取得処理が実行される毎、即ち、特定情報がRAM等に記録される毎に起動する。
本処理が起動すると、S110では、前方画像の画像情報(輝度、色、エッジ)に基づく注意分布を作成する。ここで作成される注意分布は、ドライバが注意を向け易い位置を示すものであり、予め設定された規則に従って、画素毎に画像情報に応じた分布値を設定することで生成する。つまり、S110で作成される注意分布は、注意モデルを用いることなく、画像から得られる情報のみを用いて作成される。
S120では、特定情報取得処理により記録された特定情報のうち、環境情報に基づき、前方画像中に存在するオブジェクトを抽出する。なお、抽出対象となるオブジェクトは、例えば、各種車両,歩行者,標識(路面標識を含む)信号機,道路上の障害物等、予め定められたものである。
This process is started every time the above-described specific information acquisition process is executed, that is, every time the specific information is recorded in the RAM or the like.
When this process is activated, an attention distribution based on image information (luminance, color, edge) of the front image is created in S110. The attention distribution created here indicates a position where the driver can easily pay attention, and is generated by setting a distribution value corresponding to the image information for each pixel according to a preset rule. That is, the attention distribution created in S110 is created using only the information obtained from the image without using the attention model.
In S120, an object existing in the front image is extracted based on the environment information from the specific information recorded by the specific information acquisition process. The objects to be extracted are predetermined such as various vehicles, pedestrians, signs (including road signs) traffic lights, obstacles on the road, and the like.

S130では、S120にてオブジェクトが抽出されたか否かを判断し、オブジェクトが一つも抽出されていなければ、S150に進み、一つでも抽出されていれば、S140に進む。   In S130, it is determined whether or not an object is extracted in S120. If no object is extracted, the process proceeds to S150, and if any object is extracted, the process proceeds to S140.

S140では、抽出したオブジェクトに基づく注意分布を作成する。ここで作成される注意分布は、オブジェクトが存在する位置を示すものであり、オブジェクトが検出された領域の分布値を一律に高く設定してもよいし、オブジェクトの位置,大きさ,種類等によって分布値を変化(例えば、自車両に近いほど高くする等)させてもよい。   In S140, an attention distribution based on the extracted object is created. The attention distribution created here indicates the position where the object exists, and the distribution value of the area where the object is detected may be set uniformly high, or depending on the position, size, type, etc. of the object The distribution value may be changed (for example, higher as the vehicle is closer).

S140で作成される注意分布は、S110で作成された注意分布と同様に、ドライバが注意を向け易い位置を示すものであり、予め設定された規則に従って、画素毎に画像情報に応じた分布値を設定することで生成する。つまり、S140で作成される注意分布も、注意モデルを用いることなく、画像から得られる情報のみを用いて作成される。但し、オブジェクトに基づく注意分布については、オブジェクトの位置,大きさ,色等を入力とする注意モデルを用いて生成してもよい。   The attention distribution created in S140 indicates a position where the driver can easily pay attention, similarly to the attention distribution created in S110, and a distribution value corresponding to image information for each pixel according to a preset rule. Generate by setting. That is, the attention distribution created in S140 is also created using only the information obtained from the image without using the attention model. However, the attention distribution based on the object may be generated using a attention model that receives the position, size, color, and the like of the object.

続くS150では、特定情報取得処理により記録された特定情報の中に車両情報が存在するか否かを判断し、存在しない場合はそのままS170に進み、存在する場合はS160にて、車両情報に基づく注意分布を、注意モデルを用いて算出してS170に進む。 In subsequent S150, it is determined whether or not the vehicle information exists in the specific information recorded by the specific information acquisition process. If not, the process proceeds to S170 as it is, and if it exists, based on the vehicle information in S160. The attention distribution is calculated using the attention model , and the process proceeds to S170.

S170では、特定情報取得処理により記録された特定情報の中に環境情報が存在する
か否かを判断し、存在しない場合はそのままS190に進み、存在する場合はS180にて、環境情報に基づく注意分布を、注意モデルを用いて算出してS190に進む。
In S170, it is determined whether or not environmental information exists in the specific information recorded by the specific information acquisition process. If there is no environmental information, the process proceeds directly to S190. The distribution is calculated using the attention model , and the process proceeds to S190.

S190では、特定情報取得処理により記録された特定情報の中にドライバ情報が存在するか否かを判断し、存在しない場合はそのままS210に進み、存在する場合はS200にて、ドライバ情報に基づく注意分布を、注意モデルを用いて算出してS210に進む。 In S190, it is determined whether or not the driver information exists in the specific information recorded by the specific information acquisition process. If it does not exist, the process proceeds to S210 as it is, and if it exists, the notice based on the driver information is determined in S200. The distribution is calculated using the attention model , and the process proceeds to S210.

S210では、特定情報取得処理により記録された特定情報の中に通信情報が存在するか否かを判断し、存在しない場合はそのままS230に進み、存在する場合はS220にて、通信情報に基づく注意分布を、注意モデルを用いて算出してS230に進む。 In S210, it is determined whether or not the communication information exists in the specific information recorded by the specific information acquisition process. If there is no communication information, the process proceeds to S230 as it is. The distribution is calculated using the attention model , and the process proceeds to S230.

なお、車両情報に基づく注意分布の生成(S160)は、車両情報を入力とする注意モデル(識別器または推定器)を用いて、注視点であるか否かの判定、あるいは注視点である確率はどの程度であるかの推定を、その判定や推定の対象となる領域毎に算出することによって行われる。ここでは、各車両情報について注意分布を生成し、生成された注意分布を加算/平均する等して統合する。このため、注意分布を生成する際に用いる車両情報は、注意モデルを生成する際に用いた車両情報が必ずしも全て揃っている必要はなく、車載装置2を搭載する個々の車両において、検出や生成が可能な車両情報だけを用いて車両情報に基づく注意分布を算出すればよい。このことは、環境情報に基づく注意分布の生成(S180)、ドライバ情報に基づく注意分布の生成(S200)、通信情報に基づく注意分布の生成(S220)でも同様である。 Note that the generation of the attention distribution based on the vehicle information (S160) uses a attention model (identifier or estimator) with the vehicle information as an input to determine whether or not it is a gazing point, or the probability of being a gazing point. Is estimated by calculating for each area to be determined or estimated. Here, a caution distribution is generated for each vehicle information, and the generated caution distribution is integrated / added / averaged. For this reason, the vehicle information used when generating the attention distribution does not necessarily have all the vehicle information used when generating the attention model. It is only necessary to calculate the attention distribution based on the vehicle information using only the vehicle information that can be used. The same applies to generation of an attention distribution based on environment information (S180), generation of an attention distribution based on driver information (S200), and generation of an attention distribution based on communication information (S220).

S230では、先のS130,S140,S160,S180,S200,S220で生成された注意分布(以下では「個別分布」とも称する)を統合する。この場合、全て同じ重みで統合(単純加算や単純平均)してもよいし、個々に重み付けして統合(重み付け加算や重み付け平均)してもよい。以下では、本ステップで生成される注意分布を「統合分布」と称する。   In S230, the attention distribution (hereinafter also referred to as “individual distribution”) generated in S130, S140, S160, S180, S200, and S220 is integrated. In this case, all may be integrated (simple addition or simple average) with the same weight, or may be individually weighted and integrated (weighted addition or weighted average). Hereinafter, the attention distribution generated in this step is referred to as “integrated distribution”.

なお、図3は、S130〜S230の処理、即ち、特定情報に基づいて複数の個別分布を生成し、これらを統合することで最終的な統合分布を生成する処理のイメージを示した説明図である。   FIG. 3 is an explanatory diagram showing an image of the processes of S130 to S230, that is, a process of generating a plurality of individual distributions based on the specific information and integrating these to generate a final integrated distribution. is there.

続く240では、S110で抽出されたオブジェクトのそれぞれについて、そのオブジェクトに対してドライバの注意がどの程度向いているかの推定結果を示す注意量を、S230にて求められた統合分布を用いて求める。具体的には、統合分布上でオブジェクトが存在する領域の分布値に従って、注意量を大,中,小のいずれかに設定する。即ち、分布値が第1閾値以上であれば注意量は大、第1閾値より小さな値に設定された第2閾値以下であれば注意量は小、第1閾値より小さく第2閾値より大きければ注意量は中となる。   In subsequent 240, for each of the objects extracted in S110, an attention amount indicating an estimation result of how much the driver's attention is directed to the object is obtained using the integrated distribution obtained in S230. Specifically, the attention amount is set to either large, medium, or small according to the distribution value of the area where the object exists on the integrated distribution. That is, if the distribution value is equal to or greater than the first threshold, the attention amount is large. If the distribution value is equal to or smaller than the second threshold set to a value smaller than the first threshold, the attention amount is small. If the distribution amount is smaller than the first threshold and greater than the second threshold. The amount of attention is medium.

なお、オブジェクトが存在する領域の分布値としては、その領域に属する全ての分布値の和を用いてもよいし、その領域に属する分布値の平均値を用いてもよい。そして、このように算出された領域の分布値を、予め設定された閾値と比較することで、注意量を設定する。   As the distribution value of the area where the object exists, the sum of all distribution values belonging to the area may be used, or the average value of the distribution values belonging to the area may be used. Then, the attention value is set by comparing the distribution value of the area calculated in this way with a preset threshold value.

続くS250では、S110にて抽出されたオブジェクトのそれぞれについて、予め定められたルールに従って重要度を大,中,小のいずれかに設定する。
ここでのルールは、特定情報から特定される状況やオブジェクトの位置またはオブジェクト同士の相関関係、あるいはそれらの組合せを条件部とするIF−THENルールが用いられる。
In subsequent S250, the importance is set to one of large, medium, and small according to a predetermined rule for each of the objects extracted in S110.
As the rule here, an IF-THEN rule that uses a situation specified from specific information, a position of an object, a correlation between objects, or a combination thereof as a condition part is used.

具体的には、例えば、車両情報の一つである「ウインカの状態」が「右折」に設定されていれば(条件部)、画面の右側下方に位置するオブジェクトの重要度を大に設定する(帰結部)というルール、「(信号機や道路標識と推定される)オブジェクトまでの距離」が「所定値」以下であれば(条件部)、そのオブジェクトの重要度を大に設定する(帰結部)というルール、「横断歩道であると推定されるオブジェクト」が存在すれば(条件部)、そのオブジェクト上、および両端部付近に位置する歩行者であると推定されるオブジェクトの重要度を大に設定する(帰結部)というルール等が考えられる。なお、ルールの設定については、相関演算やApriori アルゴリズム等を利用することが考えられる。   Specifically, for example, if the “turner state” that is one of the vehicle information is set to “turn right” (condition part), the importance level of the object located on the lower right side of the screen is set to be large. If the rule (consequence part), “distance to object (presumed to be a traffic signal or road sign)” is less than or equal to “predetermined value” (condition part), the importance of the object is set to a large value (consequence part) ), “Object presumed to be a pedestrian crossing” (condition part), the importance of an object presumed to be a pedestrian located on that object and near both ends is greatly increased. A rule of setting (consecutive part) can be considered. Regarding rule setting, it is conceivable to use correlation calculation, Apriori algorithm, or the like.

続くS260では、S240で設定されたオブジェクトの注意量、S250で設定されたオブジェクトの重要度に基づき、そのオブジェクトに関する情報をドライバに提供するか否か、および、提示するのであればどのような形式で提示するかを判断し、その判断結果に従って情報提供を行って、本処理を終了する。   In subsequent S260, based on the attention amount of the object set in S240 and the importance level of the object set in S250, whether or not to provide the driver with information on the object, and any format to be presented The information is provided according to the determination result, and this processing is terminated.

ここで、図4は、S260での判定を行う際に用いる提示制御テーブルの内容を示す説明図である。図4中、○印は、情報を提示する、△印はドライバの状態によって提示/非提示を決める、×は提示しないを示すものである。つまり、オブジェクトの重要度が大の場合は、注意量によらず情報を提示し、重要度が中の場合は、注意量が中小であれば、情報を提示し、注意量が大であれば、ドライバの状態によって提示/非提示を決める。更に、重要度が小である場合は、注意量が小であれば情報を提示し、注意量が中であればドライバの状態によって提示/非提示を決め、注意量が大であれば提示しない。   Here, FIG. 4 is an explanatory diagram showing the contents of the presentation control table used when the determination in S260 is performed. In FIG. 4, ◯ indicates that information is presented, Δ indicates that presentation / non-presentation is determined according to the driver state, and x indicates that information is not presented. In other words, if the importance of an object is large, information is presented regardless of the amount of attention. If the importance is medium, information is presented if the attention amount is medium or small, and if the attention amount is large. The presentation / non-presentation is determined according to the driver status. Furthermore, when the degree of importance is small, information is presented if the attention amount is small, presentation / non-presentation is determined according to the driver state if the attention amount is medium, and not presented if the attention amount is large. .

なお、ドライバの状態とは、生体情報や車両情報等から求められる漫然運転度、覚醒度、運転熟練度などであり、例えば、漫然運転度が高いか、覚醒度が低いか、運転熟練度が低い場合には、情報を提示するように制御する。   Note that the driver's state refers to an abrupt driving degree, an arousal degree, a driving skill level, etc. required from biological information, vehicle information, etc., for example, whether the driving degree is absurd, the arousal level is low, or the driving skill level is When it is low, control is performed to present information.

また、情報の提示の仕方としては、重要度が大であれば触覚(振動),聴覚(音声),視覚(表示)を全て使った提示を行い、重要度が中であれば聴覚(音声),視覚(表示)を使った提示を行い、重要度が小であれば視覚(表示)のみを使った提示を行う。   In addition, as a method of presenting information, if the importance level is large, presentation using all of tactile sensation (vibration), hearing (sound), and vision (display) is performed, and if the importance level is medium, hearing (sound) , Presentation using visual (display) is performed, and if importance is small, presentation using only visual (display) is performed.

なお、上述の制御では、重要度で情報の提示の仕方を制御しているが、注意量が大であれば視覚のみを使って提示を行い、注意量が中であれば聴覚,視覚を使った提示を行い、注意量が小であれば触覚,聴覚,視覚の全てを使った提示を行うように制御してもよい。   In the above-mentioned control, the method of presenting information is controlled by importance. However, if the amount of attention is large, presentation is performed using only visual information. If the amount of attention is medium, auditory and visual are used. If the attention amount is small, the presentation may be performed using all of tactile sensation, hearing, and vision.

更に、情報の提示の仕方を、図4中の○印、△印、×印と対応付けて、即ち、重要度と注意量の両方に基づいて制御してもよい。
[注意モデル]
次に、事前に行われる注意モデルの学習について説明する。
Furthermore, the method of presenting information may be controlled in association with the marks “◯”, “Δ”, and “X” in FIG. 4, that is, based on both importance and attention amount.
[Caution model]
Next, attention model learning performed in advance will be described.

なお、注意モデルは、車両において学習してもよいが、本実施形態では、予め学習されたものを用いている。そして、注意モデルを学習する際には、多くのドライバについて収集したデータを利用する。   Note that the caution model may be learned in the vehicle, but in the present embodiment, a caution model is used. When learning the attention model, data collected for many drivers is used.

データの収集には、図5に示すように、上述した車載装置2に、ドライバの視線を検出する視線検出装置30を加えた学習用車載装置5を搭載した車両、又は学習に必要な情報を収集可能なドライブシミュレータを使用する。但し、学習用車載装置5では、車載装置2とは異なり、情報提供のための構成(情報提示部26)が省略されていてもよい。   For data collection, as shown in FIG. 5, a vehicle equipped with the in-vehicle device for learning 5 in which the gaze detection device 30 for detecting the driver's gaze is added to the in-vehicle device 2 described above, or information necessary for learning is collected. Use a collectable drive simulator. However, in the in-vehicle device 5 for learning, unlike the in-vehicle device 2, the configuration for providing information (information presentation unit 26) may be omitted.

[学習処理]
学習処理では、まず、学習用車載装置を搭載した車両を複数の被験者に運転させるか、複数の被験者にドライブシミュレータを使用させることによって、被験者の注視点(視線検出装置30での検出結果)と特定情報(車両情報,環境情報,ドライバ情報,通信情報)とを取得する。
[Learning process]
In the learning process, first, a plurality of subjects drive a vehicle equipped with the on-vehicle device for learning or cause a plurality of subjects to use a drive simulator, and thereby the subject's gazing point (detection result by the line-of-sight detection device 30) and Specific information (vehicle information, environmental information, driver information, communication information) is acquired.

そして、特定情報を、該特定情報に属する一又は複数の情報で構成された複数種類の生成情報群に分割し、その生成情報群毎に、該生成情報群の値と注視点との関係を学習する。この学習には、サポートベクターマシン(SVM)や混合ガウス分布(GMM)などの統計的手法を利用する。   Then, the specific information is divided into a plurality of types of generated information groups composed of one or a plurality of information belonging to the specific information, and the relationship between the value of the generated information group and the gaze point is determined for each generated information group. learn. This learning uses a statistical method such as a support vector machine (SVM) or a mixed Gaussian distribution (GMM).

なお、生成情報群は、特定情報の分類(車両情報,環境情報,ドライバ情報,通信情報)を単位としてもよいし、特定情報を関連性の強い情報毎にグループ化したものを単位としてもよいし、個別の特定情報を単位としてもよい。   The generated information group may be based on classification of specific information (vehicle information, environmental information, driver information, communication information), or may be a unit obtained by grouping specific information for each highly relevant information. However, individual specific information may be used as a unit.

そして、SVMを利用した学習では、被験者の注視点を教師データとして、例えば、撮影した前方画像の注視点位置周辺にポジティブフラグを立て、注視点でないところには、ネガティブフラグを立てて、生成情報群に属する情報を入力として、前方画像を、決められた領域(例えば画素)毎に、注視点であるか否かを0,1の二値によって分類する識別器が得られるように学習する。   In learning using the SVM, the subject's gazing point is used as teacher data, for example, a positive flag is set around the gazing point position of the photographed forward image, and a negative flag is set at a position other than the gazing point to generate information. With the information belonging to the group as an input, learning is performed so that a discriminator that classifies whether or not the forward image is a gazing point for each predetermined region (for example, pixel) based on binary values of 0 and 1 is obtained.

また、GMMを利用した学習では、生成情報群に属する情報内容の幾つかについて(例えば、操舵角や自車速等)、それぞれの情報と前方画像における注視点位置の間の関係を表現するGMMを学習する。これらのGMMを更に加算もしくは乗算によって結合することにより、前方画像を、決められた領域(例えば画素)毎に、注視点であるか否かを0〜1の間の連続値によって確率的に推定する推定器を構成する。   Also, in learning using GMM, for some of the information contents belonging to the generated information group (for example, steering angle, own vehicle speed, etc.), a GMM that expresses the relationship between each piece of information and the point of interest position in the front image is used. learn. By further combining these GMMs by addition or multiplication, it is probabilistically estimated whether or not the forward image is a gazing point for each predetermined region (for example, pixel) by a continuous value between 0 and 1. An estimator is configured.

[効果]
以上説明したように、車載装置2は、ドライバの注意が向けられている位置(注視点)を、予め用意された注意モデルと、その時々で検出される特定情報とに基づいて生成される注意分布から推定し、その注意分布から前方画像中の各オブジェクトに対するドライバの注意量を算出すると共に、予め設定されたルールを用いて、特定情報から特定される状況に応じた各オブジェクトの重要度を設定し、その注意量と重要度とに基づいて、ドライバに対する情報の提供を制御するようにされている。
[effect]
As described above, the in-vehicle device 2 generates the attention (gaze point) where the driver's attention is directed based on the prepared attention model and the specific information detected at that time. Estimate from the distribution, calculate the driver's attention amount for each object in the forward image from the attention distribution, and use the preset rules to determine the importance of each object according to the situation specified from the specific information Setting and controlling the provision of information to the driver based on the amount of attention and importance.

なお、注意モデルは、ドライバの意図を示す情報やドライバの運転行動に影響を与える情報が反映されるように作成されている。つまり、注意モデルを用いることで、右左折や直進等のステアリング操作の種類(ドライバの意図が反映された情報)や、車速の高低や信号機の色(ドライバの運転行動に影響を与える情報)によって、異なった注意分布が得られることになる。   Note that the attention model is created so as to reflect information indicating the driver's intention and information affecting the driving behavior of the driver. In other words, by using a caution model, depending on the type of steering operation such as turning left or right or going straight (information that reflects the driver's intention), the level of the vehicle speed or the color of the traffic light (information that affects the driver's driving behavior) Different attention distributions will be obtained.

従って、車載装置2によれば、その時々の状況(ドライバの意図やドライバの運転行動に影響を与えるオブジェクトの存在等を含む)に応じて、その状況を考慮した的確な情報提供を実現することができる。   Therefore, according to the vehicle-mounted device 2, according to the occasional situation (including the presence of an object that affects the driver's intention and the driving behavior of the driver, etc.), accurate information provision considering the situation is realized. Can do.

しかも、車載装置2によれば、ドライバの注視点を注意モデルと特定情報とから推定するようにされているため、注視点を計測する計測器が必要な従来装置と比較して、簡易で安価な構成であるにも関わらず、より的確な制御を実現することができる。   Moreover, according to the in-vehicle device 2, since the driver's gaze point is estimated from the attention model and the specific information, it is simpler and less expensive than a conventional device that requires a measuring instrument that measures the gaze point. Despite the simple configuration, more accurate control can be realized.

ここで図6は、(a)が上述の注意モデルから生成した注意分布において、分布値(注意レベル)が上位何%に含まれる領域かを示した注意分布パーセント領域と、ドライバの
注視点との一致率を所定の時間幅(0.33[s])内で測定した結果を表すグラフであり、(b)が注意モデルに基づいて生成した注意分布(統合分布)を、元の前方画像と対比して示したものであり、分布値が高いオブジェクトの上位3個についても丸数字によって明示した。
Here, FIG. 6 (a) shows the attention distribution percentage area indicating the percentage of the distribution value (attention level) included in the attention distribution generated from the above attention model , the driver's attention point, and Is a graph showing the result of measuring the coincidence rate within a predetermined time width (0.33 [s]), and (b) shows the attention distribution (integrated distribution) generated based on the attention model as the original forward image. The top three objects with the highest distribution values are also indicated by circle numbers.

前方画像としては、図7に示した様な実環境で右左折や直進、追従走行や追い越し等様々な状況を含む一般市街路にて取得した実車データを利用した。また、注意モデルとしては、上述したGMMを利用した推定器を用い、注意モデルに入力する特定情報としては、自車速と操舵角、車両検出結果を用いた。これにより、前述の様々な状況に対応できる注視モデルを構築した。   As the front image, actual vehicle data acquired in a general city road including various situations such as turning right and left, going straight, following traveling, and passing in the actual environment as shown in FIG. 7 was used. The estimator using the GMM described above is used as the caution model, and the own vehicle speed, the steering angle, and the vehicle detection result are used as the specific information input to the caution model. As a result, a gaze model that can cope with the various situations described above was constructed.

図6(a)中には、比較例として、非特許文献1の手法(従来手法)を用いて、画像の低次の特徴量(輝度・色・エッジなど)から注視点を推定した結果、および、全くランダムに注視点を設定した場合の一致率(チャンスレベル)を併記した。   In FIG. 6A, as a comparative example, the result of estimating the gazing point from the low-order feature amount (luminance, color, edge, etc.) of the image using the method of Non-Patent Document 1 (conventional method), In addition, the coincidence rate (chance level) when gaze points are set at random is also shown.

図からわかるように、従来手法は、チャンスレベルと同程度以下であるのに対して、車載装置2に適用した手法では、実際の視線との一致率が30%以上高く、ドライバの意図やドライバの運転行動に影響を与えるオブジェクト等の情報を、注意モデルに反映させることによって、注視点の推定精度が格段に改善されることがわかる。   As can be seen from the figure, the conventional method is less than or equal to the chance level, whereas the method applied to the in-vehicle device 2 has a high coincidence rate with the actual line of sight by 30% or more, and the driver's intention and driver It can be understood that the accuracy of gaze point estimation can be remarkably improved by reflecting information such as objects that affect the driving behavior of the user in the attention model.

また、車載装置2によれば、複数の注意モデルから注意分布(個別分布)を生成する際に、各種の特定情報を利用するが、必ずしも全ての特定情報が揃っていなくても、個別分布、ひいては統合分布の生成が可能であるため、取得可能な特定情報が異なる様々な車両に適用することができる。   Further, according to the in-vehicle device 2, various types of specific information are used when generating the attention distribution (individual distribution) from a plurality of attention models, but the individual distribution, As a result, since an integrated distribution can be generated, the present invention can be applied to various vehicles having different specific information that can be acquired.

図8は、図6の測定に用いたものと同じ注意分布(統合分布)を用い、注視点との一致率が、一致率の算出に要する時間幅を変化させることによって、どのような影響が生じるかを測定した結果を示すグラフである。但し、一致率の算出に要する時間幅は、0.33[s],1[s],2[s],5[s],10[s]を用い、時間幅0.33[s]での一致率(基準値)と、他の時間幅での一致率との差分を示した。   FIG. 8 uses the same attention distribution (integrated distribution) as that used in the measurement of FIG. 6, and how the coincidence rate with the gazing point changes by changing the time width required for calculating the coincidence rate. It is a graph which shows the result of having measured whether it arises. However, the time width required for calculating the coincidence rate is 0.33 [s], 1 [s], 2 [s], 5 [s], 10 [s], and the time width is 0.33 [s]. The difference between the coincidence rate (reference value) and the coincidence rate in other time widths is shown.

画像から得られる情報だけを用いて注意分布を生成する従来手法では、時間幅の設定によって精度が大きく変動するのに対して、車載装置2に適用した本発明の手法によれ精度の変動度合いが小さく、ロバスト性が向上していることがわかる。   In the conventional method of generating the attention distribution using only the information obtained from the image, the accuracy greatly varies depending on the setting of the time width, whereas the accuracy variation degree is achieved by the method of the present invention applied to the in-vehicle device 2. It can be seen that it is small and has improved robustness.

[発明との対応]
上記実施形態において、環境センサ群23の中の前方画像を取得するカメラが画像取得手段、S120がオブジェクト抽出手段、制御部29が実行する特定情報記録処理が情報取得手段、制御部29を構成する不揮発性メモリであって注意モデルが記憶されたものがモデル記憶手段、S110〜S230(S120を除く)が注意分布生成手段、S250が重要度設定手段に相当する。
[Correspondence with Invention]
In the embodiment described above, the camera that acquires the front image in the environment sensor group 23 is the image acquisition unit, S120 is the object extraction unit, and the specific information recording process executed by the control unit 29 constitutes the information acquisition unit and the control unit 29. A nonvolatile memory in which a caution model is stored corresponds to a model storage unit, S110 to S230 (excluding S120) correspond to a caution distribution generation unit, and S250 corresponds to an importance setting unit.

[他の実施形態]
以上本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
[Other Embodiments]
Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the gist of the present invention.

例えば、上記実施形態では、オブジェクトの注意量とオブジェクトの重要度とをいずれも用いて提示する情報の制御を行うようにされているが、いずれか一方のみを用いて制御するように構成してもよい。   For example, in the above embodiment, the information to be presented is controlled using both the attention amount of the object and the importance level of the object, but the control is performed using only one of them. Also good.

上記実施形態では、オブジェクトの重要度によって、提供情報を制御するように構成されているが、オブジェクトに基づく注意分布を生成する(S140)際、またはその注意分布を他の注意分布と統合する(S230)際に、オブジェクトの重要度に応じて、個々のオブジェクトに対応する分布に重み付けを行うことによって、統合分布にオブジェクトの重要度を反映させるように構成してもよい。この場合、オブジェクトの重要度を設定する処理(S250)は、少なくとも、オブジェクトの重要度を反映させる処理(S140またはS230)の前に行うようにすればよい。   In the above embodiment, the provision information is controlled according to the importance of the object. However, when the attention distribution based on the object is generated (S140), or the attention distribution is integrated with another attention distribution ( In S230), the distribution of the object may be reflected in the integrated distribution by weighting the distribution corresponding to each object according to the importance of the object. In this case, the process of setting the importance level of the object (S250) may be performed at least before the process of reflecting the importance level of the object (S140 or S230).

1…運転支援システム 2…車載装置 3…通信インフラ 4…情報サーバ 5…学習用車載装置 21…車両センサ群 22…生体センサ群 23…環境センサ群 24…GPS受信機 25…無線通信部 26…情報提示部 27…指令入力部 28…地図データベース 29…制御部 30…視線検出装置   DESCRIPTION OF SYMBOLS 1 ... Driving assistance system 2 ... In-vehicle apparatus 3 ... Communication infrastructure 4 ... Information server 5 ... In-vehicle apparatus 21 for learning 21 ... Vehicle sensor group 22 ... Biosensor group 23 ... Environmental sensor group 24 ... GPS receiver 25 ... Wireless communication part 26 ... Information presentation unit 27 ... command input unit 28 ... map database 29 ... control unit 30 ... gaze detection device

Claims (8)

運転行動に対するドライバの意図が反映される情報又はドライバの運転行動に影響を与える情報である特定情報を取得する情報取得手段と、
前記特定情報が示す値と前記画像上でドライバの注意が向いている位置である注視点との関係を示した注意モデルを記憶するモデル記憶手段と、
前記モデル記憶手段に記憶された注意モデルに基づき、前記情報取得手段にて検出される特定情報から前記注視点を推定した注意分布を生成する注意分布生成手段と、
を備え
前記モデル記憶手段に記憶される前記注意モデルは、前記特定情報に属する一又は複数の情報で構成された複数種類の生成情報群毎に用意され、
前記注意分布生成手段は、前記注意モデル毎に、前記情報取得手段にて検出された特定情報から前記注視点を推定した個別分布を生成し、該個別分布を統合することで注意分布を生成することを特徴とする注視点推定装置。
Information acquisition means for acquiring specific information that is information that reflects the driver's intention for driving behavior or information that affects the driving behavior of the driver;
Model storage means for storing a caution model indicating a relationship between a value indicated by the specific information and a gaze point that is a position on the image where the driver's attention is directed;
Based on the attention model stored in the model storage means, attention distribution generation means for generating an attention distribution in which the gaze point is estimated from specific information detected by the information acquisition means;
Equipped with a,
The attention model stored in the model storage means is prepared for each of a plurality of types of generated information groups composed of one or a plurality of information belonging to the specific information,
The attention distribution generation unit generates, for each attention model, an individual distribution in which the gaze point is estimated from the specific information detected by the information acquisition unit, and generates the attention distribution by integrating the individual distributions. A gaze point estimation device characterized by the above.
ドライバの視界に対応する画像を取得する画像取得手段と、
前記画像取得手段が取得した画像からオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクト抽出手段にて抽出されたオブジェクトの重要度を、予め設定されたルールに従って設定する重要度設定手段を備え、
前記注意分布生成手段は、前記オブジェクト抽出手段にて抽出されたオブジェクトに基づく個別分布を生成すると共に、該オブジェクトに基づく個別分布を生成する際、または該オブジェクトに基づく個別分布を他の個別分布と統合する際に、前記重要度設定手段にて設定された重要度に応じて、個々のオブジェクトに対応する分布に重み付けを行うことを特徴とする請求項1に記載の注視点推定装置。
Image acquisition means for acquiring an image corresponding to the driver's field of view;
Object extraction means for extracting an object from the image acquired by the image acquisition means;
Importance level setting means for setting the importance level of the object extracted by the object extraction means according to a preset rule,
The attention distribution generation unit generates an individual distribution based on the object extracted by the object extraction unit, and generates an individual distribution based on the object, or an individual distribution based on the object is replaced with another individual distribution. The gaze point estimation apparatus according to claim 1 , wherein when integrating, weighting is applied to a distribution corresponding to each object in accordance with the importance set by the importance setting means.
前記重要度設定手段が重要度の設定に使用するルールには、前記情報取得手段にて取得される特定情報から特定される状況を条件部とするIF−THENルールが含まれていることを特徴とする請求項2に記載の注視点推定装置。 The rule used by the importance setting unit for setting the importance includes an IF-THEN rule whose condition is a condition specified from the specific information acquired by the information acquisition unit. The gaze point estimation apparatus according to claim 2. 前記重要度設定手段が重要度の設定に使用するルールには、前記オブジェクト抽出手段にて抽出されたオブジェクトの位置またはオブジェクト同士の相関関係を条件部とするIF−THENルールが含まれていることを特徴とする請求項2または請求項3に記載の注視点推定装置。 The rules used by the importance setting means for setting the importance include IF-THEN rules that use the position of the object extracted by the object extraction means or the correlation between objects as a condition part . The gaze point estimation apparatus according to claim 2 or claim 3, wherein 前記特定情報には、ドライバの操作に関する情報又は車両の挙動を示す情報のうち少なくとも一方を含む車両情報が含まれていることを特徴とする請求項1乃至請求項4のいずれか1項に記載の注視点推定装置。 Wherein the specific information, according to any one of claims 1 to 4, characterized in that it contains the vehicle information including at least one of information indicating the behavior of the information or the vehicle about the operation of the driver Gaze point estimation device. 前記特定情報には、ドライバの生体反応に関する情報であるドライバ情報が含まれていることを特徴とする請求項1乃至請求項5のいずれか1項に記載の注視点推定装置。 Wherein the specific information, gaze point estimating apparatus according to any one of claims 1 to 5, characterized in that it contains the information der Ru driver information about the driver of the biological response. 前記特定情報には、車両の走行環境に関する情報である環境情報が含まれていることを特徴とする請求項1乃至請求項6のいずれか1項に記載の注視点推定装置。 The gaze point estimation apparatus according to any one of claims 1 to 6 , wherein the specific information includes environment information that is information related to a traveling environment of the vehicle. 前記環境情報の少なくとも一部を、路車間通信又は車車間通信によって取得することを特徴とする請求項7に記載の注意視点推定装置。 The attention viewpoint estimation apparatus according to claim 7 , wherein at least part of the environmental information is acquired by road-to-vehicle communication or vehicle-to-vehicle communication.
JP2010250916A 2010-11-09 2010-11-09 Gaze point estimation device Expired - Fee Related JP5742180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010250916A JP5742180B2 (en) 2010-11-09 2010-11-09 Gaze point estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010250916A JP5742180B2 (en) 2010-11-09 2010-11-09 Gaze point estimation device

Publications (2)

Publication Number Publication Date
JP2012103850A JP2012103850A (en) 2012-05-31
JP5742180B2 true JP5742180B2 (en) 2015-07-01

Family

ID=46394182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010250916A Expired - Fee Related JP5742180B2 (en) 2010-11-09 2010-11-09 Gaze point estimation device

Country Status (1)

Country Link
JP (1) JP5742180B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4342708B2 (en) * 2000-09-06 2009-10-14 本田技研工業株式会社 In-vehicle information processing device for determining the suitability of driver's line-of-sight area
JP2004178367A (en) * 2002-11-28 2004-06-24 Toyota Central Res & Dev Lab Inc Attention allocation control device
JP2006215728A (en) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd Driving information provision system
JP2008262388A (en) * 2007-04-12 2008-10-30 Toyota Central R&D Labs Inc Safety confirmation advice device

Also Published As

Publication number Publication date
JP2012103850A (en) 2012-05-31

Similar Documents

Publication Publication Date Title
CN108028015B (en) Information processing apparatus, information processing method, and storage medium
JP5521893B2 (en) Driving support system, in-vehicle device
US20170174129A1 (en) Vehicular visual information system and method
KR102051142B1 (en) System for managing dangerous driving index for vehicle and method therof
JP6638701B2 (en) Driving awareness estimation device
EP2201496B1 (en) Inattentive state determination device and method of determining inattentive state
US10336252B2 (en) Long term driving danger prediction system
US20180126901A1 (en) System and method for driver distraction determination
JP2018195301A (en) Control device and control method
JP6693354B2 (en) Vehicle information presentation device
JP2014081947A (en) Information distribution device
CN110914882B (en) Display system and display method
CN108604413B (en) Display device control method and display device
JPWO2018056103A1 (en) Vehicle control device, vehicle control method, and moving body
US11745745B2 (en) Systems and methods for improving driver attention awareness
JP2018005468A (en) Vehicular control device
JP2024029051A (en) In-vehicle display device, method and program
US20220388543A1 (en) Systems and methods for displaying trajectories for autonomous vehicles
JP2012103849A (en) Information provision device
JP6894857B2 (en) Programs, devices and methods for estimating the driving characteristics of the observed vehicle while traveling in the vicinity
WO2018212090A1 (en) Control device and control method
JP6471707B2 (en) Driving teaching device
JP5742180B2 (en) Gaze point estimation device
CN113212451A (en) Rearview auxiliary system for intelligent driving automobile
JP2018094294A (en) State estimation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150420

R151 Written notification of patent or utility model registration

Ref document number: 5742180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees