JP2012103849A - Information provision device - Google Patents

Information provision device Download PDF

Info

Publication number
JP2012103849A
JP2012103849A JP2010250915A JP2010250915A JP2012103849A JP 2012103849 A JP2012103849 A JP 2012103849A JP 2010250915 A JP2010250915 A JP 2010250915A JP 2010250915 A JP2010250915 A JP 2010250915A JP 2012103849 A JP2012103849 A JP 2012103849A
Authority
JP
Japan
Prior art keywords
information
attention
driver
vehicle
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010250915A
Other languages
Japanese (ja)
Inventor
Yoshiji Bando
誉司 坂東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010250915A priority Critical patent/JP2012103849A/en
Publication of JP2012103849A publication Critical patent/JP2012103849A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information provision device with which the control of information provided can be performed according to the situation of a driver.SOLUTION: An attention distribution is created based on an attention model prepared and determined information detected at different times, thereby estimating the position of attention of a driver (gazing point) in a random manner (S110 to S230), the attention amount of the driver with respect to the respective objects extracted from a front image is set according to the attention distribution (S240). Further, by using preset rules, the importance of respective objects is set according to the situation determined from the determined information (S250) and the provision of information to the driver is controlled according to the attention amount and the importance (S260).

Description

本発明は、ドライバが認識すべき対象についての情報を提供する情報提供装置に関する。   The present invention relates to an information providing apparatus that provides information about an object to be recognized by a driver.

従来、車両の前方を撮像した画像等に基づいて、車両周辺の物体を認識し、ドライバに対して、認識すべき物体に関する情報を、表示や音声,振動等によって提供する装置が各種知られている。   Conventionally, various devices for recognizing an object around a vehicle based on an image taken in front of the vehicle and providing the driver with information on the object to be recognized by display, sound, vibration, or the like are known. Yes.

この種の装置では、ドライバが必要としない過度な情報は、却って運転の妨げとなるおそれがあるため、必要最小限の情報を提供することが望ましい。
これに対して、画像中のオブジェクトが何であるかの認識のし易さを示す視認性、およびオブジェクトへの気づき易さを示す誘目性を指標として、ドライバが見にくく、気づきにくいオブジェクトについての情報を提供する装置が知られている(例えば、特許文献1参照)。
In this type of apparatus, it is desirable to provide the minimum necessary information because excessive information that the driver does not need may interfere with driving.
On the other hand, information on objects that are difficult for drivers to see and notice by using the visibility that indicates the ease of recognizing the object in the image and the attractiveness that indicates the ease of recognizing the object as indicators. An apparatus to be provided is known (see, for example, Patent Document 1).

なお、視認性の算出には、オブジェクトと背景とのコントラストを利用し、コントラストが高いほど視認性が高いと判断し、誘目性の算出には、ドライバの注視点からオブジェクトまでの距離、およびオブジェクトと背景とのコントラストを利用し、距離が近いほど、また、コントラストが高いほど、誘目性が高いと判断している。   The visibility is calculated by using the contrast between the object and the background, and the higher the contrast, the higher the visibility is determined. And the contrast with the background, the closer the distance and the higher the contrast, the higher the attractiveness.

また、誘目性を求める手法としては、画像の低次の特徴量(輝度・色・エッジなど)を利用することも研究されている(非特許文献1参照)。   In addition, as a technique for obtaining attractiveness, the use of low-order feature quantities (luminance, color, edge, etc.) of an image has been studied (see Non-Patent Document 1).

特開2004−30212号公報JP 2004-30212 A

L. Itti and C. Koch, “Computational Modeling of Visual Attention,” Nature Reviews Neuroscience, Vol. 2(3), pp. 194-203, (2001)L. Itti and C. Koch, “Computational Modeling of Visual Attention,” Nature Reviews Neuroscience, Vol. 2 (3), pp. 194-203, (2001)

ところで、視認性や誘目性の算出には、結局のところ、ドライバの注視点と、画像から一意に決まる情報(従来装置では、画像のコントラストやオブジェクトの位置)しか利用されていない。   By the way, in the calculation of visibility and attractiveness, after all, only the driver's gazing point and information uniquely determined from the image (contrast of the image and the position of the object in the conventional device) are used.

しかし、実際の運転において、注意が必要なオブジェクトは、同じ状況であっても、その時のドライバの意図(どのような車両操作を行おうとしているか)等によって様々に変化する。   However, in actual driving, objects that require attention vary in various ways depending on the driver's intention at the time (what kind of vehicle operation is being performed), etc., even in the same situation.

例えば、図7は、車両の運転席から車両前方を撮像した画像の一例である。この画像に示されたシーン(T字路の手前)において、ドライバが直進しようとしている時は、自車の進行方向にあるオブジェクト、即ち、先行車(トラック)に関する情報の重要度が高く、自車の進行方向から外れた位置にあるオブジェクト、例えば、対向車に関する情報の重要度は相対的に低い。特に、左折(自車からみれば右折)しようとしている対向車や、その先にいる歩行者に関する情報の重要度は極めて低い。一方、ドライバが右折しようとしている時は、先行車より、対向車に関する情報の重要度の方が相対的に高くなり、左折しようとしている対向車についても、一定の注意を払う必要が生じる。更に、右折先に歩行者が存在すれば、その歩行者に関する情報の重要度も非常に高くなる。   For example, FIG. 7 is an example of an image obtained by imaging the front of the vehicle from the driver's seat of the vehicle. In the scene shown in this image (before the T-junction), when the driver is going straight ahead, the information on the object in the traveling direction of the vehicle, that is, the information on the preceding vehicle (truck) is high, The importance of information regarding an object at a position deviating from the traveling direction of the vehicle, for example, an oncoming vehicle, is relatively low. In particular, the importance of information regarding an oncoming vehicle that is about to turn left (turned to the right when viewed from the host vehicle) and pedestrians ahead is very low. On the other hand, when the driver is going to turn right, the importance of the information on the oncoming vehicle is relatively higher than that of the preceding vehicle, and it is necessary to pay certain attention to the oncoming vehicle that is about to turn left. Furthermore, if there is a pedestrian at the right turn destination, the importance of the information about the pedestrian will be very high.

ところが、従来装置では、こういったドライバを取り巻く状況(ドライバの意図を含む)や、その状況に応じて変化するオブジェクトの重要度が考慮されず、ドライバの注視点と画像から一意に決まる情報とで提供内容が決まってしまうため、重要な情報が提供されない可能性があるという問題があった。   However, in the conventional device, the situation surrounding the driver (including the driver's intention) and the importance of the object that changes according to the situation are not considered, and the information uniquely determined from the driver's gaze point and the image However, there is a problem that important information may not be provided.

また、ドライバの注視点をリアルタイムに検出して利用する従来装置では、ドライバの注視点を計測するための装置を別途用意する必要があり、装置が高価なものとなるという問題もあった。   Further, in the conventional apparatus that detects and uses the driver's gazing point in real time, it is necessary to separately prepare an apparatus for measuring the driver's gazing point, which causes a problem that the apparatus becomes expensive.

本発明は、上記問題点を解決するために、ドライバを取り巻く状況に応じた提供情報の制御が可能な情報提供装置を提供することを目的とする。   In order to solve the above problems, an object of the present invention is to provide an information providing apparatus capable of controlling provided information in accordance with a situation surrounding a driver.

上記目的を達成するためになされた本発明の情報提供装置では、画像取得手段が、ドライバの視界に対応する画像を取得し、オブジェクト抽出手段が、画像取得手段が取得した画像からオブジェクトを抽出し、情報提供手段が、オブジェクト抽出手段にて抽出されたオブジェクトに関する情報を提供する。また、運転行動に対するドライバの意図が反映される情報又はドライバの運転行動に影響を与える情報を特定情報として、モデル記憶手段には、特定情報が示す値と画像上でドライバの注意が向いている位置である注視点との関係を示した注意モデルが記憶されている。   In the information providing apparatus of the present invention made to achieve the above object, the image acquisition means acquires an image corresponding to the driver's field of view, and the object extraction means extracts an object from the image acquired by the image acquisition means. The information providing means provides information related to the object extracted by the object extracting means. Further, information reflecting the driver's intention for driving behavior or information affecting the driving behavior of the driver is specified information, and the model storage means is directed to the driver's attention on the value indicated by the specific information and the image. An attention model indicating a relationship with a gaze point that is a position is stored.

そして、情報取得手段が、特定情報を取得すると、注意分布生成手段が、モデル記憶手段に記憶された注意モデルに基づき、情報取得手段にて検出された特定情報から注視点を推定した注意分布を生成する。   Then, when the information acquisition unit acquires the specific information, the attention distribution generation unit calculates the attention distribution in which the gaze point is estimated from the specific information detected by the information acquisition unit based on the attention model stored in the model storage unit. Generate.

この注意分布生成手段にて生成された注意分布に基づき、注意量算出手段が、オブジェクト抽出手段にて抽出されたオブジェクト毎に、該オブジェクトに対するドライバの注意の度合いを表す注意量を求め、情報提供手段は、前記注意量算出手段にて算出された注意量に従って提供する情報を制御する。   Based on the attention distribution generated by the attention distribution generation means, the attention amount calculation means obtains an attention amount indicating the degree of attention of the driver for the object for each object extracted by the object extraction means, and provides information The means controls information to be provided according to the attention amount calculated by the attention amount calculation means.

なお、ここで言う「提供する情報の制御」には、個々のオブジェクトについて、そのオブジェクトに関する情報提供の要否を判断すること、および情報提供の仕方(画像,音声,振動など)を選択することのうち、少なくとも一方が含まれている。   In addition, in the “control of information to be provided” mentioned here, for each object, it is determined whether or not it is necessary to provide information about the object, and a method of providing information (image, sound, vibration, etc.) is selected. Of these, at least one of them is included.

このように、本発明の情報提供装置によれば、ドライバの意図を示す情報やドライバの運転行動に影響を与える情報が反映された注意分布を用いて提供情報の制御を行うため、その時々の状況に応じた的確な情報提供を実現することができる。   As described above, according to the information providing apparatus of the present invention, the provided information is controlled using the attention distribution in which the information indicating the intention of the driver or the information affecting the driving behavior of the driver is reflected. It is possible to provide accurate information according to the situation.

即ち、注意分布は、同じ画像であっても、画像以外に基づく特定情報から特定される状況に応じて異なったものとなり、その状況において、多くのドライバはどこに注意を向けているかを示すもの、換言すれば、その状況において、ドライバの注意はどこに向けられているのかを推定したものとなるためである。   That is, even if the attention distribution is the same image, the attention distribution differs depending on the situation specified from the specific information based on other than the image, and in that situation, where many drivers are paying attention, In other words, in that situation, it is an estimate of where the driver's attention is directed.

しかも、本発明の情報提供装置によれば、ドライバの注視点を計測する必要がないため、これを計測する従来装置と比較して、簡易で安価な構成であるにも関わらず、より的確な制御を実現することができる。   Moreover, according to the information providing apparatus of the present invention, since it is not necessary to measure the driver's point of sight, it is more accurate despite the simple and inexpensive configuration compared to the conventional apparatus that measures this. Control can be realized.

なお、モデル記憶手段に記憶される注意モデルは、特定情報を一括して一つだけ用意されていてもよいが、特定情報に属する一又は複数の情報で構成された複数種類の生成情報群毎に用意されていてもよい。   Note that the attention model stored in the model storage means may be prepared with only one piece of specific information, but for each of a plurality of types of generated information groups composed of one or more pieces of information belonging to the specific information. May be provided.

この場合、注意分布生成手段は、注意モデル毎に、情報取得手段にて検出された特定情報から注視点を推定した個別分布を生成し、その個別分布を統合することで注意分布を生成すればよい。   In this case, the attention distribution generation unit generates an individual distribution in which the attention point is estimated from the specific information detected by the information acquisition unit for each attention model, and generates the attention distribution by integrating the individual distributions. Good.

この場合、特定情報が全部揃っていなくても、取得可能な特定情報から得られた個別分布によって、注意分布を生成することができるため、車両がどのような特定情報を検出できるかによらず、本発明の情報提供装置を適用することができ、汎用性の高い装置を提供することができる。   In this case, since the attention distribution can be generated by the individual distribution obtained from the specific information that can be acquired even if the specific information is not all available, regardless of what specific information the vehicle can detect. The information providing apparatus of the present invention can be applied, and a highly versatile apparatus can be provided.

なお、特定情報として、例えば、ドライバの操作に関する情報又は車両の挙動を示す情報のうち少なくとも一方を含む車両情報や、ドライバの生体反応に関する情報であるドライバ情報や、車両の走行環境に関する情報である環境情報を用いることが考えられる。   The specific information includes, for example, vehicle information including at least one of information related to driver operation or information indicating vehicle behavior, driver information that is information related to a driver's biological reaction, and information related to a driving environment of the vehicle. It is conceivable to use environmental information.

但し、ドライバの操作には、ドライバの意図が反映されているため、ドライバの操作に関する車両情報が、ドライバの意図が反映された情報に相当する。また、車両の挙動に関する車両情報や、環境情報、生体情報がドライバの運転行動に影響を与える情報に相当する。なお、車両の挙動に関する車両情報の一部や生体情報の一部についても、ドライバの意図との相関関係が明らかである場合は、ドライバの意図が反映された情報として扱ってもよい。   However, since the driver's operation reflects the driver's intention, the vehicle information related to the driver's operation corresponds to the information reflecting the driver's intention. In addition, vehicle information related to the behavior of the vehicle, environmental information, and biological information correspond to information that affects the driving behavior of the driver. Note that part of the vehicle information and part of the biological information related to the behavior of the vehicle may be treated as information reflecting the driver's intention when the correlation with the driver's intention is clear.

また、本発明の情報提供装置において、環境情報の少なくとも一部は、路車間通信又は車車間通信によって取得してもよい。具体的には、渋滞情報や、先行車や対向車の挙動に関する情報等、車両に搭載されている各種センサからは正確に把握できない情報を取得することが考えられる。   In the information providing apparatus of the present invention, at least part of the environmental information may be acquired by road-to-vehicle communication or vehicle-to-vehicle communication. Specifically, it is conceivable to acquire information that cannot be accurately grasped from various sensors mounted on the vehicle, such as traffic jam information and information on the behavior of preceding vehicles and oncoming vehicles.

ところで、本発明の情報提供装置は、更に、重要度設定手段が、オブジェクト抽出手段にて抽出されたオブジェクトの重要度を、予め設定されたルールに従って設定し、情報提供手段は、注意量に加え、重要度設定手段にて設定された重要度に従って、提供する情報を制御するように構成されていてもよい。   By the way, in the information providing apparatus of the present invention, the importance setting unit further sets the importance of the object extracted by the object extracting unit according to a preset rule, and the information providing unit adds the attention amount to the attention amount. The information to be provided may be controlled in accordance with the importance set by the importance setting means.

このように構成された本発明の情報提供装置によれば、ドライバの注意が向けられている位置に関する情報だけでなく、オブジェクトの重要度に関する情報も利用できるため、オブジェクトに関する情報の提供を、状況に応じてより的確に制御することができる。   According to the information providing apparatus of the present invention configured as described above, not only the information about the position where the driver's attention is directed but also the information about the importance of the object can be used. It is possible to control more accurately according to.

なお、重要度設定手段が重要度の設定に使用するルールには、情報取得手段にて取得される特定情報から特定される状況を条件とするものが少なくとも含まれていることが望ましい。   It should be noted that it is desirable that the rules used by the importance level setting means for setting the importance level include at least those that are conditional on the situation specified from the specific information acquired by the information acquisition means.

即ち、オブジェクトの重要度は、状況に応じて変化するものであるため、このように設定された重要度を利用することにより、提供情報の制御をより的確なものとすることができる。   In other words, since the importance level of an object changes depending on the situation, the provided information can be controlled more accurately by using the importance level set in this way.

また、重要度設定手段が重要度の設定に使用するルールには、オブジェクト抽出手段にて抽出されたオブジェクトの位置やオブジェクト同士の相関関係を条件とするものが少なくとも含まれていることが望ましい。   Further, it is desirable that the rules used by the importance setting unit for setting the importance include at least a rule that is based on the position of the object extracted by the object extraction unit and the correlation between the objects.

つまり、ある種のオブジェクトが同時に存在する場合や、オブジェクト同士が特定の位置関係にある場合など、オブジェクト間の関係性の中で、そのオブジェクトの重要度が変化する場合がある。従って、このような情報を使用することによって、提供情報の制御をより的確なものとすることができる。   That is, the importance of an object may change in the relationship between objects, such as when a certain type of object exists at the same time or when the objects are in a specific positional relationship. Therefore, by using such information, it is possible to more accurately control the provided information.

運転支援システムの概要、および車載装置の全体構成を示すブロック図。The block diagram which shows the outline | summary of a driving assistance system, and the whole structure of a vehicle-mounted apparatus. 車載装置の制御部が実行する情報提供処理の内容を示すフローチャート。The flowchart which shows the content of the information provision process which the control part of a vehicle-mounted apparatus performs. 注意分布の生成する際の処理のイメージを示した説明図。Explanatory drawing which showed the image of the process at the time of generating attention distribution. 情報を提示するか否か等の判断時に使用する提示制御テーブルの内容を例示した表。The table | surface which illustrated the content of the presentation control table used at the time of judgment whether information is shown, etc. 注意モデルを学習する際に使用する学習用車載装置の構成を示すブロック図。The block diagram which shows the structure of the vehicle-mounted apparatus for learning used when learning an attention model. 本発明の手法による効果を示すグラフ。The graph which shows the effect by the method of this invention. 前方画像を例示した図。The figure which illustrated the front picture.

以下に本発明の実施形態を図面と共に説明する。
[全体構成]
図1は、本発明が適用された運転支援システム1の概要を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
[overall structure]
FIG. 1 is a block diagram showing an outline of a driving support system 1 to which the present invention is applied.

図1に示すように、運転支援システム1は、車両に搭載され、ドライバに情報提供することによって運転支援を行う車載装置(情報提供装置)2と、車両の走行環境に関する各種情報をVICSの路側機や携帯電話の基地局等を含む無線通信用の通信インフラ3を介して、車両(車載装置2)に提供する情報サーバ4とで構成されている。   As shown in FIG. 1, a driving support system 1 is mounted on a vehicle and provides information to a driver by providing an on-vehicle device (information providing device) 2 and various information on the traveling environment of the vehicle on the roadside of the VICS. And an information server 4 provided to a vehicle (on-vehicle device 2) through a communication infrastructure 3 for wireless communication including a base station of a machine or a mobile phone.

そして、車載装置2は、通信インフラ3介した情報サーバ4との無線通信、即ち路車間通信だけでなく、車載装置2同士が直接行う無線通信、即ち車車間通信を行うように構成されている。   The in-vehicle device 2 is configured to perform not only wireless communication with the information server 4 via the communication infrastructure 3, that is, road-to-vehicle communication, but also wireless communication directly performed between the in-vehicle devices 2, that is, vehicle-to-vehicle communication. .

なお、路車間通信によって車載装置2が取得する情報には、例えば、渋滞情報、信号の色や待ち時間、天候(トンネルの出口の雨風情報など)、落下物の有無、路面状態、交通規制等の情報等が含まれ、車車間通信によって車載装置2同士が交換する情報には、例えば、車速、加速度、操舵角、およびそれらの情報から予測される車両の運転行動など(即ち、後述する車両情報の一部)が含まれている。   Information acquired by the in-vehicle device 2 through road-to-vehicle communication includes, for example, traffic jam information, signal color and waiting time, weather (such as rain and wind information at the exit of a tunnel), presence of falling objects, road surface conditions, traffic regulations, etc. The information exchanged between the in-vehicle devices 2 by inter-vehicle communication includes, for example, vehicle speed, acceleration, steering angle, and driving behavior of the vehicle predicted from the information (that is, a vehicle to be described later) Part of the information).

[車載装置]
車載装置2は、車両の挙動,ドライバによる車両操作,各種車載機器の作動状態などを検出するための各種センサからなる車両センサ群21と、ドライバの身体的変化(生体反応)を検出するための各種センサからなる生体センサ群22と、車両の周囲の走行環境を検出するための各種センサからなる環境センサ群23と、GPS衛星より送信されるGPS信号を受信して、車両の位置(緯度,経度)や進行方向を検出するGPS受信機24とを備えている。
[In-vehicle device]
The in-vehicle device 2 detects a vehicle sensor group 21 including various sensors for detecting vehicle behavior, vehicle operation by a driver, operating states of various in-vehicle devices, and the like, and detecting a physical change (biological reaction) of the driver. A biosensor group 22 composed of various sensors, an environment sensor group 23 composed of various sensors for detecting the traveling environment around the vehicle, and a GPS signal transmitted from a GPS satellite are received, and the position of the vehicle (latitude, Longitude) and a GPS receiver 24 for detecting the traveling direction.

また、車載装置2は、通信インフラ3を利用した路車間通信、車両同士の車車間通信を行う無線通信部25と、ドライバに対して、視覚,聴覚,触覚を利用した情報提示を行う情報提示部26と、車載装置2に対する指令を入力するための各種入力装置からなる指令入力部27と、地図データが記憶された地図データベース28と、CPU,ROM,RAM,I/O等からなる周知のマイクロコンピュータを中心にして構成され、各種処理を実行する制御部29とを備えている。   The in-vehicle device 2 also provides information presentation that uses visual, auditory, and tactile information to the driver and the wireless communication unit 25 that performs road-to-vehicle communication using the communication infrastructure 3 and vehicle-to-vehicle communication between vehicles. Unit 26, command input unit 27 including various input devices for inputting commands to in-vehicle device 2, map database 28 storing map data, CPU, ROM, RAM, I / O, and the like. A control unit 29 that is configured around a microcomputer and executes various processes is provided.

[センサ群]
車両センサ群21の検出対象は、車体の速度,加速度,ヨーレート等の車両の挙動の他、アクセルペダル,ブレーキペダル,ステアリング等の操作量(アクセル開度率,ブレーキM/C圧,操舵角等)や、ウインカ,ワイパ,ヘッドライト,シートベルトの作動状態、走行モードの設定(スポーツモードやオートクルーズ機能がある場合)等である。
[Sensor group]
The detection target of the vehicle sensor group 21 includes vehicle behavior such as vehicle body speed, acceleration, and yaw rate, as well as operation amounts of the accelerator pedal, brake pedal, steering, etc. (accelerator opening rate, brake M / C pressure, steering angle, etc.) ), Turn signal, wiper, headlight, seat belt operating state, travel mode setting (when there is a sport mode or an auto cruise function), and the like.

生体センサ群22の検出対象は、視線や顔向き,心拍,血圧,発汗等である。また、 環境センサ群23は、レーザレーダやミリ波レーダ、車両の前方や後方を撮影する各種カメラ、ソナー等の近距離センサ等からなり、その検出対象は、各種オブジェクト(車両、路側物、歩行者、路面標識を含む各種標識、その他の障害物)との距離や相対速度、オブジェクトの大きさ、画像における画素毎の輝度,色、画像中のエッジ分等である。   The detection targets of the biometric sensor group 22 are line of sight, face orientation, heart rate, blood pressure, sweating, and the like. The environmental sensor group 23 includes a laser radar, a millimeter wave radar, various cameras for photographing the front and rear of the vehicle, a short-range sensor such as sonar, and the like. The detection target is various objects (vehicle, roadside object, walking). Distance, relative speed, object size, luminance and color for each pixel in the image, edge portion in the image, and the like.

なお、これらセンサ群21〜23を構成する各センサは車両の各部に配置されており、制御部29は、図示しない車載LAN(CANやLIN)を介して各センサでの検出結果を取得するようにされている。また、センサ群21〜23を構成する個々のセンサは、必ずしも全ての車両が全種類を備えている必要はなく、車両毎に部分的に異なっていてもよい。但し、環境センサ群23のうち、ドライバの視界に対応する画像を取得するために設けられる車両の前方を撮影するカメラは必須であり、以下では、このカメラによって撮影された画像を「前方画像」と称する。   In addition, each sensor which comprises these sensor groups 21-23 is arrange | positioned at each part of a vehicle, and the control part 29 seems to acquire the detection result in each sensor via vehicle-mounted LAN (CAN and LIN) which is not shown in figure. Has been. Further, the individual sensors constituting the sensor groups 21 to 23 are not necessarily required to have all types of all vehicles, and may be partially different for each vehicle. However, in the environment sensor group 23, a camera that captures the front of the vehicle provided to acquire an image corresponding to the driver's field of view is essential. Hereinafter, an image captured by the camera is referred to as a “front image”. Called.

[情報提示部]
情報提示部26は、各種画像を表示し視覚的に情報を提示するためのディスプレイ、警報音や音声を出力し聴覚的に情報を提示するためのスピーカ、ステアリングやシート等のドライバと接触する位置に埋め込まれ、振動を発生させることにより触覚的に情報を提示するための振動発生器等からなる。
[Information presentation section]
The information presenting unit 26 displays various images and visually presents information, a speaker for outputting an alarm sound and sound and presents information audibly, and a position in contact with a driver such as a steering wheel or a seat And a vibration generator for tactilely presenting information by generating vibration.

[制御部]
制御部29は、地図データベース28に格納された地図データ、GPS受信機24から得られる位置データ等を用い、情報提示部26を介して、車両位置周辺の地図の表示や設定経路に関する案内表示や音声ガイダンス等を行ういわゆるナビゲーション機能を実現するための処理を実行する。つまり、車載装置2は、基本的には、周知のナビゲーション装置として機能するように構成されている。
[Control unit]
The control unit 29 uses the map data stored in the map database 28, the position data obtained from the GPS receiver 24, and the like, via the information presentation unit 26, displays a map around the vehicle position, a guidance display regarding the set route, Processing for realizing a so-called navigation function for performing voice guidance or the like is executed. That is, the in-vehicle device 2 is basically configured to function as a known navigation device.

また、制御部29は、センサ群等21〜24や無線通信部25を介して各種情報を取得すると共に、取得した情報を更に加工(画像処理や各種演算,統計処理等を実行)することによって各種情報を生成し、これら取得,生成した各種情報を、ドライバを取り巻く状況を特定するための特定情報として記録する特定情報記録処理を実行する。   The control unit 29 acquires various information via the sensor groups 21 to 24 and the wireless communication unit 25, and further processes the acquired information (executes image processing, various calculations, statistical processing, and the like). Various information is generated, and the acquired and generated various information is recorded as specific information for specifying a situation surrounding the driver.

ここで、加工することによって得られる情報として、具体的には、それら情報の微分値,積分値,各種平均値の他、生体センサ群22からの情報等から生成されるドライバの生理的状態(例えば、漫然,集中,脇見,眠気,疲労,焦り)を表す情報や、環境センサ群23からの情報等から生成される、オブジェクトの位置や種類(例えば、車両,歩行者,標識,落下物,横断歩道,歩道)、オブジェクトが車両である場合に特有な情報(先行車や対向車の有無,車間距離,相対速度,相対加速度)、道路形状(曲率,勾配,交差点)、路面状態、車線数、道路幅、オブジェクトが標識である場合にその内容(制限速度、進入禁止、一方通行)などの情報がある。なお、環境センサ群23からの情報を加工することによって得られる情報は、無線通信部25を介して取得する情報と一部重複していてもよい。また、環境情報には、GPS受信機24や地図データベース28から得られる情報を含めてもよい。   Here, as the information obtained by processing, specifically, the physiological state of the driver generated from the information from the biosensor group 22 in addition to the differential value, the integral value, and various average values of the information ( For example, the position and type of an object (for example, a vehicle, a pedestrian, a sign, a fallen object, etc.) that is generated from information representing ill-mannered, concentrated, looking aside, drowsiness, fatigue, impatience, etc. (Pedestrian crossings, sidewalks), information specific to the object being a vehicle (presence / absence of preceding or oncoming vehicles, distance between vehicles, relative speed, relative acceleration), road shape (curvature, gradient, intersection), road surface condition, number of lanes When the object is a sign, there is information such as the content (speed limit, entry prohibition, one-way). Information obtained by processing information from the environmental sensor group 23 may partially overlap with information acquired via the wireless communication unit 25. The environment information may include information obtained from the GPS receiver 24 and the map database 28.

以下では、車両センサ群21から取得した各種情報、およびそれらの情報を加工することで得られた情報を「車両情報」と称し、生体センサ群22から取得した各種情報、およびそれらの情報を加工することで得られた情報を「ドライバ情報」と称し、環境センサ群23(GPS受信機24や地図データベース28を含む)から取得した各種情報、およびそれらの情報を加工することで得られた情報を「環境情報」と称し、無線通信部25を介して取得した各種情報を、およびそれらの情報を加工することで得られた情報を「通信情報」と称する。   Hereinafter, various information acquired from the vehicle sensor group 21 and information obtained by processing the information are referred to as “vehicle information”, and various information acquired from the biological sensor group 22 and the information are processed. The information obtained by doing this is referred to as “driver information”, and various information obtained from the environmental sensor group 23 (including the GPS receiver 24 and the map database 28) and information obtained by processing the information. Is referred to as “environment information”, various information acquired through the wireless communication unit 25, and information obtained by processing the information is referred to as “communication information”.

更に、特定情報(車両情報,ドライバ情報,環境情報,通信情報)のうち、ドライバの操作に関する車両情報を、運転行動に対するドライバの意図が反映された情報であるものとして「意図反映情報」とも称し、それ以外の情報を、ドライバの運転行動に影響を与える情報であるものとして「行動影響情報」とも称する。   Further, among the specific information (vehicle information, driver information, environmental information, communication information), the vehicle information related to the driver's operation is also referred to as “intention reflecting information” as information reflecting the driver's intention for driving behavior. The other information is also referred to as “behavior influence information” as information that affects the driving behavior of the driver.

更に、制御部29は、特定情報記録処理によって記録された特定情報に基づき、ドライバの注意が向いている位置を推定し、その推定結果に基づいて、ドライバに対する情報提供を行う情報提供処理を実行する。   Further, the control unit 29 estimates a position where the driver is paying attention based on the specific information recorded by the specific information recording process, and executes an information providing process for providing information to the driver based on the estimation result. To do.

また、制御部29を構成する不揮発性のメモリ(例えば、ROM)には、情報提供処理で使用される注意モデルが格納されている。この注意モデルとは、特定情報を、該特定情報に属する一又は複数の情報で構成された複数種類の生成情報群に分割し、その生成情報群毎に、該生成情報群の値とドライバの注意が向く位置(以下「注視点」と称する)との関係を示したものであり、事前の学習によって生成される。   In addition, a caution model used in the information providing process is stored in a non-volatile memory (for example, ROM) constituting the control unit 29. This attention model divides specific information into a plurality of types of generation information groups composed of one or a plurality of information belonging to the specific information, and for each generation information group, the value of the generation information group and the driver information It shows the relationship with the position where attention is directed (hereinafter referred to as “gaze point”), and is generated by prior learning.

なお、生成情報群は、特定情報の分類(車両情報,環境情報,ドライバ情報,通信情報)を単位としてもよいし、特定情報を関連性の強い情報毎にグループ化したものを単位としてもよいし、個別の特定情報を単位としてもよい。但し、本実施形態では、特定情報の分類毎に注意モデルが用意されている。   The generated information group may be based on classification of specific information (vehicle information, environmental information, driver information, communication information), or may be a unit obtained by grouping specific information for each highly relevant information. However, individual specific information may be used as a unit. However, in this embodiment, a caution model is prepared for each classification of specific information.

また、注意モデルは、具体的には、生成情報群に属する情報を入力として、前方画像を、決められた領域(例えば画素)毎に、注視点であるか否かを0,1の二値によって分類す識別器や、注視点であるか否かを0〜1の間の連続値によって確率的に推定する推定器等によって実現される。   Specifically, the attention model is input with information belonging to the generation information group, and whether the forward image is a gazing point for each predetermined area (for example, pixel) is binary of 0 and 1. Is realized by a classifier that classifies according to the above, an estimator that probabilistically estimates whether or not it is a gazing point by a continuous value between 0 and 1.

なお、注意モデルの形式(上述の識別器や推定器)は、全ての生成情報群について同じでもよいが、生成情報群毎に異なっていてもよい。
[情報提供処理]
ここで、制御部29が実行する情報提供処理を、図2に示すフローチャートに沿って説明する。
Note that the format of the attention model (the above-described discriminator and estimator) may be the same for all the generation information groups, but may be different for each generation information group.
[Information provision processing]
Here, the information provision process which the control part 29 performs is demonstrated along the flowchart shown in FIG.

本処理は、上述した特定情報取得処理が実行される毎、即ち、特定情報がRAM等に記録される毎に起動する。
本処理が起動すると、S110では、特定情報取得処理により記録された特定情報のうち、環境情報に基づき、前方画像中に存在するオブジェクトを抽出する。なお、抽出対象となるオブジェクトは、例えば、各種車両,歩行者,標識(路面標識を含む)信号機,道路上の障害物等、予め定められたものである。
This process is started every time the above-described specific information acquisition process is executed, that is, every time the specific information is recorded in the RAM or the like.
When this process is started, in S110, an object existing in the front image is extracted based on the environment information from the specific information recorded by the specific information acquisition process. The objects to be extracted are predetermined such as various vehicles, pedestrians, signs (including road signs) traffic lights, obstacles on the road, and the like.

S120では、S110にてオブジェクトが抽出されたか否かを判断し、オブジェクトが一つも抽出されていなければ、そのまま本処理を終了し、一つでも抽出されていれば、S130に進む。   In S120, it is determined whether or not an object has been extracted in S110. If no object has been extracted, this process ends. If any object has been extracted, the process proceeds to S130.

S130では、抽出したオブジェクトに基づく注意分布を作成する。ここで作成される注意分布は、オブジェクトが存在する位置を示すものであり、オブジェクトが検出された領域の分布値を一律に高く設定してもよいし、オブジェクトの位置,大きさ,種類等によって分布値を変化(例えば、自車両に近いほど高くする等)させてもよい。   In S130, an attention distribution based on the extracted object is created. The attention distribution created here indicates the position where the object exists, and the distribution value of the area where the object is detected may be set uniformly high, or depending on the position, size, type, etc. of the object The distribution value may be changed (for example, higher as the vehicle is closer).

続くS140では、前方画像の画像情報(輝度、色、エッジ)に基づく注意分布を作成する。ここで作成される注意分布は、ドライバが注意を向け易い位置を示すものであり、予め設定された規則に従って、画素毎に画像情報に応じた分布値を設定することで生成する。つまり、S130およびS140で作成される注意分布は、注意モデルを用いることなく、画像から得られる情報のみを用いて作成される。但し、オブジェクトに基づく注意分布については、オブジェクトの位置,大きさ,色等を入力とする注意モデルを用いて生成してもよい。   In subsequent S140, an attention distribution based on image information (luminance, color, edge) of the front image is created. The attention distribution created here indicates a position where the driver can easily pay attention, and is generated by setting a distribution value corresponding to the image information for each pixel according to a preset rule. That is, the attention distribution created in S130 and S140 is created using only the information obtained from the image without using the attention model. However, the attention distribution based on the object may be generated using a attention model that receives the position, size, color, and the like of the object.

続くS150では、特定情報取得処理により記録された特定情報の中に車両情報が存在するか否かを判断し、存在しない場合はそのままS170に進み、存在する場合はS160にて、車両情報に基づく注意分布を、学習モデルを用いて算出してS170に進む。   In subsequent S150, it is determined whether or not the vehicle information exists in the specific information recorded by the specific information acquisition process. If not, the process proceeds to S170 as it is, and if it exists, based on the vehicle information in S160. The attention distribution is calculated using the learning model, and the process proceeds to S170.

S170では、特定情報取得処理により記録された特定情報の中に環境情報が存在するか否かを判断し、存在しない場合はそのままS190に進み、存在する場合はS180にて、環境情報に基づく注意分布を、学習モデルを用いて算出してS190に進む。   In S170, it is determined whether or not environmental information exists in the specific information recorded by the specific information acquisition process. If there is no environmental information, the process proceeds directly to S190. The distribution is calculated using the learning model, and the process proceeds to S190.

S190では、特定情報取得処理により記録された特定情報の中にドライバ情報が存在するか否かを判断し、存在しない場合はそのままS210に進み、存在する場合はS200にて、ドライバ情報に基づく注意分布を、学習モデルを用いて算出してS210に進む。   In S190, it is determined whether or not the driver information exists in the specific information recorded by the specific information acquisition process. If it does not exist, the process proceeds to S210 as it is. The distribution is calculated using the learning model, and the process proceeds to S210.

S210では、特定情報取得処理により記録された特定情報の中に通信情報が存在するか否かを判断し、存在しない場合はそのままS230に進み、存在する場合はS220にて、通信情報に基づく注意分布を、学習モデルを用いて算出してS230に進む。   In S210, it is determined whether or not the communication information exists in the specific information recorded by the specific information acquisition process. If there is no communication information, the process proceeds to S230 as it is. The distribution is calculated using the learning model, and the process proceeds to S230.

なお、車両情報に基づく注意分布の生成(S160)は、車両情報を入力とする学習モデル(識別器または推定器)を用いて、注視点であるか否かの判定、あるいは注視点である確率はどの程度であるかの推定を、その判定や推定の対象となる領域毎に算出することによって行われる。ここでは、各車両情報について注意分布を生成し、生成された注意分布を加算/平均する等して統合する。このため、注意分布を生成する際に用いる車両情報は、注意モデルを生成する際に用いた車両情報が必ずしも全て揃っている必要はなく、車載装置2を搭載する個々の車両において、検出や生成が可能な車両情報だけを用いて車両情報に基づく注意分布を算出すればよい。このことは、環境情報に基づく注意分布の生成(S180)、ドライバ情報に基づく注意分布の生成(S200)、通信情報に基づく注意分布の生成(S220)でも同様である。   Note that the generation of the attention distribution based on the vehicle information (S160) uses a learning model (identifier or estimator) that receives the vehicle information as an input to determine whether or not it is a gaze point, or the probability that it is a gaze point. Is estimated by calculating for each area to be determined or estimated. Here, a caution distribution is generated for each vehicle information, and the generated caution distribution is integrated / added / averaged. For this reason, the vehicle information used when generating the attention distribution does not necessarily have all the vehicle information used when generating the attention model. It is only necessary to calculate the attention distribution based on the vehicle information using only the vehicle information that can be used. The same applies to generation of an attention distribution based on environment information (S180), generation of an attention distribution based on driver information (S200), and generation of an attention distribution based on communication information (S220).

S230では、先のS130,S140,S160,S180,S200,S220で生成された注意分布(以下では「個別分布」とも称する)を統合する。この場合、全て同じ重みで統合(単純加算や単純平均)してもよいし、個々に重み付けして統合(重み付け加算や重み付け平均)してもよい。以下では、本ステップで生成される注意分布を「統合分布」と称する。   In S230, the attention distribution (hereinafter also referred to as “individual distribution”) generated in S130, S140, S160, S180, S200, and S220 is integrated. In this case, all may be integrated (simple addition or simple average) with the same weight, or may be individually weighted and integrated (weighted addition or weighted average). Hereinafter, the attention distribution generated in this step is referred to as “integrated distribution”.

なお、図3は、S130〜S230の処理、即ち、特定情報に基づいて複数の個別分布を生成し、これらを統合することで最終的な統合分布を生成する処理のイメージを示した説明図である。   FIG. 3 is an explanatory diagram showing an image of the processes of S130 to S230, that is, a process of generating a plurality of individual distributions based on the specific information and integrating these to generate a final integrated distribution. is there.

続く240では、S110で抽出されたオブジェクトのそれぞれについて、そのオブジェクトに対してドライバの注意がどの程度向いているかの推定結果を示す注意量を、S230にて求められた統合分布を用いて求める。具体的には、統合分布上でオブジェクトが存在する領域の分布値に従って、注意量を大,中,小のいずれかに設定する。即ち、分布値が第1閾値以上であれば注意量は大、第1閾値より小さな値に設定された第2閾値以下であれば注意量は小、第1閾値より小さく第2閾値より大きければ注意量は中となる。   In subsequent 240, for each of the objects extracted in S110, an attention amount indicating an estimation result of how much the driver's attention is directed to the object is obtained using the integrated distribution obtained in S230. Specifically, the attention amount is set to either large, medium, or small according to the distribution value of the area where the object exists on the integrated distribution. That is, if the distribution value is equal to or greater than the first threshold, the attention amount is large. If the distribution value is equal to or smaller than the second threshold set to a value smaller than the first threshold, the attention amount is small. If the distribution amount is smaller than the first threshold and greater than the second threshold. The amount of attention is medium.

なお、オブジェクトが存在する領域の分布値としては、その領域に属する全ての分布値の和を用いてもよいし、その領域に属する分布値の平均値を用いてもよい。そして、このように算出された領域の分布値を、予め設定された閾値と比較することで、注意量を設定する。   As the distribution value of the area where the object exists, the sum of all distribution values belonging to the area may be used, or the average value of the distribution values belonging to the area may be used. Then, the attention value is set by comparing the distribution value of the area calculated in this way with a preset threshold value.

続くS250では、S110にて抽出されたオブジェクトのそれぞれについて、予め定められたルールに従って重要度を大,中,小のいずれかに設定する。
ここでのルールは、特定情報から特定される状況やオブジェクトの位置またはオブジェクト同士の相関関係、あるいはそれらの組合せを条件部とするIF−THENルールが用いられる。
In subsequent S250, the importance is set to one of large, medium, and small according to a predetermined rule for each of the objects extracted in S110.
As the rule here, an IF-THEN rule that uses a situation specified from specific information, a position of an object, a correlation between objects, or a combination thereof as a condition part is used.

具体的には、例えば、車両情報の一つである「ウインカの状態」が「右折」に設定されていれば(条件部)、画面の右側下方に位置するオブジェクトの重要度を大に設定する(帰結部)というルール、「(信号機や道路標識と推定される)オブジェクトまでの距離」が「所定値」以下であれば(条件部)、そのオブジェクトの重要度を大に設定する(帰結部)というルール、「横断歩道であると推定されるオブジェクト」が存在すれば(条件部)、そのオブジェクト上、および両端部付近に位置する歩行者であると推定されるオブジェクトの重要度を大に設定する(帰結部)というルール等が考えられる。なお、ルールの設定については、相関演算やApriori アルゴリズム等を利用することが考えられる。   Specifically, for example, if the “turner state” that is one of the vehicle information is set to “turn right” (condition part), the importance level of the object located on the lower right side of the screen is set to be large. If the rule (consequence part), “distance to object (presumed to be a traffic signal or road sign)” is less than or equal to “predetermined value” (condition part), the importance of the object is set to a large value (consequence part) ), “Object presumed to be a pedestrian crossing” (condition part), the importance of an object presumed to be a pedestrian located on that object and near both ends is greatly increased. A rule of setting (consecutive part) can be considered. Regarding rule setting, it is conceivable to use correlation calculation, Apriori algorithm, or the like.

続くS260では、S240で設定されたオブジェクトの注意量、S250で設定されたオブジェクトの重要度に基づき、そのオブジェクトに関する情報をドライバに提供するか否か、および、提示するのであればどのような形式で提示するかを判断し、その判断結果に従って情報提供を行って、本処理を終了する。   In subsequent S260, based on the attention amount of the object set in S240 and the importance level of the object set in S250, whether or not to provide the driver with information on the object, and any format to be presented The information is provided according to the determination result, and this processing is terminated.

ここで、図4は、S260での判定を行う際に用いる提示制御テーブルの内容を示す説明図である。図4中、○印は、情報を提示する、△印はドライバの状態によって提示/非提示を決める、×は提示しないを示すものである。つまり、オブジェクトの重要度が大の場合は、注意量によらず情報を提示し、重要度が中の場合は、注意量が中小であれば、情報を提示し、注意量が大であれば、ドライバの状態によって提示/非提示を決める。更に、重要度が小である場合は、注意量が小であれば情報を提示し、注意量が中であればドライバの状態によって提示/非提示を決め、注意量が大であれば提示しない。   Here, FIG. 4 is an explanatory diagram showing the contents of the presentation control table used when the determination in S260 is performed. In FIG. 4, ◯ indicates that information is presented, Δ indicates that presentation / non-presentation is determined according to the driver state, and x indicates that information is not presented. In other words, if the importance of an object is large, information is presented regardless of the amount of attention. If the importance is medium, information is presented if the attention amount is medium or small, and if the attention amount is large. The presentation / non-presentation is determined according to the driver status. Furthermore, when the degree of importance is small, information is presented if the attention amount is small, presentation / non-presentation is determined according to the driver state if the attention amount is medium, and not presented if the attention amount is large. .

なお、ドライバの状態とは、生体情報や車両情報等から求められる漫然運転度、覚醒度、運転熟練度などであり、例えば、漫然運転度が高いか、覚醒度が低いか、運転熟練度が低い場合には、情報を提示するように制御する。   Note that the driver's state refers to an abrupt driving degree, an arousal degree, a driving skill level, etc. required from biological information, vehicle information, etc., for example, whether the driving degree is absurd, the arousal level is low, or the driving skill level is When it is low, control is performed to present information.

また、情報の提示の仕方としては、重要度が大であれば触覚(振動),聴覚(音声),視覚(表示)を全て使った提示を行い、重要度が中であれば聴覚(音声),視覚(表示)を使った提示を行い、重要度が小であれば視覚(表示)のみを使った提示を行う。   In addition, as a method of presenting information, if the importance level is large, presentation using all of tactile sensation (vibration), hearing (sound), and vision (display) is performed. , Presentation using visual (display) is performed, and if importance is small, presentation using only visual (display) is performed.

なお、上述の制御では、重要度で情報の提示の仕方を制御しているが、注意量が大であれば視覚のみを使って提示を行い、注意量が中であれば聴覚,視覚を使った提示を行い、注意量が小であれば触覚,聴覚,視覚の全てを使った提示を行うように制御してもよい。   In the above-mentioned control, the method of presenting information is controlled by importance. However, if the amount of attention is large, presentation is performed using only visual information. If the amount of attention is medium, auditory and visual are used. If the attention amount is small, the presentation may be performed using all of tactile sensation, hearing, and vision.

更に、情報の提示の仕方を、図4中の○印、△印、×印と対応付けて、即ち、重要度と注意量の両方に基づいて制御してもよい。
[注意モデル]
次に、事前に行われる注意モデルの学習について説明する。
Furthermore, the method of presenting information may be controlled in association with the marks “◯”, “Δ”, and “X” in FIG. 4, that is, based on both the importance level and the attention amount.
[Caution model]
Next, attention model learning performed in advance will be described.

なお、注意モデルは、車両において学習してもよいが、本実施形態では、予め学習されたものを用いている。そして、注意モデルを学習する際には、多くのドライバについて収集したデータを利用する。   Note that the caution model may be learned in the vehicle, but in the present embodiment, a caution model is used. When learning the attention model, data collected for many drivers is used.

データの収集には、図5に示すように、上述した車載装置2に、ドライバの視線を検出する視線検出装置30を加えた学習用車載装置5を搭載した車両、又は学習に必要な情報を収集可能なドライブシミュレータを使用する。但し、学習用車載装置5では、車載装置2とは異なり、情報提供のための構成(情報提示部26)が省略されていてもよい。   For data collection, as shown in FIG. 5, a vehicle equipped with the in-vehicle device for learning 5 in which the gaze detection device 30 for detecting the driver's gaze is added to the in-vehicle device 2 described above, or information necessary for learning is collected. Use a collectable drive simulator. However, in the in-vehicle device 5 for learning, unlike the in-vehicle device 2, the configuration for providing information (information presentation unit 26) may be omitted.

[学習処理]
学習処理では、まず、学習用車載装置を搭載した車両を複数の被験者に運転させるか、複数の被験者にドライブシミュレータを使用させることによって、被験者の注視点(視線検出装置30での検出結果)と特定情報(車両情報,環境情報,ドライバ情報,通信情報)とを取得する。
[Learning process]
In the learning process, first, by causing a plurality of subjects to drive a vehicle equipped with the on-vehicle device for learning, or by causing a plurality of subjects to use a drive simulator, the gaze point of the subject (detection result by the line-of-sight detection device 30) and Specific information (vehicle information, environmental information, driver information, communication information) is acquired.

そして、特定情報を、該特定情報に属する一又は複数の情報で構成された複数種類の生成情報群に分割し、その生成情報群毎に、該生成情報群の値と注視点との関係を学習する。この学習には、サポートベクターマシン(SVM)や混合ガウス分布(GMM)などの統計的手法を利用する。   Then, the specific information is divided into a plurality of types of generated information groups composed of one or a plurality of information belonging to the specific information, and the relationship between the value of the generated information group and the gaze point is determined for each generated information group. learn. This learning uses a statistical method such as a support vector machine (SVM) or a mixed Gaussian distribution (GMM).

なお、生成情報群は、特定情報の分類(車両情報,環境情報,ドライバ情報,通信情報)を単位としてもよいし、特定情報を関連性の強い情報毎にグループ化したものを単位としてもよいし、個別の特定情報を単位としてもよい。   The generated information group may be based on classification of specific information (vehicle information, environmental information, driver information, communication information), or may be a unit obtained by grouping specific information for each highly relevant information. However, individual specific information may be used as a unit.

そして、SVMを利用した学習では、被験者の注視点を教師データとして、例えば、撮影した前方画像の注視点位置周辺にポジティブフラグを立て、注視点でないところには、ネガティブフラグを立てて、生成情報群に属する情報を入力として、前方画像を、決められた領域(例えば画素)毎に、注視点であるか否かを0,1の二値によって分類する識別器が得られるように学習する。   In learning using the SVM, the subject's gazing point is used as teacher data, for example, a positive flag is set around the gazing point position of the photographed forward image, and a negative flag is set at a position other than the gazing point to generate information. With the information belonging to the group as an input, learning is performed so that a discriminator that classifies whether or not the forward image is a gazing point for each predetermined region (for example, pixel) based on binary values of 0 and 1 is obtained.

また、GMMを利用した学習では、生成情報群に属する情報内容の幾つかについて(例えば、操舵角や自車速等)、それぞれの情報と前方画像における注視点位置の間の関係を表現するGMMを学習する。これらのGMMを更に加算もしくは乗算によって結合することにより、前方画像を、決められた領域(例えば画素)毎に、注視点であるか否かを0〜1の間の連続値によって確率的に推定する推定器を構成する。   Also, in learning using GMM, for some of the information contents belonging to the generated information group (for example, steering angle, own vehicle speed, etc.), a GMM that expresses the relationship between each piece of information and the point of interest position in the front image is used. learn. By further combining these GMMs by addition or multiplication, it is probabilistically estimated whether or not the forward image is a gazing point for each predetermined region (for example, pixel) by a continuous value between 0 and 1. An estimator is configured.

[効果]
以上説明したように、車載装置2は、ドライバの注意が向けられている位置(注視点)を、予め用意された注意モデルと、その時々で検出される特定情報とに基づいて生成される注意分布から推定し、その注意分布から前方画像中の各オブジェクトに対するドライバの注意量を算出すると共に、予め設定されたルールを用いて、特定情報から特定される状況に応じた各オブジェクトの重要度を設定し、その注意量と重要度とに基づいて、ドライバに対する情報の提供を制御するようにされている。
[effect]
As described above, the in-vehicle device 2 generates the attention (gaze point) where the driver's attention is directed based on the prepared attention model and the specific information detected at that time. Estimate from the distribution, calculate the driver's attention amount for each object in the forward image from the attention distribution, and use the preset rules to determine the importance of each object according to the situation specified from the specific information Setting and controlling the provision of information to the driver based on the amount of attention and importance.

なお、注意モデルは、ドライバの意図を示す情報やドライバの運転行動に影響を与える情報が反映されるように作成されている。つまり、注意モデルを用いることで、右左折や直進等のステアリング操作の種類(ドライバの意図が反映された情報)や、車速の高低や信号機の色(ドライバの運転行動に影響を与える情報)によって、異なった注意分布が得られることになる。   Note that the attention model is created so as to reflect information indicating the driver's intention and information affecting the driving behavior of the driver. In other words, by using a caution model, depending on the type of steering operation such as turning left or right or going straight (information that reflects the driver's intention), the level of the vehicle speed or the color of the traffic light (information that affects the driver's driving behavior) Different attention distributions will be obtained.

従って、車載装置2によれば、その時々の状況(ドライバの意図やドライバの運転行動に影響を与えるオブジェクトの存在等を含む)に応じて、その状況を考慮した的確な情報提供を実現することができる。   Therefore, according to the vehicle-mounted device 2, according to the occasional situation (including the presence of an object that affects the driver's intention and the driving behavior of the driver, etc.), accurate information provision considering the situation is realized. Can do.

しかも、車載装置2によれば、ドライバの注視点を注意モデルと特定情報とから推定するようにされているため、注視点を計測する計測器が必要な従来装置と比較して、簡易で安価な構成であるにも関わらず、より的確な制御を実現することができる。   Moreover, according to the in-vehicle device 2, since the driver's gaze point is estimated from the attention model and the specific information, it is simpler and less expensive than a conventional device that requires a measuring instrument that measures the gaze point. Despite the simple configuration, more accurate control can be realized.

ここで図6は、(a)が上述の学習モデルから生成した注意分布において、分布値(注意レベル)が上位何%に含まれる領域かを示した注意分布パーセント領域と、ドライバの注視点との一致率を測定した結果を表すグラフであり、(b)が学習モデルに基づいて生成した注意分布(統合分布)を、元の前方画像と対比して示したものであり、分布値が高いオブジェクトの上位3個についても丸数字によって明示した。   Here, FIG. 6A is a caution distribution percent area that indicates what percentage of the distribution value (attention level) is included in the attention distribution generated from the learning model described above. Is a graph showing the result of measuring the coincidence ratio of (2), (b) shows the attention distribution (integrated distribution) generated based on the learning model in comparison with the original forward image, and the distribution value is high The top three objects are also indicated by circle numbers.

前方画像としては、図7に示した様な実環境で右左折や直進、追従走行や追い越し等様々な状況を含む一般市街路にて取得した実車データを利用した。また、注意モデルとしては、上述したGMMを利用した推定器を用い、注意モデルに入力する特定情報としては、自車速と操舵角、車両検出結果を用いた。これにより、前述の様々な状況に対応できる注視モデルを構築した。   As the front image, actual vehicle data acquired in a general city road including various situations such as turning right and left, going straight, following traveling, and passing in the actual environment as shown in FIG. 7 was used. The estimator using the GMM described above is used as the caution model, and the own vehicle speed, the steering angle, and the vehicle detection result are used as the specific information input to the caution model. As a result, a gaze model that can cope with the various situations described above was constructed.

図6(a)中には、比較例として、非特許文献1の手法(従来手法)を用いて、画像の低次の特徴量(輝度・色・エッジなど)から注視点を推定した結果、および、全くランダムに注視点を設定した場合の一致率(チャンスレベル)を併記した。   In FIG. 6A, as a comparative example, the result of estimating the gazing point from the low-order feature amount (luminance, color, edge, etc.) of the image using the method of Non-Patent Document 1 (conventional method), In addition, the coincidence rate (chance level) when gaze points are set at random is also shown.

図からわかるように、従来手法は、チャンスレベルと同程度以下であるのに対して、車載装置2に適用した手法では、実際の視線との一致率が30%以上高く、ドライバの意図やドライバの運転行動に影響を与えるオブジェクト等の情報を、注意モデルに反映させることによって、注視点の推定精度が格段に改善されることがわかる。   As can be seen from the figure, the conventional method is less than or equal to the chance level, whereas the method applied to the in-vehicle device 2 has a high coincidence rate with the actual line of sight by 30% or more, and the driver's intention and driver It can be understood that the accuracy of gaze point estimation can be remarkably improved by reflecting information such as objects that affect the driving behavior of the user in the attention model.

また、車載装置2によれば、複数の注意モデルから注意分布(個別分布)を生成する際に、各種の特定情報を利用するが、必ずしも全ての特定情報が揃っていなくても、個別分布、ひいては統合分布の生成が可能であるため、取得可能な特定情報が異なる様々な車両に適用することができる。   Further, according to the in-vehicle device 2, various types of specific information are used when generating the attention distribution (individual distribution) from a plurality of attention models, but the individual distribution, As a result, since an integrated distribution can be generated, the present invention can be applied to various vehicles having different specific information that can be acquired.

上記実施形態において、環境センサ群23の中の前方画像を取得するカメラが画像取得手段、S110がオブジェクト抽出手段、情報提示部26およびS260が情報提供手段、制御部29が実行する特定情報記録処理が情報取得手段、制御部29を構成する不揮発性メモリであって注意モデルが記憶されたものがモデル記憶手段、S130〜S230が注意分布生成手段、S240が注意量算出手段、S250が重要度設定手段に相当する。   In the above embodiment, the camera that acquires the front image in the environmental sensor group 23 is the image acquisition unit, S110 is the object extraction unit, the information presentation unit 26 and S260 are the information provision unit, and the specific information recording process that the control unit 29 executes Is an information acquisition means, a non-volatile memory constituting the control unit 29 in which an attention model is stored, a model storage means, S130 to S230 are attention distribution generation means, S240 is an attention amount calculation means, and S250 is an importance setting. Corresponds to means.

以上本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。   Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the gist of the present invention.

例えば、上記実施形態では、オブジェクトの注意量とオブジェクトの重要度とをいずれも用いて提示する情報の制御を行うようにされているが、いずれか一方のみを用いて制御するように構成してもよい。   For example, in the above embodiment, the information to be presented is controlled using both the attention amount of the object and the importance level of the object, but the control is performed using only one of them. Also good.

1…運転支援システム 2…車載装置 3…通信インフラ 4…情報サーバ 5…学習用車載装置 21…車両センサ群 22…生体センサ群 23…環境センサ群 24…GPS受信機 25…無線通信部 26…情報提示部 27…指令入力部 28…地図データベース 29…制御部 30…視線検出装置   DESCRIPTION OF SYMBOLS 1 ... Driving assistance system 2 ... In-vehicle apparatus 3 ... Communication infrastructure 4 ... Information server 5 ... In-vehicle apparatus 21 for learning 21 ... Vehicle sensor group 22 ... Biosensor group 23 ... Environmental sensor group 24 ... GPS receiver 25 ... Wireless communication part 26 ... Information presentation unit 27 ... command input unit 28 ... map database 29 ... control unit 30 ... gaze detection device

Claims (9)

ドライバの視界に対応する画像を取得する画像取得手段と、
前記画像取得手段が取得した画像からオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクト抽出手段にて抽出されたオブジェクトに関する情報を提供する情報提供手段と、
を備えた情報提供装置において、
運転行動に対するドライバの意図が反映される情報又はドライバの運転行動に影響を与える情報である特定情報を取得する情報取得手段と、
前記特定情報が示す値と前記画像上でドライバの注意が向いている位置である注視点との関係を示した注意モデルを記憶するモデル記憶手段と、
前記モデル記憶手段に記憶された注意モデルに基づき、前記情報取得手段にて検出される特定情報から前記注視点を推定した注意分布を生成する注意分布生成手段と、
前記注意分布生成手段にて生成された注意分布に基づき、前記オブジェクト抽出手段にて抽出されたオブジェクト毎に、該オブジェクトに対するドライバの注意の度合いを表す注意量を求める注意量算出手段と、
を備え、
前記情報提供手段は、前記注意量算出手段にて算出された注意量に従って、提供する情報を制御することを特徴とする情報提供装置。
Image acquisition means for acquiring an image corresponding to the driver's field of view;
Object extraction means for extracting an object from the image acquired by the image acquisition means;
Information providing means for providing information about the object extracted by the object extracting means;
In an information providing device comprising:
Information acquisition means for acquiring specific information that is information that reflects the driver's intention for driving behavior or information that affects the driving behavior of the driver;
Model storage means for storing a caution model indicating a relationship between a value indicated by the specific information and a gaze point that is a position on the image where the driver's attention is directed;
Based on the attention model stored in the model storage means, attention distribution generation means for generating an attention distribution in which the gaze point is estimated from specific information detected by the information acquisition means;
Based on the attention distribution generated by the attention distribution generation means, for each object extracted by the object extraction means, attention amount calculation means for obtaining an attention amount representing the degree of attention of the driver with respect to the object;
With
The information providing apparatus controls the information to be provided according to the attention amount calculated by the attention amount calculation means.
前記モデル記憶手段に記憶される前記注意モデルは、前記特定情報に属する一又は複数の情報で構成された複数種類の生成情報群毎に用意され、
前記注意分布生成手段は、前記注意モデル毎に、前記情報取得手段にて検出された特定情報から前記注視点を推定した個別分布を生成し、該個別分布を統合することで注意分布を生成することを特徴とする請求項1に記載の情報提供装置。
The attention model stored in the model storage means is prepared for each of a plurality of types of generated information groups composed of one or a plurality of information belonging to the specific information,
The attention distribution generation unit generates, for each attention model, an individual distribution in which the gaze point is estimated from the specific information detected by the information acquisition unit, and generates the attention distribution by integrating the individual distributions. The information providing apparatus according to claim 1.
前記特定情報には、ドライバの操作に関する情報又は車両の挙動を示す情報のうち少なくとも一方を含む車両情報が含まれていることを特徴とする請求項1又は請求項2に記載の情報提供装置。   3. The information providing apparatus according to claim 1, wherein the specific information includes vehicle information including at least one of information related to a driver's operation or information indicating a behavior of the vehicle. 前記特定情報には、ドライバの生体反応に関する情報である表すドライバ情報が含まれていることを特徴とする請求項1乃至請求項3のいずれか1項に記載の情報提供装置。   4. The information providing apparatus according to claim 1, wherein the specific information includes driver information representing information related to a biological reaction of the driver. 5. 前記特定情報には、車両の走行環境に関する情報である環境情報が含まれていることを特徴とする請求項1乃至請求項4のいずれか1項に記載の情報提供装置。   The information providing apparatus according to any one of claims 1 to 4, wherein the specific information includes environment information that is information related to a driving environment of the vehicle. 前記環境情報の少なくとも一部を、路車間通信又は車車間通信によって取得することを特徴とする請求項5に記載の情報提供装置。   The information providing apparatus according to claim 5, wherein at least a part of the environmental information is acquired by road-to-vehicle communication or vehicle-to-vehicle communication. 前記オブジェクト抽出手段にて抽出されたオブジェクトの重要度を、予め設定されたルールに従って設定する重要度設定手段を備え、
前記情報提供手段は、前記注意量に加え、前記重要度設定手段にて設定された重要度に従って、提供する情報を制御することを特徴とする請求項1乃至請求項6のいずれか1項に記載の情報提供装置。
Importance level setting means for setting the importance level of the object extracted by the object extraction means according to a preset rule,
The information providing means controls information to be provided according to the importance set by the importance setting means in addition to the attention amount. The information providing apparatus according to the description.
前記重要度設定手段が重要度の設定に使用するルールには、前記情報取得手段にて取得される特定情報から特定される状況を条件とするものが少なくとも含まれていることを特徴とする請求項7に記載の情報提供装置。   The rule used by the importance level setting unit for setting the importance level includes at least a rule specified by a situation specified from the specific information acquired by the information acquisition unit. Item 8. The information providing device according to Item 7. 前記重要度設定手段が重要度の設定に使用するルールには、前記オブジェクト抽出手段にて抽出されたオブジェクトの位置やオブジェクト同士の相関関係を条件とするものが少なくとも含まれていることを特徴とする請求項1乃至請求項8のいずれか1項に記載の情報提供装置。   The rule used by the importance level setting means for setting the importance level includes at least a rule based on the position of the object extracted by the object extraction means and the correlation between objects. The information providing apparatus according to any one of claims 1 to 8.
JP2010250915A 2010-11-09 2010-11-09 Information provision device Pending JP2012103849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010250915A JP2012103849A (en) 2010-11-09 2010-11-09 Information provision device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010250915A JP2012103849A (en) 2010-11-09 2010-11-09 Information provision device

Publications (1)

Publication Number Publication Date
JP2012103849A true JP2012103849A (en) 2012-05-31

Family

ID=46394181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010250915A Pending JP2012103849A (en) 2010-11-09 2010-11-09 Information provision device

Country Status (1)

Country Link
JP (1) JP2012103849A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207163A (en) * 2014-04-21 2015-11-19 株式会社デンソー State estimation device and state estimation program
JP2017033194A (en) * 2015-07-30 2017-02-09 アイシン精機株式会社 Driving support device
CN113525389A (en) * 2020-04-09 2021-10-22 托比股份公司 Driver alertness detection method, device and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083400A (en) * 2000-09-06 2002-03-22 Honda Motor Co Ltd On-vehicle information processor for judging compatibility of view area of driver
JP2004178367A (en) * 2002-11-28 2004-06-24 Toyota Central Res & Dev Lab Inc Attention allocation control device
JP2006215728A (en) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd Driving information provision system
JP2008262388A (en) * 2007-04-12 2008-10-30 Toyota Central R&D Labs Inc Safety confirmation advice device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083400A (en) * 2000-09-06 2002-03-22 Honda Motor Co Ltd On-vehicle information processor for judging compatibility of view area of driver
JP2004178367A (en) * 2002-11-28 2004-06-24 Toyota Central Res & Dev Lab Inc Attention allocation control device
JP2006215728A (en) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd Driving information provision system
JP2008262388A (en) * 2007-04-12 2008-10-30 Toyota Central R&D Labs Inc Safety confirmation advice device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207163A (en) * 2014-04-21 2015-11-19 株式会社デンソー State estimation device and state estimation program
JP2017033194A (en) * 2015-07-30 2017-02-09 アイシン精機株式会社 Driving support device
CN113525389A (en) * 2020-04-09 2021-10-22 托比股份公司 Driver alertness detection method, device and system
CN113525389B (en) * 2020-04-09 2023-11-07 托比股份公司 Driver alertness detection method, apparatus and system

Similar Documents

Publication Publication Date Title
US11295143B2 (en) Information processing apparatus, information processing method, and program
CN108028015B (en) Information processing apparatus, information processing method, and storage medium
US10336252B2 (en) Long term driving danger prediction system
US20200398743A1 (en) Method and apparatus for learning how to notify pedestrians
JP5521893B2 (en) Driving support system, in-vehicle device
JP5311793B2 (en) Aside look status determination device
US20170174129A1 (en) Vehicular visual information system and method
JP6693354B2 (en) Vehicle information presentation device
CN110914882B (en) Display system and display method
JP2014081947A (en) Information distribution device
JPWO2018056103A1 (en) Vehicle control device, vehicle control method, and moving body
JP2004259069A (en) Alarm system for outputting alarm signal depending on vehicle hazard level
CN111383477B (en) Information presentation device
CN112997229A (en) Information processing apparatus, information processing method, and program
JP2004295472A (en) Warning device for vehicle
JP2012103849A (en) Information provision device
JP7376996B2 (en) Vehicle dangerous situation determination device, vehicle dangerous situation determination method, and program
WO2018212090A1 (en) Control device and control method
JP5742180B2 (en) Gaze point estimation device
CN113212451A (en) Rearview auxiliary system for intelligent driving automobile
JP2017004339A (en) Driver support device for vehicle
JP2018200701A (en) Vehicle control device
US20230118002A1 (en) Driving assistance apparatus and non-transitory computer readable medium
US20220358842A1 (en) Information processing apparatus, information processing method, and driving assistance system
JP2019086983A (en) Driving support device, driving condition information acquisition system, driving support method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140507