JP2017129973A - Driving support apparatus and driving support method - Google Patents

Driving support apparatus and driving support method Download PDF

Info

Publication number
JP2017129973A
JP2017129973A JP2016007998A JP2016007998A JP2017129973A JP 2017129973 A JP2017129973 A JP 2017129973A JP 2016007998 A JP2016007998 A JP 2016007998A JP 2016007998 A JP2016007998 A JP 2016007998A JP 2017129973 A JP2017129973 A JP 2017129973A
Authority
JP
Japan
Prior art keywords
information
unit
preliminary
driving
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016007998A
Other languages
Japanese (ja)
Inventor
勝浩 鶴田
Katsuhiro Tsuruta
勝浩 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016007998A priority Critical patent/JP2017129973A/en
Publication of JP2017129973A publication Critical patent/JP2017129973A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a driving support apparatus configured to improve the accuracy of estimating driving operation, and a driving support method.SOLUTION: A driving support apparatus includes a detection unit, an acquisition unit, an estimation unit, and an information generation unit. The detection unit detects preliminary behavior of a driver which is performed before operating a moving body. The acquisition unit acquires surrounding information on the surroundings of the moving body. The estimation unit estimates driving operation of the driver, on the basis of the preliminary behavior detected by the detection unit and the surrounding information acquired by the acquisition unit. The information generation unit generates support information for supporting the driving operation estimated by the estimation unit.SELECTED DRAWING: Figure 2

Description

本発明は、運転支援装置および運転支援方法に関する。   The present invention relates to a driving support device and a driving support method.

従来、運転者が移動体を操作する前に行う一連の動作を検出することで、運転者が行う運転操作を推定し、かかる運転操作を行うための運転支援を実施する運転支援装置がある。   2. Description of the Related Art Conventionally, there is a driving support device that estimates a driving operation performed by the driver by detecting a series of operations performed before the driver operates the moving body and performs driving support for performing the driving operation.

また、かかる装置は、過去に行った運転操作の前の一連の動作をパターンとして記憶しておくことで、新たに検出される運転者の動作から、運転操作の推定を可能にする技術が提案されている(例えば、特許文献1参照)。   In addition, this device proposes a technique that enables estimation of a driving operation from a newly detected driver's operation by storing a series of operations before a driving operation performed in the past as a pattern. (For example, refer to Patent Document 1).

特開2008−232912号公報JP 2008-232912 A

しかしながら、上述した従来技術では、運転者が特定の運転操作を意図せずに上記のパターンと類似する動作を行うと、パターンに対応する特定の運転操作を誤って推定する可能性がある。このように、従来技術には、運転操作の推定精度に改善の余地があった。   However, in the above-described prior art, if the driver performs an operation similar to the above pattern without intending a specific driving operation, there is a possibility that the specific driving operation corresponding to the pattern is erroneously estimated. Thus, the prior art has room for improvement in the estimation accuracy of the driving operation.

本発明は、上記に鑑みてなされたものであって、運転操作の推定精度を向上することができる運転支援装置および運転支援方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a driving support device and a driving support method that can improve the estimation accuracy of a driving operation.

上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、検出部と、取得部と、推定部と、情報生成部とを備える。検出部は、運転者が移動体を操作する前に行う予備動作を検出する。取得部は、移動体の周辺状況に関する周辺情報を取得する。推定部は、検出部が検出した予備動作および取得部が取得した周辺情報に基づき運転者が行う運転操作を推定する。情報生成部は、推定部が推定した運転操作を支援するための支援情報を生成する。   In order to solve the above-described problems and achieve the object, a driving support apparatus according to the present invention includes a detection unit, an acquisition unit, an estimation unit, and an information generation unit. The detection unit detects a preliminary operation performed before the driver operates the moving body. The acquisition unit acquires peripheral information related to the surrounding state of the moving object. The estimation unit estimates a driving operation performed by the driver based on the preliminary motion detected by the detection unit and the peripheral information acquired by the acquisition unit. The information generation unit generates support information for supporting the driving operation estimated by the estimation unit.

本発明によれば、運転操作の推定精度を向上することができる。   According to the present invention, it is possible to improve the estimation accuracy of a driving operation.

図1は、実施形態に係る運転支援方法の概要を示す図である。Drawing 1 is a figure showing an outline of a driving support method concerning an embodiment. 図2は、実施形態に係る運転支援装置を含む運転支援システムの構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a driving support system including the driving support device according to the embodiment. 図3Aは、運転者の視線の検出方法を示す図(その1)である。FIG. 3A is a diagram (part 1) illustrating a method for detecting a driver's line of sight. 図3Bは、運転者の視線の検出方法を示す図(その2)である。FIG. 3B is a diagram (part 2) illustrating a method for detecting a driver's line of sight. 図3Cは、運転者の視線の検出方法を示す図(その3)である。FIG. 3C is a diagram (No. 3) illustrating the method for detecting the driver's line of sight. 図4は、推定情報を示す図である。FIG. 4 is a diagram illustrating the estimation information. 図5は、実施形態に係る運転支援装置が実行する推定処理の処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of estimation processing executed by the driving support apparatus according to the embodiment. 図6は、運転支援装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 6 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the driving support apparatus. 図7は、実施形態の変形例に係る運転支援装置を含む運転支援システムの構成を示すブロック図である。FIG. 7 is a block diagram illustrating a configuration of a driving support system including a driving support device according to a modification of the embodiment. 図8は、推定情報の変形例を示す図である。FIG. 8 is a diagram illustrating a modified example of the estimation information.

以下、添付図面を参照して、本願の開示する運転支援装置および運転支援方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a driving support apparatus and a driving support method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

まず、実施形態に係る運転支援方法の概要について図1を用いて説明する。図1は、実施形態に係る運転支援方法の概要を示す図である。なお、以下では、運転支援方法が移動体である車両60に搭載される運転支援装置1によって実行される場合について説明する。   First, the outline | summary of the driving assistance method which concerns on embodiment is demonstrated using FIG. Drawing 1 is a figure showing an outline of a driving support method concerning an embodiment. Hereinafter, a case where the driving support method is executed by the driving support device 1 mounted on the vehicle 60 that is a moving body will be described.

また、ここでは移動体として、自動車である車両60を示しているがこれに限定されるものではなく、バスやタクシーなどの商用車両や、バイク、船舶等、運転者によって操作されるものであれば、どのような移動体であってもよい。   In addition, here, the vehicle 60 is shown as a moving body, but the present invention is not limited to this, and it may be operated by a driver such as a commercial vehicle such as a bus or taxi, a motorcycle, a ship, or the like. Any mobile body may be used.

図1には、車両60が前方車両61を追い越そうとする場面を示している。なお、図1に示す場面以外でも、本実施形態にかかる運転支援方法を適用することは可能であり、他の場面で適用する例については、図7および図8を用いて後述する。   FIG. 1 shows a scene where the vehicle 60 tries to pass the front vehicle 61. It is possible to apply the driving support method according to the present embodiment other than the scene shown in FIG. 1, and examples applied in other scenes will be described later with reference to FIGS. 7 and 8.

実施形態に係る運転支援方法は、運転者が車両60を操作する前に行う一連の動作(以下、予備動作と記載)および車両60の周辺状況に基づいて運転者が行う運転操作を推定することで、かかる運転操作を支援するものである。   The driving support method according to the embodiment estimates a driving operation performed by the driver based on a series of operations (hereinafter referred to as a preliminary operation) performed before the driver operates the vehicle 60 and a surrounding situation of the vehicle 60. Thus, this driving operation is supported.

具体的には、図1に示すように、まず、運転支援方法は、運転者が車両60を操作する前に行う予備動作を検出する(ステップS1)。ここで予備動作とは、運転操作に付随する動作であって、運転操作の前に無意識または意識的に行われる運転者の動作を指す。例えば、図1のように、運転者は、車線変更を行う前に、変更先の車線に他車両が存在するか否かを確認するため、サイドミラーを注視することが多い。そこで、例えば図1の場合では、運転支援装置1は、サイドミラーを注視する動作を予備動作として検出する。   Specifically, as shown in FIG. 1, first, the driving support method detects a preliminary operation that is performed before the driver operates the vehicle 60 (step S <b> 1). Here, the preliminary operation is an operation that accompanies the driving operation and refers to an operation of the driver that is performed unconsciously or consciously before the driving operation. For example, as shown in FIG. 1, the driver often looks at the side mirror to check whether there is another vehicle in the lane to be changed before changing the lane. Therefore, for example, in the case of FIG. 1, the driving assistance device 1 detects an operation of gazing at the side mirror as a preliminary operation.

次に、実施形態に係る運転支援方法は、車両60の周辺状況に関する周辺情報を取得し(ステップS2)、検出された予備動作およびかかる周辺情報に基づいて運転操作を推定する(ステップS3)。   Next, the driving support method according to the embodiment acquires peripheral information related to the surrounding situation of the vehicle 60 (step S2), and estimates a driving operation based on the detected preliminary movement and the peripheral information (step S3).

ここで、運転支援装置1が、予備動作およびかかる周辺情報に基づいて運転操作を推定する点について説明する。まず、運転支援装置1が仮に予備動作に基づいて運転操作を推定する場合について説明する。この場合、運転支援装置1は、運転操作と予備動作とを関連付けて記憶しているものとする。例えば、図1では、運転支援装置1が、サイドミラー注視動作と車線変更とを関連付けて記憶しておき、運転者から検出した予備動作が、車線変更の予備動作であるか否かを推定する。   Here, the point that the driving support device 1 estimates the driving operation based on the preliminary operation and the peripheral information will be described. First, a case where the driving support device 1 estimates a driving operation based on a preliminary operation will be described. In this case, it is assumed that the driving support device 1 stores the driving operation and the preliminary operation in association with each other. For example, in FIG. 1, the driving support device 1 associates and stores the side mirror gaze operation and the lane change, and estimates whether or not the preliminary operation detected from the driver is the preliminary operation for changing the lane. .

ところが、このように、予備動作に基づいて運転操作を推定すると、運転操作の推定精度が低下してしまう恐れがある。例えば、運転者が右折あるいは左折しようとした場合にもサイドミラーを注視することがある。この場合に、上述したように予備動作に基づいて運転操作を推定すると、右折あるいは左折という運転操作を誤って車線変更と推定する可能性がある。   However, if the driving operation is estimated based on the preliminary operation as described above, the estimation accuracy of the driving operation may be lowered. For example, the side mirror may be watched even when the driver tries to turn right or left. In this case, if the driving operation is estimated based on the preliminary movement as described above, the driving operation such as a right turn or a left turn may be erroneously estimated as a lane change.

そこで、実施形態に係る運転支援方法では、予備動作および周辺情報に基づいて運転操作を推定する。これにより、運転操作の誤推定を低減することができる。   Therefore, in the driving support method according to the embodiment, the driving operation is estimated based on the preliminary operation and the peripheral information. Thereby, the erroneous estimation of the driving operation can be reduced.

具体的に、運転支援装置1は、例えば周辺情報として車両60の周囲に存在する前方車両61等の物体情報を取得する。例えば、図1では、運転支援装置1は、かかる物体情報として前方車両61に関する情報(例えば、前方車両61との車間距離)を取得し、かかる情報とサイドミラーの注視動作とに基づいて運転操作が車線変更であると推定する。   Specifically, the driving assistance device 1 acquires object information such as the forward vehicle 61 existing around the vehicle 60 as, for example, peripheral information. For example, in FIG. 1, the driving support device 1 acquires information related to the forward vehicle 61 (for example, an inter-vehicle distance from the forward vehicle 61) as the object information, and performs a driving operation based on the information and the gaze operation of the side mirror. Is a lane change.

このように、類似の予備動作が運転者から検出された場合に、車両60の周辺がかかる予備動作の運転操作を行う必要がある状況であるか否かを判定することで、誤った運転操作の推定が為されることを低減できるため、運転操作の推定精度を向上することができる。   As described above, when a similar preliminary motion is detected from the driver, it is determined whether or not the periphery of the vehicle 60 is in a situation where it is necessary to perform the preliminary motion. The estimation accuracy of the driving operation can be improved.

そして、実施形態に係る運転支援方法は、推定した運転操作に応じて支援情報を生成する(ステップS4)。具体的には、運転支援装置1は、運転操作として車線変更を推定した場合に、例えば「車線変更ですか?ウインカーを出して、周辺車両に注意しながら車線変更してください」といった音声を車両60の図示しないスピーカから出力することで支援情報を運転者へ提示する。   And the driving assistance method which concerns on embodiment produces | generates assistance information according to the estimated driving operation (step S4). Specifically, when the driving support device 1 estimates a lane change as a driving operation, for example, the vehicle assists the vehicle with a voice such as “Is the lane changed? Please turn out the turn signal and pay attention to the surrounding vehicle.” The support information is presented to the driver by outputting from 60 speakers (not shown).

ここで、支援情報は、運転者が行う運転操作を支援するための情報であり、例えば、推定された運転操作を促す内容や、注意を喚起する内容などを含む。また、生成する支援情報は音声に限らず、たとえば車両60内に配置されるディスプレイに支援情報を表示するようにしてもよい。   Here, the support information is information for supporting the driving operation performed by the driver, and includes, for example, content for prompting the estimated driving operation, content for calling attention, and the like. Further, the support information to be generated is not limited to voice, and for example, the support information may be displayed on a display disposed in the vehicle 60.

なお、運転支援装置1が記憶する予備動作は、例えば、機械学習を用いて生成したパターンとしてもよい。運転支援装置1は、機械学習によって、膨大な過去の予備動作のデータからかかる予備動作の特徴を抽出し、かかる特徴を予備動作のパターンとして記憶する。   In addition, the preliminary | backup operation | movement which the driving assistance device 1 memorize | stores is good also as the pattern produced | generated using machine learning, for example. The driving support device 1 extracts the feature of the preliminary motion from a large amount of past preliminary motion data by machine learning, and stores the feature as a preliminary motion pattern.

過去の予備動作のデータはいわゆる教師データであり、特定の運転操作における、運転者の心身状態や道路特性等の様々な条件下での予備動作を含む。なお、機械学習の詳細な説明については後述する。   The past preliminary motion data is so-called teacher data, and includes preliminary motion under various conditions such as a driver's mind-body condition and road characteristics in a specific driving operation. A detailed description of machine learning will be described later.

これにより、運転支援装置1は、運転者から検出された予備動作と記憶された予備動作とが一致せずとも、予備動作の特徴が一致すれば推定が行える。そのため、運転者の心身状態や道路特性等によって予備動作が変化したとしても運転操作を推定することができ、運転操作の推定精度をより向上させることができる。   As a result, the driving support device 1 can perform estimation if the preliminary motion features match even if the preliminary motion detected by the driver does not match the stored preliminary motion. For this reason, even if the preliminary movement changes depending on the mind and body state of the driver, road characteristics, and the like, the driving operation can be estimated, and the estimation accuracy of the driving operation can be further improved.

また、運転者から検出される予備動作は、視線の動きに限定されるものではなく、運転者によるアクセルおよびブレーキ操作や顔の動き等の特定の運転操作と関連付けられる動作であればよい。   Further, the preliminary motion detected from the driver is not limited to the movement of the line of sight, and may be an operation associated with a specific driving operation such as an accelerator and brake operation or a facial movement by the driver.

また、周辺情報は、前方車両61の他に、後方車両や落下物などの物体情報や、交差点、分岐点、駐車場、信号機などの道路上の構成を含む地図情報であってもよい。   In addition to the forward vehicle 61, the peripheral information may be map information including object information such as a rear vehicle and a fallen object, and a road configuration such as an intersection, a branch point, a parking lot, and a traffic signal.

次に、図2を参照して、実施形態に係る運転支援方法が実行される運転支援装置1の構成について具体的に説明する。図2は、実施形態に係る運転支援装置1を含む運転支援システムSの構成を示すブロック図である。   Next, with reference to FIG. 2, the structure of the driving assistance apparatus 1 in which the driving assistance method which concerns on embodiment is performed is demonstrated concretely. FIG. 2 is a block diagram illustrating a configuration of the driving support system S including the driving support device 1 according to the embodiment.

図2に示すように、運転支援システムSは、例えば車両60に搭載され、運転支援装置1と、出力部2と、赤外線カメラ30と、赤外線LED31と、カメラ40と、位置検出部41とを備える。   As shown in FIG. 2, the driving support system S is mounted on, for example, a vehicle 60, and includes a driving support device 1, an output unit 2, an infrared camera 30, an infrared LED 31, a camera 40, and a position detection unit 41. Prepare.

出力部2は、運転支援装置1から出力される支援情報を運転者に対して提示する装置である。出力部2は、例えば、スピーカや、他にも図示しないナビゲーション装置のディスプレイであってもよい。この場合、例えばかかるディスプレイ上に支援情報を文字表示することで運転者に対して支援情報を提示する。あるいは、出力部2は、インストルメントパネルなどであってもよい。   The output unit 2 is a device that presents support information output from the driving support device 1 to the driver. The output unit 2 may be, for example, a speaker or a display of a navigation device (not shown). In this case, for example, the support information is presented to the driver by displaying the support information on the display. Alternatively, the output unit 2 may be an instrument panel or the like.

赤外線カメラ30および赤外線LED31は、例えば、運転席のステアリングコラムの上部に設けられ、赤外線カメラ30が赤外線LED31で照らした運転者の顔を含む領域を所定間隔で連続して撮像する。赤外線カメラ30から得られる赤外画像中には、運転者の眼球、目尻および目頭などが含まれる。   The infrared camera 30 and the infrared LED 31 are provided, for example, in the upper part of the steering column of the driver's seat, and continuously capture an area including the driver's face illuminated by the infrared LED 31 with a predetermined interval. The infrared image obtained from the infrared camera 30 includes the driver's eyeballs, the corners of the eyes and the eyes.

カメラ40は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるカメラであり、車両60の後方を撮像する位置に設置される。カメラ40によって撮像された画像は、運転支援装置1へ出力される。   The camera 40 is a camera including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example, and is installed at a position where the rear of the vehicle 60 is imaged. An image captured by the camera 40 is output to the driving support apparatus 1.

なお、カメラ40は、車両60の後方を撮像する位置に限定されず、前後左右の少なくとも一つの方向を撮像する位置であればよい。また、カメラ40は、車両60の周囲を撮像するように複数設けられてもよい。   In addition, the camera 40 is not limited to the position which images the back of the vehicle 60, What is necessary is just the position which images at least 1 direction of front and rear, right and left. Further, a plurality of cameras 40 may be provided so as to capture the surroundings of the vehicle 60.

位置検出部41は、車両60の現在地(例えば、緯度経度)を検出する。位置検出部41は、複数のGPS(Global Positioning System)衛星から出力される信号を受信し、受信された信号に基づいて車両60の現在地情報を取得する。また、位置検出部41は、GPS衛星から正確な現在時刻の情報も取得可能である。位置検出部41は、取得した情報を運転支援装置1へ通知する。なお、位置検出部41は、車両60にGPS機能を有したナビゲーション装置が搭載される場合、かかるナビゲーション装置のGPSが取得した車両60の位置や時刻の情報を取得してもよい。   The position detection unit 41 detects the current location (for example, latitude and longitude) of the vehicle 60. The position detection unit 41 receives signals output from a plurality of GPS (Global Positioning System) satellites, and acquires current location information of the vehicle 60 based on the received signals. The position detection unit 41 can also acquire accurate current time information from GPS satellites. The position detection unit 41 notifies the driving support device 1 of the acquired information. In addition, when the navigation apparatus which has a GPS function is mounted in the vehicle 60, the position detection part 41 may acquire the information of the position and time of the vehicle 60 which GPS of this navigation apparatus acquired.

実施形態に係る運転支援装置1は、制御部10と、記憶部20とを備える。制御部10は、検出部11と、取得部12と、学習部13と、推定部14と、情報生成部15とを備える。   The driving support device 1 according to the embodiment includes a control unit 10 and a storage unit 20. The control unit 10 includes a detection unit 11, an acquisition unit 12, a learning unit 13, an estimation unit 14, and an information generation unit 15.

制御部10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を備えるマイクロコンピュータである。かかるCPUは、たとえば、ROMに予め記憶されたプログラムに従い、演算処理を行うことで、上述した検出部11、取得部12、学習部13、推定部14および情報生成部15として機能する。   The control unit 10 is, for example, a microcomputer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). Such a CPU functions as, for example, the detection unit 11, the acquisition unit 12, the learning unit 13, the estimation unit 14, and the information generation unit 15 described above by performing arithmetic processing according to a program stored in advance in the ROM.

検出部11は、運転者が車両60を操作する前に行う予備動作を検出する。検出部11は、例えば、視線検出部11aを備え、赤外線LED31で照射された運転者の顔を含む赤外画像を赤外線カメラ30から取得することで、運転者の視線の動きを予備動作として検出する。   The detection unit 11 detects a preliminary operation performed before the driver operates the vehicle 60. The detection unit 11 includes, for example, a line-of-sight detection unit 11a, and detects the movement of the driver's line of sight as a preliminary movement by acquiring an infrared image including the driver's face irradiated by the infrared LED 31 from the infrared camera 30. To do.

ここで、図3Aおよび図3Bを参照して、視線検出部11aによる運転者の視線の検出方法について具体的に説明する。図3A〜図3Cは、視線検出部11aによる視線の検出方法を示す図である。   Here, with reference to FIG. 3A and FIG. 3B, the detection method of a driver | operator's eyes | visual_axis by the eyes | visual_axis detection part 11a is demonstrated concretely. 3A to 3C are diagrams illustrating a gaze detection method performed by the gaze detection unit 11a.

図3Aに示すように、視線検出部11aは、まず、赤外線LED31で照らした運転者の顔を赤外線カメラ30で撮像することによって得られる赤外画像から、例えばパターンマッチングによって運転者の目を含む領域を検出する。   As shown in FIG. 3A, the line-of-sight detection unit 11a first includes the eyes of the driver by pattern matching, for example, from an infrared image obtained by imaging the driver's face illuminated by the infrared LED 31 with the infrared camera 30. Detect areas.

そして、視線検出部11aは、検出した領域から目の領域に含まれる瞳孔101と、眼球上に生じる赤外照明反射像102(角膜反射)との位置関係により、運転者の視線方向を検出する。   Then, the line-of-sight detection unit 11a detects the driver's line-of-sight direction based on the positional relationship between the pupil 101 included in the eye area from the detected area and the infrared illumination reflection image 102 (corneal reflection) generated on the eyeball. .

たとえば、図3Aに示すように、瞳孔101が角膜反射102よりも目頭103側にあれば、運転者は目頭103側を視ていることが分かる。また、たとえば、瞳孔101が角膜反射102よりも目尻104側にあれば、運転者は目尻104側を視ていることが分かる。   For example, as shown in FIG. 3A, if the pupil 101 is closer to the eye 103 than the corneal reflection 102, it can be seen that the driver is looking at the eye 103. Further, for example, if the pupil 101 is closer to the corner of the eye 104 than the corneal reflection 102, it can be seen that the driver is looking at the corner of the eye 104.

なお、視線方向の検出は、赤外線カメラ30および赤外線LED31を用いた方法に限定されず、例えば、運転者の顔を撮像する位置に設けられたカメラの撮像画像から目、鼻、口等の特徴点を抽出し、抽出した特徴点に基づいて検出した運転者の顔の向きを視線の向きとしてもよい。   Note that the detection of the line-of-sight direction is not limited to the method using the infrared camera 30 and the infrared LED 31, and for example, features of eyes, nose, mouth, and the like from a captured image of a camera provided at a position where the driver's face is imaged. The direction of the driver's face detected based on the extracted feature points based on the extracted points may be used as the line-of-sight direction.

そして、視線検出部11aは、図3B左側の図に示すように、運転者の視点EP(例えば、赤外照明反射像102)から真正面方向の無限遠点∞を視る場合の視線方向を基準として、かかる基準と検出された視線方向とのなす角θを算出する。無限遠点∞は、例えば、勾配のない平坦な直線道路の消失点である。   Then, as shown in the left diagram of FIG. 3B, the line-of-sight detection unit 11a uses the line-of-sight direction when viewing the infinity point ∞ in the frontal direction from the driver's viewpoint EP (for example, the infrared illumination reflected image 102). Then, an angle θ between the reference and the detected line-of-sight direction is calculated. The infinity point ∞ is, for example, the vanishing point of a flat straight road without a gradient.

また、図3B右側の図は、縦軸が時間、横軸が視線方向のなす角θで示されるグラフである。視線検出部11aは、例えば所定間隔で連続してなす角θを算出することで、視線の動きを検出する。図3Bに示すグラフには、かかる視線の動きを時系列で示している。そして、視線検出部11aは、例えば学習部13が学習した予備動作のパターンに基づいて、視線の動きの中から予備動作を検出する。   The graph on the right side of FIG. 3B is a graph in which the vertical axis represents time, and the horizontal axis represents the angle θ formed by the line-of-sight direction. The line-of-sight detection unit 11a detects the movement of the line of sight, for example, by calculating an angle θ formed continuously at a predetermined interval. The graph shown in FIG. 3B shows the movement of the line of sight in time series. Then, the line-of-sight detection unit 11a detects the preliminary movement from the movement of the line of sight based on, for example, the pattern of the preliminary movement learned by the learning unit 13.

具体的には、例えば図3Cの左図に示すように、サイドミラー、前方、サイドミラーの順に視線を移動させる動きが、学習部13によって車線変更時の予備動作のパターンとして学習されているものとする。視線検出部11aは、運転者から検出される視線の動きの中から、例えば、パターン認識等によってかかるパターンと一致する視線の動きを予備動作として検出する。   Specifically, as illustrated in the left diagram of FIG. 3C, for example, the movement of moving the line of sight in the order of the side mirror, the front, and the side mirror is learned by the learning unit 13 as the pattern of the preliminary operation when changing the lane. And The line-of-sight detection unit 11a detects, as a preliminary movement, a line-of-sight movement that matches the pattern, for example, by pattern recognition, etc.

このように、運転者の視線の動きを予備動作として検出することで、運転者が運転操作のために特定の動作をせずとも運転操作の推測を行うことができる。なお、予備動作の検出は、学習部13が生成したパターンと完全に一致することを要せず、類似する動作であればよい。図2の視線検出部11aは、検出した予備動作を学習部13および推定部14へ通知する。   In this way, by detecting the movement of the driver's line of sight as a preliminary movement, the driving operation can be estimated without the driver performing a specific movement for the driving operation. The detection of the preliminary motion does not need to be completely coincident with the pattern generated by the learning unit 13 and may be a similar motion. 2 notifies the learning unit 13 and the estimation unit 14 of the detected preliminary movement.

図2に示す取得部12は、例えば、物体情報取得部12aと、地図情報取得部12bとを備え、車両60の周辺状況に関する周辺情報を取得する。   The acquisition unit 12 illustrated in FIG. 2 includes, for example, an object information acquisition unit 12a and a map information acquisition unit 12b, and acquires peripheral information related to the surrounding state of the vehicle 60.

物体情報取得部12aは、周辺情報として車両60の周辺に存在する物体に関する物体情報を取得する。物体情報は、例えば、車両60の周辺を走行している前方車両や後方車両等の移動体の有無や、道路上に落下した積荷等の落下物の有無等の情報である。また、物体情報は、かかる物体と車両60との距離の情報を含む。なお、物体情報は、これらに限定されず、運転操作に影響を与える物体に関する情報であればよい。   The object information acquisition unit 12a acquires object information related to objects existing around the vehicle 60 as the peripheral information. The object information is, for example, information such as the presence or absence of a moving body such as a front vehicle or a rear vehicle traveling around the vehicle 60, or the presence or absence of a fallen object such as a load that has fallen on the road. The object information includes information on the distance between the object and the vehicle 60. The object information is not limited to these, and may be information regarding an object that affects the driving operation.

物体情報取得部12aは、例えば、車両60の周辺を撮像するカメラ40の画像を取得し、パターン認識やオプティカルフロー等の検出方法を用いることで、物体の検出、検出した物体と車両60との相対速度やかかる物体までの距離等の物体情報を取得する。   The object information acquisition unit 12a acquires, for example, an image of the camera 40 that captures the periphery of the vehicle 60, and uses a detection method such as pattern recognition or optical flow to detect the object, and to detect the detected object and the vehicle 60. Get object information such as relative speed and distance to the object.

なお、物体情報取得部12aによる物体情報の取得は、カメラ40の画像から以外に、ミリ波レーダ等を用いて物体情報を取得してもよく、取得方法は特に限定されない。   The acquisition of object information by the object information acquisition unit 12a may acquire object information using a millimeter wave radar or the like other than the image of the camera 40, and the acquisition method is not particularly limited.

地図情報取得部12bは、周辺情報として地図情報21を取得する。地図情報21は、いわゆる電子地図データであり、交差点および道路上の地点を表すノードと、ノード間を結ぶ道路を表すリンクとによって表される道路網データである。ノードには、各ノードを識別するノードIDや、交差点や分岐点に関する情報等の属性情報などが含まれる。リンクには、各リンクを識別するリンクIDや、リンクに対応する道路種別(例えば、高速道路)などの属性情報が含まれる。また、道路網データは、施設情報を含み、かかる施設情報には、駐車場の有無や施設種別(例えば、飲食店)等の情報が含まれる。   The map information acquisition unit 12b acquires map information 21 as peripheral information. The map information 21 is so-called electronic map data, and is road network data represented by nodes representing intersections and points on the road and links representing roads connecting the nodes. The node includes a node ID for identifying each node and attribute information such as information on intersections and branch points. The link includes attribute information such as a link ID for identifying each link and a road type (for example, a highway) corresponding to the link. The road network data includes facility information, and the facility information includes information such as the presence / absence of a parking lot and a facility type (for example, a restaurant).

また、地図情報取得部12bは、位置検出部41から取得した車両60の現在地の情報を電子地図上における車両60の位置情報に変換する。なお、地図情報取得部12bは、地図情報21を予め記憶部20へ記憶する構成としたが、これに限定されず、例えば、外部に設置されたサーバ装置との通信や車載のナビゲーション装置から適宜地図情報21を取得する構成としてもよい。   Further, the map information acquisition unit 12b converts the current location information of the vehicle 60 acquired from the position detection unit 41 into position information of the vehicle 60 on the electronic map. Note that the map information acquisition unit 12b is configured to store the map information 21 in the storage unit 20 in advance, but is not limited thereto. For example, the map information acquisition unit 12b is appropriately connected to an external server device or an in-vehicle navigation device. The map information 21 may be acquired.

取得部12は、物体情報取得部12aおよび地図情報取得部12bが取得した各種情報を周辺情報として学習部13および推定部14へ通知する。   The acquisition unit 12 notifies the learning unit 13 and the estimation unit 14 of various information acquired by the object information acquisition unit 12a and the map information acquisition unit 12b as peripheral information.

学習部13は、検出部11が検出した予備動作および取得部12が取得した周辺情報に基づき、運転者の予備動作のパターンをいわゆる機械学習によって学習する。ここでは、学習の例として、車線変更を行う場合について説明する。   The learning unit 13 learns a driver's preliminary motion pattern by so-called machine learning based on the preliminary motion detected by the detection unit 11 and the peripheral information acquired by the acquisition unit 12. Here, the case where a lane change is performed will be described as an example of learning.

具体的には、学習部13は、車線変更の前に行った予備動作を視線検出部11aから取得し、かかる予備動作を開始した時刻の周辺情報を物体情報取得部12aから取得する。なお、ここでは、周辺情報として車両60と前方車両61との車間距離を取得するものとする。学習部13は、予備動作と周辺情報とを関連付けた教師データを予備動作のパターン学習用として用いるとともに、履歴データ22として記憶部20へ記憶する。   Specifically, the learning unit 13 acquires the preliminary movement performed before the lane change from the line-of-sight detection unit 11a, and acquires the peripheral information of the time when the preliminary movement is started from the object information acquisition unit 12a. Here, it is assumed that the inter-vehicle distance between the vehicle 60 and the forward vehicle 61 is acquired as the peripheral information. The learning unit 13 uses the teacher data associating the preliminary motion with the peripheral information for pattern learning of the preliminary motion and stores the history data 22 in the storage unit 20.

なお、ここで、学習部13は、運転者による運転操作(ここでは車線変更)を例えば図示しないステアリングセンサの検出結果に基づいて検出するものとする。あるいは、図示しない操作検出部がステアリングセンサ等の検出結果に基づいて運転操作を検出し、かかる検出結果を学習部13が取得するようにしてもよい。また、推定部14による推定結果を運転操作として取得するようにしてもよい。   Here, the learning unit 13 detects a driving operation (lane change in this case) by the driver based on, for example, a detection result of a steering sensor (not shown). Or the operation detection part which is not shown in figure detects a driving operation based on detection results, such as a steering sensor, and you may make it the learning part 13 acquire this detection result. Moreover, you may make it acquire the estimation result by the estimation part 14 as driving operation.

そして、学習部13による学習は、履歴データ22として蓄積された過去の複数の教師データと、取得した最新の教師データを用いて行われる。すなわち、現在および過去の膨大な教師データの集合から所定のアルゴリズムを用いて、車線変更時のパターンを学習する。学習部13は、学習したパターンを検出部11へ通知するとともに、推定情報23として記憶部20へ記憶する。   Then, learning by the learning unit 13 is performed using a plurality of past teacher data accumulated as the history data 22 and the latest acquired teacher data. That is, a pattern at the time of lane change is learned using a predetermined algorithm from a huge collection of teacher data at present and in the past. The learning unit 13 notifies the detection unit 11 of the learned pattern, and stores it in the storage unit 20 as the estimation information 23.

このように、学習部13によって学習される推定情報23は、過去の膨大な予備動作のデータの集合から共通する特徴を抽出しているため、運転者の予備動作が多少異なっても、予備動作に共通する特徴が含まれていれば、運転操作を推定できるため、推定精度をより向上させることができる。   In this way, the estimation information 23 learned by the learning unit 13 extracts common features from a large collection of past preliminary motion data, so that even if the preliminary motion of the driver is somewhat different, the preliminary motion If a common feature is included, the driving operation can be estimated, so that the estimation accuracy can be further improved.

なお、周辺情報は上述した例に限られない。例えば、視線検出部11aが検出した視線の動きに基づいて取得部12が取得した運転者の集中力や眠気等の心身状態や、地図情報取得部12bが取得した道路幅や車線数等の道路特性、気象情報、渋滞情報等、様々な状況に関する情報を取得して教師データとして用いることができる。かかる情報は、例えば取得部12が取得するものとする。これにより、車両60の周辺の環境や運転者の状態によって運転操作の推定精度に差が生じにくくすることができる。   The peripheral information is not limited to the example described above. For example, roads such as the driver's concentration and sleepiness acquired by the acquisition unit 12 based on the movement of the line of sight detected by the line-of-sight detection unit 11a, and the road width and the number of lanes acquired by the map information acquisition unit 12b. Information on various situations such as characteristics, weather information, and traffic jam information can be acquired and used as teacher data. Such information is acquired by the acquisition unit 12, for example. Thereby, it can be made difficult to produce a difference in the estimation accuracy of the driving operation depending on the environment around the vehicle 60 and the state of the driver.

なお、機械学習に用いられるアルゴリズムの例として、人工ニューラルネットワーク、サポートベクターマシン、決定木学習、相関ルール学習、ベイジアンネットワークなどが挙げられるが、これ以外のアルゴリズムでもよい。   Examples of algorithms used for machine learning include artificial neural networks, support vector machines, decision tree learning, correlation rule learning, and Bayesian networks, but other algorithms may be used.

また、学習部13を、運転支援装置1が備える構成とすることで、検出部11および取得部12の情報が入力される都度、推定情報23を最新版に更新することができる。なお、学習部13を運転支援装置1が必ずしも備える必要はなく、例えば、学習部13を、外部のサーバ装置が備えるようにしてもよい。   Moreover, the estimation part 23 can be updated to the newest version whenever the information of the detection part 11 and the acquisition part 12 is input by making the learning part 13 into the structure with which the driving assistance device 1 is provided. Note that the driving support device 1 does not necessarily include the learning unit 13. For example, the learning unit 13 may be included in an external server device.

かかる場合、運転支援装置1とサーバ装置とを通信可能に接続し、運転支援装置1から送信される履歴データ22に基づいて、サーバ装置が予備動作のパターンを学習し、学習結果である推定情報23を運転支援装置1へ送信する。   In such a case, the driving support device 1 and the server device are communicably connected to each other, the server device learns a preliminary operation pattern based on the history data 22 transmitted from the driving support device 1, and estimated information that is a learning result 23 is transmitted to the driving support device 1.

これにより、運転支援装置1が、予備動作のパターンを学習する必要がなくなり、運転支援装置1のCPUの処理負担を軽減することができる。   This eliminates the need for the driving assistance device 1 to learn the pattern of the preliminary operation, thereby reducing the processing load on the CPU of the driving assistance device 1.

推定部14は、検出部11が検出した予備動作と、取得部12が取得した周辺情報とに基づき、運転者が行う運転操作を推定する。推定部14の推定処理は、推定情報23に従って行われる。   The estimation unit 14 estimates a driving operation performed by the driver based on the preliminary movement detected by the detection unit 11 and the peripheral information acquired by the acquisition unit 12. The estimation process of the estimation unit 14 is performed according to the estimation information 23.

ここで、図4を参照して、推定部14の推定処理に用いる推定情報23の内容について説明する。図4は、推定情報23を示す図である。なお、推定情報23は、学習部13によって生成される。また、図4に示す推定情報23の内容は、一例であってこれに限定されるものではない。   Here, with reference to FIG. 4, the content of the estimation information 23 used for the estimation process of the estimation part 14 is demonstrated. FIG. 4 is a diagram showing the estimation information 23. The estimation information 23 is generated by the learning unit 13. Moreover, the content of the estimation information 23 shown in FIG. 4 is an example, and is not limited to this.

図4に示すように、推定情報23は、「運転操作」、「予備動作」、「周辺状況」といった項目を含む情報である。「運転操作」は、運転者が行う運転操作である。「予備動作」は、対応する運転操作を行う前の予備動作である。「周辺状況」は、運転操作が行われる際の車両60の周辺状況である。推定部14は、かかる推定情報23を参照することで、検出される予備動作および取得される周辺情報に基づいて運転操作が車線変更であるか否かを推定する。   As shown in FIG. 4, the estimation information 23 is information including items such as “driving operation”, “preliminary operation”, and “peripheral situation”. The “driving operation” is a driving operation performed by the driver. The “preliminary operation” is a preliminary operation before the corresponding driving operation is performed. The “surrounding situation” is a surrounding situation of the vehicle 60 when the driving operation is performed. The estimation unit 14 refers to the estimation information 23 to estimate whether the driving operation is a lane change based on the detected preliminary motion and the acquired peripheral information.

例えば、視線検出部11aによって検出された予備動作が、サイドミラー、前方、サイドミラーの順に動く視線の動き(図3C参照)であり、物体情報取得部12aが、車両60と前方車両61との車間距離が所定距離以下であることを示す物体情報を取得したとする。かかる場合、推定部14は、推定情報23に従い、運転者が車線変更を行うと推定する。   For example, the preliminary movement detected by the line-of-sight detection unit 11a is the movement of the line of sight that moves in the order of the side mirror, the front, and the side mirror (see FIG. 3C), and the object information acquisition unit 12a Assume that object information indicating that the inter-vehicle distance is equal to or less than a predetermined distance is acquired. In such a case, the estimation unit 14 estimates that the driver changes lanes according to the estimation information 23.

ここでは、例えば車両60が前方車両61を追い越すために車線変更を行う場合について説明したが、車線変更を行う例はこれに限られない。例えば、車両60の後方から接近する後方車両を回避するために車線変更を行う場合がある。このような場面の一例として、高速道路において車両60および後方車両が追越車線を走行中の場面が挙げられる。   Here, for example, the case where the vehicle 60 changes lanes in order to pass the preceding vehicle 61 has been described, but an example of changing lanes is not limited thereto. For example, a lane change may be performed in order to avoid a rear vehicle approaching from behind the vehicle 60. As an example of such a scene, a scene in which the vehicle 60 and a rear vehicle are traveling in an overtaking lane on a highway can be cited.

この場合、例えば視線検出部11aが予備動作として、サイドミラー、ルームミラー、サイドミラーの順に動く視線の動きを検出し、物体情報取得部12aが、後方車両の接近を示す周辺情報を取得する。後方車両の接近を示す周辺情報は、たとえば後方車両との距離が所定値以下であることを示す情報や、後方車両との相対速度が増加していることを示す情報などがある。このような場合に、推定部14は、推定情報23に従い、後方車両を回避するために車線変更を行うと推定する。なお、後方車両は、前方車両と同様の検出方法を用いることができる。   In this case, for example, the line-of-sight detection unit 11a detects the movement of the line of sight that moves in the order of the side mirror, the room mirror, and the side mirror as a preliminary operation, and the object information acquisition unit 12a acquires the peripheral information indicating the approach of the rear vehicle. The peripheral information indicating the approach of the rear vehicle includes, for example, information indicating that the distance to the rear vehicle is equal to or less than a predetermined value, information indicating that the relative speed with the rear vehicle is increasing, and the like. In such a case, the estimation unit 14 estimates that the lane change is performed according to the estimation information 23 in order to avoid the rear vehicle. The rear vehicle can use the same detection method as the front vehicle.

これにより、運転支援装置1は、他車両の追い越しや回避のための車線変更を精度良く推定することができ、推定結果に基づいて適切に支援することができる。   Thereby, the driving assistance device 1 can accurately estimate the lane change for overtaking or avoiding other vehicles, and can appropriately assist based on the estimation result.

なお、推定部14は、積載物等の落下物を物体情報として取得した場合にも、車両60とかかる落下物との距離が所定距離以下となり、所定の予備動作が検出されると、かかる予備動作に応じて車線変更や車両の停止といった推定を行うことができる。   Note that, even when a fallen object such as a load is acquired as object information, the estimation unit 14 detects such a spare when the distance between the vehicle 60 and the fallen object is equal to or less than a predetermined distance and a predetermined preliminary movement is detected. Estimation such as lane change or vehicle stop can be performed according to the operation.

このように、推定部14は、物体情報取得部12aが取得した物体情報に基づいて推定することで、物体情報の内容に応じた適切な運転操作の推定を行うことができる。   In this way, the estimation unit 14 can estimate an appropriate driving operation according to the content of the object information by performing estimation based on the object information acquired by the object information acquisition unit 12a.

また、検出部11によって運転者が右前方を広範囲に注視する動作が検出され、取得部12によって地図情報21に基づく車両60と右折レーンがある交差点との距離が所定距離以下であるという周辺情報が取得された場合、推定部14は、右折レーンへ車線変更を行うと推定する。   Further, the detection unit 11 detects an operation in which the driver gazes in the right front in a wide range, and the acquisition unit 12 determines that the distance between the vehicle 60 based on the map information 21 and the intersection where the right turn lane is equal to or less than a predetermined distance. Is acquired, it is estimated that the estimation part 14 will change a lane to the right turn lane.

また、検出部11によって分岐・合流先注視、サイドミラーの順に動く視線の動きが検出され、取得部12によって地図情報21に基づく車両60と分岐点または合流地点との距離が所定距離以下であるという周辺情報が取得された場合、推定部14は、分岐・合流するための車線変更を行うと推定する。   Further, the detection unit 11 detects the movement of the line of sight moving in the order of branching / confluence gazing and side mirrors, and the acquisition unit 12 determines that the distance between the vehicle 60 based on the map information 21 and the branch point or merging point is equal to or less than a predetermined distance. When the surrounding information is acquired, the estimation unit 14 estimates that the lane change for branching / merging is performed.

このように、推定部14は、地図情報取得部12bが地図情報21および車両60の位置情報を取得することで、車両60の現在地に応じた適切な運転操作の推定を行うことができる。そして、推定部14は、推定した運転操作を推定結果として情報生成部15へ通知する。   Thus, the estimation unit 14 can estimate an appropriate driving operation according to the current location of the vehicle 60 by the map information acquisition unit 12b acquiring the map information 21 and the position information of the vehicle 60. Then, the estimation unit 14 notifies the information generation unit 15 of the estimated driving operation as an estimation result.

情報生成部15は、推定部14の推定結果に基づいて、運転操作を支援するための支援情報24を生成する。具体的には、各運転操作に対応する支援内容が含まれる支援情報24が記憶部20に予め記憶されており、情報生成部15は、かかる支援情報24のうち推定結果の運転操作に応じて支援情報24の支援の内容を選択する。   The information generation unit 15 generates support information 24 for supporting driving operation based on the estimation result of the estimation unit 14. Specifically, support information 24 including support content corresponding to each driving operation is stored in advance in the storage unit 20, and the information generation unit 15 responds to the driving operation of the estimation result in the support information 24. The content of the support information 24 is selected.

例えば出力部2がスピーカである場合、情報生成部15は、例えば「車線変更ですか?ウインカーを出して、周辺車両に注意しながら車線変更してください」といった音声信号を支援情報24として生成する。   For example, when the output unit 2 is a speaker, the information generation unit 15 generates, as support information 24, an audio signal such as “Is the lane changed? Please turn out the turn signal and change the lane while paying attention to surrounding vehicles”. .

また、例えば出力部2がディスプレイ等の表示部である場合、上述した音声信号を示す文字情報を含む画像情報を支援情報24として生成する。なお、出力部2がスピーカおよびディスプレイ等の表示部を有する場合は、かかる音声情報および文字情報を支援情報24として生成する。   For example, when the output unit 2 is a display unit such as a display, the image information including the character information indicating the voice signal is generated as the support information 24. When the output unit 2 includes a display unit such as a speaker and a display, the voice information and the character information are generated as the support information 24.

なお、出力部2がインストルメントパネルである場合、例えばインストルメントパネル内のウインカーインジケーターを所定の点滅速度や所定の色で自動表示する表示情報を支援情報24として生成してもよい。この場合、運転者によるウインカー操作によって表示されるウインカーインジケーターの点滅速度や表示色と異なる点滅速度や表示色とすることで、運転者にウインカー操作を促す支援を行うようにしてもよい。情報生成部15は、選択した支援内容を支援情報24として出力部2へ出力する。   When the output unit 2 is an instrument panel, display information for automatically displaying a winker indicator in the instrument panel at a predetermined blinking speed or a predetermined color may be generated as the support information 24, for example. In this case, it may be possible to provide assistance for prompting the driver to perform a blinker operation by setting the blinking speed or display color to be different from the blinking speed or display color of the blinker indicator displayed by the driver operating the blinker. The information generation unit 15 outputs the selected support content as support information 24 to the output unit 2.

記憶部20は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、地図情報21、履歴データ22、推定情報23および支援情報24を記憶する。   The storage unit 20 is a storage unit configured by a storage device such as a nonvolatile memory or a hard disk drive, and stores map information 21, history data 22, estimation information 23, and support information 24.

次に、実施形態に係る運転支援装置1が実行する推定処理の処理手順について、図5を用いて説明する。図5は、実施形態に係る運転支援装置1が実行する推定処理の処理手順を示すフローチャートである。   Next, a processing procedure of estimation processing executed by the driving support device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating a processing procedure of estimation processing executed by the driving support device 1 according to the embodiment.

図5に示すように、検出部11は、運転者が車両60を操作する前に行う予備動作を検出する(ステップS101)。つづいて、取得部12は、車両60の周辺状況に関する周辺情報を取得する(ステップS102)。なお、ステップS101、ステップS102の処理については、その順序を入れ替えてもよく、同時に実行してもよい。   As shown in FIG. 5, the detection unit 11 detects a preliminary operation that is performed before the driver operates the vehicle 60 (step S <b> 101). Subsequently, the acquisition unit 12 acquires peripheral information related to the surrounding situation of the vehicle 60 (step S102). In addition, about the process of step S101 and step S102, the order may be changed and you may perform simultaneously.

つづいて、推定部14は、検出部11が検出した予備動作および取得部12が取得した周辺情報に基づき、運転者が行う運転操作を推定する(ステップS103)。つづいて、情報生成部15は、推定部14が推定した運転操作を支援するための支援情報24を生成し(ステップS104)、処理を終了する。   Subsequently, the estimation unit 14 estimates a driving operation performed by the driver based on the preliminary motion detected by the detection unit 11 and the peripheral information acquired by the acquisition unit 12 (step S103). Subsequently, the information generation unit 15 generates support information 24 for supporting the driving operation estimated by the estimation unit 14 (step S104), and ends the process.

また、実施形態に係る運転支援装置1は、図6に一例として示す構成のコンピュータ200で実現することができる。図6は、運転支援装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。   Further, the driving support apparatus 1 according to the embodiment can be realized by a computer 200 having a configuration illustrated as an example in FIG. 6. FIG. 6 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the driving support device 1.

コンピュータ200は、CPU(Central Processing Unit)210と、ROM(Read Only Memory)220と、RAM(Random Access Memory)230と、HDD(Hard Disk Drive)240とを備える。また、コンピュータ200は、メディアインターフェイス(I/F)250と、通信インターフェイス(I/F)260と、入出力インターフェイス(I/F)270とを備える。   The computer 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a RAM (Random Access Memory) 230, and an HDD (Hard Disk Drive) 240. The computer 200 also includes a media interface (I / F) 250, a communication interface (I / F) 260, and an input / output interface (I / F) 270.

なお、コンピュータ200は、SSD(Solid State Drive)を備え、かかるSSDがHDD240の一部または全ての機能を実行するようにしてもよい。また、HDD240に代えてSSDを設けることとしてもよい。   The computer 200 may include an SSD (Solid State Drive), and the SSD may execute a part or all of the functions of the HDD 240. Further, an SSD may be provided instead of the HDD 240.

CPU210は、ROM220およびHDD240の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM220は、コンピュータ200の起動時にCPU210によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラムなどを格納する。HDD240は、CPU210によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。   The CPU 210 operates based on a program stored in at least one of the ROM 220 and the HDD 240 and controls each unit. The ROM 220 stores a boot program executed by the CPU 210 when the computer 200 is started up, a program depending on the hardware of the computer 200, and the like. The HDD 240 stores a program executed by the CPU 210, data used by the program, and the like.

メディアI/F250は、記憶媒体280に格納されたプログラムやデータを読み取り、RAM230を介してCPU210に提供する。CPU210は、かかるプログラムを、メディアI/F250を介して記憶媒体280からRAM230上にロードし、ロードしたプログラムを実行する。あるいは、CPU210は、かかるデータを用いてプログラムを実行する。記憶媒体280は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。   The media I / F 250 reads programs and data stored in the storage medium 280 and provides them to the CPU 210 via the RAM 230. The CPU 210 loads such a program from the storage medium 280 onto the RAM 230 via the media I / F 250 and executes the loaded program. Alternatively, the CPU 210 executes a program using such data. The storage medium 280 is, for example, a magneto-optical recording medium such as a DVD (Digital Versatile Disc), an SD card, or a USB memory.

通信I/F260は、ネットワーク290を介して他の機器からデータを受信してCPU210に送り、CPU210が生成したデータを、ネットワーク290を介して他の機器へ送信する。あるいは、通信I/F260は、ネットワーク290を介して他の機器からプログラムを受信してCPU210に送り、CPU210がかかるプログラムを実行する。   The communication I / F 260 receives data from other devices via the network 290 and sends the data to the CPU 210, and transmits data generated by the CPU 210 to other devices via the network 290. Alternatively, the communication I / F 260 receives a program from another device via the network 290, sends the program to the CPU 210, and the CPU 210 executes the program.

CPU210は、入出力I/F270を介して、ディスプレイ等の出力部2を制御する。CPU210は、入出力I/F270を介して、出力部2からデータを取得する。また、CPU210は、生成したデータを入出力I/F270を介して出力部2に出力する。   The CPU 210 controls the output unit 2 such as a display via the input / output I / F 270. The CPU 210 acquires data from the output unit 2 via the input / output I / F 270. Further, the CPU 210 outputs the generated data to the output unit 2 via the input / output I / F 270.

例えば、コンピュータ200が運転支援装置1として機能する場合、コンピュータ200のCPU210は、RAM230上にロードされたプログラムを実行することにより、検出部11、取得部12、学習部13、推定部14および情報生成部15の各機能を実現する。   For example, when the computer 200 functions as the driving support device 1, the CPU 210 of the computer 200 executes a program loaded on the RAM 230, thereby detecting the detection unit 11, the acquisition unit 12, the learning unit 13, the estimation unit 14, and the information. Each function of the generation unit 15 is realized.

コンピュータ200のCPU210は、例えばこれらのプログラムを記憶媒体280から読み取って実行するが、他の例として、他の装置からネットワーク290を介してこれらのプログラムを取得してもよい。また、HDD240は、記憶部20が記憶する地図情報21、履歴データ22、推定情報23および支援情報24を記憶することができる。   The CPU 210 of the computer 200 reads and executes these programs from the storage medium 280, for example. However, as another example, these programs may be acquired from other devices via the network 290. The HDD 240 can store map information 21, history data 22, estimation information 23, and support information 24 stored in the storage unit 20.

上述してきたように、実施形態に係る運転支援装置1は、検出部11と、学習部13と、取得部12と、推定部14と、情報生成部15とを備える。検出部11は、運転者が車両60を操作する前に行う予備動作を検出する。学習部13は、予備動作および周辺情報に基づいて運転者の予備動作のパターンを学習する。取得部12は、車両60の周辺状況に関する周辺情報を取得する。推定部14は、検出部11が検出した予備動作および取得部12が取得した周辺情報に基づき、運転者が行う運転操作を推定する。情報生成部15は、推定部14が推定した運転操作を支援するための支援情報24を生成する。   As described above, the driving support device 1 according to the embodiment includes the detection unit 11, the learning unit 13, the acquisition unit 12, the estimation unit 14, and the information generation unit 15. The detection unit 11 detects a preliminary operation performed before the driver operates the vehicle 60. The learning unit 13 learns a driver's preliminary motion pattern based on the preliminary motion and surrounding information. The acquisition unit 12 acquires peripheral information related to the surrounding situation of the vehicle 60. The estimation unit 14 estimates a driving operation performed by the driver based on the preliminary motion detected by the detection unit 11 and the peripheral information acquired by the acquisition unit 12. The information generation unit 15 generates support information 24 for supporting the driving operation estimated by the estimation unit 14.

また、検出部11は、視線検出部11aを備える。視線検出部11aは、予備動作として車両60を操作する前の運転者の視線の動きを検出する。   The detection unit 11 includes a line-of-sight detection unit 11a. The line-of-sight detection unit 11a detects the movement of the driver's line of sight before operating the vehicle 60 as a preliminary operation.

また、取得部12は、物体情報取得部12aと、地図情報取得部12bとを備える。物体情報取得部12aは、周辺情報として車両60の周辺に存在する物体に関する物体情報を取得する。地図情報取得部12bは、周辺情報として地図情報21を取得する。   The acquisition unit 12 includes an object information acquisition unit 12a and a map information acquisition unit 12b. The object information acquisition unit 12a acquires object information related to objects existing around the vehicle 60 as the peripheral information. The map information acquisition unit 12b acquires map information 21 as peripheral information.

これにより、実施形態に係る運転支援装置1は、運転操作の推定精度を向上することができる。   Thereby, the driving assistance device 1 according to the embodiment can improve the estimation accuracy of the driving operation.

次に、図7および図8を用いて、実施形態の変形例を説明する。図7は、実施形態の変形例に係る運転支援装置1を含む運転支援システムSの構成を示すブロック図である。図8は、推定情報23の変形例を示す図である。   Next, a modified example of the embodiment will be described with reference to FIGS. FIG. 7 is a block diagram illustrating a configuration of a driving support system S including the driving support device 1 according to a modification of the embodiment. FIG. 8 is a diagram illustrating a modified example of the estimation information 23.

上述した実施形態では、検出部11が運転者の視線を予備動作として検出した場合を説明したが、例えば図7に示すように、検出部11が、車両60の走行に関する情報を取得する各種センサ群からの信号に基づいて予備動作を検出してもよい。   In the above-described embodiment, the case where the detection unit 11 detects the driver's line of sight as a preliminary motion has been described. For example, as illustrated in FIG. 7, the detection unit 11 acquires various types of sensors related to traveling of the vehicle 60. Preliminary movement may be detected based on signals from the group.

なお、図7に示す本変形例に係る運転支援装置1は、検出部11が視線以外の各種センサ群から予備動作を検出する点を除き、図2に示す運転支援装置1と同じであるため、同一符号を付し説明を省略する。   The driving support device 1 according to this modification shown in FIG. 7 is the same as the driving support device 1 shown in FIG. 2 except that the detection unit 11 detects a preliminary operation from various sensor groups other than the line of sight. The same reference numerals are given and the description is omitted.

図7に示すように、各種センサ群には、例えば車両60の走行速度を検出する車速センサ32、車両60のドアの開閉状態を検出するドアセンサ33、運転者のアクセル操作によるアクセル開度を検出するアクセル開度センサ34、運転者のブレーキ操作を検出するブレーキセンサ35、車両60のエンジン点火を制御するIGスイッチ36等が含まれる。検出部11はかかる各種センサ群が出力する各信号に基づいて予備動作を検出する。なお、各信号から予備動作を検出する方法は、視線の動きを示すなす角θに基づいて検出する場合と同様であるため説明を省略する。   As shown in FIG. 7, various sensor groups include, for example, a vehicle speed sensor 32 that detects the traveling speed of the vehicle 60, a door sensor 33 that detects the open / closed state of the door of the vehicle 60, and an accelerator opening degree by a driver's accelerator operation. An accelerator opening sensor 34 that detects the brake operation of the driver, an IG switch 36 that controls engine ignition of the vehicle 60, and the like. The detection unit 11 detects a preliminary operation based on each signal output from the various sensor groups. Note that the method for detecting the preliminary motion from each signal is the same as the method for detecting based on the angle θ indicating the movement of the line of sight, and thus the description thereof is omitted.

学習部13は、検出部11が検出する予備動作に基づいて予備動作のパターンを学習し、推定情報23を生成する。なお、学習部13が生成する推定情報23を除き、例えばパターンの学習方法等は、上述した実施形態と同様である。   The learning unit 13 learns a preliminary motion pattern based on the preliminary motion detected by the detection unit 11 and generates estimated information 23. Except for the estimation information 23 generated by the learning unit 13, for example, the pattern learning method and the like are the same as those in the above-described embodiment.

ここで、図8を用いて本変形例にかかる推定情報23の一例を説明する。図8に示すように、本変形例にかかる推定情報23には、「運転操作」として、車線変更以外に、右左折、発進、停車等の運転操作が含まれる。以下、推定部14が推定情報23に基づいて運転操作として右左折を推定する場合について説明する。   Here, an example of the estimation information 23 according to the present modification will be described with reference to FIG. As illustrated in FIG. 8, the estimation information 23 according to the present modification includes driving operations such as right / left turn, start, and stop in addition to the lane change as “driving operation”. Hereinafter, a case where the estimation unit 14 estimates a right / left turn as a driving operation based on the estimation information 23 will be described.

推定部14は、地図情報取得部12bが地図情報21および車両60の位置情報に基づき、車両60と交差点との距離が所定距離以下であることを示す周辺情報を取得した場合、車両60が交差点に接近したとして、検出部11が予備動作として減速の動作を検出すると、運転者が右左折の運転操作を行うと推定する。なお、推定部14は、予備動作として減速動作以外に運転者の視線の動きも併せて検出することで、運転者が注視する方向を曲折方向として特定することができる。   When the map information acquisition unit 12b acquires peripheral information indicating that the distance between the vehicle 60 and the intersection is equal to or less than a predetermined distance based on the map information 21 and the position information of the vehicle 60, the estimation unit 14 determines that the vehicle 60 If the detection unit 11 detects a deceleration operation as a preliminary operation, it is estimated that the driver performs a right / left turn driving operation. In addition, the estimation part 14 can specify the direction which a driver | operator gazes as a bending direction by detecting also the motion of a driver | operator's eyes | visual_axis other than deceleration operation | movement as preliminary operation | movement.

そして、情報生成部15は、運転操作が右左折であると推定された場合、車両60の死角を目視確認させる内容の支援情報24を生成する。これにより、運転支援装置1は、交差点等における右左折時に、運転者が死角を目視確認することなく曲がることを低減することができる。   Then, when it is estimated that the driving operation is a right / left turn, the information generation unit 15 generates the support information 24 that allows the blind spot of the vehicle 60 to be visually confirmed. Thereby, the driving assistance apparatus 1 can reduce that a driver | operator makes a turn without visually confirming a blind spot when turning right or left at an intersection or the like.

次に、発進について説明する。推定部14は、地図情報取得部12bが地図情報21および車両60の位置情報に基づき、車両60が駐車場で停車中であることを示す周辺情報を取得した場合、検出部11が予備動作としてドアロック解除、エンジン始動の動きを順に検出すると、運転者が発進の運転操作を行うと推定する。   Next, the start will be described. When the map information acquisition unit 12b acquires peripheral information indicating that the vehicle 60 is stopped at the parking lot based on the map information 21 and the position information of the vehicle 60, the estimation unit 14 performs the preliminary operation as the detection unit 11. When the door lock release and the engine start movement are detected in order, it is estimated that the driver performs the starting driving operation.

そして、情報生成部15は、運転操作が発進であると推定された場合、車両60の発進操作前に運転者に対して目視で周辺を確認させる内容の支援情報24を生成する。これにより、運転支援装置1は、駐車場において、運転者が周辺確認をすることなく発進するのを低減することができる。   And when it is estimated that driving operation is a start, the information generation part 15 produces | generates the assistance information 24 of the content which makes a driver | operator confirm the periphery visually before the start operation of the vehicle 60. FIG. Thereby, the driving assistance apparatus 1 can reduce starting in a parking lot, without a driver | operator confirming a periphery.

次に、停車について説明する。まず、地図情報取得部12bは、地図情報21および車両60の位置情報に基づき、車両60の進行方向に存在する信号機に関する信号機情報を取得する。   Next, stop will be described. First, the map information acquisition unit 12 b acquires traffic signal information related to traffic signals existing in the traveling direction of the vehicle 60 based on the map information 21 and the position information of the vehicle 60.

ここで、信号機に関する情報とは、例えば信号機と車両60との距離や、信号機の点灯色を示す情報である。なお、かかる情報は、例えば車両60に搭載され、車両60の前方を撮像するカメラ40の撮像画像に基づいて取得するようにしてもよい。この場合、取得部12がカメラ40の撮像画像から信号機までの距離や点灯色を検出し、信号機情報を生成するものとする。   Here, the information regarding the traffic light is information indicating the distance between the traffic light and the vehicle 60 and the lighting color of the traffic light, for example. Such information may be acquired based on a captured image of the camera 40 that is mounted on the vehicle 60 and images the front of the vehicle 60, for example. In this case, the acquisition unit 12 detects the distance from the captured image of the camera 40 to the traffic light and the lighting color, and generates traffic signal information.

推定部14は、地図情報取得部12bまたは取得部12が取得した信号機情報と、検出部11が検出した前方上方向の注視、車両60の減速動作の予備動作とに基づいて、運転操作が停車であると推定する。具体的には、信号機情報に基づき、車両60から所定距離内にある信号機の点灯色が停止を示す色であった場合に、運転者がかかる信号機を注視する予備動作や車両60を減速させる予備動作を行った場合に運転者が停車の運転操作を行うと推定する。   The estimation unit 14 stops the driving operation based on the traffic signal information acquired by the map information acquisition unit 12b or the acquisition unit 12, the upward upward gaze detected by the detection unit 11, and the preliminary operation of the deceleration operation of the vehicle 60. It is estimated that. Specifically, based on the traffic signal information, when the lighting color of the traffic signal within a predetermined distance from the vehicle 60 is a color indicating stop, the preliminary operation in which the driver gazes at the traffic signal or the standby mode for decelerating the vehicle 60 is performed. It is presumed that the driver performs the stop operation when the operation is performed.

これにより、情報生成部15は、運転操作が停車であると推定された場合、停車までの適切なブレーキのタイミング等の支援情報24を生成する。これにより、運転支援装置1は、信号機手前で停車する場合、運転者がスムーズなブレーキング操作を行うことを容易にすることができる。   Thereby, the information generation part 15 produces | generates the assistance information 24, such as an appropriate brake timing until a stop, when it is estimated that driving operation is a stop. Thereby, the driving assistance apparatus 1 can make it easy for the driver to perform a smooth braking operation when the vehicle stops before the traffic light.

なお、上述した変形例に係る推定情報23の「運転操作」は、車線変更、右左折、発進、停車に限定されず、予備動作および周辺状況から推測可能な運転操作であればよい。   Note that the “driving operation” of the estimation information 23 according to the above-described modification is not limited to lane change, right / left turn, start, and stop, and may be any driving operation that can be estimated from the preliminary operation and the surrounding situation.

なお、上述した実施形態および変形例では、周辺情報として車両60の周辺状況に関する情報を例に挙げて説明したが、周辺情報はこれに限られない。例えば、取得部12が周辺情報としてナビゲーション装置から車両60の経路に関する経路情報を取得するようにしてもよい。この場合、推定部14がかかる経路情報を用いて運転操作を推定するものとする。なお、かかる経路情報として、たとえば所定の目的地までの経路を案内する経路案内がある。   In the above-described embodiment and the modification, the information about the surrounding situation of the vehicle 60 is described as an example of the surrounding information, but the surrounding information is not limited thereto. For example, the acquisition unit 12 may acquire route information regarding the route of the vehicle 60 from the navigation device as the peripheral information. In this case, it is assumed that the estimation unit 14 estimates the driving operation using the route information. As such route information, for example, there is route guidance for guiding a route to a predetermined destination.

具体的に、推定部14は、例えば取得部12が取得した経路案内において右折予定の交差点まで所定距離以下であり、かつ、運転者が右サイドミラーを注視する等の右折の予備動作を行った場合、運転者が交差点を右折すると推定する。情報生成部15は、推定結果の運転操作として、例えば右折を支援する支援情報24を生成する。   Specifically, the estimation unit 14 performs a right-turn preliminary operation such as, for example, when the route guidance acquired by the acquisition unit 12 is a predetermined distance or less to an intersection scheduled to turn right and the driver gazes at the right side mirror. In this case, it is estimated that the driver turns right at the intersection. The information generation unit 15 generates support information 24 that supports, for example, a right turn as the driving operation of the estimation result.

一方、推定部14は、取得部12によって上述の経路案内が取得されても、運転者が右折の予備動作を行わない場合、運転者が交差点を直進または左折する、つまり、予め設定された経路案内を右折しないと推定する。   On the other hand, when the driver does not perform the right turn preliminary movement even when the acquisition unit 12 acquires the above-described route guidance, the estimation unit 14 goes straight or left at the intersection, that is, a preset route. Estimate that the guidance does not turn right.

この場合、情報生成部15は、推定結果に応じて、例えば右折予定の交差点を通知する支援情報24を生成する。これにより、例えば、運転者が経路案内が示す交差点での右折を見落としている場合であっても、運転者に対して運転操作(ここでは右折操作)を支援することができる。   In this case, the information generation unit 15 generates support information 24 for notifying an intersection scheduled to turn right, for example, according to the estimation result. Thereby, for example, even when the driver overlooks a right turn at the intersection indicated by the route guidance, the driver can be assisted in driving operation (right turn operation here).

また、経路情報の経路は、ナビゲーション装置から取得する経路案内の経路に限定されない。例えば、車両60の走行履歴であってもよい。この場合、例えば取得部12がナビゲーション装置から車両60が過去に走行した経路の履歴情報を取得し、学習部13がかかる履歴情報に基づいて運転者がよく使う経路を学習するようにしてもよい。よく使う経路の一例として、運転者が通勤時に使用する通勤経路等が挙げられる。   The route of the route information is not limited to the route guidance route acquired from the navigation device. For example, a travel history of the vehicle 60 may be used. In this case, for example, the acquisition unit 12 may acquire history information of a route traveled by the vehicle 60 in the past from the navigation device, and the learning unit 13 may learn a route frequently used by the driver based on the history information. . An example of a frequently used route is a commute route used by a driver when commuting.

例えば、まず学習部13が、取得部12がナビゲーション装置から取得した履歴情報に基づいて、車両60が所定回数以上走行したことのある経路を「よく使う経路」として学習し、推定情報23として記憶する。   For example, first, the learning unit 13 learns, as the “frequently used route”, a route that the vehicle 60 has traveled a predetermined number of times or more based on the history information acquired by the acquisition unit 12 from the navigation device, and stores it as the estimation information 23. To do.

そして、推定部14は、かかる推定情報23に基づいて、「よく使う経路」において右折する交差点まで所定距離以下であり、かつ、運転者が右折の予備動作を行った場合、運転者が交差点を右折すると推定する。   Then, based on the estimation information 23, the estimation unit 14 is less than a predetermined distance to the intersection that makes a right turn on the “frequently used route”, and when the driver performs a right turn preliminary operation, the driver determines the intersection. Presumed to turn right.

なお、取得部12がナビゲーション装置から取得する情報は経路情報に限られない。取得部12が、例えば車両60の現在地に基づき、特定の施設に関する施設情報をナビゲーション装置から取得するようにしてもよい。この場合、推定部14は、取得部12が取得した施設情報を用いて、運転操作を推定するものとする。   Information acquired by the acquisition unit 12 from the navigation device is not limited to route information. For example, the acquisition unit 12 may acquire facility information related to a specific facility from the navigation device based on the current location of the vehicle 60. In this case, the estimation unit 14 estimates the driving operation using the facility information acquired by the acquisition unit 12.

例えば、取得部12が、周辺情報として、運転者が過去に利用したことがあるガソリンスタンド等の商業施設が道路右側の側道周辺に位置していることを示す施設情報を取得したとする。この場合、推定部14は、運転者がかかる商業施設を注視する予備動作および右折する予備動作を行った場合、運転者が商業施設へ向かって右折すると推定する。   For example, it is assumed that the acquisition unit 12 acquires facility information indicating that a commercial facility such as a gas station that the driver has used in the past is located in the vicinity of the side road on the right side of the road as the peripheral information. In this case, the estimation unit 14 estimates that the driver turns right toward the commercial facility when the driver performs the preliminary operation of watching the commercial facility and the preliminary operation of turning right.

また、取得部12が、施設情報として、ナビゲーション装置が記憶する運転者が登録した登録地点(自宅や会社等)の情報を取得するようにし、推定部14がかかる登録地点の情報に基づいて運転操作を推定するようにしてもよい。   In addition, the acquisition unit 12 acquires information on registered points (home, company, etc.) registered by the driver stored in the navigation device as the facility information, and the estimation unit 14 drives based on the information on the registered points. The operation may be estimated.

例えば自宅へ向かう経路に、右折すると自宅に近づき直進または左折すると自宅から遠ざかる交差点が含まれるものとする。この場合、推定部14は、車両60とかかる交差点との距離が所定距離以下であり、かつ、運転者が右折の予備動作を行った場合、運転者が自宅へ向かうために交差点を右折すると推定する。   For example, it is assumed that the route toward the home includes an intersection that approaches the home when turning right and goes away from the home when moving straight or turning left. In this case, when the distance between the vehicle 60 and the intersection is equal to or less than a predetermined distance and the driver performs a right turn preliminary operation, the estimation unit 14 estimates that the driver turns right at the intersection in order to head home. To do.

このように、推定部14は、経路情報や施設情報を用いることで、運転者が走行する経路が特定できるため、特定した走行経路と予備動作とに基づいて運転操作を推定することで、運転操作の推定精度を向上することができる。   As described above, the estimation unit 14 can identify the route on which the driver travels by using the route information and the facility information. Therefore, the estimation unit 14 estimates the driving operation based on the identified travel route and the preliminary operation. The estimation accuracy of the operation can be improved.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 運転支援装置
11 検出部
11a 視線検出部
12 取得部
12a 物体情報取得部
12b 地図情報取得部
13 学習部
14 推定部
15 情報生成部
DESCRIPTION OF SYMBOLS 1 Driving assistance apparatus 11 Detection part 11a Gaze detection part 12 Acquisition part 12a Object information acquisition part 12b Map information acquisition part 13 Learning part 14 Estimation part 15 Information generation part

Claims (10)

運転者が移動体を操作する前に行う予備動作を検出する検出部と、
前記移動体の周辺状況に関する周辺情報を取得する取得部と、
前記検出部が検出した前記予備動作および前記取得部が取得した前記周辺情報に基づき前記運転者が行う運転操作を推定する推定部と、
前記推定部が推定した前記運転操作を支援するための支援情報を生成する情報生成部と
を備えることを特徴とする運転支援装置。
A detection unit that detects a preliminary operation performed before the driver operates the moving body;
An acquisition unit for acquiring peripheral information related to the surrounding situation of the moving body;
An estimation unit that estimates a driving operation performed by the driver based on the preliminary movement detected by the detection unit and the peripheral information acquired by the acquisition unit;
An information generation unit that generates support information for supporting the driving operation estimated by the estimation unit.
前記検出部は、
前記予備動作として前記移動体を操作する前の前記運転者の視線の動きを検出する視線検出部を備え、
前記推定部は、
前記視線検出部が検出した前記視線の動きおよび前記周辺情報に基づき前記運転操作を推定すること
を特徴とする請求項1に記載の運転支援装置。
The detector is
A line-of-sight detection unit that detects movement of the line of sight of the driver before operating the moving body as the preliminary operation
The estimation unit includes
The driving support device according to claim 1, wherein the driving operation is estimated based on the movement of the line of sight detected by the line-of-sight detection unit and the peripheral information.
前記予備動作および前記周辺情報に基づいて前記運転者の前記予備動作のパターンを学習する学習部をさらに備え、
前記推定部は、
前記学習部が学習した前記パターンと前記検出部が検出した前記予備動作と前記周辺情報とに基づき前記運転操作を推定すること
を特徴とする請求項1または2に記載の運転支援装置。
A learning unit that learns the pattern of the preliminary movement of the driver based on the preliminary movement and the peripheral information;
The estimation unit includes
The driving support device according to claim 1, wherein the driving operation is estimated based on the pattern learned by the learning unit, the preliminary movement detected by the detection unit, and the peripheral information.
前記取得部は、
前記周辺情報として前記移動体の周辺に存在する物体に関する物体情報を取得する物体情報取得部を備え、
前記推定部は、
前記物体情報取得部が取得した前記物体情報および前記予備動作に基づき前記運転操作を推定すること
を特徴とする請求項1、2または3に記載の運転支援装置。
The acquisition unit
An object information acquisition unit that acquires object information related to an object existing around the moving body as the peripheral information;
The estimation unit includes
The driving support device according to claim 1, wherein the driving operation is estimated based on the object information acquired by the object information acquisition unit and the preliminary movement.
前記物体情報取得部は、
前記移動体と前記移動体の前方および/または後方の前記物体との距離を取得し、
前記推定部は、
前記物体情報取得部が取得した前記距離が所定距離以下である場合、前記予備動作に基づき前記運転操作が車線変更であるか否かを推定すること
を特徴とする請求項4に記載の運転支援装置。
The object information acquisition unit
Obtaining a distance between the moving object and the object in front and / or behind the moving object;
The estimation unit includes
The driving support according to claim 4, wherein when the distance acquired by the object information acquisition unit is equal to or less than a predetermined distance, it is estimated whether the driving operation is a lane change based on the preliminary movement. apparatus.
前記取得部は、
前記周辺情報として地図情報を取得する地図情報取得部を備え、
前記推定部は、
前記地図情報取得部が取得した前記地図情報、前記移動体の現在地および前記予備動作に基づき前記運転操作を推定すること
を特徴とする請求項1、2または3に記載の運転支援装置。
The acquisition unit
A map information acquisition unit that acquires map information as the peripheral information,
The estimation unit includes
4. The driving support device according to claim 1, wherein the driving operation is estimated based on the map information acquired by the map information acquisition unit, a current location of the moving body, and the preliminary operation.
前記地図情報取得部は、
前記地図情報および前記移動体の現在地に基づき前記移動体の進行方向に存在する信号機に関する信号機情報を取得し、
前記推定部は、
前記地図情報取得部が取得した前記信号機情報と前記予備動作とに基づき前記運転操作が停車であるか否かを推定すること
を特徴とする請求項6に記載の運転支援装置。
The map information acquisition unit
Obtaining traffic signal information relating to traffic signals present in the traveling direction of the mobile body based on the map information and the current location of the mobile body;
The estimation unit includes
The driving support device according to claim 6, wherein whether or not the driving operation is a stop is estimated based on the traffic signal information acquired by the map information acquisition unit and the preliminary operation.
前記推定部は、
前記移動体が駐車場で停車している場合、前記予備動作に基づき前記運転操作が発進であるか否かを推定すること
を特徴とする請求項6または7に記載の運転支援装置。
The estimation unit includes
The driving support device according to claim 6 or 7, wherein when the moving body is stopped in a parking lot, it is estimated whether or not the driving operation is a start based on the preliminary movement.
前記推定部は、
前記移動体が前方の交差点へ接近する場合、前記予備動作に基づき前記運転操作が右左折であるか否かを推定すること
を特徴とする請求項6、7または8に記載の運転支援装置。
The estimation unit includes
The driving support device according to claim 6, 7 or 8, wherein when the moving body approaches a front intersection, it is estimated whether or not the driving operation is a right / left turn based on the preliminary movement.
運転者が移動体を操作する前に行う予備動作を検出する検出工程と、
前記移動体の周辺状況に関する周辺情報を取得する取得工程と、
前記検出工程が検出した前記予備動作および前記取得工程が取得した前記周辺情報に基づき前記運転者が行う運転操作を推定する推定工程と、
前記推定工程が推定した前記運転操作を支援するための支援情報を生成する情報生成工程と
を含むことを特徴とする運転支援方法。
A detection step for detecting a preliminary movement performed before the driver operates the moving body;
An acquisition step of acquiring peripheral information related to the peripheral state of the mobile body;
An estimation step of estimating a driving operation performed by the driver based on the preliminary movement detected by the detection step and the peripheral information acquired by the acquisition step;
An information generating step of generating support information for supporting the driving operation estimated by the estimating step.
JP2016007998A 2016-01-19 2016-01-19 Driving support apparatus and driving support method Pending JP2017129973A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016007998A JP2017129973A (en) 2016-01-19 2016-01-19 Driving support apparatus and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016007998A JP2017129973A (en) 2016-01-19 2016-01-19 Driving support apparatus and driving support method

Publications (1)

Publication Number Publication Date
JP2017129973A true JP2017129973A (en) 2017-07-27

Family

ID=59396192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016007998A Pending JP2017129973A (en) 2016-01-19 2016-01-19 Driving support apparatus and driving support method

Country Status (1)

Country Link
JP (1) JP2017129973A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200548A (en) * 2018-05-15 2019-11-21 日産自動車株式会社 On-vehicle unit, control method for on-vehicle unit, and preliminary action estimation system
CN111047908A (en) * 2018-10-12 2020-04-21 富士通株式会社 Detection device and method for cross-line vehicle and video monitoring equipment
WO2020170380A1 (en) * 2019-02-21 2020-08-27 三菱電機株式会社 Display control device and display control method
JP2021046031A (en) * 2019-09-17 2021-03-25 本田技研工業株式会社 Vehicle control system
US20220144200A1 (en) * 2020-11-12 2022-05-12 Toyoda Gosei Co., Ltd. Vehicle occupant protection system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200548A (en) * 2018-05-15 2019-11-21 日産自動車株式会社 On-vehicle unit, control method for on-vehicle unit, and preliminary action estimation system
JP7147259B2 (en) 2018-05-15 2022-10-05 日産自動車株式会社 In-vehicle device, control method for in-vehicle device, and preliminary motion estimation system
CN111047908A (en) * 2018-10-12 2020-04-21 富士通株式会社 Detection device and method for cross-line vehicle and video monitoring equipment
CN111047908B (en) * 2018-10-12 2021-11-02 富士通株式会社 Detection device and method for cross-line vehicle and video monitoring equipment
WO2020170380A1 (en) * 2019-02-21 2020-08-27 三菱電機株式会社 Display control device and display control method
JPWO2020170380A1 (en) * 2019-02-21 2021-05-20 三菱電機株式会社 Display control device and display control method
JP2021046031A (en) * 2019-09-17 2021-03-25 本田技研工業株式会社 Vehicle control system
JP7094254B2 (en) 2019-09-17 2022-07-01 本田技研工業株式会社 Vehicle control system
US20220144200A1 (en) * 2020-11-12 2022-05-12 Toyoda Gosei Co., Ltd. Vehicle occupant protection system
JP7400697B2 (en) 2020-11-12 2023-12-19 豊田合成株式会社 Vehicle occupant protection system

Similar Documents

Publication Publication Date Title
KR102351592B1 (en) Default preview area and gaze-based driver distraction detection
CN112965502B (en) Visual tracking confirmation method, device, equipment and storage medium
US10232772B2 (en) Driver assistance system
CN112141124A (en) Driving assistance system for vehicle and operation method thereof
JPWO2018066710A1 (en) Traveling support device and computer program
US20140354684A1 (en) Symbology system and augmented reality heads up display (hud) for communicating safety information
JP2017129973A (en) Driving support apparatus and driving support method
JP5898001B2 (en) Vehicle periphery monitoring device
JP2010122821A (en) Vehicle driving support device
JP2014120111A (en) Travel support system, travel support method, and computer program
JP2017151694A (en) Safety confirmation diagnostic system and safety confirmation diagnostic method
JP2014120114A (en) Travel support system, travel support method, and computer program
JP6891926B2 (en) Vehicle systems, methods performed on vehicle systems, and driver assistance systems
JP6136238B2 (en) Driving support system, driving support method, and computer program
JP4968369B2 (en) In-vehicle device and vehicle recognition method
US20210291736A1 (en) Display control apparatus, display control method, and computer-readable storage medium storing program
JP2006236094A (en) Obstacle recognition system
JP6631569B2 (en) Operating state determining apparatus, operating state determining method, and program for determining operating state
JP2014120113A (en) Travel support system, travel support method, and computer program
JP2017062706A (en) Travel support system, travel support method, and computer program
JP2005293479A (en) Object danger decision device
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
WO2023029469A1 (en) Vehicle traveling warning method and apparatus
JP6805974B2 (en) Driving support device and computer program
WO2022244356A1 (en) Light interference detection during vehicle navigation