JP2017129973A - Driving support apparatus and driving support method - Google Patents
Driving support apparatus and driving support method Download PDFInfo
- Publication number
- JP2017129973A JP2017129973A JP2016007998A JP2016007998A JP2017129973A JP 2017129973 A JP2017129973 A JP 2017129973A JP 2016007998 A JP2016007998 A JP 2016007998A JP 2016007998 A JP2016007998 A JP 2016007998A JP 2017129973 A JP2017129973 A JP 2017129973A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- preliminary
- driving
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、運転支援装置および運転支援方法に関する。 The present invention relates to a driving support device and a driving support method.
従来、運転者が移動体を操作する前に行う一連の動作を検出することで、運転者が行う運転操作を推定し、かかる運転操作を行うための運転支援を実施する運転支援装置がある。 2. Description of the Related Art Conventionally, there is a driving support device that estimates a driving operation performed by the driver by detecting a series of operations performed before the driver operates the moving body and performs driving support for performing the driving operation.
また、かかる装置は、過去に行った運転操作の前の一連の動作をパターンとして記憶しておくことで、新たに検出される運転者の動作から、運転操作の推定を可能にする技術が提案されている(例えば、特許文献1参照)。 In addition, this device proposes a technique that enables estimation of a driving operation from a newly detected driver's operation by storing a series of operations before a driving operation performed in the past as a pattern. (For example, refer to Patent Document 1).
しかしながら、上述した従来技術では、運転者が特定の運転操作を意図せずに上記のパターンと類似する動作を行うと、パターンに対応する特定の運転操作を誤って推定する可能性がある。このように、従来技術には、運転操作の推定精度に改善の余地があった。 However, in the above-described prior art, if the driver performs an operation similar to the above pattern without intending a specific driving operation, there is a possibility that the specific driving operation corresponding to the pattern is erroneously estimated. Thus, the prior art has room for improvement in the estimation accuracy of the driving operation.
本発明は、上記に鑑みてなされたものであって、運転操作の推定精度を向上することができる運転支援装置および運転支援方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a driving support device and a driving support method that can improve the estimation accuracy of a driving operation.
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、検出部と、取得部と、推定部と、情報生成部とを備える。検出部は、運転者が移動体を操作する前に行う予備動作を検出する。取得部は、移動体の周辺状況に関する周辺情報を取得する。推定部は、検出部が検出した予備動作および取得部が取得した周辺情報に基づき運転者が行う運転操作を推定する。情報生成部は、推定部が推定した運転操作を支援するための支援情報を生成する。 In order to solve the above-described problems and achieve the object, a driving support apparatus according to the present invention includes a detection unit, an acquisition unit, an estimation unit, and an information generation unit. The detection unit detects a preliminary operation performed before the driver operates the moving body. The acquisition unit acquires peripheral information related to the surrounding state of the moving object. The estimation unit estimates a driving operation performed by the driver based on the preliminary motion detected by the detection unit and the peripheral information acquired by the acquisition unit. The information generation unit generates support information for supporting the driving operation estimated by the estimation unit.
本発明によれば、運転操作の推定精度を向上することができる。 According to the present invention, it is possible to improve the estimation accuracy of a driving operation.
以下、添付図面を参照して、本願の開示する運転支援装置および運転支援方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a driving support apparatus and a driving support method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.
まず、実施形態に係る運転支援方法の概要について図1を用いて説明する。図1は、実施形態に係る運転支援方法の概要を示す図である。なお、以下では、運転支援方法が移動体である車両60に搭載される運転支援装置1によって実行される場合について説明する。
First, the outline | summary of the driving assistance method which concerns on embodiment is demonstrated using FIG. Drawing 1 is a figure showing an outline of a driving support method concerning an embodiment. Hereinafter, a case where the driving support method is executed by the driving support device 1 mounted on the
また、ここでは移動体として、自動車である車両60を示しているがこれに限定されるものではなく、バスやタクシーなどの商用車両や、バイク、船舶等、運転者によって操作されるものであれば、どのような移動体であってもよい。
In addition, here, the
図1には、車両60が前方車両61を追い越そうとする場面を示している。なお、図1に示す場面以外でも、本実施形態にかかる運転支援方法を適用することは可能であり、他の場面で適用する例については、図7および図8を用いて後述する。
FIG. 1 shows a scene where the
実施形態に係る運転支援方法は、運転者が車両60を操作する前に行う一連の動作(以下、予備動作と記載)および車両60の周辺状況に基づいて運転者が行う運転操作を推定することで、かかる運転操作を支援するものである。
The driving support method according to the embodiment estimates a driving operation performed by the driver based on a series of operations (hereinafter referred to as a preliminary operation) performed before the driver operates the
具体的には、図1に示すように、まず、運転支援方法は、運転者が車両60を操作する前に行う予備動作を検出する(ステップS1)。ここで予備動作とは、運転操作に付随する動作であって、運転操作の前に無意識または意識的に行われる運転者の動作を指す。例えば、図1のように、運転者は、車線変更を行う前に、変更先の車線に他車両が存在するか否かを確認するため、サイドミラーを注視することが多い。そこで、例えば図1の場合では、運転支援装置1は、サイドミラーを注視する動作を予備動作として検出する。 Specifically, as shown in FIG. 1, first, the driving support method detects a preliminary operation that is performed before the driver operates the vehicle 60 (step S <b> 1). Here, the preliminary operation is an operation that accompanies the driving operation and refers to an operation of the driver that is performed unconsciously or consciously before the driving operation. For example, as shown in FIG. 1, the driver often looks at the side mirror to check whether there is another vehicle in the lane to be changed before changing the lane. Therefore, for example, in the case of FIG. 1, the driving assistance device 1 detects an operation of gazing at the side mirror as a preliminary operation.
次に、実施形態に係る運転支援方法は、車両60の周辺状況に関する周辺情報を取得し(ステップS2)、検出された予備動作およびかかる周辺情報に基づいて運転操作を推定する(ステップS3)。 Next, the driving support method according to the embodiment acquires peripheral information related to the surrounding situation of the vehicle 60 (step S2), and estimates a driving operation based on the detected preliminary movement and the peripheral information (step S3).
ここで、運転支援装置1が、予備動作およびかかる周辺情報に基づいて運転操作を推定する点について説明する。まず、運転支援装置1が仮に予備動作に基づいて運転操作を推定する場合について説明する。この場合、運転支援装置1は、運転操作と予備動作とを関連付けて記憶しているものとする。例えば、図1では、運転支援装置1が、サイドミラー注視動作と車線変更とを関連付けて記憶しておき、運転者から検出した予備動作が、車線変更の予備動作であるか否かを推定する。 Here, the point that the driving support device 1 estimates the driving operation based on the preliminary operation and the peripheral information will be described. First, a case where the driving support device 1 estimates a driving operation based on a preliminary operation will be described. In this case, it is assumed that the driving support device 1 stores the driving operation and the preliminary operation in association with each other. For example, in FIG. 1, the driving support device 1 associates and stores the side mirror gaze operation and the lane change, and estimates whether or not the preliminary operation detected from the driver is the preliminary operation for changing the lane. .
ところが、このように、予備動作に基づいて運転操作を推定すると、運転操作の推定精度が低下してしまう恐れがある。例えば、運転者が右折あるいは左折しようとした場合にもサイドミラーを注視することがある。この場合に、上述したように予備動作に基づいて運転操作を推定すると、右折あるいは左折という運転操作を誤って車線変更と推定する可能性がある。 However, if the driving operation is estimated based on the preliminary operation as described above, the estimation accuracy of the driving operation may be lowered. For example, the side mirror may be watched even when the driver tries to turn right or left. In this case, if the driving operation is estimated based on the preliminary movement as described above, the driving operation such as a right turn or a left turn may be erroneously estimated as a lane change.
そこで、実施形態に係る運転支援方法では、予備動作および周辺情報に基づいて運転操作を推定する。これにより、運転操作の誤推定を低減することができる。 Therefore, in the driving support method according to the embodiment, the driving operation is estimated based on the preliminary operation and the peripheral information. Thereby, the erroneous estimation of the driving operation can be reduced.
具体的に、運転支援装置1は、例えば周辺情報として車両60の周囲に存在する前方車両61等の物体情報を取得する。例えば、図1では、運転支援装置1は、かかる物体情報として前方車両61に関する情報(例えば、前方車両61との車間距離)を取得し、かかる情報とサイドミラーの注視動作とに基づいて運転操作が車線変更であると推定する。
Specifically, the driving assistance device 1 acquires object information such as the
このように、類似の予備動作が運転者から検出された場合に、車両60の周辺がかかる予備動作の運転操作を行う必要がある状況であるか否かを判定することで、誤った運転操作の推定が為されることを低減できるため、運転操作の推定精度を向上することができる。
As described above, when a similar preliminary motion is detected from the driver, it is determined whether or not the periphery of the
そして、実施形態に係る運転支援方法は、推定した運転操作に応じて支援情報を生成する(ステップS4)。具体的には、運転支援装置1は、運転操作として車線変更を推定した場合に、例えば「車線変更ですか?ウインカーを出して、周辺車両に注意しながら車線変更してください」といった音声を車両60の図示しないスピーカから出力することで支援情報を運転者へ提示する。 And the driving assistance method which concerns on embodiment produces | generates assistance information according to the estimated driving operation (step S4). Specifically, when the driving support device 1 estimates a lane change as a driving operation, for example, the vehicle assists the vehicle with a voice such as “Is the lane changed? Please turn out the turn signal and pay attention to the surrounding vehicle.” The support information is presented to the driver by outputting from 60 speakers (not shown).
ここで、支援情報は、運転者が行う運転操作を支援するための情報であり、例えば、推定された運転操作を促す内容や、注意を喚起する内容などを含む。また、生成する支援情報は音声に限らず、たとえば車両60内に配置されるディスプレイに支援情報を表示するようにしてもよい。
Here, the support information is information for supporting the driving operation performed by the driver, and includes, for example, content for prompting the estimated driving operation, content for calling attention, and the like. Further, the support information to be generated is not limited to voice, and for example, the support information may be displayed on a display disposed in the
なお、運転支援装置1が記憶する予備動作は、例えば、機械学習を用いて生成したパターンとしてもよい。運転支援装置1は、機械学習によって、膨大な過去の予備動作のデータからかかる予備動作の特徴を抽出し、かかる特徴を予備動作のパターンとして記憶する。 In addition, the preliminary | backup operation | movement which the driving assistance device 1 memorize | stores is good also as the pattern produced | generated using machine learning, for example. The driving support device 1 extracts the feature of the preliminary motion from a large amount of past preliminary motion data by machine learning, and stores the feature as a preliminary motion pattern.
過去の予備動作のデータはいわゆる教師データであり、特定の運転操作における、運転者の心身状態や道路特性等の様々な条件下での予備動作を含む。なお、機械学習の詳細な説明については後述する。 The past preliminary motion data is so-called teacher data, and includes preliminary motion under various conditions such as a driver's mind-body condition and road characteristics in a specific driving operation. A detailed description of machine learning will be described later.
これにより、運転支援装置1は、運転者から検出された予備動作と記憶された予備動作とが一致せずとも、予備動作の特徴が一致すれば推定が行える。そのため、運転者の心身状態や道路特性等によって予備動作が変化したとしても運転操作を推定することができ、運転操作の推定精度をより向上させることができる。 As a result, the driving support device 1 can perform estimation if the preliminary motion features match even if the preliminary motion detected by the driver does not match the stored preliminary motion. For this reason, even if the preliminary movement changes depending on the mind and body state of the driver, road characteristics, and the like, the driving operation can be estimated, and the estimation accuracy of the driving operation can be further improved.
また、運転者から検出される予備動作は、視線の動きに限定されるものではなく、運転者によるアクセルおよびブレーキ操作や顔の動き等の特定の運転操作と関連付けられる動作であればよい。 Further, the preliminary motion detected from the driver is not limited to the movement of the line of sight, and may be an operation associated with a specific driving operation such as an accelerator and brake operation or a facial movement by the driver.
また、周辺情報は、前方車両61の他に、後方車両や落下物などの物体情報や、交差点、分岐点、駐車場、信号機などの道路上の構成を含む地図情報であってもよい。
In addition to the
次に、図2を参照して、実施形態に係る運転支援方法が実行される運転支援装置1の構成について具体的に説明する。図2は、実施形態に係る運転支援装置1を含む運転支援システムSの構成を示すブロック図である。 Next, with reference to FIG. 2, the structure of the driving assistance apparatus 1 in which the driving assistance method which concerns on embodiment is performed is demonstrated concretely. FIG. 2 is a block diagram illustrating a configuration of the driving support system S including the driving support device 1 according to the embodiment.
図2に示すように、運転支援システムSは、例えば車両60に搭載され、運転支援装置1と、出力部2と、赤外線カメラ30と、赤外線LED31と、カメラ40と、位置検出部41とを備える。
As shown in FIG. 2, the driving support system S is mounted on, for example, a
出力部2は、運転支援装置1から出力される支援情報を運転者に対して提示する装置である。出力部2は、例えば、スピーカや、他にも図示しないナビゲーション装置のディスプレイであってもよい。この場合、例えばかかるディスプレイ上に支援情報を文字表示することで運転者に対して支援情報を提示する。あるいは、出力部2は、インストルメントパネルなどであってもよい。
The
赤外線カメラ30および赤外線LED31は、例えば、運転席のステアリングコラムの上部に設けられ、赤外線カメラ30が赤外線LED31で照らした運転者の顔を含む領域を所定間隔で連続して撮像する。赤外線カメラ30から得られる赤外画像中には、運転者の眼球、目尻および目頭などが含まれる。
The
カメラ40は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるカメラであり、車両60の後方を撮像する位置に設置される。カメラ40によって撮像された画像は、運転支援装置1へ出力される。
The
なお、カメラ40は、車両60の後方を撮像する位置に限定されず、前後左右の少なくとも一つの方向を撮像する位置であればよい。また、カメラ40は、車両60の周囲を撮像するように複数設けられてもよい。
In addition, the
位置検出部41は、車両60の現在地(例えば、緯度経度)を検出する。位置検出部41は、複数のGPS(Global Positioning System)衛星から出力される信号を受信し、受信された信号に基づいて車両60の現在地情報を取得する。また、位置検出部41は、GPS衛星から正確な現在時刻の情報も取得可能である。位置検出部41は、取得した情報を運転支援装置1へ通知する。なお、位置検出部41は、車両60にGPS機能を有したナビゲーション装置が搭載される場合、かかるナビゲーション装置のGPSが取得した車両60の位置や時刻の情報を取得してもよい。
The
実施形態に係る運転支援装置1は、制御部10と、記憶部20とを備える。制御部10は、検出部11と、取得部12と、学習部13と、推定部14と、情報生成部15とを備える。
The driving support device 1 according to the embodiment includes a
制御部10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を備えるマイクロコンピュータである。かかるCPUは、たとえば、ROMに予め記憶されたプログラムに従い、演算処理を行うことで、上述した検出部11、取得部12、学習部13、推定部14および情報生成部15として機能する。
The
検出部11は、運転者が車両60を操作する前に行う予備動作を検出する。検出部11は、例えば、視線検出部11aを備え、赤外線LED31で照射された運転者の顔を含む赤外画像を赤外線カメラ30から取得することで、運転者の視線の動きを予備動作として検出する。
The
ここで、図3Aおよび図3Bを参照して、視線検出部11aによる運転者の視線の検出方法について具体的に説明する。図3A〜図3Cは、視線検出部11aによる視線の検出方法を示す図である。
Here, with reference to FIG. 3A and FIG. 3B, the detection method of a driver | operator's eyes | visual_axis by the eyes |
図3Aに示すように、視線検出部11aは、まず、赤外線LED31で照らした運転者の顔を赤外線カメラ30で撮像することによって得られる赤外画像から、例えばパターンマッチングによって運転者の目を含む領域を検出する。
As shown in FIG. 3A, the line-of-
そして、視線検出部11aは、検出した領域から目の領域に含まれる瞳孔101と、眼球上に生じる赤外照明反射像102(角膜反射)との位置関係により、運転者の視線方向を検出する。
Then, the line-of-
たとえば、図3Aに示すように、瞳孔101が角膜反射102よりも目頭103側にあれば、運転者は目頭103側を視ていることが分かる。また、たとえば、瞳孔101が角膜反射102よりも目尻104側にあれば、運転者は目尻104側を視ていることが分かる。
For example, as shown in FIG. 3A, if the
なお、視線方向の検出は、赤外線カメラ30および赤外線LED31を用いた方法に限定されず、例えば、運転者の顔を撮像する位置に設けられたカメラの撮像画像から目、鼻、口等の特徴点を抽出し、抽出した特徴点に基づいて検出した運転者の顔の向きを視線の向きとしてもよい。
Note that the detection of the line-of-sight direction is not limited to the method using the
そして、視線検出部11aは、図3B左側の図に示すように、運転者の視点EP(例えば、赤外照明反射像102)から真正面方向の無限遠点∞を視る場合の視線方向を基準として、かかる基準と検出された視線方向とのなす角θを算出する。無限遠点∞は、例えば、勾配のない平坦な直線道路の消失点である。
Then, as shown in the left diagram of FIG. 3B, the line-of-
また、図3B右側の図は、縦軸が時間、横軸が視線方向のなす角θで示されるグラフである。視線検出部11aは、例えば所定間隔で連続してなす角θを算出することで、視線の動きを検出する。図3Bに示すグラフには、かかる視線の動きを時系列で示している。そして、視線検出部11aは、例えば学習部13が学習した予備動作のパターンに基づいて、視線の動きの中から予備動作を検出する。
The graph on the right side of FIG. 3B is a graph in which the vertical axis represents time, and the horizontal axis represents the angle θ formed by the line-of-sight direction. The line-of-
具体的には、例えば図3Cの左図に示すように、サイドミラー、前方、サイドミラーの順に視線を移動させる動きが、学習部13によって車線変更時の予備動作のパターンとして学習されているものとする。視線検出部11aは、運転者から検出される視線の動きの中から、例えば、パターン認識等によってかかるパターンと一致する視線の動きを予備動作として検出する。
Specifically, as illustrated in the left diagram of FIG. 3C, for example, the movement of moving the line of sight in the order of the side mirror, the front, and the side mirror is learned by the
このように、運転者の視線の動きを予備動作として検出することで、運転者が運転操作のために特定の動作をせずとも運転操作の推測を行うことができる。なお、予備動作の検出は、学習部13が生成したパターンと完全に一致することを要せず、類似する動作であればよい。図2の視線検出部11aは、検出した予備動作を学習部13および推定部14へ通知する。
In this way, by detecting the movement of the driver's line of sight as a preliminary movement, the driving operation can be estimated without the driver performing a specific movement for the driving operation. The detection of the preliminary motion does not need to be completely coincident with the pattern generated by the
図2に示す取得部12は、例えば、物体情報取得部12aと、地図情報取得部12bとを備え、車両60の周辺状況に関する周辺情報を取得する。
The
物体情報取得部12aは、周辺情報として車両60の周辺に存在する物体に関する物体情報を取得する。物体情報は、例えば、車両60の周辺を走行している前方車両や後方車両等の移動体の有無や、道路上に落下した積荷等の落下物の有無等の情報である。また、物体情報は、かかる物体と車両60との距離の情報を含む。なお、物体情報は、これらに限定されず、運転操作に影響を与える物体に関する情報であればよい。
The object information acquisition unit 12a acquires object information related to objects existing around the
物体情報取得部12aは、例えば、車両60の周辺を撮像するカメラ40の画像を取得し、パターン認識やオプティカルフロー等の検出方法を用いることで、物体の検出、検出した物体と車両60との相対速度やかかる物体までの距離等の物体情報を取得する。
The object information acquisition unit 12a acquires, for example, an image of the
なお、物体情報取得部12aによる物体情報の取得は、カメラ40の画像から以外に、ミリ波レーダ等を用いて物体情報を取得してもよく、取得方法は特に限定されない。
The acquisition of object information by the object information acquisition unit 12a may acquire object information using a millimeter wave radar or the like other than the image of the
地図情報取得部12bは、周辺情報として地図情報21を取得する。地図情報21は、いわゆる電子地図データであり、交差点および道路上の地点を表すノードと、ノード間を結ぶ道路を表すリンクとによって表される道路網データである。ノードには、各ノードを識別するノードIDや、交差点や分岐点に関する情報等の属性情報などが含まれる。リンクには、各リンクを識別するリンクIDや、リンクに対応する道路種別(例えば、高速道路)などの属性情報が含まれる。また、道路網データは、施設情報を含み、かかる施設情報には、駐車場の有無や施設種別(例えば、飲食店)等の情報が含まれる。
The map
また、地図情報取得部12bは、位置検出部41から取得した車両60の現在地の情報を電子地図上における車両60の位置情報に変換する。なお、地図情報取得部12bは、地図情報21を予め記憶部20へ記憶する構成としたが、これに限定されず、例えば、外部に設置されたサーバ装置との通信や車載のナビゲーション装置から適宜地図情報21を取得する構成としてもよい。
Further, the map
取得部12は、物体情報取得部12aおよび地図情報取得部12bが取得した各種情報を周辺情報として学習部13および推定部14へ通知する。
The
学習部13は、検出部11が検出した予備動作および取得部12が取得した周辺情報に基づき、運転者の予備動作のパターンをいわゆる機械学習によって学習する。ここでは、学習の例として、車線変更を行う場合について説明する。
The
具体的には、学習部13は、車線変更の前に行った予備動作を視線検出部11aから取得し、かかる予備動作を開始した時刻の周辺情報を物体情報取得部12aから取得する。なお、ここでは、周辺情報として車両60と前方車両61との車間距離を取得するものとする。学習部13は、予備動作と周辺情報とを関連付けた教師データを予備動作のパターン学習用として用いるとともに、履歴データ22として記憶部20へ記憶する。
Specifically, the
なお、ここで、学習部13は、運転者による運転操作(ここでは車線変更)を例えば図示しないステアリングセンサの検出結果に基づいて検出するものとする。あるいは、図示しない操作検出部がステアリングセンサ等の検出結果に基づいて運転操作を検出し、かかる検出結果を学習部13が取得するようにしてもよい。また、推定部14による推定結果を運転操作として取得するようにしてもよい。
Here, the
そして、学習部13による学習は、履歴データ22として蓄積された過去の複数の教師データと、取得した最新の教師データを用いて行われる。すなわち、現在および過去の膨大な教師データの集合から所定のアルゴリズムを用いて、車線変更時のパターンを学習する。学習部13は、学習したパターンを検出部11へ通知するとともに、推定情報23として記憶部20へ記憶する。
Then, learning by the
このように、学習部13によって学習される推定情報23は、過去の膨大な予備動作のデータの集合から共通する特徴を抽出しているため、運転者の予備動作が多少異なっても、予備動作に共通する特徴が含まれていれば、運転操作を推定できるため、推定精度をより向上させることができる。
In this way, the estimation information 23 learned by the
なお、周辺情報は上述した例に限られない。例えば、視線検出部11aが検出した視線の動きに基づいて取得部12が取得した運転者の集中力や眠気等の心身状態や、地図情報取得部12bが取得した道路幅や車線数等の道路特性、気象情報、渋滞情報等、様々な状況に関する情報を取得して教師データとして用いることができる。かかる情報は、例えば取得部12が取得するものとする。これにより、車両60の周辺の環境や運転者の状態によって運転操作の推定精度に差が生じにくくすることができる。
The peripheral information is not limited to the example described above. For example, roads such as the driver's concentration and sleepiness acquired by the
なお、機械学習に用いられるアルゴリズムの例として、人工ニューラルネットワーク、サポートベクターマシン、決定木学習、相関ルール学習、ベイジアンネットワークなどが挙げられるが、これ以外のアルゴリズムでもよい。 Examples of algorithms used for machine learning include artificial neural networks, support vector machines, decision tree learning, correlation rule learning, and Bayesian networks, but other algorithms may be used.
また、学習部13を、運転支援装置1が備える構成とすることで、検出部11および取得部12の情報が入力される都度、推定情報23を最新版に更新することができる。なお、学習部13を運転支援装置1が必ずしも備える必要はなく、例えば、学習部13を、外部のサーバ装置が備えるようにしてもよい。
Moreover, the estimation part 23 can be updated to the newest version whenever the information of the
かかる場合、運転支援装置1とサーバ装置とを通信可能に接続し、運転支援装置1から送信される履歴データ22に基づいて、サーバ装置が予備動作のパターンを学習し、学習結果である推定情報23を運転支援装置1へ送信する。 In such a case, the driving support device 1 and the server device are communicably connected to each other, the server device learns a preliminary operation pattern based on the history data 22 transmitted from the driving support device 1, and estimated information that is a learning result 23 is transmitted to the driving support device 1.
これにより、運転支援装置1が、予備動作のパターンを学習する必要がなくなり、運転支援装置1のCPUの処理負担を軽減することができる。 This eliminates the need for the driving assistance device 1 to learn the pattern of the preliminary operation, thereby reducing the processing load on the CPU of the driving assistance device 1.
推定部14は、検出部11が検出した予備動作と、取得部12が取得した周辺情報とに基づき、運転者が行う運転操作を推定する。推定部14の推定処理は、推定情報23に従って行われる。
The
ここで、図4を参照して、推定部14の推定処理に用いる推定情報23の内容について説明する。図4は、推定情報23を示す図である。なお、推定情報23は、学習部13によって生成される。また、図4に示す推定情報23の内容は、一例であってこれに限定されるものではない。
Here, with reference to FIG. 4, the content of the estimation information 23 used for the estimation process of the
図4に示すように、推定情報23は、「運転操作」、「予備動作」、「周辺状況」といった項目を含む情報である。「運転操作」は、運転者が行う運転操作である。「予備動作」は、対応する運転操作を行う前の予備動作である。「周辺状況」は、運転操作が行われる際の車両60の周辺状況である。推定部14は、かかる推定情報23を参照することで、検出される予備動作および取得される周辺情報に基づいて運転操作が車線変更であるか否かを推定する。
As shown in FIG. 4, the estimation information 23 is information including items such as “driving operation”, “preliminary operation”, and “peripheral situation”. The “driving operation” is a driving operation performed by the driver. The “preliminary operation” is a preliminary operation before the corresponding driving operation is performed. The “surrounding situation” is a surrounding situation of the
例えば、視線検出部11aによって検出された予備動作が、サイドミラー、前方、サイドミラーの順に動く視線の動き(図3C参照)であり、物体情報取得部12aが、車両60と前方車両61との車間距離が所定距離以下であることを示す物体情報を取得したとする。かかる場合、推定部14は、推定情報23に従い、運転者が車線変更を行うと推定する。
For example, the preliminary movement detected by the line-of-
ここでは、例えば車両60が前方車両61を追い越すために車線変更を行う場合について説明したが、車線変更を行う例はこれに限られない。例えば、車両60の後方から接近する後方車両を回避するために車線変更を行う場合がある。このような場面の一例として、高速道路において車両60および後方車両が追越車線を走行中の場面が挙げられる。
Here, for example, the case where the
この場合、例えば視線検出部11aが予備動作として、サイドミラー、ルームミラー、サイドミラーの順に動く視線の動きを検出し、物体情報取得部12aが、後方車両の接近を示す周辺情報を取得する。後方車両の接近を示す周辺情報は、たとえば後方車両との距離が所定値以下であることを示す情報や、後方車両との相対速度が増加していることを示す情報などがある。このような場合に、推定部14は、推定情報23に従い、後方車両を回避するために車線変更を行うと推定する。なお、後方車両は、前方車両と同様の検出方法を用いることができる。
In this case, for example, the line-of-
これにより、運転支援装置1は、他車両の追い越しや回避のための車線変更を精度良く推定することができ、推定結果に基づいて適切に支援することができる。 Thereby, the driving assistance device 1 can accurately estimate the lane change for overtaking or avoiding other vehicles, and can appropriately assist based on the estimation result.
なお、推定部14は、積載物等の落下物を物体情報として取得した場合にも、車両60とかかる落下物との距離が所定距離以下となり、所定の予備動作が検出されると、かかる予備動作に応じて車線変更や車両の停止といった推定を行うことができる。
Note that, even when a fallen object such as a load is acquired as object information, the
このように、推定部14は、物体情報取得部12aが取得した物体情報に基づいて推定することで、物体情報の内容に応じた適切な運転操作の推定を行うことができる。
In this way, the
また、検出部11によって運転者が右前方を広範囲に注視する動作が検出され、取得部12によって地図情報21に基づく車両60と右折レーンがある交差点との距離が所定距離以下であるという周辺情報が取得された場合、推定部14は、右折レーンへ車線変更を行うと推定する。
Further, the
また、検出部11によって分岐・合流先注視、サイドミラーの順に動く視線の動きが検出され、取得部12によって地図情報21に基づく車両60と分岐点または合流地点との距離が所定距離以下であるという周辺情報が取得された場合、推定部14は、分岐・合流するための車線変更を行うと推定する。
Further, the
このように、推定部14は、地図情報取得部12bが地図情報21および車両60の位置情報を取得することで、車両60の現在地に応じた適切な運転操作の推定を行うことができる。そして、推定部14は、推定した運転操作を推定結果として情報生成部15へ通知する。
Thus, the
情報生成部15は、推定部14の推定結果に基づいて、運転操作を支援するための支援情報24を生成する。具体的には、各運転操作に対応する支援内容が含まれる支援情報24が記憶部20に予め記憶されており、情報生成部15は、かかる支援情報24のうち推定結果の運転操作に応じて支援情報24の支援の内容を選択する。
The
例えば出力部2がスピーカである場合、情報生成部15は、例えば「車線変更ですか?ウインカーを出して、周辺車両に注意しながら車線変更してください」といった音声信号を支援情報24として生成する。
For example, when the
また、例えば出力部2がディスプレイ等の表示部である場合、上述した音声信号を示す文字情報を含む画像情報を支援情報24として生成する。なお、出力部2がスピーカおよびディスプレイ等の表示部を有する場合は、かかる音声情報および文字情報を支援情報24として生成する。
For example, when the
なお、出力部2がインストルメントパネルである場合、例えばインストルメントパネル内のウインカーインジケーターを所定の点滅速度や所定の色で自動表示する表示情報を支援情報24として生成してもよい。この場合、運転者によるウインカー操作によって表示されるウインカーインジケーターの点滅速度や表示色と異なる点滅速度や表示色とすることで、運転者にウインカー操作を促す支援を行うようにしてもよい。情報生成部15は、選択した支援内容を支援情報24として出力部2へ出力する。
When the
記憶部20は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、地図情報21、履歴データ22、推定情報23および支援情報24を記憶する。
The
次に、実施形態に係る運転支援装置1が実行する推定処理の処理手順について、図5を用いて説明する。図5は、実施形態に係る運転支援装置1が実行する推定処理の処理手順を示すフローチャートである。 Next, a processing procedure of estimation processing executed by the driving support device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating a processing procedure of estimation processing executed by the driving support device 1 according to the embodiment.
図5に示すように、検出部11は、運転者が車両60を操作する前に行う予備動作を検出する(ステップS101)。つづいて、取得部12は、車両60の周辺状況に関する周辺情報を取得する(ステップS102)。なお、ステップS101、ステップS102の処理については、その順序を入れ替えてもよく、同時に実行してもよい。
As shown in FIG. 5, the
つづいて、推定部14は、検出部11が検出した予備動作および取得部12が取得した周辺情報に基づき、運転者が行う運転操作を推定する(ステップS103)。つづいて、情報生成部15は、推定部14が推定した運転操作を支援するための支援情報24を生成し(ステップS104)、処理を終了する。
Subsequently, the
また、実施形態に係る運転支援装置1は、図6に一例として示す構成のコンピュータ200で実現することができる。図6は、運転支援装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。
Further, the driving support apparatus 1 according to the embodiment can be realized by a
コンピュータ200は、CPU(Central Processing Unit)210と、ROM(Read Only Memory)220と、RAM(Random Access Memory)230と、HDD(Hard Disk Drive)240とを備える。また、コンピュータ200は、メディアインターフェイス(I/F)250と、通信インターフェイス(I/F)260と、入出力インターフェイス(I/F)270とを備える。
The
なお、コンピュータ200は、SSD(Solid State Drive)を備え、かかるSSDがHDD240の一部または全ての機能を実行するようにしてもよい。また、HDD240に代えてSSDを設けることとしてもよい。
The
CPU210は、ROM220およびHDD240の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM220は、コンピュータ200の起動時にCPU210によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラムなどを格納する。HDD240は、CPU210によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。
The
メディアI/F250は、記憶媒体280に格納されたプログラムやデータを読み取り、RAM230を介してCPU210に提供する。CPU210は、かかるプログラムを、メディアI/F250を介して記憶媒体280からRAM230上にロードし、ロードしたプログラムを実行する。あるいは、CPU210は、かかるデータを用いてプログラムを実行する。記憶媒体280は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。
The media I /
通信I/F260は、ネットワーク290を介して他の機器からデータを受信してCPU210に送り、CPU210が生成したデータを、ネットワーク290を介して他の機器へ送信する。あるいは、通信I/F260は、ネットワーク290を介して他の機器からプログラムを受信してCPU210に送り、CPU210がかかるプログラムを実行する。
The communication I /
CPU210は、入出力I/F270を介して、ディスプレイ等の出力部2を制御する。CPU210は、入出力I/F270を介して、出力部2からデータを取得する。また、CPU210は、生成したデータを入出力I/F270を介して出力部2に出力する。
The
例えば、コンピュータ200が運転支援装置1として機能する場合、コンピュータ200のCPU210は、RAM230上にロードされたプログラムを実行することにより、検出部11、取得部12、学習部13、推定部14および情報生成部15の各機能を実現する。
For example, when the
コンピュータ200のCPU210は、例えばこれらのプログラムを記憶媒体280から読み取って実行するが、他の例として、他の装置からネットワーク290を介してこれらのプログラムを取得してもよい。また、HDD240は、記憶部20が記憶する地図情報21、履歴データ22、推定情報23および支援情報24を記憶することができる。
The
上述してきたように、実施形態に係る運転支援装置1は、検出部11と、学習部13と、取得部12と、推定部14と、情報生成部15とを備える。検出部11は、運転者が車両60を操作する前に行う予備動作を検出する。学習部13は、予備動作および周辺情報に基づいて運転者の予備動作のパターンを学習する。取得部12は、車両60の周辺状況に関する周辺情報を取得する。推定部14は、検出部11が検出した予備動作および取得部12が取得した周辺情報に基づき、運転者が行う運転操作を推定する。情報生成部15は、推定部14が推定した運転操作を支援するための支援情報24を生成する。
As described above, the driving support device 1 according to the embodiment includes the
また、検出部11は、視線検出部11aを備える。視線検出部11aは、予備動作として車両60を操作する前の運転者の視線の動きを検出する。
The
また、取得部12は、物体情報取得部12aと、地図情報取得部12bとを備える。物体情報取得部12aは、周辺情報として車両60の周辺に存在する物体に関する物体情報を取得する。地図情報取得部12bは、周辺情報として地図情報21を取得する。
The
これにより、実施形態に係る運転支援装置1は、運転操作の推定精度を向上することができる。 Thereby, the driving assistance device 1 according to the embodiment can improve the estimation accuracy of the driving operation.
次に、図7および図8を用いて、実施形態の変形例を説明する。図7は、実施形態の変形例に係る運転支援装置1を含む運転支援システムSの構成を示すブロック図である。図8は、推定情報23の変形例を示す図である。 Next, a modified example of the embodiment will be described with reference to FIGS. FIG. 7 is a block diagram illustrating a configuration of a driving support system S including the driving support device 1 according to a modification of the embodiment. FIG. 8 is a diagram illustrating a modified example of the estimation information 23.
上述した実施形態では、検出部11が運転者の視線を予備動作として検出した場合を説明したが、例えば図7に示すように、検出部11が、車両60の走行に関する情報を取得する各種センサ群からの信号に基づいて予備動作を検出してもよい。
In the above-described embodiment, the case where the
なお、図7に示す本変形例に係る運転支援装置1は、検出部11が視線以外の各種センサ群から予備動作を検出する点を除き、図2に示す運転支援装置1と同じであるため、同一符号を付し説明を省略する。
The driving support device 1 according to this modification shown in FIG. 7 is the same as the driving support device 1 shown in FIG. 2 except that the
図7に示すように、各種センサ群には、例えば車両60の走行速度を検出する車速センサ32、車両60のドアの開閉状態を検出するドアセンサ33、運転者のアクセル操作によるアクセル開度を検出するアクセル開度センサ34、運転者のブレーキ操作を検出するブレーキセンサ35、車両60のエンジン点火を制御するIGスイッチ36等が含まれる。検出部11はかかる各種センサ群が出力する各信号に基づいて予備動作を検出する。なお、各信号から予備動作を検出する方法は、視線の動きを示すなす角θに基づいて検出する場合と同様であるため説明を省略する。
As shown in FIG. 7, various sensor groups include, for example, a vehicle speed sensor 32 that detects the traveling speed of the
学習部13は、検出部11が検出する予備動作に基づいて予備動作のパターンを学習し、推定情報23を生成する。なお、学習部13が生成する推定情報23を除き、例えばパターンの学習方法等は、上述した実施形態と同様である。
The
ここで、図8を用いて本変形例にかかる推定情報23の一例を説明する。図8に示すように、本変形例にかかる推定情報23には、「運転操作」として、車線変更以外に、右左折、発進、停車等の運転操作が含まれる。以下、推定部14が推定情報23に基づいて運転操作として右左折を推定する場合について説明する。
Here, an example of the estimation information 23 according to the present modification will be described with reference to FIG. As illustrated in FIG. 8, the estimation information 23 according to the present modification includes driving operations such as right / left turn, start, and stop in addition to the lane change as “driving operation”. Hereinafter, a case where the
推定部14は、地図情報取得部12bが地図情報21および車両60の位置情報に基づき、車両60と交差点との距離が所定距離以下であることを示す周辺情報を取得した場合、車両60が交差点に接近したとして、検出部11が予備動作として減速の動作を検出すると、運転者が右左折の運転操作を行うと推定する。なお、推定部14は、予備動作として減速動作以外に運転者の視線の動きも併せて検出することで、運転者が注視する方向を曲折方向として特定することができる。
When the map
そして、情報生成部15は、運転操作が右左折であると推定された場合、車両60の死角を目視確認させる内容の支援情報24を生成する。これにより、運転支援装置1は、交差点等における右左折時に、運転者が死角を目視確認することなく曲がることを低減することができる。
Then, when it is estimated that the driving operation is a right / left turn, the
次に、発進について説明する。推定部14は、地図情報取得部12bが地図情報21および車両60の位置情報に基づき、車両60が駐車場で停車中であることを示す周辺情報を取得した場合、検出部11が予備動作としてドアロック解除、エンジン始動の動きを順に検出すると、運転者が発進の運転操作を行うと推定する。
Next, the start will be described. When the map
そして、情報生成部15は、運転操作が発進であると推定された場合、車両60の発進操作前に運転者に対して目視で周辺を確認させる内容の支援情報24を生成する。これにより、運転支援装置1は、駐車場において、運転者が周辺確認をすることなく発進するのを低減することができる。
And when it is estimated that driving operation is a start, the
次に、停車について説明する。まず、地図情報取得部12bは、地図情報21および車両60の位置情報に基づき、車両60の進行方向に存在する信号機に関する信号機情報を取得する。
Next, stop will be described. First, the map
ここで、信号機に関する情報とは、例えば信号機と車両60との距離や、信号機の点灯色を示す情報である。なお、かかる情報は、例えば車両60に搭載され、車両60の前方を撮像するカメラ40の撮像画像に基づいて取得するようにしてもよい。この場合、取得部12がカメラ40の撮像画像から信号機までの距離や点灯色を検出し、信号機情報を生成するものとする。
Here, the information regarding the traffic light is information indicating the distance between the traffic light and the
推定部14は、地図情報取得部12bまたは取得部12が取得した信号機情報と、検出部11が検出した前方上方向の注視、車両60の減速動作の予備動作とに基づいて、運転操作が停車であると推定する。具体的には、信号機情報に基づき、車両60から所定距離内にある信号機の点灯色が停止を示す色であった場合に、運転者がかかる信号機を注視する予備動作や車両60を減速させる予備動作を行った場合に運転者が停車の運転操作を行うと推定する。
The
これにより、情報生成部15は、運転操作が停車であると推定された場合、停車までの適切なブレーキのタイミング等の支援情報24を生成する。これにより、運転支援装置1は、信号機手前で停車する場合、運転者がスムーズなブレーキング操作を行うことを容易にすることができる。
Thereby, the
なお、上述した変形例に係る推定情報23の「運転操作」は、車線変更、右左折、発進、停車に限定されず、予備動作および周辺状況から推測可能な運転操作であればよい。 Note that the “driving operation” of the estimation information 23 according to the above-described modification is not limited to lane change, right / left turn, start, and stop, and may be any driving operation that can be estimated from the preliminary operation and the surrounding situation.
なお、上述した実施形態および変形例では、周辺情報として車両60の周辺状況に関する情報を例に挙げて説明したが、周辺情報はこれに限られない。例えば、取得部12が周辺情報としてナビゲーション装置から車両60の経路に関する経路情報を取得するようにしてもよい。この場合、推定部14がかかる経路情報を用いて運転操作を推定するものとする。なお、かかる経路情報として、たとえば所定の目的地までの経路を案内する経路案内がある。
In the above-described embodiment and the modification, the information about the surrounding situation of the
具体的に、推定部14は、例えば取得部12が取得した経路案内において右折予定の交差点まで所定距離以下であり、かつ、運転者が右サイドミラーを注視する等の右折の予備動作を行った場合、運転者が交差点を右折すると推定する。情報生成部15は、推定結果の運転操作として、例えば右折を支援する支援情報24を生成する。
Specifically, the
一方、推定部14は、取得部12によって上述の経路案内が取得されても、運転者が右折の予備動作を行わない場合、運転者が交差点を直進または左折する、つまり、予め設定された経路案内を右折しないと推定する。
On the other hand, when the driver does not perform the right turn preliminary movement even when the
この場合、情報生成部15は、推定結果に応じて、例えば右折予定の交差点を通知する支援情報24を生成する。これにより、例えば、運転者が経路案内が示す交差点での右折を見落としている場合であっても、運転者に対して運転操作(ここでは右折操作)を支援することができる。
In this case, the
また、経路情報の経路は、ナビゲーション装置から取得する経路案内の経路に限定されない。例えば、車両60の走行履歴であってもよい。この場合、例えば取得部12がナビゲーション装置から車両60が過去に走行した経路の履歴情報を取得し、学習部13がかかる履歴情報に基づいて運転者がよく使う経路を学習するようにしてもよい。よく使う経路の一例として、運転者が通勤時に使用する通勤経路等が挙げられる。
The route of the route information is not limited to the route guidance route acquired from the navigation device. For example, a travel history of the
例えば、まず学習部13が、取得部12がナビゲーション装置から取得した履歴情報に基づいて、車両60が所定回数以上走行したことのある経路を「よく使う経路」として学習し、推定情報23として記憶する。
For example, first, the
そして、推定部14は、かかる推定情報23に基づいて、「よく使う経路」において右折する交差点まで所定距離以下であり、かつ、運転者が右折の予備動作を行った場合、運転者が交差点を右折すると推定する。
Then, based on the estimation information 23, the
なお、取得部12がナビゲーション装置から取得する情報は経路情報に限られない。取得部12が、例えば車両60の現在地に基づき、特定の施設に関する施設情報をナビゲーション装置から取得するようにしてもよい。この場合、推定部14は、取得部12が取得した施設情報を用いて、運転操作を推定するものとする。
Information acquired by the
例えば、取得部12が、周辺情報として、運転者が過去に利用したことがあるガソリンスタンド等の商業施設が道路右側の側道周辺に位置していることを示す施設情報を取得したとする。この場合、推定部14は、運転者がかかる商業施設を注視する予備動作および右折する予備動作を行った場合、運転者が商業施設へ向かって右折すると推定する。
For example, it is assumed that the
また、取得部12が、施設情報として、ナビゲーション装置が記憶する運転者が登録した登録地点(自宅や会社等)の情報を取得するようにし、推定部14がかかる登録地点の情報に基づいて運転操作を推定するようにしてもよい。
In addition, the
例えば自宅へ向かう経路に、右折すると自宅に近づき直進または左折すると自宅から遠ざかる交差点が含まれるものとする。この場合、推定部14は、車両60とかかる交差点との距離が所定距離以下であり、かつ、運転者が右折の予備動作を行った場合、運転者が自宅へ向かうために交差点を右折すると推定する。
For example, it is assumed that the route toward the home includes an intersection that approaches the home when turning right and goes away from the home when moving straight or turning left. In this case, when the distance between the
このように、推定部14は、経路情報や施設情報を用いることで、運転者が走行する経路が特定できるため、特定した走行経路と予備動作とに基づいて運転操作を推定することで、運転操作の推定精度を向上することができる。
As described above, the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.
1 運転支援装置
11 検出部
11a 視線検出部
12 取得部
12a 物体情報取得部
12b 地図情報取得部
13 学習部
14 推定部
15 情報生成部
DESCRIPTION OF SYMBOLS 1
Claims (10)
前記移動体の周辺状況に関する周辺情報を取得する取得部と、
前記検出部が検出した前記予備動作および前記取得部が取得した前記周辺情報に基づき前記運転者が行う運転操作を推定する推定部と、
前記推定部が推定した前記運転操作を支援するための支援情報を生成する情報生成部と
を備えることを特徴とする運転支援装置。 A detection unit that detects a preliminary operation performed before the driver operates the moving body;
An acquisition unit for acquiring peripheral information related to the surrounding situation of the moving body;
An estimation unit that estimates a driving operation performed by the driver based on the preliminary movement detected by the detection unit and the peripheral information acquired by the acquisition unit;
An information generation unit that generates support information for supporting the driving operation estimated by the estimation unit.
前記予備動作として前記移動体を操作する前の前記運転者の視線の動きを検出する視線検出部を備え、
前記推定部は、
前記視線検出部が検出した前記視線の動きおよび前記周辺情報に基づき前記運転操作を推定すること
を特徴とする請求項1に記載の運転支援装置。 The detector is
A line-of-sight detection unit that detects movement of the line of sight of the driver before operating the moving body as the preliminary operation
The estimation unit includes
The driving support device according to claim 1, wherein the driving operation is estimated based on the movement of the line of sight detected by the line-of-sight detection unit and the peripheral information.
前記推定部は、
前記学習部が学習した前記パターンと前記検出部が検出した前記予備動作と前記周辺情報とに基づき前記運転操作を推定すること
を特徴とする請求項1または2に記載の運転支援装置。 A learning unit that learns the pattern of the preliminary movement of the driver based on the preliminary movement and the peripheral information;
The estimation unit includes
The driving support device according to claim 1, wherein the driving operation is estimated based on the pattern learned by the learning unit, the preliminary movement detected by the detection unit, and the peripheral information.
前記周辺情報として前記移動体の周辺に存在する物体に関する物体情報を取得する物体情報取得部を備え、
前記推定部は、
前記物体情報取得部が取得した前記物体情報および前記予備動作に基づき前記運転操作を推定すること
を特徴とする請求項1、2または3に記載の運転支援装置。 The acquisition unit
An object information acquisition unit that acquires object information related to an object existing around the moving body as the peripheral information;
The estimation unit includes
The driving support device according to claim 1, wherein the driving operation is estimated based on the object information acquired by the object information acquisition unit and the preliminary movement.
前記移動体と前記移動体の前方および/または後方の前記物体との距離を取得し、
前記推定部は、
前記物体情報取得部が取得した前記距離が所定距離以下である場合、前記予備動作に基づき前記運転操作が車線変更であるか否かを推定すること
を特徴とする請求項4に記載の運転支援装置。 The object information acquisition unit
Obtaining a distance between the moving object and the object in front and / or behind the moving object;
The estimation unit includes
The driving support according to claim 4, wherein when the distance acquired by the object information acquisition unit is equal to or less than a predetermined distance, it is estimated whether the driving operation is a lane change based on the preliminary movement. apparatus.
前記周辺情報として地図情報を取得する地図情報取得部を備え、
前記推定部は、
前記地図情報取得部が取得した前記地図情報、前記移動体の現在地および前記予備動作に基づき前記運転操作を推定すること
を特徴とする請求項1、2または3に記載の運転支援装置。 The acquisition unit
A map information acquisition unit that acquires map information as the peripheral information,
The estimation unit includes
4. The driving support device according to claim 1, wherein the driving operation is estimated based on the map information acquired by the map information acquisition unit, a current location of the moving body, and the preliminary operation.
前記地図情報および前記移動体の現在地に基づき前記移動体の進行方向に存在する信号機に関する信号機情報を取得し、
前記推定部は、
前記地図情報取得部が取得した前記信号機情報と前記予備動作とに基づき前記運転操作が停車であるか否かを推定すること
を特徴とする請求項6に記載の運転支援装置。 The map information acquisition unit
Obtaining traffic signal information relating to traffic signals present in the traveling direction of the mobile body based on the map information and the current location of the mobile body;
The estimation unit includes
The driving support device according to claim 6, wherein whether or not the driving operation is a stop is estimated based on the traffic signal information acquired by the map information acquisition unit and the preliminary operation.
前記移動体が駐車場で停車している場合、前記予備動作に基づき前記運転操作が発進であるか否かを推定すること
を特徴とする請求項6または7に記載の運転支援装置。 The estimation unit includes
The driving support device according to claim 6 or 7, wherein when the moving body is stopped in a parking lot, it is estimated whether or not the driving operation is a start based on the preliminary movement.
前記移動体が前方の交差点へ接近する場合、前記予備動作に基づき前記運転操作が右左折であるか否かを推定すること
を特徴とする請求項6、7または8に記載の運転支援装置。 The estimation unit includes
The driving support device according to claim 6, 7 or 8, wherein when the moving body approaches a front intersection, it is estimated whether or not the driving operation is a right / left turn based on the preliminary movement.
前記移動体の周辺状況に関する周辺情報を取得する取得工程と、
前記検出工程が検出した前記予備動作および前記取得工程が取得した前記周辺情報に基づき前記運転者が行う運転操作を推定する推定工程と、
前記推定工程が推定した前記運転操作を支援するための支援情報を生成する情報生成工程と
を含むことを特徴とする運転支援方法。 A detection step for detecting a preliminary movement performed before the driver operates the moving body;
An acquisition step of acquiring peripheral information related to the peripheral state of the mobile body;
An estimation step of estimating a driving operation performed by the driver based on the preliminary movement detected by the detection step and the peripheral information acquired by the acquisition step;
An information generating step of generating support information for supporting the driving operation estimated by the estimating step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016007998A JP2017129973A (en) | 2016-01-19 | 2016-01-19 | Driving support apparatus and driving support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016007998A JP2017129973A (en) | 2016-01-19 | 2016-01-19 | Driving support apparatus and driving support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017129973A true JP2017129973A (en) | 2017-07-27 |
Family
ID=59396192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016007998A Pending JP2017129973A (en) | 2016-01-19 | 2016-01-19 | Driving support apparatus and driving support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017129973A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019200548A (en) * | 2018-05-15 | 2019-11-21 | 日産自動車株式会社 | On-vehicle unit, control method for on-vehicle unit, and preliminary action estimation system |
CN111047908A (en) * | 2018-10-12 | 2020-04-21 | 富士通株式会社 | Detection device and method for cross-line vehicle and video monitoring equipment |
WO2020170380A1 (en) * | 2019-02-21 | 2020-08-27 | 三菱電機株式会社 | Display control device and display control method |
JP2021046031A (en) * | 2019-09-17 | 2021-03-25 | 本田技研工業株式会社 | Vehicle control system |
US20220144200A1 (en) * | 2020-11-12 | 2022-05-12 | Toyoda Gosei Co., Ltd. | Vehicle occupant protection system |
-
2016
- 2016-01-19 JP JP2016007998A patent/JP2017129973A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019200548A (en) * | 2018-05-15 | 2019-11-21 | 日産自動車株式会社 | On-vehicle unit, control method for on-vehicle unit, and preliminary action estimation system |
JP7147259B2 (en) | 2018-05-15 | 2022-10-05 | 日産自動車株式会社 | In-vehicle device, control method for in-vehicle device, and preliminary motion estimation system |
CN111047908A (en) * | 2018-10-12 | 2020-04-21 | 富士通株式会社 | Detection device and method for cross-line vehicle and video monitoring equipment |
CN111047908B (en) * | 2018-10-12 | 2021-11-02 | 富士通株式会社 | Detection device and method for cross-line vehicle and video monitoring equipment |
WO2020170380A1 (en) * | 2019-02-21 | 2020-08-27 | 三菱電機株式会社 | Display control device and display control method |
JPWO2020170380A1 (en) * | 2019-02-21 | 2021-05-20 | 三菱電機株式会社 | Display control device and display control method |
JP2021046031A (en) * | 2019-09-17 | 2021-03-25 | 本田技研工業株式会社 | Vehicle control system |
JP7094254B2 (en) | 2019-09-17 | 2022-07-01 | 本田技研工業株式会社 | Vehicle control system |
US20220144200A1 (en) * | 2020-11-12 | 2022-05-12 | Toyoda Gosei Co., Ltd. | Vehicle occupant protection system |
JP7400697B2 (en) | 2020-11-12 | 2023-12-19 | 豊田合成株式会社 | Vehicle occupant protection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102351592B1 (en) | Default preview area and gaze-based driver distraction detection | |
CN112965502B (en) | Visual tracking confirmation method, device, equipment and storage medium | |
US10232772B2 (en) | Driver assistance system | |
CN112141124A (en) | Driving assistance system for vehicle and operation method thereof | |
JPWO2018066710A1 (en) | Traveling support device and computer program | |
US20140354684A1 (en) | Symbology system and augmented reality heads up display (hud) for communicating safety information | |
JP2017129973A (en) | Driving support apparatus and driving support method | |
JP5898001B2 (en) | Vehicle periphery monitoring device | |
JP2010122821A (en) | Vehicle driving support device | |
JP2014120111A (en) | Travel support system, travel support method, and computer program | |
JP2017151694A (en) | Safety confirmation diagnostic system and safety confirmation diagnostic method | |
JP2014120114A (en) | Travel support system, travel support method, and computer program | |
JP6891926B2 (en) | Vehicle systems, methods performed on vehicle systems, and driver assistance systems | |
JP6136238B2 (en) | Driving support system, driving support method, and computer program | |
JP4968369B2 (en) | In-vehicle device and vehicle recognition method | |
US20210291736A1 (en) | Display control apparatus, display control method, and computer-readable storage medium storing program | |
JP2006236094A (en) | Obstacle recognition system | |
JP6631569B2 (en) | Operating state determining apparatus, operating state determining method, and program for determining operating state | |
JP2014120113A (en) | Travel support system, travel support method, and computer program | |
JP2017062706A (en) | Travel support system, travel support method, and computer program | |
JP2005293479A (en) | Object danger decision device | |
JP4687381B2 (en) | Vehicle recognition method and in-vehicle device | |
WO2023029469A1 (en) | Vehicle traveling warning method and apparatus | |
JP6805974B2 (en) | Driving support device and computer program | |
WO2022244356A1 (en) | Light interference detection during vehicle navigation |