JP2018097485A - Driving support apparatus, driving support method, driving support program, and driving support system - Google Patents

Driving support apparatus, driving support method, driving support program, and driving support system Download PDF

Info

Publication number
JP2018097485A
JP2018097485A JP2016239742A JP2016239742A JP2018097485A JP 2018097485 A JP2018097485 A JP 2018097485A JP 2016239742 A JP2016239742 A JP 2016239742A JP 2016239742 A JP2016239742 A JP 2016239742A JP 2018097485 A JP2018097485 A JP 2018097485A
Authority
JP
Japan
Prior art keywords
driver
state
driving support
driving
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016239742A
Other languages
Japanese (ja)
Inventor
晴彦 鱗原
Haruhiko Urokohara
晴彦 鱗原
鈴木 啓高
Hirotaka Suzuki
啓高 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sdtech Inc
U Eyes Design
U Eyes Design Kk
U' EYES DESIGN KK
Original Assignee
Sdtech Inc
U Eyes Design
U Eyes Design Kk
U' EYES DESIGN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sdtech Inc, U Eyes Design, U Eyes Design Kk, U' EYES DESIGN KK filed Critical Sdtech Inc
Priority to JP2016239742A priority Critical patent/JP2018097485A/en
Publication of JP2018097485A publication Critical patent/JP2018097485A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology of driving support in accordance with a state and characteristics of a driver.SOLUTION: A driving support apparatus includes: data acquisition means of acquiring activity data of a driver measured by a sensor for sensing a state or activity of a part of a body; reference data management means of setting reference data for each state of the driver, on the basis of the activity data of the driver measured in past; estimation means of estimating a state of the driver by comparing the acquired activity data of the driver with the reference data; determination means of determining a type to which the driver belongs, on the basis of driving operation characteristics; and presentation means of presenting driving support information in accordance with the estimated state of the driver and the type of the driver.SELECTED DRAWING: Figure 6

Description

本発明は、運転支援装置、運転支援方法、運転支援プログラム、及び運転支援システムに関する。   The present invention relates to a driving support device, a driving support method, a driving support program, and a driving support system.

近年の車社会において、交通事故を防止するため、車両には様々な運転支援機能が搭載されている。交通事故の主な原因の一つとしては、疲労や考え事等に起因し、注意力が低下した状態で運転する漫然運転が挙げられる。これに対し、運転者の状態を推定し、注意力が低下した漫然状態であると推定された場合に、注意喚起のための警報を発する技術が提案されている(例えば、特許文献1を参照)。   In the recent automobile society, various driving support functions are mounted on vehicles in order to prevent traffic accidents. One of the main causes of traffic accidents is random driving in which the driver's attention is reduced due to fatigue or thinking. On the other hand, when a driver's state is estimated and it is presumed that it is an indiscreet state where attention is reduced, a technique for issuing a warning for alerting has been proposed (for example, see Patent Document 1). ).

特開2015−33457号公報JP2015-33457A

運転者が漫然状態であるか否かは、例えば、運転者の心拍数や発汗量などを計測して得られる生体情報によって推定する方法が提案されている。しかしながら、通常状態における心拍数や発汗量などの生体情報は、運転者によって異なる。また、安全運転を実践している運転者と、安全運転を怠りがちな運転者とでは、危険を認識するタイミングが異なり、加速や減速等の運転操作に関する特性も異なることが考えられる。運転者の特性が異なる場合には、漫然状態において計測される生体情報も異なる可能性がある。したがって、運転者の特性を考慮することなく、運転者が漫然状態であるか否かを推定しても、運転者の状態及び特性に応じた警報等の運転支援情報を、適切なタイミングで提示することは困難であると考えられる。   For example, a method has been proposed in which whether or not the driver is in a state of ambiguity is estimated based on biological information obtained by measuring the driver's heart rate, sweating amount, or the like. However, biological information such as heart rate and sweating amount in a normal state varies depending on the driver. Further, it is conceivable that a driver practicing safe driving and a driver who tends to neglect safe driving have different timings for recognizing danger and characteristics related to driving operations such as acceleration and deceleration. When the characteristics of the driver are different, the biological information measured in the random state may be different. Therefore, even if it is estimated whether or not the driver is in a state of ambiguity without considering the driver's characteristics, driving support information such as warnings according to the driver's condition and characteristics is presented at an appropriate timing. It seems difficult to do.

そこで、本発明は、運転者の状態及び特性に応じた運転支援を行う技術を提供することを目的とする。   Then, an object of this invention is to provide the technique which performs the driving assistance according to a driver | operator's state and characteristic.

上記課題を解決するため、本発明では、「運転操作の特性に基づいて判定された運転者が属する類型」及び「生体活動データを基準データと比較して推定された運転者の状態」に応じた運転支援を行うことにした。なお、生体活動データは、身体の一部の状態又は活動を検知するセンサにより計測されるデータである。   In order to solve the above-described problems, the present invention responds to “a type to which a driver determined based on characteristics of driving operation belongs” and “a driver state estimated by comparing life activity data with reference data”. I decided to provide driving assistance. The life activity data is data measured by a sensor that detects a state or activity of a part of the body.

詳細には、本発明は、運転支援装置であって、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得手段と、運転者の状態ごとの基準データを設定する基準データ管理手段と、取得された運転者の生体活動データを基準データと比較することにより、運転者の状態を推定する推定手段と、運転操作の特性に基づいて運転者が属する類型を判定する判定手段と、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する提示手段と、を備える。   Specifically, the present invention is a driving support device, which is a data acquisition means for acquiring a driver's life activity data measured by a sensor for detecting a state or activity of a part of the body, and for each state of the driver. The reference data management means for setting the reference data of the driver, the estimation means for estimating the driver's state by comparing the acquired driver's life activity data with the reference data, and the driver based on the characteristics of the driving operation Determination means for determining a type to which the vehicle belongs, and presentation means for presenting driving support information corresponding to the estimated driver state and the type to which the driver belongs.

上記の運転支援装置によれば、運転者の状態及び運転者が属する類型に応じて適切な運転支援情報を提示することができる。なお、運転者の状態は、通常状態及び非通常状態に大別される。非通常状態は、例えば、疲労や考え事等に起因し注意力が低下した漫然状態
、脇見運転をしながらの落ち着きがない状態、目的地に急いでいる焦燥状態等である。運転者が属する類型(以下、運転者のタイプともいう)は、アクセル、ブレーキ及びハンドル等の運転操作の特性に基づいて運転者を分類するための類型である。運転者が属する類型は、予め定義された類型であってもよく、蓄積された運転操作の特性のデータからクラスタリング等の統計処理によって抽出された類型であってもよい。生体活動データは、身体の一部の状態又は活動を検知するセンサにより計測されるデータであり、例えば、視線の動きから得られる視線活動量、心拍数等である。また、運転支援情報には、運転者の安全運転に対する意識を高め、コーチングに繋がる情報が含まれる。
According to the above driving assistance device, it is possible to present appropriate driving assistance information according to the state of the driver and the type to which the driver belongs. The state of the driver is roughly divided into a normal state and an abnormal state. The non-normal state is, for example, a state where attention is reduced due to fatigue or thoughts, a state where there is no calmness while driving aside, and a state where the destination is rushed. The type to which the driver belongs (hereinafter also referred to as the driver type) is a type for classifying the driver based on the characteristics of the driving operation such as the accelerator, the brake, and the steering wheel. The type to which the driver belongs may be a predefined type, or may be a type extracted from accumulated driving operation characteristic data by statistical processing such as clustering. The life activity data is data measured by a sensor that detects a state or activity of a part of the body, and includes, for example, a gaze activity amount obtained from a gaze movement, a heart rate, and the like. The driving support information includes information that raises the driver's awareness of safe driving and leads to coaching.

上記の基準データ管理手段を備える運転支援装置によれば、運転者ごとに状態を判定するための基準データが設定される。このため、運転者の視線の動き又は運転操作が、当該運転者の通常状態における基準データと異なる場合に、運転者の状態は非通常状態であると推定される。運転者に応じた基準データが設定されるため、運転者の状態を精度良く推定することが可能である。   According to the driving support apparatus including the above-described reference data management means, the reference data for determining the state for each driver is set. For this reason, when the movement of the driver's line of sight or the driving operation is different from the reference data in the normal state of the driver, the state of the driver is estimated to be an abnormal state. Since the reference data corresponding to the driver is set, it is possible to accurately estimate the driver's state.

また、基準データ管理手段は、所定のタイミングで、設定された基準データを更新するようにしてもよい。このような基準データ管理手段であれば、蓄積された過去の生体活動データに基づいて基準データが更新されるため、運転者の状態をより精度良く推定することが可能となる。例えば、視野狭窄の患者は、次第に視野が狭くなったり、一部が欠けたりすることから、通常状態で計測される生体活動データは、徐々に変わっていくことが考えられる。基準データが所定のタイミングで更新されることにより、視野狭窄の患者等であっても、運転支援装置は、運転者の状態を精度よく推定することができる。なお、所定のタイミングは、例えば、運転者が走行を終えたタイミングである。   Further, the reference data management means may update the set reference data at a predetermined timing. With such reference data management means, the reference data is updated based on the accumulated past life activity data, so that it is possible to estimate the driver's state with higher accuracy. For example, in a patient with visual field stenosis, the visual field gradually becomes narrower or part of the visual field becomes narrower, so that the biological activity data measured in the normal state may change gradually. By updating the reference data at a predetermined timing, the driving support apparatus can accurately estimate the state of the driver even for a patient with visual field stenosis or the like. The predetermined timing is, for example, the timing when the driver finishes traveling.

また、センサは、運転者の視線活動量を計測し、推定手段は、運転者の視線活動量の変化に基づいて運転者の状態を推定するようにしてもよい。このような運転支援装置であれば、視線の撮像等の簡易な処理により運転者の状態を推定することが可能となる。   The sensor may measure the driver's gaze activity amount, and the estimation means may estimate the driver's state based on a change in the driver's gaze activity amount. With such a driving support device, it is possible to estimate the driver's state by a simple process such as imaging of the line of sight.

また、本発明は、方法の側面から捉えることもできる。例えば、本発明は、コンピュータが、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得ステップと、過去に計測された運転者の生体活動データに基づいて、運転者の状態ごとの基準データを設定する基準データ管理ステップと、取得された運転者の生体活動データを基準データと比較することにより、運転者の状態を推定する推定ステップと、運転操作の特性に基づいて運転者が属する類型を判定する判定手段と、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する提示ステップと、を実行する、運転支援方法であってもよい。   The present invention can also be understood from a method aspect. For example, the present invention provides a data acquisition step in which a computer acquires a driver's life activity data measured by a sensor that detects a state or activity of a body part, and a driver's life activity data measured in the past. A reference data management step for setting reference data for each state of the driver, and an estimation step for estimating the driver's state by comparing the acquired driver's life activity data with the reference data; A determination unit that determines a type to which the driver belongs based on characteristics of the driving operation, and a presentation step that presents driving support information according to the estimated state of the driver and the type to which the driver belongs. It may be a support method.

また、本発明は、コンピュータプログラムの側面から捉えることもできる。例えば、本発明は、コンピュータに、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得ステップと、過去に計測された運転者の生体活動データに基づいて、運転者の状態ごとの基準データを設定する基準データ管理ステップと、取得された運転者の生体活動データを基準データと比較することにより、運転者の状態を推定する推定ステップと、運転操作の特性に基づいて運転者が属する類型を判定する判定手段と、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する提示ステップと、を実行させる、運転支援プログラムであってもよい。   The present invention can also be understood from the aspect of a computer program. For example, the present invention provides a computer with a data acquisition step of acquiring a driver's life activity data measured by a sensor that detects a state or activity of a part of the body, and a driver's life activity data measured in the past. A reference data management step for setting reference data for each state of the driver, and an estimation step for estimating the driver's state by comparing the acquired driver's life activity data with the reference data; Driving means for executing determination means for determining a type to which the driver belongs based on characteristics of the driving operation and a presentation step for presenting driving support information according to the estimated driver state and the type to which the driver belongs It may be a support program.

また、本発明は、システムとしての側面から捉えることもできる。例えば、本発明は、サーバ及び運転支援装置を含む運転支援システムであって、サーバは、運転操作の特性に基づいて運転者を複数の類型に分類する分類手段を備え、運転支援装置は、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデー
タ取得手段と、取得された運転者の生体活動データに基づいて、運転者の状態ごとの基準データを設定する基準データ管理手段と、取得された運転者の生体活動データを基準データと比較することにより、運転者の状態を推定する推定手段と、運転操作の特性に基づいて運転者が属する類型を判定する判定手段と、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する提示手段と、を備えるものであってもよい。
The present invention can also be understood from the aspect of the system. For example, the present invention is a driving support system including a server and a driving support device, and the server includes classification means for classifying a driver into a plurality of types based on characteristics of driving operation. Data acquisition means for acquiring the driver's life activity data measured by a sensor that detects a part of the state or activity of the driver, and reference data for each driver state based on the acquired driver's life activity data The reference data management means for setting the driver, the estimation means for estimating the driver's state by comparing the acquired driver's life activity data with the reference data, and the type to which the driver belongs based on the characteristics of the driving operation And a presenting means for presenting driving support information corresponding to the estimated driver state and the type to which the driver belongs.

本発明によれば、運転者の状態及び特性に応じた運転支援を行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the driving assistance according to a driver | operator's state and characteristic can be performed.

図1は、運転支援システムのハードウェア構成を例示する図である。FIG. 1 is a diagram illustrating a hardware configuration of a driving support system. 図2は、運転支援装置の機能構成を例示する図である。FIG. 2 is a diagram illustrating a functional configuration of the driving support device. 図3は、サーバの機能構成を例示する図である。FIG. 3 is a diagram illustrating a functional configuration of the server. 図4は、運転者のタイプを判定するためのアンケートの例を示す図である。FIG. 4 is a diagram illustrating an example of a questionnaire for determining the type of driver. 図5は、状態ごとの視線の動きを示すグラフの例を示す図である。FIG. 5 is a diagram illustrating an example of a graph showing the movement of the line of sight for each state. 図6は、視線活動量から運転者の状態を推定する例を説明する図である。FIG. 6 is a diagram illustrating an example in which the driver's state is estimated from the gaze activity amount. 図7は、下り坂における運転支援の内容を例示する図である。FIG. 7 is a diagram illustrating the content of driving support on a downhill. 図8は、下り坂における運転支援のタイミングを例示する図である。FIG. 8 is a diagram illustrating the timing of driving support on a downhill. 図9は、運転支援情報の表示例を示す図である。FIG. 9 is a diagram illustrating a display example of driving support information. 図10は、左折又は右折時における運転支援の内容を例示する図である。FIG. 10 is a diagram illustrating the content of driving assistance during a left turn or a right turn. 図11は、認知信号機の表示例を説明する図である。FIG. 11 is a diagram illustrating a display example of the recognition signal device. 図12は、認知信号機を表示するタイミングを例示する図である。FIG. 12 is a diagram illustrating the timing for displaying the recognition signal. 図13は、認知信号機を表示するタイミングを例示する図である。FIG. 13 is a diagram illustrating the timing for displaying the recognition signal. 図14は、運転者の車体周囲に対する視認状況を表示する例を示す図である。FIG. 14 is a diagram illustrating an example of displaying a visual recognition state of the driver around the vehicle body. 図15は、漫然状態における運転者の車体周囲に対する視認状況を表示する例を示す図である。FIG. 15 is a diagram illustrating an example of displaying a visual recognition state of the driver around the vehicle body in a casual state. 図16は、運転支援情報を提示する処理の流れを例示するフローチャートである。FIG. 16 is a flowchart illustrating the flow of processing for presenting driving support information.

以下、実施形態について説明する。以下に示す実施形態は、単なる例示であり、本開示の技術的範囲を以下の態様に限定するものではない。   Hereinafter, embodiments will be described. The embodiment described below is merely an example, and the technical scope of the present disclosure is not limited to the following aspect.

本実施形態では、運転支援装置は、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得し、取得された運転者の生体活動データに基づいて、運転者の状態を推定する。また、運転支援装置は、運転操作の特性に基づいて前記運転者が属する類型を判定し、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する。これによって、運転支援装置は、運転者の特性及び運転中の状態に応じて適切な運転支援情報を提示することが可能となる。   In the present embodiment, the driving support device acquires the driver's life activity data measured by a sensor that detects a state or activity of a part of the body, and drives based on the acquired driver's life activity data. The person's condition is estimated. Further, the driving support device determines a type to which the driver belongs based on characteristics of the driving operation, and presents driving support information according to the estimated driver state and the type to which the driver belongs. Accordingly, the driving support device can present appropriate driving support information according to the characteristics of the driver and the driving state.

<ハードウェア構成>
図1は、運転支援システムのハードウェア構成を例示する図である。運転支援システム100は、運転支援装置1及びサーバ2を含む。運転支援装置1とサーバ2とは、ネットワークN1によって相互に接続される。運転支援装置1は、車両3に搭載される各種機器とネットワークN2によって相互に接続される。
<Hardware configuration>
FIG. 1 is a diagram illustrating a hardware configuration of a driving support system. The driving support system 100 includes a driving support device 1 and a server 2. The driving support device 1 and the server 2 are connected to each other by a network N1. The driving support device 1 is connected to various devices mounted on the vehicle 3 through a network N2.

運転支援装置1は、プロセッサ11、主記憶装置12、補助記憶装置13、ネットワークインタフェース14を備える。また、これらはバス15により互いに電気的に接続される。   The driving support device 1 includes a processor 11, a main storage device 12, an auxiliary storage device 13, and a network interface 14. These are electrically connected to each other by a bus 15.

プロセッサ11は、補助記憶装置13に保持されたOSや様々なコンピュータプログラムを主記憶装置12にロードして実行することによって、様々な処理を実行する。ただし、コンピュータプログラムによる処理の一部がハードウェア回路により実行されてもよい。プロセッサ11は、例えば、CPU(Central Processing Unit)や、DSP(Digital Signal Processor)である。   The processor 11 executes various processes by loading the OS and various computer programs held in the auxiliary storage device 13 into the main storage device 12 and executing them. However, a part of the processing by the computer program may be executed by a hardware circuit. The processor 11 is, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).

主記憶装置12は、プロセッサ11に、補助記憶装置13に格納されているプログラムをロードするための記憶領域、及びプログラムを実行するための作業領域を提供する。また、主記憶装置12は、データを保持するためのバッファとして用いられる。主記憶装置12は、例えば、ROM(Read Only Memory)、RAM(Random
Access Memory)等の半導体メモリである。
The main storage device 12 provides the processor 11 with a storage area for loading a program stored in the auxiliary storage device 13 and a work area for executing the program. The main storage device 12 is used as a buffer for holding data. The main storage device 12 is, for example, a ROM (Read Only Memory), a RAM (Random).
This is a semiconductor memory such as Access Memory.

補助記憶装置13は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置13は、例えば、EPROM(Erasable Programmable ROM)、又はハードディスクドライブ(Hard
Disk Drive、HDD)等の不揮発性のメモリである。補助記憶装置13は、例えば、オペレーティングシステム(Operating System、OS)、運転支援プログラム、その他様々なアプリケーションプログラムを保持する。運転支援プログラムは、運転者の状態及び運転者が属する類型に応じた運転支援情報を提示するためのプログラムである。
The auxiliary storage device 13 stores various programs and data used by the processor 11 when executing each program. The auxiliary storage device 13 is, for example, an EPROM (Erasable Programmable ROM) or a hard disk drive (Hard).
A non-volatile memory such as a disk drive (HDD). The auxiliary storage device 13 holds, for example, an operating system (Operating System, OS), a driving support program, and other various application programs. The driving support program is a program for presenting driving support information according to the state of the driver and the type to which the driver belongs.

ネットワークインタフェース14は、ネットワークとの情報の入出力を行うインタフェースである。ネットワークインタフェース14は、有線のネットワークと接続するインタフェース、無線のネットワークと接続するインタフェースを含む。ネットワークインタフェース14は、例えば、NIC(Network Interface Card)、無線LAN(Local Area Network)カード、3G(3rd Generation)、LTE(Long Term Evolution)等の携帯電話網に接続するための無線回路等である。ネットワークインタフェース14で受信されたデータ等は、プロセッサ11に出力される。   The network interface 14 is an interface for inputting / outputting information to / from the network. The network interface 14 includes an interface connected to a wired network and an interface connected to a wireless network. The network interface 14 is, for example, a wireless circuit for connecting to a mobile phone network such as a NIC (Network Interface Card), a wireless LAN (Local Area Network) card, a 3G (3rd Generation), or an LTE (Long Term Evolution). . Data received by the network interface 14 is output to the processor 11.

なお、図1に示される運転支援装置1のハードウェア構成は一例であり、上記に限られず、実施の形態に応じて適宜構成要素の省略、置換又は追加が可能である。例えば、運転支援装置1は、ウェアラブルセンサ等の各種デバイスとのインタフェースを備え、各種デバイスからデータを取得するようにしてもよい。   Note that the hardware configuration of the driving assistance device 1 shown in FIG. 1 is an example, and is not limited to the above, and components can be omitted, replaced, or added as appropriate according to the embodiment. For example, the driving support device 1 may include an interface with various devices such as a wearable sensor and acquire data from the various devices.

サーバ2は、プロセッサ21、主記憶装置22、補助記憶装置23、ネットワークインタフェース24を備える。また、これらはバス25により互いに電気的に接続される。   The server 2 includes a processor 21, a main storage device 22, an auxiliary storage device 23, and a network interface 24. These are electrically connected to each other by a bus 25.

プロセッサ21は、補助記憶装置23に保持されたOSや様々なコンピュータプログラムを主記憶装置22にロードして実行することによって、様々な処理を実行する。ただし、コンピュータプログラムによる処理の一部がハードウェア回路により実行されてもよい。プロセッサ21は、例えば、CPUや、DSPである。   The processor 21 executes various processes by loading the OS and various computer programs held in the auxiliary storage device 23 into the main storage device 22 and executing them. However, a part of the processing by the computer program may be executed by a hardware circuit. The processor 21 is, for example, a CPU or a DSP.

主記憶装置22は、プロセッサ21に、補助記憶装置23に格納されているプログラムをロードするための記憶領域、及びプログラムを実行するための作業領域を提供する。また、主記憶装置22は、データを保持するためのバッファとして用いられる。主記憶装置22は、例えば、ROM、RAM等の半導体メモリである。   The main storage device 22 provides the processor 21 with a storage area for loading a program stored in the auxiliary storage device 23 and a work area for executing the program. The main storage device 22 is used as a buffer for holding data. The main storage device 22 is a semiconductor memory such as a ROM and a RAM, for example.

補助記憶装置23は、様々なプログラムや、各プログラムの実行に際してプロセッサ2
1が使用するデータを格納する。補助記憶装置23は、例えば、EPROM、又はハードディスクドライブ等の不揮発性のメモリである。補助記憶装置23は、例えば、OS、各種データを解析するためのプログラム、その他様々なアプリケーションプログラムを保持する。
The auxiliary storage device 23 is a processor 2 for executing various programs and each program.
1 stores data to be used. The auxiliary storage device 23 is, for example, a nonvolatile memory such as an EPROM or a hard disk drive. The auxiliary storage device 23 holds, for example, an OS, a program for analyzing various data, and various other application programs.

ネットワークインタフェース24は、ネットワークとの情報の入出力を行うインタフェースである。ネットワークインタフェース24は、有線及び無線のネットワークと接続するインタフェースを含む。ネットワークインタフェース24は、例えば、NIC、無線LANカード等である。ネットワークインタフェース24で受信されたデータ等は、プロセッサ11に出力される。   The network interface 24 is an interface for inputting / outputting information to / from the network. The network interface 24 includes an interface for connecting to wired and wireless networks. The network interface 24 is, for example, a NIC or a wireless LAN card. Data received by the network interface 24 is output to the processor 11.

なお、図1に示されるサーバ2のハードウェア構成は一例であり、上記に限られず、実施の形態に応じて適宜構成要素の省略、置換又は追加が可能である。   Note that the hardware configuration of the server 2 shown in FIG. 1 is an example, and is not limited to the above, and components can be omitted, replaced, or added as appropriate according to the embodiment.

車両3は、運転支援の対象となる運転者が乗車する車両であって、センサ31及び出力装置32を備える。なお、センサ31は、1つに限られず、複数備えられてもよい。   The vehicle 3 is a vehicle on which a driver who is a target for driving assistance rides, and includes a sensor 31 and an output device 32. Note that the number of sensors 31 is not limited to one, and a plurality of sensors 31 may be provided.

センサ31は、乗車している人に関する情報を計測するセンサ、外界の状況を計測する外界センサ、車両3の速度を計測したり運転操作を検知したりする車内センサ等、複数のセンサを含む。センサ31は、運転者の状態を推定するため、運転者の視線を検知したり、生体情報を計測したりする。また、センサ31は、車両3の周囲の障害物を検知したり、道路標識、道路標示等の道路情報を認識したりする。さらに、センサ31は、車両の速度や加速度を計測したり、ハンドル、アクセル及びブレーキ等に対する運転操作を検知したりする。   The sensor 31 includes a plurality of sensors such as a sensor that measures information about a person on board, an external sensor that measures the state of the outside, and an in-vehicle sensor that measures the speed of the vehicle 3 and detects a driving operation. The sensor 31 detects the driver's line of sight or measures biological information in order to estimate the driver's state. The sensor 31 also detects obstacles around the vehicle 3 and recognizes road information such as road signs and road markings. Furthermore, the sensor 31 measures the speed and acceleration of the vehicle, and detects driving operations on the steering wheel, accelerator, brake, and the like.

具体的には、センサ31は、運転者の視線を検知するためのカメラ、生体情報を計測するための心拍センサや脳波センサ、車両3の周辺状況を認識するためのレーダー、ステレオカメラ等の各種センサである。なお、車両と路側機が情報をやりとりする路車間通信及び車両同士が直接情報をやりとりする車車間通信を含むV2X通信において、路側機又は他の車との通信に用いられる装置もセンサ31の一種である。   Specifically, the sensor 31 is a camera for detecting the driver's line of sight, a heart rate sensor or an electroencephalogram sensor for measuring biological information, a radar for recognizing the surrounding situation of the vehicle 3, a stereo camera, or the like. It is a sensor. Note that in V2X communication including road-to-vehicle communication in which information is exchanged between the vehicle and the roadside machine and vehicle-to-vehicle communication in which the vehicle directly exchanges information, a device used for communication with the roadside machine or another vehicle is also a kind of sensor 31. It is.

出力装置32は、運転支援装置1が提示する運転支援情報を表示する。出力装置32は、例えば、人間の視野に重ね合わせて情報を表示するヘッドアップディスプレイ(Head−Up Display、HUD)、車載の液晶ディスプレイ(Liquid Crystal Display、LCD)である。HUDは、透過型の無機エレクトロルミネッセンス(Electro−Luminescence、EL)ディスプレイであり、ダッシュボードに設置したり、フロントガラス全体にHUDの表示を投影したりすることが可能である。   The output device 32 displays the driving support information presented by the driving support device 1. The output device 32 is, for example, a head-up display (Head-Up Display, HUD) that displays information superimposed on the human visual field, or an in-vehicle liquid crystal display (Liquid Crystal Display, LCD). The HUD is a transmissive inorganic electroluminescence (EL) display, which can be installed on a dashboard or can be projected on the entire windshield.

ネットワークN1は、インターネット等の世界規模の公衆パケット通信網であり、運転支援装置1とサーバ2とを接続する。なお、インターネットの代わりに、WAN(Wide Area Network)やその他の通信網が採用されてもよい。   The network N1 is a worldwide public packet communication network such as the Internet, and connects the driving support apparatus 1 and the server 2. Instead of the Internet, a WAN (Wide Area Network) or other communication network may be employed.

ネットワークN2は、専用の通信回線で構築された通信網であり、運転支援装置1と車両3とを接続する。なお、ネットワークN2として、Wi−Fi、Bluetooth(登録商標)、イーサネット(登録商標)、体の表面等に配置された小型端末との無線通信により構築されるボディエリアネットワーク(Body Area Network、BAN)、並びにコントローラエリアネットワーク(CAN)及びフレックスレイ(FlexRay)等の車載通信ネットワークが採用されてもよい。   The network N2 is a communication network constructed by a dedicated communication line, and connects the driving support device 1 and the vehicle 3. As the network N2, Wi-Fi, Bluetooth (registered trademark), Ethernet (registered trademark), a body area network (Body Area Network, BAN) constructed by wireless communication with a small terminal placed on the surface of the body, etc. In-vehicle communication networks such as a controller area network (CAN) and a FlexRay may also be adopted.

<機能構成>
<<運転支援装置>>
図2は、運転支援装置1の機能構成を例示する図である。運転支援装置1は、機能構成として、タイプ判定部F11、データ取得部F12、状態推定部F13、基準データ管理部F14、提示部F15、及び運転支援情報データベースD11を備える。運転支援装置1は、補助記憶装置13に記憶されているプログラムが、主記憶装置12に読み出され、プロセッサ11によって実行されることで、タイプ判定部F11、データ取得部F12、状態推定部F13、基準データ管理部F14、提示部F15、及び運転支援情報データベースD11を備えるコンピュータとして機能する。
<Functional configuration>
<< Driving support device >>
FIG. 2 is a diagram illustrating a functional configuration of the driving support device 1. The driving support device 1 includes a type determination unit F11, a data acquisition unit F12, a state estimation unit F13, a reference data management unit F14, a presentation unit F15, and a driving support information database D11 as functional configurations. The driving support device 1 reads out the program stored in the auxiliary storage device 13 to the main storage device 12 and executes it by the processor 11, whereby the type determination unit F11, the data acquisition unit F12, and the state estimation unit F13. , Functioning as a computer including a reference data management unit F14, a presentation unit F15, and a driving support information database D11.

なお、本実施形態において、運転支援装置1の備える各機能は、汎用プロセッサであるプロセッサ11によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサ、ハードウェアの演算回路等によって実行されてもよい。ここで、ハードウェアの演算回路とは、例えば、論理ゲートを組み合わせた加算回路、乗算回路、フリップフロップ等をいう。また、これらの機能の一部又は全部は、別途のコンピュータにおいて実行されてもよい。   In the present embodiment, each function provided in the driving support device 1 is executed by the processor 11 that is a general-purpose processor. However, some or all of these functions are performed by one or more dedicated processors and hardware operations. It may be executed by a circuit or the like. Here, the hardware arithmetic circuit refers to, for example, an adder circuit, a multiplier circuit, a flip-flop, etc. combined with logic gates. Some or all of these functions may be executed by a separate computer.

タイプ判定部F11は、運転者のタイプを判定する。タイプ判定部F11は、アクセル、ブレーキ及びハンドル等の運転操作の特性に応じて、運転者のタイプを判定する。運転操作の特性は、具体的には、運転者が実際に車両3を運転したときのアクセルの踏み込み時間、ブレーキを踏むタイミング、ハンドルを回すスピード等のデータである。タイプ判定部F11は、予め設定された複数のタイプの運転操作の特性に係るデータ(以下、教師データともいう)と比較し、合致の度合いに基づいて、運転者がどのタイプに属するかを判定するようにすることができる。タイプごとの教師データは、特徴的な運転者の実測データを基に予め設定し、運転支援装置1の補助記憶装置13に保持しておいてもよい。なお、運転者が変わらない場合には、判定済みの運転者のタイプを運転支援装置1の補助記憶装置13に保持しておくことができる。   The type determination unit F11 determines the type of the driver. The type determination unit F11 determines the type of the driver according to the driving operation characteristics such as the accelerator, the brake, and the steering wheel. Specifically, the characteristics of the driving operation are data such as the accelerator depression time, the brake depression timing, and the steering wheel turning speed when the driver actually drives the vehicle 3. The type determination unit F11 compares with data related to a plurality of types of driving operation characteristics set in advance (hereinafter also referred to as teacher data), and determines which type the driver belongs to based on the degree of matching To be able to. The teacher data for each type may be set in advance based on characteristic driver actual measurement data and held in the auxiliary storage device 13 of the driving support device 1. When the driver does not change, the determined driver type can be held in the auxiliary storage device 13 of the driving support device 1.

また、教師データがない場合には、サーバ2において、複数の運転者の運転操作の特性に係るデータを蓄積し、クラスタリング等の手法により回帰的に各運転者を複数のタイプに分類してもよい。タイプ判定部F11は、判定対象の運転者が、サーバ2において分類されたどの運転者のタイプに属するかを判定する。   Further, when there is no teacher data, the server 2 accumulates data related to the characteristics of driving operations of a plurality of drivers, and each driver is classified into a plurality of types recursively by a technique such as clustering. Good. The type determination unit F11 determines to which driver type the driver to be determined belongs in the server 2 belongs to.

なお、運転操作の特性は、実際のアクセル、ブレーキ及びハンドル等の運転操作ではなく、運転操作の特性に関連する質問を含むアンケートの回答結果に基づくものであってもよい。即ち、タイプ判定部F11は、運転者のアンケートに対する回答に基づいて、運転者のタイプを判定する。   The characteristic of the driving operation may be based on the answer result of the questionnaire including the question related to the characteristic of the driving operation, not the actual driving operation of the accelerator, the brake, the steering wheel, and the like. That is, the type determination unit F11 determines the type of the driver based on the answer to the driver's questionnaire.

図4は、運転者のタイプを判定するためのアンケートの例を示す図である。図4に示すアンケートは、運転操作に関する9問の質問が例示される。各質問は、(1)当てはまらない、(2)少しあてはまる、(3)ある程度あてはまる、(4)あてはまる、の4段階で回答される。タイプ判定部F11は、実際の運転操作によってタイプを判定する場合と同様に、判定対象の運転者のアンケートの回答を、教師データとなるタイプごとのアンケートの回答と比較し、合致の度合いに基づいて、運転者がどのタイプに属するかを判定するようにすることができる。   FIG. 4 is a diagram illustrating an example of a questionnaire for determining the type of driver. The questionnaire shown in FIG. 4 illustrates nine questions regarding driving operations. Each question is answered in four stages: (1) not applicable, (2) a little true, (3) some good, (4) true. The type determination unit F11 compares the questionnaire response of the determination target driver with the questionnaire response for each type serving as the teacher data, based on the degree of match, as in the case of determining the type by actual driving operation. Thus, it can be determined which type the driver belongs to.

さらに、実際の運転操作によってタイプを判定する場合と同様に、教師データがない場合には、サーバ2において、複数の運転者のアンケートの回答を蓄積し、クラスタリング等の手法により回帰的に各運転者を複数のタイプに分類してもよい。タイプ判定部F11は、判定対象の運転者が、サーバ2において分類されたどの運転者のタイプに属するかを
判定する。なお、タイプ判定部F11は、「判定手段」の一例である。また、運転者のタイプは、「運転者が属する類型」の一例である。
Further, as in the case where the type is determined by actual driving operation, when there is no teacher data, the server 2 accumulates answers of questionnaires of a plurality of drivers, and each driving is recursively performed by a method such as clustering. A person may be classified into a plurality of types. The type determination unit F11 determines to which driver type the driver to be determined belongs in the server 2 belongs to. The type determination unit F11 is an example of a “determination unit”. The type of driver is an example of “a type to which the driver belongs”.

データ取得部F12は、車両3に搭載されたセンサ31で計測されたデータを取得する。センサ31で計測されたデータは、例えば、運転者の状態を推定するためのデータであり、カメラで検知された運転者の視線から算出される視線活動量である。また、センサ31で計測されたデータは、運転者の心拍数、脳波等の生体情報等であってもよい。データ取得部F12は、車両3に搭載されたセンサ31の他、運転者が装着するウェアラブルセンサにより計測されたデータを取得してもよい。さらに、データ取得部F12は、センサ31で認識された道路標識又は障害物等の情報を取得する。道路標識又は障害物等の情報は、運転支援情報を提示するタイミングを判定するために用いることができる。データ取得部F12は、「データ取得手段」の一例である。   The data acquisition unit F12 acquires data measured by the sensor 31 mounted on the vehicle 3. The data measured by the sensor 31 is, for example, data for estimating the driver's state, and is a gaze activity amount calculated from the driver's gaze detected by the camera. The data measured by the sensor 31 may be biological information such as a driver's heart rate and brain waves. The data acquisition unit F12 may acquire data measured by a wearable sensor worn by the driver in addition to the sensor 31 mounted on the vehicle 3. Furthermore, the data acquisition unit F12 acquires information such as road signs or obstacles recognized by the sensor 31. Information such as road signs or obstacles can be used to determine the timing for presenting driving support information. The data acquisition unit F12 is an example of a “data acquisition unit”.

状態推定部F13は、データ取得部F12が取得したデータに基づいて、運転者が通常状態であるか、注意力が低下した漫然状態であるか等、運転者の状態を推定する。なお、運転者の状態は、通常状態及び漫然状態に限られず、落ち着きがない状態、焦燥状態等であってもよく、状態に応じた運転支援情報が予め定義されていればよい。また、漫然状態の度合いに応じて、異なる運転支援情報が提示されるようにしてもよい。ここで、図5及び図6により、視線活動量に基づいて運転者の状態を推定する例を説明する。   Based on the data acquired by the data acquisition unit F12, the state estimation unit F13 estimates the state of the driver, such as whether the driver is in a normal state or is in a casual state with reduced attention. The state of the driver is not limited to the normal state and the random state, and may be a state of calmness, a frustrated state, or the like, and driving support information corresponding to the state may be defined in advance. Further, different driving support information may be presented according to the degree of the state of disorder. Here, an example in which the state of the driver is estimated based on the gaze activity amount will be described with reference to FIGS. 5 and 6.

図5は、状態ごとの視線の動きを示すグラフの例を示す図である。グラフG1、グラフG2、グラフG3は、それぞれ通常運転、漫然運転、脇見運転時の視線動きを示す。各グラフの横軸は時間を表し、縦軸は視線の活動量を表す。図5において視線の活動量は、視線の移動量を意味する。正の活動量として計数される視線の移動先のエリアは、例えば、前方右歩道、後方右サイドミラー、後方左サイドミラー、後方バックミラー、前方右対向車線、前方左歩道、前方進行方向である。負の活動量として計数される視線の移動先のエリアは、例えば、脇見又はよそ見による真横方向、携帯等による下方向である。   FIG. 5 is a diagram illustrating an example of a graph showing the movement of the line of sight for each state. Graph G1, graph G2, and graph G3 show line-of-sight movements during normal driving, random driving, and side-view driving, respectively. The horizontal axis of each graph represents time, and the vertical axis represents the amount of gaze activity. In FIG. 5, the amount of gaze activity means the amount of gaze movement. The movement destination area of the line of sight counted as a positive activity amount is, for example, the front right sidewalk, the rear right side mirror, the rear left side mirror, the rear rearview mirror, the front right opposite lane, the front left sidewalk, and the forward traveling direction. . The movement destination area of the line of sight counted as a negative amount of activity is, for example, a lateral direction by looking aside or looking away, or a downward direction by carrying or the like.

通常運転時の視線の動きを示すグラフG1は、一定時間Tにおいて正の活動量が増加している状態を示す。通常運転時には、運転者は、前方、道路の左右、後方等に所定の間隔で顔及び視線を向け、安全運転のための状況確認をしていることが示される。漫然運転時の視線の動きを示すグラフG2は、一定時間Tにおいて正の活動量が減少している状態を示す。漫然運転時には、運転者は、眠気を感じたり、考え事をしたりすることにより、安全を意識して運転しているときと比較して視線の活動量が減少し、周囲の状況を適切に確認していないことが示される。脇見運転時の視線の動きを示すグラフG3は、一定時間Tにおいて負の活動量が増加している状態を示す。脇見運転時には、運転者は、膝の上に置いた携帯電話を見るために下を向く頻度が増加するなど、通常運転時とは異なる方向への視線の活動量が増加し、周囲の状況を適切に確認せず脇見運転をしていることが示される。   A graph G1 showing the movement of the line of sight during normal driving shows a state in which the amount of positive activity increases for a certain time T. During normal driving, the driver turns his face and line of sight at predetermined intervals toward the front, left and right of the road, and the rear, indicating that the driver is checking the situation for safe driving. A graph G <b> 2 showing the movement of the line of sight during the rough driving shows a state in which the amount of positive activity decreases in a certain time T. When driving abruptly, the driver feels drowsy or thinks, so the amount of gaze activity decreases compared to when driving with safety in mind, and the surrounding situation is properly checked It is shown that they are not. A graph G3 showing the movement of the line of sight during the side-view driving shows a state in which the amount of negative activity increases in a certain time T. When driving aside, the driver's line-of-sight activity in a different direction from normal driving increases, such as the frequency of looking down to see a mobile phone placed on his lap. It shows that he is driving aside without checking properly.

図6は、視線活動量から運転者の状態を推定する例を説明する図である。まず、車両3のセンサ31としてのカメラは、運転者の視線を検知する(P1)。カメラで撮像された画像は、既存の画像処理技術によって解析される。視線の方向は、3次元ベクトルにより取得可能である。   FIG. 6 is a diagram illustrating an example in which the driver's state is estimated from the gaze activity amount. First, the camera as the sensor 31 of the vehicle 3 detects the driver's line of sight (P1). An image captured by the camera is analyzed by an existing image processing technique. The direction of the line of sight can be acquired by a three-dimensional vector.

P1で検知した視線の情報に基づき、視線の活動量ETが算出される(P2)。視線活動量ETは、視線の移動方向に関する活動量及び視線の移動頻度に関する活動量に基づいて算出される。   Based on the line-of-sight information detected in P1, the line-of-sight activity ET is calculated (P2). The line-of-sight activity ET is calculated based on the amount of activity related to the direction of movement of the line of sight and the amount of activity related to the frequency of movement of the line of sight.

まず、視線の移動方向が評価される(P21)。目の位置を原点Oとし、P1の処理で
取得した3次元ベクトルから、ある時間区間Tにおける視線の移動方向をプロットする。エリアA1、エリアA2、及びエリアBは、事前に設定されたエリアである。エリアA1は、視線を配ることが必要とされるエリアである。エリアA2は、視線を配ることが推奨されるエリアである。エリアBは、視線を配ることが推奨されないエリアである。視線の移動方向に関する活動量は、各エリアに視線が配られた頻度に対し、エリアに対応する重みづけをして算出される。具体的には、エリアA1及びエリアA2への視線は正の活動量として重みづけされる。また、エリアA1は、視線を配ることが必要とされるエリアであるため、エリアA2よりも重みづけの程度は大きくなる。一方、エリアBへの視線は負の活動量として重みづけされる。
First, the moving direction of the line of sight is evaluated (P21). With the eye position as the origin O, the movement direction of the line of sight in a certain time interval T is plotted from the three-dimensional vector acquired in the process of P1. Area A1, area A2, and area B are areas set in advance. The area A1 is an area where it is necessary to distribute the line of sight. The area A2 is an area for which it is recommended to distribute the line of sight. Area B is an area where it is not recommended to distribute the line of sight. The amount of activity related to the movement direction of the line of sight is calculated by weighting the frequency of the line of sight distributed to each area corresponding to the area. Specifically, the line of sight to the area A1 and the area A2 is weighted as a positive activity amount. In addition, since the area A1 is an area where it is necessary to distribute the line of sight, the degree of weighting is greater than the area A2. On the other hand, the line of sight to area B is weighted as a negative amount of activity.

次に、視線の移動頻度が評価される(P22)。視線の移動頻度を推定するため、ある時間区間Tにおける視線の移動量の変化を計測し、視線移動量の絶対値のパワースペクトラムが求められる。P22に示されるヒストグラムは、求められたパワースペクトラムに基づき、周波数帯域ごとの度数をグラフ化したものであり、縦軸は度数を、横軸は周波数帯域を表す。H2の範囲の周波数帯域は、適切な頻度で移動する視線が検知された頻度(度数)を示す。これに対し、H1の範囲の周波数帯域は、適切な頻度よりも低い頻度で移動する視線が検知された頻度(度数)を示す。また、H3の範囲の周波数帯域は、適切な頻度よりも高い頻度で移動する視線が検知された頻度(度数)を示す。移動頻度に関する活動量は、視線の移動頻度に応じて重みを与えて算出することが可能である。例えば、適切な頻度よりも低い頻度の場合は負の重み付けをし、適切な頻度よりも高い頻度の場合は正の重み付けをしてもよい。   Next, the movement frequency of the line of sight is evaluated (P22). In order to estimate the movement frequency of the line of sight, a change in the amount of movement of the line of sight in a certain time interval T is measured, and the power spectrum of the absolute value of the line of sight movement is obtained. The histogram shown in P22 is a graph showing the frequency for each frequency band based on the obtained power spectrum. The vertical axis represents the frequency and the horizontal axis represents the frequency band. The frequency band in the range of H2 indicates the frequency (frequency) at which a line of sight moving with an appropriate frequency is detected. On the other hand, the frequency band in the range of H1 indicates the frequency (frequency) at which the line of sight moving at a frequency lower than the appropriate frequency is detected. The frequency band in the range of H3 indicates the frequency (frequency) at which the line of sight moving at a frequency higher than the appropriate frequency is detected. The amount of activity related to the movement frequency can be calculated by giving a weight according to the movement frequency of the line of sight. For example, negative weighting may be performed when the frequency is lower than the appropriate frequency, and positive weighting may be performed when the frequency is higher than the appropriate frequency.

なお、移動頻度に関する活動量は、移動方向に関係なく計測することができるが、これに限られない。P21で説明したエリアごとに視線の移動量の変化を計測し、エリアごとにP22に示すようなヒストグラムを生成してもよい。この場合、視線活動量は、エリアごとに重み付けをして算出してもよい。視線の活動量ETは、例えば、視線の移動方向に関する活動量及び視線の移動頻度に関する活動量を加算することにより求められる。   In addition, although the activity amount regarding a movement frequency can be measured irrespective of a moving direction, it is not restricted to this. A change in the amount of movement of the line of sight for each area described in P21 may be measured, and a histogram as shown in P22 may be generated for each area. In this case, the gaze activity amount may be calculated by weighting each area. The line-of-sight activity amount ET is obtained, for example, by adding the amount of activity related to the line-of-sight movement direction and the amount of activity related to the line-of-sight movement frequency.

視線活動量ETが算出されるとともに、視線が検知された時間区間Tにおける道路の状況STが評価される(P3)。状況STは、例えば、見通しの悪いカーブ、緩やかなカーブ、高速道路の直線、交差点等の状況である。状況STは、GPS(Global Positioning System)及び道路情報と対応付けられた地図情報から推定することが可能である。また、状況STは、V2X通信により取得した道路の状況等に関する情報又は車両3から取得される速度等の情報を活用して推定してもよい。   The gaze activity amount ET is calculated, and the road status ST in the time interval T in which the gaze is detected is evaluated (P3). The situation ST is, for example, a situation such as a curve with a poor view, a gentle curve, a straight line on an expressway, or an intersection. The situation ST can be estimated from GPS (Global Positioning System) and map information associated with road information. Further, the situation ST may be estimated by utilizing information on the road situation obtained by V2X communication or information such as speed obtained from the vehicle 3.

道路の状況ST及び視線活動量ETは所定の判定器に基づいて処理される(P4)。判定器は、道路の状況STごとに運転者の状態を判定するための条件を定義したものである。判定器は、例えば、ある状況ST0において、指定された視線活動量ET0が所定の閾値以上であれば通常状態であると判定し、視線活動量ET0が所定の閾値より小さい場合は漫然状態であると判定するように所定の閾値を設定することができる。また、判定器は、ある状況ST1において、視線活動量ET1が所定の値の範囲内であれば通常状態であると判定し、視線活動量ET1が所定の値の範囲外であれば漫然状態であると判定するようにしてもよい(P5)。なお、図6に示す運転者の状態の推定方法は一例であり、運転者の状態は、視線の動きを様々な方法で解析することにより推定することが可能である。なお、状態推定部F13は、「推定手段」の一例である。   The road status ST and the line-of-sight activity ET are processed based on a predetermined determination device (P4). The determiner defines conditions for determining the state of the driver for each road condition ST. For example, in a certain situation ST0, the determiner determines that the specified gaze activity amount ET0 is equal to or greater than a predetermined threshold value, and determines that the normal state is present. A predetermined threshold value can be set so as to determine. In addition, in a situation ST1, the determiner determines that the normal state is in the range of the line-of-sight activity amount ET1 within a predetermined value range, and is in a loose state if the line-of-sight activity amount ET1 is outside the range of the predetermined value. You may make it determine with there (P5). Note that the method for estimating the driver state shown in FIG. 6 is an example, and the driver state can be estimated by analyzing the movement of the line of sight by various methods. The state estimation unit F13 is an example of an “estimator”.

基準データ管理部F14は、運転者の状態を推定する際の基準となるデータ(以下、基準データともいう)を管理する。基準データは、運転者の通常状態、漫然状態等の状態ごとに設定される。基準データは、例えば、所定の時間内に見るべき方向に視線を動かした回数、及び所定の時間内にそれ以外の方向に視線を動かした回数の閾値とすることができ
る。運転者によって視線の動かし方や動かす頻度は様々であり、所定の状況において所定の時間内にバックミラーを確認する回数が、運転者自身の通常状態での確認回数より少ない場合に漫然状態であると判定することで、運転者自身の状態の変化はより精度良く認識することが可能となる。状態推定部F13は、運転中の運転者に対する計測値を、基準データとして設定された閾値と比較することにより、運転者の状態を推定することができる。
The reference data management unit F14 manages data serving as a reference (hereinafter also referred to as reference data) when estimating the state of the driver. The reference data is set for each state such as a normal state and a sloppy state of the driver. The reference data can be, for example, threshold values for the number of times that the line of sight is moved in a direction to be seen within a predetermined time and the number of times the line of sight is moved in another direction within a predetermined time. There are various ways of moving the line of sight and the frequency of movement depending on the driver, and when the number of times the rearview mirror is confirmed within a predetermined time in a given situation is less than the number of checks in the driver's normal state, the driver is in a loose state This makes it possible to recognize the change in the driver's own state with higher accuracy. The state estimation unit F13 can estimate the state of the driver by comparing the measured value for the driving driver with a threshold set as reference data.

また、基準データは、蓄積された運転者自身の視線活動量のデータに基づいて更新されるようにしてもよい。基準データ管理部F14は、車両3の周囲の類似する状況における当該運転者の視線活動量を、運転者の状態ごとに蓄積し、所定のタイミングで蓄積されたデータの平均値を算出し、算出された値によって基準データを更新することができる。なお、運転者の視線活動量のデータは、運転支援装置1の補助記憶装置13又はサーバ2の補助記憶装置23に蓄積される。運転者の視線活動量のデータが補助記憶装置13に蓄積される場合、基準データ管理部F14は、補助記憶装置13に蓄積されたデータに基づいて定期的に基準データを更新することができる。また、運転者の視線活動量のデータがサーバ2の補助記憶装置23に蓄積される場合、基準データ管理部F14は、サーバ2が補助記憶装置23に蓄積されたデータから算出した基準データを取得し、取得した値により基準データを更新するようにしてもよい。基準データ管理部F14は、「基準データ管理手段」の一例である。   Further, the reference data may be updated based on the accumulated data of the driver's own gaze activity amount. The reference data management unit F14 accumulates the gaze activity amount of the driver in a similar situation around the vehicle 3 for each state of the driver, calculates an average value of the data accumulated at a predetermined timing, and calculates The reference data can be updated with the determined value. The driver's gaze activity data is stored in the auxiliary storage device 13 of the driving support device 1 or the auxiliary storage device 23 of the server 2. When the driver's line-of-sight activity data is accumulated in the auxiliary storage device 13, the reference data management unit F <b> 14 can periodically update the reference data based on the data accumulated in the auxiliary storage device 13. When the driver's gaze activity data is accumulated in the auxiliary storage device 23 of the server 2, the reference data management unit F <b> 14 acquires the reference data calculated from the data accumulated in the auxiliary storage device 23 by the server 2. The reference data may be updated with the acquired value. The reference data management unit F14 is an example of “reference data management means”.

本実施形態において、状態推定部F13及び基準データ管理部F14は、運転者の視線活動量に基づいて運転者の状態を推定したり基準データを管理したりする例を説明したが、運転者の視線活動量に基づく場合に限られない。状態推定部F13及び基準データ管理部F14は、心拍数等の生体情報又は運転操作の特性等の変化に基づいて運転者の状態を推定したり基準データを管理したりしてもよい。   In this embodiment, although the state estimation part F13 and the reference data management part F14 demonstrated the example which estimates a driver | operator's state or manages reference | standard data based on a driver | operator's gaze activity amount, It is not limited to cases based on gaze activity. The state estimation unit F13 and the reference data management unit F14 may estimate the driver's state or manage reference data based on changes in biological information such as heart rate or driving operation characteristics.

提示部F15は、状態推定部F13で推定された運転者の状態、及びタイプ判定部F11で判定された運転者のタイプに応じた運転支援情報を提示する。運転者の状態及び運転者のタイプに応じた運転支援情報は、予め運転支援情報データベースD11に格納される。なお、提示された運転支援情報は、ネットワークN2を介して車両3に送信され、出力装置32に表示される。以下、図7から図15により、運転支援情報の提示内容の例を説明する。出力装置32は、HUDであるものとして説明されるが、これに限られず、車載の液晶ディスプレイ等であってもよい。また、出力装置32は、運転者が運転中に視認可能な位置に設置されればよく、運転者が外界の状況を確認する際の視角の範囲内に設置されることが望ましい。なお、視野狭窄の患者等、視野が制限される運転者に対しては、制限された視野の範囲内に設置されることが望ましい。提示部F15は、「提示手段」の一例である。   The presentation unit F15 presents driving support information according to the driver state estimated by the state estimation unit F13 and the driver type determined by the type determination unit F11. The driving support information corresponding to the driver's state and the driver's type is stored in advance in the driving support information database D11. The presented driving assistance information is transmitted to the vehicle 3 via the network N2 and displayed on the output device 32. Hereinafter, examples of the presentation contents of the driving support information will be described with reference to FIGS. The output device 32 is described as being a HUD, but is not limited thereto, and may be an in-vehicle liquid crystal display or the like. Moreover, the output device 32 should just be installed in the position which a driver | operator can visually recognize during a driving | operation, and it is desirable to install in the range of the viewing angle at the time of a driver | operator confirming the condition of the external field. In addition, for a driver with a limited visual field, such as a patient with a narrowed visual field, it is desirable that the driver is installed within the limited visual field range. The presentation unit F15 is an example of a “presentation unit”.

〔運転支援情報の例1−1〕
図7は、下り坂における運転支援の内容を例示する図である。長い下り坂では、エンジンブレーキを使用しても、速度が加速する場合がある。下り坂の先に急カーブがある場合には、カーブを安全に曲がれる速度まで減速するため、運転者のタイプに応じた運転操作の注意喚起がHUDに表示される。図7の例では、運転者のタイプとして、タイプA及びタイプBが例示される。タイプAの運転者は、適正にブレーキ操作ができるタイプの運転者であると想定される。タイプBの運転者は、外界の状況判断に時間がかかりブレーキ操作が適正でない運転者であると想定される。運転者の状態としては、通常状態及び漫然状態が例示される。
[Example 1-1 of driving support information]
FIG. 7 is a diagram illustrating the content of driving support on a downhill. On long downhills, the speed may accelerate even if engine braking is used. When there is a sharp curve at the end of the downhill, a warning for driving operation corresponding to the type of the driver is displayed on the HUD in order to decelerate the curve to a speed at which the curve can be safely turned. In the example of FIG. 7, type A and type B are exemplified as the driver type. A type A driver is assumed to be a type of driver who can properly perform a brake operation. The type B driver is assumed to be a driver who takes time to judge the situation in the outside world and does not perform brake operation properly. As a driver | operator's state, a normal state and a casual state are illustrated.

運転者の状態が通常状態である場合、運転支援装置1は、タイプAの運転者に対しては注意喚起不要と判断する。一方、運転支援装置1は、タイプBの運転者に対しては、音声
により減速するように促し、HUDには減速を指示するマークを表示する。減速を指示するマークは、例えば、道路が進行方向と逆に流れる様子を模式的に示す。
When the driver's state is the normal state, the driving support device 1 determines that a warning is not necessary for the type A driver. On the other hand, the driving assistance device 1 prompts the type B driver to decelerate by voice, and displays a mark instructing deceleration on the HUD. The mark for instructing deceleration schematically shows, for example, how the road flows in the direction opposite to the traveling direction.

運転者の状態が漫然状態である場合、運転支援装置1は、タイプAの運転者に対しては、報知音を鳴らしたり、音声により速度メータの確認を促したりする。また、運転支援装置1は、HUDに注意を喚起するためのマーク、例えば、エクスクラメーションマークを表示する。一方、運転支援装置1は、タイプBの運転者に対しては、音声によりブレーキを踏むように促す。また、運転支援装置1は、通常状態と同様に、HUDに減速を指示するマークを表示し、さらに、エンジンブレーキ、通常のブレーキ及び警告マークを減速状況に応じて段階的に表示する。   When the driver's state is an ambiguous state, the driving support device 1 sounds a notification sound or prompts the driver to check the speedometer by voice. The driving support device 1 displays a mark for calling attention to the HUD, for example, an exclamation mark. On the other hand, the driving assistance device 1 prompts the type B driver to step on the brake by voice. Moreover, the driving assistance apparatus 1 displays the mark which instruct | indicates deceleration to HUD similarly to a normal state, and also displays an engine brake, a normal brake, and a warning mark in steps according to the deceleration condition.

図8は、下り坂における運転支援のタイミングを例示する図である。図8の例では、運転者のタイプごとに、図7で説明した運転支援の内容がHUDに表示されるタイミングが示される。具体的には、運転支援装置1は、下り坂の先端で時速が30km/hまで減速されるように、車両3の時速、搭乗者及び積載物を含む車両3の総重量、下り坂の勾配率、運転者の漫然状態の度合いを考慮し、適正なタイミングで運転支援情報を表示する。   FIG. 8 is a diagram illustrating the timing of driving support on a downhill. In the example of FIG. 8, the timing at which the content of the driving assistance described in FIG. 7 is displayed on the HUD is shown for each type of driver. Specifically, the driving support device 1 determines the speed of the vehicle 3, the total weight of the vehicle 3 including the passenger and the load, and the slope of the downhill so that the speed of the vehicle is reduced to 30 km / h at the tip of the downhill. The driving support information is displayed at an appropriate timing in consideration of the rate and the level of the driver's obscure state.

タイプAの運転者が通常状態の場合、運転支援装置1は、注意喚起をしない。これに対し、タイプAの運転者が漫然状態の場合、運転支援装置1は、車両3が下り坂の先端で目標速度の30km/hまで減速するためにエンジンブレーキをかけるかブレーキを踏むべき位置に到達したタイミングで報知音を鳴らす。図8の例では、車両3の時速が60km/hに達したときに「フォーン」という報知音が鳴らされる。車両3の減速状況から、下り坂の先端で目標速度まで減速するのが難しいと判断すると、運転支援装置1は、「速度を確認してください」との音声により注意を促し、HUDに注意喚起のためのマークを表示する。図8の例では、運転支援装置1は、車両3の時速が50km/hまで減速した時点で注意喚起をする。   When the type A driver is in a normal state, the driving support device 1 does not alert. On the other hand, when the type A driver is in a sloppy state, the driving support device 1 is a position where the vehicle 3 is to apply the engine brake or step on the brake to decelerate to the target speed of 30 km / h at the tip of the downhill A notification sound is sounded at the timing of reaching. In the example of FIG. 8, when the speed of the vehicle 3 reaches 60 km / h, a notification sound “phone” is sounded. If it is determined from the deceleration status of the vehicle 3 that it is difficult to decelerate to the target speed at the tip of the downhill, the driving support device 1 alerts the HUD with a voice saying “Please check the speed”. Display the mark for. In the example of FIG. 8, the driving support device 1 alerts when the speed of the vehicle 3 is reduced to 50 km / h.

通常状態のタイプBの運転者に対しては、運転支援装置1は、タイプAの運転者が漫然状態の場合と同様に報知音を鳴らす。さらに、運転支援装置1は、下り坂に入った時点でHUDに減速指示を表示する。   For the type B driver in the normal state, the driving support device 1 sounds a notification sound in the same manner as in the case where the type A driver is in a loose state. Furthermore, the driving assistance apparatus 1 displays a deceleration instruction on the HUD when entering a downhill.

漫然状態のタイプBの運転者に対しては、タイプBの運転者が通常状態の場合と同様に報知音を鳴らす。また、運転支援装置1は、下り坂に入った時点でHUDに減速指示を表示する。さらに、タイプBの運転者が漫然状態の場合、運転支援装置1は、減速操作のタイミングを、音声及びHUDへの表示により運転者に通知する。具体的には、運転支援装置1は、車両3の減速状況に応じて、エンジンブレーキをかけるタイミング、ブレーキを踏むタイミング、減速が遅れた場合のタイミングを運転者に通知する。図8の例では、運転支援装置1は、報知音とともにエンジンブレーキをかけること促すマークをHUDに表示する。   For the type B driver in a busy state, a notification sound is emitted as in the case where the type B driver is in the normal state. Moreover, the driving assistance apparatus 1 displays a deceleration instruction on the HUD at the time of entering the downhill. Furthermore, when the type B driver is in a sloppy state, the driving assistance device 1 notifies the driver of the timing of the deceleration operation by voice and display on the HUD. Specifically, the driving support device 1 notifies the driver of the timing of applying the engine brake, the timing of stepping on the brake, and the timing when the deceleration is delayed according to the deceleration state of the vehicle 3. In the example of FIG. 8, the driving support device 1 displays on the HUD a mark that prompts the engine brake to be applied together with a notification sound.

また、タイプBの運転者が漫然状態の場合、運転支援装置1は、下り坂において車両3の時速が所定の閾値を超えた場合に運転支援情報を提示する。図8の例では、運転支援装置1は、車両3の時速が70km/hに達した時点で、ブレーキを踏むこと促すマークをHUDに表示する。さらに、運転支援装置1は、減速が遅れ、車両3の時速が80km/hに達した時点で、音声によりブレーキを踏むように促し、HUDには警告マークを表示する。なお、減速が遅れた場合は、音声による警告の音量を上げたり、HUDへの表示を大きくして点滅させたりする等、運転支援装置1は、通知する態様を適宜変更してもよい。   In addition, when the type B driver is in an ambiguous state, the driving support device 1 presents driving support information when the hourly speed of the vehicle 3 exceeds a predetermined threshold on a downhill. In the example of FIG. 8, the driving assistance device 1 displays a mark on the HUD that prompts the user to step on the brake when the speed of the vehicle 3 reaches 70 km / h. Further, the driving support device 1 prompts the user to step on the brake by voice when the deceleration is delayed and the speed of the vehicle 3 reaches 80 km / h, and a warning mark is displayed on the HUD. Note that when the deceleration is delayed, the driving support apparatus 1 may appropriately change the mode of notification, such as increasing the volume of a warning by voice, or increasing the display on the HUD to blink.

図9は、運転支援情報の表示例を示す図である。図9には、車両3の運転席から外界を
見たときの様子が例示される。フロントガラスの点線で囲まれた領域Mは、HUDの表示領域である。領域Mには、図7のタイプAの運転者が漫然状態である場合の注意喚起のマークが表示されている。運転支援装置1は、運転者の状態及び運転者のタイプに応じて領域Mの表示内容を変更する。
FIG. 9 is a diagram illustrating a display example of driving support information. FIG. 9 illustrates a state when the outside world is viewed from the driver's seat of the vehicle 3. A region M surrounded by a dotted line on the windshield is a HUD display region. In the area M, a warning mark is displayed when the driver of type A in FIG. The driving assistance apparatus 1 changes the display content of the area | region M according to a driver | operator's state and a driver | operator's type.

〔運転支援情報の例1−2〕
図10は、左折又は右折時における運転支援の内容を例示する図である。交差点で左折又は右折時に発進する際、後方からの車両、対向車両、横断歩道を渡る歩行者、交差点に進入してくる自転車等の様々な状況確認が求められる。運転者に周囲の状況確認を促すため、運転者のタイプに応じた注意喚起がHUDに表示される。図10の例では、運転者のタイプとして、タイプA及びタイプBが例示される。タイプAの運転者は、慎重に発進するタイプの運転者であると想定される。タイプBの運転者は、アクセルを踏んで素早く曲がるタイプの運転者であると想定される。運転者の状態としては、通常状態及び漫然状態が例示される。
[Example 1-2 of driving support information]
FIG. 10 is a diagram illustrating the content of driving assistance during a left turn or a right turn. When making a left or right turn at an intersection, it is necessary to check various situations such as a vehicle from behind, an oncoming vehicle, a pedestrian crossing a pedestrian crossing, and a bicycle entering the intersection. In order to prompt the driver to check the surrounding situation, a warning corresponding to the type of the driver is displayed on the HUD. In the example of FIG. 10, type A and type B are exemplified as the driver type. A type A driver is assumed to be a type of driver who starts out carefully. A type B driver is assumed to be a type of driver who quickly turns by stepping on the accelerator. As a driver | operator's state, a normal state and a casual state are illustrated.

運転者の状態が通常状態である場合、運転支援装置1は、タイプAの運転者に対しては注意喚起不要と判断する。一方、運転支援装置1は、タイプBの運転者に対しては、音声により状況確認をするように促し、HUDには左折時または右折時のそれぞれの方向の状況確認を促すマークを表示する。運転中の視界に入るHUDに状況確認を促すマークが表示されることで、運転者の状況確認は促進される。   When the driver's state is the normal state, the driving support device 1 determines that a warning is not necessary for the type A driver. On the other hand, the driving support device 1 prompts the type B driver to confirm the situation by voice, and displays a mark prompting the HUD to confirm the situation in each direction when turning left or right. The confirmation of the situation of the driver is promoted by displaying a mark prompting the confirmation of the situation on the HUD that enters the field of view while driving.

運転者の状態が漫然状態である場合、運転支援装置1は、タイプAの運転者に対しては、HUDに左折時または右折時のそれぞれの方向の状況確認を促すマークを表示し、マークの点滅速度を上げる。一方、運転支援装置1は、タイプBの運転者に対しては、タイプAの運転者と同様の運転支援情報を提示し、周囲の状況確認がされない場合には、警告表示に切り替える。警告表示は、状況確認を促すマークよりも大きくしたり、点滅速度をより早くしたりしてもよい。   When the driver's state is indiscreet, the driving assistance device 1 displays a mark for prompting the type A driver to confirm the situation in each direction when turning left or right on the HUD. Increase the blink rate. On the other hand, the driving assistance device 1 presents driving assistance information similar to that of the type A driver to the type B driver, and switches to warning display when the surrounding situation is not confirmed. The warning display may be made larger than the mark for prompting the situation confirmation, or the blinking speed may be made faster.

〔運転支援情報の例2〕
図11は、認知信号機の表示例を説明する図である。図11には、車両3の運転席から外界を見たときの様子が例示される。フロントガラスの点線で囲まれた領域Mは、HUDの表示領域である。領域Mには、信号機のような3つの円(以下、認知信号機という)が表示され、右端の円は、赤く塗りつぶされた状態を示す。認知信号機の表示例として、図11に4つの例が示される。3つの円のいずれも消灯した状態を示す表示例CT1は、一旦停止の標識が認識されたことを示す。右端の円が赤く点灯した状態を示す表示例CT2は、運転者に減速を促す際に表示される。中央の円が黄色く点灯した状態を示す表示例CT3は、一旦停止の指示に従い安全の確認行為が取られた場合に表示される。認知信号機自体の表示が消えた状態CT4は、認知信号機の表示が消えることにより発進を促す。
[Example 2 of driving support information]
FIG. 11 is a diagram illustrating a display example of the recognition signal device. FIG. 11 illustrates a situation when the outside world is viewed from the driver's seat of the vehicle 3. A region M surrounded by a dotted line on the windshield is a HUD display region. In the area M, three circles such as traffic lights (hereinafter referred to as recognition traffic lights) are displayed, and the rightmost circle shows a state of being painted red. As a display example of the recognition signal device, four examples are shown in FIG. Display example CT1 indicating a state in which all three circles are extinguished indicates that a stop sign has been recognized. Display example CT2 indicating a state in which the rightmost circle is lit red is displayed when the driver is prompted to decelerate. Display example CT3 showing a state in which the center circle is lit yellow is displayed when a safety confirmation action is taken in accordance with a stop instruction. The state CT4 in which the display of the recognition signal itself disappears prompts the start by the display of the recognition signal disappearing.

図12及び図13は、認知信号機を表示するタイミングを例示する図である。上述の例では、運転者が通常状態であるか漫然状態であるかは、視線活動量に基づいて推定されるが、例2に係る認知信号機の例では、減速のタイミングに基づいて運転者が通常状態であるか漫然状態であるかが推定される。図12及び図13において、横軸方向は距離を示し、縦軸方向は時速を示す。漫然状態における減速の様子は一点鎖線で示される。また、通常状態における減速の様子は実線で示される。   12 and 13 are diagrams illustrating the timing for displaying the recognition signal. In the above-described example, whether the driver is in a normal state or a random state is estimated based on the amount of gaze activity, but in the example of the cognitive traffic signal according to Example 2, the driver is based on the timing of deceleration. It is estimated whether it is a normal state or a random state. 12 and 13, the horizontal axis direction represents distance, and the vertical axis direction represents speed per hour. The state of deceleration in the loose state is indicated by a one-dot chain line. The state of deceleration in the normal state is indicated by a solid line.

図12は、正しく一旦停止を実践していると想定されるタイプAの運転者に対して、認知信号機を表示するタイミングを例示する。タイプAの運転者は、通常状態において、停止線から所定の距離だけ離れた位置T1で減速を開始するものとする。所定の距離は、タイプAの運転者の基準データとして設定された距離である。運転支援装置1は、位置T1
において運転支援情報として図11の認知信号機の表示例CT1をHUDに表示し、一旦停止の標識があることを運転者に通知する。
FIG. 12 exemplifies timing for displaying a cognitive traffic signal to a type A driver who is assumed to be correctly stopping once. It is assumed that the type A driver starts deceleration at a position T1 that is a predetermined distance away from the stop line in the normal state. The predetermined distance is a distance set as reference data for a type A driver. The driving support device 1 is located at the position T1.
11 displays the display example CT1 of the recognition signal device in FIG. 11 on the HUD as the driving support information, and notifies the driver that there is a stop sign.

位置T1から所定の距離だけ走行した位置T2、例えば位置T1からの距離が5mの位置で減速されていなければ、タイプAの運転者は漫然状態であると推定される。このとき、運転支援装置1は、赤信号の表示例CT2をHUDに表示する。停止線に達した位置T3において車両3が停止され、運転者が安全の確認行為をしたことが視線の動きから検知されると、運転支援装置1は黄信号の表示例CT3をHUDに表示する。一方で、位置T2で減速されていれば、タイプAの運転者は通常状態であると推定される。この場合、運転支援装置1は、赤信号の表示例CT2は表示せず、停止線の位置T3において認知信号機の表示を消す(状態CT4)。   If the vehicle is not decelerated at a position T2 that has traveled a predetermined distance from the position T1, for example, a distance of 5 m from the position T1, the type A driver is estimated to be in a loose state. At this time, the driving assistance apparatus 1 displays the red signal display example CT2 on the HUD. When the vehicle 3 is stopped at the position T3 that has reached the stop line, and it is detected from the movement of the line of sight that the driver has performed a safety confirmation act, the driving support device 1 displays a yellow signal display example CT3 on the HUD. . On the other hand, if the vehicle is decelerated at the position T2, the type A driver is estimated to be in the normal state. In this case, the driving assistance apparatus 1 does not display the display example CT2 of the red signal, and turns off the display of the recognition signal device at the position T3 of the stop line (state CT4).

図13は、一旦停止の停止線をオーバーする傾向にあると想定されるタイプBの運転者に対して、認知信号機を表示するタイミングを例示する。タイプBの運転者は、通常状態において、停止線から所定の距離だけ離れた位置T11で減速を開始するものとする。所定の距離は、タイプBの運転者の基準データとして設定された距離である。運転支援装置1は、位置T11において運転支援情報として図11の認知信号機の表示例CT1をHUDに表示し、一旦停止の標識があることを運転者に通知する。なお、タイプBの運転者に対しては、早めの減速を促すため、運転支援装置1は、位置T11よりも手前の位置T10、例えば、車両3が一旦停止の標識を認識した位置において、認知信号機の表示例CT1をHUDに表示するようにしてもよい。   FIG. 13 exemplifies the timing for displaying the cognitive traffic signal for a type B driver who is assumed to tend to exceed the stop line of the temporary stop. The type B driver starts deceleration at a position T11 that is a predetermined distance away from the stop line in the normal state. The predetermined distance is a distance set as reference data for a type B driver. The driving support device 1 displays the display example CT1 of the recognition signal device of FIG. 11 on the HUD as driving support information at the position T11, and notifies the driver that there is a stop sign. In order to encourage the driver of type B to promptly decelerate, the driving support device 1 recognizes at a position T10 before the position T11, for example, a position where the vehicle 3 has temporarily recognized a stop sign. The display example CT1 of the traffic light may be displayed on the HUD.

位置T11から所定の距離だけ走行した位置T12の時点、例えば位置T11からの距離が5mの位置で減速されていなければ、タイプBの運転者は漫然状態であると推定される。このとき、運転支援装置1は、赤信号の表示例CT2をHUDに表示する。停止線に達した位置T13において車両3が停止され、運転者が安全の確認行為をしたことが視線の動きから検知されると、運転支援装置1は黄信号の表示例CT3をHUDに表示する。一方で、位置T12で減速されていれば、タイプBの運転者は通常状態であると推定される。この場合、運転支援装置1は、赤信号の表示例CT2を表示しない。また、停止線の位置T13において、運転支援装置1は黄信号の表示例CT3をHUDに表示する。黄信号の表示例CT3がHUDに表示されることにより、タイプBの運転者は、自身が安全の確認行為を取ったことを認識することができ、安全運転に対する意識を高めることができる。   If the vehicle is not decelerated at the time of the position T12 that has traveled a predetermined distance from the position T11, for example, the distance from the position T11 is 5 m, it is estimated that the type B driver is in a casual state. At this time, the driving assistance apparatus 1 displays the red signal display example CT2 on the HUD. When the vehicle 3 is stopped at the position T13 that has reached the stop line, and it is detected from the movement of the line of sight that the driver has performed a safety confirmation act, the driving support device 1 displays a yellow signal display example CT3 on the HUD. . On the other hand, if the vehicle is decelerated at the position T12, the type B driver is estimated to be in the normal state. In this case, the driving assistance apparatus 1 does not display the red signal display example CT2. In addition, at the stop line position T13, the driving support device 1 displays the yellow signal display example CT3 on the HUD. By displaying the yellow signal display example CT3 on the HUD, the type B driver can recognize that he / she has taken a safety confirmation action, and can raise awareness of safe driving.

〔運転支援情報の例3〕
図14は、運転者の車体周囲に対する視認状況を表示する例を示す図である。車両3のセンサ31は、運転者の車内から外界の6方位D1からD6に向けられる視線を検知する。運転支援装置1は、各向きへの確認頻度を楕円の大きさによって段階的に表し、HUDに表示する。各向きへの確認頻度は、楕円に限らず矢印等で表されても良い。運転者は、各方位に表示される図形の大きさから、車両3の周囲への確認状況を認識することができる。図14の例は、D1からD6の各方位に対する確認頻度が標準状態であることを示す。
[Example 3 of driving support information]
FIG. 14 is a diagram illustrating an example of displaying a visual recognition state of the driver around the vehicle body. The sensor 31 of the vehicle 3 detects a line of sight directed from the driver's interior to the external 6 directions D1 to D6. The driving assistance device 1 displays the confirmation frequency in each direction stepwise by the size of the ellipse and displays it on the HUD. The confirmation frequency in each direction is not limited to an ellipse and may be represented by an arrow or the like. The driver can recognize the confirmation status around the vehicle 3 from the size of the graphic displayed in each direction. The example of FIG. 14 shows that the confirmation frequency for each direction from D1 to D6 is in the standard state.

図15は、漫然状態における運転者の車体周囲に対する視認状況を表示する例を示す図である。図15の例では、方位D3及びD4における確認頻度が標準状態よりも少なく、方位D3及びD4における楕円の大きさは、図14に示す標準状態の場合と比較して小さくなっている。また、方位D5における確認頻度は標準状態よりもかなり少なく、方位D5における楕円の大きさは、図14に示す標準状態の場合と比較して小さくなっている。運転支援装置1は、方位D3、D4及びD5に対する確認頻度が標準状態より少ないことを運転者に認識させ、各方位への確認をするように注意喚起することができる。   FIG. 15 is a diagram illustrating an example of displaying a visual recognition state of the driver around the vehicle body in a casual state. In the example of FIG. 15, the confirmation frequency in the directions D3 and D4 is less than that in the standard state, and the size of the ellipse in the directions D3 and D4 is smaller than that in the standard state shown in FIG. Further, the confirmation frequency in the azimuth D5 is considerably lower than that in the standard state, and the size of the ellipse in the azimuth D5 is smaller than that in the standard state shown in FIG. The driving support device 1 can make the driver recognize that the confirmation frequency for the directions D3, D4, and D5 is less than the standard state, and can call attention to confirm each direction.

さらに、運転者が漫然状態の場合には、運転支援装置1は、各方位に近接する障害物を検知し、検知された方位に表示してもよい。図15の例では、方位D5で検知されたバイクの画像が表示されている。なお、障害物等の外界の状況は車両3が備えるセンサ31によって検知され、運転支援装置1は、車両3が検知した状況に関するデータを取得することにより、外界の状況を認識することができる。また、運転者が漫然状態の場合には、運転支援装置1は、表示の大きさ、色彩、点滅速度等の表示態様を変えて注意喚起又は警告するようにしてもよい。   Furthermore, when the driver is in a state of disambiguation, the driving support device 1 may detect an obstacle that is close to each direction and display it in the detected direction. In the example of FIG. 15, an image of a motorcycle detected in the direction D5 is displayed. The external environment such as an obstacle is detected by the sensor 31 provided in the vehicle 3, and the driving support device 1 can recognize the external environment by acquiring data regarding the condition detected by the vehicle 3. In addition, when the driver is in an ambiguous state, the driving support device 1 may change the display mode such as the display size, color, and blinking speed to alert or warn.

上記に例示した運転支援情報の他、提示部F15は、地形の情報と対応づけられた地図情報に基づいて、運転支援情報の内容を切り替えるようにすることもできる。例えば、坂道の多い地域を走行中、運転支援装置1は、運転者の状態及び運転者のタイプに応じて、エンジンブレーキの使用を促す表示を、適切な頻度及びタイミングで表示するようにしてもよい。なお、地図情報は、運転支援装置1の補助記憶装置13に格納して利用できるようにすることができる。   In addition to the driving support information exemplified above, the presentation unit F15 can switch the content of the driving support information based on the map information associated with the terrain information. For example, while driving in an area with many slopes, the driving support device 1 may display a display prompting the use of the engine brake at an appropriate frequency and timing according to the driver's condition and the driver's type. Good. The map information can be stored and used in the auxiliary storage device 13 of the driving support device 1.

図2の機能構成において、運転支援情報データベースD11は、運転者の状態及び運転者のタイプに応じた運転支援情報を格納するためのデータベースである。運転支援情報データベースD11は、プロセッサ11によって実行されるデータベース管理システム(DBMS)のプログラムが、補助記憶装置13に記憶されるデータを管理することで構築される。運転支援情報データベースD11は、例えば、リレーショナルデータベースである。運転支援情報データベースD11は、図7及び図10に示す運転者の状態及び運転者のタイプごとの運転支援情報の内容を格納する。   In the functional configuration of FIG. 2, the driving support information database D <b> 11 is a database for storing driving support information corresponding to the state of the driver and the type of the driver. The driving support information database D <b> 11 is constructed by managing data stored in the auxiliary storage device 13 by a database management system (DBMS) program executed by the processor 11. The driving support information database D11 is, for example, a relational database. The driving support information database D11 stores the contents of the driving support information for each of the driver state and the driver type shown in FIGS.

<<サーバ>>
図3は、サーバの機能構成を例示する図である。サーバ2は、機能構成として、タイプ管理部F21、及びデータ管理データベースD21を備える。サーバ2は、補助記憶装置23に記憶されているプログラムが、主記憶装置22に読み出され、プロセッサ21によって実行されることで、タイプ管理部F21、及びデータ管理データベースD21を備えるコンピュータとして機能する。
<< Server >>
FIG. 3 is a diagram illustrating a functional configuration of the server. The server 2 includes a type management unit F21 and a data management database D21 as functional configurations. The server 2 functions as a computer including the type management unit F21 and the data management database D21 by the program stored in the auxiliary storage device 23 being read out to the main storage device 22 and executed by the processor 21. .

なお、本実施形態において、サーバ2の備える各機能は、汎用プロセッサであるプロセッサ21によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサ、ハードウェアの演算回路等によって実行されてもよい。ここで、ハードウェアの演算回路とは、例えば、論理ゲートを組み合わせた加算回路、乗算回路、フリップフロップ等をいう。また、これらの機能の一部又は全部は、別途のコンピュータにおいて実行されてもよい。   In the present embodiment, each function of the server 2 is executed by the processor 21 which is a general-purpose processor. However, part or all of these functions are one or more dedicated processors, hardware arithmetic circuits, and the like. May be executed by Here, the hardware arithmetic circuit refers to, for example, an adder circuit, a multiplier circuit, a flip-flop, etc. combined with logic gates. Some or all of these functions may be executed by a separate computer.

タイプ管理部F21は、データ管理データベースD21に蓄積された運転操作の特性に関するデータを統計的に解析し、クラスタリング等の手法を用いて運転者を複数のタイプに分類する。タイプごとの運転操作の特性に関するデータは、運転支援装置1の補助記憶装置13に複製され、運転支援装置1のタイプ判定部F11は、複製されたデータに基づいて運転者のタイプを判定してもよい。   The type management unit F21 statistically analyzes data related to driving operation characteristics accumulated in the data management database D21, and classifies the driver into a plurality of types using a technique such as clustering. Data relating to the characteristics of the driving operation for each type is duplicated in the auxiliary storage device 13 of the driving assistance device 1, and the type determination unit F11 of the driving assistance device 1 determines the type of the driver based on the duplicated data. Also good.

データ管理データベースD21は、視線活動量等の運転者の状態を推定するための情報、及び運転者の状態を推定するための運転操作の特性に関する情報を格納するためのデータベースである。運転支援情報データベースD11は、プロセッサ21によって実行されるデータベース管理システム(DBMS)のプログラムが、補助記憶装置23に記憶されるデータを管理することで構築される。データ管理データベースD21は、例えば、リレーショナルデータベースである。データ管理データベースD21に格納されるデータは、
車両3が備えるセンサ31によって計測された各種データを、運転支援装置1を介して受信し蓄積したものである。
The data management database D21 is a database for storing information for estimating the driver's state such as a gaze activity amount and information regarding characteristics of the driving operation for estimating the driver's state. The driving support information database D11 is constructed by a database management system (DBMS) program executed by the processor 21 managing data stored in the auxiliary storage device 23. The data management database D21 is, for example, a relational database. The data stored in the data management database D21 is
Various data measured by the sensor 31 provided in the vehicle 3 are received and accumulated via the driving support device 1.

<処理の流れ>
図16は、運転支援情報を提示する処理の流れを例示するフローチャートである。この処理の流れは、例えば、運転者が車両3の運転を開始することを契機に開始する。また、図16に示される処理は、車両3の運転が終了するまでの間、運転者の状態の変化又は外界の状況の変化が認識されることを契機として繰り返し実行される。
<Process flow>
FIG. 16 is a flowchart illustrating the flow of processing for presenting driving support information. The flow of this process starts, for example, when the driver starts driving the vehicle 3. In addition, the process illustrated in FIG. 16 is repeatedly executed when a change in the state of the driver or a change in the external environment is recognized until the driving of the vehicle 3 is completed.

まず、ステップS101では、タイプ判定部F11は、運転者のタイプを判定する。タイプ判定部F11は、運転操作の特性に応じて、予め定義された運転者のタイプのうち、判定対象である運転手が属する運転者のタイプを判定することができる。また、タイプ判定部F11は、運転者のアンケートに対する回答に基づいて運転者のタイプを判定してもよい。さらに、タイプ判定部F11は、サーバ2において判定された運転者のタイプの情報を取得してもよい。なお、ステップS101の処理は、ステップS105より前に実行されればよく、ステップS102からステップS104の処理のいずれかの処理の後に実行されてもよい。   First, in step S101, the type determination unit F11 determines the type of the driver. The type determination unit F11 can determine the type of the driver to which the driver who is the determination target belongs among the predefined driver types according to the characteristics of the driving operation. The type determination unit F11 may determine the type of the driver based on an answer to the driver's questionnaire. Further, the type determination unit F11 may acquire information on the type of the driver determined in the server 2. Note that the process of step S101 only needs to be executed before step S105, and may be executed after any of the processes of step S102 to step S104.

ステップS102では、データ取得部F12は、車両3から、センサ31で計測された運転者の状態を推定するためのデータを取得する。データ取得部F12は、運転者が装着するウェアラブルセンサから、運転者の状態を推定するためのデータを取得してもよい。   In step S <b> 102, the data acquisition unit F <b> 12 acquires data for estimating the driver's state measured by the sensor 31 from the vehicle 3. The data acquisition unit F12 may acquire data for estimating the driver's state from a wearable sensor worn by the driver.

ステップS103では、状態推定部F13は、データ取得部F12が取得したデータに基づいて、運転者の状態を推定する。運転者の状態は、例えば、普段通りに適切な運転が可能な通常状態の他、注意力が低下した漫然状態である。この他、対応する運転支援情報が運転支援情報データベースD11に定義されていれば、状態推定部F13は、運転者の状態を、落ち着きがない状態、焦っている状態等として推定してもよい。   In step S103, the state estimation unit F13 estimates the driver's state based on the data acquired by the data acquisition unit F12. The state of the driver is, for example, a casual state in which attention is reduced in addition to a normal state where appropriate driving is possible as usual. In addition, if the corresponding driving support information is defined in the driving support information database D11, the state estimation unit F13 may estimate the driver's state as a state of calmness, a state of being impatient, or the like.

ステップS104では、状態推定部F13は、運転者が通常状態か否かを判定する。運転者が通常状態である場合(S104;Yes)、処理はステップS105へ進む。運転者が通常状態でない場合(S104;No)、処理はステップS106へ進む。   In step S104, the state estimation unit F13 determines whether or not the driver is in a normal state. If the driver is in a normal state (S104; Yes), the process proceeds to step S105. If the driver is not in a normal state (S104; No), the process proceeds to step S106.

ステップS105では、提示部F15は、運転者のタイプが、通常状態において運転支援の対象であるか否かを判定する。例えば、安全運転を怠りがちな運転者や初心者の運転者は、通常状態であっても、運転者が安全運転に対する意識を高めたり、運転操作についてアドバイスをしたりするため、運転支援の対象であると判定される。運転者が運転支援の対象であると判定された場合(S105;Yes)、処理はステップS106へ進む。運転者が運転支援の対象でないと判定された場合(S105;No)、処理は終了する。   In step S <b> 105, the presentation unit F <b> 15 determines whether or not the driver type is a driving assistance target in a normal state. For example, drivers who are apt to neglect safe driving and beginner drivers are subject to driving assistance in order to raise their awareness of safe driving and give advice on driving operations even in normal conditions. It is determined that there is. When it is determined that the driver is a target for driving assistance (S105; Yes), the process proceeds to step S106. When it is determined that the driver is not a driving assistance target (S105; No), the process ends.

ステップS106では、提示部F15は、運転支援情報を表示するタイミングであるか否かを判定する。提示部F15は、運転者の状態及び運転者のタイプの他、地図情報に対応づけられた地形の情報、車両3のセンサ31で認識された速度、道路標識、障害物等の情報に基づいて、運転支援情報を表示するタイミングであるか否かを判定することができる。運転支援情報を表示するタイミングであると判定された場合(S106;Yes)、処理はステップS107へ進む。運転支援情報を表示するタイミングでないと判定された場合(S106;No)には、運転支援情報を表示するタイミングになるまで、ステップS106の処理を所定の間隔で繰り返す。   In step S106, the presentation unit F15 determines whether it is time to display the driving support information. The presentation unit F15 is based on the information on the terrain associated with the map information, the speed recognized by the sensor 31 of the vehicle 3, road signs, obstacles, etc., in addition to the driver state and the driver type. It can be determined whether or not it is time to display the driving support information. If it is determined that it is time to display the driving support information (S106; Yes), the process proceeds to step S107. If it is determined that it is not time to display the driving support information (S106; No), the process of step S106 is repeated at a predetermined interval until it is time to display the driving support information.

ステップS107では、提示部F15は、運転支援情報データベースD11から運転者の状態及び運転者のタイプに応じた運転支援情報を取得し提示する。提示される運転支援
情報の内容は、図7及び図10に例示される。また、運転支援情報は、車両3の出力装置31に表示される。例えば、運転支援情報は、図9及び図11に示される領域Mのように、車両3の運転者の視角の範囲内に表示されるようにすることができる。また、運転支援情報は、図8及び図12で説明したタイミングで、車両3の出力装置31に表示するようにしてもよい。運転支援情報が車両3の出力装置31に表示されると、図16に示される処理は終了する。図16に示される処理は、運転者が車両3の運転を終了するまでの間、所定のタイミングで繰り返し実行される。
In step S107, the presentation unit F15 acquires and presents driving support information corresponding to the driver's state and the driver's type from the driving support information database D11. The content of the driving assistance information presented is illustrated in FIGS. 7 and 10. The driving support information is displayed on the output device 31 of the vehicle 3. For example, the driving support information can be displayed within the range of the viewing angle of the driver of the vehicle 3 as in a region M shown in FIGS. 9 and 11. In addition, the driving support information may be displayed on the output device 31 of the vehicle 3 at the timing described with reference to FIGS. When the driving support information is displayed on the output device 31 of the vehicle 3, the process shown in FIG. The process shown in FIG. 16 is repeatedly executed at a predetermined timing until the driver finishes driving the vehicle 3.

以上説明した実施形態において、運転支援装置1は、推定された運転者の状態及び運転者のタイプに応じた運転支援情報を提示することができる。また、運転支援装置1は、運転者の状態を推定するための基準データを設定し、蓄積されたデータをもとに基準データを更新することで、運転者の状態を精度良く推定することができる。また、運転支援装置1は、運転者の状態及び運転者のタイプに応じて、運転支援情報を提示するタイミングを変更することで、適時に運転支援情報を提示することができる。さらに、運転支援装置1は、運転者の視角の範囲内に認識容易な態様で運転支援情報を表示することで、運転者に対して効果的に注意喚起をすることができる。   In the embodiment described above, the driving support device 1 can present driving support information according to the estimated driver state and the driver type. In addition, the driving support device 1 can set the reference data for estimating the driver's state, and update the reference data based on the accumulated data, thereby accurately estimating the driver's state. it can. Moreover, the driving assistance apparatus 1 can present driving assistance information in a timely manner by changing the timing of presenting driving assistance information according to the state of the driver and the type of the driver. Furthermore, the driving assistance device 1 can effectively alert the driver by displaying the driving assistance information in an easily recognizable manner within the range of the viewing angle of the driver.

100 運転支援システム
1 運転支援装置
2 サーバ
3 車両
11,21 プロセッサ
12,22 主記憶装置
13,23 補助記憶装置
14,24 ネットワークインタフェース
15,25 バス
N1,N2 ネットワーク
DESCRIPTION OF SYMBOLS 100 Driving support system 1 Driving support apparatus 2 Server 3 Vehicle 11, 21 Processor 12, 22 Main storage device 13, 23 Auxiliary storage device 14, 24 Network interface 15, 25 Bus N1, N2 Network

Claims (6)

身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得手段と、
過去に計測された前記運転者の生体活動データに基づいて、前記運転者の状態ごとの基準データを設定する基準データ管理手段と、
前記取得された前記運転者の生体活動データを前記基準データと比較することにより、前記運転者の状態を推定する推定手段と、
運転操作の特性に基づいて前記運転者が属する類型を判定する判定手段と、
前記推定された前記運転者の状態及び前記運転者が属する類型に応じた運転支援情報を提示する提示手段と、を備える、
運転支援装置。
Data acquisition means for acquiring a driver's life activity data measured by a sensor for detecting a state or activity of a part of the body;
Reference data management means for setting reference data for each state of the driver based on the driver's life activity data measured in the past;
Estimating means for estimating the state of the driver by comparing the acquired life activity data of the driver with the reference data;
Determining means for determining a type to which the driver belongs based on characteristics of the driving operation;
Presenting means for presenting driving support information corresponding to the estimated state of the driver and the type to which the driver belongs,
Driving assistance device.
前記基準データ管理手段は、所定のタイミングで、前記設定された基準データを更新する、
請求項1に記載の運転支援装置。
The reference data management means updates the set reference data at a predetermined timing.
The driving support device according to claim 1.
前記センサは、前記運転者の視線活動量を計測し、
前記推定手段は、前記運転者の視線活動量の変化に基づいて前記運転者の状態を推定する、
請求項1又は2に記載の運転支援装置。
The sensor measures a gaze activity amount of the driver,
The estimation means estimates the driver's state based on a change in the driver's gaze activity amount.
The driving support device according to claim 1 or 2.
コンピュータが、
身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得ステップと、
過去に計測された前記運転者の生体活動データに基づいて、前記運転者の状態ごとの基準データを設定する基準データ管理ステップと、
前記取得された前記運転者の生体活動データを前記基準データと比較することにより、前記運転者の状態を推定する推定ステップと、
運転操作の特性に応じて前記運転者を分類した場合に、前記推定された前記運転者の状態及び前記運転者が属する類型に応じた運転支援情報を提示する提示ステップと、を実行する、
運転支援方法。
Computer
A data acquisition step for acquiring a driver's life activity data measured by a sensor for detecting a state or activity of a part of the body;
A reference data management step for setting reference data for each state of the driver based on the driver's life activity data measured in the past;
An estimation step of estimating the state of the driver by comparing the acquired life activity data of the driver with the reference data;
When the driver is classified according to the characteristics of the driving operation, the presenting step of presenting the driving support information according to the estimated state of the driver and the type to which the driver belongs is executed.
Driving support method.
コンピュータに、
身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得ステップと、
過去に計測された前記運転者の生体活動データに基づいて、前記運転者の状態ごとの基準データを設定する基準データ管理ステップと、
前記取得された前記運転者の生体活動データを前記基準データと比較することにより、前記運転者の状態を推定する推定ステップと、
運転操作の特性に基づいて前記運転者が属する類型を判定する判定手段と、
前記推定された前記運転者の状態及び前記運転者が属する類型に応じた運転支援情報を提示する提示ステップと、を実行させる、
運転支援プログラム。
On the computer,
A data acquisition step for acquiring a driver's life activity data measured by a sensor for detecting a state or activity of a part of the body;
A reference data management step for setting reference data for each state of the driver based on the driver's life activity data measured in the past;
An estimation step of estimating the state of the driver by comparing the acquired life activity data of the driver with the reference data;
Determining means for determining a type to which the driver belongs based on characteristics of the driving operation;
The presenting step of presenting driving support information corresponding to the estimated state of the driver and the type to which the driver belongs is executed.
Driving assistance program.
サーバ及び運転支援装置を含む運転支援システムであって、
前記サーバは、
運転操作の特性に基づいて運転者を複数の類型に分類する分類手段を備え、
前記運転支援装置は、
身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得手段と、
過去に計測された前記運転者の生体活動データに基づいて、前記運転者の状態ごとの基準データを設定する基準データ管理手段と、
前記取得された前記運転者の生体活動データを前記基準データと比較することにより、前記運転者の状態を推定する推定手段と、
運転操作の特性に基づいて前記運転者が属する類型を判定する判定手段と、
前記推定された前記運転者の状態及び前記運転者が属する類型に応じた運転支援情報を提示する提示手段と、を備える、
運転支援システム。
A driving support system including a server and a driving support device,
The server
A classification means for classifying the driver into a plurality of types based on the characteristics of the driving operation;
The driving support device includes:
Data acquisition means for acquiring a driver's life activity data measured by a sensor for detecting a state or activity of a part of the body;
Reference data management means for setting reference data for each state of the driver based on the driver's life activity data measured in the past;
Estimating means for estimating the state of the driver by comparing the acquired life activity data of the driver with the reference data;
Determining means for determining a type to which the driver belongs based on characteristics of the driving operation;
Presenting means for presenting driving support information corresponding to the estimated state of the driver and the type to which the driver belongs,
Driving support system.
JP2016239742A 2016-12-09 2016-12-09 Driving support apparatus, driving support method, driving support program, and driving support system Pending JP2018097485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016239742A JP2018097485A (en) 2016-12-09 2016-12-09 Driving support apparatus, driving support method, driving support program, and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016239742A JP2018097485A (en) 2016-12-09 2016-12-09 Driving support apparatus, driving support method, driving support program, and driving support system

Publications (1)

Publication Number Publication Date
JP2018097485A true JP2018097485A (en) 2018-06-21

Family

ID=62632962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239742A Pending JP2018097485A (en) 2016-12-09 2016-12-09 Driving support apparatus, driving support method, driving support program, and driving support system

Country Status (1)

Country Link
JP (1) JP2018097485A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178712A (en) * 1994-12-22 1996-07-12 Toyota Motor Corp Rambling-drive detection apparatus
JP2005004414A (en) * 2003-06-11 2005-01-06 Nissan Motor Co Ltd Drive supporting device for vehicle
JP2007164439A (en) * 2005-12-13 2007-06-28 Matsushita Electric Ind Co Ltd Information presentation device and method
JP2012118951A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd On-vehicle device and driving support system
JP2016110449A (en) * 2014-12-08 2016-06-20 富士通テン株式会社 Driving support system and driving support method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178712A (en) * 1994-12-22 1996-07-12 Toyota Motor Corp Rambling-drive detection apparatus
JP2005004414A (en) * 2003-06-11 2005-01-06 Nissan Motor Co Ltd Drive supporting device for vehicle
JP2007164439A (en) * 2005-12-13 2007-06-28 Matsushita Electric Ind Co Ltd Information presentation device and method
JP2012118951A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd On-vehicle device and driving support system
JP2016110449A (en) * 2014-12-08 2016-06-20 富士通テン株式会社 Driving support system and driving support method

Similar Documents

Publication Publication Date Title
US10699569B2 (en) Information processing apparatus, information processing method, and program
US11511752B2 (en) Method and system for risk based driving mode switching in hybrid driving
US11609566B2 (en) Method and system for driving mode switching based on self-aware capability parameters in hybrid driving
US11813983B2 (en) Method and system for augmented alerting based on driver&#39;s state in hybrid driving
JP2018181061A (en) Drive support device
JP6653439B2 (en) Display control device, projection device, display control program, and recording medium
US11745745B2 (en) Systems and methods for improving driver attention awareness
JP2018097479A (en) Driving support apparatus, driving support method, driving support program, and driving support system
WO2019122967A1 (en) Method and system for risk based driving mode switching in hybrid driving
JP2018097485A (en) Driving support apparatus, driving support method, driving support program, and driving support system
US11926259B1 (en) Alert modality selection for alerting a driver
CA3083411C (en) Method and system for adapting augmented switching warning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220201