JP2015022537A - Information presenting device for vehicle - Google Patents

Information presenting device for vehicle Download PDF

Info

Publication number
JP2015022537A
JP2015022537A JP2013150465A JP2013150465A JP2015022537A JP 2015022537 A JP2015022537 A JP 2015022537A JP 2013150465 A JP2013150465 A JP 2013150465A JP 2013150465 A JP2013150465 A JP 2013150465A JP 2015022537 A JP2015022537 A JP 2015022537A
Authority
JP
Japan
Prior art keywords
information
driver
attention area
vehicle
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013150465A
Other languages
Japanese (ja)
Inventor
清水 俊行
Toshiyuki Shimizu
俊行 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013150465A priority Critical patent/JP2015022537A/en
Publication of JP2015022537A publication Critical patent/JP2015022537A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information presenting device for a vehicle that can present information in a manner easier for a driver to recognize the information.SOLUTION: The information presenting device for a vehicle includes an information converting part 24 that acquires information to be presented and converts the acquired information into visual information such as image data, and aural information such as speech data, a display 13 and a loudspeaker 14 that respectively present visual information and aural information. The information presenting device further includes a load level estimator 25a that estimates the level of load placed on a driver 11 when the driver drives vehicle; a caution area estimator 25b that estimates a caution area where the visual line of the driver 11 spread; and an information presentation controlling part 26 that, according to the load level on the driver 11 and the caution area for the driver 11, determines whether the display 13 or the loudspeaker 14 is to be used for presenting information and sets the quantity of information to be presented.

Description

本発明は、車両用情報提示装置に係り、特に、運転者の負担レベル及び運転者の注意領域範囲に応じて認識し易い態様で情報を提示する技術に関する。   The present invention relates to a vehicle information presentation apparatus, and more particularly to a technique for presenting information in an easily recognizable manner according to a driver's burden level and a driver's attention area range.

車両の運転者に対して認識し易い態様で情報を提示する情報提示装置として、例えば、特開2006−164172号公報(特許文献1)に開示されたものが知られている。該特許文献1では、複数のモーダル(視覚、聴覚、触覚等の感覚)で情報を提示する情報提示装置が開示されている。そして、提示対象となる情報を要素(例えば、文脈の纏まり)ごとに分解し、運転者の状況に応じて各要素をどのモーダルで提示するかを決定することにより、運転者にとって認識し易い態様での情報伝達が可能となる。   As an information presentation apparatus that presents information in a manner that can be easily recognized by a driver of a vehicle, for example, one disclosed in Japanese Patent Application Laid-Open No. 2006-164172 (Patent Document 1) is known. In Patent Document 1, an information presentation device that presents information in a plurality of modals (senses such as vision, hearing, and touch) is disclosed. And the aspect which is easy for the driver to recognize by decomposing information to be presented for each element (for example, a group of contexts) and deciding which modal to present each element according to the driver's situation It is possible to transmit information in

特開2006−164172号公報JP 2006-164172 A

しかしながら、上述した特許文献1に開示された従来例では、複数のモーダルを使い分けて情報を提示することについて開示しているものの、時々刻々と状況が変化する自動車の運転環境に対応した具体的な情報提示方法については示されていない。従って、必ずしも運転者にとって認識し易い態様で情報が提示されていないという問題があった。   However, although the conventional example disclosed in the above-mentioned Patent Document 1 discloses the use of a plurality of modals to present information, a specific example corresponding to the driving environment of a car whose situation changes from moment to moment. The information presentation method is not shown. Therefore, there is a problem that information is not necessarily presented in a manner that is easily recognized by the driver.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、より認識し易い態様で運転者に対して情報を提示することが可能な車両用情報提示装置を提供することにある。   The present invention has been made in order to solve such a conventional problem, and an object of the present invention is to provide vehicle information capable of presenting information to the driver in a more easily recognizable manner. It is to provide a presentation device.

上記目的を達成するため、本願発明は、提示対象となる情報を取得し、取得した情報を視覚情報及び聴覚情報に変換する情報変換手段と、この視覚情報、聴覚情報を運転者に提示する情報提示手段と、運転者の負担レベルを推定する負担レベル推定手段と、運転者の注意領域範囲を推定する注意領域推定手段とを備える。更に、運転者の負担レベル、及び運転者の注意領域範囲に応じて、情報提示手段による情報の提示態様、及び運転者に提示する情報量を設定する情報提示制御手段と、を有する。   In order to achieve the above object, the present invention acquires information to be presented, information conversion means for converting the acquired information into visual information and auditory information, and information for presenting the visual information and auditory information to the driver. Presenting means, burden level estimating means for estimating the driver's burden level, and attention area estimating means for estimating the driver's attention area range are provided. Furthermore, it has the information presentation mode by the information presentation means and the information presentation control means for setting the amount of information to be presented to the driver according to the burden level of the driver and the driver's attention area range.

本発明に係る車両用情報提示装置では、運転者が車両を運転している際の負担レベル、及び注意領域範囲を推定し、これらの推定結果に基づいて情報の提示態様、及び提示する情報量を設定するので、運転者に対して大きな負担をかけることなく、より認識し易い態様で情報を提供することができる。   In the vehicle information presentation device according to the present invention, the burden level when the driver is driving the vehicle and the attention area range are estimated, and the information presentation mode and the amount of information to be presented based on these estimation results Therefore, information can be provided in a more easily recognizable manner without imposing a heavy burden on the driver.

本発明の一実施形態に係る車両用情報提示装置が搭載される車両内の様子を概略的に示す説明図である。It is explanatory drawing which shows roughly the mode in the vehicle by which the vehicle information presentation apparatus which concerns on one Embodiment of this invention is mounted. 本発明の一実施形態に係る車両用情報提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle information presentation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両用情報提示装置の、処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the information presentation apparatus for vehicles which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両用情報提示装置の、情報提示の態様を設定する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of setting the aspect of information presentation of the vehicle information presentation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両用情報提示装置の、情報提示の態様を示す説明図である。It is explanatory drawing which shows the aspect of the information presentation of the vehicle information presentation apparatus which concerns on one Embodiment of this invention. 本発明の変形例に係る車両用情報提示装置に係り、運転者の脳血流状態を測定する様子を示す説明図である。It is explanatory drawing which shows a mode that it concerns on the vehicle information presentation apparatus which concerns on the modification of this invention, and measures a driver | operator's cerebral blood flow state. 本発明の変形例に係る車両用情報提示装置に係り、運転者の酸化ヘモグロビン量の時間経過に伴う変化を示す特性図である。FIG. 10 is a characteristic diagram illustrating a change in the amount of oxyhemoglobin of a driver with the passage of time according to a vehicle information presentation apparatus according to a modification of the present invention.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[本発明の一実施形態の説明]
図1は、本発明の一実施形態に係る車両用情報提示装置が搭載された車両内の構成を概略的に示す説明図である。図1に示すように、車両内には、運転者11の顔面近傍を撮影するカメラ12と、各種の情報を画面表示して運転者11に提示するディスプレイ13(情報提示手段)と、聴覚情報を音声として出力するスピーカ14(情報提示手段)と、ステアリング及びシートに埋め込まれ、必要に応じて振動を発生して運転者11に触覚による刺激を与える振動デバイス15(触覚刺激付与手段)と、車両情報制御部21と、を備えている。
[Description of One Embodiment of the Present Invention]
FIG. 1 is an explanatory diagram schematically showing a configuration inside a vehicle on which a vehicle information presentation device according to an embodiment of the present invention is mounted. As shown in FIG. 1, in the vehicle, a camera 12 that captures the vicinity of the face of the driver 11, a display 13 (information presenting means) that displays various information on the screen and presents it to the driver 11, and auditory information A speaker 14 (information presenting means) that outputs the sound as a sound, a vibration device 15 (tactile stimulus applying means) that is embedded in the steering wheel and the seat, and generates a vibration by touching the driver 11 as necessary. A vehicle information control unit 21.

図2は、本実施形態に係る車両用情報提示装置の構成を示すブロック図である。図2に示すように本実施形態に係る車両用情報提示装置100は、図1にて示したように、カメラ12と、スピーカ14と、ディスプレイ13と、振動デバイス15、及び車両情報制御部21から成る。   FIG. 2 is a block diagram illustrating a configuration of the vehicle information presentation device according to the present embodiment. As shown in FIG. 2, the vehicle information presentation apparatus 100 according to the present embodiment includes a camera 12, a speaker 14, a display 13, a vibration device 15, and a vehicle information control unit 21, as shown in FIG. Consists of.

車両情報制御部21は、外部通信器31やネットワークと接続して通信を行う通信部22と、該通信部22を介して受信される情報(提供対象となる情報)を取得し、重要キーワードの抽出や情報に関連する画像を検索する情報検索部23(情報検索手段)と、取得した情報に含まれるテキストデータを音声(聴覚情報)に変換する情報変換部24(情報変換手段)と、を備えている。   The vehicle information control unit 21 acquires a communication unit 22 that communicates by connecting to an external communication device 31 or a network, and information (information to be provided) received via the communication unit 22, An information search unit 23 (information search unit) that searches for images related to extraction and information, and an information conversion unit 24 (information conversion unit) that converts text data included in the acquired information into speech (auditory information). I have.

また、運転者に提示する各種の情報を制御する情報提示制御部26(情報提示制御手段)と、運転者が運転操作する際の負担レベルを推定する負担レベル推定器25a(負担レベル推定手段)及び運転者の視線が行き渡る領域である注意領域範囲を推定する注意領域推定器25b(注意領域推定手段)からなる運転者状態推定部25と、を備えている。   In addition, an information presentation control unit 26 (information presentation control unit) that controls various information presented to the driver, and a burden level estimator 25a (burden level estimation unit) that estimates a burden level when the driver performs a driving operation. And a driver state estimator 25 including a caution area estimator 25b (attention area estimation means) for estimating a caution area range that is an area where the driver's line of sight passes.

通信部22は、外部通信器31との通信により、例えば、eメールやウェブ上のテキストデータ等を受信する。   The communication unit 22 receives e-mail, text data on the web, and the like, for example, through communication with the external communication device 31.

情報検索部23は、通信部22にて受信された各種の情報に対してデータマイニング(Data mining;データを検索する処理)を実行し、受信した情報に含まれる重要キーワードを抽出する処理や、情報に関連する画像を抽出する処理を実行する。更に、情報に含まれるテキストデータに基づき、専用のソフトウェアを用いてテキストデータの要約データを作成する処理を行う。   The information search unit 23 performs data mining (data mining) on various types of information received by the communication unit 22 and extracts an important keyword included in the received information. A process of extracting an image related to information is executed. Furthermore, based on the text data included in the information, a process for creating summary data of the text data using dedicated software is performed.

負担レベル推定器25aは、車両に搭載されるECU(図示省略)と接続され、CAN通信等により取得される車両情報に基づいて、運転者の負担を推定する。例えば、ステアリングの操作量や、アクセル、ブレーキの操作頻度を検出し、ステアリングの操作量が多い場合や、アクセル、ブレーキの操作頻度が高い場合に、運転者の負担は大きいものと推定する。   The burden level estimator 25a is connected to an ECU (not shown) mounted on the vehicle, and estimates a driver's burden based on vehicle information acquired by CAN communication or the like. For example, the operation amount of the steering wheel and the operation frequency of the accelerator and the brake are detected, and when the operation amount of the steering is large or the operation frequency of the accelerator and the brake is high, it is estimated that the burden on the driver is large.

注意領域推定器25bは、カメラ12で撮影される運転者の顔面近傍の画像に基づいて視線の動きを検出し、注意領域範囲を推定する。即ち、運転者の視線の動きを検出することにより、運転者が視認している範囲が求められるので、この範囲を注意領域範囲として推定する。また、運転者の脳血流量に基づいて、注意領域範囲を推定することも可能である。脳血流量を用いる場合の詳細については、後述する。   The attention area estimator 25b detects the movement of the line of sight based on the image near the driver's face photographed by the camera 12, and estimates the attention area range. That is, by detecting the movement of the driver's line of sight, the range visually recognized by the driver is obtained, and this range is estimated as the attention area range. It is also possible to estimate the attention area range based on the driver's cerebral blood flow. Details of the case of using the cerebral blood flow will be described later.

情報提示制御部26は、運転者状態推定部25(負担レベル推定器25a、注意領域推定器25b)で推定された負担レベル、及び注意領域範囲に基づいて、情報変換部24より与えられる各種の情報の提示態様、即ち、視覚情報と聴覚情報のうちのどちらの情報を提示するかを判断する。また、出力する情報量を設定する。更に、振動を与えるか否かを判断する。そして、これらの情報を、ディスプレイ13、スピーカ14、或いは振動デバイス15に出力する。   The information presentation control unit 26 performs various types of information given by the information conversion unit 24 based on the burden level estimated by the driver state estimation unit 25 (the burden level estimator 25a and the attention region estimator 25b) and the attention region range. An information presentation mode, that is, which information to be presented, visual information or auditory information, is determined. Also, the amount of information to be output is set. Further, it is determined whether or not vibration is applied. These pieces of information are output to the display 13, the speaker 14, or the vibration device 15.

ここで、図2に示す車両情報制御部21は、例えば、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することができる。   Here, the vehicle information control unit 21 shown in FIG. 2 can be configured as an integrated computer including a central processing unit (CPU) and storage means such as a RAM, a ROM, and a hard disk.

次に、上述のように構成された本実施形態に係る車両用情報提示装置100の作用について、図3に示すフローチャートを参照して説明する。   Next, the operation of the vehicle information presentation apparatus 100 according to the present embodiment configured as described above will be described with reference to the flowchart shown in FIG.

初めに、ステップS11において、通信部22は、外部通信器31との通信により、eメールやウェブ上のニュース等の各種情報を取得する。   First, in step S <b> 11, the communication unit 22 acquires various types of information such as e-mail and news on the web through communication with the external communication device 31.

ステップS12において、情報検索部23は、通信部22にて取得された情報を検索し、該情報に含まれるテキストデータから重要キーワード、及び関連画像の抽出を行う。例えば、重要キーワードとして、テキストデータ中に含まれる語句のうち、出力頻度が高いものを選択する。または、タイトルとして使用されている語句を選択する。或いは、インターネット上で検索頻度が高い語句がある場合は、その語句を重要キーワードとして選択しても良い。   In step S12, the information search unit 23 searches for information acquired by the communication unit 22, and extracts important keywords and related images from text data included in the information. For example, as an important keyword, a word with high output frequency is selected from words included in text data. Or, select a phrase that is used as the title. Alternatively, when there is a phrase with a high search frequency on the Internet, the phrase may be selected as an important keyword.

また、関連画像としては、eメールに添付されるファイルに画像が含まれていれば、この画像を関連画像として使用する。更に、ウェブニュースの場合には、該ウェブニュースのテキストページと同一ページに添付されている画像をそのまま関連画像として利用しても良い。また、画像を持たないテキスト情報の場合には、先に抽出した重要キーワードに基づいてネットワーク上で画像検索を行い、検索結果に含まれる画像のうち頻度の高い画像を関連画像として選択する。   As a related image, if an image is included in a file attached to an e-mail, this image is used as a related image. Furthermore, in the case of web news, an image attached to the same page as the web news text page may be used as it is as a related image. In the case of text information that does not have an image, an image search is performed on the network based on the previously extracted important keyword, and an image with a high frequency among images included in the search result is selected as a related image.

次いで、ステップS13において、運転者状態推定部25は、運転者の状態を推定する。具体的には、負担レベル推定器25aにより運転者の負担レベルを推定し、注意領域推定器25bにより運転者の注意領域範囲を推定する。   Next, in step S13, the driver state estimating unit 25 estimates the driver's state. Specifically, the burden level of the driver is estimated by the burden level estimator 25a, and the attention area range of the driver is estimated by the attention area estimator 25b.

負担レベルの推定は、上述したように、車両に搭載されるECU(図示省略)からCAN(Controller Area Network)を経由して送信されるステアリングの操作量についてのデータに基づいて行われる。即ち、ステアリングの操作量を認識し、この操作量の大きさ及び操作頻度に基づいて、運転者の負担レベルを推定する。例えば、操作量が大きい場合や、操作頻度が高い場合には、負担レベルが高いものと推定する。   As described above, the burden level is estimated based on data on the steering operation amount transmitted from an ECU (not shown) mounted on the vehicle via a CAN (Controller Area Network). That is, the operation amount of the steering is recognized, and the driver's burden level is estimated based on the magnitude of the operation amount and the operation frequency. For example, when the operation amount is large or the operation frequency is high, it is estimated that the burden level is high.

また、ステアリングの操作量以外の指標として、車両の走行路(前方カメラやナビゲーション装置より取得可能)の状況に応じて、負担レベルを推定することができる。具体的には、カーブ路が多い走行路を走行している場合は、直線路が多い走行路を走行している場合よりも負担レベルが高いものと判断する。更には、周囲の車両の混雑度、ブレーキ、アクセルの操作頻度によっても、運転者の負担レベルを推定することができる。   Further, as an index other than the steering operation amount, the burden level can be estimated according to the state of the vehicle travel path (acquisable from the front camera or the navigation device). Specifically, when traveling on a traveling road with many curved roads, it is determined that the burden level is higher than when traveling on a traveling road with many straight roads. Furthermore, the driver's burden level can also be estimated based on the degree of congestion of surrounding vehicles, the frequency of brake and accelerator operations.

更に、予め負担レベルについての閾値である閾値レベルを設定しておき、推定される負担レベルがこの閾値レベルを上回るか否かを判断する。例えば、ステアリングの操作量についての閾値を閾値操作量として設定しておき、運転者による実際のステアリングの操作量がこの閾値操作量を上回った場合に、負担レベルが閾値レベルを上回ったものと判断する。   Further, a threshold level that is a threshold for the burden level is set in advance, and it is determined whether or not the estimated burden level exceeds the threshold level. For example, a threshold for the steering operation amount is set as a threshold operation amount, and when the actual steering operation amount by the driver exceeds the threshold operation amount, it is determined that the burden level exceeds the threshold level. To do.

一方、注意領域範囲の推定は、カメラ12により撮影される画像(運転者の顔面近傍の画像)に基づいて行われる。この処理では、カメラ12で撮影される画像に基づいて、運転者の視線方向を検出し、視線が行き渡る範囲を注意領域範囲として推定する。また、注意領域範囲についての閾値である閾値範囲を設定し、注意領域範囲がこの閾値範囲よりも広いか否かを判断する。具体的な処理としては、運転者の視線が通常の状態(前方を視認している状態)から、所定時間t1内のトータルの視線移動距離を計測し、この移動距離が予め設定した閾値距離を上回った場合には、注意領域範囲が閾値範囲を上回ったものと判断する。つまり、視線の移動距離が大きい場合には、広い範囲に亘って視野が移動しているものと考えられるので、注意領域範囲が広いものと判断する。   On the other hand, the estimation of the attention area range is performed based on an image photographed by the camera 12 (an image in the vicinity of the driver's face). In this process, the direction of the driver's line of sight is detected based on the image captured by the camera 12, and the range in which the line of sight spreads is estimated as the attention area range. Further, a threshold range that is a threshold for the attention area range is set, and it is determined whether or not the attention area range is wider than this threshold range. As a specific process, the total line-of-sight movement distance within a predetermined time t1 is measured from the normal state of the driver's line of sight (a state in which the driver is looking forward), and this movement distance is set to a preset threshold distance. If it exceeds, it is determined that the attention area range exceeds the threshold range. In other words, when the movement distance of the line of sight is large, it is considered that the field of view is moving over a wide range, so it is determined that the attention area range is wide.

次に、図3のステップS14において、情報提示制御部26は、情報を提示するデバイスを選択する。即ち、ステップS13の処理で推定された運転者の負担レベル、及び注意領域範囲に基づいて、運転者に提示すべき情報を視覚情報として提示するか(即ち、ディスプレイ13に表示するか)、或いは、聴覚情報として提示するか(即ち、スピーカ14より音声として出力するか)を選択する。また、出力する情報量を設定する。更に、これに加えて、振動デバイス15を作動させるか否かを判断する。   Next, in step S14 of FIG. 3, the information presentation control unit 26 selects a device for presenting information. That is, information to be presented to the driver is presented as visual information (that is, displayed on the display 13) based on the driver's burden level and the attention area range estimated in the process of step S13, or , Whether to present as auditory information (that is, whether to output as audio from the speaker 14) is selected. Also, the amount of information to be output is set. In addition to this, it is determined whether or not the vibration device 15 is to be operated.

以下、図3のステップS14の処理の具体的な手順を、図4に示すフローチャートを参照して説明する。初めに、ステップS31にて、負担レベルの推定結果が得られると、ステップS32において、推定された負担レベルが予め設定した上限(上述の閾値レベルよりも高いレベル)を超えているか否かが判断される。そして、負担レベルが上限を超えている場合には(ステップS32でYES)、ステップS33において、情報提示を行わない。即ち、負担レベルが上限を超えているということは、運転者がステアリング操作に集中している場合や、アクセル操作、ブレーキ操作に集中している場合が想定されるので、このような状況下にて運転者に対して情報を提示しても、運転者にとっては単に煩わしいと感じられるだけとなるので、情報提示を行わない。   Hereinafter, the specific procedure of the process of step S14 in FIG. 3 will be described with reference to the flowchart shown in FIG. First, when the estimation result of the burden level is obtained in step S31, it is determined in step S32 whether or not the estimated burden level exceeds a preset upper limit (a level higher than the above threshold level). Is done. If the burden level exceeds the upper limit (YES in step S32), no information is presented in step S33. In other words, if the burden level exceeds the upper limit, it is assumed that the driver is concentrating on the steering operation, the accelerator operation, or the brake operation. Thus, even if the information is presented to the driver, it is merely annoying for the driver, so no information is presented.

一方、負担レベルが上限を超えていない場合には(ステップS32でNO)、ステップS34において、負担レベルが閾値レベル未満であるか否かが判断される。そして、負担レベルが閾値レベル未満であれば(ステップS34でYES)、ステップS35に処理を進め、負担レベルが閾値レベル以上であれば(ステップS34でNO)、ステップS36に処理を進める。   On the other hand, if the burden level does not exceed the upper limit (NO in step S32), it is determined in step S34 whether the burden level is less than the threshold level. If the burden level is lower than the threshold level (YES in step S34), the process proceeds to step S35. If the burden level is equal to or higher than the threshold level (NO in step S34), the process proceeds to step S36.

ステップS35において、注意領域範囲が閾値範囲未満であるか否かが判断される。そして、注意領域範囲が閾値範囲未満であれば(ステップS35でNO)、ステップS37に処理を進め、注意領域範囲が閾値範囲以上であれば(ステップS35でYES)、ステップS38に処理を進める。   In step S35, it is determined whether or not the attention area range is less than the threshold range. If the attention area range is less than the threshold range (NO in step S35), the process proceeds to step S37. If the attention area range is greater than or equal to the threshold range (YES in step S35), the process proceeds to step S38.

一方、ステップS36において、上述のステップS35と同様に、注意領域範囲が閾値範囲未満であるか否かが判断される。そして、注意領域範囲が閾値範囲未満であれば(ステップS36でNO)、ステップS39に処理を進め、注意領域範囲が閾値範囲以上であれば(ステップS36でYES)、ステップS40に処理を進める。   On the other hand, in step S36, as in step S35 described above, it is determined whether or not the attention area range is less than the threshold range. If the attention area range is less than the threshold range (NO in step S36), the process proceeds to step S39. If the attention area range is greater than or equal to the threshold range (YES in step S36), the process proceeds to step S40.

ステップS37では、視覚情報を付加してテキスト発話を行う。つまり、ディスプレイ13に提示対象となる情報の重要キーワードや関連画像を表示し、且つ、スピーカ14にて提示対象となる情報に含まれるテキストデータを聴覚情報(音声データ)としてスピーカ14より出力する。従って、運転者は、ディスプレイ13に表示される重要キーワード、画像、及びスピーカ14より発話される音声により、この情報を認識することができる。即ち、ステップS37の処理は、負担レベルが低く、且つ注意領域範囲が広いと判断されているので、運転者は運転についての集中力を高める必要が無く、また、広い視野で周囲を見渡しているので、ディスプレイ13に表示される視覚情報、及びスピーカ14より発話される聴覚情報の双方を無理なく認識できるものと推定される。従って、ディスプレイ13とスピーカ14を用いることにより、運転者の認識度を高めることができる。   In step S37, text information is uttered with visual information added. That is, an important keyword or related image of information to be presented is displayed on the display 13 and the text data included in the information to be presented is output from the speaker 14 as auditory information (voice data). Therefore, the driver can recognize this information based on the important keyword displayed on the display 13, the image, and the voice uttered from the speaker 14. That is, since it is determined that the burden level is low and the attention area range is wide in the process of step S37, the driver does not need to increase concentration on driving and looks around with a wide field of view. Therefore, it is estimated that both visual information displayed on the display 13 and auditory information uttered from the speaker 14 can be recognized without difficulty. Therefore, the use of the display 13 and the speaker 14 can increase the driver's recognition level.

一方、ステップS38では、テキスト発話を行い、且つ、該テキスト中に含まれる重要キーワードに同期して振動デバイス15を作動させ、運転者に対して触覚刺激を与える。従って、運転者は提示対象となる情報を聴覚情報として認識でき、且つ、重要キーワードが音声出力される際に、図1に示したようにステアリング及びシートに設けられる振動デバイス15が作動して触覚刺激が与えられる。その結果、提示された情報の認識度を高めることができる。つまり、ステップS38の処理では、運転者の負担レベルは低いものの、注意領域範囲が狭いと判断されているので、ディスプレイ13に関連画像等の視覚情報を提示することは、適切ではなく、聴覚情報として提示することが好適であると推定される。従って、音声で出力し、且つ振動を与えることにより、運転者の情報に対する認識度を高めることができる。   On the other hand, in step S38, text utterance is performed, and the vibration device 15 is operated in synchronization with an important keyword included in the text to give tactile stimulation to the driver. Therefore, the driver can recognize the information to be presented as auditory information, and when an important keyword is output as a voice, the vibration device 15 provided on the steering wheel and the seat operates as shown in FIG. Stimulation is given. As a result, the degree of recognition of the presented information can be increased. That is, in the process of step S38, although the driver's burden level is low, it is determined that the attention area range is narrow, so it is not appropriate to present visual information such as related images on the display 13, and the auditory information It is estimated that it is preferable to present as Therefore, the degree of recognition of the driver's information can be increased by outputting the voice and giving vibration.

ステップS39では、関連画像をディスプレイ13に表示する。つまり、視覚情報として提示する。また、情報検索部23で作成された要約データ、重要キーワードの音声データを簡潔に、且つ発話速度を早くしてスピーカ14より出力する。従って、運転者は、ディスプレイ13を見ることにより、提示対象となる情報を視覚的に認識することができ、また、大きな負担を受けることなく音声データを認識できる。つまり、ステップS39の処理では、負担レベルが高いので、あまり多くの情報を認識することができない。また、注意領域範囲が広いので、ディスプレイ13に表示された画像を視認することにそれほどの困難性が無いと推定される。従って、ディスプレイ13に関連画像を表示し、且つ理解し易いレベルまで情報量を削減したテキストデータを聴覚情報として提示することにより、運転者の認識度を高めることができる。   In step S39, the related image is displayed on the display 13. That is, it is presented as visual information. In addition, the summary data and important keyword voice data created by the information search unit 23 are output from the speaker 14 in a concise manner and with a faster speech rate. Therefore, the driver can visually recognize the information to be presented by looking at the display 13, and can recognize the voice data without receiving a large burden. That is, in the process of step S39, the burden level is high, so that much information cannot be recognized. Further, since the attention area range is wide, it is estimated that there is not much difficulty in visually recognizing the image displayed on the display 13. Therefore, by displaying the related image on the display 13 and presenting the text data with the amount of information reduced to an easily understandable level as auditory information, the driver's recognition level can be increased.

ステップS40では、情報提示を行わない。即ち、負担レベルが高く、且つ、注意領域範囲が狭いと判断された場合には、運転者はステアリングやアクセル、ブレーキ操作に集中する必要があり、且つ、視線の向く範囲である注意領域範囲が狭いので、このような状況下でウェブ情報等を視覚情報や聴覚情報として提示することは、運転者に対して効果的に情報を提示することができないばかりか、むしろ煩わしさを感じさせてしまう。従って、情報の提供を停止する。   In step S40, no information is presented. That is, when it is determined that the burden level is high and the attention area range is narrow, the driver needs to concentrate on steering, accelerator, and brake operation, and there is an attention area area that is a range in which the line of sight is directed. Because it is narrow, presenting web information etc. as visual information or auditory information under such circumstances can not only effectively present information to the driver, but also makes it feel annoying . Therefore, the provision of information is stopped.

そして、ステップS33、S37〜S40のうちの、いずれかの処理が行われたならば、図3のステップS15の処理において、各種の情報をディスプレイ13、スピーカ14、或いは振動デバイス15より出力する。こうして、運転者の運転状態に適した情報提示が行われるのである。   If any one of steps S33 and S37 to S40 is performed, various types of information are output from the display 13, the speaker 14, or the vibration device 15 in the process of step S15 in FIG. Thus, information presentation suitable for the driving state of the driver is performed.

図5は、ステップS37〜S40の処理をマップ化して示す説明図である。そして、図5のF1に示す領域がステップS37の処理に対応し、F2に示す領域がステップS38の処理に対応し、F3に示す領域がステップS39に対応し、F4に示す領域がステップS40に対応している。   FIG. 5 is an explanatory diagram showing the processing of steps S37 to S40 in a map. The area indicated by F1 in FIG. 5 corresponds to the process of step S37, the area indicated by F2 corresponds to the process of step S38, the area indicated by F3 corresponds to step S39, and the area indicated by F4 corresponds to step S40. It corresponds.

このようにして、本実施形態に係る車両用情報提示装置100では、運転者が車両を運転している際の負担レベル、及び注意領域範囲を推定し、これらの推定結果に基づいて情報の提示態様、及び提示する情報量を設定するので、運転者に対して大きな負担をかけることなく、提供対象となる情報を認識させることができる。   Thus, in the vehicle information presentation apparatus 100 according to the present embodiment, the burden level and the attention area range when the driver is driving the vehicle are estimated, and information is presented based on these estimation results. Since the mode and the amount of information to be presented are set, the information to be provided can be recognized without placing a heavy burden on the driver.

また、運転者の負担レベルに基づき、負担レベルが大きいほど、運転者に提示する情報量を減少させるので、運転者が運転に集中しているときに、多くの情報を提示することを回避でき、運転者の集中力を持続させることができる。    Also, based on the driver's burden level, the larger the burden level, the less information is presented to the driver, so it is possible to avoid presenting a lot of information when the driver is concentrating on driving. , The driver's concentration can be sustained.

更に、運転者の注意領域範囲が広いほど、該運転者に提示する視覚情報を増加させ、聴覚情報を減少させるので、運転者に提示する情報をより認識し易い態様で提示することができる。   Furthermore, as the driver's attention area range is wider, the visual information presented to the driver is increased and the auditory information is decreased, so that the information presented to the driver can be presented in a more easily recognizable manner.

また、情報検索部23にて、提供される情報に含まれる重要キーワードを検索し、運転者の注意領域範囲が閾値範囲よりも狭い場合には、重要キーワードを音声出力(聴覚情報として出力)する際に、この音声出力に同期して振動デバイス15を作動させて触覚刺激を与える。このため、重要な部分で運転者の注意を喚起することができ、情報の認識度を高めることができる。   The information search unit 23 searches for an important keyword included in the provided information. If the driver's caution area range is narrower than the threshold range, the important keyword is output as a voice (output as auditory information). At the same time, the vibration device 15 is operated in synchronization with the sound output to give a tactile stimulus. For this reason, a driver | operator's attention can be drawn in an important part and the recognition degree of information can be raised.

更に、運転者の負担レベル、及び注意領域範囲を求め、図5に示したように、負担レベルと注意領域範囲との関係に基づいて、情報提示の態様を設定するので、運転者の運転状態に応じた適切な態様での情報提示が可能となる。このため、運転者に対して大きな負担をかけることなく、提示した情報の認識度を高めることができる。   Further, the driver's burden level and the attention area range are obtained, and as shown in FIG. 5, the information presentation mode is set based on the relationship between the burden level and the attention area range. It is possible to present information in an appropriate manner according to the situation. For this reason, the recognition degree of the presented information can be increased without imposing a heavy burden on the driver.

[変形例の説明]
次に、上述した実施形態の変形例について説明する。上述した実施形態では、カメラ12を用いて運転者の顔面近傍を撮影し、撮影した画像に基づいて、運転者の注意領域範囲を測定する例について説明した。これに対して、変形例では、人間の注意機能との関係が深い、運転者の前頭部の脳血流状態を脳血流検出器(図示省略)にて検出し、検出した脳血流状態に基づいて、注意領域範囲の広さを判定する点で相違する。以下、詳細に説明する。
[Description of modification]
Next, a modification of the above-described embodiment will be described. In the above-described embodiment, the example in which the vicinity of the driver's face is photographed using the camera 12 and the driver's attention area range is measured based on the photographed image has been described. On the other hand, in the modified example, the cerebral blood flow state of the driver's forehead, which is closely related to the human attention function, is detected by a cerebral blood flow detector (not shown), and the detected cerebral blood flow is detected. The difference is that the size of the attention area range is determined based on the state. Details will be described below.

図6は、運転者11の前頭部に測定器を取り付けて脳血流量を測定する様子を示す説明図である。図6に示すように、運転者11の前頭部に近赤外光の発光素子41、及び受光素子42から成る測定具43を取り付け、脳血流検出器にて発光量に対する受光量の変化を測定することにより、脳の血流状態を計測することができる。詳細には、ヘアバンド等に測定具43を取り付け、このヘアバンドを運転者の頭部に装着することにより、運転者11の前頭部に発光素子41及び受光素子42を取り付けることができる。   FIG. 6 is an explanatory diagram showing a state in which a measuring device is attached to the frontal region of the driver 11 and the cerebral blood flow is measured. As shown in FIG. 6, a measuring tool 43 including a near-infrared light emitting element 41 and a light receiving element 42 is attached to the front of the driver 11, and a change in the amount of light received with respect to the amount of light emitted by the cerebral blood flow detector By measuring this, the blood flow state of the brain can be measured. Specifically, the light emitting element 41 and the light receiving element 42 can be attached to the frontal portion of the driver 11 by attaching the measuring tool 43 to a hairband or the like and attaching the hairband to the driver's head.

血流は、特に酸化ヘモグロビンと還元ヘモグロビンの変化量を計測できるが、注意状態の判定には酸化ヘモグロビン量の変化を指標として取り扱う。図7は、時間経過に対する酸化ヘモグロビン量の変化を示す特性図である。図7において、曲線Q1は酸化ヘモグロビン量を示している。   The blood flow can measure, in particular, the amount of change in oxygenated hemoglobin and reduced hemoglobin, but the change in the amount of oxygenated hemoglobin is used as an index for determining the attention state. FIG. 7 is a characteristic diagram showing changes in the amount of oxyhemoglobin with time. In FIG. 7, curve Q1 shows the amount of oxyhemoglobin.

酸化ヘモグロビン量は、前頭部における脳血流量を示し、脳の神経活動が活発であることを表している。また、前頭部における脳機能は運転者の注意力と関係しており、この部位における神経活動が注意活動が活発であるか、或いは抑制されているかを判断できる。即ち、酸化ヘモグロビン量の変化に閾値TH1を設定し、酸化ヘモグロビン量がこの閾値TH1よりも大きい場合は注意活動が盛んで周囲に広く注意が向けられていると判断できる。   The amount of oxyhemoglobin indicates the amount of cerebral blood flow in the frontal region, and indicates that the nerve activity of the brain is active. In addition, the brain function in the frontal region is related to the driver's attention, and it can be determined whether the nerve activity in this region is active or suppressed. That is, when the threshold TH1 is set for the change in the amount of oxyhemoglobin and the amount of oxyhemoglobin is larger than the threshold TH1, it can be determined that attention activities are active and attention is widely directed to the surroundings.

これとは反対に、酸化ヘモグロビン量が閾値TH1よりも小さい場合は、運転者11の注意力は抑制され、注意領域範囲が狭くなっていると判断できる。即ち、図7(a)に示す時間帯が運転者11の注意力が分散している時間帯であると推定され、図7(b)に示す時間帯が運転者11の注意力が集中している時間帯であると推定される。   On the other hand, when the amount of oxyhemoglobin is smaller than the threshold value TH1, it can be determined that the attention of the driver 11 is suppressed and the attention area range is narrowed. That is, it is estimated that the time zone shown in FIG. 7A is a time zone in which the attention of the driver 11 is dispersed, and the attention zone of the driver 11 is concentrated in the time zone shown in FIG. It is estimated that it is the time zone.

従って、このデータに基づいて、運転者11の注意領域範囲が閾値範囲よりも狭いか否かを判断することができ、図4のステップS35,S36に示した処理の判断基準として採用することができる。   Therefore, based on this data, it can be determined whether or not the attention area range of the driver 11 is narrower than the threshold range, and can be adopted as a determination criterion for the processing shown in steps S35 and S36 of FIG. it can.

このようにして、変形例に係る車両用情報提示装置100では、運転者11の注意領域範囲を、脳血流量の変化に基づいて判断している。即ち、運転者11の脳血流量を測定することで脳機能の活動状態を把握できる。具体的には、血流量が増加していれば脳の活動が活発であり、血流量が減少していれば、脳の活動は低下していると判断できる。よって、運転者11の前頭葉中央部に設けた発光素子41、及び受光素子42で検出されるデータに基づいて、運転者11の注意機能の状態を検出できる。ひいては、運転者11の注意領域範囲を推定できる。このため、前述した実施形態よりも、より高精度に注意領域範囲を推定することができ、運転者11が情報を認識する際の負担をより一層軽減することが可能となる。   Thus, in the vehicle information presentation device 100 according to the modification, the attention area range of the driver 11 is determined based on the change in the cerebral blood flow. That is, the activity state of the brain function can be grasped by measuring the cerebral blood flow of the driver 11. Specifically, it can be determined that if the blood flow is increased, the brain activity is active, and if the blood flow is decreased, the brain activity is decreased. Therefore, the state of the attention function of the driver 11 can be detected based on the data detected by the light emitting element 41 and the light receiving element 42 provided in the center of the frontal lobe of the driver 11. As a result, the attention area range of the driver 11 can be estimated. For this reason, it is possible to estimate the attention area range with higher accuracy than in the embodiment described above, and it is possible to further reduce the burden when the driver 11 recognizes information.

以上、本発明の車両用情報提示装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   As mentioned above, although the vehicle information presentation apparatus of the present invention has been described based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part is an arbitrary configuration having the same function. Can be replaced.

本発明は、運転者に提示する情報を適切な態様で認識させることに利用することができる。   The present invention can be used to recognize information presented to the driver in an appropriate manner.

11 運転者
12 カメラ
13 ディスプレイ
14 スピーカ
15 振動デバイス
21 車両情報制御部
22 通信部
23 情報検索部
24 情報変換部
25 運転者状態推定部
25a 負担レベル推定器
25b 注意領域推定器
26 情報提示制御部
31 外部通信器
41 発光素子
42 受光素子
43 測定具
100 車両用情報提示装置
DESCRIPTION OF SYMBOLS 11 Driver 12 Camera 13 Display 14 Speaker 15 Vibration device 21 Vehicle information control part 22 Communication part 23 Information search part 24 Information conversion part 25 Driver state estimation part 25a Burden level estimator 25b Caution area | region estimator 26 Information presentation control part 31 External communication device 41 Light emitting element 42 Light receiving element 43 Measuring tool 100 Information presentation device for vehicle

Claims (6)

車両に搭載され、該車両の運転者に各種の情報を提示する車両用情報提示装置において、
提示対象となる情報を取得し、取得した情報を視覚情報及び聴覚情報に変換する情報変換手段と、
前記視覚情報、及び聴覚情報を運転者に提示する情報提示手段と、
運転者が運転操作する際の負担レベルを推定する負担レベル推定手段と、
運転者の視線が行き渡る領域である注意領域範囲を推定する注意領域推定手段と、
前記負担レベル推定手段にて推定される運転者の負担レベル、及び前記注意領域推定手段にて推定される運転者の注意領域範囲に応じて、前記情報提示手段による情報の提示態様、及び運転者に提示する情報量を設定する情報提示制御手段と、
を備えたことを特徴とする車両用情報提示装置。
In a vehicle information presentation device mounted on a vehicle and presenting various information to a driver of the vehicle,
Information conversion means for acquiring information to be presented and converting the acquired information into visual information and auditory information;
Information presentation means for presenting the visual information and auditory information to the driver;
A burden level estimating means for estimating a burden level when the driver performs a driving operation;
Attention area estimation means for estimating an attention area range in which the driver's line of sight is widespread;
According to the driver's burden level estimated by the burden level estimation means and the driver's attention area range estimated by the attention area estimation means, the information presentation mode by the information presentation means, and the driver Information presentation control means for setting the amount of information to be presented to,
A vehicle information presentation device comprising:
前記情報提示制御手段は、前記運転者の負担レベルが高いほど、運転者に提示する情報量を減少させることを特徴とする請求項1に記載の車両用情報提示装置。   The vehicle information presentation apparatus according to claim 1, wherein the information presentation control unit decreases the amount of information presented to the driver as the driver's burden level is higher. 前記情報提示制御手段は、運転者の注意領域範囲が広いほど、聴覚情報に対する視覚情報の量を増加させることを特徴とする請求項1または請求項2に記載の車両用情報提示装置。   3. The vehicle information presentation apparatus according to claim 1, wherein the information presentation control unit increases the amount of visual information with respect to auditory information as the driver's attention area range is wider. 前記提示対象となる情報に含まれる重要キーワードを検索する情報検索手段と、運転者に対して触覚による刺激を与える触覚刺激付与手段と、を更に備え、
前記情報提示制御手段は、前記注意領域範囲が予め設定した閾値範囲よりも狭い場合には、聴覚情報に含まれる重要キーワードを提示する際に、この重要キーワードに同期して触覚刺激を与えるように、前記触覚刺激付与手段を制御することを特徴とする請求項1〜請求項3のいずれか1項に記載の車両用情報提示装置。
An information search means for searching for an important keyword included in the information to be presented; and a tactile stimulus providing means for giving a tactile stimulus to the driver;
When the attention area range is narrower than a preset threshold range, the information presentation control means gives a tactile stimulus in synchronization with the important keyword when presenting the important keyword included in the auditory information. The vehicle information presentation device according to any one of claims 1 to 3, wherein the tactile stimulus imparting means is controlled.
前記情報提示制御手段は、
負担レベルが予め設定した閾値レベルよりも高く、且つ、注意領域範囲が前記閾値範囲よりも狭い場合には、情報の提示を停止し、
負担レベルが前記閾値レベルよりも高く、且つ、注意領域範囲が前記閾値範囲よりも広い場合には、視覚情報、及び情報量を削減した聴覚情報により情報を提示し、
負担レベルが前記閾値レベルよりも低く、且つ、注意領域範囲が前記閾値範囲よりも狭い場合には、聴覚情報により情報を提示し、且つ、触覚刺激付与手段を作動させ、
負担レベルが前記閾値レベルよりも低く、且つ、注意領域範囲が前記閾値範囲よりも広い場合には、視覚情報、及び聴覚情報により情報を提示し、且つ、触覚刺激付与手段を作動させること
を特徴とする請求項4に記載の車両用情報提示装置。
The information presentation control means includes
When the burden level is higher than a preset threshold level and the attention area range is narrower than the threshold range, the presentation of information is stopped,
When the burden level is higher than the threshold level and the attention area range is wider than the threshold range, information is presented by visual information and auditory information with a reduced amount of information,
When the burden level is lower than the threshold level and the attention area range is narrower than the threshold range, information is presented by auditory information, and the tactile stimulus applying means is activated,
When the burden level is lower than the threshold level and the attention area range is wider than the threshold range, the information is presented by visual information and auditory information, and the tactile stimulus applying means is operated. The vehicle information presentation device according to claim 4.
前記注意領域推定手段は、運転者の脳血流量を測定する脳血流検出器を備え、血流量が多いほど、注意領域範囲が広いものと判断することを特徴とする請求項1〜請求項5のいずれか1項に記載の車両用情報提示装置。   The caution region estimation means includes a cerebral blood flow detector that measures the cerebral blood flow of the driver, and determines that the caution region range is wider as the blood flow is larger. The vehicle information presentation device according to claim 5.
JP2013150465A 2013-07-19 2013-07-19 Information presenting device for vehicle Pending JP2015022537A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013150465A JP2015022537A (en) 2013-07-19 2013-07-19 Information presenting device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013150465A JP2015022537A (en) 2013-07-19 2013-07-19 Information presenting device for vehicle

Publications (1)

Publication Number Publication Date
JP2015022537A true JP2015022537A (en) 2015-02-02

Family

ID=52486930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013150465A Pending JP2015022537A (en) 2013-07-19 2013-07-19 Information presenting device for vehicle

Country Status (1)

Country Link
JP (1) JP2015022537A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199940A1 (en) * 2015-06-12 2016-12-15 ダイキン工業株式会社 Brain-activity estimation device
JP2018167777A (en) * 2017-03-30 2018-11-01 マツダ株式会社 Vehicle drive assisting system and vehicle drive assisting method
JP2018167774A (en) * 2017-03-30 2018-11-01 マツダ株式会社 Vehicle drive assisting system
WO2018211881A1 (en) * 2017-05-18 2018-11-22 カルソニックカンセイ株式会社 Information control device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199940A1 (en) * 2015-06-12 2016-12-15 ダイキン工業株式会社 Brain-activity estimation device
JP2017209516A (en) * 2015-06-12 2017-11-30 ダイキン工業株式会社 Brain activity estimation device
JP2018167777A (en) * 2017-03-30 2018-11-01 マツダ株式会社 Vehicle drive assisting system and vehicle drive assisting method
JP2018167774A (en) * 2017-03-30 2018-11-01 マツダ株式会社 Vehicle drive assisting system
WO2018211881A1 (en) * 2017-05-18 2018-11-22 カルソニックカンセイ株式会社 Information control device
JP2018195139A (en) * 2017-05-18 2018-12-06 カルソニックカンセイ株式会社 Information controller
US10930250B2 (en) 2017-05-18 2021-02-23 Marelli Corporation Information control apparatus

Similar Documents

Publication Publication Date Title
US20170291544A1 (en) Adaptive alert system for autonomous vehicle
JP6343808B2 (en) Visual field calculation device and visual field calculation method
US9558414B1 (en) Method for calculating a response time
JP6565408B2 (en) Vehicle control apparatus and vehicle control method
KR101867915B1 (en) Method for executing vehicle function using wearable device and vehicle for carrying out the same
JPWO2015151243A1 (en) Vehicle information presentation device
JP2015022537A (en) Information presenting device for vehicle
JP2010128099A (en) In-vehicle voice information providing system
Nukarinen et al. Delivering directional haptic cues through eyeglasses and a seat
JP2005253590A (en) Driving support apparatus
JP6593712B2 (en) Vehicle driving support system
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant&#39;s emotion
JP2009134496A (en) Driving support device and driving support method
WO2018163470A1 (en) Driving mode switching control device, system, and method
JP6776681B2 (en) Driver status determination device and driver status determination program
KR101793142B1 (en) Apparatus and method for driving assistance using vibration motor into driver&#39;s seat, recording medium for performing the method
KR20100028253A (en) Method for supporting a driver and apparatus for the same
US20220111792A1 (en) Techniques for generating vehicle-to-pedestrian (v2p) communications based on driver monitoring
JP2019036018A (en) Driver support device and driver support method
Kashevnik et al. Dangerous situation prediction and driving statistics accumulation using smartphone
CN205417607U (en) Vehicle display system and car
US11383640B2 (en) Techniques for automatically reducing annoyance levels of drivers when using driver monitoring systems
JP2006158465A (en) Workload control device
JP2018013812A (en) Driver state guide device and driver state guide program
EP3889740A1 (en) Affective-cognitive load based digital assistant