WO2020079990A1 - 支障度算出システム、及び、運転ガイドシステム - Google Patents

支障度算出システム、及び、運転ガイドシステム Download PDF

Info

Publication number
WO2020079990A1
WO2020079990A1 PCT/JP2019/035339 JP2019035339W WO2020079990A1 WO 2020079990 A1 WO2020079990 A1 WO 2020079990A1 JP 2019035339 W JP2019035339 W JP 2019035339W WO 2020079990 A1 WO2020079990 A1 WO 2020079990A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
obstacle
level
guide
degree
Prior art date
Application number
PCT/JP2019/035339
Other languages
English (en)
French (fr)
Inventor
貴昭 杉山
雅彦 河本
良憲 川畑
利博 新帯
明美 古賀
優 澤木
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018197526A external-priority patent/JP2020064554A/ja
Priority claimed from JP2018197525A external-priority patent/JP2020064553A/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112019005224.1T priority Critical patent/DE112019005224T5/de
Publication of WO2020079990A1 publication Critical patent/WO2020079990A1/ja
Priority to US17/231,643 priority patent/US20210229677A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • Patent Document 1 A system has been proposed that detects an abnormality in the driver's driving ability due to drowsiness, drunkenness, or other causes, and issues a warning when the abnormality is detected.
  • a driving guide system based on a sensor that acquires data regarding a factor that hinders a driver's safe driving and a factor that hinders a driver's safe driving, causes a hindrance to the driver's safe driving.
  • a trouble level calculator that calculates the degree of hindrance, a tuning unit that sets a threshold for dividing the hindrance level into levels, and a guide content that determines the content of a guide that improves vehicle safety according to the level.
  • a determining unit and a guide content implementing unit that implements the guide content determined by the guide content determining unit are provided.
  • a system for calculating the degree of obstacle is referred to as a degree-of-obstruction calculating system 1, and a system for determining guide contents and performing guidance according to the calculated degree of obstacle is referred to as a driving guide system 2.
  • the driving guide system 2 includes the obstacle degree calculation system 1.
  • the driving guide system 2 includes a control unit such as a trouble level calculation unit 21, a tuning execution unit 22, a guide content determination unit 23, a navigation control unit 24, a HUD (Head-Up Display) control unit 25, and a dialogue control unit 26.
  • the utterance generation unit 26a, the speaker 26b, the in-vehicle camera 28, the communication unit 29, and the hazard 20 are provided.
  • As the speaker 26b a speaker for an audio device provided inside the vehicle may be used. These are communicatively connected by a communication line 32.
  • the communication line 32 is, for example, an in-vehicle LAN, CAN or the like.
  • the driving guide system 2 includes a hazard 20 that informs surrounding vehicles of an abnormality.
  • the DSM 10 takes a picture of the driver's face with the camera 10a and detects the driver's state by image analysis.
  • the DSM 10 is a device that can detect the inattentiveness, drowsiness, dozing, and inappropriate driving posture of the driver while driving.
  • the microphone 11 functions, for example, as a voice sensor that detects a voice or the like in the vehicle.
  • the voice data acquired by the microphone 11 is transmitted to the trouble calculation section 21 and the dialogue control section 26 for analysis, and the content thereof is recognized.
  • the Clock 14 outputs the time.
  • the brake sensor 15 functions as a sensor that measures the driver's force on the brake by detecting the oil pressure in the brake master cylinder of the vehicle.
  • the throttle sensor 16 functions as a sensor that measures the opening of the accelerator (throttle).
  • the steering angle sensor 17 functions as a sensor that measures the steering angle of the steering wheel.
  • the seat pressure sensor 18 functions as a sensor that measures the pressure on the seat surface of each seat in the vehicle.
  • the LIDAR 19 functions as a sensor that measures scattered light with respect to laser irradiation and measures a distance to an object at a long distance.
  • the in-vehicle camera 28 functions as a sensor that captures the situation inside the vehicle. The sensor information acquired by these sensors is transmitted to the obstacle degree calculation unit 21.
  • Each of the obstacle degree calculation unit 21, the tuning execution unit 22, the guide content determination unit 23, the navigation control unit 24, the HUD control unit 25, and the dialogue control unit 26 includes a CPU, DRAM, SRAM, ROM, I / O, etc., which are not shown. It is mainly composed of a microcomputer.
  • the functions of the difficulty level calculation unit 21, the tuning execution unit 22, the guide content determination unit 23, the navigation control unit 24, the HUD control unit 25, and the dialogue control unit 26 are realized by executing a program stored in a ROM, for example. To be done.
  • the navigation control unit 24, the HUD control unit 25, and the dialogue control unit 26 execute guide processing according to the guide content determined by the guide content determination unit 23.
  • the HUD control unit 25 displays information in the driver's visual field.
  • the navigation control unit 24 mainly controls a navigation system that executes vehicle guidance.
  • the navigation control unit 24 displays the guide content generated by the guide content determination unit 23 on the display unit 24a and the HUD control unit 25 on the HUD 25a.
  • the obstacle level calculation system 1 estimates the degree of obstacle for safe driving of the driver from the driving state of the driver, the inside of the vehicle, and the surroundings.
  • the obstacle degree is calculated by the obstacle degree calculation unit 21.
  • y is an objective variable
  • x is an explanatory variable
  • a1 and a2 are regression coefficients
  • a0 is a constant term
  • e is the base of natural logarithm.
  • Analysis using the logistic regression equation is called logistic regression analysis, and the contribution of the explanatory variable used in the calculation of the probability value to the objective variable is clarified.
  • the explanatory variable is the characteristic amount shown in FIG. 2, and the objective variable is the degree of trouble.
  • the trouble level is calculated by the equation (1).
  • the driving guide system 2 guides the driver in accordance with the calculated obstacle level, and alerts the driver, passengers, and persons outside the vehicle.
  • Situation 1 The driver cannot concentrate on driving due to an accident in the vehicle while driving
  • Driving Situation 2 Passengers and surrounding vehicles do not notice the driver's abnormality
  • the degree of hindrance is a value from 0 to 1, that is, a probability value calculated by a logistic regression equation using the above-mentioned feature amount, that is, an explanatory variable.
  • the coefficient of the logistic regression equation is calculated from learning data acquired as sample information in advance.
  • the output of the logistic regression analysis is a probability value, and the contribution of each feature value to the degree of trouble is also calculated.
  • the probability value is easy to handle when making a guide decision using the degree of obstacle. Further, the contribution degree is useful at the time of learning when selecting a feature effective for estimating the degree of trouble from various features.
  • the influence of the vehicle type influences the level of the obstacle level of "cannot drive” in level 3. If a truck or a bus causes an accident, the weight of the vehicle may cause a serious accident. Further, in the case of high-speed buses and transport trucks, there is often only one driver, so if it is dangerous, it is necessary to promptly notify the surrounding vehicles and the customer center 31 (for example, the operation monitoring center of the transportation company). Is. Therefore, as shown in "Influence of vehicle type” in Fig. 3, the range of "cannot drive” of level 3 is set wider than "standard”. Along with this, the threshold is set so as to narrow the range of level 0 and level 1.
  • the content of the guide includes any one of presenting the guide to the driver, presenting the guide to the passenger, and setting the recommended stop position on the navigation system as the next destination.
  • the content of the guide for example, when the degree of obstacle is level 2, a warning is given to the driver or passenger by the voice agent controlled by the dialogue control unit 26, and the customer center 31 is also sent via the communication unit 29.
  • the operator of the customer center 31 issues a warning to the driver and guides.
  • the navigation system may be equipped with a warning alarm function to warn the driver.
  • the face data of the driver photographed by the in-vehicle camera 28 and a threshold for level-dividing the obstacle level may be registered in advance in association with each other.
  • the setting may be performed by reading a threshold value for level-dividing the degree of trouble associated with the face data authentication of the driver acquired by the in-vehicle camera 28.
  • the guide content determination unit 23 determines the level 1 of the obstacle level (S5), and determines the guide content corresponding to the level 1 of the obstacle level.
  • the voice agent controlled by the dialogue control unit 26 asks A, for example, “Please concentrate on driving. If you have any concerns, stop and check. . "Etc.
  • control unit and its method described in the present disclosure are realized by a dedicated computer provided by configuring a processor and a memory programmed to execute one or more functions embodied by a computer program. May be.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.
  • control unit and the method thereof described in the present disclosure are based on a combination of a processor and a memory programmed to execute one or a plurality of functions and a processor configured by one or more hardware logic circuits. It may be realized by one or more dedicated computers configured.
  • the computer program may be stored in a computer-readable non-transition tangible recording medium as an instruction executed by the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

支障度算出システムは、ドライバの安全運転を妨げる要因に関するデータを取得するセンサ(10、11、12、13,14、15,16,17,18、19、28)と、前記ドライバの安全運転を妨げる要因に基づいて、ドライバの安全運転に対する支障の度合いを示す支障度を算出する支障度算出部(21)と、を備える。

Description

支障度算出システム、及び、運転ガイドシステム 関連出願の相互参照
 本出願は、2018年10月19日に出願された日本出願番号2018-197525号、及び、2018年10月19日に出願された日本出願番号2018-197526号に基づくもので、ここにその記載内容を援用する。
 本開示は、支障度算出システム、及び、運転ガイドシステムに関する。
 眠気、酒酔い、あるいは他の原因によるドライバの運転能力の異常を検出し、異常な場合に警告を発するシステムが提案されている(特許文献1)。
特表2000-515829号公報
 しかし、ドライバの運転不可能とまではいかないが、運転に支障が生じている場合があり、これも含めてドライバに運転ガイドを実施するシステムは存在していない。
 本開示は、ドライバにおける安全運転に対する支障度を算出する支障度算出システムを提供することを目的とする。
 また、本開示は、ドライバにおける安全運転に対する支障度を算出し、支障度に応じてドライバ等にガイドを実施する運転ガイドシステムを提供することを目的とする。
 本開示の一態様によれば、支障度算出システムは、ドライバの安全運転を妨げる要因に関するデータを取得するセンサと、前記ドライバの安全運転を妨げる要因に基づいて、ドライバの安全運転に対する支障の度合いを示す支障度を算出する支障度算出部と、を備える。この構成によれば、ドライバにおける安全運転に対する支障度を算出する支障度算出システムを提供することができる。
 本開示の他の一態様によれば、運転ガイドシステムは、ドライバの安全運転を妨げる要因に関するデータを取得するセンサと、前記ドライバの安全運転を妨げる要因に基づいて、ドライバの安全運転に対する支障の度合いを示す支障度を算出する支障度算出部と、支障度をレベル分割するための閾値を設定するチューニング実施部と、前記レベルに応じて車両の安全を向上させるガイドの内容を決定するガイド内容決定部と、前記ガイド内容決定部により決定されたガイド内容を実施するガイド内容実施部と、を備える。
 本開示についての上記目的及びその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
実施形態に係る運転ガイドシステムの概略構成を示すブロック図であり、 特徴と特徴量の概略を示す図であり、 支障度のレベルのチューニング例の概略を示す図であり、 支障度のレベル決定の処理の概略を示すフロー図であり、 支障度のレベルとガイド内容の概要を示す図であり、 運転ガイドシステムにおける処理の概略を示すフロー図であり、 動作例の概略を示す図であり、 動作例の概略を示す図であり、 動作例の概略を示す図である。
 以下、実施形態について図面を参照して説明する。以下の説明において前出と同様の要素については同様の符号を付し、その説明については省略する。また、以下の説明で、支障度を算出するシステムを支障度算出システム1と称し、算出された支障度に応じてガイド内容を決定しガイドを実施するシステムを運転ガイドシステム2と称する。運転ガイドシステム2は支障度算出システム1を含むものである。
 図1に、実施形態に係る支障度算出システム1を含む運転ガイドシステム2の概略構成を示すブロック図を示す。図1に示すように、運転ガイドシステム2は、ドライバステータスモニター(DSM)10、マイク11、車速センサ12、衛星測位システム13、時計14、ブレーキセンサ15、スロットルセンサ16、舵角センサ17、シート圧センサ18、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)19等の種々のセンサ類を備えている。
 また、運転ガイドシステム2は、支障度算出部21、チューニング実施部22、ガイド内容決定部23、ナビゲーション制御部24、HUD(Head-Up Display)制御部25、対話制御部26等の制御部、発話生成部26a、スピーカ26b、車内カメラ28、通信部29、及びハザード20を備えている。スピーカ26bは、車内に設けられたオーディオ機器用のスピーカを利用してもよい。これらは、通信線32により通信可能に接続されている。通信線32は例えば車内LAN、CAN等である。また、運転ガイドシステム2は周囲の車両に異常を知らせるハザード20を備えている。
 DSM10は、ドライバの顔をカメラ10aで撮影し、画像解析によりドライバの状態を検出する。DSM10は運転中のドライバの脇見・眠気・居眠り・不適切な運転姿勢の状態等を検知することができる装置である。マイク11は例えば、車内の音声等を検出する音声センサとして機能する。マイク11により取得された音声データは支障度算出部21及び対話制御部26に送信されて解析され、その内容が認識される。
 車速センサ12は車両の速度を測定するセンサとして機能する。衛星測位システム13は地図上の車両の位置及び時刻を検知するセンサとして機能する。衛星測位システム13としては例えば全地球衛星系システム、及び地域衛星系システム等が有る。全地球衛星系システムとしては、GPS、Galileo、GLONASS等があり、地域衛星系システムとしては、みちびき等がある。
 時計14は時刻を出力する。ブレーキセンサ15は車両のブレーキマスタシリンダのオイル圧を検出することによりドライバのブレーキを踏む力を測定するセンサとして機能する。スロットルセンサ16はアクセル(スロットル)の開度を測定するセンサとして機能する。舵角センサ17はハンドルの舵角を測定するセンサとして機能する。シート圧センサ18は車両内の各シートの座面の圧力を測定するセンサとして機能する。LIDAR19はレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離を測定するセンサとして機能する。車内カメラ28は車内の状況を撮影するセンサとして機能する。これらセンサ類で取得されたセンサ情報は支障度算出部21に送信される。
 支障度算出部21、チューニング実施部22、ガイド内容決定部23、ナビゲーション制御部24、HUD制御部25、対話制御部26のそれぞれは、図示しないCPU、DRAM、SRAM、ROM、I/O等を備えるマイクロコンピュータを主体として構成されている。支障度算出部21、チューニング実施部22、ガイド内容決定部23、ナビゲーション制御部24、HUD制御部25、対話制御部26のそれぞれにおける機能は、例えばROMに記憶されたプログラムを実行することにより実現される。
 これら支障度算出部21、チューニング実施部22、ガイド内容決定部23、ナビゲーション制御部24、HUD制御部25、対話制御部26等は制御部として機能する。これらは一体的に構成された制御部として構成してもよい。
 支障度算出部21は上記各種センサ類から送信されたセンサ情報を基にして、支障度を算出する。算出された支障度はチューニング実施部22及びガイド内容決定部23に送信される。チューニング実施部22は支障度を閾値によりレベル分割する。ガイド内容決定部23は支障度のレベルに応じて車両の安全を向上させるガイドの内容を決定する。ガイド内容はガイド内容データベース23aに格納されており、支障度に応じてガイド内容決定部23が読み出して決定する。支障度の算出については後述する。
 ナビゲーション制御部24、HUD制御部25、対話制御部26は、ガイド内容決定部23によって決定されたガイド内容に応じてガイド処理を実行する。HUD制御部25は、ドライバの視野に情報を映し出すものである。ナビゲーション制御部24は、主として車両の道案内を実行するナビゲーションシステムを制御する。ナビゲーション制御部24は表示部24aに、HUD制御部25はHUD25aに、ガイド内容決定部23で生成されたガイド内容を表示する。
 スピーカ26bは、ガイド内容決定部23よって決定されたガイド内容に応じて対話制御部26が生成した発話内容に応じて発話生成部26aが生成する音声を出力する音声発生部として機能する。音声データベース27は発話生成部26aで使用される音声データを格納している。また、対話制御部26は、発話生成部26a、スピーカ26b、及びマイク11を介して、ドライバ又は乗員との対話を制御する。
 車内カメラ28は車両の内部映像を取得し、映像データは支障度算出部21及びガイド内容決定部23に送信されて分析される。例えば、車両に何人の乗車者がどの座席に着座しているか、後部座席や助手席等に置いたものが落下した場合にどこに落ちたか、等が識別される。
 通信部29は無線通信網30を介した無線通信によりカスタマセンタ31に接続されており、カスタマセンタ31との間で種々のデータの授受を実施する。通信部29は独立した通信部として構成してもよいし、例えばDSM10が備える通信部を利用するようにしてもよい。
 (支障度について)
 本実施形態における支障度算出システム1は、ドライバの運転状況、車内の状況や周辺状況から、ドライバの安全運転に対する支障度を推定する。支障度は支障度算出部21によって算出される。
 実施形態における支障度とは、出発地を出発し目的地に到着する間に安全運転を妨げる要因によるドライバへの影響度合、と定義する。この支障度は、ドライバの心的変化による安全運転への影響も考慮している。ドライバの安全運転を妨げる要因には、少なくとも、車両種別、車両の速度及び加速度、車両の位置、時刻、ドライバの状況、同乗者の状況、車内の状況、の何れかを含む。
 (支障度の算出方法)
 ドライバの運転状況、車内の状況や周辺状況は、DSM10により検出されるドライバの状況、マイク11により検出される車内の音声、車速センサ12によって検出される車速及び加速度、衛星測位システム13によって検出される車両の位置情報、時計14から取得される現在時刻、ブレーキセンサ15、スロットルセンサ16及び舵角センサ17により検出される車両操作情報、シート圧センサ18により検出される同乗者の人数や着座位置、車内カメラ28により取得される車内状況等により認識される。マイク11により取得された車内の会話等の音声データは支障度算出部21及び対話制御部26に送信されて解析され、会話内容、発話内容が認識される。
 支障度は、これらの情報を説明変数として、機械学習の一つであるロジスティック回帰式を計算し、算出した確率値<0-1>を目的変数の範囲によって分類することで算出する。以下にロジスティック回帰式を示す。
Figure JPOXMLDOC01-appb-M000001
 (1)式において、yは目的変数、xは説明変数、a1、a2は回帰係数、a0は定数項、eは自然対数の底である。ロジスティック回帰式を用いた分析をロジスティック回帰分析といい、確率値の算出、関係式に用いた説明変数の目的変数に対する貢献度を明らかにする。実施形態においては、説明変数は図2に示す特徴量であり、目的変数は支障度である。実施形態において、(1)式により、支障度が算出される。
 運転ガイドシステム2は、この支障度のレベルに応じて、音声エージェントにより乗員や周辺車両へのアナウンスを行う。音声エージェントは、対話制御部26において、ROMに記憶されたプログラムを実行することにより実現される。音声エージェントは、イメージキャラクタは用いず、ドライバに対するガイドが必要なときに、音声でドライバと対話を行うことにより下記に詳説する車両の安全運航に関するガイドを提供する。
 運転ガイドシステム2は、以下のような状況の場合に、算出した支障度に応じて、例えば、ドライバにガイドを実施するとともに、ドライバ、乗員、及び車外の者に対して注意喚起を実施する。
 状況1:運転時における車内のアクシデントにより、ドライバが運転に集中できない
 状況2:同乗者や周囲の車両がドライバの異常に気づけない 
 実施形態は、状況1のようなドライバの心的変化による安全運転への影響を、支障度という値で表現する。つまり、車内から得られる情報を用いて、安全運転に対する支障度を算出する。支障度の算出には、車内から得られる情報を利用する(図2参照)。
 実施形態に係る運転ガイドシステム2では、車内のアクシデントを、取得した種々の情報から総合的に評価付けを行い、機械学習の一つであるロジスティック回帰式により算出した汎用性の高い確率値(目的変数)を利用して支障度を得る。
 (支障度の算出の具体例)
 次に、支障度の算出について説明する。
 支障度は、例えば図2に示す特徴量すなわち、DSM10により取得される眠気検知情報、マイク11により取得される音声分析による入力音判別結果、舵角センサ17によるハンドル操作の加速度、車速センサ12、衛星測位システム13、ブレーキセンサ15及びスロットルセンサ16から総合的に検知される車両の速度及び加速度、シート圧センサ18等から得られる乗車人数などを利用して算出される。また、車内カメラ28によって取得される車内の状況情報、衛星測位システム13やLIDAR19から得られる周辺情報などを利用して算出してもよい。なお、図2中「1/0」は「有り/無し」に対応する。
 支障度は、上記の特徴量すなわち説明変数を使用してロジスティック回帰式により算出された0から1までの値すなわち確率値である。ロジスティック回帰式の係数は、事前にサンプル情報として取得した学習データから算出する。ロジスティック回帰分析の出力は確率値であり、支障度に対する各特徴値の寄与度も算出される。確率値は、支障度を用いて、ガイド決定を行う上で扱いやすい。また、寄与度は、学習時点で、様々な特徴から支障度の推定に有効な特徴を選択する際に有用である。
 実施形態において、支障度は、ドライバへの影響度合に応じて、次の4つレベル分けられる。
   支障度:支障の程度
     0:支障なし
     1:運転中に気になる
     2:運転の妨げになる
     3:運転できない
 支障度のレベル0は、ドライバの運転に影響がなく、安全運転の継続について支障が無い場合を意味する。レベル1は、例えば、一人での運転中に後部座席に置いた物がフットシートに落ちた場合を考える。この場合、ドライバの安全に対して、直接的に影響はない、すなわち運転を直接妨害するものではない。しかし、落ちた物がどうなったか気になるという点でドライバの集中を阻害するため、安全運転を妨げる要因となる。ドライバに直接的に影響はないが、ドライバに心的悪影響を与える状態に対応する。
 レベル2は、ドライバ自身は運転できているが、ドライバの足元に物が落ちた場合など、直接的にドライバの運転の妨げになりうる状態に対応する。レベル3は、例えば、ドライバが眠気を催した等、ドライバの運行自体にクリティカルに問題があるため、運転を継続することが適当でない状態に対応する。
 (支障度のレベル分割のための閾値の設定)
 このチューニングのための閾値の設定を、図3を使って説明する。縦軸は、支障度の値である。ここではデフォルトを図3の「標準」のように閾値設定するものとする。標準の閾値設定は、支障度のレベル0から1を0.25ずつ等分となるようにレベル分割したものである。
 次に、車両種別による影響を考慮した「車両種別の影響」の設定での考え方について説明する。車両種別の影響は、レベル3の「運転できない」の支障度の範囲に影響する。トラックやバスが事故を起こした場合、車両の重量の影響により、重大事故につながる恐れが高い。また、高速バスや運搬トラックの場合、運転手は一名の場合も多いため、危険な場合、周囲の車両やカスタマセンタ31(例えば運送会社の運行監視センタ)などへの通知を迅速に行うべきである。そのため、図3の「車両種別の影響」のように、レベル3の「運転できない」の範囲を「標準」よりも広げて設定する。これに伴い、レベル0及びレベル1の範囲を狭くするように閾値を設定する。
 次に、運転経験による影響を考慮した「経験年数の影響」の設定での考え方について説明する。運転経験の影響は、レベル1「気になる」の範囲とレベル2「妨げになる」の範囲に影響する。運転経験が浅い場合、ちょっとした支障でも運転の妨げになる可能性がある。そのため、図3の「運転経験の影響」のようにレベル2「妨げになる」の範囲を広げる。これに伴い、レベル1「気になる」の範囲を狭くする。
 一方で、運転経験が長い場合は、ちょっとした支障では、ドライバの心的変化には影響しないため、レベル1「気になる」の範囲を狭くし、レベル0「支障なし」の範囲を広く設定するようにしてもよい。
 (支障度の算出フロー)
 次に、図4を参照して支障度算出システム1における支障度の算出フローについて説明する。まず、車両のイグニッションのオン(IG ON)により支障度算出システム1が起動し、ナビゲーション制御部24の表示部24aが入力待機状態となる(S1)。
 次に、ユーザによる支障度のチューニングを実行する(S2)。支障度のチューニングは例えば表示部24aに表示された選択項目を選択することにより実施することができる。選択項目はメーカにより予め設定しておくか、あるいは、ユーザにより事前に設定しておく。また上述のように、車内カメラ28による顔データ認識により予め顔データに紐づけられた支障度の閾値を呼び出すことによりをチューニングするようにしてもよい。
 その後、種々のセンサデータの取得が開始される(S3)。支障度算出システム1は、センサデータをもとに、ロジスティック回帰式を演算し(S4)、設定された支障度のチューニングに基づいて支障度を決定する(S5)。その後、イグニッションOFFとなるまで、センサデータを取得し続ける(S6)。
 (ガイドの内容)
 次に、支障度のレベルに応じたガイド内容について説明する。
 ガイド内容は、支障度と車外情報に基づいてガイド内容決定部23によって決定される。支障度は支障度算出部21によって算出される。車外情報は、LIDAR19により検出される。ガイド内容決定部23は、決定したガイド内容に応じて、対話制御部26及び発話生成部26aを制御し、音声エージェントを実行して、乗員や周辺車両に対するガイドを実施する。
 ガイド内容には、ドライバに対するガイドの提示、同乗者に対するガイドの提示、及びナビゲーションシステムへの停車推奨位置の次目的地としての設定、の何れかを含む。
 ガイドの内容としては、例えば、支障度がレベル2の場合は、ドライバや同乗者に対して対話制御部26によって制御される音声エージェントによって警告が実施されるとともに、通信部29経由でカスタマセンタ31に接続し、カスタマセンタ31のオペレータからドライバに警告を実施する等のガイドが実施される。また、ナビゲーションシステムに警告アラーム機能を搭載させて、ドライバに警告を実施するようにしてもよい。
 また、支障度がレベル1の場合は、対話制御部26の制御による音声エージェントがドライバに対して「気にしなくていいよ、運転に集中してください」等のように発話したり、同乗者にドライバが気になっている点を解決するように働きかける等のガイドを実施する。
 ガイド内容決定には、支障度の他に、車外情報も利用される。安全運転の判断は周囲の環境によって異なるためである。車外情報は、LIDAR19により検出される周囲情報、及び、衛星測位システム13による位置情報と地図情報から把握される周囲情報から認識される。
 LIDAR19によれば、対象までの距離やその対象の性質を分析することが可能であるため、周囲の道路状況、周囲に他の車両や人等が存在するか否かなどの情報を把握することができる。衛星測位システム13による位置情報と地図情報からは、地図データとして記憶されている道路状況、地物等を認識可能である。また、衛星測位システム13による位置情報と地図情報から、車両が現在、高速道路を走行しているのか、一般道路を走行しているのか、等の情報も取得することが可能である。
 例えば、支障度のレベルが高い場合に、車両が一般道路を走行している場合と高速道路を走っている場合ではガイド内容を変更する必要がある。一般道路の場合は、すぐに駐停車可能区域に車を止めるようにドライバにガイドすることができるが、高速道路の場合は、路側帯や路肩に停車できないため、近くのサービスエリアまたはパーキングエリアに停車するか、高速道路を降りるなどのガイドが実施される。
 また、ガイド内容の決定には、シート圧センサ18により取得された情報も利用する。ドライバ以外の同乗者が存在する場合は運転ガイドシステム2がドライバだけでなく同乗者に対してもガイドすることが可能であるからである。
 図5に支障度のレベル、走行道路、周囲状況、同乗者の有無によるガイド内容例を示す。また、図6にガイド内容決定部23によるガイド実施のフロー図を示す。
 まず、ガイド内容決定部23は、支障度算出部21によって算出された支障度がレベル0か否かを判定する(S11)。支障度のレベルが0でない場合、すなわち支障度のレベルが1,2または3の場合は、LIDAR19及び衛星測位システム13から車外情報を取得する(S12)。
 次に、ガイド内容決定部23は、支障度のレベル及び外部情報に基づいてガイド内容を決定する(S13)。次に、運転ガイドシステム2は、決定されたガイド内容に基づいて、ドライバ、同乗者に対してガイドを実施する(S14)。ガイドとしては、ナビゲーション制御部24による表示部24aへの表示によるガイド、HUD制御部25によるHUD25aへの表示によるガイド、及び、対話制御部26により制御された音声エージェントによる発話によるガイドがある。
 また、通信部29、無線通信網30を介してカスタマセンタ31のオペレータによる発話によるガイドの提供を受けてもよい。その後、ガイドが終了した場合は(S15)、運転ガイドシステム2はガイドを終了し、支障度の判定(S11)に戻る。
 (チューニングの具体例)
 次に、所定の閾値による支障度のレベル分割のチューニングについて図7を用いて説明する。支障度のチューニングはチューニング実施部22が実行する。チューニング実施部22は、支障度をレベル分割するための閾値を設定する。
 例えば、図7に示すように、普段乗用車に乗っている人物Aが引っ越しのために、トラックをレンタルした場合を想定する。この場合、人物Aの当該車両の運転経験は0年、車両の種別はトラックとなる。これらのパラメータからこの人物は運転したことがない車両に乗ることがわかるため、普段ならば、レベル1(運転中に気になる)と判定されるような状況でも、レベル2(運転の妨げになる)と判定したほうが好適である。
 そこで、支障度のレベル0から3が適切な判定となるように、算出された支障度の閾値によるレベル分割において、閾値を設定するチューニングを行う。このチューニングは、例えば、レンタカーや大型バスなどに乗る運転手が、各自のスマートフォンやナビモジュールで運転前に設定しておくことで支障度の閾値を設定する。
 また、例えば、自家用車であれば、あらかじめ車内カメラ28で撮影したドライバの顔データと支障度をレベル分割するための閾値を事前に紐づけ登録しておくことで、例えば車両に乗車した際に車内カメラ28によって取得されたドライバの顔データ認証に紐づけられた支障度をレベル分割する閾値を読み出すことで設定を実施するようにしてもよい。
 次に、図7の人物Bがドライバとして乗車した場合について説明する。Bが車両のイグニッションをONすると(S1)、支障度算出システム1が起動し、ナビゲーション制御部24の表示部24aが起動する。また、車内カメラ28がBの顔認識を実行する。この場合、Bの顔画像は支障度算出システム1に登録されているものとする。
 車内カメラ28で取得された顔画像はデータベースと照合され、支障度算出システム1は事前に登録されたBの顔との合致を検知する。その後、Bの顔データに紐づけられた支障度の閾値を呼び出すことによりチューニングを実施する(S2)。
 (動作例)
 図7及び図8を参照して、支障度算出システム1及び運転ガイドシステム2の具体的な動作例を説明する。まず、図7の人物Aがドライバとして乗車した場合について説明する。Aが車両のイグニッションをONすると(S1)、支障度算出システム1が起動し、ナビゲーション制御部24の表示部24aが起動する。この場合、Aの顔画像は支障度算出システム1に登録されていない。
 車内カメラ28はAの顔認識を試みるが、Aの顔画像は支障度算出システム1に登録されていないため顔認証は不成立となり、チューニング実施部22は、支障度のレベル分割のチューニングをドライバに要求する。チューニングは例えば予め準備された選択肢からの選択式で実施され、車両種別とその車両の運転経験を入力させる。この操作により、例えば図8に示すように支障度のレベル分類が、選択項目に応じた閾値の設定によりチューニングされる(S2)。
 次に、Aが運行を開始すると、車両に取り付けられたDSM10、マイク11、車速センサ12、衛星測位システム13、時計14、ブレーキセンサ15、スロットルセンサ16、舵角センサ17、シート圧センサ18、LIDAR19、車内カメラ28などから送信されるセンサデータを取得し(S3)、ロジスティック回帰式の演算を実行する(S4)。
 ここで、例えば図8の時刻T1になった時点で、トラックの車内で何か物が動いた音がしたため、ドライバの視線やブレーキ制御に変化があったとする。車内の物の動き等、Aに対する影響は、DSM10によるAの顔映像情報、マイク11により取得された車内の音声情報、車内カメラ28により取得された車内映像情報を解析することにより検知される。
 その後、Aがトラックの中で図示しないハンドルを操作するたびに、荷物が左右に動く音がするため、入力音判別結果(図2参照)の特徴量に対するロジスティック回帰式(1)の回帰係数を大きくしていき、支障度は徐々に上昇する。支障度が閾値0.30を超えると、ガイド内容決定部23は支障度のレベル1を決定し(S5)、支障度のレベル1に対応するガイド内容を決定する。決定されたガイド内容に対応して、対話制御部26の制御による音声エージェントがAに対して、例えば「運転に集中してください。何か気になることがあれば、停車して確認しましょう。」等と発話する。
 このような発話情報は音声データベース27に記憶されている。Aはこの発話を受けて、一旦停車し、荷物に問題がないことを確認する。その後の運転状況においては支障度を上昇させる要因は消滅するため、支障度を下げることができる。
 その後、しばらく順調に運行していたが、時刻T2のときに、DSM10がAのあくびを検知した。あくびは眠気に関連が大きいため、DSM眠気検知(図2参照)の特徴量に対するロジスティック回帰式(1)の回帰係数を大きくしていき、支障度は徐々に上昇する。支障度が上昇し、閾値0.45を超えると、ガイド内容決定部23は支障度のレベル2を決定し(S5)、支障度2に対応するガイド内容を決定する。
 決定されたガイド内容に対応して、対話制御部26の制御による音声エージェントがAに対して、例えば「大丈夫ですか?」等と発話し、さらに「前方の〇〇に一旦停止しませんか?」等と発話し、HUD25aに停車場所を表示する。同様の内容をナビゲーション制御部24の表示部24a、又はHUD25aに表示してもよい。この場合、ナビゲーション制御部24、表示部24a、HUD制御部25、HUD25a、対話制御部26、発話生成部26a、スピーカ26bはガイド内容実施部として機能する。
 Aは音声エージェントのガイドに従い停車する。停車後、音声エージェントは「〇〇で休憩しましょう」等と発話し、ナビゲーション制御部24の表示部24aで休憩候補場所を提示する。ドライバはその場所を中継地点もしくは目標地点として設定し、運行を再開する。
 同乗者が存在している場合で、同乗者が覚醒している場合は、同乗者に「運転手さんが眠そうだよ!会話してあげて!」等というガイドや、「近くのコンビニで一旦休憩しよう」等というガイドを発話し、表示部24aやHUD25aにコンビニの位置情報を表示する。
 車両が自動運転システムを搭載している場合は、車両の運転を制御して、車両及び周辺の安全を確保しつつ、路肩に停車させる、サービスエリアまたはコンビニエンスストアの駐車場に駐車させる、等の制御を行ってもよい。また、支障度が高い場合は、周辺の車両やカスタマセンタ31等にも通知を行うようにしてもよい。
 次に、図7の人物Bがドライバとして乗車した場合について説明する。Bが車両のイグニッションをONし(S1)、車内カメラ28がBによる顔認識によりBの顔データに紐づけられた支障度の閾値を呼び出すことによりチューニングが実施される。Bは、目的地までの途中まで運転に集中できていたものの、図9に示すように、時刻T3の時点で、高速道路を長期間運転し、夕方の時間帯になり、渋滞にはまってしまったため、眠気が生じた。そのため、ハンドル操作の加速度(図2参照)やDSM10による眠気検知により、支障度が上昇し、レベル3となっている。
 この場合、支障度算出システム1は、B及び同乗者に対話制御部26の制御による音声エージェントを介して、「起きてください!」等の発話をする。居眠り運転は危険性が高いため、まずはドライバや同乗者を覚醒させるために、大きな音で再生する。ドライバも同乗者も反応が無い場合は、通信部29を介してカスタマセンタ31などに通知し、カスタマセンタ31駐在のオペレータ等から車内スピーカ26bを介して車内の乗員に語りかけを行う。これによりドライバであるB及び同乗者に注意を喚起し、事故の発生を未然に防止する。このような場合、支障度算出システム1は車両のハザード20を点滅させ、周囲に危険を知らせる。また、車車間通信システムを搭載する車両である場合は、車車間通信システムを用いて周囲の車両に危険を知らせるようにしてもよい。
 また、ガイド内容決定部23によるガイド内容は、ドライバの判断を極力少なくすることで、運転に集中させるように設定されている。例えば、ドライバの眠気により、支障度が上昇した場合には、ガイド内容決定部23は、複数の停車場所を提示するのではなく、あえて1箇所のみを提示するように設定されている。これにより、ドライバの判断を減らすことに車両運行の安全を確保するようにしている。
 実施形態に係る運転ガイドシステム2によれば以下の効果を奏する。
 支障度算出システム1によって算出される支障度は、機械学習により算出されるため、支障度が確率値(すなわち目的変数)で提供される。また、各特徴値(すなわち説明変数)の寄与度がその係数として提供される。これにより、支障度の閾値によるレベル分割における閾値の設定すなわちチューニングを容易に実施することができる。また、算出された支障度を閾値によってレベルに分割し、レベルに応じてドライバに対するガイドを決定する運転ガイドシステム2を提供することができる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することにより提供された専用コンピュータにより実現されても良い。或いは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によりプロセッサを構成することにより提供された専用コンピュータにより実現されても良い。若しくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路により構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより実現されても良い。又、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていても良い。
 実施形態において、機械学習の一例としてロジスティック回帰式を用いて支障度の算出を行ったが、他に、サポートベクターマシンや、ディープラーニング等の手法を用いて支障度を算出するようにしてもよい。
 

Claims (12)

  1.  ドライバの安全運転を妨げる要因に関するデータを取得するセンサ(10、11、12、13,14、15,16,17,18、19、28)と、
     前記ドライバの安全運転を妨げる要因に基づいて、ドライバの安全運転に対する支障の度合いを示す支障度を算出する支障度算出部(21)と、を備える支障度算出システム。
  2.  前記支障度は、機械学習により算出する請求項1に記載の支障度算出システム。
  3.  前記支障度は、ロジスティック回帰式により算出する請求項1または2に記載の支障度算出システム。
  4.  目的変数を支障度とし、説明変数をドライバの安全運転を妨げる要因とする請求項3に記載の支障度算出システム。
  5.  ドライバの安全運転を妨げる要因は、少なくとも、車両種別、車両の速度及び加速度、車両の位置、時刻、ドライバの状況、同乗者の状況、車内の状況、の何れかを含む請求項1から4の何れか一項に記載の支障度算出システム。
  6.  ドライバの安全運転を妨げる要因に関するデータを取得するセンサ(10、11、12、13,14、15,16,17,18、19、28)と、
     前記ドライバの安全運転を妨げる要因に基づいて、ドライバの安全運転に対する支障の度合いを示す支障度を算出する支障度算出部(21)と、
     支障度をレベル分割するための閾値を設定するチューニング実施部(22)と、
     前記レベルに応じて車両の安全を向上させるガイドの内容を決定するガイド内容決定部(23)と、
     前記ガイド内容決定部により決定されたガイド内容を実施するガイド内容実施部(24、24a、25、25a、26)と、を備える運転ガイドシステム。
  7.  前記対話制御部によって決定されるガイド内容には、ドライバに対するガイドの提示、同乗者に対するガイドの提示、及びナビゲーションシステムへの停車推奨位置の次目的地としての設定、の何れかを含む請求項6に記載の運転ガイドシステム。
  8.  前記支障度は、ドライバの安全運転に対する支障の度合いにより設定された閾値によりレベル分割され、分割された前記レベルに応じて前記ガイド内容の何れかが設定される請求項7に記載の運転ガイドシステム。
  9.  前記支障度は、機械学習により算出する請求項6から8の何れか一項に記載の運転ガイドシステム。
  10.  前記支障度は、ロジスティック回帰式により算出する請求項9に記載の運転ガイドシステム。
  11.  目的変数を支障度とし、説明変数をドライバの安全運転を妨げる要因とする請求項10に記載の運転ガイドシステム。
  12.  ドライバの安全運転を妨げる要因は、少なくとも、車両の種別、車両の車速、加速度、車両の位置、時刻、ドライバの状況、同乗者の状況、車内の状況、の何れかを含む請求項6から11の何れか一項に記載の運転ガイドシステム。
     
PCT/JP2019/035339 2018-10-19 2019-09-09 支障度算出システム、及び、運転ガイドシステム WO2020079990A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112019005224.1T DE112019005224T5 (de) 2018-10-19 2019-09-09 Störungsgradberechnungssystem und Fahrführungssystem
US17/231,643 US20210229677A1 (en) 2018-10-19 2021-04-15 Disturbance degree calculation system and driving guide system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018197526A JP2020064554A (ja) 2018-10-19 2018-10-19 運転ガイドシステム
JP2018-197526 2018-10-19
JP2018-197525 2018-10-19
JP2018197525A JP2020064553A (ja) 2018-10-19 2018-10-19 支障度算出システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/231,643 Continuation US20210229677A1 (en) 2018-10-19 2021-04-15 Disturbance degree calculation system and driving guide system

Publications (1)

Publication Number Publication Date
WO2020079990A1 true WO2020079990A1 (ja) 2020-04-23

Family

ID=70283412

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035339 WO2020079990A1 (ja) 2018-10-19 2019-09-09 支障度算出システム、及び、運転ガイドシステム

Country Status (3)

Country Link
US (1) US20210229677A1 (ja)
DE (1) DE112019005224T5 (ja)
WO (1) WO2020079990A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018206717A1 (de) * 2018-05-02 2019-11-07 Audi Ag Verfahren zum fahrsituationsabhängigen Betreiben eines Kraftfahrzeugsystems eines Kraftfahrzeugs, Personalisierungseinrichtung und Kraftfahrzeug

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06144071A (ja) * 1992-11-09 1994-05-24 Mazda Motor Corp 車両運転者の疲労軽減装置
JP2007000188A (ja) * 2005-06-21 2007-01-11 Toshiba Corp 医療支援装置
JP2007226666A (ja) * 2006-02-24 2007-09-06 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2007265377A (ja) * 2006-03-01 2007-10-11 Toyota Central Res & Dev Lab Inc 運転者状態判定装置及び運転支援装置
JP2018027776A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 運転者行動予測モデルの個人適合

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5691693A (en) 1995-09-28 1997-11-25 Advanced Safety Concepts, Inc. Impaired transportation vehicle operator system
US6575902B1 (en) * 1999-01-27 2003-06-10 Compumedics Limited Vigilance monitoring system
DE102004048011A1 (de) * 2004-10-01 2006-04-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerunterstützung
JP6471681B2 (ja) * 2015-11-26 2019-02-20 株式会社デンソー 退避走行支援装置、退避走行支援方法
JP6489080B2 (ja) * 2016-08-04 2019-03-27 トヨタ自動車株式会社 車両制御装置
JP6838493B2 (ja) 2017-05-24 2021-03-03 株式会社デンソー 電動ポンプ
JP6373451B1 (ja) 2017-05-24 2018-08-15 三菱電機株式会社 スタータ
US10642266B2 (en) * 2017-12-28 2020-05-05 Automotive Research & Testing Center Safe warning system for automatic driving takeover and safe warning method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06144071A (ja) * 1992-11-09 1994-05-24 Mazda Motor Corp 車両運転者の疲労軽減装置
JP2007000188A (ja) * 2005-06-21 2007-01-11 Toshiba Corp 医療支援装置
JP2007226666A (ja) * 2006-02-24 2007-09-06 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2007265377A (ja) * 2006-03-01 2007-10-11 Toyota Central Res & Dev Lab Inc 運転者状態判定装置及び運転支援装置
JP2018027776A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 運転者行動予測モデルの個人適合

Also Published As

Publication number Publication date
US20210229677A1 (en) 2021-07-29
DE112019005224T5 (de) 2021-07-08

Similar Documents

Publication Publication Date Title
US10431215B2 (en) System and method of conversational adjustment based on user's cognitive state and/or situational state
US10699569B2 (en) Information processing apparatus, information processing method, and program
CN111361552B (zh) 自动驾驶系统
US20180144636A1 (en) Distracted driver detection, classification, warning, avoidance system
JP6668814B2 (ja) 自動走行制御装置及び自動走行制御システム
JP6142718B2 (ja) 運転支援装置、および運転支援方法
US11485380B2 (en) Method and control device for warning a driver of a motor vehicle and motor vehicle with such a control device
WO2018168051A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2005024507A (ja) ナビゲーション装置及びプログラム
JP2016181032A (ja) 自動走行制御装置及び自動走行制御システム
WO2022201962A1 (ja) 運転特性判定装置、運転特性判定方法及び運転特性判定プログラム
WO2018168049A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP7107157B2 (ja) 操作支援方法及び操作支援装置
WO2020079990A1 (ja) 支障度算出システム、及び、運転ガイドシステム
JP2020064554A (ja) 運転ガイドシステム
JP2020064553A (ja) 支障度算出システム
JP2007061484A (ja) 注意喚起システム
JP7376996B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
JP2008222167A (ja) 乗員特定装置
WO2018168099A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2007133588A (ja) 運転者心理判定装置
CN111267864B (zh) 信息处理系统、程序和控制方法
WO2016152834A1 (ja) 自動走行制御装置及び自動走行制御システム
WO2018168050A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
WO2018168046A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19874144

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19874144

Country of ref document: EP

Kind code of ref document: A1