CN111348049A - 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法 - Google Patents

驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法 Download PDF

Info

Publication number
CN111348049A
CN111348049A CN201911195347.5A CN201911195347A CN111348049A CN 111348049 A CN111348049 A CN 111348049A CN 201911195347 A CN201911195347 A CN 201911195347A CN 111348049 A CN111348049 A CN 111348049A
Authority
CN
China
Prior art keywords
vehicle
event
control unit
image
driving assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911195347.5A
Other languages
English (en)
Inventor
柳卓郎
田村麻贵
松浦睦实
井上利彦
山室直树
林贵志
志贺孝广
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN111348049A publication Critical patent/CN111348049A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3655Timing of guidance instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

驾驶辅助装置包括控制单元,该控制单元获取事件位置信息和对象图像,并将所获取的对象图像呈现给正朝向在所获取的事件位置信息中指示的位置驾驶的驾驶员。事件位置信息是当在车辆中检测第一对象与存在于与第一对象相同的道路上的第二对象混淆的事实作为事件时的车辆的位置信息,并且对象图像是拍摄自车辆的并包括第二对象的图像。

Description

驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅 助方法
技术领域
本发明涉及驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法。
背景技术
第2008-064483号日本未审查专利申请(JP 2008-064483 A)公开了一种技术,其基于行驶历史信息计算在交叉路口处用户的行驶路线偏离计划的行驶路线的错误概率,并且当用户的车辆经过该交叉路口时根据用户的错误概率执行路线引导。
发明内容
当多个信号在车辆的行驶方向上排列时,或者当在复杂的交叉路口处多个信号面向相似的方向时,驾驶员难以识别他或她应当遵循的信号,并且驾驶员经常遵循错误的信号。当驾驶员在高速公路或不熟悉的道路上行驶时,即使用户正在使用导航功能,用户也可能混淆分支或交叉路口。
在JP 2008-064483 A中描述的技术中,当错误概率高于基准概率时,提供了路线引导(例如“前方300米,在具有拐角加油站的交叉路口处左转”),这比正常路线引导(例如“前方300米,在交叉路口处左转”)更详细。然而,理解详细的路线引导并不总是容易的。具体地,在复杂的交叉路口,详细的路线引导可能还会引起混淆。在没有任何标志的交叉路口,提供详细的路线引导本身是困难的。
本发明的目的是使驾驶员难以混淆存在于道路上的对象。
根据本发明实施例的驾驶辅助装置包括控制单元,该控制单元获取事件位置信息和对象图像,并将所获取的对象图像呈现给正朝向在所获取的事件位置信息中指示的位置驾驶的驾驶员。事件位置信息是当在车辆中检测到第一对象与存在于与第一对象相同的道路上的第二对象混淆的事实作为事件时的车辆的位置信息,并且该对象图像是拍摄自车辆的并包括第二对象的图像。
根据本发明实施例的信息提供装置包括控制单元和通信单元。该控制单元在车辆中检测第一对象与存在于与第一对象相同的道路上的第二对象混淆的事实作为事件,并获取事件位置信息和对象图像。事件位置信息是在检测到事件时车辆的位置信息,以及对象图像是拍摄自车辆的并包括第二对象的图像。该通信单元提供由控制单元获取的对象图像,该对象图像要被呈现给向正朝向在由控制单元获取的事件位置信息中指示的位置驾驶的驾驶员。
根据本发明实施例的驾驶辅助方法包括由控制单元在车辆中检测第一对象与存在于与第一对象相同的道路上的第二对象混淆的事实作为事件的步骤,以及由输出单元显示拍摄自车辆的并包括第二对象的图像的步骤,该图像要被呈现给正朝向与当由控制单元检测到事件时车辆的位置相同的位置驾驶的驾驶员。
根据本发明的实施例,驾驶员难以混淆存在于道路上的对象。
附图说明
本发明的示例性实施例的特征、优点和技术及工业意义,将在下文中参考附图而加以描述,其中相似标号表示相似要素,且其中:
图1是示出根据第一实施例的驾驶辅助系统的配置的框图;
图2是示出根据第一实施例的驾驶辅助系统的操作的流程图;
图3是示出根据第二实施例的驾驶辅助系统的配置的框图;和
图4是示出根据第二实施例的驾驶辅助系统的操作的流程图。
具体实施方式
以下,将参考附图详细描述本发明的实施例。
在附图中,相同或相应的部分用相同的附图标记来表示。在每个实施例的描述中,相同或相应部分的描述被适当地省略或简化。
第一实施例
参照图1,将描述关于本实施例的概要。
第一车辆10的控制单元11在第一车辆10中检测第一对象与存在于与第一对象相同的道路上的第二对象混淆的事实作为事件。与第一车辆10不同的第二车辆20的输出单元27显示拍摄自第一车辆10并包括第二对象的图像,该图像要呈现给在由第一车辆10的控制单元11检测到事件时正朝向与第一车辆10的位置相同的位置行驶的第二车辆20的驾驶员。
当第二车辆20的驾驶员正朝向发生其中第一车辆10的驾驶员将第一对象与第二对象混淆的事件的位置驾驶时,第二车辆20的驾驶员可以通过观看由输出单元27显示的对象图像42可视地检查第二对象的外观。因此,根据本实施例,难以做出将第一对象与第二对象混淆的错误。换句话说,驾驶员难以混淆存在于道路上的对象。
对象图像42可以是其中仅第二对象被特写镜头拍摄的图像,但在本实施例中,对象图像42包括第二对象的周围环境。因此,第二车辆20的驾驶员可以通过观看由输出单元27显示的对象图像42可视地检查第二对象的周围环境中所看见的东西以及第二对象的外观。因此,根据本实施例,难以做出混淆第一对象与第二对象的错误。
在本实施例中,第一对象和第二对象是信号、分支或交叉路口,但可以是存在于相同道路上的对象、或道路上的或面向道路的对象或地方。“对象”可以包括从小对象(例如标志)到大对象(例如建筑物)的各种对象。
第一车辆10和第二车辆20可以是任何车辆,但在本实施例中,两者均为汽车。第一车辆10和第二车辆20之间的关系不限于一对一关系,并且可以是一对多、多对一或多对多关系中的任何一者。
参照图1,将描述根据本实施例的驾驶辅助系统30的配置。
驾驶辅助系统30包括信息提供装置31和驾驶辅助装置32。
信息提供装置31设置在第一车辆10中。信息提供装置31可包括车载设备(例如导航装置),或通过连接到车载设备而使用的电子装置(例如智能手机)。
信息提供装置31包括组成元件,例如控制单元11、存储单元12、通信单元13和定位单元14。
控制单元11包括一个或多个处理器。作为处理器,可以使用通用处理器(例如CPU)和专用于特定处理的处理器。“CPU”是中央处理单元的缩写。一个或多个专用电路可以包括在控制单元11中,或者可以替换控制单元11中的一个或多个处理器。例如,作为专用电路,可以使用FPGA或ASIC。“FPGA”是现场可编程门阵列的缩写。“ASIC”是专用集成电路的缩写。控制单元11可以包括一个或多个ECU。“ECU”是电子控制单元的缩写。控制单元11执行与信息提供装置31的操作相关联的信息处理,同时控制包括信息提供装置31的第一车辆10的每个单元。
存储单元12包括一个或多个存储器。作为存储器,例如,可以使用半导体存储器、磁性存储器或光学存储器。存储器可以用作主存储装置、辅助存储装置或高速缓冲存储器。存储单元12存储用于信息提供装置31的操作的信息和通过信息提供装置31的操作获得的信息。
通信单元13包括一个或多个通信模块。例如,作为通信模块,可以使用对应于DSRC、LTE、4G或5G的通信模块。“DSRC”是专用短距离通信的缩写。“LTE”是长期演进的缩写。“4G”是第四代的缩写。“5G”是第五代的缩写。通信单元13接收用于信息提供装置31的操作的信息,并发送通过信息提供装置31的操作获得的信息。
定位单元14包括一个或多个定位模块。作为定位模块,例如,可以使用对应于GPS、QZSS、GLONASS或Galileo的定位模块。“GPS”是全球定位系统的缩写。“QZSS”是准天顶卫星系统的缩写。QZSS卫星被称为准天顶卫星。“GLONASS”是全球导航卫星系统的缩写。定位单元14获取第一车辆10的位置信息。
信息提供装置31的功能通过由包括在控制单元11中的处理器运行根据本实施例的信息提供程序来实现。换句话说,信息提供装置31的功能由软件实现。通过使计算机执行包括在信息提供装置31的操作中的步骤的处理,信息提供程序使计算机实现对应于步骤的处理的功能。换句话说,信息提供程序使计算机用作信息提供装置31。
该程序可以被记录在计算机可读记录介质上。作为计算机可读记录介质,例如,可以使用磁记录装置、光盘、磁光记录介质或半导体存储器。例如通过销售、转让或借出便携式记录介质(例如记录程序的DVD和CD-ROM)来分发该程序。“DVD”是数字多功能光盘的缩写。“CD-ROM”是光盘只读存储器的缩写。可以通过将该程序存储在服务器的存储设备中并经由网络将该程序从服务器发送到另一计算机来分发该程序。该程序可以提供为程序产品。
例如,计算机将记录在便携式记录介质上的程序或从服务器发送的程序临时地存储在存储器中。然后,计算机读取由处理器存储在存储器中的程序,并根据所读取的程序执行由处理器的处理。计算机可以直接从便携式记录介质读取程序,并根据该程序执行处理。每当程序从服务器发送到计算机时,计算机可以根据所接收的程序顺序地执行处理。该处理可以通过所谓的ASP型服务来执行,该ASP服务仅通过执行指令和结果获取来实现该功能,而不将程序从服务器发送到计算机。“ASP”是应用服务提供商的缩写。该程序包括用于由电子计算器处理的且等同于该程序的信息。例如,不是对计算机的直接命令但具有调节计算机处理的属性的数据对应于“程序的等同”。
信息提供装置31的部分或全部功能可以由包括在控制单元11中的专用电路实现。换句话说,信息提供装置31的部分或全部功能可以通过硬件实现。
除信息提供装置31外,第一车辆10还包括图像拍摄单元15、输入单元16和输出单元17。在第一车辆10中,图像拍摄单元15、输入单元16和输出单元17可以是信息提供装置31的部分。
图像拍摄单元15包括一个或多个车载摄像机。作为车载摄像机,例如,可以使用前摄像机、侧摄像机、后摄像机或车内摄像机。图像拍摄单元15从第一车辆10拍摄图像。换句话说,图像拍摄单元15拍摄第一车辆10外部的图像。图像拍摄单元15还拍摄第一车辆10内的图像,例如第一车辆10的驾驶员的座椅。
输入单元16包括一个或多个输入接口。作为输入接口,例如,可以使用物理键、电容键、指点装置、与车载显示器一体地安装的触摸屏或车载麦克风。输入单元16从用户(例如第一车辆10的驾驶员)接收用于信息提供装置31的操作的信息的输入。
输出单元17包括一个或多个输出接口。例如,作为输出接口,可以使用车载显示器或车载扬声器。例如,作为车载显示器,可以使用LCD或有机EL显示器。“LCD”是液晶显示器的缩写。“EL”是电致发光的缩写。输出单元17向用户输出通过信息提供装置31的操作获得的信息。
驾驶辅助装置32设置在第二车辆20中。驾驶辅助装置32可以包括车载设备(例如导航装置),或通过连接到车载设备而使用的电子装置(例如智能手机)。
驾驶辅助装置32包括组成元件,例如控制单元21、存储单元22、通信单元23和定位单元24。
控制单元21包括一个或多个处理器。作为处理器,可以使用通用处理器(例如CPU)或专用于特定处理的处理器。一个或多个专用电路可以包括在控制单元21中,或者可以替换控制单元21中的一个或多个处理器。例如,作为专用电路,可以使用FPGA或ASIC。控制单元21可以包括一个或多个ECU。控制单元21执行与驾驶辅助装置32的操作相关联的信息处理,同时控制包括驾驶辅助装置32的第二车辆20的每个单元。
存储单元22包括一个或多个存储器。作为存储器,例如,可以使用半导体存储器、磁性存储器或光学存储器。存储器可以用作主存储装置、辅助存储装置或高速缓冲存储器。存储单元22存储用于驾驶辅助装置32的操作的信息和通过驾驶辅助装置32的操作获得的信息。
通信单元23包括一个或多个通信模块。例如,作为通信模块,可以使用对应于DSRC、LTE、4G或5G的通信模块。通信单元23接收用于驾驶辅助装置32的操作的信息,并发送通过驾驶辅助装置32的操作获得的信息。
定位单元24包括一个或多个定位模块。作为定位模块,例如,可以使用对应于GPS、QZSS、GLONASS或Galileo的定位模块。定位单元24获取第二车辆20的定位信息。
驾驶辅助装置32的功能通过由包括在控制单元21中的处理器运行根据本实施例的驾驶辅助程序来实现。换句话说,驾驶辅助装置32的功能由软件实现。通过使计算机执行包括在驾驶辅助装置32的操作中的步骤的处理,驾驶辅助程序使计算机实现对应于该步骤的处理的功能。换句话说,驾驶辅助程序使计算机用作驾驶辅助装置32。
驾驶辅助装置32的部分或全部功能可以由包括在控制单元21中的专用电路实现。换句话说,驾驶辅助装置32的部分或全部功能可以通过硬件实现。
除驾驶辅助装置32外,第二车辆20还包括图像拍摄单元25、输入单元26和输出单元27。在第二车辆20中,图像拍摄单元25、输入单元26和输出单元27可以是驾驶辅助装置32的部分。
图像拍摄单元25包括一个或多个车载摄像机。作为车载摄像机,例如,可以使用前摄像机、侧摄像机、后摄像机或车内摄像机。图像拍摄单元25从第二车辆20拍摄图像。换句话说,图像拍摄单元25拍摄第二车辆20外部的图像。图像拍摄单元25还拍摄第二车辆20内的图像,例如第二车辆20的驾驶员的座椅。
输入单元26包括一个或多个输入接口。作为输入接口,例如,可以使用物理键、电容键、指点装置、与车载显示器一体地安装的触摸屏或车载麦克风。输入单元26从用户(例如第二车辆20的驾驶员)接收用于驾驶辅助装置32的操作的信息的输入。
输出单元27包括一个或多个输出接口。例如,作为输出接口,可以使用车载显示器或车载扬声器。例如,作为车载显示器,可以使用LCD或有机EL显示器。输出单元27向用户输出通过驾驶辅助装置32的操作获得的信息。
除图1外,参照图2,将描述根据本实施例的驾驶辅助系统30的操作。驾驶辅助系统30的操作对应于根据本实施例的驾驶辅助方法。
步骤S101至S104的处理由第一车辆10执行。
在步骤S101中,信息提供装置31的控制单元11获取第一车辆10的位置信息。
具体地,控制单元11从定位单元14获取在当前时间的第一车辆10的位置信息。位置信息的示例可以包括通过使用GPS、QZSS、GLONASS、Galileo或其两个或更多个的组合获得的第一车辆10的当前位置的二维坐标或三维坐标。
在步骤S102中,控制单元11在第一车辆10中检测第一对象与存在于与第一对象相同的道路Rx上的第二对象混淆的事实,作为事件Ea、事件Eb或事件Ec
当第二对象是要在第一车辆10的位置处遵循的信号A2,并且第一对象是不同于A2的信号A1时,事件Ea是其中第一车辆10的驾驶员将信号A1与信号A2混淆的事件。例如当信号A1和信号A2在第一车辆10的行驶方向上排列时,或者当信号A1和信号A2在复杂的交叉路口处面向相似的方向时,事件Ea可能发生。
控制单元11根据第一车辆10的行为是符合信号A2的发光状态还是信号A1的发光状态来判定事件Ea是否已发生。
具体地,控制单元11判定在步骤S101中获取的位置信息中指示的第一车辆10的当前位置是否在范围Nx内。范围Nx是可能发生如下情况的第一车辆10的位置范围:第一车辆10的驾驶员应当根据信号A2驾驶但混淆了信号A1与信号A2并根据信号A1驾驶。例如,为了方便起见,可以将同时看见信号A1和信号A2的位置范围设定为范围Nx。当第一车辆10的当前位置不在范围Nx内时,控制单元11判定事件Ea未发生。当第一车辆10的当前位置在范围Nx内时,控制单元11从定位单元14顺序地获取第一车辆10的后续的位置信息,并从图像拍摄单元15顺序地获取包括信号A1和信号A2的图像,例如第一车辆10的前方的图像。控制单元11根据所获取的位置信息中指示的位置的改变,判定第一车辆10的行为,例如向前移动、左转、右转和停止。同时,控制单元11分析所获取的图像并判定发光状态,例如信号A1和信号A2中的每个信号的发光颜色、如果信号A1和信号A2上有箭头则箭头的方向、以及灯是否闪烁。作为识别图像中信号的发光状态的技术,例如,可以使用基于机器学习的图像识别技术。控制单元11基于第一车辆10的行为和信号A2的发光状态的判定结果,判定第一车辆10的行为是否符合信号A2的发光状态。当第一车辆10的行为遵循信号A2的发光状态时,控制单元11判定事件Ea未发生。当第一车辆10的行为不遵循信号A2的发光状态时,控制单元11基于第一车辆10的行为和信号A1的发光状态的判定结果,判定第一车辆10的行为是否遵循信号A1的发光状态。当第一车辆10的行为不遵循信号A1的发光状态时,控制单元11判定事件Ea未发生。当第一车辆10的行为遵循信号A1的发光状态时,控制单元11判定事件Ea已发生。例如,当信号A2的光为红色,信号A1的光为绿色,并且第一车辆10向前移动时,控制单元11判定事件Ea已发生。
在本实施例中,预先定义信号A1、信号A2和范围Nx。然而,每当控制单元11从定位单元14获取第一车辆10的位置信息时,控制单元11可以基于第一车辆10与第一车辆10周围的一组信号之间的位置关系,动态地指定信号A1、信号A2和范围Nx。第一车辆10周围的信号组的位置是基于例如地图信息指定的。
当判定第一车辆10的行为不符合信号A2的发光状态时,控制单元11可以经由输出单元17输出消息以提醒第一车辆10的驾驶员,而无论事件Ea是否已发生。消息可以被显示或以音频的形式被输出。
控制单元11可以根据第一车辆10的驾驶员的视线是指向信号A2还是信号A1,判定事件Ea是否已发生。
在这种情况下,具体地,控制单元11判定在步骤S101中获取的位置信息中指示的第一车辆10的当前位置是否在Nx范围内。当第一车辆10的当前位置不在范围Nx内时,控制单元11判定事件Ea未发生。当第一车辆10的当前位置在范围Nx内时,控制单元11从定位单元14顺序地获取第一车辆10的后续的位置信息,并从图像拍摄单元15顺序地获取包括第一车辆10的驾驶员的头部和眼睛的图像,例如第一车辆10的驾驶员的座椅的图像。控制单元11使用所获取的位置信息和预先存储在存储单元12中的且指示信号A1和信号A2的位置中的每个位置的地图信息,计算信号A1和信号A2中的每个信号与第一车辆10的相对方向。同时,控制单元11分析所获取的图像并计算第一车辆10的驾驶员的视线的方向。任何众所周知的技术都可以用作用于从包括人的头部和眼睛的图像计算视线的方向的技术。控制单元11基于从第一车辆10到信号A2的相对方向和第一车辆10的驾驶员的视线的方向的计算结果,判定第一车辆10的驾驶员的视线是否指向信号A2。当第一车辆10的驾驶员的视线指向信号A2时,控制单元11判定事件Ea未发生。当第一车辆10的驾驶员的视线没有指向信号A2时,控制单元11基于从第一车辆10到信号A1的相对方向和第一车辆10的驾驶员的视线的方向的计算结果,判定第一车辆10的驾驶员的视线是否指向信号A1。当第一车辆10的驾驶员的视线没有指向信号A1时,控制单元11判定事件Ea未发生。当第一车辆10的驾驶员的视线指向信号A1时,控制单元11判定事件Ea已发生。
当判定第一车辆10的驾驶员的视线没有指向信号A2时,控制单元11可以经由输出单元17输出消息以提醒第一车辆10的驾驶员,而无论事件Ea是否已发生。消息可以被显示或以音频的形式被输出。
当第二对象是由导航功能设定的第一车辆10的行驶路线中第一车辆10应当在其处进入与道路Rx不同的道路Ry的分支B2,并且第一对象是与分支B2不同的分支B1时,事件Eb是其中第一车辆10的驾驶员混淆分支B1与分支B2的事件。例如,当在分支B2前1公里的点处由导航功能执行关于分支B2的引导,并且分支B1存在于该点和分支B2之间时,事件Eb可能发生在例如高速公路上。
控制单元11根据第一车辆10是在分支B2处还是在分支B1处离开道路Rx来判定事件Eb是否已发生。
具体地,控制单元11通过将在步骤S101中获取的位置信息与预先存储在存储单元12中的且指示分支B1的位置的地图信息相结合,判定第一车辆10的当前位置是否在分支B1处或附近。当第一车辆10的当前位置不在分支B1处或附近时,控制单元11判定事件Eb未发生。当第一车辆10的当前位置在分支B1处或附近时,控制单元11通过将在步骤S101中获取的位置信息与存储在存储单元12中的且指示由导航功能设定的行驶路线的路线信息相结合,判定第一车辆10是否已偏离设定的行驶路线。当第一车辆10没有偏离设定的行驶路线时,控制单元11判定事件Eb未发生。当第一车辆10偏离设定的行驶路线时,控制单元11判定事件Eb已发生。例如,当道路Rx是高速公路,并且第一车辆10在分支B2前的分支B1处离开高速公路时,控制单元11判定事件Eb已发生。
在本实施例中,将分支B1预先定义为容易与特定分支B2混淆的分支。然而,当由导航功能设定用于在分支B2处从道路Rx进入道路Ry的路线时,基于分支B2与分支B2周围的分支组之间的位置关系,控制单元11可以动态地指定分支B1。分支B2周围的分支组的位置是基于例如地图信息指定的。
当判定第一车辆10已偏离设定的行驶路线时,控制单元11可以经由输出单元17输出消息以提醒第一车辆10的驾驶员,而无论事件Eb是否已发生。消息可以被显示或以音频的形式被输出。
当判定第一车辆10偏离设定的行驶路线时,控制单元11可通过导航功能复位第一车辆10的行驶路线。
当第二对象是由导航功能设定的第一车辆10的行驶路线中第一车辆10应当在其处进入不同于道路Rx的道路Ry的交叉路口C2,且第一对象是不同于交叉路口C2的交叉路口C1时,事件Ec为其中第一车辆10的驾驶员将交叉路口C1与交叉路口C2混淆的事件。当在交叉路口C2前300米的点处由导航功能执行关于交叉路口C2的导航,并且交叉路口C1存在于该点与交叉路口C2之间时,事件Ec可能发生例如在地方公路上。
检测事件Ec的处理与检测事件Eb的处理相同,除了分支B1和分支B2分别被交叉路口C1和交叉路口C2替换,并因此省略了对它们的描述。例如,当道路Rx在交叉路口C2处与路Ry交叉,并且在交叉路口C2之前的交叉路口C1处与不同的道路Rz交叉,并且第一车辆10在交叉路口C1处右转或左转并进入道路Rz时,控制单元11判定事件Ec已发生。
当检测事件Ea、事件Eb或事件Ec时,控制单元11在步骤S101中获取事件位置信息41。事件位置信息41是当检测到事件Ea、事件Eb或事件Ec时第一车辆10的位置信息。
当控制单元11检测到事件Ea、事件Eb或事件Ec时,执行步骤S103之后的处理。
在步骤S103中,控制单元11获取对象图像42。对象图像42是拍摄自第一车辆10的并包括第二对象的图像。
具体地,当在步骤S102中检测的事件是事件Ea时,图像拍摄单元15在控制单元21的控制下拍摄包括信号A2的图像(例如第一车辆10前方的图像)作为对象图像42。当在步骤S102中检测的事件是事件Eb时,图像拍摄单元15在控制单元21的控制下拍摄包括分支B2的图像(例如第一车辆10前方的图像)作为对象图像42。当在步骤S102中检测的事件是事件Ec时,图像拍摄单元15在控制单元21的控制下拍摄包括交叉路口C2的图像(例如第一车辆10前方的图像)作为对象图像42。控制单元11从图像拍摄单元15获取所拍摄的对象图像42。控制单元11将所获取的对象图像42存储在存储单元12中,并将在步骤S101中获取的位置信息存储在存储单元12中,作为对应于对象图像42的事件位置信息41。
当为了在步骤S102中检测事件从图像拍摄单元15获取的图像可以被用作对象图像42时,控制单元11不必从图像拍摄单元15新获取对象图像42。具体地,当在步骤S102中检测的事件为事件Ea时,控制单元11可以使用在步骤S102中从图像拍摄单元15获取的并包括信号A2的图像作为对象图像42。
控制单元11可以对从图像拍摄单元15获取的对象图像42执行处理(例如切割、放大和缩小以及分辨率改变),然后将所处理的对象图像42存储在存储单元12中。
在步骤S104中,信息提供装置31的通信单元13提供由控制单元11获取的对象图像42,以将所获取的对象图像42呈现给正朝向由控制单元11获取的事件位置信息41中指示的位置驾驶的第二车辆20的驾驶员。
具体地,控制单元11将存储在存储单元12中的对象图像42和对应于对象图像42的且存储在存储单元12中的事件位置信息41输入到通信单元13中。通信单元13使用车辆间通信、道路到车辆通信或经由网络的通信将从控制单元11输入的对象图像42和事件位置信息41发送到第二车辆20的驾驶辅助装置32。
通信单元13可以经由属于云计算系统或另一计算系统的服务器提供对象图像42和事件位置信息41。
步骤S105至S108的处理由第二车辆20执行。
在步骤S105中,驾驶辅助装置32的通信单元23获取从第一车辆10的信息提供装置31提供的对象图像42和事件位置信息41。
具体地,通信单元23使用车辆间通信、道路到车辆通信或经由网络的通信接收从第一车辆10的信息提供装置31发送的对象图像42和事件位置信息41。控制单元21从通信单元23获取由通信单元23接收的对象图像42和事件位置信息41。控制单元21将所获取的对象图像42存储在存储单元22中,并将所获取的事件位置信息41与对象图像42相关联地存储在存储单元22中。
在步骤S106中,驾驶辅助装置32的控制单元21获取第二车辆20的位置信息。
具体地,控制单元21从定位单元24获取在当前时间的第二车辆20的位置信息。位置信息的示例可以包括通过使用GPS、QZSS、GLONASS、Galileo或其两个或更多个的组合获得的第二车辆20的当前位置的二维坐标或三维坐标。
在步骤S107中,控制单元21判定第二车辆20的驾驶员是否正朝向由通信单元23获取的事件位置信息41中指示的位置驾驶。换句话说,控制单元21判定第二车辆20是否正接近事件位置信息41中指示的位置。
具体地,控制单元21计算在步骤S106中获取的位置信息中指示的第二车辆20的当前位置与存储在存储单元22中的事件位置信息41中指示的位置之间的距离。控制单元21将所计算的距离与阈值比较。阈值可以是固定值(例如300米),或者根据道路Rx的速度限制或第二车辆20的速度动态地获得的值。在固定值的情况下,阈值可以根据道路Rx的类型来选择,例如,当道路Rx是地方公路时为300米,以及当道路Rx是高速公路时为1千米。当所计算的距离大于阈值时,控制单元21判定第二车辆20未接近事件位置信息41中指示的位置。当所计算的距离小于阈值时,控制单元21判定第二车辆20正接近事件位置信息41中指示的位置,即第二车辆20的驾驶员正朝向事件位置信息41中指示的位置驾驶。
事件位置信息41可以包括在检测到事件Ea、事件Eb或事件Ec的时间指示第一车辆10的行驶方向的信息。在这种情况下,控制单元21根据在步骤S106中获取的位置信息中指示的位置的改变来判定第二车辆20的行驶方向。当所计算的距离小于阈值且所判定的行驶方向与事件位置信息41中指示的行驶方向相同时,控制单元21判定第二车辆20正接近事件位置信息41中指示的位置。
当控制单元21判定第二车辆20接近事件位置信息41中指示的位置时,执行步骤S108的处理。
在步骤S108中,驾驶辅助装置32的控制单元21将通过通信单元23获取的对象图像42呈现给第二车辆20的驾驶员。控制单元21使用输出单元27作为用于呈现对象图像42的介质。换句话说,输出单元27在控制单元21的控制下显示通过通信单元23获取的对象图像42,以将所获取的对象图像42呈现给第二车辆20的驾驶员。
具体地,控制单元21将存储在存储单元22中的对象图像42输入到输出单元27中。输出单元27显示包括从控制单元21输入的对象图像42的画面(screen)。在画面上,对应于信号A2、分支B2或交叉路口C2的交叉路口的名称可以被显示为字符,或者在地图上的信号A2、分支B2或交叉路口C2的位置处显示符号(例如图标)。也可以在相同地图上第二车辆20的当前位置处显示符号(例如另一图标)。适当调整画面上的信息量,以便不会妨碍安全驾驶。例如,对应于信号A2、分支B2或交叉路口C2的交叉路口的名称可以以音频的形式输出,而不是显示为字符。
显示包括对象图像42的画面的时间长度可以固定为例如30秒,或根据第二车辆20的位置动态地确定。当根据第二车辆20的位置动态地确定时间长度时,可以显示包括对象图像42的画面,直到第二车辆20经过对应于信号A2、分支B2或交叉路口C2的交叉路口,或者直到第二车辆20到达事件位置信息41中指示的位置。
如上所述,在本实施例中,信息提供装置31的控制单元11在第一车辆10中检测第一对象与存在于与第一对象相同道路Rx上的第二对象混淆的事实,作为事件Ea、事件Eb或事件Ec。控制单元11获取事件位置信息41(其为在检测到事件Ea、事件Eb或事件Ec时的第一车辆10的位置信息)以及拍摄自第一车辆10的且包括第二对象的对象图像42。信息提供装置31的通信单元13提供由控制单元11获取的对象图像42,以将所获取的对象图像42呈现给正朝向由控制单元11获取的事件位置信息41中指示的位置驾驶的第二车辆20的驾驶员。驾驶辅助装置32的控制单元21获取事件位置信息41和对象图像42。控制单元21在第二车辆20到达事件位置信息41中指示的位置之前,将所获取的对象图像42呈现给第二车辆20的驾驶员。因此,根据本实施例,难以做出混淆第一对象与第二对象的错误。换句话说,驾驶员难以混淆存在于道路上的对象。
根据本实施例,通过在可能发生错误的点之前向驾驶员显示对象(例如信号A2、分支B2和交叉路口C2)的实际图像,肯定可以减少驾驶员的错误。因此,改善了交通安全。
当第二车辆20处于完全自主驾驶模式时,驾驶辅助装置32的控制单元21不必将对象图像42呈现给第二车辆20的驾驶员。完全自主驾驶模式对应于SAE级别分类中的“5级”,但可以包括“4级”或根据另一定义的自主驾驶级别。“SAE”是汽车工程师协会(Society ofAutomotive Engineers)的缩写。
信息提供装置31可包括属于云计算系统或其他计算系统的服务器。在这种情况下,由服务器执行步骤S101到S104的处理。步骤S101至S104的处理所需的信息(例如第一车辆10的位置信息、第一车辆10前方的图像、第一车辆10的驾驶员的座椅的图像和第一车辆10的路线信息)可以从第一车辆10上传到服务器。对象图像42和事件位置信息41可以从服务器递送到第二车辆20。
第二实施例
参照图3,将描述本实施例的概要。
在第一实施例中,第一车辆10的控制单元11在第一车辆10中检测第一对象与存在于与第一对象相同道路上的第二对象混淆的事实作为事件。另一方面,第二车辆20的控制单元21在第二车辆20中检测第一对象与存在于与第一对象相同道路上的第二对象混淆的事实作为事件。第二车辆20的输出单元27显示拍摄自第二车辆20的并包括第二对象的图像,以将图像呈现给正在朝向与当由控制单元21检测到事件时第二车辆20的位置相同的位置驾驶的第二车辆的驾驶员。
当朝向已发生其中第二车辆20的驾驶员将第一对象与第二对象混淆的事件的位置驾驶时,第二车辆20的驾驶员可以通过观看显示在输出单元27上的对象图像42可视地检查第二对象的外观。因此,根据本实施例,难以做出再次混淆第一对象与第二对象的错误。换句话说,驾驶员难以混淆存在于道路上的对象。
与第一实施例相反,由于第一车辆10是不必要的,第二车辆20可以被简单地称为“车辆”。
参照图3,将描述根据本实施例的驾驶辅助系统30的配置。关于与第一实施例共同的部分的描述被适当地省略或简化。
驾驶辅助系统30包括驾驶辅助装置32。驾驶辅助系统30不必如第一实施例中那样包括信息提供装置31。
如第一实施例中,驾驶辅助装置32设置在第二车辆20中。
如第一实施例中,除驾驶辅助装置32外,第二车辆20包括图像拍摄单元25、输入单元26和输出单元27。
除图3外,还将参照图4描述根据本实施例的驾驶辅助系统30的操作。关于与第一实施例共同的部分的描述被适当地省略或简化。驾驶辅助系统30的操作对应于根据本实施例的驾驶辅助方法。
步骤S201至S206的处理由第二车辆20执行。
步骤S201至S203的处理与步骤S101至S103的处理相同,除了第一车辆10和信息提供装置31的控制单元11、存储单元12、定位单元14和图像拍摄单元15分别被第二车辆20和驾驶辅助装置32的控制单元21、存储单元22、定位单元24和图像拍摄单元25替换,因此省略其描述。
步骤S204的处理与步骤S106的处理相同,因此省略其描述。
步骤S205的处理与步骤S107的处理相同,除了在步骤S205中,在步骤S201中在第二车辆20内获取的位置信息替代于从第二车辆20外部接收的位置信息被用作事件位置信息41,因此省略其描述。
步骤S206的处理与步骤S108的处理相同,除了在步骤S206中,在步骤S203中在第二车辆20内获取的图像替代于从第二车辆20外部接收的图像被用作对象图像42,因此省略其描述。
替代于将所获取的事件位置信息41和所获取的对象图像42存储在存储单元22中,控制单元21将事件位置信息41和对象图像42存储在第二车辆20外部的存储装置中,例如云存储装置,并且可以经由通信单元23获取和使用它们。
如上所述,在本实施例中,驾驶辅助装置32的控制单元21在第二车辆20中检测第一对象与存在于第一对象相同的道路Rx上的第二对象混淆的事实,作为事件Ea、事件Eb或事件Ec。控制单元21获取事件位置信息41(其为在检测到事件Ea、事件Eb或事件Ec时的第二车辆20的位置信息)以及拍摄自第二车辆20的包括第二对象的对象图像42。控制单元21在与检测到事件Ea、事件Eb或事件Ec的时间不同的时间并在第二车辆20到达事件位置信息41中指示的位置前,将所获取的对象图像42呈现给第二车辆20的驾驶员。例如,在第二车辆20中发生事件Ea并且经过某一时段后,当第二车辆20试图再次行驶到发生事件Ea的点时,控制单元21将在事件Ea的发生的时间获得的对象图像42呈现给第二车辆20的驾驶员。因此,根据本实施例,难以做出再次混淆第一对象与第二对象的错误。换句话说,驾驶员难以混淆存在于道路上的对象。
本发明不限于上述实施例。例如,可以框图所示的多个框可以被集成,或者多个框中的一个框可以被划分。替代于根据描述以时间序列执行流程图中描述的多个步骤,可以根据执行每个步骤的装置的处理能力、必要时并行地执行步骤,或者以不同的顺序执行步骤。在本发明的技术范围内可以作出其他变化。

Claims (11)

1.驾驶辅助装置,其特征在于,包括:
控制单元,其配置为:
获取事件位置信息和对象图像,其中,所述事件位置信息是当在车辆中检测到第一对象与存在于与所述第一对象相同的道路上的第二对象混淆的事实作为事件时的车辆的位置信息,并且所述对象图像是拍摄自所述车辆的并包括所述第二对象的图像,以及
将所获取的对象图像呈现给正朝向在所获取的事件位置信息中指示的位置驾驶的驾驶员。
2.根据权利要求1所述的驾驶辅助装置,其特征在于,所述控制单元配置为:在与所述车辆不同的车辆到达所述事件位置信息中指示的位置之前,将所述对象图像呈现给所述不同的车辆的驾驶员。
3.根据权利要求1所述的驾驶辅助装置,其特征在于,所述控制单元配置为:检测所述事件,并且在与检测到所述事件的时间不同的时间且在所述车辆到达所述事件位置信息中指示的位置之前,将所述对象图像呈现给所述车辆的驾驶员。
4.车辆,其特征在于,包括:
根据权利要求1至3中任一项所述的驾驶辅助装置;以及
输出单元,其配置为显示对象图像。
5.信息提供装置,其特征在于,包括:
控制单元,其配置为在车辆中检测第一对象与存在于与所述第一对象相同的道路上的第二对象混淆的事实作为事件,并获取事件位置信息和对象图像,其中所述事件位置信息是在检测到所述事件时所述车辆的位置信息,以及所述对象图像是拍摄自所述车辆的并包括所述第二对象的图像;以及
通信单元,其配置为提供由所述控制单元获取的对象图像,所述对象图像要被呈现给向正朝向在由所述控制单元获取的所述事件位置信息中指示的位置驾驶的驾驶员。
6.根据权利要求5所述的信息提供装置,其特征在于,所述控制单元配置为:根据所述车辆的行为是符合所述第二对象的发光状态还是所述第一对象的发光状态,判定是否已发生所述事件,所述第二对象是在所述车辆的位置处要遵循的信号,所述第一对象是与所述第二对象不同的信号。
7.根据权利要求5所述的信息提供装置,其特征在于,所述控制单元配置为:根据所述车辆的驾驶员的视线是指向所述第二对象还是所述第一对象,判定是否已发生所述事件,所述第二对象是在所述车辆的位置处要遵循的信号,所述第一对象是与所述第二对象不同的信号。
8.根据权利要求5所述的信息提供装置,其特征在于,所述控制单元配置为:根据在由导航功能设定的所述车辆的行驶路线中所述车辆是在所述第二对象处还是在所述第一对象处离开道路,判定是否已发生所述事件,所述第二对象是所述车辆进入与所述道路不同的道路的分支或交叉路口,所述第一对象是与所述第二对象不同的分支或交叉路口。
9.车辆,其特征在于,包括:
图像拍摄单元,其配置为拍摄对象图像;以及
根据权利要求5至8中任一项所述的信息提供装置。
10.驾驶辅助系统,其特征在于,包括:
根据权利要求5至8中任一项所述的信息提供装置;以及
驾驶辅助装置,其配置为从所述信息提供装置获取事件位置信息和对象图像,并将所述对象图像呈现给正朝向所述事件位置信息中指示的位置驾驶的驾驶员。
11.驾驶辅助方法,其特征在于,包括:
由控制单元在车辆中检测第一对象与存在于与所述第一对象相同的道路上的第二对象混淆的事实作为事件;以及
由输出单元显示拍摄自所述车辆的并包括所述第二对象的图像,所述图像要被呈现给正朝向与当由所述控制单元检测到所述事件时所述车辆的位置相同的位置驾驶的驾驶员。
CN201911195347.5A 2018-12-21 2019-11-28 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法 Pending CN111348049A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018240115A JP7159851B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
JP2018-240115 2018-12-21

Publications (1)

Publication Number Publication Date
CN111348049A true CN111348049A (zh) 2020-06-30

Family

ID=71096813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911195347.5A Pending CN111348049A (zh) 2018-12-21 2019-11-28 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法

Country Status (3)

Country Link
US (1) US20200200560A1 (zh)
JP (1) JP7159851B2 (zh)
CN (1) CN111348049A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005098360A1 (ja) * 2004-03-31 2005-10-20 Pioneer Corporation 情報提示装置、経路誘導装置、情報提示プログラム、情報記録媒体、及び情報提示方法
US20130110316A1 (en) * 2011-11-01 2013-05-02 Yuki Ogawa Driving assistance apparatus and driving assistance method
JP2014074626A (ja) * 2012-10-03 2014-04-24 Denso Corp 車両用ナビゲーションシステム
CN106323309A (zh) * 2015-06-30 2017-01-11 Lg电子株式会社 车辆驾驶辅助装置、车辆用显示装置以及车辆
US20170166122A1 (en) * 2015-12-14 2017-06-15 Fujitsu Limited Warning system and method
JP2018101337A (ja) * 2016-12-21 2018-06-28 パナソニックIpマネジメント株式会社 ドライブレコーダ

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269178A (ja) * 2007-04-18 2008-11-06 Traffic Plus:Kk 交通情報表示装置
JP5583540B2 (ja) * 2010-10-01 2014-09-03 パナソニック株式会社 事故要因領域特定装置および事故要因領域特定プログラム
JP2018013440A (ja) * 2016-07-22 2018-01-25 五洋建設株式会社 工事関連車両の安全支援システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005098360A1 (ja) * 2004-03-31 2005-10-20 Pioneer Corporation 情報提示装置、経路誘導装置、情報提示プログラム、情報記録媒体、及び情報提示方法
US20130110316A1 (en) * 2011-11-01 2013-05-02 Yuki Ogawa Driving assistance apparatus and driving assistance method
JP2014074626A (ja) * 2012-10-03 2014-04-24 Denso Corp 車両用ナビゲーションシステム
CN106323309A (zh) * 2015-06-30 2017-01-11 Lg电子株式会社 车辆驾驶辅助装置、车辆用显示装置以及车辆
US20170166122A1 (en) * 2015-12-14 2017-06-15 Fujitsu Limited Warning system and method
JP2018101337A (ja) * 2016-12-21 2018-06-28 パナソニックIpマネジメント株式会社 ドライブレコーダ

Also Published As

Publication number Publication date
JP7159851B2 (ja) 2022-10-25
US20200200560A1 (en) 2020-06-25
JP2020102031A (ja) 2020-07-02

Similar Documents

Publication Publication Date Title
KR102504579B1 (ko) 차량 혼합 현실의 조건부 가용성
CN109791738B (zh) 行驶辅助装置以及计算机程序
US10885791B2 (en) Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
US10315664B2 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
US9809165B1 (en) System and method for minimizing driver distraction of a head-up display (HUD) in a vehicle
CN110796007B (zh) 场景识别的方法与计算设备
US20200307616A1 (en) Methods and systems for driver assistance
US10591909B2 (en) Handheld mobile device for adaptive vehicular operations
US10369995B2 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
CN103969831A (zh) 车辆抬头显示装置
CN111009146B (zh) 服务器、信息处理方法和存储程序的非暂时性存储介质
US10996070B2 (en) Route guidance apparatus and method
US20200096360A1 (en) Method for planning trajectory of vehicle
KR20210038462A (ko) 전용 차도 주행 알림 방법, 장치, 기기 및 저장매체
US11270136B2 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
US20200118433A1 (en) Drive assistance system
US20230166755A1 (en) Vehicle display control device, vehicle display control system, and vehicle display control method
JP5803624B2 (ja) 車両制御システム、車両制御装置、車両制御方法及びコンピュータプログラム
CN111348049A (zh) 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法
CN115195772A (zh) 用于预测周围车辆的轨迹的装置和方法
CN111347975B (zh) 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法
US20220090934A1 (en) Guide generation method and guide system
US20220063721A1 (en) Travel controller and method for travel control
JP2023082979A (ja) 逆走検知システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200630