CN111319557B - 报告装置 - Google Patents

报告装置 Download PDF

Info

Publication number
CN111319557B
CN111319557B CN201911265029.1A CN201911265029A CN111319557B CN 111319557 B CN111319557 B CN 111319557B CN 201911265029 A CN201911265029 A CN 201911265029A CN 111319557 B CN111319557 B CN 111319557B
Authority
CN
China
Prior art keywords
driver
report
sound
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911265029.1A
Other languages
English (en)
Other versions
CN111319557A (zh
Inventor
伊藤隼人
金道敏树
岩本贵之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN111319557A publication Critical patent/CN111319557A/zh
Application granted granted Critical
Publication of CN111319557B publication Critical patent/CN111319557B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及报告装置,对于驾驶员适当地报告本车辆的周围的物体的信息。报告装置(100)具备:物体检测部(21),检测本车辆(V)的周围的物体的位置以及相对状况;虚拟声源设定部(25),基于检测到的物体的位置来在驾驶员的周围设定虚拟声源;声音输出部(6),对于驾驶员输出报告声;声音输出控制部(26),基于所设定的虚拟声源以及相对状况从声音输出部(6)输出报告声以使驾驶员识别为与相对状况对应的报告声从所设定的虚拟声源的方向到来。

Description

报告装置
技术领域
本发明涉及对于本车辆的驾驶员报告周围的物体的信息的报告装置。
背景技术
例如,在专利文献1中记载了一种在预测本车辆的前方的前行车辆的动作并判定为前行车辆正在并线至本车辆的前方的情况下输出警报声的装置。由此,本车辆的驾驶员能够通过警报声来识别前行车辆正并线这一情况。
专利文献1:日本特开2018-097644号公报
在专利文献1所记载的装置中,驾驶员基于报告声仅能够认识到前行车辆正并线这一情况。因此,在本技术领域中,期望能够对于驾驶员恰当地报告本车辆的周围的物体的信息的结构。
发明内容
本发明的一个方面所涉及的报告装置是对于本车辆的驾驶员报告本车辆的周围的物体的信息的报告装置,具备:物体检测部,基于外部传感器的检测结果来检测物体的位置以及物体相对于本车辆的相对状况;虚拟声源设定部,基于检测到的物体的位置来在驾驶员的周围设定虚拟声源;声音输出部,对于驾驶员输出报告声;以及声音输出控制部,基于所设定的虚拟声源以及相对状况从声音输出部输出报告声以使驾驶员识别为与相对状况对应的报告声从所设定的虚拟声源的方向到来。
报告装置基于检测到的物体的位置来在驾驶员的周围设定虚拟声源,并以被识别为从虚拟声源的方向到来的方式输出报告声。由此,驾驶员能够基于报告声到来的方向来识别物体所存在的方向等基于物体的位置的信息。另外,报告装置输出与相对状况对应的报告声。由此,驾驶员能够基于报告声识别相对状况。这样,报告装置能够通过报告声来报告基于物体的位置的信息和相对状况。因此,报告装置能够对于驾驶员适当地报告本车辆的周围的物体的信息。
虚拟声源设定部可以基于检测到的物体的位置、以及基于检测到的物体的位置预测的物体的位置中的至少任一个来使虚拟声源移动。该情况下,报告装置能够通过使虚拟声源移动来容易地将驾驶员的注意吸引到欲吸引注意的方向等对于驾驶员更适当地进行报告。
报告装置可以还具备判定是否存在检测到的物体与本车辆发生干涉的可能性的干涉判定部,声音输出控制部关于由干涉判定部判定为存在与本车辆发生干涉的可能性的物体输出报告声,关于由干涉判定部判定为不存在与本车辆发生干涉的可能性的物体不输出报告声。该情况下,报告装置能够关于因不存在与本车辆干涉的可能性而报告的需要性较低的物体不进行报告,仅关于因存在与本车辆干涉的可能性而报告的需要性较高的物体进行报告。
报告装置可以还具备基于驾驶员的输入操作来设定不进行使用了报告声的报告的物体的对象外设定部,声音输出控制部关于被设定为不进行使用了报告声的报告的物体的物体不输出报告声。该情况下,由于报告装置关于驾驶员输入的不需要报告的物体不进行报告,所以能够抑制输出不需要的报告声。
报告装置可以还具备将驾驶员的视线方向或者驾驶员的面部所朝向的方向检测为驾驶员视线方向的视线方向检测部,声音输出控制部从声音输出部输出和相对于驾驶员的虚拟声源的方向与驾驶员视线方向的偏移对应的报告声。该情况下,报告装置能够通过输出和虚拟声源的方向与驾驶员视线方向的偏移对应的报告声来对于驾驶员报告视线方向(驾驶员视线方向)发生了偏移这一情况。而且,报告装置能够通过与偏移对应的报告声来促使驾驶员将驾驶员视线方向朝向虚拟声源的方向。
报告装置可以还具备:光报告部,使用光对于驾驶员进行报告;发光控制部,根据相对状况来使光报告部发光。该情况下,报告装置能够使用报告声与光报告部的发光来将周围的物体的信息报告给驾驶员。另外,即便驾驶员的注意被光报告部的发光等吸引,报告装置也能够将驾驶员的注意吸引到使用报告声被报告的物体。
根据本发明的一个方面,能够对于驾驶员适当地报告本车辆的周围的物体的信息。
附图说明
图1是包括第一实施方式所涉及的报告装置的车辆的一个例子的功能框图。
图2是表示从上方观察本车辆的内部的情况下的声音输出部的结构的一个例子的图。
图3是表示本车辆的外部状况的一个例子的本车辆周围的俯视图。
图4是表示作为显示器的光报告部所显示的显示图像的一个例子的图。
图5是表示本车辆的外部状况的一个例子的本车辆周围的俯视图。
图6是表示作为显示器的光报告部所显示的显示图像的一个例子的图。
图7是表示报告装置所进行的报告处理的流程的流程图。
图8是表示使用了视觉刺激的报告处理的流程的流程图。
图9是表示使用了听觉刺激的报告处理的流程的流程图。
图10是表示本车辆的外部状况的一个例子的本车辆周围的俯视图。
图11是表示报告其他车辆的位置的情况下的虚拟声源的动作的一个例子的图。
图12是表示进行驾驶员的视线引导的情况下的虚拟声源的动作的一个例子的图。
图13是表示其他车辆汇合的情况下的虚拟声源的动作的一个例子的本车辆周围的俯视图。
图14是表示其他车辆汇合的情况下的虚拟声源的动作的一个例子的本车辆周围的俯视图。
图15是表示其他车辆汇合的情况下的虚拟声源的动作的一个例子的本车辆周围的俯视图。
图16是表示其他车辆汇合的情况下的虚拟声源的动作的一个例子的本车辆周围的俯视图。
图17是表示提高音量、频率或者节拍的情况下的音量等的波形的一个例子的图。
图18是表示降低音量、频率或者节拍的情况下的音量等的波形的一个例子的图。
图19是表示本车辆向左侧的车道进行车道变更的情况下的外部状况的一个例子的本车辆周围的俯视图。
图20是表示在本车辆向左侧的车道进行车道变更的情况下所设定的虚拟声源的位置的本车辆周围的俯视图。
图21是表示本车辆向左侧的车道进行车道变更的情况下的虚拟声源的动作的一个例子的本车辆周围的俯视图。
图22是表示在本车辆向左侧的车道进行车道变更的情况下用于进行驾驶员的视线引导的虚拟声源的动作的一个例子的本车辆周围的俯视图。
图23是表示包括第二实施方式所涉及的报告装置的车辆的一个例子的功能框图。
图24是表示包括第三实施方式所涉及的报告装置的车辆的一个例子的功能框图。
图25是表示驾驶员视线方向相对于要监视物体所存在的方向的偏移的图。
图26是表示基于第一技术思想修饰了报告声的情况下的音量的变化的图表。
图27是表示基于第二技术思想修饰了报告声的情况下的音量的变化的图表。
图28是表示基于第一技术思想以及第二技术思想修饰了报告声的情况下的音量的变化的图表。
附图标记说明:
6…声音输出部;7…光报告部;21…物体检测部;23、23A…干涉判定部;25…虚拟声源设定部;26、26A、26B…声音输出控制部;27…发光控制部;28…对象外设定部;31…视线方向检测部;100、100A、100B…报告装置;V…本车辆。
具体实施方式
以下,参照附图对实施方式进行说明。其中,在以下的说明中,对相同或者相当的要素标注相同的附图标记,省略重复的说明。
(第一实施方式)
首先,对第一实施方式进行说明。如图1所示,第一实施方式所涉及的报告装置100被搭载于能够进行自动驾驶的乘用车等本车辆V。自动驾驶是使本车辆V朝向预先设定的目的地自动地行驶的车辆控制。在自动驾驶中,不需要驾驶员进行驾驶操作,本车辆V自动地进行行驶。报告装置100对于本车辆V的驾驶员报告本车辆V的周围的物体的信息。报告装置100例如在本车辆V的自动驾驶中报告本车辆V的周围的物体的信息。
本车辆V具备GPS接收部1、内部传感器2、地图数据库3、外部传感器4、促动器5、自动驾驶ECU10以及报告装置100。
GPS接收部1从3个以上GPS卫星接收信号来取得表示本车辆V的位置的位置信息。位置信息例如包含纬度以及经度。也可以使用能够确定本车辆V所存在的纬度以及经度的其他机构来代替GPS接收部1。
内部传感器2是检测本车辆V的行驶状态的检测设备。内部传感器2包括车速传感器、加速度传感器以及横摆率传感器。车速传感器是检测本车辆V的速度的检测器。作为车速传感器,例如可使用对于本车辆V的车轮或者与车轮一体旋转的驱动轴等设置、检测车轮的旋转速度的车轮速传感器。
加速度传感器是检测本车辆V的加速度的检测器。加速度传感器可以包括检测本车辆V的前后方向的加速度的前后加速度传感器和检测本车辆V的横向的加速度的横向加速度传感器。横摆率传感器是检测本车辆V的重心围绕铅垂轴的横摆率(旋转角速度)的检测器。作为横摆率传感器,例如能够使用陀螺仪传感器。
地图数据库3是存储地图信息的存储装置。地图数据库3例如被储存在搭载于本车辆V的HDD(Hard Disk Drive)内。地图数据库3包含静止物体的信息、交通规则、信号灯的位置等作为地图信息。静止物体例如是路面喷图(包括白线、黄线等车道分界线)以及构造物(路缘石、杆、电线杆、建筑物、标志、树木等)等。地图数据库3所包含的地图信息的一部分可以存储在与存储地图数据库3的HDD不同的存储装置。地图数据库3所包含的地图信息的一部分或者全部也可以设置于能够与本车辆V通信的服务器。
外部传感器4是检测本车辆V的外部状况的检测设备。外部传感器4包括照相机以及雷达传感器中的至少一个。
照相机是拍摄本车辆V的周围的状况的拍摄设备。作为一个例子,照相机被设置于本车辆V的前风挡玻璃的里侧。照相机将与本车辆V的外部状况相关的拍摄信息取得为外部状况的检测结果。照相机可以是单目照相机,也可以是立体照相机。立体照相机具有被配置为再现两眼视差的两个拍摄部。立体照相机的拍摄信息还包含纵深方向的信息。
雷达传感器是利用电波(例如毫米波)或者光来检测本车辆V的周边的状况的检测设备。雷达传感器例如包括毫米波雷达或者光学雷达[LIDAR:Light Detection andRanging]。雷达传感器通过向本车辆V的周边发射电波或者光并接收被物体反射后的电波或者光来取得本车辆V的外部状况的检测结果。
促动器5是执行本车辆V的行驶控制的装置。促动器5至少包括发动机促动器、制动促动器以及转向操纵促动器。发动机促动器通过根据来自自动驾驶ECU10的控制信号变更相对于发动机的空气供给量(例如变更节气门开度)来控制本车辆V的驱动力。其中,在本车辆V为混动车或者电动汽车的情况下,发动机促动器控制作为动力源的马达的驱动力。
自动驾驶ECU10进行本车辆V的自动驾驶控制。自动驾驶ECU10是具有CPU(CentralProcessing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信电路等的电子控制单元。自动驾驶ECU10例如基于CPU所输出的信号使CAN通信电路动作来输入输出数据,将数据存储于RAM,通过将存储于ROM的程序加载至RAM,并执行加载至RAM的程序,来实现自动驾驶控制。自动驾驶ECU10可以由多个电子控制单元构成。自动驾驶ECU10也可以是与设置于报告装置100的报告ECU20一体的电子控制单元。
自动驾驶ECU10例如基于本车辆V的位置、地图数据库3的地图信息、从外部传感器4的检测结果获得的本车辆V的周边的状况以及从内部传感器2的检测结果获得的车辆状态(车速、横摆率等)来生成沿预先设定的目标路线的行进路(路径以及车速曲线)。目标路线可以由本车辆V的驾驶员手动设定,也可以由公知的导航系统或者自动驾驶ECU10自动设定。自动驾驶ECU10能够通过公知的方法进行线路的生成。自动驾驶ECU10通过向本车辆V的促动器5(发动机促动器、制动促动器、转向操纵促动器等)发送控制信号来执行沿着行进路的本车辆V的自动驾驶。
报告装置100具备声音输出部6、光报告部7以及报告ECU20。声音输出部6基于报告ECU20的控制来对于本车辆V的驾驶员输出报告声。该报告声是用于报告本车辆V的周围的物体的信息的声音。这样,报告装置100通过从声音输出部6输出报告声来使用声音将本车辆V的周围的物体的信息报告给本车辆V的驾驶员。
这里,报告装置100基于检测到的物体的位置在驾驶员的周围设定虚拟声源,以使驾驶员识别为报告声从所设定的虚拟声源的方向到来的方式从声音输出部6输出报告声。报告装置100能够通过变更虚拟声源相对于驾驶员的位置来变更报告声相对于驾驶员到来的方向。即,声音输出部6构成为能够以使驾驶员识别为报告声从所设定的虚拟声源的方向到来的方式输出报告声。
具体而言,报告装置100例如可以使用基于作为公知技术的声场合成的方法以使驾驶员识别为报告声从所设定的虚拟声源的方向到来的方式输出报告声。基于声场合成的方法是通过控制从多个扬声器输出的声音的音量(振幅)以及相位(扬声器的驱动时机)来生成与从所设定的虚拟声源的位置输出的情况等效的声场的方法。由此,驾驶员感觉为报告声从所设定的虚拟声源的位置(方向)到来。在使用该基于声场合成的方法的情况下,声音输出部6在本车辆V内具备被配置于驾驶员的周围的多个扬声器。
这里,上述的基于声场合成的方法需要足够数量的扬声器。因此,在搭载于本车辆V的扬声器中,有时扬声器的数量较少而无法高精度地进行声场合成。因此,报告装置100例如可以通过以下说明的模拟手法以使驾驶员识别为报告声从所设定的虚拟声源的方向到来的方式输出报告声。例如,在本车辆V中,如图2所示,在驾驶员D的周围配置由对于驾驶员D输出声音的扬声器SPn(n=1~8)。即,声音输出部6具备扬声器SP1~SP8。基于检测到的物体的位置而在驾驶员D的周围设定虚拟声源A。由将虚拟声源A与驾驶员D连结的直线L和将各扬声器SPn与驾驶员D连结的直线所形成的角度为θn(n=1~8)。
报告装置100可以基于该角度θn来选择与成为最小的角度θn对应的扬声器SPn,从所选择的扬声器SPn输出报告声。即,在使用模拟手法的情况下,作为以使驾驶员识别为报告声从所设定的虚拟声源A的方向到来的方式输出报告声,报告装置100可以从与成为最小的角度θn对应的扬声器SPn输出报告声。
在图2所示的例子的情况下,角度θ2最小。因此,报告装置100从扬声器SP2输出报告声。另外,从扬声器SPn输出的音量可以根据角度θn而衰减。作为一个例子,从扬声器SPn输出的报告声的音量M可以通过下式(1)表达。其中,下式中的M0以及σ是被预先决定的常量。
M=M0exp(-θn 22) (1)
另外,在图2所示的情况下,报告装置100可以除了从扬声器SP2输出报告声之外还从角度θn第二小的扬声器SP1输出报告声。该情况下,从扬声器SP1输出的报告声的音量可以与扬声器SP2相同,也可以是针对扬声器SP1通过上述的式(1)计算出的音量。并且,报告装置100可以除了从扬声器SP1以及SP2输出报告声之外还从扬声器SP3与扬声器SP2同样地输出报告声。作为成为输出报告声的对象的扬声器SPn,报告装置100例如可以使用角度θn满足-90°<θn<90°的扬声器SPn。在这样使用模拟手法的情况下,声音输出部6在本车辆V内具备被配置于驾驶员的周围的多个扬声器。使用模拟手法的情况下的扬声器的数量可以比使用上述的基于声场合成的方法的情况下的扬声器的数量少。
另外,报告装置100例如也可以通过使用了作为公知技术的头部传递函数的方法以使驾驶员识别为报告声从所设定的虚拟声源的方向到来的方式输出报告声。例如,在来自某个声源的声音到达右耳之前,音量以及音的相位依据从声源到达耳朵为止的距离以及方向而变化。使表示该变化的函数为头部传递函数hR。该情况下,实际到达右耳的声音XR成为运算了从声源输出的原始声音x与头部传递函数hR后的声音。同样,实际到达左耳的声音XL成为运算了从声源输出的原始声音x与头部传递函数hL后的声音。通过利用这个,能够使从驾驶员至虚拟声源为止的距离与虚拟声源相对于驾驶员的方向变化。头部传递函数hR以及hL是根据从驾驶员至虚拟声源为止的距离与方向而决定的函数。该头部传递函数可以关于从驾驶员至虚拟声源为止的距离以及方向预先针对各种情况进行测定并进行数据库化。听到向右耳的声音XR与向左耳的声音XL的驾驶员感觉为声音从所设定的虚拟声源的位置到来。该情况下,声音输出部6具备被配置在靠近驾驶员的耳朵的位置的扬声器。例如,声音输出部6可以具备头戴式耳机(Headphone)以及耳塞(earphone)等紧贴于耳朵的方式的扬声器,也可以具备设置于驾驶员就坐的座位的头枕的扬声器。
此外,报告装置100也可以通过上述的基于声场合成的方法等以外的方法以使驾驶员识别为报告声从设定的虚拟声源的方向到来的方式从声音输出部6输出报告声。该情况下,声音输出部6只要是能够根据报告装置100所使用的方法输出报告声的构成即可。
光报告部7是使用光来对于本车辆V的驾驶员进行报告的设备。光报告部7能够基于报告ECU20的控制来使发光形态变化。光报告部7例如可以是面向驾驶员配置的显示器、抬头显示器、显示本车辆V的速度等的显示设备、灯等。例如,作为使发光形态变化的方式,光报告部7可以使显示内容、发光的颜色、亮度等变化。这样,报告装置100通过使光报告部7发光来使用光将本车辆V的周围的物体的信息报告给本车辆V的驾驶员。
报告ECU20与自动驾驶ECU10同样,是具有CPU、ROM、RAM、CAN通信电路等的电子控制单元。报告ECU20在功能上具备物体检测部21、本车辆运动决定部22、干涉判定部23、变动检测部24、虚拟声源设定部25、声音输出控制部26以及发光控制部27。
物体检测部21基于由外部传感器4检测到的外部状况的检测结果来检测本车辆V的周围的物体。物体检测部21例如检测为了分离其他车辆、行人、车道而设置于道路的杆等作为物体。物体检测部21例如可以使用表示道路以及道路周边的物体的三维形状的地图信息、表示车辆以及行人的外形的模板等,根据外部传感器4的检测结果来检测物体。物体检测部21识别所检测到的物体的种类(车辆、行人、杆等的种类)。物体检测部21中的物体的检测以及种类的识别能够使用公知的技术来进行。
更详细而言,物体检测部21基于由外部传感器4检测到的外部状况的检测结果来检测本车辆V的周围的物体的位置以及物体相对于本车辆V的相对状况。这里,物体的位置表示以本车辆V为基准时物体所存在的位置(即相对位置)。另外,物体相对于本车辆V的相对状况表示物体相对于本车辆V的相对的状况。物体相对于本车辆V的相对状况例如可以是本车辆V与物体的相对速度、本车辆V与物体的相对距离、本车辆V与物体的碰撞富余时间(TTC:Time To Collision)、本车辆V与物体干涉的可能性(概率)等。
在本实施方式中,作为一个例子,物体检测部21对于检测到的物体赋予物体ID,并将该物体ID、识别到的物体的种类、检测出的相对状况相互建立对应。物体检测部21按每个检测到的物体(每个物体ID)一边追踪一边检测物体。其中,该物体ID在物体检测部21以外的报告ECU20的各构成要素中也能够继续使用。报告装置100按物体检测部21所赋予的每个物体ID进行报告。
本车辆运动决定部22计算本车辆V的行进路。在本实施方式中,作为本车辆V的行进路,本车辆运动决定部22使用由自动驾驶ECU10生成的行进路。此外,本车辆运动决定部22并不限定于从自动驾驶ECU10取得行进路,也可以通过进行与自动驾驶ECU10同样的处理来计算行进路。如上所述,本车辆运动决定部22所计算(取得)的行进路包含本车辆V的路径以及车速曲线。本车辆运动决定部22所计算的行进路包括绝对坐标作为路径,可以还包括本车辆V的方位。
干涉判定部23判定由物体检测部21检测到的物体与本车辆V是否存在干涉的可能性。例如,在本车辆V基于行进路进行行驶的情况下,干涉判定部23能够将发生干涉的可能性比预先决定的阈值大的物体判定为存在干涉的可能性的物体。
这里,例如在由物体检测部21检测到的物体为其他车辆等移动的物体的情况下,干涉判定部23基于物体的位置的变化来预测物体的位置。而且,干涉判定部23可以基于预测出的物体的位置与由本车辆运动决定部22计算出的本车辆V的行进路来判定是否存在物体与本车辆V干涉的可能性。另外,例如在由物体检测部21检测到的物体为杆等不移动的物体的情况下,干涉判定部23可以基于检测到的物体的位置与由本车辆运动决定部22计算出的本车辆V的行进路来判定是否存在物体与本车辆V干涉的可能性。以下,将由干涉判定部23判定出的存在干涉的可能性的物体称为“干涉物体”。
此外,干涉判定部23基于包括路径以及车速曲线的行进路判定了干涉的可能性。并不局限于此,干涉判定部23也可以基于本车辆V所行驶的路径来判定由物体检测部21检测到的物体是否存在干涉的可能性。
变动检测部24检测由干涉判定部23判定出的干涉物体是否存在变动。这里,在干涉物体存在变动(例如,因车辆的制动器或者加速器引起的速度变化、因车辆的转向操作引起的方位变化、行人的突然出现等)的情况下,有时与本车辆V干涉的可能性提高。因此,报告装置100通过向驾驶员报告与存在变动的干涉物体有关的信息,能够进行有效的报告。具体而言,变动检测部24基于干涉物体的生成(产生)或者消失、干涉物体的分离或者退缩、干涉物体的大小或者形状的变化、干涉物体的位置或者相对于本车辆V的方位的变化、干涉物体的种类的变化、本车辆V与干涉物体干涉的可能性的变化、干涉物体被预测的运动的变化、物体检测部21中的检测干涉物体的可靠性的变化等来检测干涉物体的变动。此外,变动检测部24所检测的干涉物体的变动除了包括干涉物体本身的速度等发生了变化之外,还包括因物体检测部21基于外部传感器4的检测结果所进行的物体的检测的波动(误差)引起的变动。
虚拟声源设定部25基于由物体检测部21检测出的物体的位置来在驾驶员的周围设定虚拟声源。其中,在本实施方式中,虚拟声源设定部25基于由物体检测部21检测到的物体中的在变动检测部24中检测到变动(检测为存在变动)的干涉物体的位置来在驾驶员的周围设定虚拟声源。另外,在检测到变动的干涉物体存在多个的情况下,虚拟声源设定部25按每个干涉物体分别设定虚拟声源。
在本实施方式中,虚拟声源设定部25使用被检测到变动的干涉物体的位置作为在驾驶员的周围设定的虚拟声源的位置。即,在从驾驶员观察的情况下,被检测到变动的干涉物体所存在的方向与虚拟声源的方向一致。
声音输出控制部26基于由虚拟声源设定部25设定的虚拟声源以及由物体检测部21检测出的相对状况,以使驾驶员识别为与相对状况对应的报告声从所设定的虚拟声源的方向到来的方式从声音输出部6输出报告声。即,声音输出控制部26使用报告声来报告表示被检测到变动的干涉物体所存在的方向以及相对状况的向量型信息。
另外,作为与相对状况对应的报告声,声音输出控制部26例如根据相对状况来决定音量(振幅)、频率以及声音的节拍的至少任一个,并从声音输出部6输出所决定的音量等的报告声。
此外,当在驾驶员的周围设定有多个虚拟声源的情况下,声音输出控制部26以使驾驶员识别为各个报告声从所设定的各虚拟声源的方向到来的方式从声音输出部6输出关于各虚拟声源的报告声。即,声音输出控制部26以成为关于各虚拟声源的报告声被合成的状态的方式从声音输出部6输出各报告声。
这里,如上所述,报告装置100能够使用基于声场合成的方法等各种方法,以使驾驶员识别为报告声从所设定的虚拟声源的方向到来的方式输出报告声。声音输出控制部26通过根据所使用的方法控制声音输出部6,来以使驾驶员识别为从所设定的虚拟声源的方向到来的方式从声音输出部6输出报告声。
在本实施方式中,作为一个例子,声音输出控制部26通过生成声学信号并将所生成的声学信号输入至声音输出部6来输出报告声。具体而言,声音输出控制部26生成用于输出基于所设定的虚拟声源以及相对状况的报告声的物体声学信号。在虚拟声源被设定有多个的情况下,声音输出控制部26按每个报告声(每个虚拟声源)生成物体声学信号。声音输出控制部26基于物体声学信号来生成用于控制声音输出部6的声学信号。在虚拟声源仅被设定有一个的情况下,声音输出控制部26将所生成的物体声学信号使用为声学信号。在虚拟声源被设定有多个的情况下,声音输出控制部26将按每个虚拟声源生成的多个物体声学信号合成来生成声学信号。声音输出控制部26通过将所生成的声学信号输入至声音输出部6来从声音输出部6输出报告声。在虚拟声源仅被设定有一个的情况下,仅输出一个报告声。在虚拟声源被设定有多个的情况下,以将多个报告声合成的状态从声音输出部6输出。
由此,报告装置100能够使用报告声将被检测到变动的干涉物体所存在的方向以及相对状况报告给驾驶员。另外,即便在被检测到变动的干涉物体存在多个的情况下,报告装置100也能够针对各干涉物体使用合成后的报告声来将干涉物体所存在的方向以及相对状况报告给驾驶员。
此外,被设定了虚拟声源的干涉物体是在干涉判定部23判定为与本车辆V存在干涉的可能性的物体。即,声音输出控制部26针对由干涉判定部23判定为与本车辆V存在干涉的可能性的物体输出报告声,针对由干涉判定部23判定为与本车辆V不存在干涉的可能性的物体不输出报告声。
其中,在使用上述的基于声场合成的方法以及采用头部传递函数的方法等的情况下,报告装置100能够以使驾驶员识别为从所设定的虚拟声源的位置到来的方式输出报告声。该情况下,声音输出控制部26可以以使驾驶员识别为不仅从所设定的虚拟声源的方向还从虚拟声源的位置到来的方式从声音输出部6输出报告声。由此,听到报告声的驾驶员能够意识到虚拟声源的位置(虚拟声源的方向以及至虚拟声源为止的距离)。
发光控制部27基于由物体检测部21检测到的物体的相对状况来使光报告部7发光。即,发光控制部27使用光报告部7的发光来报告表示相对状况的标量(scalar)型信息。在本实施方式中,发光控制部27使用由物体检测部21检测到的物体中的由干涉判定部23判定出的干涉物体作为进行使用了光报告部7的信息的报告的对象的物体。并且,在本实施方式中,发光控制部27使用由干涉判定部23判定出的干涉物体中的在变动检测部24中检测到变动(检测为存在变动)的干涉物体作为进行使用了光报告部7的信息的报告的对象的物体。
此外,在被检测到变动的干涉物体存在多个的情况下,发光控制部27将被检测到变动的多个干涉物体中的基于预先决定的选择条件而选择出的一个干涉物体作为进行使用了光报告部7的信息的报告的对象的物体而使用。在本实施方式中,发光控制部27使用与本车辆V的干涉的可能性作为预先决定的选择条件。该情况下,具体由发光控制部27基于被检测到变动的多个干涉物体中的与本车辆V干涉的可能性最高的干涉物体的相对状况来使光报告部7发光。
作为根据相对状况使光报告部7发光的方式,发光控制部27以与相对状况对应的发光形态来使光报告部7发光。例如,发光控制部27可以根据与本车辆V干涉的可能性来变更光报告部7的发光的颜色或者亮度等。例如,发光控制部27可以在干涉的可能性低的情况下使光报告部7以绿色发光,在干涉的可能性高的情况下使光报告部7以红色发光。
由此,报告装置100能够使用光报告部7的发光将被检测到变动的干涉物体的相对状况报告给驾驶员。另外,在被检测到变动的干涉物体存在多个的情况下,报告装置100能够使用光报告部7的发光将关于与本车辆V干涉的可能性最高的干涉物体的相对状况报告给驾驶员。
接下来,对报告装置100中的使用了报告声以及光报告部7的发光的信息的报告的具体例进行说明。如图3所示,例如本车辆V正在具有车道R1、R2、R3的道路R的车道R2上行驶。在本车辆V的右前方,其他车辆W1正在车道R3上行驶。在比其他车辆W1更靠前方,其他车辆W2正在车道R2上行驶。在本车辆V的左前方位于道路R的左侧的路边的行人H欲横穿道路R。
该情况下,物体检测部21检测到其他车辆W1、其他车辆W2以及行人H的位置以及相对状况。行人H欲横穿道路R。因此,干涉判定部23将行人H判定为干涉物体。例如,由于本车辆V与行人H干涉的可能性发生了变化(变高),所以变动检测部24检测为行人H存在变动。即,在图3所示的例子中,成为使用报告声以及光报告部7的发光的报告的对象的物体仅为行人H。
因此,虚拟声源设定部25在行人H的位置设定虚拟声源。声音输出控制部26以使驾驶员识别为与相对状况对应的报告声从所设定的虚拟声源的方向(行人H的方向)到来的方式从声音输出部6输出报告声。这样,声音输出控制部26通过基于所设定的虚拟声源以及相对状况从声音输出部6输出报告声,能够借助听觉刺激来报告行人H所存在的方向以及相对状况。
另一方面,发光控制部27通过根据行人H的相对状况使光报告部7发光,来借助视觉刺激将行人H的相对状况报告给本车辆V的驾驶员。例如,光报告部7是能够显示图像的显示器。另外,例如如图4所示,该光报告部7显示从上方观察本车辆V的外部状况的情况下的图像。该情况下,发光控制部27例如可以使光报告部7显示行人H开始横穿的情况下的碰撞富余时间作为行人H的相对状况。例如,作为该相对状况,发光控制部27可以使光报告部7显示与碰撞富余时间对应的长度以及颜色的条状标识MK1。
这样,报告装置100能够使用听觉刺激以及视觉刺激来向本车辆V的驾驶员报告行人H的信息。
接下来,如图5所示,对其他车辆W1从图3所示的状态一边进行制动一边突然欲并线至车道R2上的本车辆V的前方的情况进行说明。该情况下,干涉判定部23将行人H以及其他车辆W1判定为干涉物体。例如,由于本车辆V与其他车辆W1干涉的可能性发生了变化(变高),所以变动检测部24检测为除了行人H存在变动之外、其他车辆W1也存在变动。即,在图5所示的例子中,成为使用报告声以及光报告部7的发光的报告的对象的物体为行人H以及其他车辆W1。
因此,除了行人H的位置之外,虚拟声源设定部25还在其他车辆W1的位置设定虚拟声源。即,虚拟声源设定部25设定行人H用的虚拟声源和其他车辆W1用的虚拟声源。声音输出控制部26以使驾驶员识别为各个报告声从所设定的各虚拟声源的方向到来的方式从声音输出部6输出报告声。即,声音输出控制部26除了输出行人H用的报告声之外,还以使驾驶员识别为与其他车辆W1的相对状况对应的报告声从其他车辆W1的方向到来的方式从声音输出部6输出其他车辆W1用的报告声。这样,声音输出控制部26通过除了行人H用的报告声之外还输出其他车辆W1用的报告声,能够借助听觉刺激分别报告行人H所存在的方向以及相对状况和其他车辆W1所存在的方向以及相对状况。
另一方面,发光控制部27选择行人H以及其他车辆W1中的干涉的可能性最高的物体。在本实施方式中,发光控制部27将接近本车辆V的其他车辆W1选择为干涉的可能性较高的物体。而且,发光控制部27通过根据其他车辆W1的相对状况使光报告部7发光,来借助视觉刺激将其他车辆W1的相对状况报告给本车辆V的驾驶员。具体而言,例如发光控制部27可以使光报告部7显示本车辆V与其他车辆W1的碰撞富余时间作为其他车辆W1的相对状况。例如,发光控制部27可以如图6所示那样使光报告部7显示与碰撞富余时间对应的长度以及颜色的条状标识MK2作为该相对状况。在图6所示的例子中,与图4所示的例子相比,由于本车辆V与其他车辆W1的碰撞富余时间较短,所以标识MK2的长度变短。另外,例如发光控制部27可以使图6所示的例子中的标识MK2的颜色为红色,使图4所示的例子中的标识MK1的颜色为绿色。
这样,报告装置100能够使用听觉刺激来将行人H以及其他车辆W1的信息报告给本车辆V的驾驶员,并且使用视觉刺激来向本车辆V的驾驶员报告其他车辆W1的信息。
因此,在其他车辆W1从图3所示的状态如图5所示那样并线至本车辆V的前方的情况下,报告装置100能够一边借助使用了报告声的听觉刺激持续地报告行人H的存在一边使用听觉刺激以及视觉刺激来报告新产生的其他车辆W1的干涉的可能性。由此,本车辆V的驾驶员不会选择惊讶于其他车辆W1的行动的变化而向左方进行方向盘操作之类的增高与行人H干涉的可能性的不适当行动,而容易选择使用制动操作来避免与其他车辆W1干涉的动作。
这里,若借助视觉刺激来报告与其他车辆W1相关的信息,则驾驶员会因“注意性失明”而忘记行人H的存在,存在仅对其他车辆W1加以注意的趋势。其中,注意性失明是指对于未加以注意的事物视为不存在这一认知的趋势。由此,由于驾驶员避免与加以注意的其他车辆W1的干涉,所以尽管行人H位于左方,也容易向左方进行方向盘操作。因该注意性失明引起的驾驶员的行动是即便使用抬头显示器等进行视觉刺激、即便在EL显示器等显示有鸟瞰图像时进行强调其他车辆W1的显示也难以避免的驾驶员的反应。另外,即便同时提示两个视觉刺激(这里为其他车辆W1和行人H的视觉刺激),在认知上也会仅觉察到一个,并且会产生驾驶员的反应因选择该一个视觉刺激的工序而延迟这一情况。
与此相对,使用听觉刺激来报告物体的信息的方法与使用视觉刺激来进行报告的情况相比,能够抑制驾驶员的注意性失明。因此,本实施方式的报告装置100通过进行使用了听觉刺激的报告,能够一边抑制注意性失明一边报告物体的信息。在上述的图5所示的例子中,本车辆V的驾驶员能够一边借助听觉刺激持续地认识到行人H的存在一边还注意到新提示的其他车辆W1。另外,在本实施方式中,报告装置100组合听觉刺激与视觉刺激来进行报告。具体而言,报告装置100针对干涉的可能性较高的其他车辆W1除了借助听觉刺激之外还借助视觉刺激来进行报告。由此,即便驾驶员因视觉刺激对其他车辆W1加以注意,报告装置100也能够借助听觉刺激持续地使驾驶员认识到行人H的存在。这样,报告装置100能够使用视觉刺激与听觉刺激来适当地报告物体的信息。
接下来,使用图7的流程图对在报告装置100的报告ECU20中进行的报告处理的流程进行说明。其中,报告ECU20在自动驾驶ECU10开始了本车辆V的自动驾驶的时机开始图7所示的报告处理。但是,也可以在自动驾驶控制开始以外的时机开始图7所示的报告处理。另外,在图7所示的报告处理结束了的情况下,报告ECU20例如在经过预先决定的时间后再次从起始开始处理。
如图7所示,物体检测部21基于由外部传感器4检测到的外部状况的检测结果来检测本车辆V的周围的物体(S101)。本车辆运动决定部22计算本车辆V的行进路(S102)。干涉判定部23基于计算出的本车辆V的行进路来判定由物体检测部21检测到的物体是否存在与本车辆V干涉的可能性(S103)。
变动检测部24针对在干涉判定部23中被判定为存在干涉的可能性的干涉物体检测是否存在变动(S104)。然后,报告ECU20使用视觉刺激以及听觉刺激来报告与被检测到变动的干涉物体有关的信息(S105)。
接下来,对在图7的S105中进行的使用了视觉刺激的报告处理的流程详细进行说明。如图8所示,发光控制部27基于预先决定的选择条件来确定被检测到变动的干涉物体中的报告对象的物体(S201)。其中,在被检测到变动的干涉物体为一个的情况下,将该干涉物体确定为报告对象的物体。发光控制部2根据被确定为报告对象的干涉物体的相对状况来使光报告部7发光(S202)。
接下来,对在图7的S105中进行的使用了听觉刺激的报告处理的流程详细进行说明。如图9所示,声音输出控制部26生成用于输出基于所设定的虚拟声源以及相对状况的报告声的物体声学信号(S301)。在虚拟声源被设定有多个的情况下,声音输出控制部26按每个虚拟声源生成物体声学信号。声音输出控制部26基于物体声学信号来生成用于控制声音输出部6的声学信号(S302)。在虚拟声源仅被设定有一个的情况下,声音输出控制部26将所生成的物体声学信号使用为声学信号。在虚拟声源被设定有多个的情况下,声音输出控制部26将按每个虚拟声源生成的多个物体声学信号合成而生成声学信号。声音输出控制部26通过将所生成的声学信号输入至声音输出部6来从声音输出部6输出报告声(S303)。
如以上那样,报告装置100基于检测到的物体的位置在驾驶员的周围设定虚拟声源,以被识别为从虚拟声源到来的方式输出报告声。由此,驾驶员能够基于报告声到来的方向识别物体所存在的方向。另外,报告装置100输出与相对状况对应的报告声。由此,驾驶员能够基于报告声识别相对状况。这样,报告装置100能够通过报告声来报告基于物体的位置的信息和相对状况。因此,报告装置100能够对于驾驶员适当地报告本车辆V的周围的物体的信息。
声音输出控制部26关于由干涉判定部23判定为存在与本车辆V干涉的可能性的物体输出报告声,关于被判定为不存在干涉的可能性的物体不输出报告声。该情况下,报告装置100能够关于因不存在与本车辆V干涉的可能性而报告的需要性较低的物体不进行报告,仅关于因存在与本车辆V干涉的可能性而报告的需要性较高的物体进行报告。
报告装置100具备声音输出部6以及光报告部7。由此,报告装置100能够使用从声音输出部6输出的报告声和光报告部7的发光来将本车辆V的周围的物体的信息报告给驾驶员。另外,即便光报告部7的发光等引起了驾驶员的注意,关于使用报告声被报告的物体,报告装置100也能够吸引驾驶员的注意。
(报告的各种具体例)
这里,在第一实施方式中,虚拟声源设定部25在被检测到变动的干涉物体的位置设定了虚拟声源。虚拟声源的设定方法能够根据对报告声的报告所期待的效果等而采用各种设定方法。以下,对虚拟声源的设定方法以及使用了报告声的报告的各种具体例进行说明。
报告装置100能够使用报告声(a)将干涉物体等的信息报告给驾驶员、(b)进行驾驶员的注意引导。以下,使用图10所示的场景来对上述(a)以及(b)具体进行说明。其中,图10中示出在邻接车道行驶的其他车辆W(干涉物体)超车本车辆V并要进入至本车辆V的行驶车道的场景。
(a)将干涉物体等的信息报告给驾驶员
作为将干涉物体等的信息报告给驾驶员的方法,例如存在如上述的第一实施方式那样使虚拟声源的位置(方向)与其他车辆W的位置(方向)一致的方法。这里,在图11中通过虚线示出了各时刻的其他车辆W的位置Wa。该其他车辆W的位置Wa是如图10所示那样其他车辆W行驶的情况下的各时刻的位置。其中,在图10以及图11中,将本车辆V所行驶的道路的车道宽度方向设为x轴。即,图11所示的其他车辆W的位置Wa表示了其他车辆W的车道宽度方向的位置的变化。另外,在图11中,汇合位置是其他车辆W向本车辆V的行驶车道汇合时的x轴方向的位置(预测位置)。该情况下,例如虚拟声源设定部25使虚拟声源按照其他车辆W的位置Wa的变化如在图11中用箭头所示的虚拟声源的移动P1那样移动。通过基于这样设定的虚拟声源进行报告,报告装置100能够使用报告声来报告其他车辆W的位置。
另外,作为其他方法,存在预测其他车辆W的路径并使虚拟声源从当前的其他车辆W的位置(方向)朝向其他车辆W的未来的预测位置(预测方向)移动的方法。其他车辆W的未来的预测位置例如能够基于由物体检测部21检测出的其他车辆W的位置的变化来预测。该情况下,例如虚拟声源设定部25使虚拟声源如图11中用箭头所示的虚拟声源的移动P2那样从当前的其他车辆W的位置朝向其他车辆W的未来的预测位置移动。在图11所示的例子中,其他车辆W的未来的预测位置成为其他车辆W向本车辆V的行驶车道汇合的位置(汇合位置)。该情况下,虚拟声源朝向其他车辆W的预测位置(预测方向)移动的速度比实际的其他车辆W的移动速度快。另外,虚拟声源设定部25在如图11所示的虚拟声源的移动P2那样其他车辆W向本车辆V的行驶车道移动的期间可以反复进行虚拟声源的移动,也可以仅进行一次虚拟声源的移动。通过基于这样设定的虚拟声源来进行报告,报告装置100能够使用报告声来报告其他车辆W的预测位置。
这样,在(a)将干涉物体等的信息报告给驾驶员的任何方法中,从本车辆V的驾驶员观察的情况下的虚拟声源的位置(方向)均与其他车辆W的当前或者未来的存在位置(方向)一致。
(b)进行驾驶员的注意引导
作为驾驶员的注意引导,报告装置100进行驾驶员的视线引导。作为引导驾驶员的视线的方法,例如存在以当前时刻的驾驶员的视线方向为起点、以其他车辆W的位置为终点而使虚拟声源移动的方法。这里,图12中通过实线示出了各时刻的驾驶员的视线方向Da。该情况下,虚拟声源设定部25使虚拟声源如图12中用箭头所示的虚拟声源的移动P3那样从当前时刻的视线方向Da朝向其他车辆的位置Wa移动。另外,虚拟声源设定部25可以如图12所示的虚拟声源的移动P3那样直至驾驶员的视线方向与其他车辆W的方向一致为止,反复进行虚拟声源的移动,也可以进行一次虚拟声源的移动。另外,驾驶员的当前时刻的视线方向例如可以是由拍摄驾驶员的车内照相机等测量而获得的方向,也可以是预先决定的方向(例如,假定为朝向正面)。通过基于这样设定的虚拟声源进行报告,报告装置100能够使用报告声来将驾驶员的注意吸引到其他车辆W。
(报告的场景的具体例)
接下来,对报告装置100使用报告声来进行报告的情况下的具体场景进行说明。作为报告装置100进行使用了报告声的报告的场景,例如根据周围的干涉物体的种类和本车辆V以及其他车辆的运动而区分为以下3个种类的场景。
(场景1)周围的动态的干涉物体与本车辆V干涉的情况。(例如,其他车辆进行车道变更的情况。)
(场景2)周围的静态的干涉物体与本车辆V干涉的情况。
(场景3)本车辆V与周围的物体干涉的情况。(例如,本车辆V进行车道变更的情况)。
以下,按上述的(场景1)~(场景3)的每一个,对使用报告声(a)将干涉物体等的信息报告给驾驶员的情况以及(b)进行驾驶员的注意引导的情况下的各报告的具体例进行说明。其中,以下例示虚拟声源的移动,但虚拟声源也可以进行以下例示以外的移动。
(场景1)周围的动态的干涉物体与本车辆V干涉的情况
首先,对在上述的(场景1)中(a)将干涉物体等的信息报告给驾驶员的情况下的报告的具体例进行说明。其中,作为场景1中的周围的动态的干涉物体与本车辆V干涉的情况而假定各种场景。以下,按场景1的被假定的各种场景中的每一个,对(a)将干涉物体等的信息报告给驾驶员的情况下的报告的具体例进行说明。
(场景1-1-a)并行车辆进行行进路变更的情况
作为上述的场景1,如图10所示,存在与本车辆V并行的其他车辆W(干涉物体)在本车辆V的前方进行行进路变更(其他车辆W从右侧并线)的情况。该情况下,虚拟声源设定部25使虚拟声源配合其他车辆W的动作(从右向左)而移动,将其他车辆W的位置报告给本车辆V的驾驶员。作为实现该报告的方法,存在直接提示其他车辆W的动作的方法和预测其他车辆W的动作并进行提示的方法。
直接提示其他车辆W的动作的方法是传达其他车辆W的位置的方法。在直接提示其他车辆W的动作的情况下,图11所示,虚拟声源设定部25按照其他车辆W的位置Wa的变化使虚拟声源如虚拟声源的移动P1那样移动。另外,预测其他车辆W的动作并进行提示的方法是传达未来的预测位置的方法。在预测并提示其他车辆W的动作的情况下,虚拟声源(声)的位置与其他车辆W的位置不同。在预测并提示其他车辆W的动作的情况下,虚拟声源设定部25如图11所示的虚拟声源的移动P2那样使虚拟声源向其他车辆W的预测位置移动。
(场景1-2-a)其他车辆汇合的情况
作为上述的场景1,如图13所示,存在与本车辆V并行的其他车辆W(干涉物体)向本车辆V的行驶车道汇合的情况。该情况下,虚拟声源设定部25通过使虚拟声源按照预测出的其他车辆W的路径Wb移动,来向驾驶员报告其他车辆W的预测行进路。作为实现该报告的方法,与上述的“(场景1-1-a)并行车辆进行行进路变更的情况”同样,存在直接提示其他车辆W的动作的方法和预测并提示其他车辆W的动作的方法。在直接提示其他车辆W的动作的情况下,如图13所示,虚拟声源设定部25按照其他车辆W的位置的变化使虚拟声源如虚拟声源的动作P4那样移动。在预测并提示其他车辆W的动作的情况下,虚拟声源设定部25使虚拟声源如虚拟声源的动作P5那样朝向其他车辆W的预测位置移动。
作为其他例子,虚拟声源设定部25可以使多个虚拟声源如图14所示的虚拟声源的动作P6那样以聚焦至其他车辆W的方式移动。另外,虚拟声源设定部25使多个虚拟声源如图14所示的虚拟声源的动作P7那样以聚焦至汇合地点X(预测的汇合地点)的方式移动。由此,报告装置100能够使用报告声向本车辆V的驾驶员报告其他车辆W的位置或者汇合地点X。
(场景1-3-a)接近前方的其他车辆的情况
作为上述的场景1,存在本车辆V接近前方的其他车辆(干涉物体)的情况。该情况下,虚拟声源设定部25使虚拟声源从前方的纵深侧向近前侧接近。另外,该情况下,声音输出控制部26例如通过上述的基于声场合成的方法或者使用头部传递函数的方法,以使驾驶员识别为从所设定的虚拟声源的位置到来的方式输出报告声。由此,报告装置100能够报告本车辆V接近前方的其他车辆这一情况。
(场景1-4-a)前方的其他车辆起步的情况
作为上述的场景1,存在停在本车辆V的前方的其他车辆(干涉物体)起步的情况。该情况下,虚拟声源设定部25使虚拟声源从近前侧向纵深侧远离。该情况下,声音输出控制部26例如通过使用上述的基于声场合成的方法或者使用头部传递函数的方法以被驾驶员识别为从设定的虚拟声源的位置到来的方式输出报告声。由此,报告装置100能够报告前方的其他车辆的位置发生了变化(起步)。
此外,当在上述的(场景1-1-a)~(场景1-4-a)中输出报告声时,存在由干涉判定部23判定为干涉物体的状态变稳定(无变动)的情况。该情况下,声音输出控制部26可以通过降低报告声的音量、频率或者节拍来使使用了报告声的报告的使用感觉提高或者拉低驾驶员的注意等级。由此,报告装置100能够容易地使驾驶员对更应该注目的干涉物体(障碍物)加以注意。此外,在声音输出控制部26通过使用了声场合成或头部传递函数的方法输出报告声的情况下,通过使由虚拟声源设定部25设定的虚拟声源的位置保持不变,并降低从虚拟声源发出的报告声的音量、频率以及节拍中的至少任一个,能够获得同样的效果。
接下来,对在上述的(场景1)中(b)进行驾驶员的注意引导的报告的具体例进行说明。以下,按场景1的各种场景的每一个对(b)进行驾驶员的注意引导的报告的具体例进行说明。
(场景1-1-b)并行车辆进行行进路变更的情况
作为上述的场景1,如图10所示,存在与本车辆V并行的其他车辆W(干涉物体)向本车辆V的前方进行行进路变更的情况。该情况下,虚拟声源设定部25使虚拟声源如图12所示的虚拟声源的移动P3那样从本车辆V的驾驶员的视线方向Da朝向其他车辆的位置Wa移动。这样,报告装置100能够将本车辆V的驾驶员的注意吸引到并行的其他车辆W的位置。
(场景1-2-b)其他车辆汇合的情况
作为上述的场景1,如图15所示,存在与本车辆V并行的其他车辆W(干涉物体)向本车辆V的行驶车道汇合的情况。该情况下,虚拟声源设定部25使虚拟声源如虚拟声源的动作P8那样从当前时刻的视线方向Da朝向其他车辆W移动。另外,虚拟声源设定部25使虚拟声源如虚拟声源的动作P9那样从当前时刻的视线方向Da朝向其他车辆W的汇合地点X移动。虚拟声源设定部25可以直至驾驶员的视线方向与其他车辆W或者汇合地点X的方向一致为止,反复进行上述的虚拟声源的移动,也可以仅进行一次。这样,报告装置100能够通过使虚拟声源移动来将驾驶员的注意吸引到其他车辆W或者汇合地点X。
此外,声音输出控制部26可以通过随着与进行汇合的其他车辆W的距离变短而提高音量、频率或者节拍来进一步吸引本车辆V的驾驶员的注意。
另外,虚拟声源设定部25可以使虚拟声源如图16所示的虚拟声源的移动P10那样从本车辆V的驾驶员的视线方向朝向预测出的其他车辆W的路径Wb移动。由此,报告装置100能够使驾驶员对进行汇合的其他车辆W加以注意。此外,声音输出控制部26也可以通过提高或者降低进行移动的虚拟声源的汇合侧的音量来将驾驶员的注意吸引到进行汇合的方向。另外,与上述的(场景1-1-a)~(场景1-4-a)的情况同样,在由干涉判定部23判定为干涉物体的状态变得稳定(无变动)的情况下,声音输出控制部26可以降低报告声的音量、频率或者节拍。
(场景1-3-b)接近前方的其他车辆的情况
作为上述的场景1,存在本车辆V接近前方的其他车辆(干涉物体)的情况。该情况下,虚拟声源设定部25使虚拟声源从前方的纵深侧向近前侧接近。或者,虚拟声源设定部25使虚拟声源以从驾驶员的视线方向朝向前方的其他车辆的方向远离的方式移动。由此,报告装置100能够使本车辆V的驾驶员对前方加以注意。
另外,在本车辆V接近前方的其他车辆的情况下,声音输出控制部26可以通过提高或者降低报告声的音量或者频率来对本车辆V的驾驶员进行注意提醒。
(场景1-4-b)前方的其他车辆起步的情况
作为上述的场景1,存在停在本车辆V的前方的其他车辆(干涉物体)起步的情况。该情况下,虚拟声源设定部25使虚拟声源从前方的纵深侧向近前侧接近。或者,虚拟声源设定部25使虚拟声源从驾驶员的视线方向朝向本车辆V的前方移动。由此,报告装置100能够使本车辆V的驾驶员对前方加以注意。
另外,当停在本车辆V的前方的其他车辆起步的情况下,声音输出控制部26可以通过提高或者降低报告声的音量或者频率来对本车辆V的驾驶员进行注意提醒或者使本车辆V的驾驶员对前方加以注意。
在上述的(场景1-1-b)~(场景1-4-b)中,存在干涉物体(障碍物)存在多个的情况。例如,如图5所示,该情况存在在前方的路边存在行人、其他车辆在比行人更靠近前进行并线的情况。该情况下,声音输出控制部26可以提高或者降低与接近本车辆V的干涉物体对应的虚拟声源的音量、频率或者节拍。该情况下,报告装置100能够使驾驶员对干涉的可能性更加迫近的干涉物体加以注意。另外,声音输出控制部26通过提高或者降低与距本车辆V较远的干涉物体对应的虚拟声源的音量、频率或者节拍,能够抑制因注意性失明而导致驾驶员遗忘远方的干涉物体。
此外,在上述的(场景1)中使报告声的音量、频率或者节拍发生变化的情况下,声音输出控制部26例如选择图17以及图18所示的音量、频率或者节拍的波形中的适当的波形来使报告声的音量等发生变化。由此,报告装置100能够控制使用了报告声的报告的强度(传递的强度)。
(场景2)周围的静态的干涉物体与本车辆V干涉的情况。
接下来,对上述的(场景2)中的报告的具体例进行说明。在场景2中,报告装置100也能够通过上述的(a)将干涉物体等的信息报告给驾驶员的方法,使用报告声来报告静态的障碍物的信息。另外,报告装置100能够通过上述的(b)进行驾驶员的注意引导的方法,使用报告声来进行基于静态的障碍物的驾驶员的注意引导。在这些情况下,声音输出控制部26可以按动态的干涉物体与静态的干涉物体来划分报告声的音色、音量、频率或者节拍。由此,报告装置100能够对于本车辆V的驾驶员报告干涉物体为动态还是静态。
此外,在场景2中,也如在上述的场景1中说明那样,声音输出控制部26可提高或者降低与靠近本车辆V的干涉物体对应的虚拟声源的音量、频率或者节拍。另外,在按动态的干涉物体与静态的干涉物体划分报告声的音量、频率或者节拍的情况下,声音输出控制部26例如可以选择图17以及图18所示的音量、频率或者节拍的波形中的适当的波形来使报告声的音量等发生变化。另外,针对音色,声音输出控制部26也可以从预先设定的动态的干涉物体用的音色以及静态的干涉物体用的音色中根据动态还是静态选择适当的音色来输出报告声。
(场景3)本车辆V与周围的物体干涉的情况。
例如,若本车辆V进行车道变更等,则可考虑与其他车辆等干涉这一情况。因此,在本车辆V进行车道变更等时,报告装置100能够报告是否与周围的物体干涉等。为了对此加以实现,报告装置100能够使用报告声来报告本车辆V的动作。通过报告本车辆V的动作,报告装置100能够与本车辆V的动作一同报告在本车辆V按照被报告的动作行驶的情况下周围的物体与本车辆V是否干涉等。
这里,作为“(场景3)本车辆V与周围的物体干涉的情况”的一个例子,如图19所示,使用本车辆V向左侧的车道进行车道变更而要进入至左侧的车道的情况来对报告的具体例进行说明。其中,图19所示的例子是本车辆V一边向左车道进行车道变更一边欲并线到其他车辆W11与其他车辆W12之间的汇合地点X(预测的汇合地点)的情况。
首先,对在上述的(场景3)中(a)将干涉物体等的信息报告给驾驶员的情况下的报告的具体例进行说明。此外,这里报告装置100报告本车辆V进行了车道变更的情况下的汇合地点X的信息作为干涉物体等的信息。
(场景3-a)本车辆向左侧的车道进行车道变更的情况
在本车辆向左侧的车道进行车道变更的情况下,如图20所示,虚拟声源设定部25在汇合地点X设定虚拟声源P11,或者在比本车辆V靠汇合地点X侧的位置(在该例子中为本车辆V的左侧)设定虚拟声源P12。声音输出控制部26基于所设定的虚拟声源P11或者P12来输出报告声。该情况下,声音输出控制部26可以输出预先决定的汇合地点的报告用的报告声来代替与上述的干涉物体的相对状况对应的报告声。由此,报告装置100能够对于本车辆V的驾驶员报告本车辆V向左侧的车道汇合的地点(汇合地点X)、或者本车辆V向左右哪一侧的车道汇合(哪一侧为汇合地点X)。
另外,作为其他方法,虚拟声源设定部25也可以通过将在本车辆V进行了车道变更之后在本车辆V的前后行驶的其他车辆的信息报告给驾驶员来报告本车辆V的汇合地点(本车辆V并线到哪一位置)。具体而言,虚拟声源设定部25通过上述的各种方法相对于在本车辆V汇合后在前方行驶的其他车辆W12或者在后方行驶的其他车辆W11设定虚拟声源。声音输出控制部26可以提高或者降低与其他车辆W12或者W11对应的虚拟声源的音量、频率或者节拍。由此,报告装置100能够通过改变报告声的音量等来报告本车辆V的汇合地点。
作为又一其他例子,如图21所示,虚拟声源设定部25在汇合地点X的前后设定虚拟声源,使所设定的虚拟声源如箭头所示的虚拟声源的移动P13或者P14那样移动。具体而言,虚拟声源设定部25使在汇合地点X的前后设定的虚拟声源如虚拟声源的移动P13所示那样聚焦至汇合地点X,或者使在汇合地点X的前后设定的虚拟声源如虚拟声源的移动P14所示那样从汇合地点X扩散。该情况下,声音输出控制部26可以输出预先决定的汇合地点的报告用的报告声来代替与上述的干涉物体的相对状况对应的报告声。通过基于这样设定的虚拟声源进行报告,报告装置100能够使用报告声来报告汇合地点X的位置。
作为又一其他方法,虚拟声源设定部25也可以在汇合地点X的前后设定虚拟声源,并提高或者降低所设定的虚拟声源的音量、频率或者节拍。由此,报告装置100能够通过改变报告声的音量等来报告本车辆V的汇合地点。
接下来,对在上述的(场景3)中(b)进行驾驶员的注意引导的报告的具体例进行说明。其中,这里报告装置100针对本车辆V进行车道变更时的汇合地点X进行驾驶员的注意引导。
(场景3-b)本车辆向左侧的车道进行车道变更的情况
例如,在基于被设定在本车辆V的周围的虚拟声源来输出报告声的情况下,声音输出控制部26提高或者降低从相对于本车辆V的驾驶员被设置在汇合侧的声音输出部6输出的报告声的音量。这样,报告装置100通过提高或者降低从汇合侧的声音输出部6输出的报告声的音量,能够使驾驶员对汇合方向加以注意。
作为其他方法,虚拟声源设定部25使虚拟声源如图22所示的虚拟声源的移动P15那样从本车辆V的驾驶员的视线方向Da朝向汇合地点X移动。通过基于这样设定的虚拟声源来输出报告声,报告装置100能够使驾驶员对汇合地点X加以注意。
此外,在场景3中,声音输出控制部26也可以在划分报告声的音量、频率或者节拍的情况下,例如选择图17以及图18所示的音量、频率或者节拍的波形中的适当的波形来使报告声的音量等发生变化。
(第二实施方式)
接下来,对第二实施方式进行说明。其中,在以下的说明中,对与第一实施方式中的报告装置100同样的构成要素标注相同附图标记并省略详细的说明。以下,以与第一实施方式的不同点为中心进行说明。
如图23所示,针对使用报告声进行了报告的干涉物体,第二实施方式所涉及的报告装置100A基于驾驶员的操作来使使用了报告声的报告停止。这里,例如存在第一实施方式所涉及的报告装置100将不与本车辆V干涉的物体误判定为干涉物体并针对该物体进行报告的情况。具体而言,例如存在报告装置100将分离道路的杆或者设置于道路边的木偶等误识别为行人或者车辆并将它们误判定为干涉物体的情况。在进行了干涉物体的误判定的情况下,本实施方式所涉及的报告装置100A也能够基于驾驶员的操作使报告停止。
具体而言,在搭载有报告装置100A的本车辆V中除了设置有第一实施方式中的GPS接收部1等之外,还设置有输入装置8。输入装置8是接受由本车辆V的驾驶员(乘员)进行的停止报告的输入操作的设备。这里,本车辆V的驾驶员听闻报告声来确认报告对象的物体。在判定为不需要报告(不发生干涉的物体)的情况下,驾驶员通过操作输入装置8来将不需要报告的主旨输入至报告装置100A。其中,输入装置8例如可以是按钮型开关。
报告装置100A具备声音输出部6、光报告部7以及报告ECU20A。报告ECU20A与第一实施方式中的报告ECU20同样,是具有CPU、ROM、RAM、CAN通信电路等的电子控制单元。
报告ECU20A在功能上具备物体检测部21、本车辆运动决定部22、对象外设定部28、干涉判定部23A、变动检测部24、虚拟声源设定部25、声音输出控制部26A、发光控制部27以及对象外数据库(对象外DB)29。
对象外设定部28基于驾驶员对输入装置8的输入操作来设定不进行使用了报告声的报告的物体。具体而言,例如对象外设定部28从声音输出控制部26A取得正进行使用了报告声的报告的干涉物体的物体ID。若驾驶员通过输入装置8输入了报告的停止,则对象外设定部28对于从声音输出控制部26A取得的干涉物体的物体ID附加表示为不需要报告的不需要报告信号。这样,对象外设定部28通过对物体ID附加不需要报告信号来设定不进行使用了报告声的报告的物体。此时,例如发光控制部27可以通过使作为显示器的光报告部7强调显示成为停止报告的选择对象的干涉物体等来将哪个干涉物体成为停止报告的选择对象传达给驾驶员。
此外,输入装置8例如也可以是控制杆(joy stick)等还能够受理方向的输入的开关来代替按钮型开关。该情况下,例如在声音输出控制部26A正针对多个干涉物体进行使用了报告声的报告时,对象外设定部28可以基于输入至控制杆等输入装置8的方向的信息来确定停止报告的干涉物体(物体ID)。此时,例如发光控制部27可以通过使作为显示器的光报告部7强调显示成为停止报告的选择对象的多个干涉物体等来辅助驾驶员对报告的停止的选择操作。
此外,不需要报告信号在由对象外设定部28附加于物体ID之后在对象外设定部28以外的干涉判定部23A、变动检测部24、虚拟声源设定部25以及声音输出控制部26A中也被继续使用。
即,干涉判定部23A在针对与被附加了不需要报告信号的物体ID对应的物体判定了干涉的有无之后,与干涉的判定结果一同对该物体ID附加不需要报告信号并输送至变动检测部24。但是,在对物体ID附加有不需要报告信号的情况下,干涉判定部23A针对被附加了该物体ID的物体不进行干涉的有无的判定,可以对该物体ID附加不需要报告信号并输送至变动检测部24。另外,变动检测部24在针对与被附加了不需要报告信号的物体ID对应的干涉物体检测了变动的有无之后,与检测结果一同对该物体ID附加不需要报告信号并输送至虚拟声源设定部25。但是,在对物体ID附加有不需要报告信号的情况下,变动检测部24可以不检测与被附加了该物体ID的干涉物体有关的变动的有无,对该物体ID附加不需要报告信号并输送至虚拟声源设定部25。
另外,在对于与被附加了不需要报告信号的物体ID对应的干涉物体设定了虚拟声源之后,虚拟声源设定部25与所设定的虚拟声源的信息一同对该物体ID附加不需要报告信号并输送至声音输出控制部26A。但是,在对物体ID附加有不需要报告信号的情况下,虚拟声源设定部25可以不进行与被附注了该物体ID的干涉物体有关的虚拟声源的设定,对该物体ID附加不需要报告信号并输送至声音输出控制部26。
在进行使用了报告声的报告时,声音输出控制部26A关于被设定为不进行使用了报告声的报告的物体的物体不输出报告声。即,在对成为报告的对象的干涉物体的物体ID附加了不需要报告信号的情况下,声音输出控制部26A不进行与该干涉物体有关的报告。由此,报告装置100A能够停止与由驾驶员判定为不需要报告的干涉物体有关的报告,仅针对未被判定为不需要的干涉物体使用报告声来报告信息。因此,报告装置100A能够抑制输出不需要的报告声这一情况。
另外,在由驾驶员判定为不需要报告的干涉物体稳定地存在于相同地点的情况下,报告装置100A能够使与稳定地存在的干涉物体有关的报告停止。由此,报告装置100A能够抑制对于稳定地存在的干涉物体(例如设置于道路边的木偶等)使用报告声来进行不需要的报告。具体而言,报告装置100A存储由驾驶员判定为不需要报告的干涉物体的位置(绝对坐标),针对在该位置检测到的干涉物体不进行使用了报告声的报告。
以下,对使稳定地存在的干涉物体的报告停止的处理的一个例子详细进行说明。对象外数据库29存储由驾驶员判定为不需要报告的干涉物体的绝对坐标。对象外设定部28使对象外数据库29存储由驾驶员判定为不需要报告的干涉物体的绝对坐标。更详细而言,对象外设定部28从物体检测部21取得检测到的物体的物体ID、种类信息、相对位置以及相对速度。另外,对象外设定部28从本车辆运动决定部22取得包括本车辆V的绝对坐标以及方位的本车辆V的行进路。对象外设定部28基于从物体检测部21以及本车辆运动决定部22取得的这些信息来求出驾驶员输入为不需要报告的干涉物体的绝对坐标。
对象外设定部28使对象外数据库29存储所求出的绝对坐标。另外,在使对象外数据库29存储绝对坐标时,当未存储有该绝对坐标的情况下,对象外设定部28向与该绝对坐标建立了对应的确认计数器登记1。另一方面,在使对象外数据库29存储绝对坐标时,当已经存储了该绝对坐标的情况下,对象外设定部28使与该绝对坐标建立了对应的确认计数器的值增加一。由此,每当驾驶员针对稳定地存在的物体进行不需要报告的输入操作时,与该物体的绝对坐标建立了对应的确认计数器的值便增加。
干涉判定部23A从物体检测部21取得检测到的物体的物体ID、种类信息、相对位置以及相对速度。另外,干涉判定部23A从本车辆运动决定部22取得包括本车辆V的绝对坐标以及方位的本车辆V的行进路。而且,干涉判定部23A基于所取得的这些信息来计算由物体ID指定的物体的绝对坐标。干涉判定部23A判定计算出的物体的绝对坐标是否被登记在对象外数据库29。当计算出的物体的绝对坐标被登记在对象外数据库29的情况下,干涉判定部23A判定与所登记的绝对坐标建立了对应的确认计数器的值是否大于预先决定的值。
在确认计数器的值大于预先决定的值的情况下,干涉判定部23A对物体ID附加不需要报告信号并输送至变动检测部24。即,即便在对象外设定部28未基于驾驶员的输入操作对物体ID附加不需要报告信号的情况下,干涉判定部23A也基于确认计数器的值对物体ID附加不需要报告信号。
在对成为报告的对象的干涉物体的物体ID附加有不需要报告信号的情况下,声音输出控制部26A不进行与该干涉物体相关的报告。由此,即便没有驾驶员的输入操作,报告装置100A也能够抑制对于稳定地存在的物体(非干涉物体)的使用了报告声的不需要的报告。
其中,与被存储于对象外数据库29的绝对坐标建立了对应的确认计数器的值例如可以伴随着时间的经过而减少。由此,能防止使用了报告声的报告被过度抑制这一情况。
另外,即便在对物体ID附加有不需要报告信号的情况下,当在变动检测部24中检测到与该物体ID对应的物体的变动的情况下,也可以删除不需要报告信号。由此,例如在驾驶员判断为不动作的驻车车辆移动了等情况下,报告装置100A能够针对该物体进行使用了报告声的报告。
并且,对象外数据库29与使对象外数据库29存储被判定为不需要报告的干涉物体的绝对坐标的功能部可以设置于在本车辆V的外部设置的数据中心等外部装置。即,可以在外部装置中存储被判定为不需要报告的干涉物体的绝对坐标。具体而言,例如外部装置从物体检测部21经由通信线路取得检测到的物体的物体ID、种类信息、相对位置以及相对速度。另外,外部装置从本车辆运动决定部22取得包括本车辆V的绝对坐标以及方位的本车辆V的行进路。并且,外部装置从对象外设定部28取得被附加了不需要报告信号的物体ID。
外部装置与上述的对象外设定部28同样,基于所取得的上述信息来求出驾驶员输入为不需要报告的干涉物体的绝对坐标。而且,外部装置可以使设置于外部装置内的对象外数据库存储所求出的绝对坐标。报告装置100A可以经由通信线路取得并使用被存储于外部装置的绝对坐标等来代替存储于上述的对象外数据库29的绝对坐标等。这样,被判定为不需要报告的物体的绝对坐标可以作为网络服务被提供。由此,能够在大量的车辆中利用由少数的车辆获得的信息。
此时,从报告装置100A发送至外部装置的信息可以仅是驾驶员判断为不需要报告的物体的绝对坐标。该情况下,能够减少从报告装置100A向外部装置的通信量。另外,为了确保由驾驶员确认过的信息的可靠性,可以将驾驶员或者发送过信息的车辆的ID也发送至外部装置并存储。
(第三实施方式)
接下来,对第三实施方式进行说明。其中,在以下的说明中,对与第一实施方式中的报告装置100同样的构成要素标注相同附图标记并省略详细的说明。以下,以与第一实施方式的不同点为中心进行说明。这里,在高度的自动驾驶系统中,存在驾驶员的车外监视义务被部分解除的情况。以下,对在从驾驶员的车外监视义务被解除了的状态变成需要车外监视义务的情况下,使用报告声来辅助驾驶员的车外监视的报告装置进行说明。
如图24所示,作为需要驾驶员的车外监视的情况下的辅助,第三实施方式所涉及的报告装置100B根据要监视物体所存在的方向与驾驶员的视线方向(面部的朝向)的偏移(偏移量)来修饰对于该要监视物体输出的报告声。由此,报告装置100B使驾驶员对于需要监视的要监视物体稳定地加以注意。另外,在用于供驾驶员进行非驾驶行动(Web浏览、电影欣赏以及发消息等)的第二任务设备12被设置于本车辆V的情况下,报告装置100B通过控制第二任务设备12来促使驾驶员的视线脱离第二任务设备12。
具体而言,在搭载有报告装置100B的本车辆V中除了设置有第一实施方式中的GPS接收部1等,还设置有车内照相机11以及第二任务设备12。车内照相机11是拍摄本车辆V的驾驶员的拍摄设备。第二任务设备12是用于供驾驶员进行Web浏览、电影欣赏以及发消息等非驾驶行动的设备(例如显示器等)。
报告装置100B具备声音输出部6、光报告部7以及报告ECU20B。报告ECU20B与第一实施方式中的报告ECU20同样,是具有CPU、ROM、RAM、CAN通信电路等的电子控制单元。
报告ECU20B在功能上具备物体检测部21、本车辆运动决定部22、干涉判定部23、变动检测部24、虚拟声源设定部25、要监视物体检测部30、视线方向检测部31、声音输出控制部26B、发光控制部27以及设备控制部32。
要监视物体检测部30对由物体检测部21检测到的物体中的需要由驾驶员进行监视的要监视物体进行检测。要监视物体检测部30例如可以基于由干涉判定部23判定出的干涉的程度来将干涉的程度为预先决定的基准值以上的物体检测为要监视物体。另外,要监视物体检测部30也可以将由变动检测部24检测出的变动的程度为预先决定的基准值以上的物体检测为要监视物体。
其中,在本实施方式中,由要监视物体检测部30检测为要监视物体的物体为被干涉判定部23判定为干涉物体并在变动检测部24中检测到变动、还在虚拟声源设定部25中被设定了虚拟声源的物体。另外,在本实施方式中,虚拟声源设定部25如在第一实施方式中说明那样在检测到变动的干涉物体的位置设定虚拟声源。即,虚拟声源设定部25在由要监视物体检测部30检测到的要监视物体的位置设定虚拟声源。
视线方向检测部31将驾驶员的视线方向或者驾驶员的面部所朝向的方向检测为驾驶员视线方向。在本实施方式中,视线方向检测部31能够通过公知的方法基于车内照相机11的拍摄图像来检测驾驶员视线方向。
在由要监视物体检测部30检测到要监视物体的情况下,声音输出控制部26B从声音输出部6输出检测到的要监视物体所涉及的报告声。这里,声音输出控制部26B与第一实施方式中的声音输出控制部26同样,以使驾驶员识别为与要监视物体的相对状况对应的报告声从相对于要监视物体设定的虚拟声源的方向到来的方式从声音输出部6输出报告声。并且,如图25所示,声音输出控制部26B根据驾驶员视线方向Db相对于要监视物体Y所存在的方向YL的偏移α来修饰要监视物体所涉及的报告声。其中,要监视物体Y所存在的方向YL是以驾驶员D为基准时要监视物体Y所存在的方向。此外,如上所述,要监视物体Y所存在的方向YL是要监视物体Y所涉及的虚拟声源被设定的方向。另外,驾驶员视线方向Db由视线方向检测部31检测。
另外,在根据驾驶员视线方向的偏移来修饰报告声的情况下,声音输出控制部26B例如根据偏移来使报告声的音量、频率、节拍以及音色的各项目中的未被为了表示相对状况而使用的项目发生变化。例如,在使用报告声的频率来表示要监视物体的相对状况的情况下,声音输出控制部26B可以根据驾驶员视线方向的偏移来使报告声的音量发生变化。其中,以下以通过根据驾驶员视线方向的偏移使音量发生变化来修饰报告声的情况为例进行说明。
这里,作为用于通过修饰报告声来将要监视物体所存在的方向传达给驾驶员的技术思想,例如可考虑如下两个。
第一技术思想是使要监视物体所涉及的报告声的音量与驾驶员能够认知的可能性(概率)成比例的思想。即,该技术思想是向报告声的音量变大的方向稳定地引导驾驶员的视线的思想。该情况下,例如如图26所示,随着驾驶员视线方向接近要监视物体所存在的方向,声音输出控制部26B增大报告声的音量。这里,如图26所示,在驾驶员视线方向相对于要监视物体所存在的方向的偏移小于预先决定的值的情况下,随着偏移变小,声音输出控制部26B增大报告声的音量。其中,在图26所示的图表中,横轴表示驾驶员视线方向,纵轴表示报告声的音量。在图27以及图28中也同样。另外,在图26中,当驾驶员视线方向与要监视物体所存在的方向一致时,报告声的音量最大。
第二技术思想是由于若要监视物体所存在的方向与驾驶员视线方向的偏移变大则驾驶员看漏要监视物体的概率上升所以使报告声的音量与看漏的概率成比例的思想。即,该技术思想是向报告声的音量变小的方向稳定地引导驾驶员的视线的思想。该情况下,例如如图27所示,随着驾驶员视线方向接近要监视物体所存在的方向,声音输出控制部26B减小报告声的音量。这里,如图27所示,在偏移变得小于预先决定的值的情况下,随着偏移变小,声音输出控制部26B减小报告声的音量。
这里,听觉的方位确定精度比视觉的方位确定精度低。另外,视觉具有基于中央窝的高分辨率的认知和基于周边视觉的低分辨率的认知这两个精度。因此,声音输出控制部26B可以如图28所示,在要监视物体所存在的方向与驾驶员视线方向的偏移大的情况下,使用第一技术思想来修饰报告声的音量,在偏移小的情况下使用第二技术思想来修饰告声的音量。该情况下,在驾驶员朝向要监视物体所存在的方向(虚拟声源的方向)时,随着驾驶员视线方向接近要监视物体所存在的方向,报告声的音量变大,在驾驶员视线方向与要监视物体所存在的方向一致时,报告声变小(例如音量为0)。
在由要监视物体检测部30检测到要监视物体的情况下,设备控制部32通过控制第二任务设备12来促使驾驶员的视线脱离第二任务设备12。例如,设备控制部32通过将第二任务设备12的显示从非驾驶行动所涉及的Web浏览等显示向表示与要监视物体的干涉程度的显示切换来促使驾驶员的视线脱离第二任务设备12。
这样,报告装置100B能够通过输出与要监视物体所存在的方向(虚拟声源的方向)和驾驶员视线方向的偏移对应的报告声来对于驾驶员报告视线方向(驾驶员视线方向)发生了偏移。而且,报告装置100B能够通过根据偏移被修饰过的报告声促使驾驶员将驾驶员视线方向朝向要监视物体所存在的方向(虚拟声源的方向)。
此外,在本实施方式中,虚拟声源设定部25在被检测到变动的干涉物体的位置设定了虚拟声源,但并不限定于该结构。虚拟声源设定部25也可以如在第一实施方式中作为报告的各种具体例说明那样例如在汇合地点等设定虚拟声源。该情况下,报告装置100B能够向汇合地点等引导驾驶员的视线。
以上,对本发明的实施方式进行了说明,但本发明并不限定于上述实施方式。例如,在上述各实施方式等中,成为报告的对象的物体为在干涉判定部23、23A中被判定为干涉物体的物体。并不局限于此。成为报告的对象的物体也可以是在变动检测部24中检测到变动的物体。即,在上述各实施方式等中,变动检测部24并不是针对由干涉判定部23判定出的干涉物体而是针对在物体检测部21中检测到的物体检测是否存在变动。而且,在存在发生变动的物体的情况下,可以在进行与本车辆V有无干涉的判定之前,进行与发生变动的物体有关的报告。
另外,例如在上述各实施方式等中,成为报告的对象的物体是由变动检测部24检测到变动的物体。并不局限于此,成为报告的对象的物体也可以是由干涉判定部23判定为存在干涉的物体。即,在上述各实施方式等中,可以不设置变动检测部24。
另外,例如在上述各实施方式等中,也可以不设置干涉判定部23、23A。即,成为报告的对象的物体可以是由物体检测部21检测到的物体。
在上述各实施方式等中,报告装置100、100A、100B并不限定于被搭载于能够进行自动驾驶的车辆。例如,报告装置100等可以被搭载于能够进行驾驶辅助的车辆或者手动驾驶车辆。该情况下,报告装置100的本车辆运动决定部22等例如可以使用采用了转向操纵角以及车速等公知的各种方法来计算车辆的行进路。
另外,在上述各实施方式等中,使用光的报告并不必须与使用报告声的报告一同进行。即,也可以不设置发光控制部27以及光报告部7。

Claims (5)

1.一种报告装置,对于本车辆的驾驶员报告所述本车辆的周围的物体的信息,其中,具备:
物体检测部,基于外部传感器的检测结果来检测所述物体的位置以及所述物体相对于所述本车辆的相对状况;
虚拟声源设定部,基于检测到的所述物体的位置来在所述驾驶员的周围设定虚拟声源;
声音输出部,对于所述驾驶员输出报告声;以及
声音输出控制部,基于所设定的所述虚拟声源以及所述相对状况从所述声音输出部输出所述报告声以使所述驾驶员识别为与所述相对状况对应的所述报告声从所设定的所述虚拟声源的方向到来,
还具备视线方向检测部,该视线方向检测部将所述驾驶员的视线方向或者所述驾驶员的面部所朝向的方向检测为驾驶员视线方向,
所述声音输出控制部从所述声音输出部输出和相对于所述驾驶员的所述虚拟声源的方向与所述驾驶员视线方向的偏移对应的所述报告声。
2.根据权利要求1所述的报告装置,其中,
所述虚拟声源设定部基于检测到的所述物体的位置、以及基于检测到的所述物体的位置预测的所述物体的位置中的至少任一个来使所述虚拟声源移动。
3.根据权利要求1或2所述的报告装置,其中,
还具备干涉判定部,该干涉判定部判定检测到的所述物体是否存在与所述本车辆发生干涉的可能性,
关于由所述干涉判定部判定为存在与所述本车辆发生干涉的可能性的所述物体,所述声音输出控制部输出所述报告声,
关于由所述干涉判定部判定为不存在与所述本车辆发生干涉的可能性的所述物体,所述声音输出控制部不输出所述报告声。
4.根据权利要求1或2所述的报告装置,其中,
还具备对象外设定部,该对象外设定部基于所述驾驶员的输入操作来设定不进行使用了所述报告声的报告的所述物体,
关于被设定为不进行使用了所述报告声的报告的所述物体的所述物体,所述声音输出控制部不输出所述报告声。
5.根据权利要求1或2所述的报告装置,其中,还具备:
光报告部,使用光对于所述驾驶员进行报告;和
发光控制部,根据所述相对状况来使所述光报告部发光。
CN201911265029.1A 2018-12-17 2019-12-11 报告装置 Active CN111319557B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-235499 2018-12-17
JP2018235499A JP7155991B2 (ja) 2018-12-17 2018-12-17 報知装置

Publications (2)

Publication Number Publication Date
CN111319557A CN111319557A (zh) 2020-06-23
CN111319557B true CN111319557B (zh) 2023-01-17

Family

ID=71073317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911265029.1A Active CN111319557B (zh) 2018-12-17 2019-12-11 报告装置

Country Status (3)

Country Link
US (1) US11492001B2 (zh)
JP (1) JP7155991B2 (zh)
CN (1) CN111319557B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722522B1 (en) * 2019-04-11 2024-03-27 Mitsubishi Logisnext Co., Ltd. Control device, control method, and program
US11427146B2 (en) * 2019-07-10 2022-08-30 Pony Ai Inc. Collision protection
JP7294200B2 (ja) * 2020-03-16 2023-06-20 トヨタ自動車株式会社 情報処理装置、車両システム、情報処理方法、およびプログラム
JP7431081B2 (ja) * 2020-03-27 2024-02-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
DE102020110974B3 (de) * 2020-04-22 2021-05-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Simulation eines Geräuschs in einem Kraftfahrzeug und Kraftfahrzeug
US11462021B2 (en) * 2021-01-13 2022-10-04 GM Global Technology Operations LLC Obstacle detection and notification for motorcycles
US11312300B1 (en) * 2021-01-29 2022-04-26 Toyota Motor Engineering & Manufacturing North America, Inc. Object notification systems for identifying and notifying vehicles of relevant objects
JP7447039B2 (ja) * 2021-03-10 2024-03-11 矢崎総業株式会社 車両用表示装置
US11972682B2 (en) * 2022-09-18 2024-04-30 International Business Machines Corporation Displaying vehicle information to a pedestrian using a visual indicator

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328603A (ja) * 2006-06-08 2007-12-20 Toyota Motor Corp 車両用警告装置
JP2008040974A (ja) * 2006-08-09 2008-02-21 Denso Corp 運転支援装置
CN101885309A (zh) * 2009-05-12 2010-11-17 李世雄 汽车辅助视频告警装置
CN102804259A (zh) * 2009-06-30 2012-11-28 本田技研工业株式会社 有源模拟声发生装置
CN103826919A (zh) * 2012-09-21 2014-05-28 株式会社小松制作所 作业车辆用周边监视系统及作业车辆
JP2014106786A (ja) * 2012-11-28 2014-06-09 Toyota Motor Corp 車載警報システム
JP2017056747A (ja) * 2015-09-14 2017-03-23 三菱電機株式会社 表示制御装置、表示装置および音像位置制御方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3922245B2 (ja) * 2003-11-20 2007-05-30 日産自動車株式会社 車両周辺監視装置および方法
JP3987057B2 (ja) * 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP2006190193A (ja) 2005-01-07 2006-07-20 Toyota Motor Corp 車両用警報装置
JP5272489B2 (ja) 2008-04-11 2013-08-28 日産自動車株式会社 車外情報提供装置および車外情報提供方法
JP2009301123A (ja) 2008-06-10 2009-12-24 Fuji Heavy Ind Ltd 車両の運転支援装置
US8269652B2 (en) * 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
JP2013157747A (ja) * 2012-01-27 2013-08-15 Denso Corp 音場制御装置及びプログラム
JP2013198065A (ja) * 2012-03-22 2013-09-30 Denso Corp 音声提示装置
CN104380378A (zh) * 2012-05-31 2015-02-25 丰田自动车株式会社 声源检测装置、噪声模型生成装置、噪声抑制装置、声源方位推定装置、接近车辆检测装置以及噪声抑制方法
JP2014061786A (ja) * 2012-09-21 2014-04-10 Sony Corp 移動体およびプログラム
US9469247B2 (en) * 2013-11-21 2016-10-18 Harman International Industries, Incorporated Using external sounds to alert vehicle occupants of external events and mask in-car conversations
US20150365743A1 (en) * 2014-06-14 2015-12-17 GM Global Technology Operations LLC Method and apparatus for including sound from an external environment into a vehicle audio system
KR101687825B1 (ko) * 2015-05-18 2016-12-20 현대자동차주식회사 차량 및 그 제어 방법
JP6688656B2 (ja) 2016-03-31 2020-04-28 株式会社Subaru 周辺リスク表示装置
US9672446B1 (en) * 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US20180034951A1 (en) * 2016-07-26 2018-02-01 Bragi GmbH Earpiece with vehicle forced settings
DE102016114413A1 (de) 2016-08-04 2018-03-22 Visteon Global Technologies, Inc. Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum
CN205905865U (zh) 2016-08-05 2017-01-25 黄律丹 基于立体声技术的车用警示系统
JP6765100B2 (ja) * 2016-08-31 2020-10-07 学校法人早稲田大学 視野外障害物検知システム
US11067996B2 (en) * 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
JP6731619B2 (ja) * 2016-10-26 2020-07-29 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
KR101827700B1 (ko) * 2016-11-01 2018-02-12 현대자동차주식회사 차량 및 그 제어방법
JP6815856B2 (ja) 2016-12-14 2021-01-20 日立オートモティブシステムズ株式会社 先行車両の走行軌跡予測装置及びその搭載車両
US10049686B1 (en) * 2017-02-13 2018-08-14 Bose Corporation Audio systems and method for perturbing signal compensation
US20180322413A1 (en) * 2017-05-08 2018-11-08 T-Mobile Usa, Inc. Network of autonomous machine learning vehicle sensors
EP3633650A4 (en) * 2017-05-31 2020-07-08 Fujitsu Limited DRIVING AID DEVICE, DRIVING AID SYSTEM, AND DRIVING AID METHOD
US10065638B1 (en) * 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US11210540B2 (en) * 2017-08-17 2021-12-28 Honda Motor Co., Ltd. System and method for providing rear seat monitoring within a vehicle
CN107521407B (zh) * 2017-08-24 2019-07-23 京东方科技集团股份有限公司 一种车辆前照灯控制系统及其控制方法、车辆
US10205428B1 (en) * 2017-10-31 2019-02-12 Toyota Research Institute, Inc. Variable audible-alert device
JP2019086813A (ja) * 2017-11-01 2019-06-06 株式会社デンソー 漫然運転抑制システム
US10846544B2 (en) * 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10882522B2 (en) * 2018-09-13 2021-01-05 Toyota Research Institute, Inc. Systems and methods for agent tracking
US10613219B1 (en) * 2018-10-03 2020-04-07 Ford Global Technologies, Llc Vehicle parking assistance for avoiding contact with garage doors
JP7181503B2 (ja) * 2018-11-22 2022-12-01 トヨタ自動車株式会社 変更操作支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328603A (ja) * 2006-06-08 2007-12-20 Toyota Motor Corp 車両用警告装置
JP2008040974A (ja) * 2006-08-09 2008-02-21 Denso Corp 運転支援装置
CN101885309A (zh) * 2009-05-12 2010-11-17 李世雄 汽车辅助视频告警装置
CN102804259A (zh) * 2009-06-30 2012-11-28 本田技研工业株式会社 有源模拟声发生装置
CN103826919A (zh) * 2012-09-21 2014-05-28 株式会社小松制作所 作业车辆用周边监视系统及作业车辆
JP2014106786A (ja) * 2012-11-28 2014-06-09 Toyota Motor Corp 車載警報システム
JP2017056747A (ja) * 2015-09-14 2017-03-23 三菱電機株式会社 表示制御装置、表示装置および音像位置制御方法

Also Published As

Publication number Publication date
JP2020098396A (ja) 2020-06-25
US11492001B2 (en) 2022-11-08
US20200189614A1 (en) 2020-06-18
CN111319557A (zh) 2020-06-23
JP7155991B2 (ja) 2022-10-19

Similar Documents

Publication Publication Date Title
CN111319557B (zh) 报告装置
US10293748B2 (en) Information presentation system
CN110033629B (zh) 信号灯识别装置以及自动驾驶系统
JP6591087B2 (ja) 表示制御装置、表示装置および表示制御方法
CN108694837B (zh) 错误路径车辆检测
JP2019182305A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7139902B2 (ja) 報知装置
JP6827378B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP6720924B2 (ja) 車外報知装置
JP7374098B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
JP7028131B2 (ja) 報知装置
CN113646201A (zh) 车辆用显示控制装置、车辆用显示控制方法、车辆用显示控制程序
US11610488B2 (en) Notification device and vehicle control device
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
WO2023204076A1 (ja) 音響制御方法及び音響制御装置
WO2023058342A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7172730B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2023149512A (ja) 運転支援装置、運転支援方法、およびプログラム
KR20230159450A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2023149504A (ja) 運転支援装置、運転支援方法、およびプログラム
JP2022151402A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2023061664A (ja) 車載通信装置、端末装置、通信方法、情報処理方法及び通信システム
CN117985038A (zh) 驾驶支援装置、驾驶支援方法及存储介质
CN117337253A (zh) 车辆用报告控制装置以及车辆用报告控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant