CN110271480B - 车辆系统 - Google Patents

车辆系统 Download PDF

Info

Publication number
CN110271480B
CN110271480B CN201910184045.1A CN201910184045A CN110271480B CN 110271480 B CN110271480 B CN 110271480B CN 201910184045 A CN201910184045 A CN 201910184045A CN 110271480 B CN110271480 B CN 110271480B
Authority
CN
China
Prior art keywords
vehicle
lighting
unit
camera
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910184045.1A
Other languages
English (en)
Other versions
CN110271480A (zh
Inventor
大坪高之
风冈成彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of CN110271480A publication Critical patent/CN110271480A/zh
Application granted granted Critical
Publication of CN110271480B publication Critical patent/CN110271480B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本发明提供车辆系统,其能够提高车辆的周边环境的识别精度,具备:照相机,以第一速率取得表示车辆的周边环境的图像数据;照相机控制部,控制照相机的动作;照明单元,朝向车辆的外部出射光;照明控制部,以第二速率对照明单元进行点亮控制;无线通信部,接收表示标准时刻的标准时刻信号;内部时刻调整部,基于标准时刻信号,以使车辆的内部时刻与标准时刻一致的方式调整内部时刻。照明单元的点亮时机与车辆外部的第二车辆的第二照明单元的点亮时机相互一致。照相机控制部基于与照明单元的点亮时机相关的信息,以图像数据的各帧的取得时机所对应的图像数据的取得期间与点亮时机所对应的照明单元的点亮期间不重叠或局部重叠的方式确定该取得时机。

Description

车辆系统
技术领域
本公开涉及车辆系统。特别是,本公开涉及设于能够以自动驾驶模式行驶的车辆的车辆系统。
背景技术
目前,各国正盛行汽车的自动驾驶技术的研究,并且各国正研究用于能够使车辆(以下,“车辆”指的是汽车)以自动驾驶模式在公路上行驶的法律法规。在此,在自动驾驶模式下,由车辆系统自动地控制车辆的行驶。具体而言,在自动驾驶模式下,车辆系统基于从照相机、雷达(例如,激光雷达、毫米波雷达)等传感器获得的表示车辆的周边环境的信息(周边环境信息),自动地进行转向控制(车辆的行进方向的控制)、制动控制以及油门控制(车辆的制动、加减速的控制)中的至少一个。另一方面,在以下叙述的手动驾驶模式下,现有类型的车辆多数是像下面那样由驾驶员控制车辆的行驶。具体而言,在手动驾驶模式下,按照驾驶员的操作(转向操作、制动操作、油门操作)控制车辆的行驶,车辆系统不会自动地进行转向控制、制动控制以及油门控制。注意,车辆的驾驶模式并非是仅在一部分的车辆中存在的概念,而是在还包含不具有自动驾驶功能的现有类型的车辆在内的全部车辆中存在的概念,例如可根据车辆控制方法等分类。
这样,预计在将来,在公路上,以自动驾驶模式行驶的车辆(以下,适当地称作“自动驾驶车”)与以手动驾驶模式行驶的车辆(以下,适当地称作“手动驾驶车”)将会混杂在一起。
作为自动驾驶技术的一个例子,在专利文献1中公开了一种后车自动跟随前车行驶的自动跟随行驶系统。在该自动跟随行驶系统中,前车与后车分别具备照明系统,前车的照明系统中显示用于防止其他车辆挤入前车与后车之间的文字信息,并且后车的照明系统中显示表示处于自动跟随行驶中这个意思的文字信息。
专利文献1:日本特开平9-277887号公报
然而,在自动驾驶技术的发展过程中,出现了使车辆的周边环境的识别精度显著提高的课题。在这一方面,由于表示车辆的周边环境的周边环境信息是基于由搭载于车辆的照相机取得的图像数据而生成的,因此图像数据的可靠性会在很大程度上影响到周边环境信息的可靠性。另一方面,在车辆是在夜间行驶的情况下,存在从对向车的照明单元出射的远光等眩光给图像数据的可靠性带来负面影响的可能性。更具体而言,由于从对向车的照明单元出射的光会导致图像数据产生晕影,因此存在该车辆不能准确地确定周边环境信息(特别是其他车辆的存在)的担忧。
发明内容
本公开的目的在于提供一种能够提高车辆的周边环境的识别精度的车辆系统。
本公开的一方式的车辆系统设于能够以自动驾驶模式行驶的车辆。
车辆系统具备:
照相机,其构成为以第一速率取得表示所述车辆的周边环境的图像数据;
照相机控制部,其构成为控制所述照相机的动作;
照明单元,其构成为朝向所述车辆的外部出射光;
照明控制部,其构成为以第二速率对所述照明单元进行点亮控制;
无线通信部,其构成为接收表示标准时刻的标准时刻信号;
内部时刻调整部,其构成为基于所述标准时刻信号以使所述车辆的内部时刻与所述标准时刻一致的方式调整所述内部时刻。
所述照明单元的点亮时机与存在于所述车辆的外部的第二车辆上设置的第二照明单元的点亮时机相互一致。
所述照相机控制部基于与所述照明单元的点亮时机相关的信息,以所述图像数据的各帧的取得时机所对应的所述图像数据的取得期间与所述点亮时机所对应的所述照明单元的点亮期间不重叠的方式,或者以所述取得期间与所述点亮期间局部重叠的方式,确定所述取得时机。
根据上述结构,照明单元的点亮时机与第二照明单元的点亮时机相互一致,且基于与照明单元的点亮时机相关的信息来确定图像数据的各帧的取得时机。这样,各帧的取得时机是基于第二照明单元的点亮时机而确定的,因此能够适当地防止从第二照明单元出射的光导致图像数据的各帧产生晕影。这样,能够提供可提高车辆的周边环境的识别精度的车辆系统。
本公开的另一方式的车辆系统设于能够以自动驾驶模式行驶的车辆。
车辆系统具备:
第一照相机,其构成为以第一速率取得表示所述车辆的周边环境的第一图像数据;
第二照相机,其构成为以比所述第一速率高的第二速率取得表示所述车辆的周边环境的第二图像数据;
照相机控制部,其构成为控制所述第一照相机以及所述第二照相机的动作。
所述照相机控制部构成为,
基于所述第二图像数据,确定与存在于所述车辆的外部的第二车辆上设置的第二照明单元的点亮时机相关的点亮时机信息,
基于确定出的所述点亮时机信息,以所述第一图像数据的各帧的取得时机所对应的所述第一图像数据的取得期间与所述点亮时机所对应的所述第二照明单元的点亮期间不重叠的方式,或者以所述取得期间与所述点亮期间局部重叠的方式,确定所述取得时机。
根据本公开,能够提供可提高车辆的周边环境的识别精度的车辆系统。
附图说明
图1是表示具备车辆系统的车辆的俯视情况的示意图。
图2是表示车辆系统的框图。
图3是表示第一实施方式中的左前照明系统的控制部的功能模块的图。
图4是表示相互相向的两个车辆1A、1B的图。
图5是用于说明第一实施方式的确定图像数据的各帧的取得时机的处理的流程图。
图6的(a)是用于说明车辆1A中的照明单元的点亮时机与图像数据的各帧的取得时机的关系的图(其一),(b)是用于说明车辆1B中的照明单元的点亮时机与图像数据的各帧的取得时机的关系的图(其一)。
图7的(a)是用于说明车辆1A中的照明单元的点亮时机与图像数据的各帧的取得时机的关系图(其二),(b)是用于说明车辆1B中的照明单元的点亮时机与图像数据的各帧的取得时机的关系的图(其二)。
图8是用于说明第二实施方式的确定第一图像数据的各帧的取得时机的处理的流程图。
图9是表示第二实施方式中的左前照明系统的控制部的功能模块的图。
图10的(a)是表示由车辆1A的第一照相机取得的第一图像数据的各帧的取得时机的图,(b)是表示车辆1B的照明单元的点亮时机的图。
附图标记说明
1、1A、1B:车辆
2:车辆系统
3:车辆控制部
4a:左前照明系统(照明系统)
4b:右前照明系统(照明系统)
4c:左后照明系统(照明系统)
4d:右后照明系统(照明系统)
5:传感器
10:无线通信部
11:存储装置
12:转向促动器
13:转向装置
14:制动促动器
15:制动装置
16:油门促动器
17:油门装置
22a、22b、22c、22d:透光罩
24a、24b、24c、24d:壳体
40a、40b、40c、40d:控制部
42a、42b、42c、42d:照明单元
43a、43b、43c、43d:照相机
44a、44b、44c、44d:LiDAR单元
45a、45b、45c、45d:毫米波雷达
140a:控制部
143a:第一照相机
243a:第二照相机
410a:照明控制部
420a、421a:照相机控制部
430a:LiDAR控制部
440a:毫米波雷达控制部
450a:周边环境信息融合部
具体实施方式
<第一实施方式>
以下,参照附图对第一实施方式进行说明。在第一实施方式的说明中,为了方便说明,适当提及“左右方向”、“前后方向”。这些方向是对图1所示的车辆1设定的相对的方向。在此,“前后方向”是包含“前侧方向”以及“后侧方向”的方向。“左右方向”是包含“左侧方向”以及“右侧方向”的方向。
首先,参照图1对本实施方式的车辆1进行说明。图1是表示具备车辆系统2的车辆1的俯视情况的示意图。如图1所示,车辆1是能够以自动驾驶模式行驶的车辆(汽车),具备车辆系统2。车辆系统2至少具备车辆控制部3、左前照明系统4a(以下简称作“照明系统4a”)、右前照明系统4b(以下简称作“照明系统4b”)、左后照明系统4c(以下简称作“照明系统4c”)和右后照明系统4d(以下简称作“照明系统4d”)。
照明系统4a设于车辆1的左前侧。特别是,照明系统4a具备设置于车辆1的左前侧的壳体24a和安装于壳体24a的透光罩22a。照明系统4b设于车辆1的右前侧。特别是,照明系统4b具备设置于车辆1的右前侧的壳体24b和安装于壳体24b的透光罩22b。照明系统4c设于车辆1的左后侧。特别是,照明系统4c具备设置于车辆1的左后侧壳体24c和安装于壳体24c的透光罩22c。照明系统4d设于车辆1的右后侧。特别是,照明系统4d具备设置于车辆1的右后侧的壳体24d和安装于壳体24d的透光罩22d。
接下来,参照图2对图1所示的车辆系统2具体进行说明。图2是表示车辆系统2的框图。如图2所示,车辆系统2具备车辆控制部3、照明系统4a~4d、传感器5、HMI(HumanMachine Interface(人机界面))8、GPS(Global Positioning System(全球定位系统))9、无线通信部10和存储装置11。而且,车辆系统2具备转向促动器12、转向装置13、制动促动器14、制动装置15、油门促动器16和油门装置17。另外,车辆系统2也可以具备构成为供给电力的电池(未图示)。
车辆控制部3构成为控制车辆1的行驶。车辆控制部3例如由至少一个电子控制单元(ECU:Electronic Control Unit(电子控制单元))构成。电子控制单元包含计算机系统(例如,SoC(System on a Chip(单片系统))等)和电子电路,其中,该计算机系统包含一个以上的处理器和一个以上的存储器,该电子电路由晶体管等有源元件以及无源元件构成。处理器例如包含CPU(Central Processing Unit(中央处理器))、MPU(Micro ProcessingUnit(微处理器))、GPU(Graphics Processing Unit(图形处理器))以及TPU(TensorProcessing Unit(张量处理器))中的至少一个。CPU也可以由多个CPU核构成。GPU也可以由多个GPU核构成。存储器包含ROM(Read Only Memory(只读存储器))和RAM(Random AccessMemory(随机存取存储器))。ROM中也可以存储车辆控制程序。
例如,车辆控制程序也可以包含自动驾驶用的人工智能(AI)程序。AI程序是由使用了多层的神经网络的有监督的机械学习或者无监督的机械学习(特别是,深度学习)构建的程序。RAM中也可以暂时存储车辆控制程序、车辆控制数据以及/或者表示车辆的周边环境的周边环境信息。处理器也可以构成为,使由存储于ROM的各种车辆控制程序指定的程序在RAM中展开,并通过与RAM的配合来执行各种处理。
另外,计算机系统也可以由ASIC(Application Specific Integrated Circuit(应用型专用集成电路))、FPGA(Field-Programmable Gate Array(现场可编程门阵列))等非诺伊曼型计算机构成。而且,计算机系统也可以由诺伊曼型计算机与非诺伊曼型计算机的组合构成。
照明系统4a还具备控制部40a、照明单元42a、照相机43a、LiDAR(Light Detectionand Ranging(光探测与测距))单元44a(激光雷达的一个例子)和毫米波雷达45a。如图1所示,控制部40a、照明单元42a、照相机43a、LiDAR单元44a和毫米波雷达45a配置于由壳体24a与透光罩22a形成的空间Sa内(灯室内)。注意,控制部40a也可以配置于空间Sa以外的车辆1的规定场所。例如,控制部40a也可以与车辆控制部3一体地构成。
控制部40a例如由至少一个电子控制单元(ECU)构成。电子控制单元包含计算机系统(例如,SoC等)和电子电路,其中,该计算机系统包含一个以上的处理器和一个以上的存储器,该电子电路由晶体管等有源元件以及无源元件构成。处理器例如包含CPU、MPU、GPU以及TPU中的至少一个。CPU也可以由多个CPU核构成。GPU也可以由多个GPU核构成。存储器包含ROM和RAM。ROM中也可以存储用于确定车辆1的周边环境的周边环境确定程序。
例如,周边环境确定程序是由使用了多层的神经网络的有监督的机械学习或者无监督的机械学习(特别是,深度学习)构建的程序。RAM中也可以暂时存储周边环境确定程序、照相机43a所取得的图像数据、由LiDAR单元44a取得的三维映射数据(点群数据)以及由毫米波雷达45a取得的检测数据等。处理器也可以构成为,使由存储于ROM的周边环境确定程序指定的程序在RAM中展开,并通过与RAM的配合来执行各种处理。
另外,计算机系统也可以由ASIC、FPGA等非诺伊曼型计算机构成。而且,计算机系统也可以由诺伊曼型计算机与非诺伊曼型计算机的组合构成。
照明单元42a构成为通过朝向车辆1的外部(前方)出射光来形成配光图案。照明单元42a具有使光出射的光源和光学系统。光源例如可以由排列成矩阵状(例如,N行×M列,N>1、M>1)的多个发光元件构成。发光元件例如是LED(Light Emitting Diode(发光二极管))、LD(Laser Diode(激光二极管))或者有机EL元件。光学系统包含被构成为将从光源出射的光朝向照明单元42a的前方反射的反射器和被构成为将从光源直接出射的光或者由反射器反射的光折射的透镜中的至少一方。在车辆1的驾驶模式是手动驾驶模式或者驾驶辅助模式的情况下,照明单元42a构成为在车辆1的前方形成驾驶员用的配光图案(例如,近光用配光图案、远光用配光图案)。这样,照明单元42a作为左侧前照灯单元发挥功能。另一方面,在车辆1的驾驶模式是高度驾驶辅助模式或者全自动驾驶模式的情况下,照明单元42a也可以构成为将照相机用的配光图案形成于车辆1的前方。
控制部40a也可以构成为向设于照明单元42a的多个发光元件的各个分开地供给电信号(例如,PWM(Pulse Width Modulation(脉冲调制))信号)。在该情况下,控制部40a能够分开地选择被供给电信号的发光元件,并且能够按照每发光元件分别调整电信号的占空(Duty)比。即,控制部40a能够选择以矩阵状排列的多个发光元件中的要点亮或者要熄灭的发光元件,并且能够确定点亮着的各发光元件的亮度。因此,控制部40a能够变更从照明单元42a朝向前方出射的配光图案的形状以及亮度。
照相机43a构成为检测车辆1的周边环境。特别是,照相机43a构成为在以规定的帧频取得了表示车辆1的周边环境的图像数据之后,将该图像数据向控制部40a发送。控制部40a基于发送来的图像数据确定周边环境信息。在此,周边环境信息也可以包含与存在于车辆1的外部的对象物相关的信息。例如,周边环境信息也可以包含与存在于车辆1的外部的对象物的属性相关的信息和与对象物相对于车辆1的相对位置关系相关的信息。
照相机43a例如由CCD(Charge-Coupled Device(电荷耦合器件))、CMOS(互补型MOS:Metal Oxide Semiconductor(金属氧化物半导体))等拍摄元件构成。照相机43a既可以构成为单眼照相机,也可以构成为立体照相机。在照相机43a是立体照相机的情况下,控制部40a通过利用视差,能够基于由立体照相机取得的两个以上的图像数据来确定车辆1与存在于车辆1的外部的对象物(例如,行人等)之间的距离。另外,在本实施方式中是将一个照相机43a设于照明系统4a,但也可以将两个以上的照相机43a设于照明系统4a。
LiDAR单元44a(激光雷达的一个例子)构成为检测车辆1的周边环境。特别是,LiDAR单元44a构成为,在以规定的帧频取得了表示车辆1的周边环境的3D映射数据(点群数据)之后,将该3D映射数据向控制部40a发送。控制部40a基于发送来的3D映射数据确定周边环境信息。在此,周边环境信息也可以包含与存在于车辆1的外部的对象物相关的信息。例如,周边环境信息例如也可以包含与存在于车辆1的外部的对象物的属性相关的信息和与对象物相对于车辆1的相对位置关系相关的信息。
更具体而言,LiDAR单元44a能够在取得了激光(光脉冲)在激光的各出射角度(水平角度θ、垂直角度φ)下的飞行时间(TOF:Time of Flight(飞行时间))ΔT1相关的信息之后,基于与飞行时间ΔT1相关的信息,取得与LiDAR单元44a(车辆1)和存在于车辆1的外部的物体之间在各出射角度(水平角度θ、垂直角度φ)下的距离D相关的信息。在此,飞行时间ΔT1例如能够如以下那样计算。
飞行时间ΔT1=t1-t0
t1:激光(光脉冲)返回到LiDAR单元的时刻
t0:LiDAR单元出射激光(光脉冲)的时刻
这样,LiDAR单元44a能够取得表示车辆1的周边环境的3D映射数据。
另外,LiDAR单元44a例如具备构成为使激光出射的激光源、构成为使激光沿水平方向以及垂直方向扫描的光偏转器、透镜等光学系统和构成为接收被物体反射的激光的受光部。从激光源出射的激光的中心波长不被特别限定。例如,激光可以是中心波长为900nm左右的非可见光。光偏转器例如可以是MEMS(Micro Electro Mechanical Systems(微机电系统))镜。受光部例如是光电二极管。注意,LIDAR单元44a也可以不利用光偏转器扫描激光就取得3D映射数据。例如,LiDAR单元44a也可以以相控阵方式或者Flash方式取得3D映射数据。另外,在本实施方式中是将一个LiDAR单元44a设于照明系统4a,但也可以将两个以上的LiDAR单元44a设于照明系统4a。例如,在两个LiDAR单元44a设于照明系统4a的情况下,可以将一个LiDAR单元44a构成为检测车辆1的前方区域中的周边环境,并且将另一个LiDAR单元44a构成为检测车辆1的侧方区域中的周边环境。
毫米波雷达45a构成为检测车辆1的周边环境。特别是,毫米波雷达45a构成为,在取得了表示车辆1的周边环境的检测数据之后,将该检测数据向控制部40a发送。控制部40a基于发送来的检测数据确定周边环境信息。在此,周边环境信息也可以包含与存在于车辆1的外部的对象物相关的信息。周边环境信息例如也可以包含与存在于车辆1的外部的对象物的属性相关的信息、与对象物相对于车辆1的位置相关的信息和与对象物相对于车辆1的速度相关的信息。
例如,毫米波雷达45a是脉冲调制方式、FM-CW(Frequency Modulated-ContinuousWave(调频连续波))方式或者双频CW方式,能够取得毫米波雷达45a(车辆1)与存在于车辆1的外部的物体之间的距离D。在使用脉冲调制方式的情况下,毫米波雷达45a能够在取得了毫米波在毫米波的各出射角度下的飞行时间ΔT2相关的信息之后,基于与飞行时间ΔT2相关的信息,取得毫米波雷达45a(车辆1)与存在于车辆1的外部的物体之间在各出射角度下的距离D相关的信息。在此,飞行时间ΔT2例如能够如以下那样计算。
飞行时间ΔT2=t3-t2
t3:毫米波返回到毫米波雷达的时刻
t2:毫米波雷达出射毫米波的时刻
另外,毫米波雷达45a能够基于从毫米波雷达45a出射的毫米波的频率f0和返回到毫米波雷达45a的毫米波的频率f1,取得与存在于车辆1的外部的物体相对于毫米波雷达45a(车辆1)的相对速度V相关的信息。
另外,在本实施方式中是将一个毫米波雷达45a设于照明系统4a,但也可以将两个以上的毫米波雷达45a设于照明系统4a。例如,照明系统4a也可以具有短距离用的毫米波雷达45a、中距离用的毫米波雷达45a和长距离用的毫米波雷达45a。
照明系统4b还具备控制部40b、照明单元42b、照相机43b、LiDAR单元44b和毫米波雷达45b。如图1所示,控制部40b、照明单元42b、照相机43b、LiDAR单元44b和毫米波雷达45b配置于由壳体24b与透光罩22b形成的空间Sb内(灯室内)。注意,控制部40b也可以配置于空间Sb以外的车辆1的规定场所。例如,控制部40b可以与车辆控制部3一体地构成。控制部40b可以具有与控制部40a相同的功能以及结构。照明单元42b可以具有与照明单元42a相同的功能以及结构。在这一点,照明单元42b作为右侧前照灯单元发挥功能。照相机43b可以具有与照相机43a相同的功能以及结构。LiDAR单元44b可以具有与LiDAR单元44a相同的功能以及结构。毫米波雷达45b可以具有与毫米波雷达45a相同的功能以及结构。
照明系统4c还具备控制部40c、照明单元42c、照相机43c、LiDAR单元44c和毫米波雷达45c。如图1所示,控制部40c、照明单元42c、照相机43c、LiDAR单元44c和毫米波雷达45c配置于由壳体24c与透光罩22c形成的空间Sc内(灯室内)。另外,控制部40c也可以配置于空间Sc以外的车辆1的规定场所。例如,控制部40c可以与车辆控制部3一体地构成。控制部40c可以具有与控制部40a相同的功能以及结构。
照明单元42c构成为通过朝向车辆1的外部(后方)出射光来形成配光图案。照明单元42c具有使光出射的光源和光学系统。光源例如可以由排列成矩阵状(例如,N行×M列,N>1、M>1)的多个发光元件构成。发光元件例如是LED、LD或者有机EL元件。光学系统包含被构成为将从光源出射的光朝向照明单元42c的前方反射的反射器和被构成为将从光源直接出射的光或者由反射器反射的光折射的透镜中的至少一方。在车辆1的驾驶模式是手动驾驶模式或者驾驶辅助模式的情况下,照明单元42c也可以熄灭。另一方面,在车辆1的驾驶模式是高度驾驶辅助模式或者全自动驾驶模式的情况下,照明单元42c也可以构成为将照相机用的配光图案形成于车辆1的后方。
照相机43c可以具有与照相机43a相同的功能以及结构。LiDAR单元44c可以具有与LiDAR单元44c相同的功能以及结构。毫米波雷达45c可以具有与毫米波雷达45a相同的功能以及结构。
照明系统4d还具备控制部40d、照明单元42d、照相机43d、LiDAR单元44d和毫米波雷达45d。如图1所示,控制部40d、照明单元42d、照相机43d、LiDAR单元44d和毫米波雷达45d配置于由壳体24d与透光罩22d形成的空间Sd内(灯室内)。注意,控制部40d也可以配置于空间Sd以外的车辆1的规定场所。例如,控制部40d可以与车辆控制部3一体地构成。控制部40d可以具有与控制部40c相同的功能以及结构。照明单元42d可以具有与照明单元42c相同的功能以及结构。照相机43d可以具有与照相机43c相同的功能以及结构。LiDAR单元44d可以具有与LiDAR单元44c相同的功能以及结构。毫米波雷达45d可以具有与毫米波雷达45c相同的功能以及结构。
传感器5可以具有加速度传感器、速度传感器以及陀螺仪传感器等。传感器5构成为检测车辆1的行驶状态,并将表示车辆1的行驶状态的行驶状态信息向车辆控制部3输出。另外,传感器5也可以进一步具备检测驾驶员是否就坐于驾驶席的落座传感器、检测驾驶员的脸部的方向的脸部朝向传感器、检测外部天气状态的外部天气传感器以及检测车内是否有人的人感应传感器等。而且,传感器5也可以具备构成为检测车辆1的周边环境的亮度(照度等)的照度传感器。照度传感器例如也可以根据从光电二极管输出的光电流的大小来确定周边环境的亮度。
HMI8由接受来自驾驶员的输入操作的输入部和向驾驶员输出行驶信息等的输出部构成。输入部包含方向盘、油门踏板、制动踏板、切换车辆1的驾驶模式的驾驶模式切换开关等。输出部是显示各种行驶信息的显示器。GPS9构成为取得车辆1的当前位置信息,并将取得的该当前位置信息向车辆控制部3输出。
无线通信部10构成为从其他车辆接收与处于车辆1的周围的其他车辆相关的信息(例如,行驶信息等)并向其他车辆发送与车辆1相关的信息(例如,行驶信息等)(车车间通信)。另外,无线通信部10构成为从信号机、标识灯等基础设施设备接收基础设施信息并将车辆1的行驶信息向基础设施设备发送(路车间通信)。另外,无线通信部10构成为从行人所携带的便携式电子设备(智能手机、平板电脑、可佩带设备等)接收与行人相关的信息并将车辆1的本车行驶信息向便携式电子设备发送(行人车间通信)。车辆1与其他车辆、基础设施设备或者便携式电子设备之间可以通过ad-hoc(自组网)模式直接通信,也可以经由接入点进行通信。另外,无线通信部10构成为接收表示标准时刻的标准时刻信号(例如,标准电波)。而且,车辆1也可以经由未图示的通信网络与其他车辆、基础设施设备或者便携式电子设备进行通信。通信网络包含因特网、局域网(LAN)、广域网(WAN)以及无线接入网(RAN)中的至少一个。无线通信标准例如是Wi-Fi(注册商标)、Bluetooth(注册商标)、ZigBee(注册商标)、LPWA、DSRC(注册商标)或者Li-Fi。另外,车辆1也可以使用第五代移动通信系统(5G)与其他车辆、基础设施设备或者便携式电子设备进行通信。
存储装置11是硬盘驱动器(HDD)、SSD(Solid State Drive(固态驱动器))等外部存储装置。存储装置11中可以存储2D或者3D的地图信息以及/或者车辆控制程序。存储装置11构成为根据来自车辆控制部3的要求将地图信息、车辆控制程序向车辆控制部3输出。地图信息、车辆控制程序可以与无线通信部10经由因特网等通信网络进行更新。
在车辆1是自动驾驶模式行驶的情况下,车辆控制部3基于行驶状态信息、周边环境信息、当前位置信息以及/或者地图信息等自动地生成转向控制信号、油门控制信号以及制动控制信号中的至少一个。转向促动器12构成为从车辆控制部3接收转向控制信号并基于接收到的转向控制信号控制转向装置13。制动促动器14构成为从车辆控制部3接收制动控制信号并基于接收到的制动控制信号控制制动装置15。油门促动器16构成为从车辆控制部3接收油门控制信号并基于接收到的油门控制信号控制油门装置17。这样,在自动驾驶模式下,车辆1的行驶由车辆系统2自动控制。
另一方面,在车辆1以手动驾驶模式行驶的情况下,车辆控制部3根据油门踏板、制动踏板以及驾驶员对方向盘的手动操作而生成转向控制信号、油门控制信号以及制动控制信号。这样,在手动驾驶模式下,通过驾驶员的手动操作而生成转向控制信号、油门控制信号以及制动控制信号,因此车辆1的行驶可由驾驶员控制。
接下来,对车辆1的驾驶模式进行说明。驾驶模式由自动驾驶模式和手动驾驶模式构成。自动驾驶模式由全自动驾驶模式、高度驾驶辅助模式和驾驶辅助模式构成。在全自动驾驶模式下,车辆系统2自动地进行转向控制、制动控制以及油门控制的全部行驶控制,驾驶员不为能够驾驶车辆1的状态。在高度驾驶辅助模式下,车辆系统2自动地进行转向控制、制动控制以及油门控制的全部行驶控制,驾驶员虽然为能够驾驶车辆1的状态,但不驾驶车辆1。在驾驶辅助模式下,车辆系统2自动地进行转向控制、制动控制以及油门控制中的一部分的行驶控制,驾驶员在车辆系统2的驾驶辅助下驾驶车辆1。另一方面,在手动驾驶模式下,车辆系统2不会自动地进行行驶控制,驾驶员不受车辆系统2的驾驶辅助地驾驶车辆1。
另外,车辆1的驾驶模式可以通过操作驾驶模式切换开关来进行切换。在该情况下,车辆控制部3根据驾驶员对驾驶模式切换开关的操作,将车辆1的驾驶模式在四个驾驶模式(全自动驾驶模式、高度驾驶辅助模式、驾驶辅助模式、手动驾驶模式)之间进行切换。另外,车辆1的驾驶模式也可以基于关于自动驾驶车能够行驶的可行驶区间和禁止自动驾驶车行驶的禁止行驶区间的信息、或者基于关于外部天气状态的信息而自动地进行切换。在该情况下,车辆控制部3基于这些信息来切换车辆1的驾驶模式。而且,车辆1的驾驶模式也可以通过使用落座传感器、脸部朝向传感器等而自动地进行切换。在该情况下,车辆控制部3可以基于来自落座传感器、脸部朝向传感器的输出信号来切换车辆1的驾驶模式。
接下来,通过参照图3,对本实施方式中的控制部40a的功能进行以下说明。图3是表示第一实施方式中的照明系统4a的控制部40a的功能模块的图。如图3所示,控制部40a构成为分别控制照明单元42a、照相机43a、LiDAR单元44a和毫米波雷达45a的动作。特别是,控制部40a具备照明控制部410a、照相机控制部420a、LiDAR控制部430a、毫米波雷达控制部440a和周边环境信息融合部450a。
照明控制部410a构成为控制照明单元42a以使照明单元42a朝向车辆1的前方区域出射规定的配光图案。而且,照明控制部410a构成为以规定的速率(第二速率)对照明单元42a进行点亮控制。在本实施方式中,照明单元42a的点亮速率(Hz)优选的是与由照相机43a取得的图像数据的帧频(fps)相同。另外,照明控制部410a构成为控制照明单元42a的点亮时机。在此,照明单元42a的点亮时机是包含照明单元42a的点亮开始时机(点亮开始时刻)和点亮结束时机(点亮结束时刻)的概念。
照相机控制部420a构成为控制照相机43a的动作。特别是,照相机控制部420a构成为控制照相机43a以规定的帧频(第一速率)取得图像数据。而且,照相机控制部420a构成为基于与照明单元42a的点亮时机相关信息控制图像数据的各帧的取得时机。在此,帧的取得时机是包含帧取得开始时机(帧取得开始时刻)和帧取得结束时机(帧取得结束时刻)的概念。
另外,照相机控制部420a构成为基于从照相机43a输出的图像数据生成照相机43a的检测区域中的车辆1的周边环境信息。在这一点,照相机控制部420a构成为按照图像数据的每一帧生成周边环境信息。
LiDAR控制部430a构成为控制LiDAR单元44a的动作。特别是,LiDAR控制部430a构成为控制LiDAR单元44a以规定的帧频取得3D映射数据。而且,LiDAR控制部430a构成为控制3D映射数据的各帧的取得时机。另外,LiDAR控制部430a构成为基于从LiDAR单元44a输出的3D映射数据生成LiDAR单元44a的检测区域中的车辆1的周边环境信息。在这一点,LiDAR控制部430a构成为按照3D映射数据的每一帧生成周边环境信息。
毫米波雷达控制部440a构成为控制毫米波雷达45a的动作,并且基于从毫米波雷达45a输出的检测数据生成毫米波雷达45a的检测区域中的车辆1的周边环境信息。
周边环境信息融合部450a构成为,将从照相机控制部420a取得的周边环境信息、从LiDAR控制部430a取得的周边环境信息和从毫米波雷达控制部440a取得的周边环境信息融合,并且将融合好的周边环境信息向车辆控制部3发送。
另外,控制部40b、40c、40d可以也具有与控制部40a相同的功能。即,控制部40b~40d分别可以具备照明控制部、照相机控制部、LiDAR控制部、毫米波雷达控制部和周边环境信息融合部。
接下来,参照图4~图6对确定照相机43a的图像数据的取得时机的处理进行说明。图4是表示相互相向的车辆1A与车辆1B(第二车辆的一个例子)的图。图5是用于说明确定照相机43a的图像数据的各帧的取得时机的处理的流程图。图6的(a)是用于说明车辆1A中的照明单元42a的点亮时机与照相机43a的图像数据的各帧的取得时机的关系的图。图6的(b)是用于说明车辆1B中的照明单元42a的点亮时机与照相机43a的图像数据的各帧的取得时机的关系的图。
以下,对本实施方式中的前提条件进行说明。
首先,车辆1A、1B具有与车辆1相同的结构。即,车辆1A、1B设为具有图2所示的车辆系统2。接下来,为了方便说明,对车辆1A中的照明单元42a的点亮时机与照相机43a的图像数据的取得时机之间的关系进行说明,并且对车辆1B中的照明单元42a的点亮时机与照相机43a的图像数据的取得时机之间的关系进行说明。在这一点,由于设为照明单元42b在与照明单元42a相同的点亮时机点亮,并且照相机43b在与照相机43a相同的取得时机取得图像数据,因此对于照明单元42b和照相机43b,以下将不特别提及。另外,出于简化说明的观点,对于LiDAR单元44a的3D映射数据的取得时机和毫米波雷达的检测数据的取得时机,也将不特别提及。而且,在以下的说明中,图5所示的处理设为由车辆1A执行。另一方面,希望留意的一点是,图5所示的处理设为还由车辆1B执行。
如图5所示,在步骤S1中,车辆1A的无线通信部10接收表示标准时刻的标准时刻信号。例如,无线通信部10可以从标准电波发送站接收标准电波(标准时刻信号的一个例子)。另外,无线通信部10也可以从配置在通信网络上的NTP(Network Time Protocol(网络时间协议))服务器接收标准时刻信号。标准时刻例如可以由一个以上的原子钟确定。
接下来,在步骤S2中,车辆控制部3(内部时刻调整部的一个例子)基于由无线通信部10接收到的标准时刻信号调整内部时刻以使车辆1A的内部时刻与标准时刻一致。从该时刻起,车辆1A基于调整好的内部时刻执行各车辆控制处理。例如,车辆1A的控制部40a基于调整好的内部时刻控制照明单元42a、照相机43a、LiDAR单元44a以及毫米波雷达45a的动作时机。
接下来,在步骤S3中,照明控制部410a(参照图3)确定照明单元42a的点亮时机。特别是,照明控制部410a确定照明单元42a的点亮开始时机(点亮开始时刻)。如图6的(a)所示,车辆1A的点亮期间ΔTc以及点亮周期T2(或者点亮速率F2=1/T2)是预先确定的,因此通过确定照明单元42a的点亮开始时机tc1,可自动地确定点亮结束时机(点亮结束时刻)tc2、点亮开始时机tc1后的点亮开始时机(例如,点亮开始时机tc3)和点亮结束时机tc2后的点亮结束时机。特别是,点亮结束时机tc2通过tc2=tc1+ΔTc确定,另一方面,点亮开始时机tc3通过tc3=tc1+T2确定。
作为点亮开始时机tc1的确定方法,可列举以下方法。例如,照明控制部410a在从接收到作为标准时刻信号的一个例子的标准电波起经过规定期间后,开始点亮照明单元42a。换言之,照明控制部410a将点亮开始时机tc1设定为从接收标准电波起经过规定期间后的时刻。在此,可以在车辆间预先设定规定期间。另外,照明控制部410a也可以将点亮开始时机tc1设定为规定时刻。例如,点亮开始时机tc1也可以被设定为X时Y分0毫秒(X、Y是任意值)。在此,规定时刻也可以在车辆间被预先设定。
接下来,在步骤S4中,照相机控制部420a基于与照明单元42a的点亮时机相关的信息(点亮开始时机以及/或者点亮结束时机),确定照相机43a的图像数据的各帧的取得时机。特别是,照相机控制部420a基于上述信息,确定照相机43a的图像数据的各帧的取得开始时机(取得开始时刻)。如图6的(a)所示,由于各帧的取得期间ΔTa以及帧周期T1(或者帧频F1=1/T1)是预先确定的,因此通过确定帧Fa1的取得开始时机ta1,可自动地确定帧Fa1的取得结束时机(取得结束时刻)ta2、帧Fa1后的帧的取得开始时机(例如,帧Fa2的取得开始时机ta3)和帧Fa1后的帧的取得结束时机(例如,帧Fa2的取得结束时机ta4)。特别是,取得结束时机ta2通过ta2=ta1+ΔTa确定,另一方面,取得开始时机ta3通过ta3=ta1+T1确定。注意,图像数据的1帧的取得期间ΔTa相当于形成图像数据的1帧所需的曝光时间(换言之是捕获形成图像数据的1帧的光的时间)。注意,取得期间ΔTa中不包含对从CCD、CMOS等图像传感器输出的电信号进行处理的时间。
作为帧Fa1的取得开始时机ta1的确定方法,可列举以下方法。例如,照相机控制部420a基于点亮开始时机tc1以及/或者点亮结束时机tc2,以使点亮期间ΔTc与取得期间ΔTa相互不重叠的方式确定取得开始时机ta1。特别是,照相机控制部420a以使取得开始时机ta1以及取得结束时机ta2被设定于点亮结束时机tc2与点亮开始时机tc3之间的非点亮期间的方式确定取得开始时机ta1。
这样,通过图5所示的各处理,可确定车辆1A中的照明单元42a的点亮时机与照相机43a的图像数据的取得时机。
另一方面,图5所示的各处理不仅由车辆1A执行,而由包含作为对向车的车辆1B在内的全部行驶车辆执行。特别是,通过利用车辆1A、1B执行图5所示的各处理,可使车辆1A的照明单元42a的点亮时机与车辆1B的照明单元42a的点亮时机相互一致。具体而言,如图6所示,车辆1A的照明单元42a的点亮开始时机tc1与车辆1B的照明单元42a的点亮开始时机te1相互一致。而且,以车辆间的点亮期间ΔTc=点亮期间ΔTe以及点亮周期T2=点亮周期T4为前提。因此,通过使点亮开始时机tc1=点亮开始时机te1成立,可使点亮结束时机tc2=点亮结束时机te2,并且点亮开始时机tc3=点亮开始时机te3成立。
如上所述,作为点亮开始时机的确定方法的一个例子,车辆1A的照明控制部410a将点亮开始时机tc1设定为从接收标准电波起经过规定期间Δt1后的时刻。另一方面,车辆1B的照明控制部410a也同样将点亮开始时机te1设定为从接收标准电波起经过规定期间Δt2后的时刻。在此,在本实施方式中,由于预先在车辆间将规定期间Δt1、Δt2设定为规定期间Δt1=规定期间Δt2,因此点亮开始时机tc1与点亮开始时机te1相互一致。另外,作为点亮开始时机的确定方法的另一个例子,由车辆1A的照明控制部410a将点亮开始时机tc1设定为规定时刻(X时Y分0毫秒)。另一方面,车辆1B的照明控制部410a也同样将点亮开始时机te1设定为规定时刻(X时Y分0毫秒)。这样,点亮开始时机tc1与点亮开始时机te1相互一致。
另外,在步骤S4中,车辆1B的照相机控制部420a基于与照明单元42a的点亮时机相关的信息来确定照相机43a的图像数据的各帧的取得时机。例如,照相机控制部420a基于点亮开始时机te1以及/或者点亮结束时机te2,以使点亮期间ΔTe与取得期间ΔTb相互不重叠的方式确定取得开始时机tb1。而且,由于各帧的取得期间ΔTb以及帧周期T3是预先确定的,因此通过确定帧Fb1的取得开始时机tb1,可自动地确定帧Fb1的取得结束时机tb2、帧Fb1后的帧的取得开始时机(例如,帧Fb2的取得开始时机tb3)和帧Fa1后的帧的取得结束时机(例如,帧Fb2的取得结束时机)。特别是,取得结束时机tb2通过tb2=tb1+ΔTb确定,另一方面,取得开始时机tb3通过tb3=tb1+T3确定。
根据本实施方式,车辆1A的照明单元42a的点亮时机与车辆1B的照明单元42a的点亮时机相互一致。而且,点亮期间ΔTc与取得期间ΔTa相互不重叠,点亮期间ΔTe与取得期间ΔTb相互不重叠。因此,车辆1A的取得期间ΔTa不与车辆1B的点亮期间ΔTe重叠,车辆1B的取得期间ΔTb不与车辆1A的点亮期间ΔTc重叠。这样,能够可靠地防止从车辆1B的照明单元42a出射的光(配光图案)导致由车辆1A的照相机43a取得的各帧的图像数据产生晕影。同样,能够可靠地防止从车辆1A的照明单元42a出射的光导致由车辆1B的照相机43a取得的各帧的图像数据产生晕影。因此,能够提供可提高车辆的周边环境的识别精度的车辆系统2以及车辆。
注意,在本实施方式中,车辆1A的照相机控制部420a以点亮期间ΔTc与取得期间ΔTa相互不重叠的方式确定取得开始时机ta1,但本实施方式并不限定于此。例如,如图7的(a)所示,车辆1A的照相机控制部420a也可以以使取得期间ΔTa与点亮期间ΔTc局部重叠的方式确定取得开始时机ta1。在该情况下,照相机控制部420a使取得期间ΔTa与点亮期间ΔTc局部重叠到帧的图像数据不产生晕影的程度。同样,车辆1B的照相机控制部420a也可以以使取得期间ΔTb与点亮期间ΔTe局部重叠的方式确定取得开始时机tb1。
(第二实施方式)
接下来,参照图9对本发明的第二实施方式的车辆系统进行以下说明。图9是表示第二实施方式中的照明系统400a的控制部140a的功能模块的图。第二实施方式的车辆系统主要在具备两个照相机(第一照相机143a与第二照相机243a)这一点与第一实施方式的车辆系统2(参照图2)不同。以下,对于已在第一实施方式中说明的构成要素不进行重复说明,仅对车辆系统2与第二实施方式的车辆系统之间的不同点进行说明。
如图9所示,第一照相机143a构成为以第一帧频取得表示车辆的周边环境的第一图像数据。第二照相机243a构成为以比第一帧频高的第二帧频取得表示车辆的周边环境的第二图像数据。例如,第一照相机143a的第一帧频是60fps,第二照相机243a的第二帧频是280fps。
控制部140a具备照明控制部410a、照相机控制部421a、LiDAR控制部430a、毫米波雷达控制部440a和周边环境信息融合部450a。照相机控制部421a构成为控制第一照相机143a和第二照相机243a的动作。照相机控制部421a构成为基于从第一照相机143a输出的第一图像数据生成第一照相机143a的检测区域中的周边环境信息。而且,照相机控制部421a构成为基于从第二照相机243a输出的第二图像数据生成第二照相机243a的检测区域中的周边环境信息。
接下来,参照图8~图10对确定由第一照相机143a取得的第一图像数据的取得时机的处理进行说明。图8是用于说明第二实施方式的确定第一图像数据的各帧的取得时机的处理的流程图。图10的(a)是表示由车辆1A的第一照相机143a取得的第一图像数据的各帧的取得时机的图。图10的(b)是表示车辆1B的照明单元42a的点亮时机的图。
作为本实施方式的前提条件,图4所示的车辆1A、1B具有第二实施方式的车辆系统。而且,为了方便说明,对由车辆1A的第一照相机143a取得图像数据的取得时机与车辆1B的照明单元42a的点亮时机之间的关系进行说明。另外,第一照相机143a的第一帧频被设为与车辆1B的照明单元42a的点亮速率相同。而且,由于以车辆1B的照明单元42b的点亮时机与车辆1B的照明单元42a的点亮时机相同为前提,因此对于车辆1B的照明单元42b的点亮时机将不特别提及。
如图8所示,在步骤S10中,车辆1A的车辆控制部3(参照图2)基于表示车辆1A的周边环境的周边环境信息检测车辆1B的存在。接下来,在步骤S11中,第二照相机243a取得表示车辆1A的周边环境的第二图像数据。在此,由于在第二照相机243a的检测区域存在车辆1B,因此根据第二图像数据确定车辆1B的存在。接下来,车辆1A的照相机控制部421a基于第二图像数据确定设于车辆1B(第二车辆的一个例子)的照明单元42a的点亮时机(步骤S12)。
在这一点,第二照相机243a的第二帧频与第一照相机143a的第一帧频以及车辆1B的照明单元42a的点亮速率相比非常高。因此,照相机控制部421a能够基于第二图像数据确定车辆1B的照明单元42a的点亮开始时机以及点亮结束时机。例如,如图10的(b)所示,通过确定照明单元42a的点亮开始时机te1与点亮结束时机te2,能够确定照明单元42a的点亮期间ΔTe。而且,通过确定点亮开始时机te1与下一点亮开始时机te3,能够确定点亮周期T4。而且,通过确定点亮周期T4,能够确定点亮开始时机te1后的点亮开始时机以及点亮结束时机te2后的点亮结束时机。这样,照相机控制部421a能够基于第二图像数据确定车辆1B的照明单元42a的点亮时机。
接下来,在步骤S13中,车辆1A的照相机控制部421a基于与车辆1B的照明单元42a的点亮时机相关的信息,确定由第一照相机143a取得的第一图像数据的各帧的取得时机。特别是,照相机控制部421a以使取得期间ΔTa与点亮期间ΔTe相互不重叠的方式确定各帧的取得时机。例如,照相机控制部421a基于点亮开始时机te1以及/或者点亮结束时机te2,以使点亮期间ΔTe与取得期间ΔTa相互不重叠的方式确定取得开始时机ta1。而且,由于各帧的取得期间ΔTa以及帧周期T1是预先确定的,因此通过确定帧Fa1的取得开始时机ta1,可自动地确定帧Fa1的取得结束时机ta2、帧Fa1后的帧的取得开始时机(例如,帧Fa2的取得开始时机ta3)和帧Fa1后的帧的取得结束时机(例如,帧Fa2的取得结束时机ta4)。
根据本实施方式,由于车辆1A的第一照相机143a的取得期间ΔTa与车辆1B的照明单元42a的点亮期间ΔTe相互不重叠,因此能够可靠地防止从车辆1B的照明单元42a出射的光(配光图案)导致由车辆1A的第一照相机143a取得的各帧的图像数据产生晕影。因此,能够提供可提高车辆1A的周边环境的识别精度的车辆系统。
注意,在本实施方式中,照相机控制部421a以使取得期间ΔTa与点亮期间ΔTe相互不重叠的方式确定各帧的取得时机,但本实施方式并不限定于此。例如,照相机控制部421a也可以以取得期间ΔTa与点亮期间ΔTe局部重叠的方式确定各帧的取得时机。在这一点,优选使取得期间ΔTa与点亮期间ΔTe局部重叠到图像数据不会产生晕影的程度。
以上对本发明的实施方式进行了说明,但当然不应当通过本实施方式的说明限定地解释本发明的技术范围。本实施方式只是一个例子,本领域技术人员可以理解,本实施方式能够在权利要求书所记载的发明的范围内变更为各种实施方式。本发明的技术范围应当基于权利要求书所记载的发明的范围及其等同的范围进行确定。
在本实施方式中,说明了车辆的驾驶模式包含全自动驾驶模式、高度驾驶辅助模式、驾驶辅助模式和手动驾驶模式,但车辆的驾驶模式不应限定于这四个模式。车辆驾驶模式的区分可以根据各国的涉及自动驾驶的法令或者规则而适当变更。同样,本实施方式的说明中记载的限定“全自动驾驶模式”、“高度驾驶辅助模式”、“驾驶辅助模式”各自的定义只是一个例子,可以根据各国涉及自动驾驶的法令或者规则适当变更它们的定义。

Claims (2)

1.一种车辆系统,设于能够以自动驾驶模式行驶的车辆,其特征在于,
所述车辆系统具备:
照相机,其构成为以第一速率取得表示所述车辆的周边环境的图像数据;
照相机控制部,其构成为控制所述照相机的动作;
照明单元,其构成为朝向所述车辆的外部出射光;
照明控制部,其构成为以第二速率对所述照明单元进行点亮控制;
无线通信部,其构成为接收表示标准时刻的标准时刻信号;
内部时刻调整部,其构成为基于所述标准时刻信号以使所述车辆的内部时刻与所述标准时刻一致的方式调整所述内部时刻;
所述照明单元的点亮时机与存在于所述车辆的外部的第二车辆上设置的第二照明单元的点亮时机相互一致,
所述照相机控制部基于与所述照明单元的点亮时机相关的信息,以所述图像数据的各帧的取得时机所对应的所述图像数据的取得期间与所述点亮时机所对应的所述照明单元的点亮期间不重叠的方式,或者以所述取得期间与所述点亮期间局部重叠的方式,确定所述取得时机。
2.一种车辆系统,设于能够以自动驾驶模式行驶的车辆,其特征在于,
所述车辆系统具备:
第一照相机,其构成为以第一速率取得表示所述车辆的周边环境的第一图像数据;
第二照相机,其构成为以比所述第一速率高的第二速率取得表示所述车辆的周边环境的第二图像数据;
照相机控制部,其构成为控制所述第一照相机以及所述第二照相机的动作;
所述照相机控制部构成为,
基于所述第二图像数据,确定与存在于所述车辆的外部的第二车辆上设置的第二照明单元的点亮时机相关的点亮时机信息,
基于确定出的所述点亮时机信息,以所述第一图像数据的各帧的取得时机所对应的所述第一图像数据的取得期间与所述点亮时机所对应的所述第二照明单元的点亮期间不重叠的方式,或者以所述取得期间与所述点亮期间局部重叠的方式,确定所述取得时机。
CN201910184045.1A 2018-03-13 2019-03-12 车辆系统 Active CN110271480B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-045301 2018-03-13
JP2018045301A JP2019159772A (ja) 2018-03-13 2018-03-13 車両システム

Publications (2)

Publication Number Publication Date
CN110271480A CN110271480A (zh) 2019-09-24
CN110271480B true CN110271480B (zh) 2023-05-02

Family

ID=67959186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910184045.1A Active CN110271480B (zh) 2018-03-13 2019-03-12 车辆系统

Country Status (2)

Country Link
JP (1) JP2019159772A (zh)
CN (1) CN110271480B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111098777A (zh) * 2019-12-30 2020-05-05 北京海纳川汽车部件股份有限公司 车灯的控制方法、系统及车辆

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5137981B2 (ja) * 2010-02-01 2013-02-06 株式会社ビートソニック 車載用監視カメラ
DE102011077038A1 (de) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
JP2015009570A (ja) * 2013-06-26 2015-01-19 富士重工業株式会社 前照灯制御装置
CN104575006B (zh) * 2014-12-25 2017-01-18 北京凌云光技术有限责任公司 图像拍摄时刻确定方法及系统、车辆速度检测方法及系统
AT516848B1 (de) * 2015-04-27 2016-09-15 Zizala Lichtsysteme Gmbh Verfahren zum Ansteuern eines Lichtscanners in einem Scheinwerfer für Fahrzeuge sowie Scheinwerfer
JP6200481B2 (ja) * 2015-11-25 2017-09-20 株式会社Subaru 車外環境認識装置

Also Published As

Publication number Publication date
JP2019159772A (ja) 2019-09-19
CN110271480A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
US20230105832A1 (en) Sensing system and vehicle
CN110998692B (zh) 车辆系统以及车辆
US10602331B2 (en) Inter-vehicle communication system, vehicle system, vehicle illumination system and vehicle
EP3663134B1 (en) Vehicular lighting system and vehicle
US20190248281A1 (en) Vehicle illumination system and vehicle
US11597316B2 (en) Vehicle display system and vehicle
US10493898B2 (en) Automated vehicle and a vehicle lighting system thereof
EP4039519B1 (en) Vehicular display system and vehicle
US20220014650A1 (en) Infrared camera system, infrared camera module, and vehicle
EP3835128A1 (en) Vehicle display system and vehicle
CN110271480B (zh) 车辆系统
US10654406B2 (en) Vehicle illumination system and vehicle
CN113557386A (zh) 车辆用灯具及车辆
US20230184902A1 (en) Vehicular light source system, vehicular sensing system, and vehicle
US12005832B2 (en) Vehicle display system, vehicle system, and vehicle
EP3961291B1 (en) Vehicular head-up display and light source unit used therefor
US20240069335A1 (en) Head-up display
US20210256933A1 (en) Vehicle display system, vehicle system, and vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant