CN209191790U - 传感器系统 - Google Patents

传感器系统 Download PDF

Info

Publication number
CN209191790U
CN209191790U CN201821574542.XU CN201821574542U CN209191790U CN 209191790 U CN209191790 U CN 209191790U CN 201821574542 U CN201821574542 U CN 201821574542U CN 209191790 U CN209191790 U CN 209191790U
Authority
CN
China
Prior art keywords
camera unit
image
lamp house
field angle
accommodated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201821574542.XU
Other languages
English (en)
Inventor
三谷浩辅
难波高范
真野光治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Application granted granted Critical
Publication of CN209191790U publication Critical patent/CN209191790U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

本实用新型提供传感器系统,提高包含立体摄影机系统的传感器系统的信息获取能力。第一左摄影机单元(25)收纳于左灯室,具有第一视场角(θ1)。第二左摄影机单元(26)收纳于左灯室,具有比第一视场角(θ1)大的第二视场角(θ2)。第一右摄影机单元(35)收纳于右灯室,具有第三视场角(θ3)。第二右摄影机单元(36)收纳于右灯室,具有比第三视场角(θ3)大的第四视场角(θ4)。图像识别部(43)基于从由第一左摄影机单元(25)获取的第一左图像和由第二左摄影机单元(26)获取的第二左图像中的一方选出的左图像及从由第一右摄影机单元(35)获取的第一右图像和由第二右摄影机单元(36)获取的第二右图像中的一方选出的右图像,执行图像识别。

Description

传感器系统
技术领域
本实用新型涉及搭载在车辆上的传感器系统。更具体的来说,涉及包含立体摄影机系统的传感器系统。
背景技术
立体摄影机系统具备左摄影机单元和右摄影机单元。左摄影机单元和右摄影机单元分别获取车辆外部的图像。在有物体存在两个摄影机的视场内的情况下,基于两个摄影机的视差,利用三角法能够特定到该物体的距离。在专利文献1所记载的立体摄影机系统中,左摄影机单元和右摄影机单元配置在车室内的后视镜附近。
现有技术文献
专利文献
专利文献1:(日本国)特开2013-112314号公报
实用新型内容
实用新型所要解决的技术问题
本实用新型的目的在于,提高包含立体摄影机系统的传感器系统的信息获取能力。
用于解决技术问题的手段
用于达成上述目的第一实施方式是,搭载于车辆的传感器系统具备:
左照明壳体,其划分收纳左照明单元的左灯室的一部分;
右照明壳体,其划分收纳右照明单元的右灯室的一部分;
第一左摄影机单元,其收纳于所述左灯室,具有第一视场角;
第二左摄影机单元,其收纳于所述左灯室,具有比所述第一视场角大的第二视场角;
第一右摄影机单元,其收纳于所述右灯室,具有第三视场角;
第二右摄影机单元,其收纳于所述右灯室,具有比所述第三视场角大的第四视场角;
图像识别部,其基于从由所述第一左摄影机单元获取的第一左图像和由所述第二左摄影机单元获取的第二左图像的一方选出的左图像、及从由第一右摄影机单元获取的第一右图像和由所述第二右摄影机单元获取的第二右图像的一方选出的右图像,执行图像识别。
由收纳于左灯室的第一左摄影机单元和收纳于右灯室的第一右摄影机单元构成立体摄影机系统的好处在于,相比于设置在车室内的后视镜附近的立体摄影机系统,能够确保长的基线长度(两摄影机的光轴间距离)。由此,能够提高识别远方的性能。另外,通过从后视镜附近除去立体摄影机系统,开阔驾驶者的视野。
但是,虽然因基线长变长使识别远方的性能提高,但不能避免近距离的死角区域变大。在本实施方式中,为了弥补该死角区域,采用视场角更广的由第二左摄影机单元和第二右摄影机单元构成的立体摄影机系统。若视场角变广,则识别远方的性能降低。但是,在近距离能够确保较宽的可识别区域,且可覆盖由第一左摄影机单元和第一右摄影机单元构成的立体摄影机系统的死角区域。
根据上述结构,通过适当地组合由识别远方性能相对较高的第一左摄影机单元及第一右摄影机单元所获取的图像和由识别近处性能相对较高的第二左摄影机单元及第二右摄影机单元所获取的图像,能够最优化由图像识别部43进行的图像识别。因此,能够提高包含立体摄影机系统的传感器系统的信息获取能力。
该情况下,基于所述车辆的车速选择所述左图像和所述右图像。
随着车速上升,谋求可靠地获取更远方的信息。反之,随着车速下落,谋求可靠地获取更近处的信息。根据该结构,能够根据车速高精度地获取必要性变高的区域的信息。
用于达成上述目的的第二实施方式是,搭载于车辆的传感器系统具备:
左照明壳体,其划分收纳左照明单元的左灯室的一部分;
右照明壳体,其划分收纳右照明单元的右灯室的一部分;
左摄影机单元,其收纳于所述左灯室,具有第一视场角;
右摄影机单元,其收纳于所述右灯室,具有与所述第一视场角部不同的第二视场角;
图像识别部,其基于由所述左摄影机单元获取的左图像和由所述右摄影机单元获取的右图像中的至少一方,执行图像识别。
由收纳于左灯室的左摄影机单元和收纳于右灯室的右摄影机单元构成立体摄影机系统的好处在于,相比于设置在车室内的后视镜附近的立体摄影机系统,能够确保长的基线长度(两摄影机的光轴间距离)。由此,能够提高识别远方的性能。另外,通过从后视镜附近除去立体摄影机系统,开阔驾驶者的视野。
但是,在如第一实施方式的传感器系统那样需要四个摄影机单元的情况下,存在不能满足布局及成本的要求的情况。在本实施方式中,采用在固定的条件下使立体摄影机系统成立且根据需要切换为单眼摄影机系统的结构。该情况下,满足布局及成本的要求且提高包含立体摄影机系统的传感器系统的信息获取能力。
该情况下,基于所述车辆的车速选择所述左图像和所述右图像中的至少一方。
随着车速上升,谋求可靠地获取更远方的信息。反之,随着车速下落,谋求可靠地获取更近处的信息。根据该结构,能够根据车速高精度地获取必要性变高的区域的信息。
用于达成上述目的的第三实施方式是,搭载于车辆的传感器系统具备:
第一摄影机单元,其具有朝向第一方向的第一光轴;
第二摄影机单元,其具有朝向与所述第一方向不同的方向的第二光轴;
图像识别部,其基于由所述第一摄影机单元获取的第一图像和由所述第二摄影机单元获取的第二图像,执行图像识别。
根据这样的结构,由于第一摄影机单元的第一光轴和第二摄影机单元的第二光轴朝向不同的方向,因此虽然相比于平行等高立体摄影机系统,图像识别的演算处理变得复杂,但能够以更广的角度范围使立体摄影机系统的图像识别成立。因此,能够提高包含立体摄影机系统的传感器系统的信息获取能力。
本实施方式的传感器系统,可构成如下:
具备划分收纳照明单元的灯室的一部分的照明壳体;
所述第一摄影机单元和所述第二摄影机单元中的至少一方收纳于所述灯室内。
该情况下,能够构成接近平行等高立体摄影机系统,能够抑制图像识别的负荷的增加。
在本说明书中,“照明单元”是指,具备期望的照明功能且其本身为能够单独流通的部件的组成单位。
在本说明书中,“摄影机单元”是指,具备期望的获取图像功能且其本身为能够单独流通的部件的组成单位。
附图说明
图1表示第一实施方式的传感器系统的结构。
图2表示搭载有图1的传感器系统的车辆。
图3是用于说明图1的传感器系统的工作的图。
图4表示第二实施方式的传感器系统的局部结构。
图5是用于说明图4的传感器系统的工作的图。
图6表示第三实施方式的传感器系统的局部结构。
附图标记说明
1、1A、1B:传感器系统;21:左照明壳体;23:左灯室;24:左照明单元;25:第一左摄影机单元;26:第二左摄影机单元;27:左摄影机单元;31:右照明壳体;33:右灯室;34:右照明单元;35:第一右摄影机单元;36:第二右摄影机单元;37:右摄影机单元;38:第一摄影机单元;39:第二摄影机单元;43、45、46:图像识别部;A1:第一光轴;A2:第二光轴;θ1:第一视场角;θ2:第二视场角;θ3:第三视场角;θ4:第四视场角
具体实施方式
以下,参照附图以本实施方式为例进行详细说明。在以下说明所用的各附图中,为了使各部件成为能够被识别的大小,适当改变比例尺。
在附图中,箭头F表示图示结构的前方。箭头B表示图示结构的后方。箭头L表示图示结构的左方。箭头R表示图示结构的右方。
图1示意地表示第一实施方式的传感器系统1的结构。传感器系统1具备:左照明装置2、右照明装置3、及控制装置4。
图2示意地表示搭载传感器系统1的车辆100。左照明装置2搭载于车辆100的左前角部LF。右照明装置3搭载于车辆100的右前角部RF。控制装置4配置在车辆100的适当的位置。
如图1所示,左照明装置2具备左照明壳体21和左透光罩22。左透光罩22形成车辆100的外表面的一部分。左透光罩22与左照明壳体21一起划分左灯室23。即,左照明壳体21划分左灯室23的一部分。
左照明装置2具备左照明单元24。左照明单元24是朝向包含车辆100的前方的区域射出光的灯具。左照明单元24例如是前照灯。
左照明装置2具备第一左摄影机单元25。第一左摄影机单元25收纳于左灯室23。如图3所示,第一左摄影机单元25具有第一视场角θ1。第一左摄影机单元25获取包含在第一视场角θ1内的车辆100外部的图像(第一左图像),输出与第一左图像对应的第一左图像信号LS1。
左照明装置2具备第二左摄影机单元26。第二左摄影机单元26收纳于左灯室23。如图3所示,第二左摄影机单元26具有第二视场角θ2。第二视场角θ2大于第一视场角θ1。第二左摄影机单元26获取包含在第二视场角θ2内的车辆100外部的图像(第二左图像),输出与第二左图像对应的第二左图像信号LS2。
如图1所示,右照明装置3具备右照明壳体31和右透光罩33。右透光罩33形成车辆100的外表面的一部分。右透光罩33与右照明壳体31一起划分右灯室33。即,右照明壳体31划分右灯室33的一部分。
右照明装置3具备右照明单元34。右照明单元34是朝向包含车辆100的前方的区域射出光的灯具。右照明单元34例如是前照灯。
右照明装置3具备第一右摄影机单元35。第一右摄影机单元35收纳于右灯室33。如图3所示,第一右摄影机单元35具有第三视场角θ3。第一右摄影机单元35获取包含在第三视场角θ3内的车辆100外部的图像(第一右图像),输出与第一右图像对应的第一右图像信号RS1。
右照明装置3具备第二右摄影机单元36。第二右摄影机单元36收纳于右灯室33。如图3所示,第二右摄影机单元36具有第四视场角θ4。第四视场角θ4大于第三视场角θ3。第二右摄影机单元36获取包含在第四视场角θ4内的车辆100外部的图像(第二右图像),输出与第二右图像对应的第二右图像信号RS2。
在本实施方式中,第一视场角θ1与第三视场角θ3相等,例如为40°左右。另一方面,第二视场角θ2与第四视场角θ4相等,例如超过100°。即,第二左摄影机单元26和第二右摄影机单元36可归类为所谓的广角摄影机。
如图1所示,在本实施方式中,第一左摄影机单元25的光轴LA1和第一右摄影机单元35的光轴RA1延伸为平行,车辆100的上下方向的光轴LA1和光轴RA1的高度位置一致。即,第一左摄影机单元25和第一右摄影机单元35构成平行等高立体摄影机系统。
另一方面,第二左摄影机单元26的光轴LA2和第二右摄影机单元36的光轴RA2平行延伸。车辆100的上下方向的光轴LA2和光轴RA2的高度位置一致。即,第二左摄影机单元26和第二右摄影机单元36构成平行等高立体摄影机系统。
第一左图像信号LS1、第二左图像信号LS2、第一右图像信号RS1、及第二右图像信号RS2被输入到控制装置4。控制装置4具备:左选择器41、右选择器42、及图像识别部43。
左选择器41构成为能够选择第一左图像信号LS1和第二左图像信号LS2的任何一方。即,左选择器41构成为能够选择第一左图像和第二左图像的任何一方作为左图像。与左图像对应的所选择的信号被输入到图像识别部43。
右选择器42构成为能够选择第一右图像信号RS1和第二右图像信号RS2的任何一方。即,右选择器42构成为能够选择第一右图像和第二右图像的任何一方作为右图像。与右图像对应的所选择的信号被输入到图像识别部43。
图像识别部43构成为基于从左选择器41输入的信号和从右选择器42输入的信号,执行图像识别。即,图像识别部43基于从第一左图像和第二左图像的一方所选出的左图像及从第一右图像和第二右画像的一方所选出的右图像,执行图像识别。
由收纳于左灯室23的第一左摄影机单元25和收纳于右灯室33的第一右摄影机单元35构成立体摄影机系统的好处在于,相比于设置在车室内的后视镜附近的立体摄影机系统,能够确保长的基线长度(两摄影机的光轴间距离)。由此,能够提高识别远方的性能。另外,通过从后视镜附近除去立体摄影机系统,开阔驾驶者的视野。
但是,如图3实线所示,虽然因基线长变长使识别远方的性能提高,但不能避免近距离的死角区域变大。在本实施方式中,为了弥补该死角区域,采用视场角更广的由第二左摄影机单元26和第二右摄影机单元36构成的立体摄影机系统。若视场角变广,则识别远方的性能降低。但是,如图3虚线所示,在近距离能够确保较宽的可识别区域,且可覆盖由第一左摄影机单元25和第一右摄影机单元35构成的立体摄影机系统的死角区域。
根据本实施方式的结构,通过适当地组合由识别远方性能相对较高的第一左摄影机单元25及第一右摄影机单元35所获取的图像和由识别近处性能相对较高的第二左摄影机单元26及第二右摄影机单元36所获取的图像,能够最优化由图像识别部43进行的图像识别。因此,能够提高包含立体摄影机系统的传感器系统的信息获取能力。
例如,基于从未图示的车速传感器输入到控制装置4的与车辆100的车速相应的信号,在图像识别部43切换用于图像识别的图像。
具体来说,在车速为规定的阈值以上的情况下,选择识别远方性能相对较高的第一左摄影机单元25与第一右摄影机单元35。即,左选择器41选择第一左图像信号LS1,右选择器42选择第一右图像信号RS1。图像识别部43基于选出的第一左图像和第一右图像执行图像识别。
在车速未满规定的阈值的情况下,选择识别近处性能相对较高的第二左摄影机单元26与第二右摄影机单元36。即,左选择器41选择第二左图像信号LS2,右选择器42选择第二右图像信号RS2。图像识别部43基于选出的第二左图像和第二右图像执行图像识别。
随着车速上升,谋求可靠地获取更远方的信息。反之,随着车速下落,谋求可靠地获取更近处的信息。根据上述的结构,能够根据车速高精度地获取必要性变高的区域的信息。
也可以选择视场角相对较窄的第一左摄影机单元25和视场角相对较广的第二右摄影机单元36的组合或视场角相对较广的第二左摄影机单元26和视场角相对较窄的第一右摄影机单元35的组合。例如,能够根据由未图示的传感器(LiDAR传感器、毫米波雷达等)检测到的物体的位置和到该物体的距离选择恰当的摄影机单元。
该情况下,优选的是,第一左摄影机单元25和第二右摄影机单元36也构成其他平行等高立体摄影机系统。同样,优选的是,第二左摄影机单元26和第一右摄影机单元35也构成其他平行等高立体摄影机系统。
控制装置4具备处理器和存储器。作为处理器可举例的有CPU、MPU、GPU。处理器可含有多个处理器核。作为存储器可举例的有ROM及RAM。在ROM上可存储有执行上述处理的程序。该程序可包含人工智能程序。作为人工智能程序可举例的有通过深度学习学习完成的神经网络。处理器可指定存储在ROM上的程序的至少一部分并在RAM上展开,与RAM协同工作而执行上述的处理。
上述的左选择器41、右选择器42及图像识别部43的各功能的至少一部分可以通过与上述处理器及存储器不同的至少一个硬件资源(例如,ASIC或FPGA等集成电路)来实现,还可以作为由上述处理器及存储器执行的软件的一个功能来实现。例如,图像识别部43可构成为一直接收第一左图像信号LS1、第二左图像信号LS2、第一右图像信号RS1及第二右图像信号RS2的GPU。该情况下,左选择器41和右选择器42的功能可被统合于在该GPU内进行的处理中。
在本实施方式中,控制装置4被动地接收第一左图像信号LS1、第二左图像信号LS2、第一右图像信号RS1及第二右图像信号RS2。但是,也可以构成为,相对于第一左摄影机单元25、第二左摄影机单元26、第一右摄影机单元35及第二右摄影机单元36中的任何两个,控制装置4主动地输出需要的信号。
在本实施方式中,控制装置4配置于搭载有左照明装置2和右照明装置3的车辆100。但是,控制装置4可搭载于左照明装置2和右照明装置3的任一方。
图4示意地表示第二实施方式的传感器系统1A的结构。传感器系统1A具备左照明装置2A、右照明装置3A及控制装置4A。对具有与第一实施方式的传感器系统1的构成要件实际上相同的结构及功能的构成要件,标上相同的参照标记,省略重复的说明。
左照明装置2A搭载在图2所示的车辆100的左前角部LF。右照明装置3A搭载在车辆100的右前角部RF。控制装置4A配置在车辆100的适当的位置。
如图4所示,左照明装置2A具备左摄影机单元27。左摄影机单元27收纳于左灯室23。如图5所示,左摄影机单元27具有第一视场角θ1。左摄影机单元27获取包含在第一视场角θ1内的车辆100外部的图像(左图像),输出与左图像对应的左图像信号LS。
如图4所示,右照明装置3A具备右摄影机单元37。右摄影机单元37收纳于右灯室33。如图5所示,右摄影机单元37具有第二视场角θ2。右摄影机单元37获取包含在第二视场角θ2内的车辆100外部的图像(右图像),输出与右图像对应的右图像信号RS。
在本实施方式中,第二视场角θ2与第一视场角θ1不同。第二视场角θ2比第一视场角θ1窄。第一视场角θ1例如超过100°。第二视场角θ2例如为40°左右。即,左摄影机单元27可被归类为所谓的广角摄影机。
如图4所示,在本实施方式中,左摄影机单元27的光轴LA和右摄影机单元37的光轴平行延伸。车辆100的上下方向的光轴LA与光轴RA的高度位置一致。即,左摄影机单元27和右摄影机单元37构成平行等高立体摄影机系统。
左图像信号LS和右图像信号RS被输入到控制装置4A。控制装置4A具备选择器44和图像识别部45。
选择器44构成为能够选择左图像信号LS与右图像信号RS中的至少一方。即,选择器44构成为能够选择左图像与右图像中的至少一方。选出的信号被输入到图像识别部45。
图像识别部45构成为基于从选择器44输入的信号,执行图像识别。即,图像识别部45基于左图像与右图像中的至少一方,执行图像识别。
由收纳于左灯室23的左摄影机单元27和收纳于右灯室33的右摄影机单元37构成立体摄影机系统的好处在于,相比于设置在车室内的后视镜附近的立体摄影机系统,能够确保长的基线长度(两摄影机的光轴间距离)。由此,能够提高识别远方的性能。另外,通过从后视镜附近除去立体摄影机系统,开阔驾驶者的视野。
但是,在如第一实施方式的传感器系统1那样需要四个摄影机单元的情况下,存在不能满足布局及成本的要求的情况。在本实施方式中,采用在固定的条件下使立体摄影机系统成立且根据需要切换为单眼摄影机系统的结构。该情况下,满足布局及成本的要求且提高包含立体摄影机系统的传感器系统的信息获取能力。
例如,基于从未图示的车速传感器输入到控制装置4A的与车辆100的车速相应的信号,在图像识别部45切换用于图像识别的图像。
具体来说,在车速为规定的阈值以上的情况下,选择识别远方性能相对较高的右摄影单元37。即,选择器44选择右图像信号RS。图像识别部45基于选出的右图像执行图像识别。
在车速未满规定的第二阈值的情况下,选择识别近处性能相对较高的左摄影机单元27。即,选择器44选择左图像信号LS。图像识别部45基于选出的左图像执行图像识别。
在车速超过第二阈值未满第一阈值的情况下,选择左摄影机单元27和右摄影机单元37双方,立体摄影机系统成立。即,选择器44选择左图像信号LS和右图像信号RS双方。图像识别部45基于左图像和右图像双方执行图像识别。
随着车速上升,谋求可靠地获取更远方的信息。反之,随着车速下落,谋求可靠地获取更近处的信息。根据上述的结构,能够根据车速高精度地获取必要性变高的区域的信息。
例如,能够根据由未图示的传感器(LiDAR传感器、毫米波雷达等)检测到的物体的位置和到该物体的距离选择恰当的摄影机单元。
控制装置4A具备处理器和存储器。作为处理器可举例的有CPU、MPU、GPU。处理器可含有多个处理器核。作为存储器可举例的有ROM及RAM。在ROM上可存储有执行上述处理的程序。该程序可包含人工智能程序。作为人工智能程序可举例的有通过深度学习学习完成的神经网络。处理器可指定存储在ROM上的程序的至少一部分并在RAM上展开,与RAM协同工作而执行上述的处理。
上述选择器44和图像识别部45的各功能的至少一部分可以通过与上述处理器及存储器不同的至少一个硬件资源(例如,ASIC或FPGA等集成电路)来实现,还可以作为由上述处理器及存储器执行的软件的一个功能来实现。例如,图像识别部45可构成为一直接收左图像信号LS和右图像信号RS的GPU。该情况下,选择器44的功能可被统合于在该GPU内进行的处理中。
在本实施方式中,控制装置4A被动地接收左图像信号LS和右图像信号RS。但是,也可以构成为,相对于左摄影机单元27和右摄影机单元37中的至少一方,控制装置4A主动地输出需要的信号。
在本实施方式中,控制装置4A配置于搭载有左照明装置2A和右照明装置3A的车辆100。但是,控制装置4A可搭载于左照明装置2A和右照明装置3A的任何一方。
在本实施方式中,左摄影机单元27的第一视场角θ1大于右摄影机单元37的第二视场角θ2。但是,可采用右摄影机单元37的第二视场角θ2大于左摄影机单元27的第一视场角的结构。优选的是,使在位于更靠近对面车辆线一侧的灯室配置的摄影机单元的视场角设定得较窄。
如果能够通过摄影机以外的传感器(LiDAR传感器或毫米波雷达等)获取远方的信息,也可以由广角摄影机单元构成左摄影机单元27和右摄影机单元37双方。
图6示意地表示第三实施方式的传感器系统1B的结构。传感器系统1B具备左照明装置3B及控制装置4B。对具有与第一实施方式的传感器系统1的构成要件实际上相同的结构及功能的构成要件,标上相同的参照标记,省略重复的说明。
右照明装置3B搭载在车辆100的右前角部RF。在车辆100的左前角部LF搭载具有与右照明装置3B左右对称结构的左照明装置。控制装置4B配置在车辆100的适当的位置。
右照明装置3B具备第一摄影机单元38。第一摄影机单元38收纳于右灯室33。第一摄影机单元38具有第一视场角θ1。第一摄影机单元38获取包含在第一视场角θ1内的车辆100的前方的图像(第一图像),输出与第一图像对应的第一图像信号S1。
右照明装置3B具备第二摄影机单元39。第二摄影机单元39收纳于右灯室33。第二摄影机单元39具有第二视场角θ2。第二摄影机单元39获取包含在第二视场角θ2内的车辆100的右方的图像(第二图像),输出与第二图像对应的第二图像信号S2。
在本实施方式中,第一视场角θ1与第二视场角θ2相等。第一视场角θ1和第二视场角θ2例如超过100°。即,第一摄影机单元38与第二摄影机单元39可被归类为所谓的广角摄影机。但是,第一视场角θ1与第二视场角θ2也可以不同。
在本实施方式中,第一摄影机单元38的第一光轴A1与第二摄影机单元39的第二光轴A2朝向不同的方向。
第一图像信号S1与第二图像信号S2被输入到控制装置4B。控制装置4B具备图像识别部46。
图像识别部46构成为基于从第一摄影机单元38与第二摄影机单元39输入的信号,执行图像识别。即,图像识别部46基于第一图像与第二图像,执行图像识别。
根据这样的结构,由于第一摄影机单元38的第一光轴A1和第二摄影机单元39的第二光轴A2朝向不同的方向,因此虽然相比于平行等高立体摄影机系统,图像识别的演算处理变得复杂,但能够以更广的角度范围使立体摄影机系统的图像识别成立。因此,能够提高包含立体摄影机系统的传感器系统的信息获取能力。
在本实施方式中,第一摄影机单元38和第二摄影机单元39双方收纳在右灯室33内。该情况下,能够构成接近平行等高立体摄影机系统,能够抑制图像识别的负荷的增加。
但是,如果第一光轴A1与第二光轴A2朝向不同的方向,则第一摄影机单元38和第二摄影机单元39中的至少一方可配置在右灯室33之外。
控制装置4B具备处理器和存储器。作为处理器可举例的有CPU、MPU、GPU。处理器可含有多个处理器核。作为存储器可举例的有ROM及RAM。在ROM上可存储有执行上述处理的程序。该程序可包含人工智能程序。作为人工智能程序可举例的有通过深度学习学习完成的神经网络。处理器可指定存储在ROM上的程序的至少一部分并在RAM上展开,与RAM协同工作而执行上述的处理。
上述图像识别部46的功能的至少一部分可以通过与上述处理器及存储器不同的至少一个硬件资源(例如,ASIC或FPGA等集成电路)来实现,还可以作为由上述处理器及存储器执行的软件的一个功能来实现。
在本实施方式中,控制装置4B配置于搭载有左照明装置2B和右照明装置3B的车辆100。但是,控制装置4B可搭载在左照明装置2B和右照明装置3B的任何一方。
上述的各实施方式仅是用于使本实用新型容易理解的一个示例。上述的实施方式的结构,只要不脱离本实用新型的主旨,可适当地进行变更、改进。
在本说明书中,“左照明壳体”是指位于比右照明壳体更靠左侧位置的照明壳体。在本说明中,“右照明壳体”是指位于比左照明壳体更靠右侧位置的照明壳体。
因此,如果成立立体摄影机系统,则左照明壳体没有必要配置在车辆100的左部,右照明壳体没有必要配置在车辆100的右部。例如,左照明装置2配置在如图2所示的车辆100的右后角部RB。该情况下,右照明装置3配置在车辆100的左后角部LB。或者,左照明装置2配置在车辆100的左后角部LB。该情况下,右照明装置3配置在车辆100的左前角部LF。

Claims (6)

1.一种传感器系统,其搭载于车辆,其特征在于,具备:
左照明壳体,其划分收纳左照明单元的左灯室的一部分;
右照明壳体,其划分收纳右照明单元的右灯室的一部分;
第一左摄影机单元,其收纳于所述左灯室,具有第一视场角;
第二左摄影机单元,其收纳于所述左灯室,具有比所述第一视场角大的第二视场角;
第一右摄影机单元,其收纳于所述右灯室,具有第三视场角;
第二右摄影机单元,其收纳于所述右灯室,具有比所述第三视场角大的第四视场角;
图像识别部,其基于从由所述第一左摄影机单元获取的第一左图像和由所述第二左摄影机单元获取的第二左图像中的一方选出的左图像、及从由第一右摄影机单元获取的第一右图像和由所述第二右摄影机单元获取的第二右图像中的一方选出的右图像,执行图像识别。
2.如权利要求1所述的传感器系统,其特征在于,
基于所述车辆的车速选择所述左图像和所述右图像。
3.一种传感器系统,其搭载于车辆,其特征在于,具备:
左照明壳体,其划分收纳左照明单元的左灯室的一部分;
右照明壳体,其划分收纳右照明单元的右灯室的一部分;
左摄影机单元,其收纳于所述左灯室,具有第一视场角;
右摄影机单元,其收纳于所述右灯室,具有与所述第一视场角部不同的第二视场角;
图像识别部,其基于由所述左摄影机单元获取的左图像和由所述右摄影机单元获取的右图像中的至少一方,执行图像识别。
4.如权利要求3所述的传感器系统,其特征在于,
基于所述车辆的车速选择所述左图像和所述右图像中的至少一方。
5.一种传感器系统,其搭载于车辆,其特征在于,具备:
第一摄影机单元,其具有朝向第一方向的第一光轴;
第二摄影机单元,其具有朝向与所述第一方向不同的方向的第二光轴;
图像识别部,其基于由所述第一摄影机单元获取的第一图像和由所述第二摄影机单元获取的第二图像,执行图像识别。
6.如权利要求5所述的传感器系统,其特征在于,
具备划分收纳照明单元的灯室的一部分的照明壳体;
所述第一摄影机单元和所述第二摄影机单元中的至少一方收纳于所述灯室内。
CN201821574542.XU 2017-09-28 2018-09-26 传感器系统 Active CN209191790U (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017188548 2017-09-28
JP2017-188548 2017-09-28

Publications (1)

Publication Number Publication Date
CN209191790U true CN209191790U (zh) 2019-08-02

Family

ID=67406636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201821574542.XU Active CN209191790U (zh) 2017-09-28 2018-09-26 传感器系统

Country Status (1)

Country Link
CN (1) CN209191790U (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109572554A (zh) * 2017-09-28 2019-04-05 株式会社小糸制作所 传感器系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109572554A (zh) * 2017-09-28 2019-04-05 株式会社小糸制作所 传感器系统

Similar Documents

Publication Publication Date Title
CN107590453B (zh) 增强现实场景的处理方法、装置及设备、计算机存储介质
CN106687740A (zh) 用于车辆的前照灯
EP3195584B1 (en) Object visualization in bowl-shaped imaging systems
CN101542529B (zh) 图像的深度图的生成方法和图像处理单元
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
US20170041591A1 (en) Vehicle-Mounted Image Recognition Device
US11442300B2 (en) Vehicle mounted virtual visor system and method thereof
CN105291955A (zh) 根据车辆的环境定向车辆的大灯的照明区域的方法和设备
CN106295493B (zh) 车外环境识别装置
CN102368137B (zh) 嵌入式标定立体视觉系统
CN104097565B (zh) 一种汽车远近光灯控制方法和装置
DE102014212162A1 (de) Frontscheinwerfersteuerungsvorrichtung
CN110382297A (zh) 光量调整装置、光量调整方法以及光量调整程序
CN106407951B (zh) 一种基于单目视觉的夜间前方车辆检测方法
CN209191790U (zh) 传感器系统
CN110298793A (zh) 车外环境识别装置
JP2015184907A (ja) 画像処理装置および画像処理プログラム
CN108416333B (zh) 图像处理的方法和装置
JP5673462B2 (ja) 前照灯装置
CN105365659A (zh) 照射系统
JP2013082267A (ja) 車両用前照灯制御装置
JP7239478B2 (ja) 車両の周辺領域の周辺適応した捕捉を実施するためのカメラ手段並びに方法
CN105872328A (zh) 一种拍摄系统
CN105979128A (zh) 图像采集装置及全景相机
CN108510538B (zh) 三维图像合成方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
GR01 Patent grant
GR01 Patent grant