CN116171239A - 相机模块、信息处理系统、信息处理方法和信息处理装置 - Google Patents
相机模块、信息处理系统、信息处理方法和信息处理装置 Download PDFInfo
- Publication number
- CN116171239A CN116171239A CN202180070439.XA CN202180070439A CN116171239A CN 116171239 A CN116171239 A CN 116171239A CN 202180070439 A CN202180070439 A CN 202180070439A CN 116171239 A CN116171239 A CN 116171239A
- Authority
- CN
- China
- Prior art keywords
- camera
- vehicle
- display
- mobile device
- optical axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 73
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000003287 optical effect Effects 0.000 claims abstract description 92
- 230000000007 visual effect Effects 0.000 claims description 24
- 238000012544 monitoring process Methods 0.000 claims description 14
- 239000002184 metal Substances 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 27
- 238000010586 diagram Methods 0.000 description 55
- 238000004891 communication Methods 0.000 description 48
- 238000000034 method Methods 0.000 description 42
- 238000012545 processing Methods 0.000 description 27
- 238000003384 imaging method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 20
- 230000004397 blinking Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 14
- 238000005286 illumination Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 12
- 210000003128 head Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000036544 posture Effects 0.000 description 10
- 210000005069 ears Anatomy 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 230000002441 reversible effect Effects 0.000 description 6
- 210000000887 face Anatomy 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 102220045950 rs587782511 Human genes 0.000 description 5
- 102220191829 rs77874543 Human genes 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000012447 hatching Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 102220272817 rs1227659334 Human genes 0.000 description 3
- 102220283096 rs1227659334 Human genes 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000010391 action planning Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 102200065571 rs762020512 Human genes 0.000 description 2
- 102220192630 rs886057625 Human genes 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 1
- 102220479489 NAD(+) hydrolase SARM1_P23R_mutation Human genes 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000035987 intoxication Effects 0.000 description 1
- 231100000566 intoxication Toxicity 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 102200156245 rs104893757 Human genes 0.000 description 1
- 102200042353 rs1130335 Human genes 0.000 description 1
- 102200063449 rs41298432 Human genes 0.000 description 1
- 102220269930 rs762020512 Human genes 0.000 description 1
- 102220224011 rs772230026 Human genes 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/25—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/26—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/108—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 'non-standard' camera systems, e.g. camera sensor used for additional purposes i.a. rain sensor, camera sensor split in multiple image areas
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/207—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/302—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/602—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/70—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/804—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8046—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8066—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本技术涉及能够抑制在诸如车辆之类的移动设备中包括相机的系统的复杂化的相机模块、信息处理系统、信息处理方法和信息处理装置。一种相机模块,包括:第一相机;第二相机;以及壳体,所述壳体容纳第一相机和第二相机。在相机模块被安装在移动设备中的状态下,第一相机的光轴朝向所述移动设备的斜后方,并且第二相机的光轴朝向所述移动设备的横向方向或斜前方。本技术可以应用于例如执行自动驾驶的车辆。
Description
技术领域
本技术涉及相机模块、信息处理系统、信息处理方法和信息处理装置,并且更具体地,涉及使得能够在移动设备中有效使用相机的相机模块、信息处理系统、信息处理方法和信息处理装置。
背景技术
近年来,代替传统的车门后视镜,已经开发了在车辆中的显示器上显示车辆的后部的图像的相机监视系统(CMS)。
例如,常规地,作为用于CMS的车门后视镜,提出了包括朝向车辆后方并拍摄在车辆中的显示器上显示的图像的主相机、和检测透镜等的雾气的副相机的车门后视镜(例如,参照专利文献1、2)。
此外,近年来,安装在车辆上的相机的数量已经增加,以便支持CMS和自动驾驶。
引文列表
专利文献
专利文献1:日本专利申请公开号2018-197021
专利文献2:日本专利申请公开号2019-51769
发明内容
本发明要解决的问题
然而,随着相机数量的增加,包括每个相机的车辆的系统架构变得复杂。此外,在设计相机的安装位置、布线等方面的难度增加。
本技术是鉴于这样的情况而作出的,并且要抑制在诸如车辆之类的移动设备中的包括相机的系统的复杂化。
针对问题的解决方案
根据本技术第一方面的相机模块包括第一相机、第二相机以及壳体,所述壳体容纳第一相机和第二相机,其中,在被安装在移动设备中的状态下,第一相机的光轴朝向所述移动设备的斜后方,并且第二相机的光轴朝向所述移动设备的横向方向或斜前方。
根据本技术的第二方面的信息处理系统包括:第一相机,包括朝向移动设备的斜后方的光轴;第二相机,被容纳在与第一相机相同的壳体中,并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴;第一显示器,第一显示器由相机监视系统(CMS)使用,并且显示基于由第一相机拍摄的第一图像的图像;识别单元,基于由第二相机拍摄的第二图像来执行所述移动设备的外部物体识别;以及显示控制单元,控制第一显示器对第一图像和基于所述识别单元的物体识别的结果的视觉效果的显示。
根据本技术的第三方面的信息处理方法包括:
控制由用于相机监视系统(CMS)的显示器对基于由光轴朝向移动设备的斜后方的第一相机所拍摄的第一图像的图像的显示;
基于由第二相机拍摄的第二图像执行移动设备的外部物体识别,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴;以及
控制所述显示器对基于所述物体识别的结果的视觉效果的显示。
根据本技术的第四方面的信息处理装置包括控制用于相机监视系统(CMS)的显示器的显示的显示控制单元,其中,所述显示控制单元控制所述显示器对基于第一相机所拍摄的第一图像的图像以及基于移动设备基于由第二相机所拍摄的第二图像的外部物体识别的结果的视觉效果的显示,第一相机的光轴朝向移动设备的斜后方,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近所述移动设备的正面方向的方向的光轴。
在本技术的第一方面中,在被安装在移动设备中的状态下,第一相机的光轴朝向移动设备的斜后方,并且第二相机的光轴朝向移动设备的横向方向或斜前方。
在本技术的第二方面或第三方面中,控制基于光轴朝向移动设备的斜后方的第一相机所拍摄的第一图像的图像的显示,基于第二相机所拍摄的第二图像来执行移动设备的外部对象识别,其中第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴,并且控制基于对象识别的结果的视觉效果的显示。
在本技术的第四方面中,控制对基于第一相机所拍摄的第一图像的图像以及基于移动设备基于由第二相机所拍摄的第二图像的外部物体识别的结果的视觉效果的显示,第一相机的光轴朝向移动设备的斜后方,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近所述移动设备的正面方向的方向的光轴。
附图说明
图1是示出车辆控制系统的配置示例的框图。
图2是示出相机、LiDAR、雷达和超声波传感器的安装位置的示例的图。
图3是示出鱼眼相机的成像范围的示例的图。
图4是车辆的正视图。
图5是车辆的左侧视图。
图6是示出相机模块的配置示例的图。
图7是示出相机模块的配置示例的图。
图8是示出相机模块的配置示例的图。
图9是示出相机模块的配置示例的分解图。
图10是示出相机模块的相机的布置示例的图。
图11是示出相机模块的相机的布置示例的图。
图12是从右侧观察的车辆内部的示意图。
图13是示出车辆内部的前部的示意图。
图14是示出车辆的驾驶员座椅的前的示意图。
图15是车辆的方向盘附近的放大图。
图16是示出ToF相机在相机模块中的安装位置的示例的图。
图17是示出ToF相机的成像范围的示例的图。
图18是从前方观察的车辆内部的示意图。
图19是从左斜后方观察的驾驶员座椅的示意图。
图20是示出信息处理系统的配置示例的框图。
图21是示出信息处理系统的具体配置示例的框图。
图22是示出正常状态下的CMS用显示单元的显示示例的图。
图23是示出当在相邻车道中的车辆接近时用于CMS的显示单元的显示示例的图。
图24是示出当方向指示器打开时用于CMS的显示单元的显示示例的图。
图25是示出当在相邻车道中的车辆接近时用于CMS的显示单元的显示示例的图。
图26是示出当方向指示器打开时用于CMS的显示单元的显示示例的图。
图27是示出基本视野的示例的图。
图28是用于说明基于档位改变用于CMS的显示单元的显示范围的示例的图。
图29是用于说明设置用于CMS的显示单元的显示范围的方法的图。
图30是用于说明在向用于CMS的显示单元内观看的情况下的显示范围的图。
图31是用于说明在向用于CMS的显示单元内观看的情况下的显示范围的图。
图32是用于说明在档位被设定为倒档并且查看用于CMS的显示单元的情况下的显示范围的图。
图33是用于说明在档位被设定为倒档并且查看用于CMS的显示单元的情况下的显示范围的图。
图34是用于说明在档位被设定为倒档并且查看用于CMS的显示单元的情况下的显示范围的图。
图35是用于说明在触摸开门器的情况下控制用于CMS的显示单元的方法的图。
图36是用于说明在开门器被触摸的情况下控制用于CMS的显示单元的方法的图。
图37是用于说明在触摸开门器的情况下控制用于CMS的显示单元的方法的图。
图38是示出在驾驶员识别之前用于驾驶员座椅的显示单元和方向盘的照明状态的图。
图39是示出在驾驶员识别时用于驾驶员座椅的显示单元和方向盘的照明状态的图。
图40是示出当完成自动驾驶准备时用于驾驶员座椅的显示单元和方向盘的照明状态的图。
图41是示出在自动驾驶开始时用于驾驶员座椅的显示单元和方向盘的照明状态的图。
图42是示出在自动驾驶期间在车道变换时用于驾驶员座椅的显示单元和方向盘的照明状态的图。
图43是示出危险检测时的用于驾驶员座椅的显示单元和方向盘的照明状态的图。
图44是用于说明对用于引起注意从左后方接近的车辆的警告声音进行控制的方法的图。
图45是用于说明对用于引起注意从左后方接近的车辆的警告声音进行控制的方法的图。
图46是用于说明对用于引起注意从左后方接近的车辆的警告声音进行控制的方法的图。
图47是用于说明对用于引起注意从左后方接近的车辆的警告声音进行控制的方法的图。
图48是示出图20中的信息处理系统的第一修改示例的框图。
图49是示出图20中的信息处理系统的第二修改示例的框图。
图50是示出图20中的信息处理系统的第三修改示例的框图。
图51是示出实现ADAS+HMI+主体DC的方法的示例的框图。
图52是示出图21中的信息处理系统的修改示例的框图。
图53是示出视频分离器的配置示例的框图。
图54是示出鱼眼相机的配置示例的框图。
具体实施方式
在下文中,将描述用于执行本技术的模式。将按以下顺序给出描述。
1.车辆控制系统的配置示例
2.实施例
3.修改示例
4.其他
<<1.车辆控制系统的配置示例>>
图1是示出作为应用本技术的移动设备控制系统的示例的车辆控制系统11的配置示例的框图。
车辆控制系统11设置在车辆1中,并且执行与车辆1的行驶支持和自动驾驶相关的处理。
车辆控制系统11包括处理器21、通信单元22、地图信息累积单元23、全球导航卫星系统(GNSS)接收单元24、外部识别传感器25、车内传感器26、车辆传感器27、记录单元28、行驶支持/自动驾驶控制单元29、驾驶员监视系统(DMS)30、人机接口(HMI)31和车辆控制单元32。
处理器21、通信单元22、地图信息累积单元23、GNSS接收单元24、外部识别传感器25、车内传感器26、车辆传感器27、记录单元28、行驶支持/自动驾驶控制单元29、驾驶员监视系统(DMS)30、人机接口(HMI)31和车辆控制单元32通过通信网络41彼此连接。通信网络41包括例如符合任意标准的车内通信网络、总线等,例如控制器区域网络(CAN)、局域互联网络(LIN)、局域网(LAN)、FlexRay(注册商标)或以太网(注册商标)。注意,车辆控制系统11的每个单元可以通过例如近场通信(NFC)、蓝牙(注册商标)等直接连接,而不通过通信网络41。
注意,在下文中,在车辆控制系统11的每个单元经由通信网络41执行通信的情况下,将省略对通信网络41的描述。例如,在处理器21和通信单元22经由通信网络41执行通信的情况下,简单地描述处理器21和通信单元22执行通信。
处理器21包括例如各种处理器,诸如中央处理单元(CPU)、微处理单元(MPU)和电子控制单元(ECU)。处理器21控制整个车辆控制系统11。
通信单元22与车辆内部和外部的各种设备、其它车辆、服务器、基站等通信,并且发送和接收各种数据。作为与车辆外部的通信,例如,通信单元22从外部接收用于更新用于控制车辆控制系统11的操作的软件的程序、地图信息、交通信息、车辆1周围的信息等。例如,通信单元22将关于车辆1的信息(例如,指示车辆1的状态的数据、识别单元73的识别结果等)、车辆1周围的信息等发送到外部。例如,通信单元22执行与诸如eCall之类的车辆紧急呼叫系统相对应的通信。
注意,通信单元22的通信方法不受特别限制。此外,可以使用多种通信方法。
作为与车辆内部的通信,例如,通信单元22通过诸如无线LAN、蓝牙、NFC或无线USB(WUSB)之类的通信方法执行与车内设备的无线通信。例如,通信单元22经由未示出的连接端子(以及,如果需要,缆线),通过诸如通用串行总线(USB)、高清晰度多媒体接口(注册商标,HDMI)或移动高清晰度链路(MHL)之类的通信方法,与车内设备执行有线通信。
这里,车内设备例如是在车辆中未连接到通信网络41的设备。例如,假设由诸如驾驶员之类的乘客携带的移动设备或可穿戴设备、被带入车辆中并被临时安装的信息设备等。
例如,通信单元22通过诸如第四代移动通信系统(4G)、第五代移动通信系统(5G)、长期演进(LTE)或专用短程通信DSRC之类的无线通信方案经由基站或接入点与存在于外部网络(例如,因特网、云网络或公司专用网络)上的服务器等通信。
例如,通信单元22使用对等(P2P)技术与存在于本车辆附近的终端(例如,行人或商店的终端,或机器类型通信(MTC)终端)通信。例如,通信单元22执行V2X通信。V2X通信例如是与其他车辆的车辆间通信、与路边设备等的车辆到基础设施通信、车辆到住宅通信、与行人所拥有的终端等的车辆到行人通信等。
例如,通信单元22接收由诸如无线电波信标、光信标或FM复用广播之类的车辆信息和通信系统(VICS,注册商标)发送的电磁波。
地图信息累积单元23累积从外部取得的地图和由车辆1生成的地图。例如,地图信息累积单元23累积三维的高精度地图、精度比高精度地图低且覆盖广阔区域的全局地图等。
高精度地图是例如动态地图、点云地图、矢量地图(也称为高级驾驶员辅助系统(ADAS)地图)等。动态地图是例如包括动态信息、半动态信息、半静态信息和静态信息的四个层的地图,并且从外部服务器等提供。点云地图是包含点云(点云数据)的地图。矢量地图是将诸如车道和信号的位置之类的信息与点云地图相关联的地图。点云地图和矢量地图可以从例如外部服务器等提供,或者可以由车辆1基于雷达52、LiDAR 53等的感测结果创建为用于与稍后描述的本地地图进行匹配的地图,并且可以累积在地图信息累积单元23中。此外,在从外部服务器等提供高精度地图的情况下,例如,从服务器等获取关于车辆1从现在开始行驶的计划路线的几百米见方的地图数据,以便减少通信容量。
GNSS接收单元24接收来自GNSS卫星的GNSS信号,并将GNSS信号提供给行驶支持/自动驾驶控制单元29。
外部识别传感器25包括用于识别车辆1外部的状况的各种传感器,并且将来自每个传感器的传感器数据提供给车辆控制系统11的每个单元。包括在外部识别传感器25中的传感器的类型和数量是任意的。
例如,外部识别传感器25包括相机51、雷达52、光检测和测距或激光成像检测和测距(LiDAR)53、以及超声波传感器54。相机51、雷达52、LiDAR 53、以及超声波传感器54的数量是任意的,并且稍后将描述每个传感器的感测区域的示例。
注意,作为相机51,例如,根据需要使用任意成像系统的相机,诸如飞行时间(ToF)相机、立体相机、单目相机或红外相机。
此外,例如,外部识别传感器25包括用于检测天气、气候、亮度等的环境传感器。环境传感器包括例如雨滴传感器、雾传感器、阳光传感器、雪传感器、照度传感器等。
此外,例如,外部识别传感器25包括用于检测车辆1周围的声音、声源的位置等的麦克风。
车内传感器26包括用于检测车辆内部信息的各种传感器,并将来自每个传感器的传感器数据提供给车辆控制系统11的每个单元。车内传感器26中包括的传感器的类型和数量是任意的。
例如,车内传感器26包括相机、雷达、就座传感器、方向盘传感器、麦克风、生物传感器等。作为相机,例如,可以使用诸如ToF相机、立体相机、单目相机或红外相机之类的任何成像系统的相机。生物传感器例如设置在座椅、方向盘等中,并且检测诸如驾驶员之类的乘客的各种生物信息。
车辆传感器27包括用于检测车辆1的状态的各种传感器,并且将来自每个传感器的传感器数据提供给车辆控制系统11的每个单元。包括在车辆传感器27中的传感器的类型和数量是任意的。
例如,车辆传感器27包括速度传感器、加速度传感器、角速度传感器(陀螺仪传感器)和惯性测量单元(IMU)。例如,车辆传感器27包括检测方向盘的转向角的转向角传感器、偏航率传感器、检测加速器踏板的操作量的加速器传感器和检测制动踏板的操作量的制动传感器。例如,车辆传感器27包括检测发动机或马达的转数的转动传感器、检测轮胎的气压的气压传感器、检测轮胎的滑移率的滑移率传感器以及检测车轮的转动速度的车轮速度传感器。例如,车辆传感器27包括检测电池的剩余量和温度的电池传感器,以及检测外部冲击的冲击传感器。
记录单元28包括例如只读存储器(ROM)、随机存取存储器(RAM)、诸如硬盘驱动器(HDD)之类的磁存储设备、半导体存储设备、光存储设备、磁光存储设备等。记录单元28记录车辆控制系统11的每个单元使用的各种程序、数据等。例如,记录单元28记录包括由其中与自动驾驶相关的应用程序运行的机器人操作系统(ROS)发送和接收的消息的rospbag文件。例如,记录单元28包括事件数据记录器(EDR)和用于自动驾驶的数据存储系统(DSSAD),并且记录诸如事故之类的事件之前和之后的车辆1的信息。
行驶支持/自动驾驶控制单元29控制车辆1的行驶支持和自动驾驶。例如,行驶支持/自动驾驶控制单元29包括分析单元61、行动计划单元62和操作控制单元63。
分析单元61执行车辆1和周围环境的状况的分析处理。分析单元61包括自身位置估计单元71、传感器融合单元72和识别单元73。
自身位置估计单元71根据来自外部识别传感器25的传感器数据和地图信息累积单元23中累积的高精度地图,估计车辆1的自身位置。例如,自身位置估计单元71根据来自外部识别传感器25的传感器数据生成局部地图,通过使该局部地图与高精度地图匹配,估计车辆1的自身位置。车辆1的位置例如基于后轮对车轴的中心。
局部地图是例如使用诸如同时定位与地图绘制(SLAM)之类的技术创建的三维高精度地图、占用网格地图等。三维高精度地图是例如上述点云地图等。占用网格地图是将车辆1周围的三维或二维空间分割成预定大小的栅格(格子)并以栅格为单位来表示物体的占用状态的地图。物体的占用状态例如由物体的存在或不存在或存在概率来指示。局部地图还用于例如识别单元73对车辆1外部的状况的检测处理和识别处理。
注意,自身位置估计单元71可以基于GNSS信号和来自车辆传感器27的传感器数据来估计车辆1的自身位置。
传感器融合单元72执行组合多个不同类型的传感器数据(例如,从相机51提供的图像数据和从雷达52提供的传感器数据)的传感器融合处理,以获得新信息。组合不同类型的传感器数据的方法包括集成、融合、关联等。
识别单元73进行车辆1外的状况的检测处理和识别处理。
例如,识别单元73基于来自外部识别传感器25的信息、来自自身位置估计单元71的信息、来自传感器融合单元72的信息等,进行车辆1外的状况的检测处理和识别处理。
具体而言,例如,识别单元73进行车辆1周边的物体的检测处理、识别处理等。物体的检测处理例如是检测物体的有无、大小、形状、位置、移动等的处理。物体的识别处理是例如识别诸如物体的类型之类的属性或识别特定物体的处理。然而,检测处理和识别处理不一定被清楚地划分,而是可以交叠。
例如,识别单元73通过针对每个点云的块基于诸如LiDAR或雷达之类的传感器数据执行用于对点云进行分类的聚类来检测车辆1周围的物体。结果,检测车辆1周围的物体的存在或不存在、尺寸、形状和位置。
例如,识别单元73通过执行跟随通过聚类分类的点云的块的运动的跟踪来检测车辆1周围的物体的运动。结果,检测车辆1周围的物体的速度和行进方向(运动矢量)。
例如,识别单元73通过对从相机51提供的图像数据进行诸如语义分割之类的物体识别处理,来识别车辆1周围的物体的种类。
注意,作为要检测或识别的物体,例如,假定车辆、人、自行车、障碍物、结构、道路、交通灯、交通标志、道路标志等。
例如,识别单元73根据地图信息累积单元23中累积的地图、自身位置的估计结果以及车辆1周边的物体的识别结果,进行车辆1周边的交通规则的识别处理。通过该处理,例如,识别信号的位置和状态、交通标识和道路标识的内容、交通管制的内容、可行驶车道等。
例如,识别单元73进行车辆1的周围环境的识别处理。作为要识别的周围环境,例如,假设天气、温度、湿度、亮度、路面状态等。
行动计划单元62生成车辆1的行动计划。例如,行动计划单元62通过进行全局路径计划和路径跟踪的处理,生成行动计划。
注意,全局路径计划是计划从开始到目标的粗略路径的处理。该全局路径计划被称为轨迹计划,并且包括在通过全局路径计划而计划的路径中考虑到车辆1的运动特性而使得能够在车辆1附近安全且平滑地行驶的局部路径计划的处理。
路径跟随是计划用于在计划时间内安全且准确地行驶通过全局路径计划所计划的路径的操作的处理。例如,计算车辆1的目标速度和目标角速度。
操作控制单元63为了实现由行动计划单元62生成的行动计划,控制车辆1的操作。
例如,操作控制单元63控制转向控制单元81、制动控制单元82、驱动控制单元83,以进行加减速控制和方向控制,以使车辆1在通过轨迹计划而计算出的轨迹上行驶。例如,操作控制单元63执行协作控制,以实现ADAS的功能,例如碰撞避免或冲击减轻、跟随行驶、车速保持行驶、本车辆的碰撞警告、本车辆的车道偏离警告等。例如,运动控制单元63执行用于自动驾驶等目的协作控制,其中车辆自主行驶而不依赖于驾驶员的操作。
DMS 30基于来自车内传感器26的传感器数据、输入到HMI 31的输入数据等执行驾驶员认证处理、驾驶员状态识别处理等。作为要识别的驾驶员的状态,例如,假设身体状态、清醒度、集中度、疲劳度、视线方向、醉酒度、驾驶操作、姿势等。
注意,DMS 30可以执行除了驾驶员之外的乘客的认证处理和乘客的状态的识别处理。此外,例如,DMS 30可以基于来自车内传感器26的传感器数据来执行车辆内部的状况的识别处理。作为要识别的车辆内部的状况,例如,假定温度、湿度、亮度、气味等。
HMI 31用于输入各种数据、指示等,基于输入的数据、指示等产生输入信号,并将输入信号提供给车辆控制系统11的每个单元。例如,HMI 31包括诸如触摸面板、按钮、麦克风、开关和操纵杆之类的操作设备,以及可以通过除了通过语音、手势等进行手动操作之外的方法输入的操作设备等。注意,HMI 31可以是例如使用红外线或其它无线电波的遥控设备,或者与车辆控制系统11的操作兼容的诸如移动设备或可穿戴设备之类的外部连接设备。
此外,HMI 31执行输出控制,以控制视觉信息、听觉信息和触觉信息的产生和到乘客或车辆外部的输出、输出内容、输出定时、输出方法等。视觉信息例如是诸如操作画面、车辆1的状态显示、警告显示或表示车辆1周边的状况的监视图像之类的通过图像或光表示的信息。听觉信息例如是由诸如引导、警告声音或警告消息之类的音声表示的信息。触觉信息是例如通过力、振动、运动等给予乘客触觉的信息。
作为输出视觉信息的设备,例如,假定显示设备、投影仪、导航设备、仪表板、相机监视系统(CMS)、电子镜、灯等。显示设备可以是在乘客的视野中显示视觉信息的设备,诸如平视显示器、透射式显示器或具有增强现实(AR)功能的可穿戴设备,以及具有通常显示器的设备。
作为输出听觉信息的设备,例如,假定音频扬声器、头戴式耳机、耳机等。
作为输出触觉信息的设备,例如,假设使用触觉技术等的触觉元件。触觉元件例如设置在方向盘、座椅等上。
车辆控制单元32控制车辆1的每个单元。车辆控制单元32包括转向控制单元81、制动控制单元82、驱动控制单元83、车身系统控制单元84、灯控制单元85以及喇叭控制单元86。
转向控制单元81检测并控制车辆1的转向系统的状态。转向系统包括例如包括方向盘等的转向机构、电动助力转向装置等。转向控制单元81包括例如控制单元,诸如控制转向系统的ECU、驱动转向系统的致动器等。
制动控制单元82检测并控制车辆1的制动系统的状态。该制动系统包括例如制动机构,该制动机构包括制动踏板、防抱死制动系统(ABS)等。制动控制单元82包括例如控制单元,诸如控制制动系统的ECU、驱动制动系统的致动器等。
驱动控制单元83检测并控制车辆1的驱动系统的状态。该驱动系统包括例如用于产生驱动力的驱动力产生设备(例如加速器踏板、内燃机或驱动马达)、用于将驱动力传递到车轮的驱动力传递机构等。驱动控制单元83包括例如控制驱动系统的控制单元(例如ECU)、驱动驱动系统的致动器等。
车身系统控制单元84检测和控制车辆1的车身系统的状态。车身系统包括例如无钥匙进入系统、智能钥匙系统、电动车窗设备、电动座椅、空调、气囊、安全带、换档杆等。车身系统控制单元84包括例如控制车身系统的控制单元(例如ECU)、驱动车身系统的致动器等。
灯控制单元85检测并控制车辆1的各种灯的状态。作为要控制的灯,例如,假定前灯、背光、雾灯、转向信号、刹车灯、投影、保险杠的显示等。灯控制单元85包括控制灯的控制单元(例如ECU)、驱动灯的致动器等。
喇叭控制单元86检测并控制车辆1的汽车喇叭的状态。喇叭控制单元86包括例如控制汽车喇叭的控制单元(例如ECU)、驱动汽车喇叭的致动器等。
<2.实施例>
接下来,将参考图2至47描述本技术的实施例。
<外部识别传感器25和车内传感器26的配置示例>
图2示出了车辆1的外部识别传感器25所包含的相机51、雷达52、LiDAR 53以及超声波传感器54、和车内传感器26所包含的相机的安装位置的示例。在该例中,外部识别传感器25包括相机51FC1~51BC3、雷达52FC~52BR、LiDAR 53F~LiDAR 53B以及超声波传感器54FL1~54BR。车内传感器26包括相机101L至102。
相机51FC1设置在车辆1前端中央附近。相机51FC1对车辆1的前部成像。例如,鱼眼相机用作相机51FC1。相机51FC1例如用于ADAS和环绕视图。环绕视图是例如显示车辆1的周边的图像或从上方观察的车辆1的周边的鸟瞰视图图像的功能。
相机51FC2设置在车辆1内部的前部中央附近。相机51FC2经由风挡对车辆1的前部成像。例如,相机51FC2用于ADAS。相机51FC2的图像记录在例如驾驶记录器中。
相机51FL和相机51FR在车辆1的内部前方以预定距离左右布置,并且构成立体相机。相机51FL和相机51FR经由风挡对车辆1的前方成像。相机51FL和相机51FR例如用于ADAS。作为相机51FL及相机51FR,例如使用比相机51FC2分辨率高的相机。
相机51SL1至51SL4构成一个相机模块122L(图9等),如后面所述,并且设置在车辆1左侧表面上的驾驶员座椅的门的前端附近。
相机51SL1对车辆1的左斜前方成像。相机51SL1例如用于ADAS。
相机51SL2对车辆1的左方向成像。作为相机51SL2,例如,使用具有比相机51SL1、相机51SL3和相机51SL4更宽的角度的鱼眼相机。例如,相机51SL2用于ADAS和环绕视图。
相机51SL3对车辆1的左斜后方成像。作为相机51SL3,例如,使用具有比相机51SL1更高分辨率的相机。例如,相机51SL3用于ADAS。
相机51SL4对车辆1的左斜后方进行成像。相机51SL4的光轴朝向比相机51SL3的光轴更靠近车辆1的后侧的方向。换句话说,相机51SL3的光轴朝向比相机51SL4的光轴更靠近车辆1的左方(横向)的方向。相机51SL4例如用于CMS。
相机51SR1至51SR4构成一个相机模块122R(图4等),如后面所述,并且设置在车辆1右侧表面上的乘客座椅的门的前端附近。
相机51SR1对车辆1的右前斜方向进行成像。相机51SR1例如用于ADAS。
相机51SR2对车辆1的右方成像。作为相机51SR2,例如,使用具有比相机51SR1、相机51SR3和相机51SR4更宽的角度的鱼眼相机。相机51SR2例如用于ADAS和环绕视图。
相机51SR3对车辆1的右斜后方成像。作为相机51SR3,例如,使用具有比相机51SR1更高分辨率的相机。例如,相机51SR3用于ADAS。
相机51SR4对车辆1的右斜后方进行成像。相机51SR4的光轴朝向比相机51SR3的光轴更靠近车辆1的后侧的方向。换句话说,相机51SR3的光轴朝向的方向比相机51SR4的光轴更靠近车辆1的右方(横向)。例如,相机51SR4用于CMS。
相机51BC1设置在车辆1的后端中央附近。相机51BC1对车辆1的后部成像。作为相机51BC1,例如使用鱼眼相机。例如,相机51BC1用于ADAS和环绕视图。
相机51BC2和相机51BC3设置在车辆1的内部的后部中央附近。相机51BC2和相机51BC3经由后窗对车辆1的后部进行成像。例如,相机51BC2用于CMS。例如,相机51BC3用于ADAS。相机51BC3的图像记录在例如驾驶记录器中。
雷达52FC设置在车辆1的前端中央附近。雷达52FC进行在车辆1的前方的感测。
雷达52FL设置在车辆1的前端的左端附近。雷达52FL对车辆1的左斜前方进行感测。
雷达52FR设置在车辆1的前端的右端附近。雷达52FR进行车辆1的斜右前方的感测。
雷达52BC设置在车辆1的后端中央附近。雷达52BC对车辆1的后方进行感测。
雷达52BL设置在车辆1的后端的左端附近。雷达52BL对车辆1的左斜后方进行感测。
雷达52BR设置在车辆1的后端的右端附近。雷达52BR对车辆1的右斜后方进行感测。
LiDAR 53F设置在车辆1的远端的中央附近。LiDAR 53F执行车辆1的前方的感测。
在车辆1的左侧表面的前方设置LiDAR 53L。LiDAR 53L执行车辆1的左方向的感测。
在车辆1的右侧表面的前方设置LiDAR 53R。LiDAR 53R对车辆1的右方进行感测。
LiDAR 53B设置在车辆1的后端的中央附近。LiDAR 53B执行车辆1的后方的感测。
超声波传感器54FL1设置在车辆1的远端的中央的略左侧。超声波传感器54FL1执行车辆1的略左侧的位置的感测。
超声波传感器54FL2设置在车辆1的前端的左端附近。超声波传感器54FL1对车辆1的左斜前方执行感测。
超声波传感器54FR1设置在车辆1的前端的中央处的稍靠右的位置。超声波传感器54FR1朝向车辆1的右前方进行感测。
超声波传感器54FR2设置在车辆1的前端的右端附近。超声波传感器54FR1对车辆1的右斜前方执行感测。
超声波传感器54SL1设置在车辆1的车身的左侧表面的前方。超声波传感器54SL1对车辆1的前方的左方进行感测。
超声波传感器54SL2设置在车辆1的车身的左侧表面的后方。超声波传感器54SL2对车辆1的后方的左方进行感测。
超声波传感器54SR1设置在车辆1的车身的右侧表面的前方。超声波传感器54SR1对车辆1的前方的右方执行感测。
超声波传感器54SR2设置在车辆1的车身的右侧表面的后方。超声波传感器54SR2对车辆1的后方的右方执行感测。
超声波传感器54BL设置在车辆1的后端的左端附近。超声波传感器54BL对车辆1的左斜后方执行感测。
超声波传感器54BR设置在车辆1后端的右端附近。超声波传感器54BR对车辆1的右后斜方进行感测。
相机101L设置在车辆中驾驶员座椅的斜右上方向上。相机101L对驾驶员座椅的周围进行成像。例如,ToF相机被用作相机101L。
相机101R设置在车辆的乘客座椅的左斜上方。相机101R对乘客座椅周围进行成像。例如,ToF相机被用作相机101R。
相机102被设置在车辆的仪表板上的中央的稍靠左的位置。相机102对驾驶员座椅周围进行成像。
<鱼眼相机的成像范围的示例>
图3示出了使用鱼眼相机的相机51FC1、相机51SL2、相机51SR2和相机51BC1的成像范围的示例。
相机51FC1可对车辆1前方超过180度的成像范围A1F成像。相机51SL2可对车辆1左方超过180度的成像范围A1L成像。相机51SR2可对车辆1右方超过180度的成像范围A1R成像。相机51BC1可对车辆1后方超过180度的成像范围A1B成像。因此,如图中阴影线所示,从相机51FC1到相机51BC1的四个鱼眼相机可对车辆1周围以360度进行成像。
如上所述,相机51FC1至51BC1用于ADAS和环绕视图。例如,通过组合相机51FC1至51BC1的图像,生成并显示从上方观察的车辆1周围的360度俯瞰图像。
<相机模块122L和相机模块122R的细节>
接下来,将参考图4至11描述相机模块122L和相机模块122R的细节。如上所述,相机模块122L包括相机51SL1至51SL4。相机模块122R包括相机51SR1至51SR4。
首先,将参考图4和5描述相机模块122L和相机模块122R的安装位置的示例。
图4是车辆1的主视图。图5是车辆1的左侧视图。
相机模块122L设置在与驾驶员座椅的门121FL上的传统车门后视镜相似的位置处。具体地,相机模块122L设置在驾驶员座椅的门121FL的主体的前端附近以及主体和窗户之间的边界附近。
相机模块122R设置在乘客座椅的门121FR(未示出)上与相机模块122L类似的位置处。
接下来,将参考图6到11描述相机模块122L的配置示例。
图6的A是从稍微向左倾斜的前方观察时车辆1的相机模块122L的周边的示意图。图6的B是从与图6的A基本相同的方向观察的相机模块122L的一部分的分解示意图。图7的A是从前左斜方向观察的车辆1的相机模块122L的周边的示意图。图7的B是从与图7的A基本相同的方向观察的相机模块122L的一部分的分解示意图。图8的A是从后方观察的车辆1的相机模块122L的周边的示意图。图8的B是从与图8的A基本相同的方向观察的相机模块122L的示意图。图9是相机模块122L的分解图。图10是从前方观察的相机模块122L中的相机51SL1至51SL4的安装位置的视图。图11是从上方观察的相机模块122L中的相机51SL1至51SL4的安装位置的视图。
如图9所示,相机51SL1至51SL4内置在壳体131L中并固定到壳体131L的底板。此外,相机51SL1至51SL4指向壳体131L外部的不同方向,以便不在视角内。此外,在相机51SL1至51SL4的后方设置空间,使得可以对缆线进行布线。
相机51SL1被安置成使得光轴是水平的并且从车辆1的前方稍微向左倾斜,并且从壳体131L的前方看到透镜。即,相机51SL1的光轴朝向车辆1的水平方向,且朝向从车辆1的偏航方向上的前方向左略微转动的方向。
相机51SL1的视角例如是120度。因此,相机51SL1可拍摄从车辆1的前方到左斜前方的宽范围的图像。
相机51SL2被安置成使得光轴指向斜下方(例如,从水平方向向下32度)和车辆1的左方(横向),并且从壳体131L的左侧表面看到透镜。
如上参考图3所述,相机51SL2由鱼眼相机构成,并且能够拍摄在车辆1的左方向上超过180度的成像范围A1L的图像。
这里,通常用于环绕视图的相机的光轴被垂直向下定向。另一方面,相机51SL2的光轴指向斜下方。此外,相机51SL2包括鱼眼相机。因此,相机51SL2可拍摄包括从车辆1左侧周围的地面到左侧相邻车道的车辆、摩托车等的上端的宽范围的图像。
相机51SL3被安置成使得光轴是水平的,朝向车辆1的左斜后方向,并且从壳体131L的左侧表面看到透镜。即,相机51SL3的光轴朝向车辆1的水平方向,并且朝向在车辆1的偏航方向上从左方向向左方向转动预定角度的方向。
相机51SL3的视角例如是120度。因此,相机51SL3可拍摄包括从车辆1的左方向到左斜后方的宽范围的图像。
相机51SL4被安置成使得光轴略微向下倾斜地指向并且指向车辆1的左斜后方,并且从壳体131L的左侧表面和后表面之间的边界附近看到透镜。即,相机51SL4的光轴从车辆1的水平方向稍向下方地指向,并且指向在车辆1的偏航方向上从左方向向左方向转动预定角度的方向。此外,相机51SL4的光轴指向比相机51SL3的光轴更靠近车辆1后侧的方向。
因此,相机51SL4能够比相机51SL3更靠近车辆1的后方地对左斜后方进行成像。此外,通过使相机51SL4的光轴从水平方向稍微向下倾斜,可以对车辆1的左斜后侧的路面进行宽范围成像。
例如,壳体131L具有160mm的宽度、202mm的深度和69mm的高度。此外,壳体131L包括金属,并且可以将相机51SL1至51SL4的热释放到外部。
如上所述,在相机模块122L中,具有不同成像方向和应用的四个相机51SL1至51SL4紧凑地布置。因此,与分别布置相机51SL1至51SL4的情况相比,能够有效地利用车辆1的空间,并且提高了可设计性。此外,提高了相机51SL1至51SL4(相机模块122L)的布置自由度,并且容易设计包括其它相机的传感器的布置和布线。结果,可以抑制包括每个相机的车辆1的系统的复杂性,并且可以使系统更简单。
注意,尽管未示出,但是在相机模块122R中,相机51SR1至51SR4被布置为与相机模块122L中的相机51SL1至51SL4左右对称。
<车辆1的内部的配置示例>
接下来,将参考图12至19描述车辆1的内部的配置示例。
图12是从右侧观察的车辆1的内侧的示意图。图13是示出车辆1的内部的前方的示意图。图14是示出车辆1的内部的驾驶员座椅201的前方的示意图。图15是车辆1的方向盘206附近的放大图。图16是示出相机模块214中的相机101L和相机101R的安装位置的示例的图。图16中的左上图是从左斜下方观察的相机模块214的示意图。图16中的左下图是从左下方向观察的相机模块214的示意图。
图16中的右图是从前斜下方观察的相机模块214的示意图。图17示出相机101L的成像范围的示例。图18是从前方观察的车辆1的内部的示意图。图19是从左斜后方观察的驾驶员座椅201的示意图。
<乘客用相机的安置位置的示例>
首先,将描述用于车辆1的乘客的相机的安装位置的示例。
如图13和15所示,相机102设置在仪表板205上,在左右方向上比中央稍微更靠近驾驶员座椅201。相机102具有圆锥台的一部分被垂直地切除掉的形状,并且在侧面上包括垂直平坦部分。相机102具有朝向驾驶员座椅201的方向的侧面的平坦部分,并且拍摄至少包括坐在驾驶员座椅201上的驾驶员的头部的范围的图像。
相机102是能够通过包括RGB成像(彩色成像)和IR成像(红外成像)的两种类型的成像来拍摄图像的相机。相机102基于例如诸如环境亮度之类的条件在RGB成像和IR成像之间自动切换。此外,相机102包括发射IR光(红外光)的LED。
例如,在诸如白天之类的明亮环境中,相机102自动执行RGB成像以获取彩色图像。另一方面,在诸如夜间之类的黑暗环境下,相机102自动开启LED并自动执行IR成像以获取单色图像。这使得可以可靠地对驾驶员的头部成像,而不管周围亮度如何。
例如,DMS 30(图1)基于相机102的图像执行驾驶员的唇读,并且识别驾驶员的话语内容。例如,DMS 30基于相机102的图像执行驾驶员的黑眼检测、视线检测、觉醒确定、识别处理等。
如图13和16所示,并入有相机101L和相机101R的相机模块214设置在车辆1的顶棚的前端、左右方向的中央、并且数字后视镜234的附近。相机模块214具有这样的形状,其中圆锥台的一半连接到通过倾斜地切割长方体的左右而获得的形状的后端(车辆1的后侧)。
相机101L被并入在相机模块214的圆锥台部分的左前端部分附近的位置P1L处。例如,在具有标准体格的驾驶员坐在布置在标准位置处的驾驶员座椅201上的情况下,相机101L的光轴指向朝向驾驶员的双眼的中间的方向。
图17示出相机101L的成像范围的示例。如该示例所示,无论驾驶员DR1的体格和驾驶员座椅201的位置如何,相机101L都可以从斜右上方向对驾驶员DR1的从头部到脚部附近的几乎整个身体进行成像。
相机101R被并入相机模块214的圆锥台部分的右侧的前端附近的位置P1R处。尽管未示出,但是与相机101L类似,相机101R可以从斜左上方对乘客的包括从头部到脚部附近的几乎整个身体进行成像,而与坐在乘客座椅202上的乘客的体形和乘客座椅202的位置无关。
在相机模块214的圆锥台部分的侧表面上设置经过黑色光泽处理的盖子214A。盖子214A使得难以从外部看到相机101L和相机101R的透镜。此外,除了相机101L和相机101R之外的相机或传感器可以设置在盖子214A的背面上。
例如,DMS 30通过基于相机101L的图像执行驾驶员的骨架识别等来识别驾驶员的姿势和移动。例如,DMS 30基于相机101L的图像执行驾驶员识别处理(例如,个人识别)。
类似地,例如,DMS 30通过基于相机101R的图像执行乘客座椅202上的乘客的骨架识别等来识别乘客的姿势和移动。例如,DMS 30基于相机101L的图像执行乘客的识别处理。
圆形灯215设置在相机模块214的下表面上。此外,在相机模块214中内置有用于收集乘客的音声等的麦克风(未图示)等。
<方向盘206周围的配置示例>
接下来,将描述方向盘206周围的配置示例。
如图15所示,照明装置207设置在方向盘206的中央部分。照明装置207包括多个LED,这些LED以环形形状布置在距方向盘206的中央部分的外周预定距离的内侧。每个LED可以单独地控制开/关、颜色、亮度等。因此,照明装置207的颜色、亮度和发光区域(发光范围)是可变的。车辆1的标志形成在照明装置207内。
注意,气囊(未示出)容纳在方向盘206的中央部分中。照明装置207被安置成避开当安全气囊处于操作中时方向盘206的中央部分被分割的部分。这防止了在安全气囊的操作期间照明装置207的碎片和有害物质的飞散。
包括多个按钮的操作单元208设置在方向盘206的左侧的辐条上。包括多个按钮的操作单元209设置在方向盘206的右侧的辐条上。
如图15所示,作为杆状操作体的柄杆210设置在方向盘206的后部,以从转向柱(未示出)向左延伸。此外,作为杆状操作体的柄杆211设置在方向盘206的后部,以从转向柱(未示出)向右延伸。
<显示器的配置示例>
接下来,将描述车辆1的内部中的显示器的配置示例。
在车辆1的内部,设置有中央显示器231、控制台显示器232、平视显示器(仅示出显示器233)、数字后视镜234、平板终端235L和平板终端235R。
如图13所示,中央显示器231设置在驾驶员座椅201和乘客座椅202的前方,以便在仪表板205的前表面上左右延伸。根据显示器的取向,中央显示器231被主要分为左端部231L、中央部231C和右端部231R。即,中央显示器231具有这样的配置,其中具有不同取向的左端部231L、中央部231C和右端部231R在左右方向上连续并成为一体。左端部231L、中央部231C和右端部231R可以分别独立显示,或者可以一体地显示。
在驾驶员座椅201和乘客座椅202的前方,中央部231C从驾驶员座椅201的左端附近向左和向右延伸到乘客座椅202的右端附近,并且当从驾驶员座椅201或乘客座椅202观察时朝向后方(车辆1的后方)。
例如,中央部231C显示用于辅助驾驶的信息、车辆1周围的图像等。例如,中央部231C显示关于车辆1的行驶状态等的信息。例如,中央部231C显示车辆1的方向指示器的操作状态。例如,中央部231C显示车辆1的速度和档位,例如,中央部231C显示车辆1的电池的剩余容量。例如,中央部231C显示指示前方道路的状况的图像。例如,当车辆1停车时,中央部231C显示用于辅助停车的信息。
例如,中央部231C可显示由相机51FC1、相机51SL2、相机51SR2和相机51BC1拍摄的车辆1周围360度的图像的一部分,并转动显示范围。例如,中央部231C显示通过将相机51FC1、相机51SL2、相机51SR2以及相机51BC1的图像组合而得到的从上方观察车辆1的周围的鸟瞰视图图像。
例如,当车辆1向后移动时,中央部231C显示车辆1后方的图像。例如,在车辆1正在后退时车道保持辅助(LKA)功能正在运行的情况下,中央部231C显示表示预测行驶方向的信息。
注意,在该示例中,中央显示器231的中央部231C被分成驾驶员座椅231前方的显示单元201CL、驾驶员座椅231与乘客座椅202之间的显示单元201CC、以及乘客座椅202前方的显示单元202CR。例如,也可以通过连接显示单元231CL至231CR来配置一个显示单元。例如,也可以通过连接显示单元231CL和显示单元231CC来配置一个显示单元。例如,也可以通过连接显示单元231CC和显示单元231CR来配置一个显示单元。然后,上述显示示例可以显示在中央部231C的任何显示单元上。
注意,例如,主要用于驾驶员的信息显示在显示单元231CL上。例如,显示用于辅助驾驶的信息。例如,在显示单元231CC上显示与诸如音频、视频、网站和地图之类的信息娱乐(车内信息娱乐)有关的信息。例如,在显示单元231CR上显示乘客座椅上的乘客的信息娱乐相关信息。
中央显示器231的左端部231L和右端部231R基本对称地设置在中央显示器231的左端和右端。左端部231L在中央显示器231的左端向内(车辆内侧)弯曲,相对于中央部231C在车辆内部方向上成角度,并且当从驾驶员座椅201或乘客座椅202观察时,指向右斜后方(在车辆1的右侧斜后方)。右端部231R在中央显示器231的右端向内(车辆内侧)弯曲,相对于中央部231C在车辆内部方向上成角度,并且当从驾驶员座椅201或乘客座椅202观察时指向左斜后方(车辆1的左倾斜向后方)。
左端部231L相对于中央部231C的角度被调节成例如相对于标准驾驶员视线的左端部231L上的入射角的反射角朝向车辆1的左斜后方的适当方向。右端部231R相对于中央部231C的角度被调节成例如相对于标准驾驶员视线到右端部231R的入射角的反射角朝向车辆1的斜右后方的适当方向。
左端部231L设置有显示单元231LL。右端部231R设置有显示单元231RR。
中央显示器231的左端部231L和右端部231R主要用作替代传统的侧镜的数字外镜(电子侧镜)。也就是说,左端部231L和右端部231R用于CMS。例如,左端部231L处的显示单元231LL显示由相机51SL4拍摄的车辆1的左斜后方的图像。右端部231R的显示单元231RR显示由相机51SR4拍摄的车辆1的右斜后方的图像。
注意,中央显示器231的左端部231L、中央部231C和右端部231R在水平方向上连续。因此,在驾驶员将视线从中央部231C移动到左端部231L或右端部231R或者将视线从左端部231L或右端部231R移动到中央部231C的情况下,只需要在水平方向上移动视线即可。结果,驾驶员的视线的移动距离和移动方向减小,并且可见度提高。
此外,例如,在检测到从车辆1的左侧和后方接近的车辆、摩托车、自行车、行人等的情况下,左端部231L显示警报。类似地,在检测到从车辆1的右侧和后方接近的车辆、摩托车、自行车、行人等的情况下,右端部231R显示警报。
注意,通过识别单元73基于例如来自相机51SL2、相机51SL3、相机51SR2、相机51SR3、相机51BC1和相机51BC3的图像(传感器数据)、来自雷达52BL、雷达52BC、雷达52BR和LiDAR 53B的传感器数据等,来检测从车辆1的左侧、右侧和后方接近的车辆等。
注意,由于左端部231L、中央部231C和右端部231R连接到一起,因此也可以在整个中央显示器231上显示一个画面。例如,也可以在整个中央显示器231上显示车辆1周围的图像、地图信息、信息娱乐相关信息等。
如图12和13所示,控制台显示器232设置于在驾驶员座椅201和乘客座椅202之间设置的控制台212上,并且安置在中央显示器231的中央部231C的下方。
具体地,控制台212在驾驶员座椅201与乘客座椅202之间沿前后方向延伸。控制台212的远端部朝向车辆1的前方向斜上方倾斜,并且设置有控制台显示器232。
控制台显示器232例如由二维或三维触摸面板构成,并且可以通过触摸或接近手指等来操作。控制台显示器232面向车辆1的后部。此外,控制台显示器232以与中央显示器231的中央部231C的角度基本相似的角度指向斜上方。结果,出现了中央显示器231和控制台显示器232连续的整体感。此外,与中央显示器231的中央部231C类似,控制台显示器232的可视性得到改善。
例如,控制台显示器232显示用于操作车辆中的空调设备的操作画面。诸如驾驶员之类的乘客使用所显示的操作画面来操作车辆中的空调。
例如,控制台显示器232显示用于操作在中央显示器231上显示的信息的操作画面。例如,诸如驾驶员之类的乘客使用所显示的操作画面来滚动、放大、缩小和切换在中央显示器231的中央部231C上显示的信息(例如,地图等)。
如上所述,中央显示器231和控制台显示器232具有一体感。因此,乘客能够使用控制台显示器232的操作画面以自然的感觉操作显示在中央显示器231上的信息,并且改善了可操作性。
例如,控制台显示器232显示用于设置中央显示器231的显示单元231LL和显示单元231RR的显示范围的操作画面。例如,驾驶员通过使用显示的操作画面执行显示单元231LL和显示单元231RR的显示范围的放大、缩小、移动等。
控制台212的中间部与前端部相反地朝向车辆1的前方向斜下方倾斜。在中间部的中央附近设置圆形的控制器213。控制台212的中间部分的倾斜角度被设定为驾驶员能够容易地放置他/她的手的角度,从而提高控制器213的可操作性。
控制器213例如可以被按压、转动或在预定方向(例如,前、后、左和右)上倾斜,并且例如用于操作车辆中的音频系统。例如,当按压控制器213时,播放或停止音乐,并且通过转动控制器213来调节音量。
控制台212的后端例如基本上是水平的,使得驾驶员可以容易地放置他/她的手臂。
如图13所示,平视显示器包括设置在驾驶员座椅201前方的显示器233。例如,显示器233可以由风挡204的一部分配置,或者可以与风挡204分开地设置。在后一种情况下,例如,显示器233被附接到风挡204。然后,使用AR技术将视觉信息投影在显示器233上,使得视觉信息叠加并显示在驾驶员的视野中。
平视显示器的显示器233显示例如用于辅助驾驶的信息。例如,显示器233根据车辆1周围的情况显示警报。例如,显示器233显示指示在自适应巡航控制(ACC)操作期间要跟随的前方车辆的信息。例如,在车道变换辅助功能的操作期间,显示器233根据需要通过箭头等显示计划行驶路线。
数字后视镜234用于代替传统的后视镜,并且也被称为智能房间镜。如图13所示,与传统后视镜类似,数字后视镜234设置在风挡204的上端并且稍微在中央附近的前方,并且被安置在中央显示器231的中央部231C的上方。
数字后视镜234显示例如由相机51BC2拍摄的车辆1后面的图像。例如,在另一车辆正在接近车辆1的后方的情况下,数字后视镜234显示警报。
此外,例如,基于驾驶员的视线方向或姿势中的至少一个来调整数字后视镜234的显示范围。结果,与传统的物理房间镜类似,根据驾驶员的视线方向和姿势适当地调整数字后视镜234上显示的图像的范围。
如图19所示,平板终端235L设置在驾驶员座椅201的背面上,更具体地,设置在驾驶员座椅201的头枕的背面上。
例如,平板终端235L向后座椅203L上的乘客呈现与信息娱乐有关的信息,并且接受对所呈现的信息的操作。此外,例如,平板终端235L在紧急、危险等时显示警报。
注意,尽管未示出,例如,类似于平板终端235L的平板终端235R被设置在乘客座椅202的背部上。
注意,中央显示器231、控制台显示器232、平视显示器、数字后视镜234、平板终端235L和平板终端235R的显示由例如作为HMI 31的功能的一部分的显示控制单元控制。
如上所述,通过在车辆中的每个显示器上显示各种类型的信息,可以提高诸如驾驶员之类的乘客的便利性。例如,可以支持车辆1的驾驶,向乘客提供必要的信息,并娱乐乘客。
注意,例如,如图19所示,ToF相机可以设置在平板终端235L的上端且中央附近的位置P2L处。结果,例如,可以基于ToF相机所拍摄的图像来识别操作平板终端235L的乘客。
注意,ToF相机可以类似地设置在平板终端235R中。
<扬声器的安装位置>
接下来,将描述车辆1内的扬声器的安装位置的示例。
如图12所示,扬声器236FL嵌入在驾驶员座椅201一侧的门121FL的开门器216FL的后部附近。虽然未图示,但扬声器236FR嵌入在乘客座椅202侧的门121FR的开门器216FR的后方附近。扬声器236BL嵌入在后座椅203L侧的门121BL的中央附近。虽然未示出,扬声器236BR嵌入在后座椅203R侧的门121BR的中央附近。
如图18所示,座椅扬声器237嵌入在驾驶员座椅201的头枕下方。座椅扬声器238嵌入在乘客座椅202的头枕下方。座椅扬声器239L嵌入在左后座椅203L中。座椅扬声器239R嵌入在右后座椅203R中。
注意,座椅的形状和座椅扬声器的位置被调节,使得各种高度(就座高度)的人能够清楚地听到每个座椅的座椅扬声器的声音。
嵌入在门121FL至121BR中的扬声器236FL至236BR例如用于输出车辆整个内部(车辆中的所有乘客)的声音。此外,通过扬声器236FL至236FR实现360度的真实音频。例如,通过实现360度的真实音频,可以以逼真的感觉声音欣赏车辆中的运动图像、音乐等。此外,可以通过声音输出方向提供诸如存在于车辆1周围的障碍物之类的危险物体的位置的通知。
另一方面,例如,使用每个座椅的座椅扬声器来主要为坐在每个座椅上的各个乘客输出私密声音。也就是说,从各个座椅扬声器输出的声音被单独地控制。
注意,扬声器的布置是示例并且可以改变。例如,扬声器可以安置在车辆1前方的仪表板205上。
<车辆1的系统架构>
接下来,将参考图20和21描述车辆1的系统架构。
图20示出了示出车辆1的系统架构的示例的信息处理系统301的配置示例。
信息处理系统301是采用域类型E/E(电气/电子)架构的系统。
在信息处理系统301中,三个域控制器(DC)、ePWT(e-PoWer)域控制器(DC)321、ADAS域控制器(DC)331和HMI+主体域控制器(DC)341经由网络连接到安全网关311。然后,信息处理系统301被分成用于每个DC的三个域D1至D3。
ePWT DC 321控制包括车辆1的动力系的部件和控制部件的域D1中的数据的传送和处理。例如,前电驱动单元(EDU)322、后EDU 323、充电器ECU 324、电动助力转向(EPS)ECU325、制动器ECU 326、阻尼器ECU 327等经由网络连接到ePWT DC 321。
前EDU 322是驱动车辆1的前轮的单元。
后EDU 323是驱动车辆1的后轮的单元。
充电器ECU 324控制用于驱动前EDU 322、后EDU 323等的电池充电器。
EPS ECU 325控制车辆1的电动助力转向。
制动器ECU 326控制车辆1的制动器。
阻尼器ECU 327控制车辆1的阻尼器。
ADAS DC 331控制域D2中的数据的传送和处理,域D2包括实现车辆1的ADAS的部件。例如,雷达52、LiDAR 53、相机332、USS(超声波传感器)ECU 333、GNSS ECU 334、数据记录器335等经由网络连接到ADAS DC 331。
相机332例如包括车辆1的相机51之中的除用于CMS的相机51SL4、相机51SR4和相机51BC2之外的相机。
USS ECU 333控制超声波传感器54。
GNSS ECU 334控制GNSS接收单元24等。
数据记录器335记录与ADAS的处理相关的数据。
HMI+主体DC 341控制包括实现车辆1的HMI的部件和车辆1的本体系统的部件和控制部件的域D3中的数据的传送和处理。例如,门控制器342、擦拭器控制器343、座椅控制器344、中央显示器231的中央部231C的显示单元231CL至231CR、平板终端235L、平板终端235R、接口345等经由网络连接到HMI+主体DC 341。此外,例如,CMS 349连接到HMI+主体DC341。
门控制器342控制车辆1的门121FL至121BR。
擦拭器控制器343控制车辆1的擦拭器。
座椅控制器344控制例如驾驶员座椅201、乘客座椅202、后座椅203L和后座椅203R的位置和姿势。
接口345包括例如执行除了显示单元231CL至231CR、平板终端235L和平板终端235R之外的各种接口的部件和控制部件。例如,接口345包括扬声器236FL到236BR、座椅扬声器237到239R等。
CMS 346包括例如CMS的部件和控制部件。CMS 349例如包括相机51SL4、相机51SR4、相机51BC2、以及中央显示器231的左端部231L的显示单元231LL和右端部231R的显示单元231RR。
此外,执行与外部的通信的远程信息处理计算单元(TCM)312连接到安全网关311。
图21示出了信息处理系统301中主要与CMS 349、相机模块122L和相机模块122R相关的部分的具体配置示例。
ADAS DC 331、HMI+主体DC 341和ToF ECU 361连接到安全网关311。安全网关311、ADAS DC 331、HMI+主体DC 341和ToF ECU 361例如经由以太网连接。
ADAS DC 331与包括在相机模块122L中的相机51SL1至51SL3、包括在相机模块122R中的相机51SR1至51SR3、相机51BC1、雷达52BC和LiDAR 53B连接。
由ToF相机构成的相机101L和相机101R连接到ToF ECU 361。
CMS ECU 362、中央显示器231的显示单元231CL到231CR、以及声音放大器363连接到HMI+主体DC 341。HMI+主体DC 341和CMS ECU 362经由例如USB缆线连接。
包括在相机模块122L中的相机51SL4、包括在相机模块122R中的相机51SR4、以及中央显示器231的显示单元231LL和显示单元231RR连接到CMS ECU 362。即,在相机模块122L中,相机51SL1至51SL3连接到ADAS DC 331并且属于域D2,并且相机51SL4经由CMS ECU362连接到HMI+主体DC 341并且属于域D3。在相机模块122R中,相机51SR1到51SR3连接到ADAS DC 331并且属于域D2,并且相机51SR4经由CMS ECU 362连接到HMI+主体DC 341并且属于域D3。
扬声器364连接到声音放大器363。
如上所述,相机51SL1对车辆1的左斜前方成像。
如上所述,相机51SL2包括鱼眼相机,并对车辆1的左方向成像。
如上所述,相机51SL3对车辆1的左斜后方成像。
如上所述,相机51SR1对车辆1的右斜前方成像。
如上所述,相机51SR2包括鱼眼相机,并且对车辆1的右方向成像。
如上所述,相机51SR3对车辆1的右斜后方成像。
如上所述,相机51BC1包括鱼眼相机,并对车辆1的后方成像。
雷达52BC如上所述地进行车辆1的后方的感测。
如上所述,LiDAR 53B执行车辆1的后方的感测。
ADAS DC 331实现例如车辆1的识别单元73的一部分。例如,ADAS DC 331基于来自相机51SL1至51SL3、相机51SR1至51SR3、相机51BC1、雷达52BC和LiDAR 53B的传感器数据来识别车辆1外部的物体。ADAS DC 331经由安全网关311将表示识别结果的数据提供给另一域等。
ToF ECU 361例如实现车辆1的识别单元73的一部分。例如,ToF ECU 361基于相机101L的图像识别驾驶员的姿势、运动等。ToF ECU 361基于相机101R的图像识别乘客座椅202上的乘客的姿势、运动等。ToF ECU 361经由安全网关311将表示识别结果的数据提供给另一域等。
如上所述,相机51SL4对车辆1的左斜后方成像。
如上所述,相机51SR4对车辆1的右斜后方成像。
CMS ECU 362控制CMS。例如,CMS ECU 362是HMI 31的功能的一部分,并且实现控制显示单元231LL和显示单元231RR的显示的显示控制单元。例如,CMS ECU 362控制显示单元231LL对相机51SL4的图像的显示。例如,CMS ECU 362控制显示单元231RR对相机51SR4的图像的显示。例如,CMS ECU 362基于ADAS DC 331的物体识别结果来控制显示单元231LL和显示单元231RR的视觉效果显示。
例如,HMI+主体DC 341实现显示控制单元,其控制中央显示器231的显示单元231CL到显示单元231CR的显示。
扬声器364包括例如扬声器236FL至236BR和座椅扬声器237至239R。
声音放大器363放大从扬声器364输出的各种声音。
HMI+主体DC 341是例如HMI 31的功能的一部分,实现对来自扬声器364的各种声音的输出进行控制的声音控制单元。
如上所述,在车辆1中,通过采用域类型E/E架构,可以抑制信息处理系统301的复杂性并进一步简化信息处理系统。结果,可以减少车辆中的部件和布线的数量。
<CMS的操作示例>
接下来,将参照图22至37描述车辆1的CMS的操作示例。具体地,将描述中央显示器231的左端部231L的显示单元231LL的显示示例。
注意,作为HMI 31的功能的一部分的显示控制单元在显示单元231LL上显示基于相机51SL4的图像的图像。更具体地说,显示控制单元设置相机51SL4的图像中的显示范围,并使显示单元231LL显示设置的显示范围内的图像。
识别单元73根据来自相机51SL1~51SL3、相机51SR1~51SR3、相机51BC1、雷达52BC以及LiDAR 53B的传感器数据等进行物体识别,并识别车辆1外的物体。显示控制单元根据物体的识别结果、车辆1的状态等控制显示单元231LL的显示。
图22示出了正常时间时显示单元231LL的显示示例。在该示例中,显示车辆1的车身的一部分、在车辆1的左后方的左相邻车道行驶的作为后续车辆的车辆401以及路面402。
然后,例如,在车辆401接近车辆1且车辆401与车辆1之间的距离落在预定范围内的情况下,如图23中的阴影所示,在显示单元231LL的左端重叠显示纵长的带状的视觉效果的条403。例如在车辆401位于显示单元231LL上显示的范围内且与车辆1之间的距离在预定范围内的情况下,显示条403。条403的颜色是醒目的颜色,例如黄色。
当显示条403时,警告驾驶员,并且可以可靠地防止事故。
注意,条403的诸如颜色、亮度、形状、闪烁模式和移动之类的显示模式不限于该示例,并且可以任意改变。例如,条403的显示模式根据风险等级而改变。
例如,在车辆1的左方向的方向指示器被开启的情况下,车辆1有可能进行左转弯(向左方向转弯)或向左车道变更车道,并且与车辆401碰撞或接触的风险增大。另一方面,例如,如图24所示,条403的宽度增大并闪烁。因此,进一步吸引驾驶员的注意。
此外,例如,在车辆1的左方的方向指示器被开启的情况下,条403的闪烁速度根据风险水平而改变。例如,随着车辆401的绝对速度或相对于车辆1的相对速度增大,条403的闪烁速度增大。例如,随着车辆401接近,换句话说,车辆401和车辆1之间的距离变短,条403的闪烁速度变得更快。注意,例如,可以与条403的闪烁同步地发出警告声音。
例如,在车辆401的绝对速度或相对于车辆1的相对速度大于或等于预定阈值的情况下,使显示条403的定时提前。也就是说,从车辆401位于离车辆1更远的位置的时间起显示条403。
此外,例如,如图25所示,在识别出左斜后方的车辆401的时间点,可以在车辆401附近叠加并显示作为指示车辆401的存在的三角形视觉效果的标记404。标记404跟随车辆401的移动而移动。
结果,例如,即使在显示单元231LL上显示的图像的可见度由于雾、薄雾等而较差的情况下,驾驶员也能够可靠地识别车辆401的位置。
注意,车辆401的位置的通知可以通过不同于图25中的标记404的显示模式来提供。例如,可以显示围绕车辆401的周边的框。
另外,虽然省略了详细的说明,但是,基于车辆1的右邻车道中行驶的车辆的状态和右方向上的方向指示器的操作,也在中央显示器231的右端部231R的显示单元231RR上进行类似的显示。
此外,在以上描述中,已经描述了引起对另一车辆的注意的示例。然而,在引起对除了车辆之外的移动物体(例如,摩托车等)的注意的情况下,也执行类似的处理。
此外,例如,显示控制单元根据方向指示器的操作控制要在显示单元231LL上显示的图像的范围。
图26示出了根据左方向上的方向指示器的操作改变显示在显示单元231LL上的图像的范围的示例。
具体地,图26的A和B示出了由相机51SL4拍摄的图像的示例。在该图像中,示出了在车辆1的左车道中行驶的车辆421-1至421-4等。
例如,在车辆1的左方向指示器关闭的情况下,提取图26的A中的区域A21a中的图像,并且在显示单元231LL上显示区域A22a中的图像。区域A22a包括车辆421-2至421-4,不包括车辆421-1。
另一方面,在车辆1的左方向上的方向指示器开启的情况下,提取图26的B中的区域A21b中的图像,并且在显示单元231LL上显示区域A22b中的图像。区域A21b和区域A22b比区域A21a和区域A22a宽。也就是说,缩小(扩展)和扩展显示单元231LL的显示范围。然后,除了车辆421-2到车辆421-4之外,车辆421-1的后端也包括在区域A22b中。
结果,当打开左方向指示器时,驾驶员可以在更宽的范围内检查车辆1左侧的车道的状况。结果,驾驶员能够更安全地改变车道或向左转。
注意,例如,在缩小显示单元231LL的显示范围的情况下,可以在显示单元231LL上显示表示缩小的图标、框等。
这里,UN ECE-R46(美国欧洲经济委员会条例46)限定了在CMS中总是可见的视觉范围(在下文中,称为基本视野范围)。所要求的视野根据车辆的容量、重量等而变化,并且图27示出了其示例。
在该示例中,基本视野包括区域A23L、区域A23R和区域A23C。
区域A23L是由车辆1左侧的点P22L至P26L包围的区域。具体地,将车辆1的左端点设定为参考点P21L,该左端点对应于在车辆1的前后方向上与驾驶员眼睛相同的位置。点P22L是参考点P21L后方4m的点。点P23L是参考点P21L后方60m的点。点P24L是在左方向上距离点P22L 1m的点。点P25L是在参考点P21L后方20m且向左离开4m的点。点P26L是参考点P21L后方60m且向左离开4m的点。
区域A23R是由车辆1右侧的点P22R至P26R包围的区域。具体地,将车辆1的对应于在车辆1的前后方向上与驾驶员的眼睛相同的位置的右端点定义为参考点P21R。点P22R是参考点P21R后方4m的点。点P23R是参考点P21R后方60m的点。点P24R是从点P22R向右分开1m的点。点P25R是在参考点P21R后方20m且向右离开4m的点。点P25R是参考点P21R后方60m且向右离开4m的点。
区域A23C是从车辆1的驾驶员的眼睛的位置向后离开60m或更远的区域,并且具有以车辆1的左右方向上的中央为中央的20m的宽度。
因此,例如,如图26所示,在显示单元231LL的显示范围随着向左方向的方向指示器的操作而改变的情况下,改变显示范围以便总是包括区域A23L。
注意,尽管没有详细描述,但是中央显示器231的显示单元231RR也根据右方向上的方向指示器的操作来控制类似的显示范围。此外,改变显示单元231RR的显示范围,使得总是包括区域A23R。
此外,例如,显示控制单元基于车辆1的档位控制显示单元231LL的显示范围。
图28示出了显示单元231LL的显示范围基于车辆1的档位而改变的示例。
具体地,图28的A和B示出了由相机51SL4拍摄的图像的示例。在该图像中,示出了在车辆1的左侧和右侧并排停放的车辆441-1和车辆441-2。
例如,在车辆1的档位被设定为倒档之前,图28的A中的区域A31a中的图像被提取,并且区域A32a中的图像被显示在显示单元231LL上。
另一方面,在车辆1的档位被设定为倒档之后,图28的B中的区域A31b中的图像被提取,并且区域A32b中的图像被显示在显示单元231LL上。区域A31b和区域A32b比区域A31a和区域A32a宽。也就是说,显示单元231LL的显示范围被缩小和扩展。此时,例如,显示单元231LL的显示范围可以自动向下移动,从而车辆1周围的地面显示得更宽。
注意,尽管没有详细描述,但是基于车辆1的档位,与显示单元231LL类似地改变中央显示器231的显示单元231RR的显示范围。
结果,驾驶员能够在更宽的范围内检查车辆1的左斜后侧的状况。结果,驾驶员能够更安全地停放车辆1C。
此外,例如,驾驶员可以通过操作图13所示的控制台显示器232上显示的操作画面等来设置显示单元231LL和显示单元231RR的显示范围。例如,驾驶员可以单独移动显示单元231LL的显示范围和显示单元231RR的显示范围,或者单独为每个显示范围设置缩放比(缩放因子)。
这里,显示范围可以被设置在图29中所示的可设置范围A41内。注意,在图29中,与图26中的部分相对应的部分由相同的附图标记表示,并且将适当地省略其描述。
例如,基于设置的变焦比设置从拍摄图像提取用于显示的提取范围A42的尺寸。即,基于变焦比执行提取范围A42的放大(缩小)和缩小(扩展)。然后,在显示单元231LL上显示提取范围A42内的预定显示范围A43内的图像。
此时,显示范围A43可在可设置范围A41内移动。可设定范围A41被设定为在显示范围A43中包含区域A23L的范围。
另一方面,例如,如图29的B所示,在区域A23L从显示范围A43突出的情况下,向驾驶员发出警告。例如,在显示单元231LL上显示警告消息,并输出警告声音。
或者,例如,显示范围A43的移动范围可被限制,使得显示范围A43不超出可设置范围A41,而不管驾驶员的操作如何。
以这种方式,通过操作控制台显示器232,在包括区域A23L的范围内,驾驶员可以将显示范围A43移动到他/她期望的位置,或者放大或缩小显示范围A43。此外,驾驶员可以例如通过在保持驾驶姿势的同时在控制台显示器232上移动或点击手指,调节显示范围A43而不转移视线。
此外,例如,在物理侧镜的情况下,驾驶员可以通过使他/她的脸靠近侧镜并向侧镜内看来改变通过侧镜看到的范围。例如,驾驶员有时在停车等期间通过向侧镜内看来检查车辆周围的地面上是否存在障碍物。
另一方面,通过驾驶员将他/她的脸移动到靠近显示单元231LL的位置并观察显示单元,可以类似地改变显示单元231LL的显示区域。
例如,DMS 30通过基于相机101L的图像执行驾驶员的骨架识别等来检测驾驶员的头部的位置和朝向。DMS 30基于驾驶员的头部的位置和朝向,在驾驶员识别出观察显示单元231LL的动作的情况下,检测驾驶员观察显示单元231LL的角度。
另一方面,在车辆1停止的情况下,即,在车辆1的速度为0的情况下,显示控制单元基于驾驶员观察显示单元231LL的角度来控制显示单元231LL的显示范围。
例如,图30示出了在驾驶员观察之前显示单元231LL的显示范围。在该示例中,车辆1的车身的一部分显示在显示单元231LL的右下角。此外,显示车辆1的左后方的物体461的上部的一部分。
在这种情况下,例如,在驾驶员执行从斜上方观察显示单元231LL的操作的情况下,显示单元231LL的显示范围如图31所示改变。具体地,显示单元231LL的显示范围向下移动。结果,物体461的下部也显示在显示单元231LL上,并且驾驶员可以视觉地识别整个物体461。
此外,如图中的阴影所示,线462以叠加的方式显示并闪烁,该线462是指示车辆1周围的预定范围内的地面区域的带状视觉效果。结果,驾驶员能够快速地识别车辆1可能碰撞或接触的物体,并在避开所识别的物体的同时移动车辆1。
此外,例如,图32示出了在驾驶员观察之前显示单元231LL的显示范围。在该示例中,车辆1的车身的一部分显示在显示单元231LL的右端。左后车辆481的一部分显示在显示单元231LL的左上方。在车辆1和车辆481之间显示有停车线482。物体483的上端显示在车辆1的左侧,并且显示在显示单元231LL的下端。
这里,例如,在驾驶员将档位设置为倒档以便停放车辆1的情况下,显示单元231LL的显示范围如上文参照图28所述被缩小。结果,如图33所示,显示单元231LL的显示范围变宽,并且车辆1、车辆481和物体483被显示的范围变宽。
此外,例如,在驾驶员执行从斜上方向显示单元231LL内看的操作的情况下,显示单元231LL的显示范围向下移动,如图34所示。结果,整个物体483被显示在显示单元231LL上。结果,驾驶员能够在可靠地避开物体483的同时停放车辆1。
注意,尽管省略了详细描述,但是即使在驾驶员观察中央显示器231的显示单元231RR的情况下,显示范围也类似于显示单元231LL地移动。
注意,在车辆1移动的情况下,即,在车辆1的速度不为0的情况下,即使驾驶员观察显示单元231LL以及显示单元231RR,显示范围也不变化。
此外,例如,即使在驾驶员将他/她的脸靠近数字后视镜234并观察数字后视镜的情况下,数字后视镜234的显示范围也移动。
例如,在DMS 30基于驾驶员的头部的位置和朝向识别驾驶员观察数字后视镜234的运动的情况下,DMS检测驾驶员观察数字后视镜234的角度。
另一方面,在车辆1停止的情况下,即,在车辆1的速度为0的情况下,显示控制单元基于驾驶员观察数字后视镜234的角度来控制数字后视镜234的显示范围。
此外,例如,DMS 30通过基于相机101L的图像执行驾驶员的骨架识别等来检测驾驶员的左手的移动。识别单元73基于相机51SL2、相机51SL3等的图像,检测车辆1外的驾驶员座椅201的门121FL周围的物体。然后,在检测到在驾驶员座椅201的门121FL周围的预定范围内有物体的情况下,在驾驶员执行打开门121FL的操作的情况下,例如在驾驶员的左手触摸门121FL的开门器216FL的情况下,显示单元231LL显示警告。
例如,图35示出了在驾驶员的左手接触开门器216FL之前显示单元231LL的显示示例。车辆1的车身的一部分显示在显示单元231LL的右端。在车辆1的左侧,显示有从后方接近车辆1的行人501。
在这种情况下,例如如图36所示,在驾驶员DR1的左手接触开门器216FL的情况下,显示单元231LL显示如图37中的阴影所示的警告。具体而言,在显示单元231LL的左端,作为纵向长的带状视觉效果的条502以重叠方式被显示并闪烁。条502的颜色是醒目的颜色,例如黄色。
注意,此时,可以输出警告声音。
结果,促使驾驶员DR1注意行人501,并且当门121FL打开时防止门121FL撞上行人501。
此时,车身系统控制单元84可增加门121FL的扭矩,以使其难以打开门121FL。
此外,例如,在乘客座椅202的乘客的手接触乘客座椅202侧的门121FR的开门器216FR的情况下,乘客座椅202侧的显示单元231RR可以显示类似的警告。
<显示单元231CL和照明装置207的操作示例>
接下来,将参考图38至43描述中央显示器231的显示单元231CL和方向盘206的照明装置207的操作示例。
例如,显示控制单元基于车辆1的状况、车辆1周围的状况或乘客的状况中的至少一个,在显示单元231CL上显示与状况对应的内容。
例如,光控制单元85基于车辆1的状况、车辆1周围的状况或乘客的状况中的至少一个,以根据该状况的模式点亮或闪烁照明装置207。照明装置207的发光模式由例如颜色、亮度、闪烁模式、光移动或发光区域中的至少一个来限定。
例如,在驾驶员进入车辆1并且坐在驾驶员座椅201上的情况下,DMS 30基于相机101L的图像或相机102的图像中的至少一个来执行驾驶员的识别处理。然后,显示单元231CL和照明装置207提供驾驶员被识别的通知。
例如,图38示出了在识别驾驶员之前显示单元231CL和照明装置207的状态。
车辆1的状态显示在显示单元231CL上。具体地,显示档位、充电量、速度、可续航距离等。
照明装置207被关闭。
图39示出了当识别驾驶员时显示单元231CL和照明装置207的状态。
显示单元231CL显示识别出的图像和驾驶员的姓名,以及给驾驶员的消息。此后,显示单元231CL返回到图38的状态。
尽管没有详细示出,但是以预定的模式打开照明装置207。例如,多个短白光带移动,以便以预定图案在照明装置207上流动。
结果,可靠地通知驾驶员车辆1已经识别驾驶员。
此时,例如,车身系统控制单元84可以基于识别出的驾驶员的体格、预先设定的驾驶员的偏好等来设定驾驶员座椅201的位置和角度、方向盘206的位置和角度等。结果,设定了适合于所识别的驾驶员的驾驶位置。
此外,例如,显示控制单元可以基于识别出的驾驶员眼睛的位置、方向盘206的位置和角度等来调整中央显示器231的显示单元231CL的显示位置。结果,根据识别出的驾驶员,显示单元231CL的显示范围被设置在容易观看的位置处,而不被方向盘206遮挡。
此外,例如,当完成车辆1的自动驾驶的准备时,显示单元231CL和照明装置207提供完成自动驾驶的准备的通知。
例如,图40示出当完成自动驾驶的准备时显示单元231CL和照明装置207的状态。
在显示单元231CL上,除了图39的显示内容以外,还显示表示自动驾驶的准备完成的图标601。注意,在图标601的左侧,显示车辆1正在行驶的道路的速度限制。
尽管没有详细示出,但是以预定图案打开照明装置207。例如,多个短白光带移动,以便以预定图案在照明装置207上流动。
因此,驾驶员能够确定地识别到自动驾驶的准备已完成。
此外,例如,当车辆1的自动驾驶开始时,显示单元231CL和照明装置207提供自动驾驶开始的通知。
图41示出了在自动驾驶开始时显示单元231CL和照明装置207的状态。
显示单元231CL例如显示由相机51FC1拍摄的车辆1的前方的图像。显示单元231CL例如显示档位、充电量、速度、可续航距离、行驶道路的速度限制、燃料消耗量等。在显示单元231CL上,在上述的图标601的右侧显示表示正在进行自动驾驶的图标602。此外,例如,图标601的颜色随着自动驾驶的开始而改变。
尽管没有详细示出,但是以预定的模式打开照明装置207。例如,多个短白光带在移动的同时逐渐变为蓝色,从而以预定图案在照明装置207上流动。最后,整个照明装置207以蓝色点亮,并且在自动驾驶期间保持以蓝色点亮的状态。
因此,驾驶员能够确定地识别自动驾驶开始。此外,通过打开照明装置207,驾驶员以外的乘客能够确定地识别自动驾驶已开始。
图42示出在自动驾驶期间车辆1向右方变更车道时的显示单元231CL及照明装置207的状态。
在车辆1C变更车道的情况下,显示单元231CL以与车辆1前方的图像重叠的方式显示引导信息603,该引导信息603包括用于通知车道变更的执行和方向的动画。
此外,整个照明的蓝光消失,并且照明装置207右侧的预定闪烁范围A101闪烁蓝色。此外,在方向盘206顺时针转动以改变车道的情况下,闪烁范围A101根据方向盘206的转动角度在相反方向(逆时针)转动。此外,在方向盘206逆时针转动以便在车道变换之后返回到初始状态的情况下,闪烁范围A101根据方向盘206的转动角度在相反方向(顺时针)转动。结果,闪烁范围A101保持在从外部观察时的恒定位置处而不与方向盘206一起转动。然后,在方向盘206的转动角度返回到0度之后,整个照明装置207类似于车道变换之前点亮为蓝色。
结果,驾驶员能够预先识别车辆1改变车道。
注意,类似地,在车辆1将车道改变为左车道的情况下,引导信息603被叠加显示在显示单元231CL上,并且照明装置207左侧的预定闪烁范围以蓝色闪烁。
此外,例如,在车辆1改变其方向(例如,左转或右转)的情况下,执行类似的处理。例如,在显示单元231CL上重叠显示包括通知方向变化的执行和方向的动画的引导信息,与照明装置207的方向变化的方向对应的预定闪烁范围以蓝色闪烁。
图43示出在车辆1的周围检测到危险状态的情况下的显示单元231CL及照明装置207的状态。
在显示单元231CL上,例如显示表示检测状态、应对方法等的图标612和消息611。
此外,整个照明装置207的蓝光消失,并且照明装置207上侧的预定闪烁范围A111闪烁。例如,闪烁范围A111中的灯的颜色和闪烁速度基于检测到的风险而改变。例如,在危险度高的情况下,闪烁范围A111以红色闪烁,在危险度低的情况下,闪烁范围A111以黄色闪烁。此外,风险越高,闪烁速度越快,并且风险越低,闪烁速度越慢。
此外,例如,根据闪烁范围A111的闪烁输出警告声音。
<关于音声控制的示例>
接下来,将参考图44至47描述车辆1的音声控制的示例。
如上所述,车辆1可以实现360度的真实音频。此外,驾驶员座椅201、乘客座椅202、后座椅203L和后座椅203L中的每一个包括座椅扬声器237、座椅扬声器238、座椅扬声器239L和座椅扬声器239R。因此,HMI 31能够单独地和自由地控制每个座椅的乘客的声像、声场、音量等。
DMS 30可以基于相机101L的图像识别驾驶员的双耳的形状和位置。因此,声音控制单元能够通过基于驾驶员的双耳的位置和形状控制驾驶员座椅201的座椅扬声器237等来为驾驶员适当地设定声像、声场、音量等。
类似地,DMS 30可以基于相机101R的图像识别乘客座椅202上的乘客的双耳的形状和位置。因此,声音控制单元能够通过基于乘客的双耳的位置和形状控制乘客座椅202的座椅扬声器238等来适当地设定乘客的声像、声场、音量等。
类似地,DMS 30可以基于平板终端235L中设置的ToF相机的图像识别后座椅203L的乘客的双耳的形状和位置。因此,声音控制单元能够通过基于乘客的双耳的位置和形状控制后座椅203L的座椅扬声器239L等来适当地设定乘客的声像、声场、音量等。
类似地,DMS 30可以基于平板终端235R中设置的ToF相机的图像识别后座椅203R上的乘客的双耳的形状和位置。因此,声音控制单元可以通过基于乘客双耳的位置和形状控制后座椅203R的座椅扬声器239R等来适当地设定乘客的声像、声场、音量等。
如上所述,车辆1可以单独地向每个座椅上的乘员输出声音,并且可以单独地控制声像、声场、音量等。
结果,例如,可以通过警告声音向诸如驾驶员之类的乘员提供车辆1周围的物体的位置、移动等的通知。
图44至47示出了控制用于引起注意从左后方接近的车辆701的警告声音的方法的示例。
例如,当车辆701和车辆1之间的距离落入预定阈值内时,开始输出警告声音。图44示出了在开始输出警告声音时的声场A151。
注意,锥形声场A151的顶点表示虚拟声源的位置。锥体从声场A151的顶点扩展的方向表示声场扩展的方向。
声场A151的方向被设定为基本上等于从车辆701观察车辆1的驾驶员的头部的方向。此外,警告声音的虚拟声源设置在沿车辆701的方向离开驾驶员的头部预定距离的位置处。
然后,如图45~图47所示,声场A151随着车辆701接近车辆1而移动,具体地,声场A151总是在与从车辆701观察车辆1的驾驶员的头部的方向基本相同的方向上移动。此外,声场A151移动,使得警告声音的虚拟声源与驾驶员头部之间的距离基本上与车辆701和车辆1之间的距离成比例。
因此,驾驶员能够通过警告声音识别车辆701的接近。此外,驾驶员可以通过警告声音的运动而在感觉上识别车辆701的速度、距离和方向。
<<3.修改示例>>
在下文中,将描述本技术的上述实施例的修改示例。
<系统架构的修改示例>
图20和21中的信息处理系统301的配置可以适当地改变。
在此,将参考图48至50描述车辆1的系统架构的修改示例。具体地,将描述信息处理系统301的域控制器(域)的配置的修改示例。注意,在图48至50中,省略了域控制器下的配置的图示。
图48示出作为信息处理系统301的第一修改示例的信息处理系统801的配置示例。注意,在图中,与图20中的部分对应的部分由相同的附图标记表示,并且将适当地省略其描述。
与信息处理系统301相比,信息处理系统801设置有HMI DC 811和主体DC 812,而不是HMI+主体DC 341。也就是说,HMI+主体DC 341被分成HMI DC 811和主体DC 812。因此,图20中的域D3被分为HMI系统的域和主体系统的域。
图49示出作为信息处理系统301的第二修改示例的信息处理系统821的配置示例。注意,在图中,与图48中的信息处理系统801的部分相对应的部分由相同的附图标记表示,并且将适当地省略其描述。
与信息处理系统801相比,信息处理系统821设置有ADAS+HMI DC 831,而不是ADASDC 331和HMI DC 811。也就是说,ADAS DC 331和HMI DC 811是集成的。因此,基于ADAS的域D2(图20)和基于HMI的域被集成。
图50示出作为信息处理系统301的第三修改示例的信息处理系统841的配置示例。注意,在图中,与图48中的信息处理系统801的部分相对应的部分由相同的附图标记表示,并且将适当地省略其描述。
与信息处理系统801相比,信息处理系统841设置有ADAS+HMI+主体DC 851,而不是ADAS DC 331、HMI DC 811和主体DC 812。也就是说,ADAS DC 331、HMI DC 811和主体DC812被集成。因此,图20中的域D2和域D3被集成。
注意,ADAS+HMI+主体DC 851可以使用虚拟化技术由一块硬件871实现,例如,如图51中所示。具体地,对应于ADAS DC 313、HMI DC 811和主体DC 812的功能可以由在硬件871中的超管理器881上操作的访客虚拟机(VM)882-1到访客VM 882-3来实现。
图52示出作为图21中的信息处理系统301的修改示例的信息处理系统901的配置示例。注意,与图21中的信息处理系统301的那些部分相对应的部分由相同的附图标记表示,并且将适当地省略其描述。
信息处理系统901与图21中的信息处理系统301的不同之处在于设置了视频分离器911。
相机51SL2、相机51SR2和相机51BC1被连接到视频分离器911。
视频分离器911将相机51SL2、相机51SR2和相机51BC1的图像信号分路为两个系统的图像信号,并将这些图像信号提供给ADAS DC 331和HMI+主体DC 341。因此,相机51SL2、相机51SR2和相机51BC1通过视频分离器911连接到ADAS DC 331和HMI+主体DC 341。也就是说,相机51SL2、相机51SR2和相机51BC1属于图20中所示的域D2和域D3两者。
注意,尽管未示出,相机51FC1也经由视频分离器911连接到ADAS DC 331和HMI+主体DC 341。
例如,HMI+主体DC 341基于相机51FC1、相机51SL2、相机51SR2和相机51BC1的图像产生用于环绕视图的图像。HMI+主体DC 341在中央显示器231的显示单元231CL到231CR中的一个或多个上显示用于环绕视图的图像。
图53示出视频分离器911的配置示例。注意,尽管图53仅示出了与相机51SL2相关的电路,但为其它相机51FC1、51SR2和51BC1设置了类似的电路。
视频分离器911包括输入端子921、解串器922、串行化器923-1、串行化器923-2、输出端子924-1和输出端子924-2。解串器922连接到输入端子921、串行化器923-1和串行化器923-2。串行化器923-1连接到输出端子924-1。串行化器923-2连接到输出端子924-2。
相机51SL2的图像信号通过输入端子921输入到解串器922。解串器922将图像信号分路并将图像信号提供给串行化器923-1和串行化器923-2。串行化器923-1将图像信号转换成串行信号并通过输出端子924-1将串行信号提供给ADAS DC 331。串行化器923-2将图像信号转换成串行信号并通过输出端子924-2将串行信号提供给HMI+主体DC 341。
注意,例如,代替使用视频分离器911,图54中的鱼眼相机941可以用于相机51FC1、相机51SL2、相机51SR2和相机51BC1。
鱼眼相机941包括透镜951、串行化器952、输出端子953-1和输出端子953-2。注意,省略了拍摄和处理图像的电路的图示。
鱼眼相机941通过串行化器952对通过成像而获得的图像信号进行分支。分支后的图像信号通过输出端子953-1提供给ADAS DC 331,并通过输出端子953-2提供给HMI+主体DC 341。
如上所述,在车辆1中,系统架构可以灵活地改变。例如,通过适当地设计系统架构,可以抑制包括每个相机的系统的复杂性,并且可以使系统更简单。
<外部识别传感器25和车内传感器26的修改示例>
图2中的外部识别传感器25和车内传感器26的配置示例可以适当地改变。
例如,可以改变相机模块122L的相机的数量。
具体地,例如,相机51SL1和相机51SL2可以集成为一个广角高分辨率相机。例如,相机51SL2和相机51SL3可以集成为一个广角高分辨率相机。例如,相机51SL3和相机51SL4可以集成为一个广角高分辨率相机。例如,相机51SL1至51SL3可以集成为一个广角高分辨率相机。例如,相机51SL1至51SL4可以集成为一个高分辨率鱼眼相机。
这也适用于相机模块122R。
例如,可以组合相机51BC1和雷达52BC。
例如,可以组合雷达52BC和LiDAR 53B。
例如,可以省略包括鱼眼相机的相机51SL2和相机51SR2中的一个。
<其它修改示例>
例如,可以在中央部231C处显示在中央显示器231的显示单元231LL和显示单元231RR上显示的数字外镜的图像中的一个。
在以上的说明中,说明了车辆1为左手车辆的示例,但本技术也能够适用于右手车辆。在本技术应用于右方向盘车辆的情况下,车辆的外部和内部的上述布局根据右方向盘而适当地改变。
此外,本技术还可以应用于例如乘客在没有驾驶的情况下执行自动驾驶的移动设备。在这种情况下,消除了驾驶员座椅201和乘客座椅202之间的上述区别,并且在移动设备等中的座椅前方布置上述各种显示器。此外,例如,基于坐在预定座椅上的人的视线方向、姿势等来改变显示器上显示的图像的显示范围等。
此外,本技术可以应用于的车辆的类型不受特别限制。此外,除了车辆之外,本技术还可以应用于诸如个人移动设备、运输机器人、飞机、船舶、建筑机械、农业机械之类的移动设备等。此外,能够应用本技术的移动设备例如包括诸如无人机或机器人之类的在人不搭乘的情况下对周围环境进行成像的移动设备。
<<4.其它>>
<计算机的配置示例>
上述一系列处理可以由硬件或软件执行。在通过软件执行一系列处理的情况下,构成软件的程序被安装在计算机(例如,处理器21等)中。
注意,由计算机执行的程序可以是其中以本说明书中描述的顺序按时间序列执行处理的程序,或者可以是其中并行地或者在诸如进行调用时之类的必要定时执行处理的程序。
此外,在本说明书中,系统是指一组多个部件(装置、模块(部分)等),并且所有部件是否在同一壳体中无关紧要。因此,容纳在单独的壳体中并经由网络连接的多个设备和其中多个模块容纳在一个壳体中的一个设备都是系统。
此外,本技术的实施例不限于上述实施例,并且在不脱离本技术的要旨的情况下可以进行各种修改。
例如,本技术可以具有云计算的配置,其中,由多个设备经由网络协作地分担和处理一个功能。
此外,上述流程图中描述的每个步骤可以由一个设备执行,或者可以由多个设备分担和执行。
此外,在一个步骤中包括多个处理的情况下,一个步骤中包括的多个处理可以由一个装置执行,或者可以由多个装置分担并执行。
<配置的组合实施例>
本技术还可以具有以下配置。
(1)一种相机模块,包括:
第一相机;
第二相机;以及
壳体,所述壳体容纳第一相机和第二相机,
其中,在被安装在移动设备中的状态下,第一相机的光轴朝向所述移动设备的斜后方,并且第二相机的光轴朝向所述移动设备的横向方向或斜前方。
(2)根据(1)所述的相机模块,还包括容纳在所述壳体中的第三相机或容纳在所述壳体中的第四相机中的至少一个,
其中,在被安装在所述移动设备中的状态下,第三相机的光轴朝向所述移动设备的斜后方,并且朝向比第一相机的光轴更靠近所述移动设备的横向方向的方向,并且第四相机的光轴朝向所述移动设备的斜前方,并且朝向比第二相机的光轴更靠近所述移动设备的正面方向的方向。
(3)根据(2)所述的相机模块,其中
第一相机用于相机监视系统(CMS),
第二相机用于环绕视图,
第三相机用于高级驾驶员辅助系统(ADAS),并且第四相机用于ADAS。
(4)根据(3)所述的相机模块,其中第二相机具有比第一相机、第三相机和第四相机宽的角度。
(5)根据(4)所述的相机模块,其中第二相机是鱼眼相机。
(6)根据(4)或(5)所述的相机模块,其中,在被安装在所述移动设备中的状态下,第二相机的光轴朝向斜下方。
(7)根据(3)至(6)中任一项所述的相机模块,其中,第二相机还用于ADAS。
(8)根据(3)至(7)中任一项的相机模块,其中,第三相机具有比第四相机高的分辨率。
(9)根据(1)所述的相机模块,其中第二相机具有比第一相机宽的角度。
(10)根据(9)所述的相机模块,其中,在被安装在所述移动设备中的状态下,第二相机的光轴朝向斜下方。
(11)根据(1)所述的相机模块,其中
第一相机用于CMS或ADAS中的至少一个,以及
第二相机用于环绕视图或ADAS中的至少一个。
(12)根据(1)至(11)中任一项所述的相机模块,其中所述壳体包括金属。
(13)根据(1)至(11)中任一项所述的相机模块,其中,所述相机模块安装在所述移动设备的前侧的门的前端附近。
(14)一种信息处理系统,包括:
第一相机,包括朝向移动设备的斜后方的光轴;
第二相机,被容纳在与第一相机相同的壳体中,并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴;
第一显示器,第一显示器由相机监视系统(CMS)使用,并且显示基于由第一相机拍摄的第一图像的图像;
识别单元,基于由第二相机拍摄的第二图像来执行所述移动设备的外部物体识别;以及
显示控制单元,控制第一显示器对第一图像和基于所述识别单元的物体识别的结果的视觉效果的显示。
(15)根据(14)所述的信息处理系统,还包括:
第一域控制器,第一域控制器执行对包括第一相机和显示控制单元的第一域的控制;以及
第二域控制器,第二域控制器执行对包括第二相机和识别单元的第二域的控制。
(16)根据(15)所述的信息处理系统,其中第一域还包括第二相机。
(17)根据(14)或(15)所述的信息处理系统,还包括
在所述移动设备的内部的前方沿左右方向延伸的第二显示器,
其中,所述显示控制单元还控制第二显示器对基于第二图像的图像的显示。
(18)根据(17)所述的信息处理系统,其中所述显示控制单元控制第二显示器对使用第二图像的环绕视图的显示。
(19)根据(17)或(18)所述的信息处理系统,其中第一显示器和第二显示器被集成。
(20)根据(14)到(19)中任一项所述的信息处理系统,其中第二相机的光轴朝向所述移动设备的横向方向或斜前方。
(21)根据(20)所述的信息处理系统,还包括
容纳在所述壳体中的第三相机或容纳在所述壳体中的第四相机中的至少一者,
其中,第三相机的光轴朝向所述移动设备的斜后方,并且朝向比第一相机的光轴更靠近所述移动设备的横向方向的方向,并且第四相机的光轴朝向所述移动设备的斜前方,并且朝向比第二相机的光轴更靠近所述移动设备的正面方向的方向。
(22)根据(21)所述的信息处理系统,其中所述识别单元还基于由第三相机拍摄的第三图像或由第四相机拍摄的第四图像中的至少一个来执行所述移动设备的外部物体识别。
(23)根据(21)或(22)所述的信息处理系统,还包括:
第一域控制器,执行对包括第一相机和显示控制单元的第一域的控制;以及
第二域控制器,执行对第二域的控制,第二域包括第二相机、所述识别单元以及第三相机或第四相机中的至少一个。
(24)根据(14)到(19)中任一项所述的信息处理系统,其中第二相机的光轴朝向所述移动设备的斜后方,并且朝向比第一相机的光轴更接近所述移动设备的横向方向的方向。
(25)一种信息处理方法,包括:
控制由用于相机监视系统(CMS)的显示器对基于由光轴朝向移动设备的斜后方的第一相机所拍摄的第一图像的图像的显示;
基于由第二相机拍摄的第二图像执行移动设备的外部物体识别,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴;以及
控制所述显示器对基于所述物体识别的结果的视觉效果的显示。
(26)一种信息处理装置,包括
控制用于相机监视系统(CMS)的显示器的显示的显示控制单元,
其中,所述显示控制单元控制所述显示器对基于第一相机所拍摄的第一图像的图像以及基于移动设备的外部物体识别的结果的视觉效果的显示,第一相机的光轴朝向移动设备的斜后方,所述移动设备的外部物体识别的结果基于由第二相机所拍摄的第二图像,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近所述移动设备的正面方向的方向的光轴。
注意,本说明书中描述的效果仅仅是示例而非限制,并且可以提供其他效果。
附图标记列表
1车辆
11车辆控制系统
21处理器
25外部识别传感器
26车内传感器
30DMS
31HMI
51,51FC1至51BC3相机
52,52FC到52BR雷达
53,53F至53B LiDAR
73识别单元
84车身系统控制单元
85光控制单元
101L、101R、102相机
122L,122R相机模块
131L,131R壳体
231中央显示器
231C中央部
231CL至231CR显示单元
231L左端部
231LL显示单元
231R右端部
231RR显示单元
301信息处理系统
311安全网关
321ePWT DC
331ADAS DC
341HMI+主体DC
349CMS
361ToF ECU
362CMS ECU
801信息处理系统
811HMI DC
812主体DC
821信息处理系统
831ADAS+HMI DC
841信息处理系统
851ADAS+HMI+主体DC
Claims (26)
1.一种相机模块,包括:
第一相机;
第二相机;以及
壳体,所述壳体容纳第一相机和第二相机,
其中,在被安装在移动设备中的状态下,第一相机的光轴朝向所述移动设备的斜后方,并且第二相机的光轴朝向所述移动设备的横向方向或斜前方。
2.根据权利要求1所述的相机模块,还包括容纳在所述壳体中的第三相机或容纳在所述壳体中的第四相机中的至少一个,
其中,在被安装在所述移动设备中的状态下,第三相机的光轴朝向所述移动设备的斜后方,并且朝向比第一相机的光轴更靠近所述移动设备的横向方向的方向,并且第四相机的光轴朝向所述移动设备的斜前方,并且朝向比第二相机的光轴更靠近所述移动设备的正面方向的方向。
3.根据权利要求2所述的相机模块,其中
第一相机用于相机监视系统(CMS),
第二相机用于环绕视图,
第三相机用于高级驾驶员辅助系统(ADAS),并且第四相机用于ADAS。
4.根据权利要求3所述的相机模块,其中第二相机具有比第一相机、第三相机和第四相机宽的角度。
5.根据权利要求4所述的相机模块,其中第二相机是鱼眼相机。
6.根据权利要求4所述的相机模块,其中,在被安装在所述移动设备中的状态下,第二相机的光轴朝向斜下方。
7.根据权利要求3所述的相机模块,其中第二相机还用于ADAS。
8.根据权利要求3所述的相机模块,其中第三相机具有比第四相机高的分辨率。
9.根据权利要求1所述的相机模块,其中第二相机具有比第一相机宽的角度。
10.根据权利要求9所述的相机模块,其中,在被安装在所述移动设备中的状态下,第二相机的光轴朝向斜下方。
11.根据权利要求1所述的相机模块,其中
第一相机用于CMS或ADAS中的至少一个,以及
第二相机用于环绕视图或ADAS中的至少一个。
12.根据权利要求1所述的相机模块,其中所述壳体包括金属。
13.根据权利要求1所述的相机模块,其中,所述相机模块安装在所述移动设备的前侧的门的前端附近。
14.一种信息处理系统,包括:
第一相机,包括朝向移动设备的斜后方的光轴;
第二相机,被容纳在与第一相机相同的壳体中,并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴;
第一显示器,第一显示器由相机监视系统(CMS)使用,并且显示基于由第一相机拍摄的第一图像的图像;
识别单元,基于由第二相机拍摄的第二图像来执行所述移动设备的外部物体识别;以及
显示控制单元,控制第一显示器对第一图像和基于所述识别单元的物体识别的结果的视觉效果的显示。
15.根据权利要求14所述的信息处理系统,还包括:
第一域控制器,第一域控制器执行对包括第一相机和显示控制单元的第一域的控制;以及
第二域控制器,第二域控制器执行对包括第二相机和识别单元的第二域的控制。
16.根据权利要求15所述的信息处理系统,其中第一域还包括第二相机。
17.根据权利要求14所述的信息处理系统,还包括
在所述移动设备的内部的前方沿左右方向延伸的第二显示器,
其中,所述显示控制单元还控制第二显示器对基于第二图像的图像的显示。
18.根据权利要求17所述的信息处理系统,其中所述显示控制单元控制第二显示器对使用第二图像的环绕视图的显示。
19.根据权利要求17所述的信息处理系统,其中第一显示器和第二显示器被集成。
20.根据权利要求14所述的信息处理系统,其中第二相机的光轴朝向所述移动设备的横向方向或斜前方。
21.根据权利要求20所述的信息处理系统,还包括
容纳在所述壳体中的第三相机或容纳在所述壳体中的第四相机中的至少一者,
其中,第三相机的光轴朝向所述移动设备的斜后方,并且朝向比第一相机的光轴更靠近所述移动设备的横向方向的方向,并且第四相机的光轴朝向所述移动设备的斜前方,并且朝向比第二相机的光轴更靠近所述移动设备的正面方向的方向。
22.根据权利要求21所述的信息处理系统,其中所述识别单元还基于由第三相机拍摄的第三图像或由第四相机拍摄的第四图像中的至少一个来执行所述移动设备的外部物体识别。
23.根据权利要求21所述的信息处理系统,还包括:
第一域控制器,执行对包括第一相机和显示控制单元的第一域的控制;以及
第二域控制器,执行对第二域的控制,第二域包括第二相机、所述识别单元、以及第三相机或第四相机中的至少一个。
24.根据权利要求14所述的信息处理系统,其中第二相机的光轴朝向所述移动设备的斜后方,并且朝向比第一相机的光轴更接近所述移动设备的横向方向的方向。
25.一种信息处理方法,包括:
控制由用于相机监视系统(CMS)的显示器对基于由光轴朝向移动设备的斜后方的第一相机所拍摄的第一图像的图像的显示;
基于由第二相机拍摄的第二图像执行移动设备的外部物体识别,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近移动设备的正面方向的方向的光轴;以及
控制所述显示器对基于所述物体识别的结果的视觉效果的显示。
26.一种信息处理装置,包括
显示控制单元,控制用于相机监视系统(CMS)的显示器的显示,
其中,所述显示控制单元控制所述显示器对基于第一相机所拍摄的第一图像的图像以及基于移动设备的外部物体识别的结果的视觉效果的显示,第一相机的光轴朝向移动设备的斜后方,所述移动设备的外部物体识别的结果基于由第二相机所拍摄的第二图像,第二相机被容纳在与第一相机相同的壳体中并且包括朝向比第一相机的光轴更靠近所述移动设备的正面方向的方向的光轴。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020178137 | 2020-10-23 | ||
JP2020-178137 | 2020-10-23 | ||
PCT/JP2021/037305 WO2022085487A1 (ja) | 2020-10-23 | 2021-10-08 | カメラモジュール、情報処理システム、情報処理方法、及び、情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116171239A true CN116171239A (zh) | 2023-05-26 |
Family
ID=81290419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180070439.XA Pending CN116171239A (zh) | 2020-10-23 | 2021-10-08 | 相机模块、信息处理系统、信息处理方法和信息处理装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230415652A1 (zh) |
EP (1) | EP4236304A4 (zh) |
JP (1) | JPWO2022085487A1 (zh) |
KR (1) | KR20230091870A (zh) |
CN (1) | CN116171239A (zh) |
WO (1) | WO2022085487A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023047495A (ja) * | 2021-09-27 | 2023-04-06 | キヤノン株式会社 | 移動体、画像処理方法、およびコンピュータプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001114048A (ja) * | 1999-10-20 | 2001-04-24 | Matsushita Electric Ind Co Ltd | 車載運転支援情報表示装置 |
JP4537537B2 (ja) * | 2000-05-25 | 2010-09-01 | パナソニック株式会社 | 運転支援装置 |
JP3372944B2 (ja) * | 2000-07-19 | 2003-02-04 | 松下電器産業株式会社 | 監視システム |
JP2012156672A (ja) * | 2011-01-25 | 2012-08-16 | Clarion Co Ltd | 車両周辺監視装置 |
JP6361988B2 (ja) * | 2016-05-30 | 2018-07-25 | マツダ株式会社 | 車両用表示装置 |
JP2019206194A (ja) * | 2016-09-29 | 2019-12-05 | 株式会社村上開明堂 | 車両用視認装置 |
JP6730614B2 (ja) * | 2017-02-28 | 2020-07-29 | 株式会社Jvcケンウッド | 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム |
EP3635332A2 (en) * | 2017-05-10 | 2020-04-15 | Mobileye Vision Technologies Ltd. | Cross field of view for autonomous vehicle systems |
JP2018197021A (ja) | 2017-05-23 | 2018-12-13 | 株式会社ミツバ | ドアミラー |
JP6815957B2 (ja) | 2017-09-13 | 2021-01-20 | 株式会社ミツバ | ドアミラー |
WO2020157901A1 (ja) * | 2019-01-31 | 2020-08-06 | 三菱電機株式会社 | 運転支援装置 |
-
2021
- 2021-10-08 EP EP21882628.7A patent/EP4236304A4/en active Pending
- 2021-10-08 CN CN202180070439.XA patent/CN116171239A/zh active Pending
- 2021-10-08 WO PCT/JP2021/037305 patent/WO2022085487A1/ja unknown
- 2021-10-08 JP JP2022556905A patent/JPWO2022085487A1/ja active Pending
- 2021-10-08 KR KR1020237011625A patent/KR20230091870A/ko active Search and Examination
- 2021-10-08 US US18/249,072 patent/US20230415652A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022085487A1 (ja) | 2022-04-28 |
EP4236304A1 (en) | 2023-08-30 |
EP4236304A4 (en) | 2024-04-03 |
US20230415652A1 (en) | 2023-12-28 |
KR20230091870A (ko) | 2023-06-23 |
JPWO2022085487A1 (zh) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107878460B (zh) | 自动驾驶车辆的控制方法和服务器 | |
CN107891809B (zh) | 自动驻车辅助装置、提供自动驻车功能的方法以及车辆 | |
CN109476315B (zh) | 驾驶员辅助装置及具有该装置的车辆 | |
EP4049877A1 (en) | Display system, display device, display method, and moving device | |
WO2021241189A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11694408B2 (en) | Information processing device, information processing method, program, and movable object | |
JP2024111090A (ja) | 情報処理装置、および情報処理方法、プログラム、並びに車両 | |
US20230415652A1 (en) | Camera module, information processing system, information processing method, and information processing apparatus | |
WO2023074126A1 (ja) | 情報処理装置、情報処理方法、プログラムおよび情報処理システム | |
US20240054897A1 (en) | Information processing device, information processing method, program, mobile device, and information processing system | |
WO2021131789A1 (ja) | 車両 | |
WO2024038759A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
KR101894636B1 (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 | |
WO2023042418A1 (ja) | 車両制御システム、車両制御方法およびプログラム | |
WO2023166982A1 (ja) | 情報処理装置、情報処理方法、及び、移動体 | |
WO2024024471A1 (ja) | 情報処理装置、情報処理方法、及び、情報処理システム | |
WO2024157658A1 (ja) | 車載カメラ | |
WO2024062976A1 (ja) | 情報処理装置及び情報処理方法 | |
WO2024009829A1 (ja) | 情報処理装置、情報処理方法および車両制御システム | |
WO2024043053A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP7507722B2 (ja) | 情報処理プログラム及び情報処理方法 | |
WO2022201892A1 (en) | Information processing apparatus, information processing method, and program | |
WO2023171401A1 (ja) | 信号処理装置、信号処理方法、および記録媒体 | |
WO2024203261A1 (ja) | 画像処理装置、画像処理システム及び画像処理方法 | |
WO2022014327A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |