CN109421600A - 车辆用环视提供装置及车辆 - Google Patents

车辆用环视提供装置及车辆 Download PDF

Info

Publication number
CN109421600A
CN109421600A CN201810973986.9A CN201810973986A CN109421600A CN 109421600 A CN109421600 A CN 109421600A CN 201810973986 A CN201810973986 A CN 201810973986A CN 109421600 A CN109421600 A CN 109421600A
Authority
CN
China
Prior art keywords
image
vehicle
area
lens
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810973986.9A
Other languages
English (en)
Other versions
CN109421600B (zh
Inventor
蔡圭烈
李�权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN109421600A publication Critical patent/CN109421600A/zh
Application granted granted Critical
Publication of CN109421600B publication Critical patent/CN109421600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0075Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having an element with variable optical properties
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/12Beam splitting or combining systems operating by refraction only
    • G02B27/126The splitting element being a prism or prismatic array, including systems based on total internal reflection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

本发明提供一种车辆用环视提供装置及车辆,所述车辆用环视提供装置包括:多个相机,以及处理器,对通过多个所述相机获取的多个影像进行处理;多个所述相机中的一个以上包括透镜部,所述透镜部引导所获取的影像中包含的两个以上的区域的焦距彼此不同。

Description

车辆用环视提供装置及车辆
技术领域
本发明涉及车辆用环视提供装置及车辆。
背景技术
车辆是使乘坐的用户向所希望的方向移动的装置。作为代表性的例子,可举例有汽车。
另外,为了给利用车辆的用户提供便利,车辆中配备各种传感器和电子装置成为一种趋势。尤其,为了用户的驾驶便利而积极进行关于车辆驾驶辅助系统(ADAS:AdvancedDriver Assistance System)的研究。进一步,积极开展有关于自主行驶汽车(AutonomousVehicle)的开发。
为了实现车辆驾驶辅助系统或自主行驶车辆,车辆中可能会包括多个相机。在此情况下,各个相机具有与所要实现的功能相适应的视场角及分辨率。
例如,在车辆可以设置用于提供环视影响的环视监控(Around View Monitoring,AVM)相机、用于检测前方对象的相机。
在AVM相机中位于前方的相机和用于检测对象的相机均朝向前方,但是因不同的目的而具有彼此不同的视场角。
如上所述,为了实现不同的目的而具有多个相机,这样无论在费用方面还是车辆内空间利用方面均存在浪费问题。
发明内容
为了解决上述的问题,本发明的实施例的目的在于提供一种车辆用环视提供装置,提供环视影像的同时,还提供用于实现其他ADAS功能的影像。
并且,本发明的实施例的目的在于提供一种包括车辆用环视提供装置的车辆。
本发明的课题并不限定于以上提及到的课题,本领域的技术人员能够通过以下的记载明确理解未被提及到的其他目的。
为了实现所述目的,本发明的实施例提供一种车辆用环视提供装置,其中,包括:多个相机,以及,处理器,对通过多个所述相机获取的多个影像进行处理;多个所述相机中的一个以上包括透镜部,所述透镜部引导所获取的影像中包含的两个以上的区域的焦距彼此不同。
其他实施例的具体事项包含于具体实施方式及附图中。
本发明的实施例具有如下效果的一种或其以上。
第一、通过获取焦距彼此不同的区域的影像,提供环视影像的同时提供用于实现其他ADAS功能的影像,从而减少车辆中配备的相机的数目。
第二、通过减少相机数目,能够降低车辆制造成本。
第三、通过减少相机数目,能够确保车辆内空间。
第四、通过减少相机数目,能够提高数据处理的效率性。
本发明的效果并不限定于以上提及到的效果,本领域的技术人员能够从权利要求书的记载明确理解未被提及到的其他效果。
附图说明
图1是示出本发明的实施例的车辆的外观的图。
图2是从外部的多种角度观察本发明的实施例的车辆的图。
图3至图4是示出本发明的实施例的车辆的内部的图。
图5至图6是在说明本发明的实施例的对象时作为参照的图。
图7是在说明本发明的实施例的车辆时作为参照的框图。
图8A是在说明本发明的实施例的车辆用环视提供装置中包括的多个相机时作为参照的图。
图8B是本发明的实施例的车辆用环视提供装置所生成的环视影像的一实施例。
图9是在说明本发明的实施例的车辆用环视提供装置时作为参照的框图。
图10是本发明的实施例的车辆用环视提供装置的框图。
图11A至图11C是在说明本发明的实施例的车辆用环视提供装置的动作时作为参照的图。
图12A是在说明现有技术的环视提供装置的前方相机时作为参照的图。
图12B是在说明本发明的实施例的前方相机时作为参照的图。
图13A是在说明现有技术的环视提供装置的后方相机时作为参照的图。
图13B是在说明本发明的实施例的后方相机时作为参照的图。
图14A是在说明现有技术的环视提供装置的左侧方相机及右侧方相机时作为参照的图。
图14B至图14C是在说明本发明的实施例的左侧方相机及右侧方相机时作为参照的图。
图15A是为了说明本发明的实施例的远域及近域而作为参照的概念图。
图15B是在说明本发明的实施例的影像获取区域时作为参照的图。
图16是在说明本发明的实施例的车辆用相机装置的结构时作为参照的概念图。
图17至图20是为了说明本发明的具体的实施例的车辆用相机装置而作为参照的图。
附图标记的说明
100:车辆
具体实施方式
以下,参照附图,对本说明书所揭示的实施例进行详细的说明,在此,与附图标记无关地,对相同或类似的结构要素赋予相同的参照标记,并省去重复的说明。在以下说明中使用的针对结构要素的接尾词“模块”及“部”仅是考虑到便于说明书的撰写而被赋予或混用,其自身并不带有相互区分的含义或作用。并且,在对本发明揭示的实施例进行说明的过程中,如果判断为对于相关的公知技术的具体说明会导致混淆本说明书所揭示的实施例的技术思想,则将省去其详细的说明。并且,所附的附图仅是为了容易理解本说明书所揭示的实施例,不应由所附的附图来限定本发明所揭示的技术思想,而是应当涵盖了本发明的思想及技术范围中所包括的所有变更、均等物乃至替代物。
第一、第二等包含序数的术语可用于说明多种结构要素,但是所述结构要素并不由所述术语所限定。所述术语仅是用于将一个结构要素与其他结构要素区分的目的来使用。
如果提及到某个结构要素“连接”或“接触”于另一结构要素,其可能是直接连接于或接触于另一结构要素,但也可被理解为是他们中间存在有其他结构要素。反之,如果提及到某个结构要素“直接连接”或“直接接触”于另一结构要素,则应当被理解为是他们之间不存在其他结构要素。
除非在上下文明确表示有另行的含义,单数的表达方式应包括复数的表达方式。
在本申请中,“包括”或“具有”等术语仅是为了指定说明书上记载的特征、数字、步骤、动作、结构要素、部件或其组合的存在,而并不是预先排除一个或一个以上的其他特征或数字、步骤、动作、结构要素、部件或其组合的存在或附加的可能性。
本说明书中说明的车辆可以是包括汽车、摩托车的概念。以下,对于车辆将以汽车为主进行说明。
本说明书中所述的车辆可以是将作为动力源具有引擎的内燃机车辆、作为动力源具有引擎和电动电机的混合动力车辆、作为动力源具有电动电机的电动汽车等均涵盖的概念。
在以下的说明中,车辆的左侧表示车辆的行驶方向的左侧,车辆的右侧表示车辆的行驶方向的右侧。
图1是示出本发明的实施例的车辆的外观的图。
图2是从外部的多种角度观察本发明的实施例的车辆的图。
图3至图4是示出本发明的实施例的车辆的内部的图。
图5至图6是在说明本发明的实施例的对象时作为参照的图。
图7是在说明本发明的实施例的车辆时作为参照的框图。
参照图1至图7,车辆100可包括:利用动力源进行旋转的车轮;转向输入装置510,用于调节车辆100的行进方向。
车辆100可以是自主行驶车辆。
车辆100可基于用户输入而转换为自主行驶模式或手动模式(manual mode)。
例如,车辆100可基于通过用户接口装置200接收的用户输入,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
车辆100可基于行驶状况信息转换为自主行驶模式或手动模式。
行驶状况信息可包含车辆外部的对象信息、导航信息以及车辆状态信息中的至少一个。
例如,车辆100可基于对象检测装置300生成的行驶状况信息,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
例如,车辆100可基于通过通信装置400接收的行驶状况信息,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
车辆100可基于外部设备提供的信息、数据、信号,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
在车辆100以自主行驶模式运行的情况下,自主行驶车辆100可基于运行系统700来运行。
例如,自主行驶车辆100可基于行驶系统710、出车系统740、驻车系统750中生成的信息、数据或信号来运行。
在车辆100以手动模式运行的情况下,自主行驶车辆100可通过驾驶操作装置500接收用于驾驶的用户输入。车辆100可基于通过驾驶操作装置500接收的用户输入来运行。
总长度(overall length)表示从车辆100的前部分至后部分的长度,总宽度(width)表示车辆100的宽度,总高度(height)表示从车轮下部至车顶的长度。在以下的说明中,总长度方向L可表示作为车辆100的总长度测量的基准的方向,总宽度方向W可表示作为车辆100的总宽度测量的基准的方向,总高度方向H可表示作为车辆100的总高度测量的基准的方向。
如图7所示,车辆100可包括:用户接口装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、运行系统700、导航系统770、传感部120、接口部130、存储器140、控制部170以及供电部190。
根据实施例,车辆100可还包括除了本说明书所描述的结构要素以外的其他结构要素,或者可不包括本说明书所描述的结构要素中的一部分。
用户接口装置200是用于车辆100和用户之间的交流的装置。用户接口装置200可接收用户输入,并向用户提供车辆100生成的信息。车辆100可通过用户接口装置200实现用户接口(User Interfaces,UI)或用户体验(User Experience,UX)。
用户接口装置200可包括输入部210、内部相机220、身体特征检测部230、输出部250以及处理器270。
根据实施例,用户接口装置200可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
输入部210用于供用户输入信息,从输入部210收集的数据可被处理器270分析并处理为用户的控制指令。
输入部210可配置在车辆内部。例如,输入部210可配置在方向盘(steeringwheel)的一区域、仪表板(instrument panel)的一区域、座椅(seat)的一区域、各柱饰板(pillar)的一区域、车门(door)的一区域、中控台(center console)的一区域、顶板(headlining)的一区域、遮阳板(sun visor)的一区域、风挡(windshield)的一区域或车窗(window)的一区域等。
输入部210可包括语音输入部211、举止输入部212、触摸输入部213以及机械式输入部214。
语音输入部211可将用户的语音输入转换为电信号。被转换的电信号可提供给处理器270或控制部170。
语音输入部211可包括一个以上的麦克风。
举止输入部212可将用户的举止输入转换为电信号。被转换的电信号可提供给处理器270或控制部170。
举止输入部212可包括用于检测用户的举止输入的红外线传感器以及图像传感器中的一种以上。
根据实施例,举止输入部212可检测用户的三维举止输入。为此,举止输入部212可包括用于输出多个红外线光的光输出部或多个图像传感器。
举止输入部212可通过TOF(Time of Flight)方式、结构光(Structured light)方式或视差(Disparity)方式来检测用户的三维举止输入。
触摸输入部213可将用户的触摸输入转换为电信号。被转换的电信号可提供给处理器270或控制部170。
触摸输入部213可包括用于检测用户的触摸输入的触摸传感器。
根据实施例,触摸输入部213可通过与显示部251形成一体来实现触摸屏。这样的触摸屏可一同提供车辆100和用户之间的输入接口以及输出接口。
机械式输入部214可包括按键、圆顶开关(dome switch)、调节旋钮(jog wheel)以及轻摇开关(jog switch)中的至少一个。由机械式输入部214生成的电信号可提供给处理器270或控制部170。
机械式输入部214可配置在方向盘、中控仪表盘(center fascia)、中控台(centerconsole)、驾驶舱模块(cockpit module)、车门等。
内部相机220可获取车辆内部影像。处理器270可基于车辆内部影像检测用户的状态。处理器270可从车辆内部影像中获取用户的视线信息。处理器270可从车辆内部影像中检测用户的举止。
身体特征检测部230可获取用户的身体特征信息。身体特征检测部230包括可获取用户的身体特征信息的传感器,利用传感器获取用户的指纹信息、心率信息等。身体特征信息可被利用于用户认证。
输出部250用于产生与视觉、听觉或触觉等相关的输出。
输出部250可包括显示部251、音响输出部252以及触觉输出部253中的一种以上。
显示部251可显示与多种信息对应的图形对象。
显示部251可包括液晶显示器(liquid crystal display,LCD)、薄膜晶体管液晶显示器(thin film transistor-liquid crystal display,TFT LCD)、有机发光二极管(organic light-emitting diode、OLED)、柔性显示器(flexible display)、3D显示器(3Ddisplay)、电子墨水显示器(e-ink display)中的至少一个。
显示部251可通过与触摸输入部213构成相互层次结构或一体地形成,从而能够实现触摸屏。
显示部251可由平视显示器(Head Up Display,HUD)来实现。在显示部251由HUD实现的情况下,显示部251可设置有投射模块,从而通过投射在风挡或车窗的图像来输出信息。
显示部251可包括透明显示器。透明显示器可贴附在风挡或车窗。
透明显示器可以以具有规定的透明度的方式显示规定的画面。为了使透明显示器具有透明度,透明显示器可包括透明薄膜电致发光(Thin Film Electroluminescent,TFEL)、透明有机发光二极管(Organic Light-Emitting Diode,OLED),透明LCD(LiquidCrystal Display)、透射型透明显示器、透明LED(Light Emitting Diode)显示器中的至少一个。透明显示器的透明度可进行调节。
另外,用户接口装置200可包括多个显示部251a-251g。
显示部251可配置在方向盘的一区域、仪表板的一区域251a、251b、251e、座椅的一区域251d、各柱饰板的一区域251f、车门的一区域251g、中控台的一区域、顶板(headlining)的一区域,遮阳板(sunvisor)的一区域,或者可实现于风挡的一区域251c、车窗的一区域251h。
音响输出部252将处理器270或控制部170提供的电信号变换为音频信号并输出。为此,音响输出部252可包括一个以上的扬声器。
触觉输出部253用于产生触觉方式的输出。例如,触觉输出部253可通过振动方向盘、安全带、座椅110FL、110FR、110RL、110RR,来使用户能够认知输出。
处理器270可控制用户接口装置200的各单元的整体上的动作。
根据实施例,用户接口装置200可包括多个处理器270,或者可不包括处理器270。
在用户接口装置200不包括处理器270的情况下,用户接口装置200可根据车辆100内其他装置的处理器或控制部170的控制来进行动作。
另外,可将用户接口装置200称为车辆用显示装置。
用户接口装置200可根据控制部170的控制进行动作。
对象检测装置300是用于检测位于车辆100外部的对象的装置。对象检测装置300可基于传感数据来生成对象信息。
对象信息可包含与对象的存在与否相关的信息、对象的位置信息、车辆100与对象之间的距离信息以及车辆100与对象之间的相对速度信息。
对象可以是与车辆100的运行相关的多种物体。
参照图5至图6,对象O可包含车道OB10、其他车辆OB11、行人OB12、二轮车OB13、交通信号OB14、OB15、光、道路、结构物、限速带、地形物、动物等。
车道OB10(Lane)可以是行驶车道、行驶车道的旁边车道、会车的车辆行驶的车道。车道OB10(Lane)可以是包含形成车道(Lane)的左右侧的线(Line)的概念。车道可以是包含交叉路的概念。
其他车辆OB11可以是在车辆100的周边正在行驶的车辆。其他车辆可以是距车辆100的距离为规定距离以内的车辆。例如,其他车辆OB11可以是比车辆100前行或后行的车辆。
行人OB12可以是位于车辆100的周边的人。行人OB12可以是距车辆100的距离为规定距离以内的人。例如,行人OB12可以是位于人行道或行车道上的人。
二轮车OB12可表示位于车辆100的周边并且可利用两个车轮移动的供乘坐的装置。二轮车OB12可以是距车辆100的距离为规定距离以内的具有两个车轮的供乘坐的装置。例如,二轮车OB13可以是位于人行道或行车道上的摩托车或自行车。
交通信号可包含交通信号灯OB15、交通标识牌OB14、画在道路面的纹样或文本。
光可以是设置在其他车辆的车灯中生成的光。光可以是路灯中生成的光。光可以是太阳光。
道路可包括道路面、弯道(curve)、上坡、下坡等倾斜等。
结构物可以是位于道路周边并且固定在地面的物体。例如,结构物可包括路灯、行道树、建筑物、电线杆、信号灯、桥、路边石、墙面。
地形物可包括山、丘等。
另外,对象可被分类为移动对象和静止对象。例如,移动对象可以是包含移动中的其他车辆、移动中的行人的概念。例如,静止对象可以是包含交通信号、道路、结构物、静止的其他车辆、静止的行人的概念。
对象检测装置300可包括相机310、雷达320、激光雷达330、超声波传感器340、红外线传感器350以及处理器370。
根据实施例,对象检测装置300可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
为了获取车辆外部影像,相机310可位于车辆的外部的适当的位置。相机310可以是单色相机、立体相机310a、环视监控(Around View Monitoring,AVM)相机310b或360度相机。
相机310可利用多种影像处理算法获取对象的位置信息、与对象之间的距离信息或与对象之间的相对速度信息。
例如,相机310可从获取的影像中基于与时间对应的对象大小的变化,来获取与对象之间的距离信息以及相对速度信息。
例如,相机310可通过小孔(pin hole)模型、路面轮廓绘制(road profiling)等,来获取与对象之间的距离信息以及相对速度信息。
例如,相机310可在从立体相机310a获取的立体影像中,基于视差(disparity)信息来获取与对象之间的距离信息以及相对速度信息。
例如,为了获取车辆前方的影像,相机310可在车辆的室内与前风挡相靠近地配置。或者,相机310可配置在前保险杠或散热器格栅周边。
例如,为了获取车辆后方的影像,相机310可在车辆的室内与后窗玻璃相靠近地配置。或者,相机310可配置在后保险杠、后备箱或尾门周边。
例如,为了获取车辆侧方的影像,相机310可在车辆的室内与侧窗中的至少一个相靠近地配置。或者,相机310可配置在侧镜、挡泥板或车门周边。
相机310可将获取的影像提供给处理器370。
雷达320可包括电磁波发送部、接收部。雷达320在电波发射原理上可实现为脉冲雷达(Pulse Radar)方式或连续波雷达(Continuous Wave Radar)方式。雷达320在连续波雷达方式中可根据信号波形而实现为调频连续波(Frequency Modulated ContinuousWave,FMCW)方式或频移键控(Frequency Shift Keying,FSK)方式。
雷达320可以以电磁波作为媒介,基于飞行时间(Time of Flight,TOF)方式或相移(phase-shift)方式来检测对象,并检测被检测出的对象的位置、与被检测出的对象之间的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,雷达320可配置在车辆的外部的适当的位置。
激光雷达330可包括激光发送部、接收部。激光雷达330可实现为TOF(Time ofFlight)方式或相移(phase-shift)方式。
激光雷达330可由驱动式或非驱动式来实现。
在由驱动式来实现的情况下,激光雷达330可通过电机进行旋转,并检测车辆100周边的对象。
在由非驱动式来实现的情况下,激光雷达330可利用光偏转(light steering)来检测以车辆100为基准位于规定范围内的对象。车辆100可包括多个非驱动式激光雷达330。
激光雷达330可将激光作为媒介,基于TOF(Time of Flight)方式或相移(phase-shift)方式检测对象,并检测被检测出的对象的位置、与被检测出的对象之间的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,激光雷达330可配置在车辆的外部的适当的位置。
超声波传感器340可包括超声波发送部、接收部。超声波传感器340可基于超声波检测对象,并检测被检测出的对象的位置、与被检测出的对象之间的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,超声波传感器340可配置在车辆的外部的适当的位置。
红外线传感器350可包括红外线发送部、接收部。红外线传感器350可基于红外线光检测对象,并检测被检测出的对象的位置、与被检测出的对象之间的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,红外线传感器350可配置在车辆的外部的适当的位置。
处理器370可控制对象检测装置300的各单元的整体上的动作。
处理器370可将相机310、雷达320、激光雷达330、超声波传感器340以及红外线传感器350感测出的数据和预先存储的数据进行比较,从而检测或分类对象。
处理器370可基于获取的影像检测对象并进行跟踪。处理器370可通过影像处理算法执行与对象之间的距离计算、与对象之间的相对速度计算等动作。
例如,处理器370可从获取的影像中基于与时间对应的对象大小的变化,来获取与对象之间的距离信息以及相对速度信息。
例如,处理器370可通过小孔(pin hole)模型、路面轮廓绘制(road profiling)等,来获取与对象之间的距离信息以及相对速度信息。
例如,处理器370可在从立体相机310a获取的立体影像中,基于视差(disparity)信息获取与对象之间的距离信息以及相对速度信息。
处理器370可基于发送的电磁波被对象反射回的反射电磁波来检测对象并进行跟踪。处理器370可基于电磁波执行与对象之间的距离计算、与对象之间的相对速度计算等动作。
处理器370可基于发送的激光被对象反射回的反射激光来检测对象并进行跟踪。处理器370可基于激光执行与对象之间的距离计算、与对象之间的相对速度计算等动作。
处理器370可基于发送的超声波被对象反射回的反射超声波来检测对象并进行跟踪。处理器370可基于超声波执行与对象之间的距离计算、与对象之间的相对速度计算等动作。
处理器370可基于发送的红外线光被对象反射回的反射红外线光来检测对象并进行跟踪。处理器370可基于红外线光执行与对象之间的距离计算、与对象之间的相对速度计算等动作。
根据实施例,对象检测装置300可包括多个处理器370,或者可不包括处理器370。例如,相机310、雷达320、激光雷达330、超声波传感器340以及红外线传感器350可分别单独地包括处理器。
在对象检测装置300中不包括处理器370的情况下,对象检测装置300可根据车辆100内装置的处理器或控制部170的控制来进行动作。
对象检测装置300可根据控制部170的控制进行动作。
通信装置400是用于与外部设备执行通信的装置。其中,外部设备可以是其他车辆、移动终端或服务器。
通信装置400为了执行通信,可包括发送天线、接收天线、可实现各种通信协议的射频(Radio Frequency,RF)电路以及RF元件中的至少一个。
通信装置400可包括近距离通信部410、位置信息部420、V2X通信部430、光通信部440、广播收发部450、智能交通系统(Intelligent Transport Systems,ITS)通信部460以及处理器470。
根据实施例,通信装置400可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
近距离通信部410是用于进行近距离通信(Short range communication)的单元。近距离通信部410可利用蓝牙(BluetoothTM)、射频识别(Radio FrequencyIdentification,RFID)、红外线通信(Infrared Data Association;IrDA)、超宽带(UltraWideband,UWB)、紫峰协议(ZigBee)、近场通信(Near Field Communication,NFC)、无线高保真(Wireless-Fidelity,Wi-Fi)、无线高保真直连(Wi-Fi Direct)、无线通用串行总线(Wireless Universal Serial Bus,Wireless USB)技术中的至少一个来支持近距离通信。
近距离通信部410可利用形成近距离无线通信网(Wireless Area Networks),来执行车辆100和至少一个外部设备之间的近距离通信。
位置信息部420是用于获取车辆100的位置信息的单元。例如,位置信息部420可包括全球定位系统(Global Positioning System,GPS)模块或差分全球定位系统(Differential Global Positioning System,DGPS)模块。
V2X通信部430是用于执行与服务器(V2I:Vehicle to Infra)、其他车辆(V2V:Vehicle to Vehicle)或行人(V2P:Vehicle to Pedestrian)之间的无线通信的单元。V2X通信部430可包括能够实现与基础设施(infra)之间的通信(V2I)、车辆间通信(V2V)、与行人之间的通信(V2P)协议的RF电路。
光通信部440为以光作为媒介与外部设备执行通信的单元。光通信部440可包括:光发送部,将电信号转换为光信号并向外部发送;以及光接收部,将接收到的光信号转换为电信号。
根据实施例,光发送部可与车辆100中包括的车灯以整体的方式形成。
广播收发部450是通过广播频道从外部的广播管理服务器接收广播信号,或者向广播管理服务器发送广播信号的单元。广播频道可包括卫星频道、地面波频道。广播信号可包含TV广播信号、电台广播信号、数据广播信号。
ITS通信部460可与交通系统进行信息、数据或信号交换。ITS通信部460可向交通系统提供所获取的信息、数据。ITS通信部460可接收交通系统所提供的信息、数据或信号。例如,ITS通信部460可从交通系统接收道路交通信息并提供给控制部170。例如,ITS通信部460可从交通系统接收控制信号,并提供给控制部170或设置在车辆100内部的处理器。
处理器470可控制通信装置400的各单元的整体上的动作。
根据实施例,通信装置400可包括多个处理器470,或者可不包括处理器470。
在通信装置400中不包括处理器470的情况下,通信装置400可根据车辆100内其他装置的处理器或控制部170的控制来进行动作。
另外,通信装置400可与用户接口装置200一同实现车辆用显示装置。在此情况下,可将车辆用显示装置称为车载信息系统(telematics)装置或音视频导航(Audio VideoNavigation,AVN)装置。
通信装置400可根据控制部170的控制进行动作。
驾驶操作装置500是用于接收用于驾驶的用户输入的装置。
在手动模式的情况下,车辆100可基于驾驶操作装置500提供的信号来运行。
驾驶操作装置500可包括转向输入装置510、加速输入装置530以及制动输入装置570。
转向输入装置510可接收来自用户的车辆100的行进方向输入。转向输入装置510优选地形成为轮(wheel)形态,以便能够通过旋转实现转向输入。根据实施例,转向输入装置可形成为触摸屏、触摸板或按键形态。
加速输入装置530可接收来自用户的用于车辆100的加速的输入。制动输入装置570可接收来自用户的用于车辆100的减速的输入。加速输入装置530和制动输入装置570优选地形成为踏板形态。根据实施例,加速输入装置或制动输入装置可形成为触摸屏、触摸板或按键形态。
驾驶操作装置500可根据控制部170的控制进行动作。
车辆驱动装置600是以电方式控制车辆100内各种装置的驱动的装置。
车辆驱动装置600可包括传动(power train)驱动部610、底盘驱动部620、车门/车窗驱动部630、安全装置驱动部640、车灯驱动部650以及空调驱动部660。
根据实施例,辆驱动装置600可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
另外,车辆驱动装置600可包括处理器。车辆驱动装置600的各单元可分别单独地包括处理器。
传动驱动部610可控制传动装置的动作。
传动驱动部610可包括动力源驱动部611以及变速器驱动部612。
动力源驱动部611可执行针对车辆100的动力源的控制。
例如,在将基于化石燃料的引擎作为动力源的情况下,动力源驱动部611可执行针对引擎的电子式控制。由此,能够控制引擎的输出扭矩等。动力源驱动部611可根据控制部170的控制而控制引擎的输出扭矩。
例如,在将基于电能的电机作为动力源的情况下,动力源驱动部611可执行针对电机的控制。动力源驱动部611可根据控制部170的控制而控制电机的转速、扭矩等。
变速器驱动部612可执行针对变速器的控制。
变速器驱动部612可调节变速器的状态。变速器驱动部612可将变速器的状态调节为前进D、倒车R、空挡N或驻车P。
另外,在引擎为动力源的情况下,变速器驱动部612可在前进D状态下调节齿轮的啮合状态。
底盘驱动部620可控制底盘装置的动作。
底盘驱动部620可包括转向驱动部621、制动驱动部622以及悬架驱动部623。
转向驱动部621可执行针对车辆100内的转向装置(steering apparatus)的电子式控制。转向驱动部621可变更车辆的行进方向。
制动驱动部622可执行针对车辆100内的制动装置(brake apparatus)的电子式控制。例如,可通过控制配置在车轮的制动器的动作来减小车辆100的速度。
另外,制动驱动部622可对多个制动器分别单独地进行控制。制动驱动部622可对施加给多个车轮的制动力相互不同地进行控制。
悬架驱动部623可执行针对车辆100内的悬架装置(suspension apparatus)的电子式控制。例如,在道路面存在有曲折的情况下,悬架驱动部623可通过控制悬架装置来减小车辆100的振动。
另外,悬架驱动部623可对多个悬架分别单独地进行控制。
车门/车窗驱动部630可执行针对车辆100内的车门装置(door apparatus)或车窗装置(window apparatus)的电子式控制。
车门/车窗驱动部630可包括车门驱动部631以及车窗驱动部632。
车门驱动部631可执行针对车门装置的控制。车门驱动部631可控制车辆100中包括的多个车门的开放、关闭。车门驱动部631可控制后备箱(trunk)或尾门(tail gate)的开放或关闭。车门驱动部631可控制天窗(sunroof)的开放或关闭。
车窗驱动部632可执行针对车窗装置(window apparatus)的电子式控制。车窗驱动部632可控制车辆100中包括的多个车窗的开放或关闭。
安全装置驱动部640可执行针对车辆100内的各种安全装置(safety apparatus)的电子式控制。
安全装置驱动部640可包括气囊驱动部641、安全带驱动部642以及行人保护装置驱动部643。
气囊驱动部641可执行针对车辆100内的气囊装置(airbag apparatus)的电子式控制。例如,在检测出危险时,气囊驱动部641可控制气囊被展开。
安全带驱动部642可执行针对车辆100内的安全带装置(seatbelt apparatus)的电子式控制。例如,在检测出危险时,安全带驱动部642可利用安全带将乘坐者固定在座椅110FL、110FR、110RL、110RR。
行人保护装置驱动部643可执行针对发动机罩提升和行人气囊的电子式控制。例如,在检测出与行人的碰撞时,行人保护装置驱动部643可控制引擎盖被提升(hood liftup)以及行人气囊被展开。
车灯驱动部650可执行针对车辆100内的各种车灯装置(lamp apparatus)的电子式控制。
空调驱动部660可执行针对车辆100内的空调装置(air conditioner)的电子式控制。例如,在车辆内部的温度高的情况下,空调驱动部660可控制空调装置进行动作,从而向车辆内部供给冷气。
车辆驱动装置600可包括处理器。车辆驱动装置600的各单元可分别单独地包括处理器。
车辆驱动装置600可根据控制部170的控制进行动作。
运行系统700是控制车辆100的各种运行的系统。运行系统700可在自主行驶模式下进行动作。
运行系统700可包括行驶系统710、出车系统740以及驻车系统750。
根据实施例,运行系统700可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
另外,运行系统700可包括处理器。运行系统700的各单元可分别单独地包括处理器。
另外,根据实施例,在运行系统700以软件方式实现的情况下,运行系统700可以是控制部170的下位概念。
另外,根据实施例,运行系统700可以是包括用户接口装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、导航系统770、传感部120以及控制部170中的至少一个的概念。
行驶系统710可执行车辆100的行驶。
行驶系统710可接收导航系统770提供的导航信息,向车辆驱动装置600提供控制信号来执行车辆100的行驶。
行驶系统710可接收对象检测装置300提供的对象信息,向车辆驱动装置600提供控制信号来执行车辆100的行驶。
行驶系统710可通过通信装置400接收外部设备提供的信号,向车辆驱动装置600提供控制信号来执行车辆100的行驶。
行驶系统710可以是包括用户接口装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、导航系统770、传感部120以及控制部170中的至少一个,并执行车辆100的行驶的系统概念。
这样的行驶系统710可称为车辆行驶控制装置。
出车系统740可执行车辆100的出车。
出车系统740可接收导航系统770提供的导航信息,向车辆驱动装置600提供控制信号来执行车辆100的出车。
出车系统740可接收对象检测装置300提供的对象信息,向车辆驱动装置600提供控制信号来执行车辆100的出车。
出车系统740可通过通信装置400接收外部设备提供的信号,向车辆驱动装置600提供控制信号来执行车辆100的出车。
出车系统740可以是包括用户接口装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、导航系统770、传感部120以及控制部170中的至少一个,并执行车辆100的出车的系统概念。
这样的出车系统740可称为车辆出车控制装置。
驻车系统750可执行车辆100的驻车。
驻车系统750可接收导航系统770提供的导航信息,向车辆驱动装置600提供控制信号来执行车辆100的驻车。
驻车系统750可接收对象检测装置300提供的对象信息,向车辆驱动装置600提供控制信号来执行车辆100的驻车。
驻车系统750可通过通信装置400接收外部设备提供的信号,向车辆驱动装置600提供控制信号来执行车辆100的驻车。
驻车系统750可以是包括用户接口装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、导航系统770、传感部120以及控制部170中的至少一个,并执行车辆100的驻车的系统概念。
这样的驻车系统750可称为车辆驻车控制装置。
导航系统770可提供导航信息。导航信息可包含地图(map)信息、所设定的目的地信息、与所述目的地设定对应的路径信息、关于路径上的多种对象的信息、车线信息以及车辆的当前位置信息中的至少一个。
导航系统770可包括存储器、处理器。存储器可存储导航信息。处理器可控制导航系统770的动作。
根据实施例,导航系统770可通过通信装置400从外部设备接收信息,并对预先存储的信息进行更新。
根据实施例,导航系统770可被分类为用户接口装置200的下位结构要素。
传感部120可检测车辆的状态。传感部120可包括惯性导航单元(inertialnavigation unit,INU)传感器、碰撞传感器、车轮传感器(wheel sensor)、速度传感器、倾斜传感器、重量检测传感器、航向传感器(heading sensor)、定位模块(position module)、车辆前进/倒车传感器、电池传感器、燃料传感器、轮胎传感器、基于方向盘旋转的转向传感器、车辆内部温度传感器、车辆内部湿度传感器、超声波传感器、照度传感器、加速踏板位置传感器、制动踏板位置传感器等。
另外,惯性导航单元(inertial navigation unit,INU)传感器可包括加速度传感器、陀螺仪传感器、磁传感器中的一种以上。
传感部120可获取车辆姿势信息、车辆运动(motion)信息、车辆横摆(yaw)信息、车辆侧倾(roll)信息、车辆纵摆(pitch)信息、车辆碰撞信息、车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆斜率信息、车辆前进/倒车信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息、关于方向盘旋转角度、车辆外部照度、施加给加速踏板的压力、施加给制动踏板的压力等的传感信号。
除此之外,传感部120可还包括加速踏板传感器、压力传感器、引擎转速传感器(engine speed sensor)、空气流量传感器(AFS)、吸气温度传感器(ATS)、水温传感器(WTS)、节气门位置传感器(TPS)、TDC传感器、曲轴转角传感器(CAS)等。
传感部120可基于传感数据生成车辆状态信息。车辆状态信息可以是基于设置在车辆内部的各种传感器中检测出的数据来生成的信息。
例如,车辆状态信息可包含车辆的姿势信息、车辆的速度信息、车辆的斜率信息、车辆的重量信息、车辆的方向信息、车辆的电池信息、车辆的燃料信息、车辆的胎压信息、车辆的转向信息、车辆室内温度信息、车辆室内湿度信息、踏板位置信息以及车辆引擎温度信息等。
接口部130可执行与和车辆100相连接的多种外部装置之间的通道作用。例如,接口部130可设置有可与移动终端相连接的端口,通过所述端口能够与移动终端进行连接。在此情况下,接口部130可与移动终端进行数据交换。
另外,接口部130可执行向连接的移动终端供给电能的通道作用。在移动终端与接口部130进行电连接的情况下,根据控制部170的控制,接口部130将供电部190供给的电能提供给移动终端。
存储器140与控制部170进行电连接。存储器140可存储关于单元的基本数据、用于单元的动作控制的控制数据、输入输出的数据。存储器140在硬件上可以是ROM、RAM、EPROM、闪存盘、硬盘等多种存储装置。存储器140可存储用于控制部170的处理或控制的程序等、用于车辆100整体上的动作的多种数据。
根据实施例,存储器140可与控制部170以一体的方式形成,或者作为控制部170的下位结构要素来实现。
控制部170可控制车辆100内的各单元的整体上的动作。可将控制部170称为电子控制单元(Electronic Control Unit,ECU)。
供电部190可根据控制部170的控制而供给各结构要素的动作所需的电源。特别是,供电部190可接收车辆内部的电池等供给的电源。
车辆100中包括的一个以上的处理器以及控制部170可利用专用集成电路(application specific integrated circuits,ASICs)、数字信号处理器(digitalsignal processors,DSPs)、数字信号处理设备(digital signal processing devices,DSPDs)、可编程逻辑设备(programmable logic devices,PLDs)、现场可编程门阵列(fieldprogrammable gate arrays,FPGAs)、处理器(processors)、控制器(controllers)、微控制器(micro-controllers)、微处理器(microprocessors)、用于执行其他功能的电性单元中的一种以上来实现。
图8A是在说明本发明的实施例的车辆用环视提供装置中包括的多个相机时作为参照的图。
参照图8A,车辆用环视提供装置800可以包括多个相机810。
图8A中例示出车辆用环视提供装置800包括四个相机810a、810b、810c、810d的情形。车辆用环视提供装置800可以包括少于四个的相机,或者包括多于四个的相机。
多个相机810a、810b、810c、810d可以贴附于车体的移动部分(moving part)及固定部分中的至少一个部分。
车体的移动部分是指,在形成车辆的外观及骨架的车体的部位中能够移动的部位。例如,车体的移动部分可以包括侧镜、车门、天窗、雨刮器、发动机罩(或引擎盖)、车轮及车窗。
车体的固定部分是指,在形成车辆的外观及骨架的车体的部位中无法移动的部位。例如,车体的固定部分可以包括保险杠、格栅、挡泥板、轮罩(wheelhouse)、车顶(roof)、风挡。
多个相机810可以包括前方相机810a、后方相机810b、左侧方相机810c以及右侧方相机810d。
前方相机810a可以获取车辆100的前方影像。
前方相机810a可以贴附于作为固定部分中的一个的前保险杠。前方相机810a可以配置于格栅的内侧。
后方相机810b可以获取车辆100的后方影像。
后方相机810b可以贴附于作为移动部分中的一个的后门(back door)。后门可以包括后备箱及尾门。
后方相机810b可以贴附于作为固定部分中的一个的后保险杠。
左侧方相机810c可以获取车辆100的左侧方影像。
左侧方相机810c可以贴附于作为移动部分中的一个的左侧镜(left sidemirror)。其中,左侧镜可以包括镜、多种电气部件、用于包围镜和电气部件的壳体等。左侧镜可以称为左侧镜模块。
左侧方相机810c可以贴附于作为移动部分中的一个的左前门(left frontdoor)。左前门可以是包括左侧镜的概念。
右侧方相机810d可以获取车辆100的右侧方影像。
右侧方相机810d可以贴附于作为移动部分中的一个的右侧镜(right sidemirror)。其中,右侧镜可以包括镜、多种电气部件、用于包围镜和电气部件的壳体等。右侧镜可以称为右侧镜模块。
右侧方相机810d可以贴附于作为移动部分中的一个的右前门(right frontdoor)。右前门可以是包括右侧镜的概念。
图8B是本发明的实施例的车辆用环视提供装置所生成的环视影像的一实施例。
参照图8B,车辆用环视提供装置800可以生成环视影像801。
车辆用环视提供装置800的处理器870可以将多个相机810中获取的多个影像进行整合,从而生成环视影像801。
例如,车辆用环视提供装置800的处理器870可以将前方相机810a中获取的前方影像、后方相机810b中获取的后方影像、左侧方相机810c中获取的左侧方影像、右侧方相机810d中获取的右侧方影像进行整合,从而生成环视影像801。
另外,环视影像801可以包含俯视影像、侧视影像、正视影像、后视影像中的至少一个。
另外,环视影像801可以实现为2D影像或3D影像。
环视影像801可以包括边界线BL。边界线BL可以是在环视影像801中用于划分与多个相机810中获取的多个影像分别相应的区域的线。
例如,环视影像801可以包含第一区域810ai、第二区域810bi、第三区域810ci以及第四区域810di。
第一区域810ai可以是与前方影像对应的区域。第二区域810bi可以是与后方影像对应的区域。第三区域810ci可以是与左侧方影像对应的区域。第四区域810di可以是与右侧方影像对应的区域。
环视影像801可以包含与车辆100对应的车辆图像100i。
图9是在说明本发明的实施例的车辆用环视提供装置时作为参照的框图。
参照图9,车辆用环视提供装置800可以包括多个相机810、存储器840、显示部851、处理器870以及供电部890。
根据实施例,车辆用环视提供装置800可以以个别或组合的方式还包括辅助相机820、相机姿势调整部830以及音响输出部852。
多个相机810可以分别贴附于车辆100的车辆。
多个相机810可以贴附于车体的移动部分及固定部分中的至少一个部分。
多个相机810可以分别包括透镜部及图像传感器。
多个相机810中的一个以上可以包括透镜部,所述透镜部用于引导所获取的影像中包含的两个以上的区域的焦距彼此不同。
从多个相机810中的某一个获取的影像可以包含相对为窄角的第一区域及相对为广角的第二区域。
多个相机810可以分别包括图像传感器。
多个相机810中的一个以上可以包括图像传感器,所述图像传感器包括以与两个以上的区域对应的方式形成的两个以上的像素阵列。所述图像传感器可以将经过透镜部分别流入到两个以上的像素阵列的光转换为电信号。
两个以上的像素阵列可以具有彼此不同的像素密度。
相机姿势调整部830可以控制多个相机810各自的姿势。相机姿势调整部830可以包括与多个相机810的数目对应的多个驱动部。其中,驱动部可以包括诸如电机、致动器或螺线管的驱动力生成单元。
例如,相机姿势调整部830可以包括与左侧方相机810c对应的第一驱动部、与右侧方相机810d对应的第二驱动部、与后方相机810b对应的第三驱动部以及与前方相机810a对应的第四驱动部。
相机姿势调整部830可以根据处理器870的控制,基于移动部分的移动信息来调整移动部分上贴附的相机的姿势。
存储器840与处理器870进行电连接。存储器840可存储关于单元的基本数据、用于单元的动作控制的控制数据、输入输出的数据。存储器840在硬件上可以是ROM、RAM、EPROM、闪存盘、硬盘等多种存储装置。存储器840可存储用于处理器870的处理或控制的程序等、用于车辆用环视提供装置800整体上的动作的多种数据。
根据实施例,存储器840可与处理器870以整体的方式形成,或者作为处理器870的下位结构要素来实现。
显示部851可以根据处理器870的控制而显示环视影像。
显示部851可以与用户接口装置200的显示部251以整体的方式形成。
显示部851可以称为音视频导航(Audio Video Navigation,AVN)装置、中心信息显示器(Center Information Display,CID)、头部单元(Head Unit)等。
显示部851可以与通信装置400相结合而实现为车载信息系统(Telematics)装置。
音响输出部852可以根据处理器870的控制而输出音频信号。
音响输出部852可以与用户接口装置200的音响输出部252以整体的方式形成。
显示部851和音响输出部852可以被分类为车辆用环视提供装置输出部的下位结构。
处理器870可以与车辆用环视提供装置800的各单元进行电连接。
处理器870可以控制车辆用环视提供装置800的各单元的整体上的动作。
处理器870可利用专用集成电路(application specific integrated circuits,ASICs)、数字信号处理器(digital signal processors,DSPs)、数字信号处理设备(digital signal processing devices,DSPDs)、可编程逻辑器件(programmable logicdevices,PLDs)、现场可编程门阵列(field programmable gate arrays,FPGAs)、处理器(processors)、控制器(controllers)、微控制器(micro-controllers)、微处理器(microprocessors)、用于执行其他功能的电性单元中的一种以上来实现。
处理器870可以从多个相机810分别接收影像。
例如,处理器870可以从前方相机810a接收前方影像。
例如,处理器870可以从后方相机810b接收后方影像。
例如,处理器870可以从左侧方相机810c接收左侧方影像。
例如,处理器870可以从右侧方相机810d接收右侧方影像。
处理器870可以对通过多个相机810获取的多个影像进行处理。
处理器870可以将从多个相机810获取的多个影像进行整合,从而生成环视影像。
环视影像可以包含俯视影像、侧视影像、正视影像、后视影像中的至少一个。
另外,从多个相机810中的至少一个接收的影像可以包含相对为窄角的第一区域及相对为广角的第二区域。
处理器870可以将第一区域及第二区域进行分离并处理。
处理器870可以基于第一区域生成窄角影像。
处理器870可以基于映射函数(mapping function)将第一区域和第二区域进行合成而生成广角影像。
处理器870可以通过接口部880向车辆内一个以上的设备提供窄角影像及广角影像。
处理器870可以通过一个线缆将窄角影像及广角影像交替地提供给车辆100内其他设备。
处理器870可以按帧(frame)单位或切片(slice)单位将窄角影像及广角影像交替地提供给设备。
另外,切片可以定义为整体影像按预设定的基准进行划分的单位区域。
例如,处理器870可以在第一时间范围传送窄角影像的第一帧。处理器870可以在第二时间范围传送广角影像的第一帧。处理器870可以在第三时间范围传送窄角影像的第二帧。处理器870可以在第四时间范围传送广角影像的第二帧。随后,处理器870可以按帧单位交替地传送窄角影像及广角影像。
例如,处理器870可以在第一时间范围传送窄角影像的第一切片。处理器870可以在第二时间范围传送广角影像的第一切片。处理器870可以在第三时间范围传送窄角影像的第二切片。随后,处理器870可以按切片单位交替地传送窄角影像及广角影像。
处理器870可以利用两个线缆将窄角影像及广角影像分别传送给车辆内其他设备。
处理器870可以通过接口部880的第一端口提供窄角影像。
处理器870可以通过第一端口按帧单位或切片单位传送窄角影像。
处理器870可以通过接口部880的第二端口提供广角影像。
处理器870可以通过第二端口按帧单位或切片单位传送广角影像。
处理器870可以控制为,将基于窄角影像及广角影像的影像显示在显示部851。
例如,处理器870可以控制为,将基于多个广角影像的环视影像显示在显示部851。
例如,处理器870可以控制为,将基于后方窄角影像的电子镜(e-mirror)影像显示在显示部851。电子镜影像是代替室内镜或侧镜的影像,所述电子镜影像使用户认知到后方状况。电子镜影像可以基于后方相机810b中获取的影像而生成。电子镜影像可以基于左侧方相机810c及右侧方相机810d中获取的影像而生成。
处理器870可以基于窄角影像检测对象。处理器870可以基于窄角影像生成与对象相关的信息。处理器870可以将与对象相关的信息提供给其他设备。
处理器870可以基于广角影像检测对象。处理器870可以基于广角影像生成与对象相关的信息。处理器870可以将与对象相关的信息提供给其他设备。
接口部880可以与车辆100中包括的一个以上的设备进行信息、信号或数据交换。
车辆100中包括的设备可以包括用户接口装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、运行系统700、导航系统770、传感部120、存储器140、控制部170、供电部190。
接口部880可以从车辆100中包括的其他装置接收信息、信号或数据。
接口部880可以将接收到的信息、信号或数据传送给处理器870。
接口部880可以将从处理器870生成或处理的信息、信号或数据传送给车辆100中包括的其他装置。
接口部880可以包括第一端口(port)及第二端口。
第一端口可以与第一线缆相连接。
第二端口可以与第二线缆相连接。
供电部890可根据处理器870的控制而供给各结构要素的动作所需的电源。尤其是,供电部890可接收车辆内部的电池等供给的电源。
图10是本发明的实施例的车辆用环视提供装置的框图。
尤其是,虽然图10中以多个相机810及处理器870为中心进行说明,但是如图9中所述,车辆用环视相机800除了多个相机810及处理器870以外,可以还包括其他结构。
参照图10,多个相机810可以包括前方相机810a、后方相机810b、左侧方相机810c以及右侧方相机810d。
前方相机810a可以包括第一透镜部811a及第一图像传感器814a。
前方相机810a可以以朝向车辆100的前方的方式安装于车辆100。即,与现有技术不同地,前方相机810a不朝向前方路面。
第一透镜部811a可以引导前方影像的中心区域和周边区域的焦距彼此不同。
第一图像传感器814a可以将光信号变换为电信号。
第一图像传感器814a可以包括:与前方影像的中心区域对应的第一像素阵列;与前方影像的周边区域对应的第二像素阵列。
第一像素阵列的像素密度可以与第二像素阵列的像素密度彼此不同。
第一图像传感器814a可以以与地面垂直的方式进行配置。
另外,前方影像的垂直视场角及水平视场角可以彼此相同。
处理器870可以从前方相机810a接收前方影像。
处理器870可以对前方影像执行失真校正。
在中心区域和周边区域的焦距彼此不同的情况下,从中心部越靠近周边部,影像的失真越严重。
处理器870可以采用用于校正失真的影像的变焦失真校正(lens distortioncorrection)来执行失真校正。
后方相机810b可以包括第二透镜部811b及第二图像传感器814b。
后方相机810b可以以朝向车辆100的后方的方式安装于车辆100。即,与现有技术不同地,后方相机810b不朝向后方路面。
第二透镜部811b可以引导所获取的影像的整个区域的焦距保持恒定。
另外,后方影像的垂直视场角及水平视场角可以彼此相同。
第二图像传感器814b可以将光信号变换为电信号。
第二图像传感器814b可以以与地面垂直的方式进行配置。
处理器870可以从后方相机810b接收后方影像。
左侧方相机810c可以包括第三透镜部811c及第三图像传感器814c。
左侧方相机810c可以以朝向车辆100的左侧方的方式安装于车辆100。即,与现有技术不同地,左侧方相机810c不朝向左侧方路面。
第三透镜部811c可以引导左侧方影像的右侧区域和左侧区域的焦距彼此不同。
或者,第三透镜部811c可以引导左侧方影像的中心区域和周边区域的焦距彼此不同。
第三图像传感器814c可以包括:与左侧方影像的右侧区域对应的第三像素阵列;与左侧方影像的左侧区域对应的第四像素阵列。
或者,第三图像传感器814c可以包括:与左侧方影像的中心区域对应的第三像素阵列;与左侧方影像的周边区域对应的第四像素阵列。
第三像素阵列的像素密度可以与第四像素阵列的像素密度彼此不同。
第三图像传感器814c可以以与地面垂直的方式进行配置。
处理器870可以从左侧方相机810c接收左侧方影像。
右侧方相机810d可以包括第四透镜部811d及第四图像传感器814d。
右侧方相机810d可以以朝向车辆100的右侧方的方式安装于车辆100。即,与现有技术不同地,右侧方相机810d不朝向右侧方路面。
第四透镜部811d可以引导右侧方影像的左侧区域和右侧区域的焦距彼此不同。
或者,第四透镜部811d可以引导右侧方影像的中心区域和周边区域的焦距彼此不同。
第四图像传感器814d可以包括:与右侧方影像的左侧区域对应的第五像素阵列;与右侧方影像的右侧区域对应的第六像素阵列。
或者,第四图像传感器814d可以包括:与右侧方影像的中心区域对应的第五像素阵列;与右侧方影像的周边区域对应的第六像素阵列。
第五像素阵列的像素密度可以与第六像素阵列的像素密度彼此不同。
第四图像传感器814d可以与地面垂直的方式进行配置。
处理器870可以从右侧方相机810d接收右侧方影像。
图11A至图11C是在说明本发明的实施例的车辆用环视提供装置的动作时作为参照的图。
图11A是在说明现有技术的车辆中具有的多个相机时作为参照的图。
参照图11A,现有技术的车辆根据影像获取的目的而分别单独地具有相机。
作为用于获取前方影像的相机,车辆包括环视提供装置的前方相机901和对象检测用相机903。
环视提供装置的前方相机901包括广角透镜901a和图像传感器901b。广角透镜901a的垂直视场角为广角。环视提供装置的前方相机901获取广角影像902。
对象检测用相机903包括窄角透镜903a和图像传感器903b。对象检测用相机903获取窄角影像904。
如上所述,现有技术的车辆中具有的相机拍摄相同的拍摄对象,为了根据目的而获取广角影像902及窄角影像904,车辆中具有多个相机。
根据现有技术设置于车辆的相机需要用于安装各个相机的车辆内空间,需要多个线缆,并且因具有多个相机模块而在费用方面上存在浪费。
图11B是在说明本发明的实施例的相机时作为参照的图。
参照图11B,多个相机810中的至少一个相机可以包括透镜部811,所述透镜部811用于引导所获取的影像中包含的两个以上的区域的焦距彼此不同。
透镜部811可以包括第一区域811n(例如,中心区域)及第二区域811w(例如,周边区域)。
第一区域811n可以是用于获取与距车辆100的距离较远的较远距离的对象相关的影像的区域。例如,第一区域811n可以是用于获取与位于距车辆100的距离为80m以上的空间的对象相关的影像的区域。第一区域811n可以是远域(far field)区域。
第一区域811n中透镜部811的焦距可以比第二区域811w中透镜部811的焦距更长。用于获取与位于远距离的对象相关的影像的透镜的焦距需要比用于获取与位于近距离的对象相关的影像的透镜的焦距更长。
第二区域811w可以是用于获取与距车辆100的距离较近的较近距离的对象相关的影像的区域。例如,第二区域811w可以是用于获取与位于距车辆100的距离为80m以内的空间的对象相关的影像的区域。第二区域811w可以是近域(near field)区域。
第二区域811w中透镜部811的焦距可以比第一区域811n中透镜部811的焦距更短。用于获取与位于近距离的对象相关的影像的透镜的焦距需要比用于获取与位于远距离的对象相关的影像的透镜的焦距更短。
通过多个相机810中的至少一个相机获取的影像921可以包含第一区域922a及第二区域922b。
第一区域922a相较于第二区域922b可以是窄角区域。第一区域922a在影像921中可以是中心区域。
第二区域922b相较于第一区域922a可以是广角区域。第二区域922b在影像921中可以是周边区域。
多个相机810中的至少一个相机可以包括图像传感器814,所述图像传感器814包括以与两个以上的区域对应的方式形成的两个以上的像素阵列。
例如,图像传感器814可以包括第一像素阵列及第二像素阵列。
例如,第一像素阵列可以是中心像素阵列。
例如,第二像素阵列可以是周边像素阵列。
像素阵列可以定义为在平面上配置的多个像素的组。
第一像素阵列可以与影像921中的第一区域922a对应。
第一像素阵列可以与透镜811的第一区域811n对应。
第一像素阵列可以将利用透镜811的第一区域811n流入的光转换为电信号。
第二像素阵列可以与影像921中的第二区域922b对应。
第二像素阵列可以与透镜811的第二区域811w对应。
第二像素阵列可以将利用透镜811的第二区域811w流入的光转换为电信号。
另外,处理器870可以包括影像分割部870a。
影像分割部870a可以将影像921的第一区域922a及第二区域922b进行分割并处理。
影像分割部870a可以基于第一区域922a生成窄角影像924。
影像分割部870a可以基于映射函数(mapping function)将第一区域922a及第二区域922b进行合成,从而生成广角影像。
图11C是在说明根据本发明的实施例提供处理器中处理的影像的动作时作为参照的图。
参照图11C,处理器870可以通过接口部880向车辆100内其他设备提供窄角影像及广角影像。
处理器870可以通过单个线缆提供窄角影像及广角影像。
在此情况下,处理器870可以以分割时间的方式交替地提供窄角影像及广角影像。
例如,处理器870可以在第一时间范围传送窄角影像,在第二时间范围传送广角影像,在第三时间范围传送窄角影像,在第四时间范围传送广角影像。
处理器870可以按帧单位传送窄角影像及广角影像。
处理器870可以在报头(header)加载ID并进行传送。
如附图标记951所示,处理器870可以交替地传送窄角影像的帧和广角影像的帧。
如附图标记952所示,处理器870可以交替地传送窄角影像的切片和广角影像的切片。
处理器870可以通过两个线缆提供窄角影像及广角影像。
接口部880可以包括第一端口及第二端口。
在第一端口可以连接第一线缆,在第二端口可以连接第二线缆。
处理器870可以通过第一线缆传送窄角影像,通过第二线缆传送广角影像。
图12A是在说明现有技术的环视提供装置的前方相机时作为参照的图。
参照图12A,现有技术的车辆根据影像获取的目的而分别单独地具有多个相机。
现有技术的车辆具有用于拍摄第一范围971的相机及用于拍摄第二范围972的相机。
用于拍摄第一范围971的相机是对象检测用相机。
用于拍摄第二范围972的相机是环视提供装置的前方相机。
环视提供装置的前方相机以朝向路面的方式设置于车辆。
环视提供装置的前方相机包括透镜973及图像传感器974。
透镜973在水平方向上具有广角。
环视提供装置的前方相机在水平方向上获取广角影像。
图12B是在说明本发明的实施例的前方相机时作为参照的图。
参照图12B,前方相机810a以朝向前方的方式设置于车辆100。
前方相机810a可以生成第一范围991及第二范围992的影像。
第一范围991的影像用于检测对象,第二范围992的影像用于提供环视影像。
第一范围991可以相当于后述的远域,第二范围992相当于后述的近域。
前方相机810a可以包括第一透镜部811a及第一图像传感器814a。
第一透镜部811a可以引导前方影像的第一区域(例如,中心区域)和第二区域(例如,周边区域)的焦距彼此不同。
前方影像的第一区域可以是远域上的影像获取区域。
前方影像的第二区域可以是近域上的影像获取区域。
第一透镜部811a可以包括第一区域993及第二区域994。
第一区域993可以是用于获取相对远距离的影像的区域。
第二区域994可以是用于获取相对近距离的影像的区域。
第一透镜部811a的第一区域993的焦距可以形成为,比第一透镜部811a的第二区域994的焦距更长。
第一透镜部811a的第二区域994的焦距可以形成为,比第一透镜部811a的第一区域993的焦距更短。
第一图像传感器814a可以包括第一像素阵列995及第二像素阵列996。
像素阵列可以定义为在平面上配置的多个像素的组。
第一像素阵列995可以与前方影像的中心区域对应。
第一像素阵列995可以与第一透镜部811a的第一区域993对应。
第一像素阵列995可以是中心像素阵列。
第二像素阵列996可以与前方影像的周边区域对应。
第二像素阵列996可以与第一透镜部811a的第二区域994对应。
第二像素阵列996可以是周边像素阵列。
第一像素阵列995的像素密度可以与第二像素阵列996的像素密度彼此不同。
第一像素阵列995的像素密度可以比第二像素阵列996的像素密度更大。
第二像素阵列996的像素密度可以比第一像素阵列995的像素密度更小。
另外,像素密度可以定义为每单位视场角的像素。或者,像素密度可以定义为图像传感器814的每单位面积的像素。
图13A是在说明现有技术的环视提供装置的后方相机时作为参照的图。
参照图13A,现有技术的车辆可以根据影像获取的目的而分别单独地具有多个相机。
现有技术的车辆具有用于拍摄第一范围1011的相机及用于拍摄第二范围1012的相机。
用于拍摄第二范围1012的相机是环视提供装置的后方相机。
用于拍摄第一范围1011的相机是后视影像输出用相机。
环视提供装置的后方相机以朝向路面的方式设置于车辆。
环视提供装置的后方相机包括透镜1013及图像传感器。
透镜1013在水平方向上具有广角。
环视提供装置的后方相机在水平方向上获取广角影像。
图13B是在说明本发明的实施例的后方相机时作为参照的图。
参照图13B,后方相机810b可以以朝向后方的方式设置于车辆100。
后方相机810b可以生成第一范围1031及第二范围1032的影像。
第一范围1031的影像用于提供后方电子镜影像,第二范围1032的影像用于提供环视影像。
第一范围1031可以相当于后述的远域,第二范围1032可以相当于后述的近域。
后方相机810b可以包括第二透镜部811b及第二图像传感器814b。
第二透镜部811b可以在水平方向及垂直方向上具有广角。
第二透镜部811b的水平视场角及垂直视场角可以相同。
图14A是在说明现有技术的环视提供装置的左侧方相机及右侧方相机时作为参照的图。
参照图14A,现有技术的车辆根据影像获取的目的而分别单独地具有多个相机。
现有技术的车辆具有用于拍摄第一范围1051的相机及用于拍摄第二范围1052的相机。
用于拍摄第二范围1052的相机是环视提供装置的右侧方相机。
用于拍摄第一范围1051的相机是用于拍摄右侧后方电子镜影像的相机。
环视提供装置的右侧方相机以朝向路面的方式设置于车辆。
环视提供装置的右侧方相机包括透镜1053及图像传感器1054。
透镜1053在水平方向上具有广角。
环视影像提供装置的右侧方相机在水平方向上获取广角影像。
图14B至图14C是在说明本发明的实施例的左侧方相机及右侧方相机时作为参照的图。
图14B至图14C例示出右侧方相机810d。左侧方相机810c以车辆100的总宽度方向的中心为基准与右侧方相机810d呈左右对称。
参照图14B,右侧方相机810d可以以朝向右侧方的方式设置于车辆100。
右侧方相机810d可以生成第一范围1071及第二范围1072的影像。
第一范围1071的影像用于提供右侧后方的电子镜影像,第二范围1072的影像用于提供环视影像。
第一范围1071可以相当于后述的远域,第二范围1702可以相当于后述的近域。
右侧方相机810d可以包括第四透镜部811d及第四图像传感器814d。
第四透镜部811d可以引导右侧方影像的第一区域(例如,左侧区域)及第二区域(例如,右侧区域)的焦距彼此不同。
右侧方影像的第一区域可以是远域上的影像获取区域。
右侧方影像的第二区域可以是近域上的影像获取区域。
第四透镜部811d可以包括第一区域1073及第二区域1074。
第一区域1073可以是用于拍摄相对远距离的影像的区域。
第二区域1074可以是用于拍摄相对近距离的影像的区域。
第四透镜部811d的第一区域1073的焦距可以形成为,比第四透镜部811d的第二区域1074的焦距更长。
第四透镜部811d的第二区域1074的焦距可以形成为,比第四透镜部811d的第一区域1073的焦距更短。
第四图像传感器814d可以包括第五像素阵列1075及第六像素阵列1076。
第五像素阵列1075可以与右侧方影像的左侧区域对应。
第五像素阵列1075可以与第四透镜部811d的第一区域1073对应。
第六像素阵列1076可以与右侧方影像的右侧区域对应。
第六像素阵列1076可以与第四透镜部811d的第二区域1074对应。
第五像素阵列1075的像素密度可以与第六像素阵列1076的像素密度彼此不同。
第五像素阵列1075的像素密度可以比第六像素阵列1076的像素密度更大。
第六像素阵列1076的像素密度可以比第五像素阵列1075的像素密度更小。
左侧方相机810c可以以朝向左侧方的方式设置于车辆100。
左侧方相机810c可以生成第一范围及第二范围的影像。
第一范围的影像用于提供左侧后方的电子镜影像,第二范围的影像用于提供环视影像。
第一范围1071可以相当于后述的远域,第二范围1072可以相当于后述的近域。
左侧方相机810c可以包括第三透镜部811c及第三图像传感器814c。
第三透镜部811c可以引导左侧方影像的第一区域(例如,右侧区域)及第二区域(例如,左侧区域)的焦距彼此不同。
左侧方影像的第一区域可以是远域上的影像获取区域。
左侧方影像的第二区域可以是近域上的影像获取区域。
第三透镜部811c可以包括第一区域及第二区域。
第一区域可以是用于获取相对远距离的影像的区域。
第二区域可以是用于获取相对近距离的影像的区域。
第三透镜部811c的第一区域的焦距可以形成为,比第三透镜部811c的第二区域的焦距更长。
第三透镜部811c的第二区域的焦距可以形成为,比第三透镜部811c的第一区域的焦距更短。
第三图像传感器814c可以包括第三像素阵列及第四像素阵列。
第三像素阵列可以与左侧方影像的右侧区域对应。
第三像素阵列可以与第三透镜部811c的第一区域对应。
第四像素阵列可以与左侧方影像的左侧区域对应。
第四像素阵列可以与第三透镜部811c的第二区域对应。
第三像素阵列的像素密度可以与第四像素阵列的像素密度彼此不同。
第三像素阵列的像素密度可以比第四像素阵列的像素密度更大。
第四像素阵列的像素密度可以比第三像素阵列的像素密度更小。
参照图14C,右侧方相机810d可以包括第四透镜部811d及第四图像传感器814d。
第四透镜部811d可以引导右侧方影像的第一区域(例如,中心区域)及第二区域(例如,周边区域)的焦距彼此不同。
第四透镜部811d可以包括第一区域1093及第二区域1094。
第一区域1093可以是用于获取相对远距离的影像的区域。
第二区域1094可以是用于获取相对近距离的影像的区域。
第四透镜部811d的第一区域1093的焦距可以形成为比第四透镜部811d的第二区域1094的焦距更长。
第四透镜部811d的第二区域1094的焦距可以形成为比第四透镜部811d的第一区域1093的焦距更短。
第四图像传感器814d可以包括第五像素阵列1095及第六像素阵列1096。
第五像素阵列1095可以与右侧方影像的中心区域对应。
第五像素阵列1095可以与第四透镜部811d的第一区域1093对应。
第六像素阵列1096可以与右侧方影像的周边区域对应。
第六像素阵列1096可以与第四透镜部811d的第二区域1094对应。
第五像素阵列1095的像素密度可以与第六像素阵列1096的像素密度彼此不同。
第五像素阵列1095的像素密度可以比第六像素阵列1096的像素密度更小。
第六像素阵列1096的像素密度可以比第五像素阵列1095的像素密度更大。
左侧方相机810c可以包括第三透镜部811c及第三图像传感器814c。
第三透镜部811c可以引导左侧方影像的第一区域(例如,中心区域)及第二区域(例如,周边区域)的焦距彼此不同。
第三透镜部811c可以包括第一区域及第二区域。
第一区域可以是用于获取相对远距离的影像的区域。
第二区域可以是用于获取相对近距离的影像的区域。
第三透镜部811c的第一区域的焦距可以形成为比第三透镜部811c的第二区域的焦距更长。
第三透镜部811c的第二区域的焦距可以形成为比第三透镜部811c的第一区域的焦距更短。
第三图像传感器814c可以包括第三像素阵列及第四像素阵列。
第三像素阵列可以与左侧方影像的中心区域对应。
第三像素阵列可以与第三透镜部811c的第一区域对应。
第四像素阵列可以与左侧方影像的周边区域对应。
第四像素阵列可以与第三透镜部811c的第二区域对应。
第三像素阵列的像素密度可以与第四像素阵列的像素密度彼此不同。
第三像素阵列的像素密度可以比第四像素阵列的像素密度更小。
第四像素阵列的像素密度可以比第三像素阵列的像素密度更大。
图15A是为了说明本发明的实施例的远域(far field)及近域(near field)而作为参照的概念图。
参照图15A,以从车辆100向车辆100前方隔开的基准距离1100为基准,比基准距离1100更远的空间可以定义为远域1131(far field)。
例如,远域1131可以表示从车辆100向车辆100的前方隔开80m以上的空间。
比基准距离1100更近的空间可以定义为近域1132(near field)。
例如,近域1132可以表示在车辆100的前方从车辆100隔开80m以内的空间。
车辆用相机装置310可以获取与位于远域的对象1111、1112相关的影像、与位于近域的对象1121、1122、1123相关的影像。
图15B是在说明本发明的实施例的影像获取区域时作为参照的图。
参照图15B,多个影像获取区域可以包括中心区域1141及周边区域1142。
中心区域1141可以是远域上的影像获取区域。中心区域1141可以是在透镜部811和图像传感器814之间形成的空间中用于获取远域上的影像的区域。
周边区域1142可以是近域上的影像获取区域。周边区域1142可以是在透镜部811和图像传感器814之间形成的空间中用于获取近域上的影像的区域。
中心区域1141中透镜部811的焦距可以形成为,比周边区域1142中透镜部811的焦距更长。
中心区域1141中的透镜部811可以与位于远域的对象检测相适应的方式形成。周边区域1142中的透镜部811可以与位于近域的对象检测相适应的方式形成。因此,中心区域1141中透镜部811的焦距需要比周边区域1142中透镜部811的焦距更长。
中心区域1141中透镜部811的视场角可以形成为,比周边区域1142中透镜部811的视场角更窄。
中心区域1141中的透镜部811以与位于远域的对象检测相适应的方式形成。周边区域1142中的透镜部811以与位于近域的对象检测相适应的方式形成。因此,中心区域中透镜部811的视场角需要形成为,比周边区域中透镜部811的视场角更窄。
图16是在说明本发明的实施例的车辆用相机装置的结构时作为参照的概念图。
参照图16,透镜部811可以包括:参考透镜1210(reference lens)、分区透镜1220(zonal lens)以及场透镜1230(field lens)。
例如,第一透镜部811a、第二透镜部811b、第三透镜部811c以及第四透镜部811d中的至少一个可以包括:参考透镜1210(reference lens)、分区透镜1220(zonal lens)以及场透镜1230(field lens)。
参考透镜1210可以在多个影像获取区域使光透过。
参考透镜1210可以具有固定的焦距。
例如,参考透镜1210可以是具有短的焦距的透镜(short focal lens)。
例如,参考透镜1210可以是具有长的焦距的透镜(long focal lens)。
参考透镜1210可以在多个影像获取区域具有均匀的焦距。
分区透镜1220可以配置于参考透镜1210和图像传感器814之间。
分区透镜1220可以引导多个影像获取区域进行划分。多个影像获取区域可以根据透过参考透镜1210的光是否透过分区透镜1220而进行划分。
例如,在多个影像获取区域中,透过参考透镜1210的光透过分区透镜1220的区域可以被划分为中心区域1141。在此情况下,在多个影像获取区域中,透过参考透镜1210的光不透过分区透镜1220的区域可以被划分为周边区域1142(图12B中说明的实施例)。
例如,在多个影像获取区域中,透过参考透镜1210的光不透过分区透镜1220的区域可以被划分为中心区域1141。在此情况下,在多个影像获取区域中,透过参考透镜1210的光透过分区透镜1220的区域可以被划分为周边区域1142(图14B、图14C中说明的实施例)。
根据透过参考透镜1210的光是否透过分区透镜1220,多个影像获取区域各自的焦距可以彼此不同。
例如,在参考透镜1210为具有短的焦距的透镜的情况下,透过参考透镜1210的光透过分区透镜1220的区域的焦距可以变长。
例如,在参考透镜1210为具有长的焦距的透镜的情况下,透过参考透镜1210的光透过分区透镜1220的区域的焦距可以变短。
场透镜1230可以将在不是图像传感器814的平面的其他平面上结成的图像传送给图像传感器814的平面。
图像传感器814可以基于中心区域1141中透镜部811的焦距进行配置。图像传感器814可以配置于中心区域1141中结成图像的平面。
在此情况下,就图像传感器814的位置而言,可能不与周边区域1142中透镜部811的焦距匹配。图像传感器814可能不配置于周边区域1141中结成图像的平面。
在此情况下,场透镜1230可以将周边区域1141中结成的图像传送给配置有图像传感器814的平面。
图17至图20是为了说明本发明的具体的实施例的车辆用相机装置而作为参照的图。
图17至图20是从上方观察车辆用相机装置的结构的一部分的图。
参照图17,多个影像获取区域可以包括中心区域1141及周边区域1142。
中心区域1141可以是透过参考透镜1210的光透过分区透镜1220的区域。
周边区域1142可以是透过参考透镜1210的光不透过分区透镜1220的区域。
参考透镜1210可以是具有第一焦距的透镜。参考透镜1210可以是短焦距透镜(short focal lens)。
分区透镜1220可以配置于参考透镜1210和图像传感器814之间。
分区透镜1220可以与参考透镜1210的中心部相匹配的方式进行配置。
根据实施例,参考透镜1210和分区透镜1220可以以一体的方式形成。
分区透镜1220可以引导中心区域1141中透镜部811的焦距比周边区域1142中透镜部811的焦距更长。
图像传感器814可以配置于中心区域1141中形成图像的第一平面1301上。其中,第一平面可以是,在中心区域1141中因经过透镜部811的光而结成图像的虚拟的平面。
透镜部811可以还包括场透镜1230。场透镜1230可以将在第二平面1302上形成的周边区域1142的图像传送给图像传感器814,其中,所述第二平面1302指,位于与第一平面1301不同的其它位置的平面。第二平面可以是,在周边区域中因经过透镜部811的光而结成图像的虚拟的平面。第二平面可以具有与第一平面不同的位置。
由于中心区域1141中的焦距和周边区域1142中的焦距彼此不同,因此结成图像的平面将不同。在此情况下,场透镜1230将在不是图像传感器814的平面的其他平面1302上结成的图像传送给图像传感器814的平面1301。
参照图18,多个影像获取区域可以包括中心区域1141及周边区域1142。
中心区域1141可以是透过参考透镜1210的光不透过分区透镜1220的区域。
周边区域1142可以是透过参考透镜1210的光透过分区透镜1220的区域。
参考透镜1210可以是具有第二焦距的透镜。参考透镜1210可以是长焦距透镜(long focal lens)。
分区透镜1220(zonal lens)可以配置于参考透镜1210和图像传感器814之间。
分区透镜1220可以与参考透镜1210的周边部相匹配的方式进行配置。
根据实施例,参考透镜1210和分区透镜1220可以以一体的方式形成。
分区透镜1220可以引导周边区域1142中透镜部811的焦距比中心区域1141中透镜部811的焦距更短。
图像传感器814可以配置于中心区域1141中形成图像的第一平面1301上。其中,第一平面可以是,在中心区域1141中因经过透镜部811的光而结成图像的虚拟的平面。
透镜部811可以还包括场透镜1230。场透镜1230可以将在第二平面1302上形成的周边区域1142的图像传送给图像传感器814,其中,所述第二平面1302指,位于与第一平面1301不同的其它位置的平面。第二平面可以是,在周边区域中因经过透镜部811的光而结成图像的虚拟的平面
由于中心区域1141中的焦距和周边区域1142中的焦距彼此不同,因此结成图像的平面将不同。在此情况下,场透镜1230将在不是图像传感器814的平面的其他平面1302上结成的图像传送给图像传感器814的平面1301。
参照图19,透镜部811可以包括参考透镜1210、分束器1510(beam splitter)。
参考透镜1210(reference lens)可以是具有第一焦距的透镜。参考透镜1210可以是短焦距透镜(short focal lens)。
参考透镜1210可以是具有第二焦距的透镜。参考透镜1210可以是长焦距透镜(long focal lens)。
分束器1510可以配置于参考透镜1210和图像传感器814之间。
分束器1510可以将入射的光分离为具有第一光路径的第一光及具有第二光路径的第二光。
分束器1510可以包括棱镜。
多个影像获取区域可以包括中心区域1141及周边区域1142。
中心区域1141可以是利用第一光获取图像的区域。
周边区域1142可以是利用第二光获取图像的区域。
另外,图像传感器814可以包括第一图像传感器814a及第二图像传感器814b。
第一图像传感器814a可以包括中心像素阵列。第一图像传感器814a可以将第一光转换为电信号。
第一图像传感器814a可以配置于中心区域1141中形成图像的第一平面1301上。
第二图像传感器814b可以包括周边像素阵列。第二图像传感器814b可以将第二光转换为电信号。
第二图像传感器814b可以配置于周边区域1142中形成图像的第二平面1302上。第二平面的位置可以与第一平面的位置不同。
透镜部811可以还包括附加透镜1520(additional lens)。
附加透镜1520可以配置于分束器1510和第一图像传感器814a之间。
在此情况下,附加透镜1520可以调节中心区域1141中透镜部811的焦距。
在参考透镜1210为具有第一焦距的透镜的情况下,附加透镜1520可以引导中心区域1141中透镜部811的焦距比周边区域1142中透镜部811的焦距更长。
附加透镜1520可以配置于分束器1510和第二图像传感器814b之间。
在此情况下,附加透镜1520可以调节周边区域1142中透镜部811的焦距。
在参考透镜1210为具有第二焦距的透镜的情况下,附加透镜1520可以引导周边区域1142中透镜部811的焦距比中心区域1141中透镜部811的焦距更短。
如上所述,通过设置附加透镜1520,能够调节图像传感器814的配置位置。
透镜部811可以还包括场透镜。
场透镜可以配置于分束器1510和第一图像传感器814a之间。
场透镜可以将中心区域中在不是配置有第一图像传感器814a的平面的其他平面上结成的图像传送给配置有第一图像传感器814a的平面。
场透镜可以配置于分束器1510和第二图像传感器814b之间。
场透镜可以将周边区域中在不是配置有第二图像传感器814b的平面的其他平面上结成的图像传送给配置有第二图像传感器814b的平面。
根据实施例,处理器970可以在通过第一图像传感器814a获取的影像中裁剪(crop)与中心区域对应的部分而获取。
处理器970可以在通过第二图像传感器814b获取的影像中裁剪(crop)与周边区域对应的部分而获取。
参照图20,透镜部811可以包括:第一参考透镜1210a、第二参考透镜1210b以及屋脊棱镜1610。
第一参考透镜1210a可以是具有第一焦距的透镜。第一参考透镜1210a可以是长焦距透镜(long focal lens)。
第一参考透镜1210a可以位于第一光路径1601上。
第二参考透镜1210b可以是具有第二焦距的透镜。第二参考透镜1210b可以是短焦距透镜(short focal lens)。
第二参考透镜1210b可以位于第二光路径1602上。第二光路径1602可以是与第一光路径1601不同的光路径。
屋脊棱镜1610可以位于第二光路径1602上。屋脊棱镜1610可以配置于第二参考透镜1210b的前方。光可以经过屋脊棱镜1610而入射到第二参考透镜1210b。
另外,多个影像获取区域可以包括中心区域1141及周边区域1142。
中心区域1141可以是透过第一参考透镜1210a的区域。
周边区域1142可以是透过屋脊棱镜1610及第二参考透镜1210b的区域。
另外,第一参考透镜1210a可以在水平方向上具有规定的视角。第一参考透镜1210a的视角可以被定义为第一角度。
另外,屋脊棱镜1610可以包括第一入射面1611及第二入射面1612。
通过第一入射面1611流入的光的水平方向的角度可以被定义为第三角度。
通过第二入射面1612流入的光的水平方向的角度可以被定义为第四角度。
从流入到第二参考透镜1210b的光的水平方向的角度中减去第三角度及第四角度的角度可以被定义为第二角度。
第一角度至第四角度具有如下的关系。
第一角度可以大于等于第二角度。第三角度可以大于等于第一角度。第四角度可以大于等于第一角度。第三角度可以大于等于第四角度。第四角度可以大于等于第三角度。
图像传感器814可以包括第一图像传感器814a及第二图像传感器814b。
第一图像传感器814a可以包括中心像素阵列。第一图像传感器814a可以将第一光转换为电信号。
第一图像传感器814a可以配置于中心区域1141中形成图像的第一平面1301上。
第二图像传感器814b可以包括周边像素阵列。第二图像传感器814b可以将第二光转换为电信号。
第二图像传感器814b可以配置于周边区域1142中形成图像的第二平面1302上。第二平面的位置可以与第一平面的位置不同。
上述的本发明可由在记录有程序的介质中计算机可读取的代码来实现。计算机可读取的介质包括存储有可由计算机系统读取的数据的所有种类的记录装置。计算机可读取的介质的例有硬盘驱动器(Hard Disk Drive,HDD)、固态盘(Solid State Disk,SSD)、硅盘驱动器(Silicon Disk Drive,SDD)、ROM、RAM、CD-ROM、磁带、软盘、光数据存储装置等,并且也可以以载波(例如,基于因特网的传输)的形态实现。并且,所述计算机也可包括处理器或控制部。因此,以上所述的详细的说明在所有方面不应被理解为是限制性的,而是应当被理解为是例示性的。本发明的范围应当由对所附的权利要求书的合理的解释而定,本发明的等价范围内的所有变更应当落入本发明的范围。

Claims (20)

1.一种车辆用环视提供装置,其中,
包括:
多个相机,以及
处理器,对通过多个所述相机获取的多个影像进行处理;
多个所述相机中的一个以上包括透镜部,所述透镜部能够使所获取的影像中包含的两个以上的区域的焦距彼此不同。
2.根据权利要求1所述的车辆用环视提供装置,其中,
所述影像包含相对为窄角的第一区域及相对为广角的第二区域。
3.根据权利要求2所述的车辆用环视提供装置,其中,
所述处理器将所述第一区域及所述第二区域分离来进行处理。
4.根据权利要求3所述的车辆用环视提供装置,其中,
所述处理器基于所述第一区域生成窄角影像,
所述处理器基于映射函数将所述第一区域和所述第二区域进行合成,从而生成广角影像。
5.根据权利要求4所述的车辆用环视提供装置,其中,
还包括接口部,所述接口部与车辆内一个以上的设备交换数据,
所述处理器向一个以上的所述设备提供所述窄角影像及所述广角影像。
6.根据权利要求5所述的车辆用环视提供装置,其中,
所述处理器以帧为单位或以切片为单位,将所述窄角影像及所述广角影像交替地提供给所述设备。
7.根据权利要求5所述的车辆用环视提供装置,其中,
所述接口部包括第一端口及第二端口,
所述处理器通过所述第一端口提供所述窄角影像,
所述处理器通过所述第二端口提供所述广角影像。
8.根据权利要求4所述的车辆用环视提供装置,其中,
还包括显示部,
所述处理器控制为,将基于所述窄角影像及所述广角影像的影像显示在所述显示部。
9.根据权利要求1所述的车辆用环视提供装置,其中,
多个所述相机中的一个以上包括图像传感器,所述图像传感器包括以与两个以上的所述区域对应的方式形成的两个以上的像素阵列,将经过所述透镜部分别入射到两个以上的所述像素阵列的光转换为电信号。
10.根据权利要求9所述的车辆用环视提供装置,其中,
两个以上的所述像素阵列具有彼此不同的像素密度。
11.根据权利要求1所述的车辆用环视提供装置,其中,
多个所述相机包括用于获取车辆前方影像的前方相机,
所述前方相机包括第一透镜部,所述第一透镜部能够使所述前方影像的中心区域和周边区域的焦距彼此不同。
12.根据权利要求11所述的车辆用环视提供装置,其中,
所述前方影像的垂直视场角及水平视场角彼此相同。
13.根据权利要求11所述的车辆用环视提供装置,其中,
所述前方相机包括第一图像传感器,所述第一图像传感器包括与所述中心区域对应的第一像素阵列及与所述周边区域对应的第二像素阵列,
所述第一像素阵列的像素密度与所述第二像素阵列的像素密度彼此不同。
14.根据权利要求11所述的车辆用环视提供装置,其中,
所述处理器对所述前方影像执行失真校正。
15.根据权利要求1所述的车辆用环视提供装置,其中,
多个所述相机包括用于获取车辆后方影像的后方相机,
所述后方相机包括第二透镜部,所述第二透镜部能够使所获取的影像的整个区域的焦距保持恒定。
16.根据权利要求15所述的车辆用环视提供装置,其中,
所述后方影像的垂直视场角及水平视场角彼此相同。
17.根据权利要求1所述的车辆用环视提供装置,其中,
多个所述相机包括用于获取车辆左侧方影像的左侧方相机,
所述左侧方相机包括第三透镜部,所述第三透镜部能够使所述左侧方影像的右侧区域和左侧区域的焦距彼此不同。
18.根据权利要求17所述的车辆用环视提供装置,其中,
所述左侧方相机包括第三图像传感器,所述第三图像传感器包括与所述右侧区域对应的第三像素阵列及与所述左侧区域对应的第四像素阵列,
所述第三像素阵列的像素密度与所述第四像素阵列的像素密度彼此不同。
19.根据权利要求1所述的车辆用环视提供装置,其中,
多个所述相机包括用于获取车辆右侧方影像的右侧方相机,
所述右侧方相机包括第四透镜部,所述第四透镜部能够使通过所述右侧方相机获取的影像的左侧区域和右侧区域的焦距彼此不同。
20.根据权利要求19所述的车辆用环视提供装置,其中,
所述右侧方相机包括第四图像传感器,所述第四图像传感器包括与所述左侧区域对应的第五像素阵列及与所述右侧区域对应的第六像素阵列,
所述第五像素阵列的像素密度与所述第六像素阵列的像素密度彼此不同。
CN201810973986.9A 2017-08-29 2018-08-24 车辆用环视提供装置及车辆 Active CN109421600B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0109682 2017-08-29
KR1020170109682A KR102012776B1 (ko) 2017-08-29 2017-08-29 차량용 어라운드 뷰 제공 장치 및 차량

Publications (2)

Publication Number Publication Date
CN109421600A true CN109421600A (zh) 2019-03-05
CN109421600B CN109421600B (zh) 2022-07-26

Family

ID=63173900

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810973986.9A Active CN109421600B (zh) 2017-08-29 2018-08-24 车辆用环视提供装置及车辆

Country Status (4)

Country Link
US (1) US10800330B2 (zh)
EP (1) EP3450255A1 (zh)
KR (1) KR102012776B1 (zh)
CN (1) CN109421600B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110161529A (zh) * 2019-06-10 2019-08-23 炬佑智能科技(苏州)有限公司 Tof传感器及其形成方法、机器视觉系统
CN110161530A (zh) * 2019-06-10 2019-08-23 炬佑智能科技(苏州)有限公司 Tof传感器及其形成方法、机器视觉系统
CN112565673A (zh) * 2019-09-26 2021-03-26 歌乐株式会社 显示控制装置及显示控制方法
CN113706479A (zh) * 2021-08-12 2021-11-26 北京三快在线科技有限公司 无人车测距方法、装置、存储介质及无人车
CN116262472A (zh) * 2021-12-15 2023-06-16 玛泽森创新有限公司 车辆后视系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492507B (zh) * 2017-09-12 2022-09-23 阿波罗智能技术(北京)有限公司 红绿灯状态的识别方法及装置、计算机设备及可读介质
KR102441079B1 (ko) * 2017-11-30 2022-09-06 현대자동차주식회사 차량의 디스플레이 제어 장치 및 방법
JP2020161987A (ja) * 2019-03-27 2020-10-01 ソニー株式会社 車両用撮影システム
US10609148B1 (en) * 2019-09-17 2020-03-31 Ha Q Tran Smart vehicle
US11214196B1 (en) 2020-07-31 2022-01-04 Volkswagen Aktiengesellschaft Apparatus, system and method for enhanced driver vision based on road level characteristics
CN112085669A (zh) * 2020-08-17 2020-12-15 广州市安晓科技有限责任公司 一种360环视全景的车底去黑块方法
JP7400705B2 (ja) * 2020-11-30 2023-12-19 トヨタ自動車株式会社 撮像システム及び撮像装置
KR20220089787A (ko) * 2020-12-21 2022-06-29 현대모비스 주식회사 차량용 카메라 및 이를 구비한 주차보조 장치
US20220396279A1 (en) * 2021-06-14 2022-12-15 Pony Ai Inc. Autonomous or semi-autonomous vehicle electronic architecture
EP4316912A1 (en) * 2022-08-03 2024-02-07 Aptiv Technologies Limited Vehicle camera, camera system, video processing method, software, and vehicle incorporating the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09139878A (ja) * 1995-11-16 1997-05-27 Nippon Telegr & Teleph Corp <Ntt> 画像処理システム
CN1869756A (zh) * 2005-05-26 2006-11-29 株式会社电装 成像模块
CN102348059A (zh) * 2010-07-27 2012-02-08 三洋电机株式会社 摄像装置
CN104506762A (zh) * 2014-12-25 2015-04-08 北京智谷睿拓技术服务有限公司 光场采集控制方法和装置、光场采集设备
WO2015090997A1 (de) * 2013-12-17 2015-06-25 Volkswagen Aktiengesellschaft Optisches sensorsystem
JP2016054487A (ja) * 2015-10-13 2016-04-14 株式会社 清原光学 撮像装置および結像レンズ
CN106414174A (zh) * 2014-05-29 2017-02-15 株式会社小糸制作所 车辆外部监视装置和拍摄装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110038028A1 (en) * 2008-04-23 2011-02-17 Saman Dharmatilleke Optical Imaging Lens systems and components
KR102149273B1 (ko) * 2013-12-10 2020-08-28 한화테크윈 주식회사 번호판 인식 방법 및 장치
KR101603609B1 (ko) * 2014-07-15 2016-03-28 현대모비스 주식회사 차량용 어라운드 뷰 모니터링 시스템 및 이의 방법
KR20160076736A (ko) * 2014-12-23 2016-07-01 에스엘 주식회사 차량의 주변 감시 장치 및 방법
US10187590B2 (en) * 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
KR101763386B1 (ko) * 2016-04-29 2017-08-02 (주)크레이티브인피니티 어라운드뷰 및 블랙박스 겸용 듀얼 카메라 및 이를 적용한 차량 영상 통합 처리 시스템
US10328934B2 (en) * 2017-03-20 2019-06-25 GM Global Technology Operations LLC Temporal data associations for operating autonomous vehicles
US10699142B2 (en) * 2017-04-20 2020-06-30 GM Global Technology Operations LLC Systems and methods for traffic signal light detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09139878A (ja) * 1995-11-16 1997-05-27 Nippon Telegr & Teleph Corp <Ntt> 画像処理システム
CN1869756A (zh) * 2005-05-26 2006-11-29 株式会社电装 成像模块
CN102348059A (zh) * 2010-07-27 2012-02-08 三洋电机株式会社 摄像装置
WO2015090997A1 (de) * 2013-12-17 2015-06-25 Volkswagen Aktiengesellschaft Optisches sensorsystem
CN106414174A (zh) * 2014-05-29 2017-02-15 株式会社小糸制作所 车辆外部监视装置和拍摄装置
CN104506762A (zh) * 2014-12-25 2015-04-08 北京智谷睿拓技术服务有限公司 光场采集控制方法和装置、光场采集设备
JP2016054487A (ja) * 2015-10-13 2016-04-14 株式会社 清原光学 撮像装置および結像レンズ

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110161529A (zh) * 2019-06-10 2019-08-23 炬佑智能科技(苏州)有限公司 Tof传感器及其形成方法、机器视觉系统
CN110161530A (zh) * 2019-06-10 2019-08-23 炬佑智能科技(苏州)有限公司 Tof传感器及其形成方法、机器视觉系统
CN112565673A (zh) * 2019-09-26 2021-03-26 歌乐株式会社 显示控制装置及显示控制方法
CN112565673B (zh) * 2019-09-26 2023-09-01 歌乐株式会社 显示控制装置及显示控制方法
CN113706479A (zh) * 2021-08-12 2021-11-26 北京三快在线科技有限公司 无人车测距方法、装置、存储介质及无人车
CN116262472A (zh) * 2021-12-15 2023-06-16 玛泽森创新有限公司 车辆后视系统

Also Published As

Publication number Publication date
KR20190023637A (ko) 2019-03-08
EP3450255A1 (en) 2019-03-06
US10800330B2 (en) 2020-10-13
CN109421600B (zh) 2022-07-26
US20190061621A1 (en) 2019-02-28
KR102012776B1 (ko) 2019-08-21

Similar Documents

Publication Publication Date Title
CN109421600A (zh) 车辆用环视提供装置及车辆
CN108216032B (zh) 车辆用环视监控装置、车辆运行控制装置以及车辆
CN109532837A (zh) 设置于车辆的电子装置、车辆以及计算机可读取的介质
CN110869901B (zh) 车辆用的用户界面装置和车辆
CN108974122A (zh) 停车辅助系统
EP3229458A1 (en) Driver assistance apparatus
CN108928351A (zh) 车辆用用户界面装置
CN109910749A (zh) 设于车辆的车辆控制装置及车辆的控制方法
CN109693665A (zh) 自动驻车装置及其控制方法
EP3398820A1 (en) Smart key for vehicle
EP3571084B1 (en) User interface apparatus for vehicle and vehicle
CN107380056A (zh) 车辆用照明装置以及车辆
CN108928342A (zh) 车辆用驻车系统及车辆
CN109849906A (zh) 自主行驶车辆及其控制方法
CN110167809A (zh) 车辆行驶控制装置及方法
CN109249939A (zh) 用于车辆的驱动系统和车辆
CN109542096A (zh) 控制车辆的运行系统的方法及车辆的运行系统
CN107867227A (zh) 车辆驾驶辅助装置
CN107021017A (zh) 车辆用环视提供装置以及车辆
CN109664887A (zh) 自主行驶车辆及其控制方法
US11237391B2 (en) Head-up display device for vehicle
KR101859040B1 (ko) 차량용 카메라 장치 및 방법
US10855906B2 (en) Camera apparatus for vehicle, and vehicle
CN110226102B (zh) 车辆用雷达装置及车辆
EP3422081A1 (en) Head-up display device for vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant