CN103140377B - 用于在显示装置上显示图像的方法和驾驶员辅助系统 - Google Patents
用于在显示装置上显示图像的方法和驾驶员辅助系统 Download PDFInfo
- Publication number
- CN103140377B CN103140377B CN201180047197.9A CN201180047197A CN103140377B CN 103140377 B CN103140377 B CN 103140377B CN 201180047197 A CN201180047197 A CN 201180047197A CN 103140377 B CN103140377 B CN 103140377B
- Authority
- CN
- China
- Prior art keywords
- image
- surrounding
- motor vehicles
- map
- assistance system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
- G01C21/367—Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/302—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/306—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/70—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
可获得一种用于在机动车辆(1)中的驾驶员辅助系统(2)的显示装置(3)上显示图像(15、18、21)的方法。通过驾驶员辅助系统(2)接收导航数据,通过驾驶员辅助系统(2)的至少一个传感器(5a至5d)获取关于机动车辆(1)的周围环境区域(10至13)的传感器数据。控制装置(4)处理传感器数据,以形成周围环境区域图像(15、18),所述周围环境区域图像显示靠近机动车辆(1’)的至少一个周围环境区域(16、19)。地图图像(21)显示在显示装置(3)上,所述地图图像在考虑了被存储的地图数据上的导航数据的同时被产生。地图图像(21)的扩大或放大在显示装置(3)上发生。在达到地图图像(21)的预先确定的制图比例尺(缩放因子)之后,存在由地图图像(21)向周围环境区域图像(15、18)的变化。还可获得用于执行该方法的驾驶员辅助系统(2)。
Description
技术领域
本发明涉及一种用于在机动车辆中的驾驶员辅助系统的显示装置上显示图像的方法。本发明还涉及一种用于机动车辆的驾驶员辅助系统;和用于执行该方法的驾驶员辅助系统。
背景技术
用于机动车辆的显示装置从现有技术中已知有多种构造。已知使用显示器;但是,还可使用图像投影仪(称为抬头显示器),图像通过所述图像投影仪可以被投影到机动车辆的挡风玻璃。
现有技术还包括在机动车辆上使用光学摄像头,所述摄像头捕获机动车辆的周围环境。则可以基于摄像头的图像数据产生周围环境图像,该图像自鸟瞰视角显示机动车辆和周围环境。对于这样的透视图示,所有摄像头的图像数据,例如来自两个、三个或四个摄像头的图像数据,被混合和一起处理。这样的周围环境图像则可以显示在显示装置上。驾驶员则可以基于这样的周围环境图像得到关于机动车辆和位于周围环境中的物体之间的距离的结论。因此可以避免机动车辆和车辆之外的物体之间的碰撞。
这里的关注点特别地在周围环境图像中,该周围环境图像基于至少一个摄像头的图像数据产生,且自鸟瞰视角显示车辆附近的周围环境区域和优选地还有机动车辆的至少一个区域。以该方式,机动车辆的周围环境区域可以真实地展示在显示装置上。但是,这样的周围环境图像还可基于来自其他传感器的传感器数据而产生。例如,超声传感器的超声波数据可以被处理以形成周围环境图像,该周围环境图像则具体地以示意图示显示机动车辆的周围环境区域,例如,借助示意符号或借助略图。雷达装置的雷达数据和其他传感器的数据也可以相同方式被处理。
此外,已知使用导航接收器(例如GPS接收器)用于导航目的。这样的导航接收器接收导航数据(GPS数据),驾驶员辅助系统可以基于导航数据确定机动车辆的各个瞬时全球位置。则可以在显示装置上显示示意的地图图像,其以示意显示的方式显示机动车辆和其周围环境。因此,这样的地图图像基于导航数据产生,具体地作为机动车辆的当前全球位置的函数,其方式为使得机动车辆的瞬时全球位置和周围环境显示在地图上。这样的地图图像从之前被存储的地图数据产生。该地图数据可以存储在驾驶员辅助系统的存储器中或可在线获得,例如在主机上。由地图数据产生的图像对应于,如同,诸如从“谷歌地图”应用(www.maps.google.com)或从“谷歌地球”已知的图像。原理上,该地图图像还可基于真实光学图像数据,特别是基于卫星图像。但是,该数据是预存储的且不像机动车辆上安装的摄像头的上述图像数据那样被实时记录。
为了导航的目的,地图图像显示在显示装置上,该地图图像基于被存储的地图数据且在考虑机动车辆的各个瞬时全球位置的同时产生。该地图图像因此不包括关于机动车辆周围环境的任何真实信息,特别是没有关于位于周围环境中的物体和障碍物的信息。原则上,仅道路和(如果适当的话)机动车辆本身被显示。通常也失去必要的分辨率。
发明内容
本发明的目的是披露一种方案,其中,在开头处所述的类型的方法中,驾驶员在驾驶机动车辆中可以被特别可靠地辅助,具体地特别是借助单个显示装置。
该目的根据本发明借助具有根据本专利权利要求1的特征的方法以及通过具有根据本专利权利要求16的特征的驾驶员辅助系统以及通过具有本发明权利要求17的机动车辆而实现。本发明的有利实施例是本专利从属权利要求和描述的主题。
根据本发明的方法被设计为在机动车辆中的驾驶员辅助系统的显示装置上显示图像。导航数据被驾驶员辅助系统接收。驾驶员辅助系统的至少一个传感器获取关于机动车辆的周围环境的传感器数据。被获取的传感器数据被处理以形成周围环境图像,该周围环境图像至少显示靠近机动车辆的周围环境区域。地图图像被显示在显示装置上,该地图图像在考虑了来自被存储的地图数据的导航数据的同时被产生。显示装置上的地图图像被扩大(放大),且在已经达到地图图像的预先确定的制图比例尺(缩放因子)之后,存在从地图图像到周围环境图像的变化。
因此本发明的基本构想是,如果在地图图像扩大期间达到或超过了预先确定的制图比例尺,则从(示意)地图图像变化成(真实)周围环境图像,且这基于传感器的传感器数据产生。本发明因此应对的事实是,地图图像–这从被存储的地图数据预先产生–仅提供有限的分辨率且另外不包含关于机动车辆的周围环境的任何真实信息。如果地图图像随后被扩大或放大,分辨率(从一定的地图比例开始)过小以使得根本没有信息可以被提供给驾驶员。特别地,在此,本发明提供一种解决方案,其中在已经达到预限定的制图比例尺或预限定的分辨率之后,地图图像至少在一定区域中被周围环境图像代替。从一定的制图比例尺开始,示意的地图图像因此不再被显示,而是替代地显示周围环境图像,该周围环境图像基于至少一个传感器的真实传感器数据产生且因此表示机动车辆的实际周围环境和/或包含关于真实周围环境的信息。驾驶员则可以,例如,得到关于机动车辆和在车辆之外且存在于周围环境中的物体之间的各距离的结论,且所述结论可以包含关于机动车辆的真实周围环境的信息。
周围环境图像还可用于导航的目的,具体地在图像变化之后。这意味着导航功能不被图像的变化不利地影响,而是替代地,可以如之前那样将导航信息通信给驾驶员。该信息还可被包括在周围环境图像中。
传感器数据包含,例如,图像数据,该图像数据通过至少一个光学记录装置获得。光学记录装置优选地是摄像头,具体地,特别地是可以检测在可被人类感知的光谱范围内的光的摄像头。传感器数据–图像数据–则可以被处理,以形成这样的周围环境图像,所述周围环境图像显示了周围环境区域的透视图,且优选地还有机动车辆的至少一个区域的透视图。在该实施例中,周围环境的真实图像可以因此在显示装置上显示给驾驶员,该图像基于摄像头的真实图像数据而产生。这是特别用户友好的;这是因为,驾驶员被提供有被展示在他的显示装置上的机动车辆的真实周围环境。他可以,如同,在显示装置上观察机动车辆的真实周围环境。基于图像数据,实际上可以产生周围环境图像,该周围环境图像以一方式展示机动车辆的周围环境,该方式是忠于真实,且不仅是示意性的。使用光学记录装置,特别地使用摄像头,具有的优势是,周围环境图像可以以相应地高分辨率产生。周围环境图像则可以以好的质量显示在显示装置上,即使在相对较大的制图比例尺的情况下。
另外地或替换地,传感器数据还可包括其他传感器的数据。例如,传感器数据还可以包括至少一个超声传感器的超声波数据和/或至少一个雷达装置的雷达数据和/或至少一个激光扫描仪的激光数据。基于该传感器数据,车辆之外的物体可以在机动车辆的周围环境中被检测,且将被检测物体符号化的示意符号则可以显示在周围环境图像中。使用这些传感器具有的优势是,传感器数据的处理可以以相对较低的成本执行,且车辆之外的物体可以以一方式显示在显示装置上,该方式参考机动车辆的图像就位置和比例尺而言是真实的,具体地使用示意符号或略图。
原理上,周围环境图像可以因此从摄像头的混合的图像数据和至少一个其他传感器(例如距离传感器)的传感器数据产生。诸如周围环境图像可以因此包括周围环境的光学图像–该图像则基于图像数据–以及示意符号,所述示意符号作为距离传感器的传感器数据的函数而产生。
在已经达到预先确定的制图比例尺之后,存在从地图图像到周围环境图像的转换。这意味着,特别地,地图图像的至少一个区域被周围环境图像的对应区域替换。但是,被证明了,如果存在从整个地图图像到整个周围环境图像的转换,则是特别有利的。
术语图像的“扩大”在此被理解为意思是图像的“放大”。术语“制图比例尺”限定物体的光学制图的尺寸与该物体的真实尺寸之间的比例。制图比例尺因此实际上是缩放因子。
在一个实施例中提出了,就在从地图图像到周围环境图像的变化之后,周围环境图像从与在图像变化之前地图图像相同的观察方向和/或相同的视角显示周围环境区域,且优选地,还显示机动车辆的至少一个区域。“观察方向”在此被理解为虚拟观察者在观察图像时从该方向看的方向。因此获得从地图图像至周围环境图像的连续转变。这还确保,在图像的变化之后,展示与图像变化之前至少大体相同的机动车辆的周围环境区域。优选地,就在变化之前,制图比例尺以+/-5%的准确度等于就在变化之后的制图比例尺。换句话说,就在变化之后的周围环境图像的制图比例尺优选地大体等于就在变化之前的地图图像的制图比例尺。以该方式,在图像变化之后,可以展示与变化之前大体相同的周围环境区域,结果是,在图像之间没有感知到不连续性。
从机动车辆上方观察的周围环境图像优选地显示了机动车辆的至少一个区域和周围环境区域的平面图。周围环境区域优选地显示了整个机动车辆和机动车辆周围的周围环境区域的平面图。则驾驶员可以特别容易地推断机动车辆和车辆周围的车辆之外的所有物体之间的各距离,具体地基于周围环境图像。
传感器数据可以,例如,被连续地获取,且周围环境图像可以由传感器数据连续地重新产生。这意味着周围环境图像可以,如同,实时绘制机动车辆的周围环境。
在周围环境图像中,机动车辆优选地以位置固定或静止的方式显示在显示装置上,而周围环境区域的图像优选地在每种情况下基于传感器数据相应地重新产生或适应性变化。机动车辆的图像还可预先存储在驾驶员辅助系统的存储器装置中。该实施例基于的事实是,至少一个传感器通常定位在机动车辆的外表面上,具体地,例如在外支架或保险杠上,结果是该传感器可以检测机动车辆的周围环境区域而不是机动车辆本身。机动车辆的图像因此可以以数据的形式存储在存储器装置中,然后周围环境区域的图像可以添加至其,特别地,如果可以获得与周围环境相关的传感器数据的话。
基于导航数据与传感器数据的比较,还可以执行标定。机动车辆的全球位置可以基于传感器数据具体地被修正或被调试至更精细的比例尺。等同地还可以,另外地或替换地,使用导航数据修正观察方向,周围环境图像自该观察方向显示周围环境区域。
在已经达到地图图像的预先确定的制图比例尺之后,因此在显示装置上的地图图像的扩大期间发生图像之间的变化。地图图像的扩大和作为结果的图像之间的变化可以发生,例如基于操作者在驾驶员辅助系统的输入装置处做出的输入。例如,这样的输入可以在操作者控制装置上执行。驾驶员辅助系统则接收该输入和基于该输入扩大被显示的地图图像,直到达到预先确定的制图比例尺。当其被达到时,驾驶员辅助系统从地图图像变化到周围环境图像。该实施例具有的优势是,驾驶员本身可以设定制图比例尺和因此他本身可以决定图像的变化,具体地通过进行输入。通过该输入,也就是说,如同,做出制图比例尺或缩放因子的规定。
基于导航数据,驾驶员辅助系统还可确定机动车辆已经到达目的地和/或在该目的地周围的预先确定的区域中。如果驾驶员辅助系统确定机动车辆已经到达目的地,地图图像的扩大和作为结果的图像变化可以由驾驶员辅助系统基于该确定而自动执行。这意味着当机动车辆到达预限定的位置–这可以由驾驶员预限定–时,存在从地图图像到周围环境图像的变化。实际上,通常,仅需要在目的地进行机动车辆的操纵,通常甚至是在非常困难的条件下。特别地,如果周围环境图像在显示装置上显示有关于周围环境区域的真实信息,这对驾驶员是很有利的。则驾驶员在目的地可以在机动车辆的操纵中借助周围环境图像接收帮助;特别地,驾驶员可以基于周围环境图像追踪障碍物,或得到关于障碍物和机动车辆之间的距离的结论。
借助驾驶员辅助系统,还可以检测在机动车辆的周围环境中的车辆之外的物体,具体地借助驾驶员辅助系统的传感器装置。该传感器装置可包括,例如,至少一个距离传感器,特别是超声传感器。所述传感器装置还可包括至少一个传感器,借助该至少一个传感器,获得用于产生周围环境图像的传感器数据。地图图像的扩大和作为结果的从地图图像至周围环境图像的变化则可以基于在机动车辆的周围环境中的物体的存在而被执行,具体地,借助驾驶员辅助系统自动地执行。以该方式,如果存在机动车辆和物体之间的碰撞的风险,则包括实际的周围环境图像。驾驶员则可以在显示装置上看到车辆之外的物体,并相应地操纵机动车辆,以使得避免碰撞。这可以例如,是这样的形式:如果被检测的物体和机动车辆之间的距离低于预限定的极限值,则存在从地图图像至周围环境图像的转变。该实施例确保车辆乘客是安全的;这是因为,当周围环境图像由于在机动车辆的周围环境中存在车辆之外的物体而实际上被需要时,驾驶员被提供有该显示。
地图图像由被存储的地图数据产生。地图数据可以是,例如示意性图像,其以示意图示的方式显示机动车辆和靠近机动车辆的周围环境区域。但是,地图图像还可以是真实的光学图像,其基于被预先存储的图像,具体地,例如,基于被存储的卫星图像。在地图图像中显示的机动车辆的周围环境因此不对应于针对真实周围环境的瞬时状态。可选地,还可以获得各种类型的地图图像,具体地,不同类型的视图。例如,如在“谷歌地图”应用中,可获得以下类型的视图:地图视图、卫星视图和3D视图。
在一个实施例中,提出地图图像具有添加至其的周围环境图像的至少一个区域。这意味着地图图像还可具有叠加在其上的周围环境图像的至少一个区域,或可以由此被覆盖。这还可在达到预限定的制图比例尺之前发生。作为结果,驾驶员可以具有显示给他的一定的信息,诸如关于周围环境中的障碍物和/或道路标记和/或交通灯等的信息。
优选地,第一或第二周围环境图像可以被产生和作为周围环境图像显示。第一和第二周围环境图像之间的选择可以根据预先确定的选择准则进行。第一和第二周围环境图像可以彼此不同在于:第一周围环境图像显示比第二周围环境图像达到离机动车辆更大的距离的周围环境区域。以该方式,可选地,至少两种类型的周围环境图像可以显示给驾驶员,具体地是相对较大的靠近机动车辆的周围环境区域的周围环境图像,和相对较小的靠近机动车辆的周围环境区域的周围环境图像。驾驶员因此可以按照需要和根据情况被辅助。因此,例如当机动车辆和障碍物之间的距离相对较小和驾驶员不得不执行相对较难的操纵时,可以显示第二周围环境图像。相反,当必须具有靠近机动车辆的大的周围环境区域的粗略概图时,第一周围环境图像将被显示。
第一周围环境图像优选地显示距机动车辆的达到一距离的周围环境区域,该距离处于从7m至13m的值范围内。该距离优选地是10m。特别地,第一周围环境图像因此显示了整个机动车辆和机动车辆周围的周围环境区域的平面图,具体地距离机动车辆达到10m。驾驶员因此可以获得关于相对较大的周围环境区域的信息,且还看见距离机动车辆相对较远的障碍物。
另一方面,第二周围环境图像可以显示距机动车辆达到一距离的周围环境区域,该距离处于50cm至2m的值范围内。该距离优选地是1m。基于这样的周围环境图像,驾驶员可以以高准确度推断机动车辆和就在机动车辆后面的各障碍物之间的距离。驾驶员因此还可以距障碍物非常近地操纵他的车辆,而不引起碰撞。
如已经所述,第一和第二周围环境图像之间的选择基于预先确定的选择准则进行。该选择准则可以包括例如这一事实:就在从地图图像变化到周围环境图像之后产生和显示第一周围环境图像,即比其他周围环境图像距机动车辆更远距离的周围环境区域的周围环境图像。以该方式,可以提供从地图图像到周围环境图像的连续转变。
选择准则还可以包括这一事实:当通过驾驶员辅助系统基于导航数据确定机动车辆到达目的地时,产生和显示第一周围环境图像。如果机动车辆到达目的地,作为结果优选地显示周围环境图像,该周围环境图像显示相对较大的周围环境区域。驾驶员因此可以一方面在周围环境图像中感知在目的地处的距机动车辆相对较远的障碍物,另一方面驾驶员可以操纵机动车辆而没有碰撞。
选择准则还可以包括这一事实:当通过驾驶员辅助系统的传感器装置检测到在机动车辆的周围环境中的车辆之外的物体时,产生和显示第二周围环境图像,即距机动车辆达到相对较小距离的周围环境区域的周围环境图像。这可以以这样的方式发生:当机动车辆和车辆之外的物体之间的距离低于预限定的极限值时,产生和显示第二周围环境图像。则特别地,驾驶员需要就靠近机动车辆的或在机动车辆附近的周围环境的精细图像。以该方式,驾驶员可以没有碰撞地操纵,即使在困难的条件下或非常受限的位置中。
在传感器数据包括图像数据的实施例中,图像数据借助至少一个光学记录装置被获取。被证明特别有利的是,图像数据借助至少两个、特别是借助至少三个光学记录装置被获取。还可以提供总共四个光学记录装置。因此总共可以使用多个记录装置,特别是在左侧边缘上的一个记录装置,和/或在左外后视镜上的一个记录装置,和/或在右侧边缘上的记录装置,和/或在右外后视镜上的记录装置,和/或在机动车辆前保险杠上的记录装置,和/或在后保险杠或后挡板上一个记录装置。总体上,记录装置可以捕获机动车辆周围360°的周围环境图像。至少一个记录装置可以是,例如摄像头,特别地具体是CMOS(互补金属氧化半导体)或CCD(电荷耦合器件)摄像头。
至少一个光学记录装置优选地具有处于从170°至195°的值范围内的记录角。至少一个记录装置因此优选地是鱼眼摄像头。以该方式,可以使用仅三个或四个记录装置以捕获机动车辆周围的整个周围环境。驾驶员辅助系统因此需要仅相对较小数量的记录装置。
根据本发明,还可以获得用于机动车辆的驾驶员辅助系统。驾驶员辅助系统包括用于接收导航数据的导航接收器。其还包括至少一个传感器,用于获取关于机动车辆的周围环境的传感器数据。显示装置被设计为显示图像。驾驶员辅助系统可以处理传感器数据,以形成周围环境图像,该周围环境图像显示靠近机动车辆的至少一个周围环境区域。驾驶员辅助系统还可在考虑来自被存储的地图数据的导航数据的同时产生地图图像,和可以在显示装置上显示地图图像。在已经达到地图图像的预先确定的制图比例尺之后,驾驶员辅助系统可以扩大在显示装置上的地图图像,且其可以从地图图像变化至周围环境图像。
根据本发明的机动车辆包括根据本发明的驾驶员辅助系统。
参考根据本发明的方法展示的优选实施例和其优势相应地适用于根据本发明的驾驶员辅助系统和机动车辆。
本发明的进一步的特征出自权利要求、附图和对附图的描述。在上述说明中列举的所有特征和特征组合以及在附图的描述中和/或仅在附图中的特征和特征组合不仅能够用于各个指出的组合,还可用于其他组合中或单独使用。
附图说明
现将参考各个优选示例性实施例以及参考附图更详细地解释本发明,其中:
图1是机动车辆的平面图的示意图示,该机动车辆具有根据本发明实施例的驾驶员辅助系统;
图2是示例性地图图像的示意图示;
图3是示例性第一周围环境图像的示意图示;
图4是示例性第二周围环境图像的示意图示;和
图5是根据本发明实施例的方法的流程图。
具体实施方式
机动车辆1如图1所示是客车。机动车辆1包括驾驶员辅助系统2,该驾驶员辅助系统包括以下部件:显示装置3、控制装置4、四个摄像头5a至5d以及导航接收器14,例如GPS接收器。控制装置4促动显示装置3。摄像头5a至5d将获得的图像数据传送至控制装置4,具体地,例如经由机动车辆1的内部通信总线。根据本发明,摄像头5a至5d是传感器,图像数据是传感器数据。
驾驶员辅助系统2还可包括用于获得传感器数据的其他传感器,特别是至少一个超声传感器和/或至少一个雷达装置和/或至少一个激光扫描仪。
例如,显示装置3可以是LCD显示器。但是,其可以是图像投影仪,借助该投影仪,图像可以被投射到机动车辆1的挡风玻璃6上(抬头显示器)。
机动车辆1的图像储存在控制装置4中,特别是在存储器7中,且更精确地说,存储表示机动车辆1的图像的数据。
摄像头5a至5d被安装在机动车辆1的外表面上。摄像头5a至5d的数量和布置在图1中仅作为例子被显示;取决于实施例,摄像头5a至5d的数量和其在机动车辆1上的布置可改变。在示例性实施例中,第一摄像头5a被设置在机动车辆1的前保险杠上,而第二摄像头5b被设置在后保险杠上或后挡板上。第三摄像头5c被安装在左侧边缘上;其可还被并入在左外后视镜8中。第四摄像头5d被安装在右侧边缘上,具体地在右外后视镜9的区域中。第四摄像头5d可还并入在外后视镜9中。
每个摄像头5a至5d具有宽的捕获角,且因此其被称为鱼眼摄像头。例如,各捕获角可以处于自170°至195°的值范围内。如图1中可明显看出,第一摄像头5a捕获机动车辆1前方的区域10,而第二摄像头5b捕获机动车辆1后面的区域11。相应地,第三摄像头5c捕获靠近机动车辆1的左边的区域12;第四摄像头5d捕获靠近机动车辆1的右边的区域13。摄像头5a至5d由此可基本上捕获机动车辆1周围的整个周围环境,具体地是360°图像。
控制装置4能处理由摄像头5a至5d获得的图像数据。控制装置4可基于图像数据产生图像,该图像显示从机动车辆1上方观察的机动车辆1的周围环境的平面图,具体地为被捕获区域10至13的平面图。控制装置4可由此从图像数据产生图像,该图像以鸟瞰视角显示被捕获区域10至13的平面图。
如已经所述,机动车辆1的图像被储存在存储器7中。该图像还自鸟瞰视角显示机动车辆1;换句话说,该图像从所述机动车辆上方显示机动车辆1的平面图。控制装置4可从基于图像数据产生的周围环境的图像和机动车辆1的图像产生周围环境图像,该周围环境图像显示机动车辆1和机动车辆1周围的周围环境二者的平面图,具体地是从鸟瞰视角。因此在单个周围环境的图像中,机动车辆1的周围环境和机动车辆1本身被从鸟瞰视角展示。该周围环境图像可通过控制装置4显示在显示装置3上。该周围环境图像可被连续地显示;这意味着周围环境图像可针对车辆1的周围环境被连续地或动态地调整。图像数据实际上被摄像头5a至5d连续地捕获,周围环境图像在每个情况下自连续获得的图像数据重新产生。在周围环境图像中,机动车辆1可以以位置固定或静止的方式被显示,而周围环境的图像可被连续地更新和调整。
控制装置4还可在考虑其他传感器的传感器数据的同时产生周围环境图像,该其他传感器具体地是至少一个超声传感器和/或至少一个雷达装置和/或至少一个激光扫描仪。例如,示意符号可以包括在周围环境图像中,该符号作为该传感器数据的函数产生,并表征车辆之外的物体,所述物体基于在机动车辆1的周围环境中的传感器数据被检测。
在示例性实施例中,控制装置4原则上可以产生两个不同的周围环境图像,特别是从摄像头5a至5d的图像数据以及(如果适当的话)从另外的传感器数据产生。控制装置4实际上可以产生第一周围环境图像,如作为例子在图3中的示意图示中所示并由15表示的那样。第一周围环境图像15可以显示在显示装置3上。第一周围环境图像15自鸟瞰视角显示了机动车辆1’和机动车辆1’周围的周围环境区域16的平面图。尽管没有在图3中详细示出,在周围环境图像15中,真实的周围环境区域16以忠于真实的方式被表示或显示。这是因为摄像头5a至5d捕获机动车辆1周围的真实周围环境,且控制装置4分别实时地由图像数据重新产生周围环境图像15。第一周围环境图像15通过这样的事实被展示:其显示距机动车辆1’达到距离17的周围环境区域16,该距离处于7m至13m的值范围内。第一周围环境图像15可以显示出侧向地靠近机动车辆1’达到距离17的周围环境区域16,该距离17为10m或11m,而在机动车辆1’后面和前方的周围环境区域16可以被显示为达到8m或9m的距离17。与自鸟瞰视角的已知图像相比,第一周围环境图像15因此显示出被延伸的周围环境区域16,其自机动车辆1’延伸达到相对较大的距离17。
第一周围环境图像15原则上可以以两种不同的方式产生:一方面,排他地,各个瞬时获得的图像数据可以用于产生周围环境图像15。替换地,如果周围环境区域16不可以被捕获为达到距离17,则周围环境图像15可以由瞬时获得的图像数据和由之前获得的图像数据二者产生。根据该变体,周围环境图像15可以因此借助测程法产生。
此外,控制装置4可以产生第二周围环境图像18,诸如作为例子在图4中的示意图示中所示。该第二周围环境图像18还自鸟瞰视角显示机动车辆1’和机动车辆1’周围的周围环境区域19的平面图。周围环境图像18还显示周围环境区域19的真实图像,尽管这在图4中并没有明确显示出来。如图4所示,在图4中的机动车辆1’的图像比根据图3的在第一周围环境图像15中的机动车辆1’的图像大。这是由于第二周围环境图像18显示了距机动车辆1’仅达到相对较短距离20的周围环境区域19。该距离20可以是,例如,处于50cm至2m的值范围。例如,第二周围环境图像18可以显示侧向地靠近机动车辆1’达到1.5m的距离20的周围环境区域19,而机动车辆1’后面和前方的周围环境区域19可以显示为达到50cm距离20。基于第二周围环境图像18,驾驶员因此可以以高准确度确定机动车辆1和存在于周围环境区域19中的车辆之外的障碍物之间的各个距离。
第一和第二周围环境图像15、18可以可选地显示在显示装置3上;这意味着可以显示第一周围环境图像15或者第二周围环境图像18。
如已经所述,驾驶员辅助系统2还包括导航接收器14,在此为GPS接收器,其接收导航数据(GPS数据)。该导航数据包括关于机动车辆1的全球位置的信息;这意味着控制装置4可以基于导航数据推断机动车辆1的各个瞬时全球位置。取决于机动车辆1的当前全球位置,控制装置4还可产生地图图像21,并将它显示在显示装置3上。示例性的地图图像21在图2中以示意图示被显示。控制装置4可以由存储的地图数据产生地图图像21,该地图数据可以被存储在例如控制装置4的存储器7中,或在线获得。地图图像21显示了机动车辆1的各个瞬时全球位置,以及机动车辆1所行驶的道路,以及(如果适当的话)存在于机动车辆1的周围环境中的其他道路以及其他装置和建筑。地图图像21还是航空视图,即其自鸟瞰视角显示机动车辆1的周围环境。但是,地图图像21没有显示机动车辆1的真实周围环境,且没有显示周围环境的瞬时实际状态。这是因为地图图像21基于被存储的地图数据,该地图数据不能实时产生。地图图像21可以,如果适当的话,还基于卫星图像,该卫星图像可以作为预存储图像数据存储在存储器7中。
但是,地图图像21没有提供期望的分辨率,特别是在该地图图像21要在显示装置3上被显著地扩大时。如果地图图像21放大到相对较大制图比例尺或缩放因子(例如由于驾驶员的输入),分辨率21低到驾驶员不可以充分地地图图像21。此外,地图图像21不包含关于机动车辆1的真实瞬时周围环境的任何实际信息。例如,没有瞬时地定位在周围环境中的障碍物可以被显示在地图图像21中。因此在示例性实施例中提出,在预先确定的制图比例尺(缩放因子)或预先确定的分辨率已经到达之后,在地图图像21的扩大期间或在放大期间,存在从地图图像21到周围环境图像15、18之一的转换。驾驶员则被提供有显示在显示装置3上的周围环境图像15、18,该周围环境图像15、18既具有比地图图像21显著更好的分辨率,且还包括忠于真实的机动车辆1的瞬时周围环境的信息。
参考图5,将在以下更详细地解释根据本发明实施例的方法。该方法在第一步骤S1中开始,其中,控制装置4由被存储的地图产生地图图像21并将其显示在显示装置3上。地图图像21在地图上显示机动车辆1的当前全球位置。
在后续的步骤中,控制装置4检查显示装置3上的地图图像21是否被放大或扩大。具体地,控制装置4在步骤S2a中检查用于扩大地图图像21的输入是否正被操作者执行,特别地在驾驶员辅助系统2的输入装置上。并行地或同时,控制装置4在步骤S2b中检查机动车辆1是否已经在预限定的位置,例如在预限定的城镇或在预限定的道路中。并行地或同时,控制装置4检查(具体地在步骤S2c中)车辆之外的物体是否已经到达机动车辆1的预限定的周围环境区域中。
如果检测到用于扩大地图图像21的输入,和/或如果机动车辆1已经到达目的地,和/或如果检测到物体在机动车辆1的预限定的周围环境区域中,则在显示装置3上的地图图像21借助控制装置4被扩大或放大。扩大在步骤S3中进行。在后续的步骤S4中,控制装置4检查是否已经达到地图图像21的预限定的制图比例尺或预限定的分辨率。如果预限定的制图比例尺还没有达到,该方法返回至步骤S3且地图图像21被进一步放大。如果在步骤S4中达到预限定的制图比例尺,则在后续的步骤S5中进行选择准则的评价,根据所述选择准则,在第一周围环境图像15或第二周围环境图像18之间做出选择。被选择的图像则在步骤S6中显示在显示装置3上;存在从地图图像21到周围环境图像15或18的转换。
选择准则的内容是:
-在步骤S6中,当基于驾驶员的输入发生地图图像21的扩大时,首先存在从地图图像21至第一周围环境图像15的转换,和/或
-当基于机动车辆1到达目的地而发生地图图像10的扩大时,存在从地图图像21至第一周围环境图像15的转换,和/或
-当在机动车辆1的预限定的周围环境区域中检测到车辆之外的物体时,存在从地图图像21直接到第二周围环境图像18的转换或间接地经由周围环境图像15的到第二周围环境图像18的转换。
其通常可以是这种情况:可以仅存在从地图图像21间接地经由第一周围环境图像15向第二周围环境图像18的转换,结果是发生在图像之间的连续转变。
在从地图图像21向周围环境图像15、18转变中,还可以确保就在变化之后,周围环境图像15、18从与就在变化之前的地图图像21相同的观察方向和相同的视角显示。还可以设定,就在变化之后,周围环境区域距机动车辆1达到的距离显示为等于就在变化之前的距离。以该方式可以获得图像之间的连续且没有间断的转变。
Claims (20)
1.一种用于在机动车辆(1)中的驾驶员辅助系统(2)的显示装置(3)上显示图像(15、18、21)的方法,具有步骤:
-通过驾驶员辅助系统(2)接收导航数据,
-通过驾驶员辅助系统(2)的至少一个传感器(5a至5d)获取关于机动车辆(1)的周围环境(10至13)的传感器数据,
-处理传感器数据以形成周围环境图像(15、18),所述周围环境图像显示靠近机动车辆(1)的至少一个周围环境区域(16、19),
-在显示装置(3)上显示地图图像(21),该地图图像在考虑来自被存储的地图数据的导航数据的同时而被产生,和
-扩大在显示装置(3)上的地图图像(21),且在已经达到地图图像(21)的预先确定的制图比例尺之后,从地图图像(21)变化为周围环境图像(15、18)。
2.如权利要求1所述的方法,
其特征在于
传感器数据包括图像数据,该图像数据通过作为传感器的至少一个光学记录装置(5a至5d)获取,其中,图像数据被处理以形成周围环境图像(15、18),该周围环境图像显示周围环境区域(16、19)的透视图。
3.如权利要求1或2所述的方法,
其特征在于
传感器数据包括超声波数据和/或雷达数据和/或激光数据,该超声波数据通过至少一个超声传感器获取,该雷达数据通过作为传感器的至少一个雷达装置获取,该激光数据通过作为传感器的至少一个激光扫描仪获取。
4.如权利要求1或2所述的方法,
其特征在于
就在从地图图像(21)变化至周围环境图像(15、18)之后,周围环境图像(15、18)从与就在变化之前的地图图像(21)相同的观察方向显示周围环境区域(16、19)。
5.如权利要求1或2所述的方法,
其特征在于
从机动车辆(1)上方观察的周围环境图像(15、18)显示机动车辆(1’)的至少一个区域和周围环境区域(16、19)的平面图。
6.如权利要求1或2所述的方法,
其特征在于
地图图像(21)的扩大和作为结果的图像(15、18、21)的变化基于操作者在驾驶员辅助系统(2)的输入装置处做出的输入而发生。
7.如权利要求1或2所述的方法,
其特征在于
基于导航数据,机动车辆(1)到达目的地由驾驶员辅助系统(2)确定,地图图像(21)的扩大和作为结果的图像(15、18、21)的变化通过驾驶员辅助系统(2)基于该确定被执行。
8.如权利要求1或2所述的方法,
其特征在于
驾驶员辅助系统(2)的传感器装置检测在周围环境(10至13)中的车辆之外的物体,地图图像(21)的扩大和作为结果的图像(15、18、21)的变化由驾驶员辅助系统(2)基于物体在周围环境(10至13)中的存在而被执行。
9.如权利要求1或2所述的方法,
其特征在于
地图图像(21)被补充有周围环境图像(15、18)的至少一个区域。
10.如权利要求1或2所述的方法,
其特征在于
第一周围环境图像(15)或第二周围环境图像(18)根据预先确定的选择准则而被作为周围环境图像(15、18)产生,其中,第一和第二周围环境图像(15、18)彼此不同在于,比第二周围环境图像(18),第一周围环境图像(15)显示距机动车辆(1)达到更大距离(17)的周围环境区域(16)。
11.如权利要求10所述的方法,
其特征在于
第一周围环境图像(15)显示距机动车辆(1)达到一距离(17)的周围环境区域(16),该距离处于从7m至13m的值范围内。
12.如权利要求10所述的方法,
其特征在于
第二周围环境图像(18)显示距机动车辆(1)达到一距离(20)的周围环境区域(19),该距离处于从50cm至2m的值范围内。
13.如权利要求10所述的方法,
其特征在于
选择准则包括这一事实:就在从地图图像(21)变化至周围环境图像(15、18)之后,产生第一周围环境图像(15)。
14.如权利要求10所述的方法,
其特征在于
选择准则包括这一事实:当驾驶员辅助系统(2)基于导航数据确定机动车辆(1)到达目的地时,产生第一周围环境图像(15)。
15.如权利要求10所述的方法,
其特征在于
选择准则包括这一事实;当驾驶员辅助系统(2)的传感器装置检测到在机动车辆(1)的周围环境(10至13)中的车辆之外的物体时,产生第二周围环境图像(18)。
16.如权利要求2所述的方法,
其特征在于
该周围环境图像显示周围环境区域(16、19)的透视图以及机动车辆(1’)的至少一个区域的透视图。
17.如权利要求1或2所述的方法,
其特征在于
就在从地图图像(21)变化至周围环境图像(15、18)之后,周围环境图像(15、18)从与就在变化之前的地图图像(21)相同的观察方向显示周围环境区域(16、19)以及机动车辆(1’)的至少一个区域。
18.如权利要求5所述的方法,
其特征在于
从机动车辆(1)上方观察的周围环境图像(15、18)显示整个机动车辆(1’)和机动车辆(1)周围的周围环境区域(16、19)的平面图。
19.一种用于机动车辆(1)的驾驶员辅助系统(2),具有:
-导航接收器(14),用于接收导航数据,
-至少一个传感器(5a至5d),用于获取关于机动车辆(1)的周围环境(10至13)的传感器数据,和
-显示装置(3),用于显示图像,
其中,驾驶员辅助系统(2)被构造为:
·处理传感器数据,以形成周围环境图像(15、18),该周围环境图像(15、18)显示靠近机动车辆(1’)的至少一个周围环境区域(16、19),
·在考虑来自被存储的地图数据的导航数据的同时产生地图图像(21),并在显示装置(3)上显示地图图像(21),和
·在已经达到地图图像(21)的预先确定的制图比例尺之后,扩大在显示装置(3)上的地图图像(21),并从地图图像(21)变化至周围环境图像(15、18)。
20.一种机动车辆(1),其具有如权利要求19所述的驾驶员辅助系统(2)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010034140.1 | 2010-08-12 | ||
DE102010034140A DE102010034140A1 (de) | 2010-08-12 | 2010-08-12 | Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung und Fahrerassistenzsystem |
PCT/EP2011/062699 WO2012019901A1 (de) | 2010-08-12 | 2011-07-25 | Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103140377A CN103140377A (zh) | 2013-06-05 |
CN103140377B true CN103140377B (zh) | 2016-09-07 |
Family
ID=44512840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180047197.9A Active CN103140377B (zh) | 2010-08-12 | 2011-07-25 | 用于在显示装置上显示图像的方法和驾驶员辅助系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8880344B2 (zh) |
EP (1) | EP2603402B1 (zh) |
JP (1) | JP2013535753A (zh) |
CN (1) | CN103140377B (zh) |
DE (1) | DE102010034140A1 (zh) |
WO (1) | WO2012019901A1 (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010015079A1 (de) * | 2010-04-15 | 2011-10-20 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug |
US10800329B2 (en) | 2010-04-19 | 2020-10-13 | SMR Patents S.à.r.l. | Rear view mirror simulation |
US10703299B2 (en) | 2010-04-19 | 2020-07-07 | SMR Patents S.à.r.l. | Rear view mirror simulation |
US20120158237A1 (en) * | 2010-12-20 | 2012-06-21 | Electronics And Telecommunications Research Institute | Unmanned apparatus and method of driving the same |
DE102011084993A1 (de) | 2011-10-21 | 2013-04-25 | Robert Bosch Gmbh | Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem |
DE102012102771A1 (de) * | 2012-03-30 | 2013-10-02 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung |
JP5857224B2 (ja) * | 2012-03-30 | 2016-02-10 | パナソニックIpマネジメント株式会社 | 駐車支援装置、及び駐車支援方法 |
DE102012106691A1 (de) * | 2012-07-24 | 2014-01-30 | Valeo Schalter Und Sensoren Gmbh | Alternativer Einbau eines verdeckten Ultraschallsensors im Kraftfahrzeug |
DE102013201379B4 (de) * | 2013-01-29 | 2020-12-10 | Robert Bosch Gmbh | Motorrad mit einem Kamerasystem |
JP6177585B2 (ja) * | 2013-05-23 | 2017-08-09 | アルパイン株式会社 | ナビゲーション装置 |
CN104280034A (zh) * | 2013-07-01 | 2015-01-14 | 中兴通讯股份有限公司 | 一种基于全景视频的车载导航方法及系统 |
CN103424112B (zh) * | 2013-07-29 | 2016-06-01 | 南京航空航天大学 | 一种基于激光平面辅助的运动载体视觉导航方法 |
US20150106010A1 (en) * | 2013-10-15 | 2015-04-16 | Ford Global Technologies, Llc | Aerial data for vehicle navigation |
US9558408B2 (en) | 2013-10-15 | 2017-01-31 | Ford Global Technologies, Llc | Traffic signal prediction |
TWI552907B (zh) * | 2013-10-30 | 2016-10-11 | 緯創資通股份有限公司 | 行車安全輔助系統和方法 |
DE102013225459B4 (de) * | 2013-12-10 | 2023-11-30 | Continental Autonomous Mobility Germany GmbH | Verfahren zum automatisierten Führen eines Kraftfahrzeugs und Kraftfahrzeug zum Ausführen des Verfahrens |
DE102014107317B4 (de) * | 2014-05-23 | 2022-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Elektronisches Periskop für ein Kraftfahrzeug |
DE102014008687A1 (de) * | 2014-06-12 | 2015-12-17 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zur Darstellung von Fahrzeugumfeldinformationen eines Kraftfahrzeuges |
US20160148421A1 (en) * | 2014-11-24 | 2016-05-26 | Caterpillar Inc. | Integrated Bird's Eye View with Situational Awareness |
WO2016126321A1 (en) | 2015-02-06 | 2016-08-11 | Delphi Technologies, Inc. | Method and apparatus for controlling an autonomous vehicle |
WO2016126317A1 (en) | 2015-02-06 | 2016-08-11 | Delphi Technologies, Inc. | Method of automatically controlling an autonomous vehicle based on electronic messages from roadside infrastructure of other vehicles |
WO2016126322A1 (en) * | 2015-02-06 | 2016-08-11 | Delphi Technologies, Inc. | Autonomous vehicle with unobtrusive sensors |
CN107531182B (zh) * | 2015-08-27 | 2023-10-27 | Jvc 建伍株式会社 | 车辆用显示装置以及车辆用显示方法 |
DE102015221439B3 (de) * | 2015-11-02 | 2017-05-04 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Auswahl und Übertragung von Sensordaten von einem ersten zu einem zweiten Kraftfahrzeug |
DE102015223175A1 (de) * | 2015-11-24 | 2017-05-24 | Conti Temic Microelectronic Gmbh | Fahrerassistenzsystem mit adaptiver Umgebungsbilddatenverarbeitung |
DE102016204654A1 (de) * | 2016-03-21 | 2017-09-21 | Conti Temic Microelectronic Gmbh | Vorrichtung und Verfahren zur Eigenbewegungsschätzung für ein Kraftfahrzeug |
DE102016204805A1 (de) * | 2016-03-23 | 2017-09-28 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtungen zum Bereitstellen von Daten für ein Fahrerassistenzsystem eines Kraftfahrzeugs |
DE102016114693A1 (de) * | 2016-08-09 | 2018-02-15 | Connaught Electronics Ltd. | Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Führen des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug |
DE102016215249B4 (de) * | 2016-08-16 | 2022-03-31 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Unterstützen eines Fahrerassistenzsystems in einem Kraftfahrzeug |
DE102016122031A1 (de) * | 2016-11-16 | 2018-05-17 | Valeo Schalter Und Sensoren Gmbh | Ressourcensparende Karte für ein Fahrerassistenzsystem eines Kraftfahrzeugs |
CN106412445A (zh) * | 2016-11-29 | 2017-02-15 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN108225340A (zh) * | 2016-12-21 | 2018-06-29 | 致伸科技股份有限公司 | 自动辅助驾驶系统及其方法 |
CN112519678B (zh) * | 2016-12-22 | 2023-11-17 | 康奈可关精株式会社 | 图像显示控制装置 |
FR3062764B1 (fr) * | 2017-02-08 | 2019-08-02 | Valeo Systemes D'essuyage | Dispositif de vision, systeme d’assistance a la conduite et procede de maintien de la visibilite associes |
DE102017108240A1 (de) * | 2017-04-19 | 2018-10-25 | Valeo Schalter Und Sensoren Gmbh | Fahrsituationsabhängige Abstandsbestimmung für eine Kraftfahrzeug-Lidar-Sensorvorrichtung |
DE102017210264A1 (de) | 2017-06-20 | 2018-12-20 | Zf Friedrichshafen Ag | Verfahren zur Bedienung eines Fahrzeugbediensystems |
DE102018214874B3 (de) * | 2018-08-31 | 2019-12-19 | Audi Ag | Verfahren und Anordnung zum Erzeugen einer mit Bildinformationen texturierten Umfeldkarte eines Fahrzeugs und Fahrzeug umfassend eine solche Anordnung |
JP7314885B2 (ja) * | 2020-09-01 | 2023-07-26 | トヨタ自動車株式会社 | 車両用周辺監視装置 |
JP2023088589A (ja) * | 2021-12-15 | 2023-06-27 | フォルシアクラリオン・エレクトロニクス株式会社 | 車両周囲画像表示装置、及び車両周囲画像表示方法 |
DE102022207932A1 (de) | 2022-08-01 | 2024-02-01 | Volkswagen Aktiengesellschaft | Sicherheitssystem zum Darstellen der Umgebung eines Kraftfahrzeugs, Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs sowie ein Kraftfahrzeug |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1065642A2 (en) * | 1999-06-25 | 2001-01-03 | Fujitsu Ten Limited | Vehicle drive assist system |
EP1283406A2 (de) * | 2001-08-01 | 2003-02-12 | Siemens Aktiengesellschaft | Bildverarbeitungsvorrichtung für ein Fahrzeug und Betriebsverfahren |
FR2902381A1 (fr) * | 2006-06-20 | 2007-12-21 | Peugeot Citroen Automobiles Sa | Fusion d'images entre un systeme de navigation et un systeme de vision de nuit |
CN101140166A (zh) * | 2006-09-06 | 2008-03-12 | 阿尔派株式会社 | 导航装置及交叉点指引图的描绘方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6429789B1 (en) * | 1999-08-09 | 2002-08-06 | Ford Global Technologies, Inc. | Vehicle information acquisition and display assembly |
US6411867B1 (en) * | 1999-10-27 | 2002-06-25 | Fujitsu Ten Limited | Vehicle driving support system, and steering angle detection device |
JP2004048295A (ja) * | 2002-07-10 | 2004-02-12 | Toyota Motor Corp | 画像処理装置、駐車支援装置、及び画像処理方法 |
JP4062679B2 (ja) * | 2002-10-15 | 2008-03-19 | 株式会社日立製作所 | ナビゲーション地図表示方法及び地図表示装置 |
JP3832455B2 (ja) * | 2003-07-31 | 2006-10-11 | 日産自動車株式会社 | 車輌周囲表示装置 |
JP2005084332A (ja) * | 2003-09-08 | 2005-03-31 | Denso Corp | 地図表示装置、地図表示方法 |
JP4956915B2 (ja) * | 2005-05-20 | 2012-06-20 | 日産自動車株式会社 | 映像表示装置及び映像表示方法 |
DE102006026092A1 (de) * | 2006-06-03 | 2007-12-06 | Bayerische Motoren Werke Ag | Verfahren zur Steuerung eines Einparkvorgangs |
JP4867512B2 (ja) * | 2006-07-20 | 2012-02-01 | 株式会社デンソー | 画像表示装置およびプログラム |
JP2008286755A (ja) * | 2007-05-21 | 2008-11-27 | Alpine Electronics Inc | 地図画像表示装置 |
JP5312815B2 (ja) * | 2008-02-08 | 2013-10-09 | ヤフー株式会社 | 地図拡大表示装置 |
JP2009205302A (ja) * | 2008-02-26 | 2009-09-10 | Tokai Rika Co Ltd | シームレス表示式操作装置 |
DE102008056974A1 (de) * | 2008-11-13 | 2010-05-20 | Bayerische Motoren Werke Aktiengesellschaft | Kraftfahrzeugbediensystem |
JP5308810B2 (ja) * | 2008-12-29 | 2013-10-09 | クラリオン株式会社 | 車載映像表示装置 |
JP5765995B2 (ja) * | 2011-03-31 | 2015-08-19 | 富士通テン株式会社 | 画像表示システム |
-
2010
- 2010-08-12 DE DE102010034140A patent/DE102010034140A1/de not_active Withdrawn
-
2011
- 2011-07-25 US US13/814,972 patent/US8880344B2/en active Active
- 2011-07-25 WO PCT/EP2011/062699 patent/WO2012019901A1/de active Application Filing
- 2011-07-25 CN CN201180047197.9A patent/CN103140377B/zh active Active
- 2011-07-25 EP EP11743485.2A patent/EP2603402B1/de active Active
- 2011-07-25 JP JP2013523554A patent/JP2013535753A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1065642A2 (en) * | 1999-06-25 | 2001-01-03 | Fujitsu Ten Limited | Vehicle drive assist system |
EP1283406A2 (de) * | 2001-08-01 | 2003-02-12 | Siemens Aktiengesellschaft | Bildverarbeitungsvorrichtung für ein Fahrzeug und Betriebsverfahren |
FR2902381A1 (fr) * | 2006-06-20 | 2007-12-21 | Peugeot Citroen Automobiles Sa | Fusion d'images entre un systeme de navigation et un systeme de vision de nuit |
CN101140166A (zh) * | 2006-09-06 | 2008-03-12 | 阿尔派株式会社 | 导航装置及交叉点指引图的描绘方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103140377A (zh) | 2013-06-05 |
EP2603402B1 (de) | 2015-04-15 |
US20130191022A1 (en) | 2013-07-25 |
WO2012019901A1 (de) | 2012-02-16 |
JP2013535753A (ja) | 2013-09-12 |
EP2603402A1 (de) | 2013-06-19 |
DE102010034140A1 (de) | 2012-02-16 |
US8880344B2 (en) | 2014-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103140377B (zh) | 用于在显示装置上显示图像的方法和驾驶员辅助系统 | |
KR102206272B1 (ko) | 주차 지원 방법 및 주차 지원 장치 | |
EP2724896B1 (en) | Parking assistance device | |
EP2936240B1 (en) | Infotainment system | |
EP1894779B1 (en) | Method of operating a night-view system in a vehicle and corresponding night-view system | |
EP1961613B1 (en) | Driving support method and driving support device | |
US8441536B2 (en) | Vehicle periphery displaying apparatus | |
JP4366716B2 (ja) | 車両用情報表示装置 | |
US20130096820A1 (en) | Virtual display system for a vehicle | |
CN107547864B (zh) | 用于车辆的周围视域监控系统和方法 | |
US20070239357A1 (en) | Driving support method and driving support device | |
US20080195315A1 (en) | Movable-Body Navigation Information Display Method and Movable-Body Navigation Information Display Unit | |
EP1803602A1 (en) | Driving assist method and driving assist apparatus | |
US20120127312A1 (en) | Vehicle periphery image generation apparatus | |
JP2007080060A (ja) | 対象物特定装置 | |
WO2014176478A1 (en) | Scene awareness system for a vehicle | |
JPH0935177A (ja) | 運転支援方法および運転支援装置 | |
JP2006268076A (ja) | 運転支援システム | |
JP2009211624A (ja) | 運転支援装置、運転支援方法及びコンピュータプログラム | |
JP2008018760A (ja) | 運転支援装置 | |
JP2008279875A (ja) | 駐車支援装置 | |
WO2016102304A1 (en) | Method for presenting an image overlay element in an image with 3d information, driver assistance system and motor vehicle | |
JP4932293B2 (ja) | 障害物認識装置 | |
JP5273068B2 (ja) | 車両周辺監視装置 | |
JP4857159B2 (ja) | 車両運転支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |