CN111284487A - 车道线显示方法以及执行该方法的电子设备 - Google Patents
车道线显示方法以及执行该方法的电子设备 Download PDFInfo
- Publication number
- CN111284487A CN111284487A CN201911241095.5A CN201911241095A CN111284487A CN 111284487 A CN111284487 A CN 111284487A CN 201911241095 A CN201911241095 A CN 201911241095A CN 111284487 A CN111284487 A CN 111284487A
- Authority
- CN
- China
- Prior art keywords
- lane line
- vehicle
- image
- lane
- curve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000001514 detection method Methods 0.000 claims description 21
- 238000004891 communication Methods 0.000 description 62
- 230000003190 augmentative effect Effects 0.000 description 26
- 230000015654 memory Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/029—Steering assistants using warnings or proposing actions to the driver without influencing the steering system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/12—Limiting control by the driver depending on vehicle state, e.g. interlocking means for the control input for preventing unsafe operation
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Human Computer Interaction (AREA)
- Combustion & Propulsion (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本发明涉及一种电子设备的车道线显示方法,根据本发明的车道线显示方法,包括:获取车辆行驶时拍摄的影像的步骤;根据从车辆的距离分割所获取的影像的步骤;在所述分割的影像中检测车道线的步骤;将所述检测的车道线拟合在连续的曲线的步骤;以及根据预定的用户界面显示所述拟合的曲线的步骤。根据本发明,可以通过判断在行驶车道上是否存在车辆来识别远距离的车道线,从而,可以提高驾驶员的可见性。另外,通过将实时车道识别结果用于路线引导显示,可以提供更准确的路线引导信息。
Description
技术领域
本发明涉及一种电子设备的车道线显示方法以及电子设备。
背景技术
随着互联网的开放以及与位置数据有关的法律的整顿,基于位置的服务(Location Based Service;LBS)的相关行业变得活跃。利用该基于位置的服务的代表性的装置可以举车辆导航装置,该车辆导航装置提供路线引导服务,该路线引导服务通过测量车辆等的当前位置来引导目的地为止的移动路线。
此外,为了判断在车辆停止或驾驶过程中发生的事故责任而引起的过失率,越来越需要客观的资料。因此,使用能够提供客观的资料的车辆用黑匣子。
车道线脱离警告是为了保护驾驶员免受因驾驶员的粗心、困倦驾驶等发生的车道线脱离事故而向驾驶员警告脱离了车道线。为了提高车道线脱离警告的准确度,必须正确地识别车道线,但是,由于当前对车道线识别依赖于电子地图,因此,当实际行驶车道与地图信息之间有差别时会对警告的准确性造成问题。
因此,如当前的车道线脱离警告服务的情况,为了单纯地识别车道线,主要地仅在近距离直线和特定速度以上运行,而在弯道区间,仅在行驶车道前方没有车辆时才进行车道识别,其活用范围有限。
发明内容
本发明涉及一种在准确地识别车道线的前提下支持驾驶员安全驾驶的电子设备以及电子设备的车道线脱离警告方法。
用于解决所述技术问题的本发明的车道线显示方法,包括:获取车辆行驶时拍摄的影像的步骤;将所获取的影像根据与车辆的距离进行分割的步骤;检测所述分割的影像内车道线的步骤;将所述检测到的车道线拟合在连续的曲线的步骤;以及在预定的用户界面上显示所述经拟合的曲线的步骤。
优选地,所述分割步骤以根据与所述距离确定的分辨率来分割所述输入的影像。
优选地,所述分割步骤中,以所述影像中的消失点或前方车辆为准分割影像并生成第一部分影像,
所述检测步骤中在所述第一部分影像中检测车道线。
优选地,所述分割步骤中生成包括距离比所述第一部分影像更远的区域的第二部分影像,
所述检测步骤中在所述第二部分影像检测车道线。
优选地,所述检测步骤中判断所述分割的影像中是否存在行驶车辆,并检测不存在所述行驶车辆的车道的车道线。
优选地,所述拟合的步骤中根据所述检测到的车道线及是否存在行驶车辆来拟合所述检测的车道线。
优选地,所述显示步骤中将所述车辆的行驶路线显示在所述经拟合的曲线上。
用于解决所述技术问题的本发明的车道线脱离引导方法,包括:获取车辆行驶时拍摄的影像的步骤;将所获取的影像根据从车辆的距离进行分割,并检测所述分割的影像内的车道线的步骤;通过以连续曲线拟合所述检测到的车道线来识别所述车辆行驶的车道的车道线的步骤;以及根据所述识别的车道的车道线来判断所述车辆是否脱离车道的步骤。
优选地,还包括:在预定的用户界面上显示所述拟合的曲线的步骤。
优选地,所述显示步骤中,在所述用户界面上显示所述判断的是否脱离车道线。
优选地,所述判断的步骤中考虑所述拟合的曲线的切弯行为调整用于判断是否脱离所述车道线的阈值。
用于解决所述技术问题的本发明的电子设备,包括:影像获取部,用于获取在车辆行驶时拍摄的影像;影像分割部,用于将所获取的影像根据从车辆的距离进行分割;车道线检测部,用于检测所述分割的影像中的车道线;曲线拟合部,用于将所述检测到的车道线近似为连续曲线;以及显示部,用于在预定的用户界面上显示所述拟合的曲线。
优选地,所述影像分割部以根据所述距离确定的分辨率分割所述输入的影像。
优选地,所述影像分割部,通过以所述影像中的消失点或前方车辆为准分割影像,并生成第一部分影像,
所述车道线检测部在所述第一部分影像检测车道线。
优选地,所述影像分割部生成包括距离比所述第一部分影像更远的区域的第二部分影像,
所述车道线检测部在所述第二部分影像检测车道线。
优选地,所述车道线检测部判断所述分割的影像中是否存在行驶车辆,并检测不存在所述行驶车辆的车道的车道线。
优选地,所述曲线拟合部根据所述检测到的车道线及是否存在行驶车辆来拟合所述检测到的车道线。
优选地,所述显示部将所述车辆的行驶路线显示在所述拟合的曲线上。
本发明的问题的解决方案并不局限于所述解决方案,本发明所属技术领域的普通技术人员可以明确理解未提及的解决方案能够从本说明书及附图导出。
发明效果
根据本发明,通过判断行驶车道上是否有车辆来识别远距离的车道线,从而,可以提高驾驶员的路线可视性。另外,在通过增强现实(AR:Augmented Reality)显示的路线引导中使用实时车道线识别结果,可以提供更准确的路线引导信息。
另外,通过判断行驶车道上是否有车辆来灵活地检测远距离的车道线,从而,可以提高车道线检测速度及准确度。
另外,通过根据距离将影像中存在车道线的区域分割为不同的分辨率,从而,可以检测并利用更细密的曲线。
附图说明
图1是示出根据本发明的一实施例的用于执行车道线显示方法的电子设备的框图。
图2是示出根据本发明的一实施例的车道线显示方法的流程图。
图3至图6是示出根据本发明的一实施例的车道线显示方法中的影像分割例的示例图。
图7至图8c是示出根据本发明的一实施例的车道线显示方法中的车道线检测过程的示例图。
图9是示出根据本发明的一实施例的车道线脱离引导方法的流程图。
图10是示出根据本发明的一实施例的车道线脱离引导方法的设置阈值的示例图。
图11是示出根据本发明的一实施例的系统的框图。
图12是用于说明与根据本发明的一实施例的系统相连接的系统网络的图。
图13是示出根据本发明的一实施例的系统的车道线脱离引导画面的图。
图14是示出根据本发明的一实施例的系统不具备拍摄部时的体现形态的图。
图15是示出根据本发明的一实施例的系统具备拍摄部时的体现形态的图。
图16是示出根据本发明的一实施例的使用平视显示器(HUD:Head-Up Display)的体现实施形态的图。
图17是示出根据本发明的一实施例的自动行驶车辆的结构的框图。
图18是示出根据本发明的一实施例的控制装置的详细结构的框图。
具体实施方式
以下的内容仅例示发明的原理。因此,本发明所属技术领域的普通技术人员可以发明虽并未在说明书中明确说明或示出但体现发明的原理且包含在发明的概念中的多种装置。并且,在本说明书中列举的所有条件部术语及实施例仅用于明确理解本发明的概念,而并不局限于如上所述的特别列举的实施例及状态。
所述目的、特征及优点通过与附图有关的以下的详细说明将变得更加明确,由此,本发明所属技术领域的普通技术人员可以轻松实施本发明的技术思想。
并且,在说明本发明的过程中,在判断对于与本发明有关的公知技术的具体说明使本发明的主旨不清楚的情况下,将省略对其的详细说明。以下,参照附图,详细说明本发明的优选实施例。
本发明的所述目的、特征及优点通过与附图有关的以下的详细说明将变得更加明确。只是,本发明具有多种变更,并可具有多种实施例,以下,在附图中例示特定实施例并对其进行详细说明。在整个说明书中,相同的附图标记表示相同的结构要素。并且,在对于与本发明有关的公知功能或结构的具体说明使本发明的主旨不清楚的情况下,将省略对其的详细说明。
以下,参照附图,详细说明与本发明有关的电子设备及服务器的结构。对于在以下的说明中所使用的结构要素的词尾“模块”及“部”仅考虑说明书制定的简单性而赋予或者混用,其自身并不具有相互区别的含义或作用。
在本说明书中所使用的电子设备可以包括手机、智能手机(smart phone)、笔记本电脑(notebook computer)、数字广播终端、个人数据助理(PDA,Personal DigitalAssistant)、便携式多媒体播放器(PMP,Portable Multi-media Player)、导航终端等。以下,为了说明的便利,将所述电子设备假设为导航终端来进行说明。
交通相关影像为从用户设备及其他设备(例如,CCTV等)收集的交通影像,可以为道路拥堵信息、路面状态信息、事故信息、道路事故信息等的静止影像、视频的影像数据。
以下,参照附图,详细说明本发明。
参照图1说明根据本发明的一实施例的电子设备10。
图1是根据本发明的一实施例的电子设备10的结构框图。
在本实施例中,电子设备10可以包括影像获取部12、影像分割部14、车道线检测部16、曲线拟合部18及显示部19。
影像获取部12获取在车辆行驶时拍摄的影像。
影像获取部12可以获取由摄像头模块直接拍摄的前方影像。或者从外部的至少一个摄像头(未图示)直接接收与车辆行驶有关的影像。例如,当电子设备10作为车辆导航装置动作时,影像获取部12可以接收并获取由车辆的黑匣子装置拍摄的影像。
即,影像获取部12可以直接拍摄获取影像,或者还可以接收并获取由外部的其他设备拍摄的影像。
影像分割部14根据与车辆的距离来分割所获取的影像。
在本实施例中,由于电子设备10将影像分割为多个部分影像以识别影像中的车道线,因此,影像分割部14根据预定的基准分割所获得的影像。
此时,可以利用固定的基准或参照在影像中识别的车辆等的对象信息并利用动态基准来执行影像的分割。
对此,将参照图3更详细说明。
首先,说明作为影像的分割方法利用固定的基准的方法。
参照图3,影像分割部14提取所获取影像的消失点(vanishing point)5,基于消失点5,可以将当前的车辆位置和消失点5为止的距离为准分割影像。
影像分割部14可以首先识别影像中的地面区域。影像分割部14可以利用对影像的车道线的消失点5来识别影像中的地平线,并且可以以地平线为准将以下区域识别为地面区域。此时,影像分割部14可根据距离将识别出的地面区域分割成多个部分影像。
例如,当到消失点5为止的距离为d时,可以将从当前车辆位置即影像的下端到成为d/2地点为止的影像分割为第一部分影像。
另外,可以将从剩余影像到消失点5为止的影像分割为第二部分影像,并且,以距离d/4为准还可以将第二部分影像分割为第三部分影像。
即,在本实施例中,影像分割部14将到消失点5为止的影像分割为多个,并可以从分割的影像中检测出车道线。
在其他实施例中,影像分割部14还可以动态地分割影像。
例如,作为分割影像的基准可以利用以当前方车辆的行驶车道线为准到前方车辆8所在的位置为止的距离。
参照图4,影像分割部14可以从所获取的影像中提取前方车辆8,并且可以以行驶车道线内的前方车辆8为准分割影像。
即,可以将前方车辆8所存在的距离d为止分割为第一部分影像。
此时,对剩余影像可以分割为与到消失点5为止的距离d`相对应的第二部分影像。或者,以第二部分影像d`为准可进一步分割为第三部分影像d`/2。
即,在本实施例中,由于最初的第一部分影像的分割基准利用前方车辆8的位置,因此,可以动态地改变基准,对于车道线可以通过附加影像处理来识别车道线。
作为其他实施例还可以仅将前方车辆的位置用作分割影像的基准。
参照图5a,在本实施例中,影像分割部14作为包括在所获得的影像中的对象获取前方车辆8a、8b的位置,以前方车辆的位置为准可以从近距离开始分割影像。
因此,影像分割部14可以分割为与到行驶车道线的前方车辆8a为止的距离d相对应的第一部分影像、在剩余影像中与到当前车道线或位于旁边的车道线的前方车辆8b为止的距离d`相对应的第二部分影像、以及与到消失点5为止的距离d``相对应的第三部分影像。
以上,本发明的实施例中,影像分割部14以消失点为准可根据预定距离分割影像,或者可以以作为影像中包含的对象前方车辆的位置为准分割影像。
另外,在影像中没有前方车辆时,可以根据预定距离分割影像,并且在影像中存在前方车辆时,还可以根据与前方车辆的距离分割影像。
然而,参照图5b,在本实施例中,影像分割部14根据所获取的影像中包括的对象即前方车辆8c、8d、8e的位置,会发生车道线1000a、1000b、1000c、1000d被车辆局部遮挡的情况。
具体而言,在图5b的情况下,3个车道线1000a、1000b、1000d会被在前方行驶的车辆局部遮挡。
因此,可以利用影像中车道线的周边信息来插补被遮挡的区域1150使得利用车道线准确地引导,对此,在下面的曲线拟合部18中更详细说明。车道线检测部16在分割的影像中检测车道线。
车道线检测部16可以利用各种过滤算法从车辆的行驶影像识别在道路上显示的车道线显示线。
例如,车道线检测部16可以利用边缘滤波器从影像中提取用于区分车道线的车道线显示线。在使用边缘滤波器的情况下,车道线检测部16利用影像中包括的每个像素的亮度值来搜索影像中构成边界的部分。并且,基于检索到的边界部分识别车道线显示线。
一方面,边缘滤波器是识别车道线显示线的方法的一例,在本文中公开的车道线检测部16除了利用边缘滤波器的方法之外,还可以利用各种滤波算法提取影像中包括的车道线显示线。
当提取车道线显示线时,车道线检测部16可以基于所提取的车道线显示线的轮廓线获取直线、曲线、实线、虚线等车道线显示线的显示形态。另外,车道线检测部16通过对所提取的车道线显示线的颜色识别可以获取车道线显示线的颜色信息。
车道线检测部16对如上所述分割的多个影像可以检测每个车道线。
另外,当从第二部分影像或第三部分影像提取多个车道线显示线时,车道线检测部16在多个车道线显示线中可以识别对应于车辆行驶中的车道线的一个以上的车道线显示线。
此处,车道线检测部16可以利用从影像中提取的每个车道线显示线的影像中的显示位置来选择影像中包括的车道线显示线中对应于车辆行驶中的车道线的车道线显示线。
例如,当从影像中检测到多个车道线显示线时,车道线检测部16设定垂直横穿影像的基准线,并可以基于基准线和每个车道线显示线之间的距离选择对应于车辆行驶中的车道线的车道线显示线。
即,可以选择接近基准线的车道线显示线作为与车辆行驶中的车道线有关的车道线显示线。另外,车道线检测部16还可根据以基准线为准车道线显示线位于哪一侧来区分车辆行驶中的车道线的左侧显示线和右侧显示线。
通过以上过程,车道线检测部16可以在检测到的车道线中准确地识别车辆行驶中的车道线。
曲线拟合部18将所检测的车道线拟合(curve fitting)为连续的曲线。具体而言,曲线拟合部18在连续的曲线中拟合在多个车道线中车辆行驶中的车道线。
本说明书中使用的曲线拟合(Curve fitting)是数据拟合(Data fitting)的一种,可根据检测到的车道线上的两个连续点之间的斜率来构成曲线。因此,在本说明书的曲线拟合中,“曲线”是代表性的含义表达,作为拟合基准,曲线还可以包括“直线”。例如,将检测到的车道线分割为多个区间,并且所分割的区间的起点和终点之间的斜率差为0时,可以用直线表现,两点之间存在斜率时,根据其斜率会构成曲线。因此,尽管在本说明书中表达为“曲线拟合”,但是不应该仅限于此表现。
在本实施例中,由于车道线检测部16对每个影像分别检测车道线,因此,将所检测的车道线按原样组合时,其局部会移位或断开表示。因此,曲线拟合部18可将车道线拟合至基准曲线,以便将检测到的车道线以连续的形态提供给用户。
此时,成为拟合的基准的曲线是以所获取的影像为准而计算或者可以利用通过外部的数据接收的链接信息生成。
例如,可以以所获取的影像为准识别车道线的起点和终点,并拟合为所检测的车道线相连续连接。可以考虑每个检测到的车道线的曲率和距离来生成并拟合需要拟合的基准曲线。
或者,考虑到当前车辆的行驶位置,可以通过外部的地图数据等接收与行驶位置相对应的道路的曲率,并且,还可以对根据相应道路的曲率值生成的曲线上拟合所检测的车道线。
另外,如图5b所示,在本实施例中可能会发生车道线的一部分被位于车道线中的车辆遮挡的情况。
在本实施例中,识别远距离的车道线,并将其拟合为连续的曲线,此时,会发生远距离的车道线被车辆遮挡的情况,因此,需要对其进行其他的处理。
具体而言,曲线拟合部18可以利用未被车辆遮挡的其他车道线信息来插补检测到的车道线中被车辆遮挡的部分。
为此,曲线拟合部18可以提取用于在影像中插补的基准信息。
参照图8b,可以提取道路的中心点作为用于拟合的第一基准。在上述例中,虽然说明了以消失点为准区分距离的例,但是,可以提取道路的中心点来进行车道线的插补。
具体而言,道路的中心点可以利用行驶各道路的车辆8f、8g的移动信息来提取。
车辆的移动信息可以利用车辆的特征点来判断。在依次输入的影像内提取特征点,并可以将特征点的移动倾向生成为光流(Optical flow)。
所生成的光流可由具有大小和方向的矢量而定义,这样的矢量可以朝特定点收敛。通常,由于行驶中的车辆继续朝道路的中心行驶,因此,对车辆的特征点的矢量也可以朝道路的中心点生成。因此,在本实施例中,可以提取道路的中心点5a、5b、5c来作为向对各特征点的移动倾向收敛矢量的地点。
接着,曲线拟合部18作为第二基准除了利用道路的中心点之外还可以利用其他车道线的信息。
下面,参照图8c更详细说明曲线拟合部18的具体动作。
如图8c所示,当道路为向右弯曲的曲线时,可能会发生左侧车道线被车辆遮挡的情况。即,位于左侧的车道线1100a的2个区域被在前方行驶的两个车辆遮挡,因此,车道线检测部16无法检测到该车道线。
此时,曲线拟合部18可以以未被遮挡的对面车道线1100b为准插补未检测到车道线的区域。
即,在上述例中,曲线拟合部18将通过光流提取的道路的中心点5c和两个车道线中未被遮挡的车道线1100b用于插补。
在一般道路结构上,假设没有被遮挡的车道线1100b和对面车道线1100a以道路的中心点5c为准位于相同的距离。
因此,曲线拟合部18利用检测出的车道线1100b和从道路中心点b生成的虚拟中心线1050,在对称的位置生成任意车道线,可以插补车道线1100a的被遮挡的区域1100a-1、1100a-2。
通过以上过程,本实施例中,曲线拟合部18根据道路的弯道利用对面车道线和中心线插补被车辆局部遮挡的区域,从而,可以给用户提供更加准确的车道线信息。
显示部19根据预定的用户界面显示通过以上过程拟合的曲线。
显示部19可以显示直接拟合的曲线,或者可以通过车载显示装置显示拟合的曲线。
例如,当电子设备10为导航装置时,由于包括用于引导路线的显示装置,由此,将当前行驶的车道线可以利用拟合的曲线更加明确地显示给用户。
但是,根据本发明拟合的曲线除了单纯地引导路线之外,作为辅助用户驾驶的信息需要更加生动地提供给用户,因此,可以利用外部的显示装置提供。
具体而言,外部的显示装置可为平视显示器(HUD:Head Up Display)或增强现实(AR:Augmented Reality)装置。
在HUD装置的情况下,影像被反射在车辆的前玻璃上,并且车辆驾驶员可以通过确认在前玻璃上反射的影像来获取信息。此时,显示部19可以在由HUD显示的影像中显示经拟合的曲线,并可以将由此而产生的行驶引导信息提供给驾驶员。
因此,用户可以在注视前方的状态下确认所显示的的影像,而不必在驾驶时移动视线,并且,当发生脱离由曲线表示的车道线的情况下,用户可以相应地接收引导消息。
或者,为了提供更加详细的信息,可以利用增强现实装置。
增强现实装置可以在通过摄像头获得的前方影像中重叠虚拟影像而提供。
通常,利用增强现实的行驶引导可以将与车辆的行驶状态相对应的显示要素附加在行驶影像的地面区域,以提醒、注意、警告等行驶状态表现。
作为用于表现行驶状态的显示元件可以适用颜色和图案中的至少一种。预先区分定义行驶状态(例如,一般行驶状态、超速行驶状态、注意区间进入状态、GPS阴影区间进入状态),以符合各行驶状态的视觉要素表现地面区域以匹配颜色所具有的特征。
具体而言,显示部19可以对影像中的车道线重叠拟合的曲线而表示。因此,用户可以直观地通过重叠表示在自己行驶中的车道线上的曲线来得到与车道线有关的行驶引导信息。
下面,参照图2说明根据本发明的一实施例的通过按电子设备10的距离检测影像的车道线的曲线显示方法。
图2是示出根据本发明的一实施例的曲线显示方法的流程图。
参照图2,电子设备10的影像获取部12获取在车辆行驶时拍摄的影像(S10)。当获取影像时,影像分割部14根据与车辆的距离分割所获取的影像(S20)。
此时,在分割步骤S20中,可以以根据距离确定的分辨率分割所输入的影像。如上所述,根据距离分割为部分影像时,将经分割的影像可以分割为分别不同的尺寸(分辨率)。
参照图6,在分割步骤(S20)中,对前方影像100按距离分割影像,此时,可以设置为与车辆的距离越远,部分影像的尺寸越大。
即,近距离的部分影像1006可以被设置为较小以便检测当前行驶中的车道线的显示线,中距离部分影像1004和远距离部分影像1002可以被设置为较大,以便不仅检测当前行驶中的车道线,还可以检测其他多个车道线的显示线。
具体而言,如上所述,由于可以根据距离d确定部分影像的纵轴的尺寸作为分割影像的基准,因此,使横轴的尺寸可以随着距离的增加而增加,从而可以对远距离检测出多个车道线。
例如,将最接近的近距离的部分影像1006的横宽可以设置为320像素,并且,将中距离的部分影像1004的横宽可以设置为与近距离相同或更大的像素。将远距离的部分影像1002的横宽可以设置为所获得的原始影像的尺寸。
通过上述过程进行分割的步骤生成分别以预设的尺寸分割的部分影像。
车道线检测部16检测所述经分割的影像中的车道线(S30)。
车道检测步骤(S30)可以检测在每个经分割的影像中存在的车道线,具体而言,可以通过影像处理来检测显示车道线的车道线显示线。
参照图7,可以如图7显示图6中经分割的影像中检测到的车道线。在近距离部分影像1006a中主要检测行驶车道线,在中距离部分影像1004a中可以检测当前行驶车道线和局部旁边的车道线,对远距离的部分影像1002a可以检测到包括行驶车道线的整个车道的车道线。
此时,由于在每个分割的影像中检测到检测到的车道线,因此,为了显示为一个连续的车道线,会需要额外的处理过程。
因此,在本实施例中,曲线拟合部18以连续曲线拟合所述检测到的车道线(S40)。
参照图8,可以通过将检测到的车道线拟合到基于在每个影像中检测到的车道线的长度和曲率信息而得出的基准曲线来生成连续的车道线。
另外,可以通过与当前车辆行驶中的位置信息相对应的道路的曲率、长度信息等生成用于拟合的基准曲线,对基准曲线分别拟合所检测的车道线来从行驶中的车辆的前方影像1000a中获取道路的车道线信息1100。
显示部19根据预定的用户界面显示拟合的曲线(S50)。
在显示的步骤(S50)中,如上所述,在显示装置上可以直接重叠显示行驶时获取的影像和车道线,或者可以通过HUD装置等附加提供车道线信息,使用户获取驾驶所需要的引导信息。
另外,根据本实施例的电子设备10可以构成模块,该模块通过进一步检测的车道线判断驾驶员是否脱离车道线来提供引导信息。
即,当驾驶员脱离车道线时,通过由经分割的影像进行检测并拟合的曲线提供提醒。
根据本实施例的电子设备10可以基于在拟合步骤中获取的车道线信息来判断车辆是否脱离车道线。
在此,电子设备10可以基于车辆行驶中的车道的车道线显示线的影像中的位置和行驶中的车辆的相对距离(侧向距离)来确定车辆是否脱离车道线。
参照图9,根据本发明的一实施例的电子设备10可以利用基于检测到的车道线信息设置的虚拟基准线来判断是否脱离车道线,根据判断结果提供提醒。
具体而言,电子设备10可以通过根据上述的实施例检测到的车道线来识别车辆行驶中的道路的车道线(S100)。
当识别出道路的车道线时,可以基于识别出的车道线生成预定距离的侧面阈值线。
参照图10,本实施例中,为了判断是否脱离车道线,电子设备10可以设置最早的提醒线1100c及最晚的提醒线1100b,其中,最早的提醒线1100c以所检测的车道线1100为准位于最内侧,最晚的提醒线1100b以所检测的车道线1100为准位于最外侧。
具体而言,最早的提醒线1100c和最晚的提醒线1100b可被任意地设置为以检测到的车道线1100为准事先确定的具有侧面间隔的线。例如,最早的提醒线1100c和最晚的提醒线1100b的间隔可以基于车辆的速度、车道的宽度、车道的数量等而确定。
通过以上过程形成最早的提醒线1100c和最晚的提醒线1100b之间的警告区间,并在警告区间内可以设置用于提醒实际脱离车道线的阈值提醒线1100a。
设置阈值提醒线1100a后,相对于车道线判断车辆的侧面位置,由此判断车辆行驶中是否侵犯了阈值提醒线1100a。
判断结果,侵犯了所设置的阈值提醒线1100a时,电子设备10可以向驾驶员提供因脱离车道线而产生的引导信息。
另外,在本实施例中,阈值提醒线1100a可基于检测到的车道线信息根据曲率、弯道半径而改变。
例如,当车辆行驶在急转弯时,进一步扩张阈值提醒线1100a而在行驶转弯区间时可以考虑驾驶员的切弯行为(curve cutting behavior)提供提醒信息。
切弯行为是指在驾驶员行驶弯道时减小因离心力而产生的横向加速度而引起的影响并以小于实际道路的曲率的曲率行驶的驾驶员的动作。
例如,当驾驶员进入弯道时,在车道中也可以以弯道的中心为准从远处进入近处,并且,在从弯道出来时,可以从近处驶向远处。
因此,在急转弯道上,即使驾驶员将车辆靠近弯道中心方向的车道线行驶,也可以通过扩张阈值提醒线1100a判断为正常行驶,并不会提供因脱离车道线而产生的提醒。
以上,根据本发明,通过判断在行驶车道上是否有车辆来识别远距离的车道线,从而,可以提高驾驶员的路线可见性。另外,在通过增强现实引导路线时,通过使用实时车道线识别结果提供更准确的路线引导信息。
另外,通过判断行驶车道上是否有车辆,灵活地检测出远距离的车道线,从而,可以提高检测车道线的速度及准确度。另外,将存在车道线的影像中的区域分为长距离、中距离及近距离的3个部分,并在不同的分辨率下检测更加细密的曲线而可以使用。
一方面,这样的电子设备10可以由高级驾驶员辅助系统(ADAS:Advanced DriverAssistance System)或用于自动驾驶的系统100的一模块体现,可以执行车道线引导功能。对此,参照图11至13更加详细说明。
图11是示出根据本发明的一实施例的系统的框图。参照图11,系统100包括存储部110、输入部120、输出部130、弯道引导部140、增强现实提供部160、控制部170、通信部180、感测部190、电源部195的全部或一部分。
其中,系统100可以为如向车辆的驾驶人员提供驾驶相关引导的智能手机、平板电脑、笔记本电脑、个人数据助理(PDA,personal digital assistant)、便携式多媒体播放器(PMP,portable multimedia player)、智能玻璃、工程玻璃、导航(navigation)、作为车辆用影像拍摄装置的数码录影机、车载行车记录仪及车载录像机等的多种装置并可设置于车辆。
驾驶相关引导可以包括如路线引导、车道线脱离引导、车道线维持引导、前方车辆出发引导、信号灯变更引导、前方车辆碰撞防止引导、车道变更引导、车道引导、弯道引导等用于辅助车辆驾驶人员的驾驶的多种引导。
其中,路线引导可以包括:增强现实路线引导,在拍摄运行中的车辆的前方的影像结合如用户的位置、方向等的各种信息来执行路线引导;以及二维或三维路线引导,在二维(2D,2-Dimensional)或三维(3D,3-Dimensional)的地图数据结合用户的位置、方向等的各种信息来执行路线引导。
不仅如此,路线引导可以包括通过在航空地图数据结合如用户的位置、方向等的各种信息来执行路线引导的航空地图路线引导。其中,路线引导包括用户搭乘车辆进行驾驶的情况和用户行走或跑步移动的情况下的路线引导。
并且,车道线脱离引导用于引导行驶中的车辆是否脱离车道线。
并且,车道线维持引导用于引导车辆回到原本行驶的行车道。
并且,前方车辆出发引导用于引导位于停车的车辆前方的车辆是否出发。
并且,信号灯变更引导用于引导位于停车的车辆的前方的信号灯是否变更信号。作为一例,若在表示停止信号的红色信号灯的状态下变为表示出发信号的绿色信号灯,则对其进行引导。
并且,若与位于停车或行驶中的车辆的前方的车辆的距离为规定距离以内,则前方车辆碰撞警告方法引导用于引导与前方车辆的碰撞。
并且,车道变更引导是为了向目的地进行引导而从车辆所在的行车道向其他行车道变更的引导。
并且,行车道引导可用于引导当前车辆所在的行车道。
并且,弯道引导可用于引导在规定时间之后车辆行驶的道路为弯道。
如上所述,可以提供多种引导的如车辆的前方图像的驾驶相关影像可以通过设置于车辆的摄像头或智能手机的摄像头拍摄。其中,摄像头可为与设置于车辆的系统100形成为一体来拍摄车辆的前方的摄像头。
作为另一例,摄像头可为与系统100单独设置于车辆来拍摄车辆的前方。在此情况下,摄像头可为朝向车辆的前方设置的额外的车辆用影像拍摄装置,系统100可以与单独设置的车辆用影像拍摄装置通过有线、无线通信接收拍摄影像,或者若向系统插入用于存储车辆用影像拍摄装置的拍摄影像的存储介质,则系统100可以接收拍摄影像。
以下,以所述内容为基础,更加详细说明本发明一实施例的系统100。
存储部110用于存储系统100的动作所需要的多种数据及应用。尤其,存储部110可以存储系统100的动作所需要的数据,例如,操作系统、路线搜索应用、地图数据等。并且,存储部110可以存储通过系统100的动作生成的数据,例如,搜索的路线数据、接收的影像等。
所述存储部110可体现为如随机存取存储器(RAM,Random Access Memory)、闪存、只读存储器(ROM,Read Only Memory)、可擦除可编程只读存储器(EPROM,ErasableProgrammable ROM)、电子可擦除可编程只读存储器(EEPROM,Electronically Erasableand Programmable ROM)、寄存器、硬盘、可移动磁盘、存储卡、全球用户身份模块(USIM,Universal Subscriber Identity Module)等的内置型存储器件,也可体现为如USB存储器等的可拆装型存储器件。
输入部120具有将从系统100的外部的物理输入变换为电信号的功能。其中,输入部120可以包括用户输入部121和麦克风部123的全部或一部分。
用户输入部121可以接收如触摸、推送动作等的用户输入。其中,用户输入部121可以利用多种按钮形态、接收触摸输入的触摸传感器、接收接近运动的接近传感器中的至少一个来体现。
麦克风部123可以接收用户的语音及车辆的内外部发生的音响。
输出部130向用户以影像和/或语音输出系统100的数据的装置。其中,输出部130可以包括显示部131和音频输出部133的全部或一部分。
显示部131为向用户输出可以视觉识别的数据的装置。显示部131可以为设置于系统100的壳体前部面的显示部。并且,显示部131与系统100形成为一体,可以输出视觉识别数据,如平视显示器(Head Up Display),与系统100单独设置而可以输出视觉识别数据。
音频输出部133是输出系统100听觉性识别的数据的装置。音频输出部133可以体现为将向系统100的用户提醒的数据以声音表现的扬声器。
弯道引导部140可以执行所述弯道引导装置10的功能。具体而言,弯道引导部140获取与车辆行驶的道路相对应的链接信息,在未来时间点确定车辆的链接中的位置,利用确定的位置及基准时间点的车辆速度,判断在规定时间之后车辆将要行驶的弯道区域的危险度。
增强现实提供部160可以提供增强现实视觉模式。其中,增强现实为在装有用户实际观看的现实世界的画面视觉性重叠附加信息(例如,表示兴趣点(Point Of Interest,POI)的图形元素、引导弯道的图形元素及用于帮助驾驶人员的安全驾驶的多种附加信息等)来提供的方法。
所述增强现实提供部160可以包括校准部、三维空间生成部、对象生成部、匹配部的全部或一部分。
校准部可以执行从摄像头拍摄的拍摄影像推定与摄像头相对应的摄像头参数的校准(Calibration)。其中,摄像头参数为作为表示实际空间与照片匹配的关系的信息的构成摄像头矩阵的参数,可以包括摄像头外部参数(extrinsic parameters)、摄像头内部参数(intrinsic parameters)。
三维空间生成部以从摄像头拍摄的拍摄影像为基础生成虚拟三维空间。具体而言,三维空间生成部可将校准部推定的摄像头参数适用于二维拍摄影像来生成虚拟三维空间。
对象生成部可生成用于在增强现实进行引导的对象,例如,路线引导对象、车道变更引导对象、车道线脱离引导对象、弯道引导对象等。
匹配部可以在由三维空间生成部生成的虚拟三维空间匹配由对象生成部生成的对象。具体而言,匹配部可以确定在对象生成部生成的对象的虚拟三维空间中的位置,可以在确定的位置执行对象的匹配。
另一方面,通信部180用于使系统100与其他设备进行通信。通信部180可以包括位置数据部181、无线网络部183、广播收发部185、移动通信部186、近距离通信部187、有线通信部189的全部或一部分。
位置数据部181为通过全球导航卫星系统(GNSS,Global Navigation SatelliteSystem)获取位置数据的装置。全球导航卫星系统为利用从人工卫星接收的电波信号来计算接收终端的位置的导航系统。作为全球导航卫星系统的具体例,根据其操作主体,可以为全球定位系统(GPS,Global Positioning System)、伽利略(Galileo)、全球轨道导航卫星系统(GLONASS,Global Orbiting Navigational Satellite System)、指南针(COMPASS)、印度区域导航卫星系统(IRNSS,Indian Regional Navigational Satellite System)、准天顶卫星系统(QZSS,Quasi-Zenith Satellite System)等。本发明一实施例的系统100的位置数据部181可以通过接收使用系统100的区域进行服务的全球导航卫星系统信号来获取位置数据。或者,除全球导航卫星系统之外,位置数据部181可以通过与基站无线访问接入点(AP,Access Point)的通信获取位置数据。
无线网络部183连接无线网络来获取或发送数据。无线网络部183可通过执行无线局域网(WLAN,Wireless LAN)、无线宽带(Wibro,Wireless broadband)、全球微波接入互操作性(Wimax,World interoperability for microwave access)、高速下行链路分组接入(HSDPA,High Speed Downlink Packet Access)的无线数据收发的多种通讯协议连接网络。
广播收发部185通过各种广播系统收发广播信号。可通过广播收发部185收发的广播系统可以为地面数字多媒体广播(DMBT,Digital Multimedia BroadcastingTerrestrial)、数字多媒体广播卫星(DMBS,Digital Multimedia BroadcastingSatellite)、仅媒体转发链接(MediaFLO,Media Forward Link Only)、手持数字视频广播(DVBH,Digital Video Broadcast Handheld)、地面数字广播综合业务(ISDBT,IntegratedServices Digital Broadcast Terrestrial)等。通过广播收发部185收发的广播信号可以包含交通数据、生活数据等。
移动通信部186可以根据第三代(3G,3rd Generation)、第三代合作伙伴计划(3GPP,3rd Generation Partnership Project)、长期演进(LTE,Long Term Evolution)等的多种移动通信规格连接移动网络来进行语音及数据通信。
近距离通信部187为用于近距离通信的装置。如上所述,近距离通信部187可以通过蓝牙(Bluetooth)、射频识别(RFID,Radio Frequency Identification)、红外线通信(IrDA,Infrared Data Association)、超宽带(UWB,Ultra WideBand)、紫蜂(ZigBee)、近场通信(NFC,Near Field Communication)、无线保真(Wi-Fi,Wireless-Fidelity)等进行通信。
有线通信部189为可以使系统100与其他设备有线连接的接口设备。有线通信部189可以为通过USB端口进行通信的USB模块。
如上所述,通信部180可利用位置数据部181、无线网络部183、广播收发部185、移动通信部186、近距离通信部187、有线通信部189中的至少一个来与其他设备进行通信。
作为一例,在系统100不包括摄像头功能的情况下,可以利用近距离通信部187、有线通信部189中的至少一个来接收在如数码摄像机(Digital Video Recorder)、汽车行车记录仪(Car dash cam)或车载视频录像机(Car video recorder)的车辆用影像拍摄装置中拍摄的影像。
作为另一例,在与多个设备进行通信的情况下,一个通过近距离通信部187进行通信,另一个通过有线通信部119进行通信。
感测部190为可以检测系统100的当前状态的装置。感测部190可以包括运动感测部191和光感测部193的全部或一部分。
运动感测部191可以检测系统100的三维空间上的运动。运动感测部191可以包括三轴地磁传感器及三轴加速度传感器。将通过运动感测部191获取的运动数据与通过位置数据部181获取的位置数据相结合来更加准确地计算附着系统100的车辆的轨迹。
光感测部193为测量系统100的周边照度(illuminance)的装置。可利用通过光感测部193获取的照度数据来使显示部131的亮度与周边亮度相对应。
电源部195为供应系统100的动作或与系统100相连接的其他设备的动作而所需的电源的装置。电源部195可为从内置于系统100的电池或车辆等的外部电源接收电源的装置。并且,电源部195根据接收电源的形态体现为有线通信模块119或者体现为无线接收的装置。
控制部170控制系统100的整体动作。具体而言,控制部170可以控制存储部110、输入部120、输出部130、弯道引导部140、增强现实提供部160、通信部180、感测部190、电源部195的全部或一部分。
尤其,控制部170可以获取与之后车辆行驶的道路相对应的链接信息。其中,可从用于引导目的地为止的路线的路线引导数据获取。
作为一例,若输入部120输入目的地信息,则控制部170可以利用预先存储于存储部110的地图数据来生成至目的地的路线引导数据。或者,若通过输入部120输入目的地信息,则控制部170可以向服务器传送包含当前位置信息、目的地信息中的至少一种的路线引导请求。而且,根据所述路线引导请求,可以从服务器接收路线引导数据。在此情况下,控制部170可以从所述路线引导数据获取与车辆行驶的道路相对应的链接信息。
并且,若控制部170以车辆的实时位置信息为基础生成车辆的行驶预期路线信息,则可基于此获取链接信息。
另一方面,控制部170可以提供根据本发明的一实施例的车道线引导信息。即,分割所输入的影像来检测车道线,并可根据检测到的车道线和当前车辆的位置提供车道线脱离提醒信息。此时,控制部170可以利用图1至图10的判断过程。
控制部170可以控制输出部130使得根据判断结果输出车道线引导信息。另外,控制部170可以利用车辆的速度、以及曲率、车道线宽度及车道线数量等信息作为行驶车道线的信息并根据危险水平输出车道线引导信息。
如果车道线脱离危险度为第一危险水平,则控制部170可以控制输出部130以输出第一车道线脱离引导。在此,第一危险水平可以是显示用户需要注意的状态的数值。
如果车道线脱离危险度为第二危险水平,则控制部170可以控制输出部130以输出第二车道线脱离引导。在此,第二危险水平可以是显示用户需要较高的注意的状态的数值。
如果车道线脱离危险度低于第一危险水平,则控制部170可以控制输出部130以不输出车道线脱离引导。
另外,控制部170还可以将车道线脱离危险度分为3个阶段以上,并向用户提供符合每个阶段的情况的车道线脱离危险引导。
另一方面,这种车道线脱离可以在增强现实画面内执行。具体而言,增强现实提供部160可以生成车道线脱离引导对象,并将其与虚拟三维空间进行匹配来生成增强现实画面,控制部170可以控制显示部131以显示所述生成的增强现实画面。
图12为用于说明与本发明一实施例的系统连接的系统网络的图。参照图12,本发明一实施例的系统100可以由如导航、车辆用影像拍摄装置、智能手机或其他车辆用增强现实界面提供装置等的设置于车辆的各种装置体现,可以与多种通信网及其他电子设备61、62、63、64链接。
并且,系统100可以根据从人造卫星20接收的电波信号来与CPG模块建立联动并计算当前位置及当前时段。
各个人造卫星20可以发送频带不同的L带频率。系统100以从各个人造卫星20发送的L带频率到达系统100为止所需要的时间为基础计算当前位置。
另一方面,系统100可以通过通信部180与控制站40(ACR)、基站50(RAS)连接,通过无线访问接入点(AP,Access Point)等与网络30无线连接。若系统100与网络30连接,则也与网络30连接的其他电子设备61、62间接连接来交换数据。
另一方面,系统100可以通过具有通信功能的其他设备63与网络30间接连接。例如,在系统100不具有可以与网络30连接的模块的情况下,可通过近距离通信模块等来与具有通信功能的其他设备63进行通信。
图13为示出根据本发明的一实施例的系统的车道线脱离引导画面的图。参照图13,系统100可以生成表示车道线脱离的危险度的引导对象,并可通过增强现实输出所生成的引导对象1003。
其中,引导对象1003可以为引导用户需要注意的状态的对象。即,车道线脱离可以为用于提醒车辆脱离车道线的危险的注意(attention)引导。在本实施例中,引导对象1003体现为纹理(texture)图像并可通过增强现实表现。由此,驾驶人员可以轻松识别自己车辆行驶的道路。
并且,系统100可通过语音输出引导对象1003。
图14为示出根据本发明的一实施例的系统不具有拍摄部的情况下的体现形态的图。参照图14,与车辆用系统100单独形成的车辆用影像拍摄装置200可通过有线、无线通信方式构成本发明一实施例的系统。
车辆用系统100可以包括设置于壳体191的前部面的显示部131、用户输入部121及麦克风123。
车辆用影像拍摄装置200可包括摄像头222、麦克风224及附着部281。
图15为示出根据本发明的一实施例的系统具有拍摄部的情况下的体现形态的图。参照图15,在系统100包括拍摄部150的情况下,系统100的拍摄部150拍摄车辆的前方,并使用户识别系统100的显示部分。由此,可以体现本发明的一实施例的系统。
图16为示出利用根据本发明的一实施例的平视显示器(Head-Up Display)的体现形态的图。参照图16,平视显示器可通过与其他设备的有线、无线通信在平视显示器上显示增强现实引导画面。
作为一例,增强现实可通过利用车辆前玻璃的平视显示器或利用额外的影像输出装置的影像重叠等提供,如上所述,增强现实提供部160可以生成在增强现实影像或玻璃重叠的界面图像等。由此,可体现增强现实导航或车辆信息娱乐系统等。
另一方面,所述根据本发明的多种实施例的弯道引导方法以程序体现来向服务器设备提供。由此,各个装置与存储程序的服务器设备连接来下载所述程序。
另一方面,作为另一实施例,根据本发明的车道线显示方法或车道线脱离引导方法可以由自动行驶车辆2000的控制装置2100内的模块构成。即,控制装置2100的存储器2122和处理器2124将本发明的车道线显示方法或车道线脱离引导方法以软件形式体现。
以下,参照图17,更加详细地说明本发明。
图17为示出根据本发明的一实施例自动行驶车辆2000的结构的框图。
参照图17,根据本实施例的自动行驶车辆2000可包括控制装置2100、感测模块2004a、2004b、2004c、2004d、引擎2006及用户界面2008。
在本实施例中,控制装置2100可包括控制器2120、传感器2110、无线通信装置2130、激光雷达2140及摄像头模块2150,所述控制器2120包括存储器2122和处理器2124。
在本实施例中,控制器2120由车辆的制造公司制造或者在制造后,为了追加行驶的功能而追加构成。本发明可包括通过当制造时构成的控制器2120的更新持续执行附加功能的结构。
控制器2120可以向车辆内的传感器2110、引擎2006、用户界面2008、无线通信装置2130、激光雷达2140及摄像头模块2150传递控制信号。并且,虽未图示,但也可以向与车辆的行驶有关的加速装置、制动系统、转向装置、导航装置传递控制信号。
在本实施例中,控制器2120可以对引擎2006进行控制,例如,自动行驶车辆2000检测行驶中的道路的限速并控制引擎2006,以防止行驶速度超过限速,并可以控制引擎2006,以在不超过限速的范围内加速自动行驶车辆2000的行驶速度。并且,若感测模块2004a、2004b、2004c、2004d检测车辆的外部环境并向传感器2110传递,则控制器2120接收所述检测结果来生成对引擎2006或转向装置(未图示)进行控制的信号来控制车辆的行驶。
在车辆的前方存在其他车辆或障碍物的情况下,控制器2120可以对引擎2006或制动系统进行控制,以使行驶车辆减速,除速度之外,可以控制轨迹、运行路线、转向角度。控制器2120可以根据车辆的行驶车道线、行驶信号等其他外部环境的识别信息来生成需要的控制信号并对车辆的行驶进行控制。
控制器2120除生成自我控制信号之外,与周边车辆或中央服务器进行通信,并通过所接收的信息传送用于控制周边装置的指令,由此可以控制车辆的行驶。
并且,在摄像头模块2150的位置改变或拍摄角度改变的情况下,控制器2120很难根据本实施例准确地识别车辆或车道线,因此,为了防止所述现象,以执行摄像头模块2150的校准(calibration)的方式生成控制信号。因此,在本实施例中,控制器2120可以通过摄像头模块2150发生校准控制信号,由此,通过随着自动行驶车辆2000的移动发生的振动或冲击等,即使摄像头模块2150的安装位置改变,也可以持续维持摄像头模块2150的正常安装位置、方向、拍摄角度等。在预先存储的摄像头模块2120的最初安装位置、方向、拍摄角度信息和在自动行驶车辆2000的行驶过程中测量的摄像头模块2120的最初安装位置、方向、拍摄角度信息等变为临界值以上的情况下,控制器2120可以发生控制信号,以执行摄像头模块2120的校准。
在本实施例中,控制器2120可以包括存储器2122及处理器2124。处理器2124可以根据控制器2120的控制信号执行存储于存储器2122的软件。具体而言,控制器2120在存储器2122存储用于执行本发明的车道线显示方法或车道线脱离引导方法的数据及指令,指令为了体现在此揭示的一个以上的方法而可通过处理器2124执行。
在此,存储器2122可存储于能够在非易失性处理器2124中执行的记录介质。存储器2122可通过适当的内外部装置存储软件和数据。存储器2122可以为随机存取存储器(RAM,random access memory)、只读存储器(ROM,read only memory)、硬盘及与软件保护器相连接的存储器2122装置。
存储器2122至少可以存储操作系统(OS,Operating system)、用户应用、可执行指令。存储器2122也可以存储应用数据、排列数据结构。
处理器2124为微处理器或适当的电子处理器,也可以为控制器、微控制器或状态机。
处理器2124可以通过计算装置的组合体现,计算装置可以由数字信号处理器、微处理器或这些的适当组合构成。
并且,在本实施例中,控制装置2100可通过一个以上的传感器2110监测自动行驶车辆2000的内外部的特征并检测状态。
传感器2110可以由一个以上的感测模块2004构成,感测模块2004可根据监测目的体现在自动行驶车辆2000的特定位置。可位于自动行驶车辆2000的下部、后端、前端、上端或侧端,也可以位于车辆的内部部件或轮胎等。
由此,感测模块2004可以检测作为车辆的内部信息的引擎2006、轮胎、转向角度、速度、车辆的重量等与行驶有关的信息。并且,一个以上的感测模块2004可以由加速度传感器2110、陀螺仪、图像传感器2110、雷达、超声波传感器、激光雷达传感器等,并可检测自动行驶车辆2000的移动信息。
感测模块2004可以接收与作为外部信息的自动行驶车辆2000所在的道路的状态信息、周边车辆信息及天气等外部环境状态有关的特定数据,也可以检测车辆的参数。所检测的信息可以根据暂时性长久目的存储于存储器2122。
在本实施例中,传感器2110可以一同收集用于收集在自动行驶车辆2000的内部或外部发生的信息的多个感测模块2004的信息。
控制装置2100还可包括无线通信装置2130。
无线通信装置2130用于体现自动行驶车辆2000之间的无线通信。例如,可以使用户的手机、其他无线通信装置2130、其他车辆、中央装置(交通控制装置)、服务器等与自动行驶车辆2000进行通信。无线通信装置2130可以根据连接无线协议收发无线信号。连接无线协议可以为无线保真(Wi-Fi)、蓝牙(Bluetooth)、长期演进(Long-Term Evolution,LTE)、编码部分多址(Code Division Multiple Access,CDMA)、宽带码分多址(WidebandCode Division Multiple Access,WCDMA)、移动通信全球系统(Global Systems forMobile Communications,GSM),但并不局限于此。
并且,在本实施例中,自动行驶车辆2000可以通过无线通信装置2130实现车辆之间的通信。即,无线通信装置2130可以通过车辆对车辆(V2V)之间的通信(vehicle-to-vehicle communication)与道路上的其他车辆及其他多个车辆执行通信。自动行驶车辆2000可通过车辆之间的通信收发如行驶警告、交通信息的信息,也可以向其他车辆请求信息或者从其他车辆接收信息。例如,无线通信装置2130可通过专用短距离通信(DSRC,dedicated short-range communication)装置或蜂窝车对车通信(C-V2V,Celluar-V2V)装置执行车对车通信。并且,除车辆之间的通信之外,可以通过无线通信装置2130还执行车辆与其他事物(例如,步行者所携带的电子设备等)之间的通信(V2X,Vehicle to Everythingcommunication)。
并且,控制装置2100可包括激光雷达装置2140。激光雷达装置2140可通过激光雷达传感器,利用感测的数据来探索自动行驶车辆2000周边的对象。激光雷达装置2140向控制器2120传送探索的信息,控制器2120可根据探索信息使自动行驶车辆2000进行运行。例如,在探索信息中存在低速行驶的前方车辆的情况下,控制器2120可以发出指令通过引擎2006降低车辆的速度。可根据车辆进入的弯道的曲率来降低进入速度。
控制装置2100还可包括摄像头模块2150。控制器2120可以从由摄像头模块2150拍摄的外部图像提取对象信息,并使控制器2120对所述信息进行处理。
并且,控制装置2100还可包括用于识别外部环境的图像装置。除激光雷达之外2140之外,可以利用雷达、GPS装置、行驶距离测量装置(Odometry)及其他计算机视觉装置,根据需要,这些装置选择性地进行工作来实现更加精密的检测。
自动行驶车辆2000还可包括用于所述控制装置2100的用户的输入的用户界面2008。用户界面2008可通过适当的相互作用使用户输入信息。例如,可体现为触摸屏、键盘、操作按钮等。用户界面2008向控制器2120传送输入指令,控制器2120可以响应于输入或指令执行车辆的控制动作。
并且,用户界面2008作为自动行驶车辆2000外部装置,可通过无线通信装置2130与自动行驶车辆2000进行通信。例如,用户界面2008可以与手机、平板电脑或其他计算机装置建立联动。
进而,在本实施例中说明了自动行驶车辆2000包括引擎2006的情况,但还可包括其他类型的推进系统。例如,车辆可通过电能运行,也可以通过氢能或组合这些的混合系统运行。因此,控制器2120包括基于自动行驶车辆2000的推进系统的推进机制,可以向各个推进机制的结构提供所述控制信号。
以下,参照图18,更加详细说明执行根据本实施例的的车道线显示方法或车道线脱离引导方法的控制装置2100的详细结构。
控制装置2100包括处理器2124。处理器2124可以为常用单一或多重芯微处理器、专用微处理器、微控制器、可编程门阵列等。处理器可以被称为中央处理装置(CPU)。并且,在本实施例中,处理器2124可以组合多个处理器使用。
控制装置2100还包括存储器2122。存储器2122可以为存储电子信息的任意电子零件。除单一存储器之外,存储器2122还可包括多个存储器2122的组合。
用于执行本发明的车道线显示方法或车道线脱离引导方法的数据及指令语2122a可存储于存储器2122。当处理器2124执行多个指令语2122a时,指令语2122a和用于执行指令的数据2122b的全部或一部分可以装载于2124a、2124b处理器2124。
控制装置2100可以包括用于收发信号的发射机2130a、接收机2130b或收发器2130c。一个以上的天线2132a、2132b可以与发射机2130a、接收机2130b或各个收发器2130c电连接,可以追加包括多个天线。
控制装置2100还可以包括数字信号处理器2170(DSP)。车辆可通过数字信号处理器2170更加迅速地处理数字信号。
控制装置2100还可以包括通信接口2180。通信接口2180可以包括用于与其他装置的控制装置2100相连接的一个以上的端口和/或通信模块。通信接口2180可以与用户的控制装置2100相互作用。
控制装置2100的多种结构可通过一个以上的总线2190相连接,总线2190可以包括电力总线、控制信号总线、状态信号总线、数据总线等。根据处理器2124的控制,多个结构可通过总线2190相互传递信息并执行目的功能。
以上说明的装置可以通过硬件结构要素、软件结构要素和/或硬件结构要素及软件结构要素的组合体现。例如,在实施例中说明的装置及结构要素可以利用如处理器、控制器、算术逻辑单元(ALU,arithmetic logic unit)、数据信号处理器(digital signalprocessor)、微计算机、现场可编程门阵列(FPGA,field programmable gate array)、可编程逻辑单元(PLU,programmable logic unit)、微处理器或可以执行并响应指令(instruction)的其他装置的一个以上的常用计算机或特殊目的计算机来体现。
处理装置可以执行操作系统(OS)及在操作系统上执行的一个以上的软件应用。并且,处理装置响应软件的执行,可以接近、存储、操作、处理及生成数据。为了便于理解,存在使用一个处理装置的情况,但本发明所属技术领域的普通技术人员可以知道处理装置可包括多个处理要素(processing element)和/或多种类型的处理要素。例如,处理装置可以包括多个处理器或一个处理器及一个控制器。并且,也可以为如并行处理器(parallelprocessor)的其他处理结构(processing configuration)。
软件可以包括计算机程序(computer program)、代码(code)、指令(instruction)或这些中的一种以上的组合,以按需要工作的方式构成处理装置或对独立或结合性(collectively)处理装置下达指令。软件和/或数据为了通过处理装置解释或者向处理装置提供指令或数据,一种类型的机器、结构要素(component)、物理装置、虚拟装置(virtualequipment)、计算机存储介质或装置或者可以在所传送的信号波(signal wave)永久或临时具体化(embody)。软件分散在通过网络连接的计算机系统,可通过所分散的方法存储或执行。软件及数据可存储于一个以上的计算机可读记录介质。
根据实施例的方法可体现为通过多种计算机装置执行的程序指令形态来存储于计算机可读介质。所述计算机可读介质可以单独或组合包括程序指令、数据文件、数据结构等。记录在所述介质的程序指令为了实施例而特别设计并构成,也可以是计算机软件领域的普通技术人员公知使用的程序指令。作为计算机可读记录介质的例,包括硬盘、软盘及磁盘等磁介质(magnetic media)、CD-ROM、DVD等光记录介质(optical media)、光软盘(floptical disk)等磁光介质(magneto-optical media)及ROM、RAM、闪存等的存储程序指令并执行的特别构成的硬件装置。作为程序指令的例,包括如通过编译器形成的机器代码和通过解释器等来通过计算机执行的高级语言代码。所述硬件装置为了执行实施例的动作而作为一个以上的软件模块动作,反之亦然。
以上的说明仅用于例示性地说明本发明的技术思想,只要是本发明所属技术领域的普通技术人员,在不变更本发明的本质特性的范围内可以进行多种修改、变更及置换。
因此,本发明所揭示的实施例及附图用于说明本发明,而并非用于限定本发明的技术思想,本发明的技术思想的范围并不局限于这种实施例及附图。本发明的保护范围通过以下的发明要求保护范围解释,与此等同范围内的所有技术思想均属于本发明的范围。
Claims (20)
1.一种车道线显示方法,其特征在于,包括:
获取车辆行驶时拍摄的影像的步骤;
将所获取的影像根据与车辆的距离分割为至少2个区域的步骤;
检测所述分割的区域内车道线的步骤;
将所述检测到的车道线拟合在连续的曲线的步骤;以及
在预定的用户界面上显示所述经拟合的曲线的步骤。
2.根据权利要求1所述的车道线显示方法,其特征在于,所述分割步骤以根据与所述车辆的距离确定的分辨率来分割所述输入的影像。
3.根据权利要求2所述的车道线显示方法,其特征在于,所述分割步骤中,通过以所述影像中的消失点或前方车辆为准将所述所获取的影像的下部区域分割为至少2个区域,其中将从所述车辆近距离的区域生成为第一部分影像,
所述检测步骤中在所述第一部分影像中检测车道线。
4.根据权利要求2所述的车道线显示方法,其特征在于,所述分割步骤中生成包括距离比所述第一部分影像更远的区域的第二部分影像,
所述检测步骤中在所述第二部分影像检测车道线。
5.根据权利要求1所述的车道线显示方法,其特征在于,所述检测步骤中判断所述分割的影像中是否存在行驶车辆,并检测不存在所述行驶车辆的车道的车道线。
6.根据权利要求5所述的车道线显示方法,其特征在于,所述拟合的步骤中根据所述检测到的车道线及是否存在行驶车辆来拟合所述检测的车道线。
7.根据权利要求1所述的车道线显示方法,其特征在于,所述显示步骤中将所述车辆的行驶路线显示在所述经拟合的曲线上。
8.一种车道线脱离引导方法,其特征在于,包括:
获取车辆行驶时拍摄的影像的步骤;
将所获取的影像根据从车辆的距离分割为至少2个区域,并检测所述分割的区域内的车道线的步骤;
通过以连续曲线拟合所述检测到的车道线来识别所述车辆行驶的车道的车道线的步骤;以及
根据所述识别的车道的车道线来判断所述车辆是否脱离车道的步骤。
9.根据权利要求8所述的车道线脱离引导方法,其特征在于,包括::
在预定的用户界面上显示所述拟合的曲线的步骤。
10.根据权利要求9所述的车道线脱离引导方法,其特征在于,所述显示步骤中,在所述用户界面上显示所述判断的是否脱离车道线。
11.根据权利要求9所述的车道线脱离引导方法,其特征在于,所述判断的步骤中考虑驾驶员的切弯行为调整用于判断是否脱离所述车道线的阈值。
12.一种电子设备,其特征在于,包括:
影像获取部,用于获取在车辆行驶时拍摄的影像;
影像分割部,用于将所获取的影像根据从车辆的距离分割为至少2个区域;
车道线检测部,用于检测所述分割的影像中的车道线;
曲线拟合部,用于将所述检测到的车道线近似为连续曲线;以及
显示部,用于在预定的用户界面上显示所述拟合的曲线。
13.根据权利要求12所述的电子设备,其特征在于,所述影像分割部以根据从所述车辆的距离确定的分辨率分割所述输入的影像。
14.根据权利要求13所述的电子设备,其特征在于,所述影像分割部,通过以所述影像中的消失点或前方车辆为准将所述所获取的影像的下部区域分割为至少2个区域,其中将与所述车辆的近距离区域生成为第一部分影像,
所述车道线检测部在所述第一部分影像检测车道线。
15.根据权利要求13所述的电子设备,其特征在于,所述影像分割部生成包括距离比所述第一部分影像更远的区域的第二部分影像,
所述车道线检测部在所述第二部分影像检测车道线。
16.根据权利要求12所述的电子设备,其特征在于,所述车道线检测部判断所述分割的影像中是否存在行驶车辆,并检测不存在所述行驶车辆的车道的车道线。
17.根据权利要求16所述的电子设备,其特征在于,所述曲线拟合部根据所述检测到的车道线及是否存在行驶车辆来拟合所述检测到的车道线。
18.根据权利要求12所述的电子设备,其特征在于,所述显示部将所述车辆的行驶路线显示在所述拟合的曲线上。
19.一种计算机可读记录介质,其特征在于,存储有用于执行权利要求1至7中任一项所述的车道线显示方法的程序。
20.一种程序,其特征在于,存储在用于执行权利要求1至7中任一项所述的车道线显示方法的计算机可读记录介质。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410006970.6A CN117799605A (zh) | 2018-12-07 | 2019-12-06 | 车道线显示方法以及执行该方法的电子设备 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0156653 | 2018-12-07 | ||
KR20180156653 | 2018-12-07 | ||
KR1020190151348A KR20200070101A (ko) | 2018-12-07 | 2019-11-22 | 차선 표시 방법 및 이를 수행하는 전자 기기 |
KR10-2019-0151348 | 2019-11-22 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410006970.6A Division CN117799605A (zh) | 2018-12-07 | 2019-12-06 | 车道线显示方法以及执行该方法的电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111284487A true CN111284487A (zh) | 2020-06-16 |
CN111284487B CN111284487B (zh) | 2024-01-23 |
Family
ID=70972475
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410006970.6A Pending CN117799605A (zh) | 2018-12-07 | 2019-12-06 | 车道线显示方法以及执行该方法的电子设备 |
CN201911241095.5A Active CN111284487B (zh) | 2018-12-07 | 2019-12-06 | 车道线显示方法以及执行该方法的电子设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410006970.6A Pending CN117799605A (zh) | 2018-12-07 | 2019-12-06 | 车道线显示方法以及执行该方法的电子设备 |
Country Status (2)
Country | Link |
---|---|
US (2) | US11518384B2 (zh) |
CN (2) | CN117799605A (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108885436B (zh) * | 2016-01-15 | 2021-12-14 | 美国iRobot公司 | 自主监视机器人系统 |
MX2020002171A (es) * | 2017-08-30 | 2020-07-14 | Nissan Motor | Metodo de correccion de posicion y dispositivo de correccion de error de posicion para vehiculo de conduccion asistida. |
CN108256446B (zh) * | 2017-12-29 | 2020-12-11 | 百度在线网络技术(北京)有限公司 | 用于确定道路中的车道线的方法、装置和设备 |
DE102019202587A1 (de) | 2019-02-26 | 2020-08-27 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem |
DE102019202588A1 (de) | 2019-02-26 | 2020-08-27 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem |
DE102019202578A1 (de) | 2019-02-26 | 2020-08-27 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem |
DE102019202581B4 (de) * | 2019-02-26 | 2021-09-02 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem |
US11562576B2 (en) * | 2020-08-05 | 2023-01-24 | GM Global Technology Operations LLC | Dynamic adjustment of augmented reality image |
DE102021202666A1 (de) * | 2021-03-18 | 2022-09-22 | Volkswagen Aktiengesellschaft | Dynamischer AR-Hinweis |
US20220381579A1 (en) * | 2021-05-26 | 2022-12-01 | Robert Bosch Gmbh | Turning path guidance system for vehicles |
US20230086818A1 (en) * | 2021-09-21 | 2023-03-23 | Qualcomm Incorporated | High resolution camera system for automotive vehicles |
CN114323054B (zh) * | 2022-01-12 | 2024-04-19 | 苏州挚途科技有限公司 | 自动驾驶车辆行驶轨迹的确定方法、装置及电子设备 |
CN115071733B (zh) * | 2022-07-21 | 2022-10-25 | 成都工业职业技术学院 | 一种基于计算机的辅助驾驶方法及装置 |
CN115294552A (zh) * | 2022-08-08 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 一种杆状物识别方法、装置、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08172620A (ja) * | 1994-12-16 | 1996-07-02 | Nissan Motor Co Ltd | 車両用画像入力手段 |
TW200922816A (en) * | 2007-11-30 | 2009-06-01 | Automotive Res & Amp Testing Ct | Method and device for detecting the lane deviation of vehicle |
US20100268452A1 (en) * | 2007-06-12 | 2010-10-21 | Tsuyoshi Kindo | Navigation device, navigation method, and navigation program |
CN103262139A (zh) * | 2010-12-15 | 2013-08-21 | 本田技研工业株式会社 | 行车道识别装置 |
CN103847739A (zh) * | 2012-11-30 | 2014-06-11 | 三星电子(中国)研发中心 | 利用移动终端进行自动跟车及辅助停车的方法及系统 |
CN104376297A (zh) * | 2013-08-12 | 2015-02-25 | 株式会社理光 | 道路上的线型指示标志的检测方法和装置 |
CN104760593A (zh) * | 2014-01-03 | 2015-07-08 | 现代摩比斯株式会社 | 车道变更辅助装置及其工作方法 |
CN107563326A (zh) * | 2017-08-31 | 2018-01-09 | 京东方科技集团股份有限公司 | 一种行车辅助方法、行车辅助装置和车辆 |
US20180046867A1 (en) * | 2016-08-10 | 2018-02-15 | Omnivision Technologies, Inc. | Lane Departure Warning System And Associated Methods |
JP2018169947A (ja) * | 2017-03-30 | 2018-11-01 | 株式会社日立情報通信エンジニアリング | レーン線認識装置およびレーン線認識プログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3780922B2 (ja) * | 2001-11-30 | 2006-05-31 | 日産自動車株式会社 | 道路白線認識装置 |
ITTO20020950A1 (it) * | 2002-11-05 | 2004-05-06 | Fiat Ricerche | Sistema di visione integrato multifunzionale, con matrice |
JP4437714B2 (ja) * | 2004-07-15 | 2010-03-24 | 三菱電機株式会社 | 車線認識画像処理装置 |
US7720580B2 (en) * | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
JP4557041B2 (ja) * | 2008-04-18 | 2010-10-06 | 株式会社デンソー | 車両用画像処理装置 |
JP5468426B2 (ja) * | 2010-03-12 | 2014-04-09 | 日立オートモティブシステムズ株式会社 | ステレオカメラ装置 |
US9098751B2 (en) * | 2011-07-27 | 2015-08-04 | Gentex Corporation | System and method for periodic lane marker identification and tracking |
JP5548667B2 (ja) * | 2011-11-24 | 2014-07-16 | 富士重工業株式会社 | 車外環境認識装置 |
US10229960B2 (en) * | 2016-08-02 | 2019-03-12 | Universal Display Corporation | OLED displays with variable display regions |
KR20180099280A (ko) * | 2017-02-28 | 2018-09-05 | 삼성전자주식회사 | 가상 차로 생성 장치 및 방법 |
US20180362083A1 (en) * | 2017-06-15 | 2018-12-20 | Winwise Tech Co.,Ltd. | Driving state warning method and system thereof |
KR102541559B1 (ko) * | 2017-08-04 | 2023-06-08 | 삼성전자주식회사 | 관심 객체를 검출하는 방법 및 장치 |
US20200307576A1 (en) * | 2017-09-08 | 2020-10-01 | Mitsubishi Electric Corporation | Driver assistance apparatus and driver assistance method |
CN108470159B (zh) * | 2018-03-09 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 车道线数据处理方法、装置、计算机设备和存储介质 |
US11042157B2 (en) * | 2018-07-23 | 2021-06-22 | Baidu Usa Llc | Lane/object detection and tracking perception system for autonomous vehicles |
US10875531B2 (en) * | 2018-08-08 | 2020-12-29 | Ford Global Technologies, Llc | Vehicle lateral motion control |
JP7232100B2 (ja) * | 2019-03-28 | 2023-03-02 | 株式会社Subaru | 車両の走行制御装置 |
-
2019
- 2019-12-05 US US16/704,595 patent/US11518384B2/en active Active
- 2019-12-06 CN CN202410006970.6A patent/CN117799605A/zh active Pending
- 2019-12-06 CN CN201911241095.5A patent/CN111284487B/zh active Active
-
2022
- 2022-11-03 US US17/979,893 patent/US20230048230A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08172620A (ja) * | 1994-12-16 | 1996-07-02 | Nissan Motor Co Ltd | 車両用画像入力手段 |
US20100268452A1 (en) * | 2007-06-12 | 2010-10-21 | Tsuyoshi Kindo | Navigation device, navigation method, and navigation program |
TW200922816A (en) * | 2007-11-30 | 2009-06-01 | Automotive Res & Amp Testing Ct | Method and device for detecting the lane deviation of vehicle |
CN103262139A (zh) * | 2010-12-15 | 2013-08-21 | 本田技研工业株式会社 | 行车道识别装置 |
CN103847739A (zh) * | 2012-11-30 | 2014-06-11 | 三星电子(中国)研发中心 | 利用移动终端进行自动跟车及辅助停车的方法及系统 |
CN104376297A (zh) * | 2013-08-12 | 2015-02-25 | 株式会社理光 | 道路上的线型指示标志的检测方法和装置 |
CN104760593A (zh) * | 2014-01-03 | 2015-07-08 | 现代摩比斯株式会社 | 车道变更辅助装置及其工作方法 |
US20180046867A1 (en) * | 2016-08-10 | 2018-02-15 | Omnivision Technologies, Inc. | Lane Departure Warning System And Associated Methods |
JP2018169947A (ja) * | 2017-03-30 | 2018-11-01 | 株式会社日立情報通信エンジニアリング | レーン線認識装置およびレーン線認識プログラム |
CN107563326A (zh) * | 2017-08-31 | 2018-01-09 | 京东方科技集团股份有限公司 | 一种行车辅助方法、行车辅助装置和车辆 |
Also Published As
Publication number | Publication date |
---|---|
US11518384B2 (en) | 2022-12-06 |
US20230048230A1 (en) | 2023-02-16 |
CN117799605A (zh) | 2024-04-02 |
US20200180619A1 (en) | 2020-06-11 |
CN111284487B (zh) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111284487B (zh) | 车道线显示方法以及执行该方法的电子设备 | |
CN111292351B (zh) | 车辆检测方法及执行其的电子设备 | |
CN109895851B (zh) | 弯道导向方法、弯道导向装置、弯道导向电子装置及计算机可读记录介质 | |
US11814063B2 (en) | Method, apparatus, electronic device, computer program and computer readable recording medium for measuring inter-vehicle distance using driving image | |
US11680813B2 (en) | Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image | |
US11049327B2 (en) | Electronic apparatus, control method thereof, computer program, and computer-readable recording medium | |
US12002355B2 (en) | Method for guiding path by extracting guiding information in lane and electronic device for executing the method | |
KR20150140449A (ko) | 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체 | |
CN108335507B (zh) | 利用摄像头的拍摄影像的驾驶引导提供方法及装置 | |
US11727693B2 (en) | Method, apparatus, electronic device, computer program and computer-readable recording medium for detecting lane marking based on vehicle image | |
US12031834B2 (en) | Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image | |
KR102406490B1 (ko) | 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 | |
KR20200070101A (ko) | 차선 표시 방법 및 이를 수행하는 전자 기기 | |
KR20200070100A (ko) | 차량 검출 방법 및 이를 수행하는 전자 기기 | |
CN118864535A (zh) | 车辆检测方法及执行其的电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |