CN106162072A - 周围观看方法和周围观看系统 - Google Patents

周围观看方法和周围观看系统 Download PDF

Info

Publication number
CN106162072A
CN106162072A CN201610032910.7A CN201610032910A CN106162072A CN 106162072 A CN106162072 A CN 106162072A CN 201610032910 A CN201610032910 A CN 201610032910A CN 106162072 A CN106162072 A CN 106162072A
Authority
CN
China
Prior art keywords
visual point
point image
vehicle
virtual visual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610032910.7A
Other languages
English (en)
Other versions
CN106162072B (zh
Inventor
朴昌淳
洪永骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106162072A publication Critical patent/CN106162072A/zh
Application granted granted Critical
Publication of CN106162072B publication Critical patent/CN106162072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)

Abstract

提供一种周围观看方法和周围观看系统。所述周围观看方法包括:由第一车辆基于第一车辆的至少一个捕获的周围视图图像来产生第一车辆的第一虚拟视点图像;从第二车辆接收针对第二车辆的周围视图图像的第二虚拟视点图像;由第一车辆基于来自第一虚拟视点图像和第二虚拟视点图像的图像信息的组合来产生扩大虚拟视点图像;输出产生的扩大虚拟视点图像。

Description

周围观看方法和周围观看系统
本申请要求于2015年5月11日提交到韩国知识产权局的第10-2015-0065607号韩国专利申请的权益,所述韩国专利申请的全部公开通过引用出于所有目的包含于此。
技术领域
一个或更多个实施例涉及一种延伸视图方法、设备和系统。
背景技术
近来,随着车辆工业的发展,用于提高车辆安全和驾驶员的驾驶便利性的各种技术正被应用于车辆。在各种技术之中,仅作为示例,全景监视(aroundview monitoring,AVM)系统可通过从由车辆捕获的车辆周围的范围或区域的图像来显示视图使驾驶员能够便利地观看关于车辆周围的环境的信息。例如,在这种AVM系统中,相机可被安装在车辆的前侧、后侧、左侧和右侧上以捕获可被显示在车辆的屏幕上的车辆周围的环境的各个图像。仅作为示例,基于显示的车辆周围的环境,驾驶员可更准确地识别车辆紧邻的当前状况。
发明内容
提供该发明内容以按照简化形式介绍对于下面将在具体实施方式中进一步描述的构思的选择。该发明内容不意图确认要求保护的主题的关键特征或必要特征,也不意图用作帮助确定要求保护的主题的范围。
一个或更多个实施例提供一种周围观看方法,所述周围观看方法包括:由第一车辆基于第一车辆的至少一个捕获的周围视图图像来产生第一车辆的第一虚拟视点图像;从第二车辆接收针对第二车辆的周围视图图像的第二虚拟视点图像;由第一车辆基于组合来自第一虚拟视点图像和第二虚拟视点图像的图像信息,来产生扩大虚拟视点图像;输出产生的扩大虚拟视点图像。
输出产生的扩大虚拟视点图像的步骤可包括:将产生的扩大虚拟视点图像输出到显示器并控制显示器显示具有从第二车辆接收的关于第二车辆的附加信息和/或接收的第二虚拟视点图像中的区域中的对象的扩大虚拟视点图像。
所述周围观看方法还可包括:从与第一车辆分开的路边设备(RSE)接收第一车辆的所述至少一个捕获的周围视图图像。
产生扩大虚拟视点图像的步骤可包括:调整第一虚拟视点图像的虚拟视点和第二虚拟视点图像的虚拟视点中的至少一个的位置;基于调整的结果产生扩大虚拟视点图像。
产生扩大虚拟视点图像的步骤可包括:调整第一虚拟视点图像和第二虚拟视点图像中的至少一个虚拟视点图像的图像尺寸;基于调整的结果产生扩大虚拟视点图像。
调整图像尺寸的步骤还可包括:基于第一虚拟视点图像和第二虚拟视点图像的各个虚拟视点的位置信息、各个虚拟视点的角度信息以及第一虚拟视点图像和第二虚拟视点图像的各个比例信息中的至少一个,来调整第一虚拟视点图像和第二虚拟视点图像中的至少一个的图像尺寸。
产生扩大虚拟视点图像的步骤可包括:基于第一虚拟视点图像与第二虚拟视点图像之间的确定的相关性或第一车辆与第二车辆之间的确定的位置关系,对第一虚拟视点图像与第二虚拟视点图像进行对准。
产生扩大虚拟视点图像的步骤可包括:基于对准的结果将第二虚拟视点图像的虚拟视点的位置调整为与第一虚拟视点图像的虚拟视点的位置相同。
产生扩大虚拟视点图像的步骤可包括:选择第一虚拟视点图像和第二虚拟视点图像之一以用于产生扩大虚拟视点图像的重叠区域,其中,所述重叠区域表示包括在第一虚拟视点图像和第二虚拟视点图像两者中的相同的区域;通过基于选择的结果组合第一虚拟视点图像与第二虚拟视点图像,来产生扩大虚拟视点图像。
选择的步骤可包括:基于分别与第一虚拟视点图像和第二虚拟视点图像中的每个虚拟视点图像相关的图像分辨率和通信质量中的至少一个,选择第一虚拟视点图像和第二视点图像之一以用于产生重叠区域。
所述周围观看方法还可包括:从路边设备(RSE)接收RSE的周围区域的周围视图图像,其中,产生扩大虚拟视点图像的步骤可包括:通过组合第一虚拟视点图像、第二虚拟视点图像和从RSE接收的周围视图图像,来产生扩大虚拟视点图像。
所述周围观看方法还可包括:基于第二车辆的位置调整第一虚拟视点图像的虚拟视点的位置以产生调整的第一虚拟视点图像;将调整的第一虚拟视点图像发送到第二车辆。
所述周围观看方法还可包括:将附加信息发送到第二车辆,其中,附加信息可包括以下信息中的至少一种信息:第一车辆的标识符(ID)信息、第一车辆的速度信息、第一虚拟视点图像的虚拟视点的高度信息、第一虚拟视点图像的虚拟视点的角度信息、第一虚拟视点图像的分辨率信息、由第一车辆计算的比例信息、第一车辆的位置信息和由第一车辆获得的交通信息。
产生第一虚拟视点图像的步骤可包括:基于所述至少一个捕获的周围视图图像产生第一车辆的俯视图。
产生第一虚拟视点图像的步骤可包括:通过减小所述至少一个捕获的周围视图图像的与相对于第一车辆的位置的短程区域对应的像素之间的各个距离并增加所述至少一个捕获的周围视图图像的与相对于第一车辆的位置的远程区域对应的像素之间的各个距离,来产生俯视图。
所述周围观看方法还可包括:从第二车辆接收附加信息,其中,附加信息包括以下信息中的至少一种信息:第二车辆的ID信息、第二车辆的速度信息、第二虚拟视点图像的虚拟视点的高度信息、第二虚拟视点图像的虚拟视点的角度信息、第二虚拟视点图像的分辨率信息、由第二车辆计算的比例信息、第二车辆的位置信息和使用第一车辆获得的交通信息。
产生扩大虚拟视点图像的步骤可包括:组合来自第一虚拟视点图像和第二虚拟视点图像的图像信息与表示从第二车辆接收的附加信息中的一个或更多个附加信息的图像信息。
输出产生的扩大虚拟视点图像的步骤可包括:将交通信息和障碍信息中的至少一种信息包含在扩大虚拟视点图像中。
扩大虚拟视点图像可全方位地表示相比于由第一车辆的第一虚拟视点图像表示的第一车辆周围的区域更大的第一车辆周围的区域。
一个或更多个实施例提供一种由第一车辆执行的周围观看方法,所述周围观看方法包括:从第二车辆接收针对第二车辆的周围视图的第二车辆的虚拟视点图像;调整第一车辆的产生的虚拟视点图像的图像尺寸、接收的第二车辆的虚拟视点图像的图像尺寸、第一车辆的产生的虚拟视点图像的虚拟视点的位置和接收的第二车辆的虚拟视点图像的虚拟视点的位置中的至少一个,以分别产生调整的第一车辆的虚拟图像和/或调整的第二车辆的虚拟图像;基于调整的结果,通过组合产生的第一车辆的虚拟图像和调整的第一车辆的虚拟视点图像之一与接收的第二车辆的虚拟视点图像和调整的第二车辆的虚拟视点图像之一,来产生扩大虚拟视点图像;输出产生的虚拟视点图像。
所述周围观看方法还可包括:将产生的扩大虚拟视图图像输出到显示器并控制显示器显示扩大的虚拟视图图像以及从第二车辆接收到的关于接收的第二车辆的虚拟视图图像的附加信息。
所述周围观看方法还可包括:将产生的第一车辆的虚拟视点图像或调整的第一车辆的虚拟视点图像以及关于产生的第一车辆的虚拟视点图像的附加信息发送到第二车辆。
一个或更多个实施例提供一种非暂时性记录介质,包括用于控制至少一个处理装置实现以上讨论的一个或更多个方法实施例的处理器可读代码。
一个或更多个实施例提供一种周围观看系统,所述周围观看系统包括:虚拟视点图像产生器,被配置为基于第一车辆的至少一个捕获的周围视图图像来产生第一车辆的第一虚拟视点图像;接收器,被配置为从第二车辆接收针对第二车辆的周围视图图像的第二虚拟视点图像;扩大虚拟视点图像产生器,被配置为通过组合来自产生的第一虚拟视点图像和接收的第二虚拟视点图像的图像信息来产生扩大虚拟视点图像;显示器,被配置为显示产生的扩大虚拟视点图像。
所述周围观看系统可以是还包括用于捕获第一车辆的所述至少一个周围视图图像的至少一个相机的第一车辆。
所述周围观看系统还可包括:至少一个相机,用于捕获第一车辆的所述至少一个周围视图图像;发送器,其中,所述周围观看系统可被配置为将第一虚拟视点图像发送到第二车辆。
扩大虚拟视点图像产生器可包括:图像转换器,被配置为调整产生的第一虚拟视点图像的图像尺寸、接收的第二虚拟视点图像的图像尺寸、产生的第一虚拟视点图像的虚拟视点的位置和接收的第二虚拟视点图像的虚拟视点的位置中的至少一个,以分别产生第一车辆的调整的虚拟图像和/或第二车辆的调整的虚拟图像;图像对准器,被配置为基于调整的结果,对产生的第一虚拟视点图像和调整的第一虚拟视点图像之一与接收的第二虚拟视点图像和调整的第二虚拟视点图像之一进行对准,以产生对准的第一虚拟视点图像和第二虚拟视点图像;图像选择器,被配置为选择对准的第一虚拟视点图像和第二虚拟视点图像之一以用于产生扩大虚拟视点图像的重叠区域,重叠区域表示包括在对准的第一虚拟视点图像和第二虚拟视点图像两者中的相同的区域;图像产生器,被配置为通过基于选择的结果组合对准的第一虚拟视点图像与第二虚拟视点图像组合来产生扩大虚拟视点图像。
从以下具体实施方式、附图和权利要求书,其它特征和方面将是清楚的。
附图说明
从以下结合附图对示例实施例的描述,这些和/或其它方面将变得清楚且更容易理解,在附图中:
图1A至图1F示出根据一个或更多个实施例的在包括多个车辆和路边设备(RSE)的道路环境中执行的无线协同通信。
图2示出根据一个或更多个实施例的周围观看系统和方法。
图3示出根据一个或更多个实施例的延伸虚拟视点图像产生器和方法。
图4示出根据一个或更多个实施例的包括虚拟视点图像产生器和多个相机的周围观看系统以及周围观看系统的操作。
图5和图6示出根据一个或更多个实施例的虚拟视点图像的示例。
图7A至图9B示出根据一个或更多个实施例的各个示例图像转换操作。
图10和图11示出根据一个或更多个实施例的各个图像对准操作。
图12示出根据一个或更多个实施例的可在图像转换器与图像对准器之间执行的反馈操作。
图13至图15示出根据一个或更多个实施例的示例对准图像结果。
图16示出根据一个或更多个实施例的图像选择器方法。
图17和图18示出根据一个或更多个实施例的图像产生操作。
图19示出根据一个或更多个实施例的周围观看方法。
图20示出根据一个或更多个实施例的周围观看方法。
具体实施方式
提供以下详细描述以帮助读者获得对这里描述的方法、设备和/或系统的全面理解。然而,在理解了本公开之后,这里描述的方法、设备和/或系统的各种改变、修改和等同物对于本领域普通技术人员将是清楚的。这里描述的操作的顺序仅是示例而不限于这里所阐明的顺序,并且如本领域普通技术人员所清楚的那样,除了必须按特定顺序发生的操作之外,操作的顺序可被改变。此外,为了更加清楚和简明,可省略本领域普通技术人员公知的功能和结构的描述。
这里描述的特征可以以不同形式被实施,并且不被解释为限于这里描述的示例。
可对实施例进行各种替换和变型,将在附图和具体实施方式中详细示出实施例的一些替换和变型。然而,应理解这些实施例不被解释为限于示出的形式,而包括本公开的思想和技术范围内的所有改变、等同物或替代物。
这里使用的术语仅用于解释特定实施例,而不意图进行限制。单数表述包括复数表述表达,除非两种表述方式在上下文彼此不同。例如,如这里所使用的,除非上下文另外明确指示,否则单数形式也意图包括复数形式。这里,术语“包括”或“具有”不意图指示存在说明书中公开的特征、数字、操作、组件或元件或者它们的组合。术语“包括”或“具有”应被理解为不排除存在或添加一个或多个其它特征、数字、操作、组件、元件或者它们的组合的可能性。
除非另外定义,否则这里使用的包括技术或科学术语的所有术语具有与本发明所属领域的普通技术人员通常理解的含义相同的含义。还将理解,通用字典中定义的术语应被解释为具有与技术领域和本公开的上下文中的含义一致的含义。除非在这里明确定义,否则这些术语将不被解释为理想的或过于正式的含义。
在下文中,将参照附图更详细地解释特定实施例,其中,相同的标号始终表示相同的元件。为了清楚、说明和方便,附图可不按比例,并且可夸大附图中的元件的相对大小、比例和描绘。将用相同的标号提供相似或相同的组件或者彼此对应的组件,可省略对这些组件的重复详细解释。此外,当确定相关或已知功能或配置的详细描述可使本公开的实施例的目的不必要地模糊时,可省略这样的详细描述。
在下文中,仅作为示例,道路环境可以是包括道路上的一个或更多个车辆的环境,并可包括路边之上或沿着路边的路边设备(RSE)。根据示例,一些车辆可停靠或停放在道路上或路边。一个或更多个车辆可基于无线通信与另一车辆或RSE通信。RSE可以是例如安装在道路之上或道路上或者路边之上、路边上或沿着路边的预定位置处的基础设施,仅作为示例,所述基础设施被配置为例如与位于距RSE预定距离或范围内的车辆通信。可替换地,RSE可以是例如与道路上的车辆不同的移动平台。如下所示,这种RSE可包括一个或更多个相机。RSE还可以是例如道路或路边处或者道路或路边附近的智能路标或其它基础设施。
图1A至图1F示出根据一个或更多个实施例的在包括多个车辆和RSE的道路环境中执行的无线协同通信。图1A至图1F示出包括RSE 130和行驶在道路上的多个车辆(例如,车辆V1110、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145)的道路环境。以下,图1B至图1D更具体地示出可被车辆或RSE观看/捕获的道路的区域的示例,图1E和图1F更具体地示出根据一个或更多个实施例的将由车辆V1110通过这种无线通信获得或得到的结果观看区域的示例。这里,车辆V1110被用作参考,例如,以下可从示例车辆V1110的角度解释这种无线通信方法。车辆V1110可基于无线通信方案(诸如根据车辆环境的无线访问(WAVE)IEEE 802.11p、IEEE 1609或类似的标准方案(仅作为非限制性示例并且指出可使用替代的无线通信方案)中的任何一个的)来执行与其它车辆或RSE 130的数据发送和接收。示例WAVE方案是例如被设计为适合高速驾驶或行驶环境的移动通信技术和方法。如所指出的那样,无线通信方案可以是无线协同通信系统或方案,其中,一个或更多个车辆和/或RSE可作为系统的节点进行操作并且进行协作来在彼此之间共享信息(诸如,它们各自的传感器信息)。例如,每个车辆可共享它们的行驶速度、加速度和/或方向,从而每个示例车辆可知道附近车辆的行驶速度、加速度和/或方向,这种信息可在每个车辆与一个或更多个附近RSE之间类似地被分别共享。因此,在示例无线协同通信(wirelesscooperative communication)实施例中,多个车辆可彼此共享它们的信息和/或与一个或更多个RSE共享它们的信息,同样地,RSE可彼此共享信息和/或与一个或更多个车辆等共享信息。仅作为示例,两个车辆、车辆与RSE或两个RSE是否共享它们各自收集的信息的确定因素可以是诸如根据车辆和RSE装置的各自的发送器和接收器的信号强度和范围,在各个两个节点之间(即,两个车辆之间、车辆与RSE之间或两个RSE之间)是否可进行直接无线连接。因此,返回到图1A,在这种示例协同通信系统或方案中,车辆V1110可在正行驶在道路上的同时从车辆V2120和/或RSE 130接收图像数据和/或交通数据,和/或可将获取的图像数据和/或交通数据播送到RSE 130、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145中的一个或更多个。在实施例中,可包括前述示例行驶速度、加速度和方向的获取的图像数据和/或交通数据的这种播送可诸如基于用于将每种类型的信息发送到其它车辆和/或RSE的各个预定占空比或各个信息可用性被自主或自动执行。
如上所指出的那样,RSE 130可(诸如)通过使用可提供关于这种道路状况的信息的包括在RSE 130中的图像获取装置或者道路中或道路周围的其它传感器来监视道路状况。道路状况信息可表示道路表面的这种作为当前状况或期望的状况的信息和/或其它交通信息。RSE还可提供从已收集这种道路状况信息的远程地点/位置传递的信息。利用图像获取装置,RSE 130可捕获表示RSE 130的周围区域的周围视图。
图1B示出可由RSE 130使用其图像获取装置(例如,相机)监视的道路区域140。作为示例,RSE 130可在相比于车辆V1110、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145的高度相对更高的位置监视道路状况。在该示例中,利用具有较高高度的该示例RSE 130,RSE 130可在图像获取装置可视的范围内监视道路区域,而不同的车辆不会模糊图像获取装置的整体视图。
针对图1C和图1D,例如,车辆V1110和车辆V1120中的每个车辆可使用它们各自的图像获取装置来监视周围区域,并分别创建表示车辆V1110和车辆V1120中的每个车辆的各自的周围区域的周围视图。
因此,图1C示出可由车辆V1110使用车辆V1110的图像获取装置监视的道路区域150,而图1D示出可由车辆V2120使用车辆V2120的图像获取装置监视的道路区域170。道路区域150的范围可被与车辆V1110相关的车辆V2120、车辆V3125、车辆V4、车辆V5和车辆V6135的出现或放置限制。同样地,道路区域170的范围可被车辆V1110、车辆V3125、车辆V4、车辆V6135和车辆V7145的出现或放置限制。这里,在图1C的示例中,由车辆V1110捕获的道路区域150的可视延范围被车辆V3125限制或阻挡,因此位于车辆V3125前方的障碍160可对于车辆V1110不可见或不可感知,而障碍160将对于车辆V2120可见并被包括在由车辆V2120捕获的道路区域170中。
如上所指出的那样,车辆V1110可通过无线协同通信接收由RSE 130和其它车辆中的至少一个提供的各个道路监视图像信息。基于接收的图像信息,车辆V1110可收集相比于道路区域150更大的区域的图像信息。例如,如图1E所示,车辆V1110可收集或获得由车辆V2120监视的道路区域170的图像信息、由RSE 130监视的道路区域140的图像信息以及由车辆V1110监视的道路区域150的图像信息,从而得到比限制的道路区域150大的收集区域。
在实施例中,车辆V1110可将车辆V1110的周围的监视图像信息与从车辆V2120和RSE 130中的每个接收的图像信息自主或自动地组合。在实施例中,车辆V2120和RSE 130中的每个还可将它们各自的监视图像信息自主或自动地提供给车辆V1110以及其它车辆。在车辆V1110将来自不同源的不同图像信息组合的该示例中,图1F示出车辆V1110可最终收集足以表示示出的道路区域180的图像信息。根据实施例,例如,道路区域180的结果图像信息可以以通过从道路之上捕获道路状况获得的俯视图的形式被提供给车辆V1110的驾驶员。
在图1F中,由剖线指示的区域190的示出图像TI2、TI3和TI4分别对应于车辆V2120、车辆V3125和车辆V4的俯视图或下视图。当难以或变得难以收集车辆V2120、车辆V3125和车辆V4的实际俯视图,或者这些图像不可用时,针对图像TI2、TI3和TI4的各个虚拟车辆图像或预定突出表现颜色可被显示在TI2、TI3和TI4的位置。当虚拟车辆图像被使用时,预先存储的相应车辆图像或存储在车辆V1110中的通用相应车辆图像,或者从车辆V2120、车辆V3125和车辆V4接收的车辆图像可被使用。
在驾驶或行驶时,车辆V1110的驾驶员可被另一车辆阻挡或由于道路结构而被阻挡,从而观看不到或看不到障碍,诸如障碍160。例如包括在驾驶员不可见或不可感知的区域中的障碍、运动对象、事故现场等可增加事故风险。事故风险还可因高速的另一车辆和由天气影响的道路表面的异常状况而增加。如图1F所示,车辆V1110可向驾驶员提供关于超出由车辆V1110监视的道路区域150的道路区域180的信息,从而提高驾驶安全性和便利性。
作为示例,响应于从车辆V1110提供的关于道路区域180的信息,驾驶员可事先知道存在被车辆V3125挡住的障碍160,并随后为未来潜在的事故做准备。类似地,当车辆V7145以相对高的速度前进时,车辆V1110的驾驶员可基于关于道路区域180的信息知道被车辆V6135挡住的高速车辆V7145,从而针对高速的车辆V7145而做准备。此外,车辆V1110的驾驶员可基于关于道路区域180的信息确定何时或是否改变车道,从而提高驾驶安全性和便利性。
如以下关于图2所讨论的那样,关于道路区域180的信息可通过周围观看系统200以虚拟视点图像的形式被提供给车辆V1110的驾驶员或乘客,以提供车辆的扩大周围视图。在示例中,车辆V1110、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145中的每个车辆可包括各自的周围观看系统200以收集它们各自的感测信息(例如,它们各自捕获的图像信息)并通过无线协同通信而收集由示例RSE 130监视的区域和/或由其它车辆监视的各个区域的这种感测信息以及道路状况信息。通过这些各种处理,例如,车辆V1110、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145中的每个车辆可向它们各自的驾驶员/乘客提供表示各个车辆周围的扩大区域的图像。此外,RSE 130可包括这样的系统200,或相比于系统200的全部组件具有更少的组件的系统,并且相应类似地接收关于由车辆V1110、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145监视的各个区域的图像和交通信息。在该示例中,RSE 130可包括显示器以本地显示收集的信息或可将收集的信息传送到用于诸如用于道路安全管理的监视的远程地点/位置。例如,如以下将更详细讨论的那样,RSE还可仅收集(或被配置为)仅收集可包括车辆中的一个或更多个以及道路区域的周围视图,并将该周围视图提供给车辆V1110、车辆V2120、车辆V3125、车辆V4、车辆V5、车辆V6135和车辆V7145中的任何一个车辆。
图2示出根据一个或更多个实施例的周围观看系统和方法。在下文中,仅作为示例实施例,周围观看系统200可以是车辆。在实施例中,并且仅作为示例,当周围观看系统200是车辆时,周围观看系统200可例如基于从另一车辆和/或RSE接收的信息中的至少一项,全方位地(例如360度)向驾驶员显示针对车辆的区域(其中,该针对车辆的区域大于车辆的视觉可观察的周围区域)。
参照图2,周围观看系统200可包括图像产生设备,所述图像产生设备包括虚拟视点图像产生器220、接收器240和扩大虚拟视点图像产生器250。可选择地,虚拟视点图像产生器220、接收器240和扩大虚拟视点图像产生器250可以是与周围观看系统200分开的组件。图像产生设备还可包括发送器230,或者发送器230可作为周围观看系统200的另一组件。此外,周围观看系统200可包括一个或更多个相机210和显示器260。例如,虚拟视点图像产生器220、发送器230、接收器240和扩大虚拟视点图像产生器250中的每个的以下阐述的操作可通过被配置为分别按下面描述地那样操作和/或通过各个替代硬件组件来操作的一个或更多个处理装置、处理器或专用计算机被实现。这种处理装置、处理器或专用计算机还可被配置为实现对一个或更多个相机210和显示器260的操作的相应控制,以分别捕获周围图像信息并显示交通信息以及产生的任何虚拟视点图像或产生的扩大虚拟视点图像。如以下进一步讨论的那样,仅作为示例,另一实施例可包括虚拟图像产生器设备,这种虚拟图像产生器设备包括具有一个或更多个相机210的周围观看系统中的虚拟视点图像产生器220和发送器230,这种虚拟图像产生器设备0可通过在图1的RSE 130中或与图1的RSE 130一起放置而可被利用。在该示例中,RSE 130的这种替代虚拟图像产生器设备可将捕获(或者,RSE 130可用)的至少一条的信息发送给作为周围观看系统200的示例车辆V1110,这种至少一条捕获的信息可被周围观看系统200用来产生扩大虚拟视点图像并且周围观看系统200可将这种至少一条捕获的信息显示为相比于车辆V1110的视觉可观察的周围区域更大的区域。可选择地,仅作为示例,示例RSE130可包括与示例车辆V1110类似的周围观看系统200,或者RSE 130的示例虚拟图像产生器设备可仅还包括接收器240,或者包括接收器240和扩大虚拟视点图像产生器250,以例如进行本地显示,将产生的任何虚拟视点图像传送到另一RSE、其它车辆或远程位置或地点,或将产生的任何扩大虚拟视点图像传送到这种远程位置或地点。
因此,返回到图1的包括至少具有虚拟视点图像产生器220、接收器240和扩大虚拟视点图像产生器250的周围观看系统200的车辆V1110的示例,虚拟视点图像产生器220可通过捕获车辆周围的一个或更多个区域的信息来产生车辆的虚拟视点图像。例如,虚拟视点图像可具有位于车辆之上(例如在车辆之上的预定位置)的虚拟视点,其中,从所述虚拟视点向下观看车辆的周围区域。可针对虚拟视点确定与从虚拟视点图像的边界向上观看虚拟视点的角度相应的仰角的角度信息或与从虚拟视点的位置向下观看车辆的周围区域的角度相应的视角的角度信息。例如,这些角度可被用于表示由参考车辆基于虚拟视点的已知高度或设置的高度捕获的定义的周围区域的物理扩大。
仅作为示例,虚拟视点图像产生器220可通过组合单独的周围视图来产生例如虚拟俯视图,其中,所述周围视图从分别捕获表示车辆前侧的视图、车辆后侧的视图、车辆左侧的视图和车辆右侧的视图的图像中收集。俯视图可以是例如从设置在车辆之上的虚拟视点向下观看的车辆的周围区域的结果图像。虚拟视点图像产生器220可通过如下方法使用单独的周围视图的图像来产生俯视图:减小与相对于车辆的位置的短程区域对应的像素之间的各个距离(或对所述距离进行相类似的变化或插值)并增加与相对于车辆的位置的远程区域对应的像素之间的各个距离(或对所述距离进行相类似的变化或插值)。
在示例中,虚拟视点图像产生器220可基于另一车辆的确定、知道或通知的位置来调整车辆的虚拟视点图像,调整的虚拟视点图像可通过发送器230被发送到所述另一车辆,以例如稍后被所述另一车辆用来产生针对所述另一车辆的类似扩大虚拟视点图像。为了这种调整,在将从所述另一车辆的位置或角度观看车辆的周围区域的假设之下,虚拟视点图像产生器220可设置虚拟视点的位置和虚拟视点所面向的观看方向。基于设置的结果,虚拟视点图像产生器220可调整车辆的虚拟视点图像,以发送到其它车辆或RSE。
当周围观看系统200是RSE时,并且当RSE在足够高的位置或高度监视道路状况时,虚拟视点图像产生器220的图像处理过程可被省略。
如所指出的那样,周围观看系统200可包括相机210,相机210可通过捕获车辆的周围区域来产生视图,并将周围视图提供给虚拟视点图像产生器220。
返回到周围观看系统200是车辆的示例,接收器240可从另一车辆接收虚拟视点图像,并从所述另一车辆接收附加信息。所述另一车辆可已使用该另一车辆的周围观看系统200的一个或更多个相机捕获的针对该另一车辆的周围的周围视图,该另一车辆基于捕获的周围视图产生针对该另一车辆的虚拟视点图像,并通过示例无线协同通信将该另一车辆的产生的虚拟视点图像和该另一车辆的任何附加信息发送到接收器240。
因此,接收器240从另一车辆接收的附加信息可包括例如所述另一车辆的标识符(ID)信息、所述另一车辆的速度信息、所述另一车辆的产生的虚拟视点图像的虚拟视点的高度信息、所述另一车辆的产生的虚拟视点图像的虚拟视点的角度信息、所述另一车辆的产生的虚拟视点图像的分辨率信息、由所述另一车辆计算的比例信息、所述另一车辆的位置信息、例如从所述另一车辆之上观看的所述另一车辆的车辆图像、由所述另一车辆获得的交通信息。所述另一车辆的产生的虚拟视点图像的虚拟视点的角度信息可包括所述另一车辆的产生的虚拟视点图像的虚拟视点的仰角信息或视角信息。所述另一车辆的产生的虚拟视点图像的虚拟视点的高度信息可指示如下的高度,即从该高度向下观看所述另一车辆的周围区域以创建所述另一车辆的产生的虚拟视点图像。比例信息可指示关于道路的实际面积与图像(例如,另一车辆的虚拟视点图像)尺寸的比率的信息。仅作为示例,交通信息可包括关于交通信号、高速运动的对象和由传感器感测的障碍的信息。
扩大虚拟视点图像产生器250可基于车辆的产生的虚拟视点图像和接收的另一车辆的虚拟视点图像来产生扩大虚拟视点图像。扩大虚拟视点图像产生器250可将车辆的虚拟视点图像和另一车辆的虚拟视点图像转换为适当形式,并组合转换结果,从而产生扩大虚拟视点图像。因此,利用由另一车辆的虚拟视点图像提供的潜在的附加观看区域,针对车辆的扩大虚拟视点图像可表示比仅由车辆的通过虚拟视点图像产生器220产生的虚拟视点图像表示的区域更大的区域。将参照图3更详细地提供与扩大虚拟视点图像产生器250相关的附加描述。
在示例中,接收器240还可或者可选择地从示例RSE接收附加信息和周围视图,由RSE获得周围视图,RSE已捕获了RSE的一个或更多个周围区域。仅作为示例,接收器240从RSE接收包括以下信息中的任何一种或更多种信息的附加信息:存在于观看区域中的车辆的速度信息、在周围视图的视点的高度信息、RSE的位置信息、由RSE计算的比例信息和由RSE获得的交通信息。当接收器240从RSE接收到这种周围视图时,车辆的扩大虚拟视点图像产生器250可对车辆的虚拟视点图像、另一车辆的虚拟视点图像和从RSE接收的周围视图进行组合,从而产生扩大虚拟视点图像。
当接收器240没有从其它车辆和RSE接收到图像信息时,周围观看系统200可显示由虚拟视点图像产生器220产生的车辆的虚拟视点图像,来代替产生的扩大虚拟视点图像。在这种情况下,在接收器240没有从其它车辆或RSE接收到这种图像或附加信息的情况下,扩大虚拟视点图像产生器250可不需要操作,而仅虚拟视点图像产生器220可需要操作。
显示器260输出扩大虚拟视点图像。在示例中,扩大虚拟视点图像可表示基于车辆位于显示的扩大虚拟视点图像的中心而扩大的周围区域。扩大虚拟视点图像还可包括交通信息和障碍信息。因此,可基于扩大虚拟视点图像向驾驶员直观地通知交通信息和车辆周围的道路状况。据此,可提高驾驶便利性,并且还可根据对事故风险作为准备的能力的增加而提高驾驶安全性。
在示例中,如所指出的那样,周围观看系统200还可包括发送器230。仅作为示例,发送器230可将车辆的附加信息和产生的虚拟视点图像中的至少一个发送到一个或更多个其它车辆和/或一个或更多个RSE。仅作为示例,所述发送的附加信息可包括以下信息中的任何一种信息或更多种信息:车辆的ID信息、车辆的速度信息、车辆的虚拟视点图像中的虚拟视点的高度信息、车辆的虚拟视点图像中的虚拟视点的角度信息、车辆的虚拟视点图像的分辨率信息、由车辆计算的比例信息、车辆的位置信息、从上面向下观看的车辆的车辆图像和/或由车辆获得的交通信息。
图3示出根据一个或更多个实施例的周围观看系统200的扩大虚拟视点图像产生器和方法。参照图3,例如,扩大虚拟视点图像产生器250可包括例如图像转换器310、图像对准器320、图像选择器330和图像产生器340。在实施例中,例如,可由至少一个处理装置、处理器或专用计算机来实现扩大虚拟视点图像产生器250的图像转换器310、图像对准器320、图像选择器330和图像产生器340中的每个的操作。
图像转换器310可从接收器240接收另一车辆的虚拟视点图像并从虚拟视点图像产生器220接收车辆的虚拟视点图像。图像转换器310可在例如组合虚拟视点图像组合之前分别调整车辆的虚拟视点图像和另一车辆的虚拟视点图像的图像尺寸和虚拟视点的位置中的至少一个。例如,图像转换器310可调整虚拟视点图像的图像尺寸,使得应用于虚拟视点图像的比例彼此相等。图像转换器310可基于关于虚拟视点图像中的虚拟视点的位置和角度的信息或关于应用于虚拟视点图像的比例的信息,调整虚拟视点图像的图像尺寸。此外,图像转换器310可调整虚拟视点图像中的一个或更多个以补偿虚拟视点图像的视点之间的位置差。例如,图像转换器310可将另一车辆的虚拟视点图像的视点的高度调整为与车辆的虚拟视点图像的视点的高度相等。可选择地,图像转换器310可将另一车辆的虚拟视点图像的视点的位置调整为与车辆的虚拟视点图像的视点的位置相同。
基于图像转换器310的调整结果,图像对准器320可对虚拟视点图像进行对准,并确定虚拟视点图像之间的布置关系。在对虚拟视点图像进行对准的处理中,可产生重叠区域,重叠区域是来自两个或更多个虚拟视点图像的预定区域的重叠。
例如,图像对准器320可基于车辆与另一车辆之间的位置关系或车辆的虚拟视点图像与所述另一车辆的虚拟视点图像之间的相关性,对车辆的虚拟视点图像与所述另一车辆的虚拟视点图像进行对准。车辆可基于例如波束形成技术来估计关于车辆与所述另一车辆之间的角度和距离的信息。基于估计的信息,图像对准器320可确定车辆与所述另一车辆之间的位置关系。可选择地,车辆可从所述另一车辆接收所述另一车辆的全球定位系统(GPS)信息。图像对准器320可基于接收的所述另一车辆的GPS信息和车辆的GPS信息确定车辆与所述另一车辆之间的位置关系。图像对准器320可基于位置关系而确定与被识别为虚拟视点图像中的相同区域的区域对应的重叠区域,并基于重叠区域对虚拟视点图像进行对准。当虚拟视点图像之间的预定区域的相关性被验证为相对高时,该区域是虚拟视点图像之间的相同区域的概率也会高。
在另一示例中,在基于位置关系对虚拟视点图像进行对准之后,图像对准器320还可基于车辆与另一车辆之间的位置关系以及虚拟视点图像之间的相关性而更精确地对虚拟视点图像进行重新对准。
在另一示例中,图像对准器320的对准结果可作为反馈信息被提供给图像转换器310。响应于反馈信息,虚拟视点图像可被重新转换并被更精确地重新对准。例如,图像转换器310可基于从图像对准器320输出的对准结果调整另一车辆的虚拟视点图像的视点的位置。可选择地,图像转换器310可将另一车辆的虚拟视点图像的虚拟视点的位置调整为与车辆的虚拟视点图像的虚拟视点的位置相同,使得整个图像具有单个统一的虚拟视点。相比于均具有不同虚拟视点的虚拟视点图像,具有重叠区域的多个虚拟视点图像之间的相似度可通过将多个虚拟视点图像附加地转换为具有单个统一的虚拟视点而被增加。在该示例中,重叠区域的相关性也可增加。因此,当图像对准器320采用应用重叠区域的相关性的值的前述方法时,布置的虚拟视点可被更精确地重新布置。
当在虚拟视点图像中存在重叠区域时,图像选择器330可选择哪个虚拟视点图像将被用于重叠区域。例如,图像选择器330可从车辆的虚拟视点图像和另一车辆的虚拟视点图像中选择具有较高图像分辨率的虚拟视点图像作为将被应用于重叠区域的虚拟视点图像。可选择地,当从其它车辆接收的虚拟视点图像被组合时,图像选择器330可将从提供较高质量的通信的车辆接收的虚拟视点图像确定为将被应用于重叠区域的虚拟视点图像。可基于例如针对从每个车辆接收的虚拟视点图像中的每个虚拟视点图像而测量的信噪比(SNR)来确定这种质量的通信。
基于哪个虚拟视点图像用于重叠区域的选择的结果,图像产生器340可通过对例如除了没有被选择用于重叠区域的虚拟视点图像的部分之外的虚拟视点图像进行组合来产生扩大虚拟视点图像。例如,仅作为示例,图像产生器340可对车辆的虚拟视点图像与另一车辆的虚拟视点图像进行组合,并且基于图像信息、障碍信息和交通信号信息来产生扩大虚拟视点图像。周围观看系统200随后可通过车辆的显示器260将扩大虚拟视点图像提供给驾驶员。
图4示出根据一个或更多个实施例的包括虚拟视点图像产生器和多个相机的周围观看系统以及周围观看系统的操作。
参照图4,车辆可包括前置相机410、后置相机420、左侧相机430和右侧相机440。例如,前置相机410可被布置在车辆的前侧并被周围观看系统配置和控制为通过捕获车辆前方的周围区域来获得前方图像,后置相机420可被布置在车辆的后侧并被周围观看系统配置和控制为通过捕获车辆后面的周围区域来获得后方图像,左侧相机430可被布置在车辆的左侧并被周围观看系统配置和控制为通过捕获车辆左侧的周围区域来获得左侧图像,右侧相机440可被布置在车辆的右侧并被周围观看系统配置和控制为通过捕获车辆右侧的周围区域来获得右侧图像。
例如,周围观看系统的虚拟视点图像产生器220可通过对从前置相机410、后置相机420、左侧相机430和右侧相机440分别接收的前方图像、后部图像、左侧图像和右侧图像进行组合来产生车辆的虚拟视点图像。可选择地,可使用更多相机或更少的相机来产生虚拟视点图像。
图5示出根据一个或更多个实施例的由虚拟视点图像产生器(诸如由图2至图4中的任何一个的虚拟视点图像产生器220)产生的车辆的虚拟视点图像。虚拟视点图像500包括从被设置为在车辆之上的虚拟视点观看的车辆的周围区域。预先存储的车辆图像可被用作车辆的车辆图像。前方图像可被用于形成第一区域520、后方图像可被用于形成第二区域530。左侧图像可被用于形成第三区域540、右侧图像可被用于形成第四区域550。例如,前方图像可以是由图4的前置相机410捕获的图像,后方图像可以是由后置相机420捕获的图像,左侧图像可以是由左侧相机430捕获的图像,右侧图像可以是由右侧相机440捕获的图像。
图6示出由虚拟视点图像产生器220(诸如图2至图4中的任何一个的虚拟视点图像产生器220)产生的车辆的虚拟视点图像。示出的车辆V1110可以是周围观看系统(诸如,图2至图4的周围观看系统中的任何一个),并可使用包括在车辆V1110中的示例前置相机410和后置相机420来获得车辆V1110的周围区域的图像信息620。如所指出的那样,车辆V1110可以是周围观看系统,或者周围观看系统可以是可与车辆V1110的操作一起操作的组件或附件。示例图像信息620可表示具有相对小的仰角(elevation angle)的视图,因此可能不适合用来向驾驶员提供宽范围的交通状况。虚拟视点图像产生器220可使用表示相对大的仰角的视点610将图像信息620转换为虚拟视点图像信息630。例如,虚拟视点图像产生器220可基于以下方案来增加仰角:在图像信息620中减小被验证为距车辆V1110短的距离的图像像素之间的各个距离并增加被验证为距车辆V1110长的距离的图像像素之间的各个距离。
图7A至图9B示出根据一个或更多个实施例的诸如由图3的图像转换器310执行的各个示例图像转换操作。在下文中,车辆V1110可以是被用作参考点的车辆,车辆V2120可以是不同于车辆V1110的另一车辆。此外,仅作为示例,周围观看系统200可以是车辆V1110,或可作为被配置为可与车辆V1110的操作一起操作或与车辆V1110的操作独立的组件或附件被包括或可包含在车辆V1110中。
如图7A和图7B所示,针对车辆V1110的虚拟视点图像信息630的图像可在尺寸上与车辆V2120的虚拟视点图像720相似。然而,由于视点之间确定的高度差或车辆V1110与车辆V2120之间确定的速度差,虚拟视点图像信息630的图像和虚拟视点图像720的实际比例可彼此不同。因此当通过对虚拟视点图像信息630的图像与虚拟视点图像720进行组合,来产生针对车辆V1110的扩大虚拟视点图像时,可将虚拟视点图像信息630的图像与虚拟视点图像720匹配。为此,图像转换器310可调整图像尺寸和视点的位置。
图8A和图8B分别示出通过调整虚拟视点图像信息630的图像的尺寸而获得的虚拟视点图像830和通过调整虚拟视点图像720的尺寸而获得的虚拟视点图像860。图像转换器310可通过基于虚拟视点图像信息630的视点610的高度810或仰角820来调整虚拟视点信息630中的图像的尺寸,来产生虚拟视点图像830。类似地,图像转换器310可通过基于虚拟视点图像720的视点710的高度840或仰角850调整针对车辆V2120的虚拟视点图像720的尺寸,来产生虚拟视点图像860。在该示例中,可使用视点610和视点710的视角来代替仰角820和仰角850。
在示例中,包括在车辆V1110中的接收器240可从车辆V2120接收关于虚拟视点图像720的实际比例的信息,所述信息可指示可基于由车辆V2120提供的信息现在可附加地用于车辆V1110的周围信息的范围或扩大。基于接收的信息,图像转换器310可调整虚拟视点图像信息630的图像和虚拟视点图像720的各自的尺寸,以使例如包括在虚拟视点图像信息630中的实际比例等于虚拟视点图像720的实际比例。
当视点610与视点710之间的确定的高度差被确定为相对大时,通过对虚拟视点图像信息630的图像与虚拟视点图像720进行简单地组合而产生的图像可因所述高度差而看起来不自然。因此,可期望在对虚拟视点信息630的图像与虚拟视点图像720进行组合之前,将视点610的高度810与视点710的高度840匹配。图像转换器310可在调整虚拟视点图像信息630的图像的尺寸和虚拟视点图像720的尺寸之后调整视点610和视点720的高度。在示例中,图像转换器310可将虚拟视点图像860的视点710的高度840调整为等于虚拟视点图像830的视点610的高度810。
图9A和图9B示出通过基于虚拟视点图像830的视点610的高度810调整虚拟视点图像860的视点的高度而获得的虚拟视点图像940。例如,图像转换器310可通过将虚拟视点图像860的仰角850调整为仰角920来将视点710调整为具有高度920的视点910。在该示例中,高度920可等于虚拟视点图像830的视点610的高度810。
在实施例中,当附加车辆正在提供信息时,调整的图像的尺寸和不同视点的高度可基于考虑现在可从不同源应用的周围道路的整个扩大范围或区域而进行,从而图像的尺寸和视点的高度可被匹配为基于此考虑获得的图像尺寸和视点。
图10和图11示出根据一个或更多个实施例的诸如由图3的图像对准器320执行的各个图像对准操作。
图像对准器320可通过确定虚拟视点图像之间的布置关系来对从图像转换器310输出的虚拟视点图像进行对准。图10示出车辆V1110的虚拟视点图像1010与车辆V2120的虚拟视点图像1020之间的布置关系。例如,图像对准器320可基于关于车辆V1110与车辆V2120之间的角度和距离的信息或车辆V1110与车辆V2120的位置信息,确定虚拟视点图像1010与虚拟视点图像1020之间的布置关系。可选择地,图像对准器320可基于虚拟视点图像1010与虚拟视点图像1020之间的相关性,确定虚拟视点图像1010与虚拟视点图像1020之间的布置关系。图像对准器320可通过对被确定为在虚拟视点图像1010和虚拟视点图像1020中具有高的相关性的区域进行重叠来对虚拟视点图像1010与虚拟视点图像1020进行对准。
作为对虚拟视点图像1010与虚拟视点图像1020进行对准的结果,虚拟视点图像1010与虚拟视点图像1020之间的重叠区域1030可被确定。仅作为示例,可通过图像转换器310调整虚拟视点图像1010的图像尺寸、虚拟视点图像1020的图像尺寸、虚拟视点图像1010的视点的位置和虚拟视点图像1020的视点的位置中的至少一个。重叠区域1030可指示虚拟视点图像1010和虚拟视点图像1020中的被验证为通过观看相同区域而获得的结果的区域。
图11示出对车辆V1110的虚拟视点图像1010、车辆V2120的虚拟视点图像1020和车辆V71110的虚拟视点图像1120进行对准的图像对准器320的示例。在示例中,图像对准器320可基于关于车辆V1110与车辆V2120之间的距离1140的信息和关于车辆V1110与车辆V2120之间的角度1150的信息,来确定虚拟视点图像1010与虚拟视点图像1020之间的布置关系。作为示例,车辆V1110可使用例如传感器和多个天线装置来估计车辆V1110与车辆V2120之间的距离1140和车辆V2120所处的方向。基于估计的结果,车辆V1110可确定虚拟视点图像1010与虚拟视点图像1020之间的布置关系。例如,当车辆V1110与车辆V71110之间存在障碍时,可能无法估计关于车辆V1110与车辆V71110之间的角度和距离的信息。在该示例中,图像对准器320可基于车辆V1110的位置信息和车辆V71110的位置信息来确定虚拟视点图像1010与虚拟视点图像1120之间的布置关系。这里,虚拟视点图像1120可以是图像尺寸和视点的位置中的至少一个被图像转换器310调整的虚拟视点图像。作为另一示例,图像对准器320可通过确定虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1120之间的相关性并通过使与确定的高相关性相应的区域重叠来对虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1120进行对准,来确定虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1120之间的布置关系。
在示例中,图像对准器320可基于车辆V1110、车辆V2120和车辆V71110之间的确定的位置关系来对虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1020进行布置,并且随后可基于虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1020之间的确定的相关性来更精确地布置虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1020。
作为对准的结果,可确定虚拟视点图像1010与虚拟视点图像1020之间的重叠区域1030以及虚拟视点图像1010与虚拟视点图像1120之间的重叠区域1130。可选择地,虚拟视点图像1010、虚拟视点图像1020和虚拟视点图像1120之间的相关性满足预设参考相关性的区域可被确定为重叠区域1030和重叠区域1130。
图12示出根据一个或更多个实施例的可在图像转换器与图像对准器(诸如图3的图像转换器310与图像对准器320)之间执行的反馈操作。
根据实施例,通过组合多个虚拟视点图像而产生的整个图像可需要被构建为具有单个统一的虚拟视点来代替多个视点,从而对于驾驶员来说看起来自然。为此,图像对准器320的对准结果可作为反馈信息被提供给图像转换器310。例如,图像对准器320可对车辆V1110的虚拟视点图像与车辆V2120的虚拟视点图像进行对准,并且随后车辆V2120的虚拟视点图像可被输入到图像转换器310。
图像转换器310可将车辆V2120的反馈虚拟视点图像的视点调整为针对车辆V1110的虚拟视点图像的视点的位置。据此,整个图像可具有单个统一的虚拟视点,使得扩大虚拟视点图像可看起来更自然。此外,通过提供这种反馈,虚拟视点图像可被更精确地对准。例如,当虚拟视点图像被转换为具有单个统一的虚拟视点时,与虚拟视点图像的重叠区域相应的相关性可增加,因此,图像对准器320可基于关于相关性的信息更精确地重新布置虚拟视点图像。
图13至图15示出根据一个或更多个实施例的诸如由图3的图像对准器320提供的示例对准图像结果。
图13示出对车辆V1110的虚拟视点图像830和车辆V2120的虚拟视点图像860进行对准的结果。在该示例中,虚拟视点图像830和虚拟视点图像860可具有调整的尺寸。虚拟视点图像830的虚拟视点610的位置可与虚拟视点图像860的虚拟视点710的位置不同。重叠区域1310可被包括在虚拟视点图像830和虚拟视点图像860中。
与图13的示例形成对照,图14示出将虚拟视点图像860的虚拟视点910的高度附加调整为等于虚拟视点图像830的虚拟视点610的高度的结果。重叠区域1410可被包括在虚拟视点图像830和具有调整的高度的虚拟视点910的虚拟视点图像940中。
在多个虚拟视点分布在扩大虚拟视点图像的假设之下提供图13和图14的示例。相反,图15示出通过将图像对准器320的对准结果作为反馈提供给图像转换器310使得基于反馈的结果图像具有单个统一的虚拟视点1510而获得的结果。车辆V1110的虚拟视点图像830和车辆V2120的虚拟视点图像1520现在可具有单个统一的虚拟视点1510。虚拟视点图像830和虚拟视点图像1520可包括重叠区域1530。
图16示出根据一个或更多个实施例的诸如由图像选择器330执行的图像选择方法。在该示例中,可假设车辆V1110的虚拟视点图像1610、车辆V2120的虚拟视点图像1620和车辆V71110的虚拟视点图像1630已被对准。虚拟视点图像1610和虚拟视点图像1620可包括重叠区域1650,虚拟视点图像1620和虚拟视点图像1630可包括重叠区域1640。区域1660可包括或表示结果的扩大虚拟视点图像的最终的整个图像中的不可识别的区域。
图像选择器330可从虚拟视点图像1610和虚拟视点图像1620之中选择一个虚拟视点图像以用于重叠区域1650。图像选择器330还可从虚拟视点图像1620和虚拟视点图像1630之中选择一个虚拟视点图像以用于重叠区域1640。图像选择器330可基于虚拟视点图像的确定的各个图像分辨率或向车辆V1110提供虚拟视点图像的各个通信的确定的质量,分别选择虚拟视点图像以用于重叠区域1640和重叠区域1650。例如,当虚拟视点图像1610的图像分辨率高于虚拟视点图像1620的图像分辨率时,图像选择器330可选择使用虚拟视点图像1610的图像信息产生结果的扩大虚拟视点图像中的重叠区域1650。
此外,图像选择器330可基于向车辆V1110提供虚拟视点图像的各个通信的确定的各个信噪比(SNR)来确定哪个虚拟视点图像用于重叠区域1650。作为示例,潜在地具有最少量的附加噪声,针对来自车辆V1110的虚拟视点图像的SNR可具有最大值,或表示最大参考值。在该示例中,具有更大的SNR的虚拟视点图像1610的图像信息可用于产生结果扩大虚拟视点图像中的重叠区域1650。类似地,例如由车辆V1110的接收器240测量的来自车辆V2120的虚拟视点图像的确定的SNR可大于来自车辆V7的虚拟视点图像的确定的SNR。在该示例中,图像选择器330可使用来自虚拟视点图像1620的图像信息来产生结果扩大虚拟视点图像中的重叠区域1640。在实施例中,当针对不同虚拟视点图像的确定的SNR近似时,虚拟视点图像的图像分辨率还可被比较,并且具有较高的图像分辨率的虚拟视点图像的图像信息可被用于产生结果扩大虚拟视点图像中的重叠区域。
图17和图18示出根据一个或更多个实施例的诸如由图3的图像产生器340执行的图像产生操作。
诸如以上关于图16所描述的那样,图像产生器340可基于图像选择器330的选择结果对不同虚拟视点图像进行组合,并使用不同视点图像的选择的部分来产生扩大虚拟视点图像的整个图像。例如,扩大虚拟视点图像可包括车辆V1110的虚拟视点图像信息1710、车辆V2120的虚拟视点图像信息1720和车辆V71110的虚拟视点图像信息1730。区域1740的图像信息可能没有被提供。在这种情况下,可使用预定颜色或者特殊效果(诸如,可被应用于区域1740闪烁效果)来表示区域1740,以指示区域1740的这种图像信息不可用。
图18示出基于虚拟视点图像的组合产生扩大虚拟视点图像,以及扩大虚拟视点图像与障碍和/或交通信息一起被输出。可使用实际车辆图像或虚拟车辆图像来指示或者使用预定颜色来指示例如通过从上面观看预定车辆而获得的图像1810。如区域1820中所指示的那样,可通过应用特殊效果(例如,闪烁效果)或通过使用预定颜色来提供障碍信息。此外,包括例如速度限制、当前交通信号、高速行驶的车辆和监视相机的布置的交通信息可被同时输出到扩大虚拟视点图像,诸如包括显示在扩大虚拟视点图像上的交通信号信息的区域1830所示出的那样。区域1830的交通信号信息可允许驾驶员预测交通流并向驾驶员提供增加的驾驶便利性。
图19示出根据一个或更多个实施例的周围观看方法。仅作为示例,周围观看方法可通过周围观看系统(诸如图2至图4的周围观看系统200中的任何一个)被执行,并且可被执行为车辆的操作或被执行为与这种车辆的其它操作独立的操作。周围观看方法和系统也不限于用作车辆或用于车辆中,并且可用于其它应用。简要地,为了便于解释,将参照示例周围观看系统来阐述周围观看方法的以下操作,但是实施例不限于此,因为替代的设备或系统可实现周围观看方法的以下操作。
在操作1910,周围观看系统可基于通过捕获车辆的周围区域而获得的周围视图来产生车辆的虚拟视点图像。例如,周围观看系统可通过减小捕获的周围图像的与相对于车辆的位置的短程区域对应的像素之间的各个距离并通过增加捕获的周围图像的与相对于车辆的位置的远程区域对应的像素之间的各个距离,来产生虚拟视点图像。
在操作1920,周围观看系统可将车辆的附加信息和产生的虚拟视点图像选择性地发送到一个或更多个其它车辆和/或一个或更多个RSE。作为非限制性示例,附加信息可包括以下信息中的任何一种或更多种信息:车辆的ID信息、车辆的速度信息、车辆的虚拟视点图像的视点的高度信息、车辆的虚拟视点图像的视点的角度信息、车辆的虚拟视点图像的分辨率信息、由车辆计算的比例信息、车辆的位置信息、从上面向下观看的车辆的车辆图像和/或由车辆获得或感测的交通信息。
在实施例中,在发送产生的虚拟视点图像之前,周围观看系统可基于另一车辆的确定或通知的位置来调整车辆的虚拟视点图像的视点的位置,并随后将调整的虚拟视点图像发送到所述另一车辆。可选择地,如果在没有进行这种调整的情况下,产生的虚拟视点图像被发送,则当针对接收车辆中的任何一个的各自的扩大虚拟视点图像的产生必需或期望时,接收车辆中的任何一个随后可通过它们各自的周围观看系统选择性地执行这种调整。
在操作1930,周围观看系统可分别从一个或更多个其它车辆接收所述一个或更多个其它车辆的这种附加信息和虚拟视点图像中的至少一个。这里,作为非限制性示例,从其它车辆接收的附加信息可包括以下信息中的任何一种或更多种信息:相应另一车辆的ID信息、相应另一车辆的速度信息、相应另一车辆的虚拟视点图像的视点的高度信息、相应另一车辆的虚拟视点图像的虚拟视点的角度信息、相应另一车辆的虚拟视点图像的分辨率信息、由相应另一车辆计算的比例信息、相应另一车辆的位置信息、从上面向下观看的相应另一车辆的车辆图像、由相应另一车辆获得的交通信息。
在操作1940,周围观看系统可从一个或更多个RSE选择性地接收各个附加信息以及例如由相应RSE观看的一个或更多个周围视图中的至少一个。作为非限制性示例,附加信息可包括以下信息中的任何一种或更多种信息:包括在由RSE观看的区域中的车辆的速度信息、由RSE捕获的周围视图的视点的高度信息、RSE的位置信息、由RSE计算的比例信息和由RSE获得的交通信息。在RSE还包括周围观看系统并产生虚拟视点图像的实施例中,RSE还可或可选择地可发送这种产生的虚拟视点图像。
在操作1950,周围观看系统可通过对车辆的虚拟视点图像与其它车辆的一个或更多个接收的虚拟视点图像进行组合,来产生扩大虚拟视点图像。周围观看系统可例如在调整虚拟视点图像的图像尺寸和各个视点的位置之后,通过对不同虚拟视点图像进行对准和组合来产生扩大虚拟视点图像。以上已参照图10提供了与操作1950相关的示例可用实施例描述。
在操作1950,当由RSE提供的RSE周围视图被车辆接收时,扩大虚拟视点图像的产生可包括周围观看系统通过例如对车辆的虚拟视点图像、接收的另一车辆的虚拟视点图像和接收的RSE周围视图进行组合来产生扩大虚拟视点图像。
在操作1960,周围观看系统可输出扩大虚拟视点图像,这种扩大虚拟视点图像的输出可包括将扩大虚拟视点图像显示在显示器上。显示器可以是周围观看系统的组件或与周围观看系统分离。显示的扩大虚拟视点图像可向驾驶员同时提供扩大周围图像信息以及相关交通信息。
在前述内容中,虽然作为示例按从操作1910至操作1960的顺序提供关于提供车辆的周围视图的周围关系方法的描述,但是实现该方法的顺序不限于图19的顺序,因此,执行操作1910至操作1960的顺序可改变。例如,可在操作1930或操作1940之后执行操作1910,可在操作1910或操作1920之前执行操作1930。此外,可在操作1910、操作1920或操作1930之前执行操作1940,也可以是替代的操作顺序。
图20示出根据一个或更多个实施例的周围观看方法。仅作为示例,周围观看方法可通过周围观看系统(诸如图2至图4的周围观看系统200中的任何一个)被执行,并且可被执行为车辆的操作或被执行为与这种车辆的其它操作独立的操作。周围观看方法和系统也不限于用作车辆或用于车辆中,并且可用于其它应用。简要地,为了便于解释,将参照示例周围观看系统来讨论周围观看方法的以下操作,但是实施例不限于此,因为替代的设备或系统可实现周围观看方法的以下操作。
在操作2010,周围观看系统可对车辆的虚拟视点图像和接收的另一车辆的虚拟视点图像执行转换。例如,周围观看系统可调整虚拟视点图像的视点的位置和/或调整虚拟视点图像的图像尺寸,使得例如相同比例被应用于全部虚拟视点图像。
在操作2020,周围观看系统可对车辆的虚拟视点图像与接收的另一车辆的虚拟视点图像进行对准。周围观看系统可基于车辆与另一车辆之间的确定的位置关系或基于虚拟视点图像之间的确定的相关性,确定虚拟视点图像之间的布置关系。作为对虚拟视点图像进行对准的结果,虚拟视点图像之间的重叠区域可被确定。
在操作2030,例如,周围观看系统可从车辆的虚拟视点图像和另一车辆的虚拟视点图像之中选择一个虚拟视点图像以用于产生扩大虚拟视点图像中的重叠区域。周围观看系统可基于针对重叠区域哪个虚拟视点图像具有较高的图像分辨率,或基于针对重叠区域接收的虚拟视点图像信号的哪个发送具有较高的SNR在虚拟视点图像之中进行选择。
在操作2040,周围观看系统可通过基于操作2030的结果对车辆的虚拟视点图像与另一车辆的虚拟视点图像进行组合来产生扩大虚拟视点图像。扩大虚拟视点图像可基于车辆的位置被构建,还可被构建为表示交通信息同时表示车辆周围的扩大区域的图像信息。
此外,通过硬件组件来实现例如图1A至图4以及图6中示出的可执行这里针对图1A至图20描述的一个或更多个操作的设备、单元、模块、装置和其它组件。硬件组件的示例包括电阻器、电容器、电感器、电源、频率发生器、运算放大器、功率放大器、低通滤波器、高通滤波器、带通滤波器、模数转换器、数模转换器、控制器、传感器、存储器、驱动器、处理装置和本领域普通技术人员已知的其它任何电子组件。在一个示例中,可通过一个或更多个处理装置、处理器或计算机来实现硬件组件。通过一个或更多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元)、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或本领域普通技术人员已知的能够以限定的方式响应和执行指令以达到期望的结果的任何其它装置或装置的组合来实现处理装置、处理器或计算机。在一个示例中,处理装置、处理器或计算机包括或连接到存储由处理装置、处理器或计算机执行的并可控制处理装置、处理器或计算机实现这里描述的一个或更多个方法的计算机可读代码、指令或软件的一个或更多个存储器。仅作为示例,由处理装置、处理器或计算机实现的硬件组件运行诸如操作系统(OS)和运行在OS上的一个或更多个软件应用的代码、指令或软件,以执行这里针对图1A至图20描述的操作。硬件组件还可响应于指令或软件的执行来访问、操作、处理、创建和存储数据。为了简明的目的,单数术语“处理装置”、“处理器”或“计算机”可用于这里描述的示例的描述中,但是在其它示例中,使用多个处理装置、处理器或计算机,或者,处理装置、处理器或计算机包括多个处理元件或多种类型的处理元件或者包括两者。在一个示例中,硬件组件包括多个处理器,在另一示例中,硬件组件包括处理器和控制器。硬件组件具有不同的处理构造中的任何一个或更多个,硬件组件的示例包括单处理器、独立处理器、并行处理器、远程处理环境、单指令单数据(SISD)多处理设备、单指令多数据(SIMD)多处理设备、多指令单数据(MISD)多处理设备和多指令多数据(MIMD)多处理设备。
可由如上所述的运行处理器或计算机可读代码、指令或软件以执行这里描述的操作的处理装置、处理器或计算机来执行图1A至图20中示出的执行这里描述的操作的方法。
用于控制处理装置、处理器或计算机实现硬件组件并执行上述方法的处理器或计算机可读代码、指令或软件可被写为计算机程序、代码段、指令或它们的任何组合,以用于独立地或共同地指示或配置处理装置、处理器或计算机如机器或专用计算机一样操作以执行由硬件组件执行的操作和如上所述的方法。在一个示例中,处理器或计算机可读代码、指令或软件包括由处理装置、处理器或计算机直接执行的机器代码,诸如由编译器产生的机器代码。在另一示例中,处理器或计算机可读代码、指令或软件包括由处理装置、处理器或计算机使用解释器执行的高级代码。基于这里的公开,并对其理解之后,本领域普通编程员可基于附图中示出的框图和流程图以及说明书中的相应描述容易地编写处理器或计算机可读代码、指令或软件,其中,附图中示出的框图和流程图以及说明书中的相应描述公开了用于执行由硬件组件执行的操作和如上所述的方法的算法。
用于控制处理装置、处理器或计算机实现硬件组件(诸如图1A至图4以及图6论述的硬件组件)并执行上述方法的处理器或计算机可读代码、指令或软件以及任何关联的数据、数据文件和数据结构被记录、存储或固定在一个或更多个非暂时性计算机可读存储介质中。非暂时性计算机可读存储介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、闪存、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘和本领域普通技术人员已知的能够以非暂时方式存储计算机可读代码、指令或软件以及任何关联的数据、数据文件和数据结构并将处理器或计算机可读代码、指令或软件以及任何关联的数据、数据文件和数据结构提供给处理装置、处理器或计算机使得处理装置、处理器或计算机可执行指令的任何装置。在一个示例中,处理器或计算机可读代码、指令或软件以及任何关联的数据、数据文件和数据结构分布在网络连接的计算机系统上,从而通过处理装置、处理器或计算机以分布方式存储、访问并执行指令和软件以及任何关联的数据、数据文件和数据结构。
仅作为示例,被配置为实现软件或处理器/计算机可读代码组件以执行操作A的处理装置可包括处理器,该处理器被编程为运行软件或执行处理器/计算机可读代码或指令以控制处理器执行操作A。另外,被构造为实现软件或处理器/计算机可读代码组件以执行操作A、操作B和操作C的处理装置可具有各种配置,诸如例如:被配置为实现软件或处理器/计算机可读代码组件以执行操作A、B和C的处理器;被配置为实现软件或处理器/计算机可读代码组件以执行操作A的第一处理器和被配置为实现软件或处理器/计算机可读代码组件以执行操作B和C的第二处理器;被配置为实现软件或处理器/计算机可读代码组件以执行操作A和B的第一处理器和被配置为实现软件或处理器/计算机可读代码组件以执行操作C的第二处理器;被配置为实现软件或处理器/计算机可读代码组件以执行操作A的第一处理器、被配置为实现软件或处理器/计算机可读代码组件以执行操作B的第二处理器和被配置为实现软件或处理器/计算机可读代码组件以执行操作C的第三处理器;被配置为实现软件或处理器/计算机可读代码组件以执行操作A、B和C的第一处理器和被配置为实现软件或处理器/计算机可读代码组件以执行操作A、B和C的第二处理器;或者一个或更多个处理器的任何其它配置,所述一个或多个处理器中的每一个执行操作A、B和C中的一个或更多个操作。虽然这些示例提及三个操作A、B和C,但可实现的操作的数量不限于三个,而是可以是实现所希望的结果或执行所希望的任务所需的任何数量的操作。
仅作为非穷举的示例,这里描述的系统或设备(诸如图1A至图4的周围观看系统中的任何一个)仅作为示例可以是移动装置(诸如车辆或车辆的组件、或蜂窝电话、智能电话、可穿戴智能装置(诸如指环、手表、眼镜、手链、脚链、腰带、项链、耳环、头巾、头盔或嵌入衣服的装置)、便携式个人计算机(PC)(诸如膝上型计算机、笔记本电脑、小型笔记本电脑、上网本、或超移动PC(UMPC)、平板PC(tablet)、平板手机、个人数字助理(PDA)、数码相机、便携式游戏控制台、MP3播放器、便携式/个人多媒体播放器(PMP)、掌上型电子书或全球定位系统(GPS)导航仪)。
虽然本公开包括特定示例,但是本领域普通技术人员将清楚,在不脱离权利要求及其等同物的精神和范围的情况下,可在这些示例中进行形式和细节上的各种改变。这里描述的示例仅被考虑为描述性的,而不是限制的目的。每个示例中的特征或方面的描述将被认为可应用于其它示例中的相似特征或方面。如果描述的技术以不同的顺序被执行,和/或如果描述的系统、结构、装置或电路中的组件以不同的方式被组合和/或被其它组件或其等同物代替或补充,则可获得合适的结果。因而,本公开的范围不是由具体实施方式限定,而是由权利要求及其等同物限定,并且权利要求及其等同物的范围内的所有改变均被解释为包括在本公开内。

Claims (23)

1.一种周围观看方法,所述周围观看方法包括:
由第一车辆基于第一车辆的至少一个捕获的周围视图图像来产生第一车辆的第一虚拟视点图像;
从第二车辆接收针对第二车辆的周围视图图像的第二虚拟视点图像;
由第一车辆基于来自第一虚拟视点图像和第二虚拟视点图像的图像信息的组合来产生扩大虚拟视点图像;
输出产生的扩大虚拟视点图像。
2.如权利要求1所述的周围观看方法,其中,输出产生的扩大虚拟视点图像的步骤包括:将产生的扩大虚拟视点图像输出到显示器并控制显示器显示扩大虚拟视点图像以及从第二车辆接收的关于第二车辆的附加信息和/或接收的第二虚拟视点图像中的区域中的对象。
3.如权利要求1所述的周围观看方法,还包括:从与第一车辆分开的路边设备接收第一车辆的所述至少一个捕获的周围视图图像。
4.如权利要求1所述的周围观看方法,其中,产生扩大虚拟视点图像的步骤包括:
调整第一虚拟视点图像的虚拟视点和第二虚拟视点图像的虚拟视点中的至少一个虚拟视点的位置;
基于调整的结果产生扩大虚拟视点图像。
5.如权利要求1所述的周围观看方法,其中,产生扩大虚拟视点图像的步骤包括:
调整第一虚拟视点图像和第二虚拟视点图像中的至少一个虚拟视点图像的图像尺寸;
基于调整的结果产生扩大虚拟视点图像。
6.如权利要求5所述的周围观看方法,其中,调整图像尺寸的步骤还包括:基于第一虚拟视点图像和第二虚拟视点图像的各个虚拟视点的位置信息、各个虚拟视点的角度信息以及第一虚拟视点图像和第二虚拟视点图像的各个比例信息中的至少一种,来调整第一虚拟视点图像和第二虚拟视点图像中的至少一个虚拟视点图像的图像尺寸。
7.如权利要求1所述的周围观看方法,其中,产生扩大虚拟视点图像的步骤包括:基于第一虚拟视点图像与第二虚拟视点图像之间的确定的相关性或第一车辆与第二车辆之间的确定的位置关系,对第一虚拟视点图像与第二虚拟视点图像进行对准。
8.如权利要求7所述的周围观看方法,其中,产生扩大虚拟视点图像的步骤包括:基于对准的结果将第二虚拟视点图像的虚拟视点的位置调整为与第一虚拟视点图像的虚拟视点的位置相同。
9.如权利要求7所述的周围观看方法,其中,产生扩大虚拟视点图像的步骤包括:
选择第一虚拟视点图像和第二虚拟视点图像中的一个虚拟视点图像以用于产生扩大虚拟视点图像的重叠区域,其中,所述重叠区域表示包括在第一虚拟视点图像和第二虚拟视点图像两者中的相同的区域;
通过基于选择的结果组合第一虚拟视点图像与第二虚拟视点图像来产生扩大虚拟视点图像。
10.如权利要求9所述的周围观看方法,其中,选择的步骤包括:基于分别与第一虚拟视点图像和第二虚拟视点图像中的每个相关的图像分辨率和通信质量中的至少一个,选择第一虚拟视点图像和第二虚拟视点图像中的一个虚拟视点图像以用于产生重叠区域。
11.如权利要求1所述的周围观看方法,还包括:
从路边设备接收路边设备的周围区域的周围视图图像,
其中,产生扩大虚拟视点图像的步骤包括:通过组合第一虚拟视点图像、第二虚拟视点图像和从路边设备接收的周围视图图像,来产生扩大虚拟视点图像。
12.如权利要求1所述的周围观看方法,还包括:
基于第二车辆的位置调整第一虚拟视点图像的虚拟视点的位置以产生调整的第一虚拟视点图像;
将调整的第一虚拟视点图像发送到第二车辆。
13.如权利要求1所述的周围观看方法,还包括:
将附加信息发送到第二车辆,
其中,附加信息包括以下信息中的至少一种信息:第一车辆的标识符信息、第一车辆的速度信息、第一虚拟视点图像的虚拟视点的高度信息、第一虚拟视点图像的虚拟视点的角度信息、第一虚拟视点图像的分辨率信息、由第一车辆计算的比例信息、第一车辆的位置信息和由第一车辆获得的交通信息。
14.如权利要求1所述的周围观看方法,其中,产生第一虚拟视点图像的步骤包括:基于所述至少一个捕获的周围视图图像产生第一车辆的俯视图。
15.如权利要求14所述的周围观看方法,其中,产生第一虚拟视点图像的步骤包括:通过减小所述至少一个捕获的周围视图图像的与相对于第一车辆的位置的短程区域对应的像素之间的各个距离并增加所述至少一个捕获的周围视图图像的与相对于第一车辆的位置的远程区域对应的像素之间的各个距离,来产生俯视图。
16.如权利要求1所述的周围观看方法,还包括:
从第二车辆接收附加信息,
其中,附加信息包括以下信息中的至少一种信息:第二车辆的标识符信息、第二车辆的速度信息、第二虚拟视点图像的虚拟视点的高度信息、第二虚拟视点图像的虚拟视点的角度信息、第二虚拟视点图像的分辨率信息、由第二车辆计算的比例信息、第二车辆的位置信息和使用第一车辆获得的交通信息。
17.如权利要求16所述的周围观看方法,其中,产生扩大虚拟视点图像的步骤包括:组合来自第一虚拟视点图像和第二虚拟视点图像的图像信息与表示从第二车辆接收的附加信息中的一个或更多个附加信息的图像信息。
18.如权利要求1所述的周围观看方法,其中,输出产生的扩大虚拟视点图像的步骤包括:将交通信息和障碍信息中的至少一个包含在扩大虚拟视点图像中。
19.如权利要求1所述的周围观看方法,其中,扩大虚拟视点图像全方位地表示相比于由第一车辆的第一虚拟视点图像表示的第一车辆周围的区域更大的第一车辆周围的区域。
20.一种由第一车辆执行的周围观看方法,所述周围观看方法包括:
从第二车辆接收针对第二车辆的周围视图的第二车辆的虚拟视点图像;
调整产生的第一车辆的虚拟视点图像的图像尺寸、接收的第二车辆的虚拟视点图像的图像尺寸、产生的第一车辆的虚拟视点图像的虚拟视点的位置和接收的第二车辆的虚拟视点图像的虚拟视点的位置中的至少一个,以分别产生调整的第一车辆的虚拟视点图像和/或调整的第二车辆的虚拟视点图像;
基于调整的结果,通过组合产生的第一车辆的虚拟视点图像和调整的第一车辆的虚拟视点图像之一与接收的第二车辆的虚拟视点图像和调整的第二车辆的虚拟视点图像之一,来产生扩大虚拟视点图像;
输出产生的虚扩大拟视点图像。
21.如权利要求20所述的周围观看方法,还包括:将第一车辆的产生的虚拟视点图像或第一车辆的调整的虚拟视点图像以及关于产生的第一车辆的虚拟视点图像的附加信息发送到第二车辆。
22.一种周围观看系统,所述周围观看系统包括:
虚拟视点图像产生器,被配置为基于第一车辆的至少一个捕获的周围视图图像来产生第一车辆的第一虚拟视点图像;
接收器,被配置为从第二车辆接收针对第二车辆的周围视图图像的第二虚拟视点图像;
扩大虚拟视点图像产生器,被配置为通过组合来自产生的第一虚拟视点图像和接收的第二虚拟视点图像的图像信息,来产生扩大虚拟视点图像;
显示器,被配置为显示产生的扩大虚拟视点图像。
23.如权利要求22所述的周围观看系统,其中,扩大虚拟视点图像产生器包括:
图像转换器,被配置为调整产生的第一虚拟视点图像的图像尺寸、接收的第二虚拟视点图像的图像尺寸、产生的第一虚拟视点图像的虚拟视点的位置和接收的第二虚拟视点图像的虚拟视点的位置中的至少一个,以分别产生调整的第一车辆的虚拟视点图像和/或调整的第二车辆的虚拟视点图像;
图像对准器,被配置为基于调整的结果,对产生的第一虚拟视点图像和调整的第一虚拟视点图像之一与接收的第二虚拟视点图像和调整的第二虚拟视点图像之一进行对准,以产生对准的第一虚拟视点图像和第二虚拟视点图像;
图像选择器,被配置为选择对准的第一虚拟视点图像和第二虚拟视点图像之一以用于产生扩大虚拟视点图像的重叠区域,其中,重叠区域表示包括在对准的第一虚拟视点图像和第二虚拟视点图像两者中的相同的区域;
图像产生器,被配置为通过基于选择的结果组合对准的第一虚拟视点图像与第二虚拟视点图像来产生扩大虚拟视点图像。
CN201610032910.7A 2015-05-11 2016-01-19 周围观看方法和周围观看系统 Active CN106162072B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0065607 2015-05-11
KR1020150065607A KR102375411B1 (ko) 2015-05-11 2015-05-11 차량 주변 영상 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
CN106162072A true CN106162072A (zh) 2016-11-23
CN106162072B CN106162072B (zh) 2020-05-26

Family

ID=55221268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610032910.7A Active CN106162072B (zh) 2015-05-11 2016-01-19 周围观看方法和周围观看系统

Country Status (5)

Country Link
US (2) US9884590B2 (zh)
EP (1) EP3094087B1 (zh)
JP (1) JP6836327B2 (zh)
KR (1) KR102375411B1 (zh)
CN (1) CN106162072B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110696743A (zh) * 2018-07-09 2020-01-17 现代摩比斯株式会社 用于车辆的广域环视监控装置及其控制方法
CN110849386A (zh) * 2018-08-21 2020-02-28 三星电子株式会社 用于向车辆提供图像的方法及其电子设备

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795180B1 (ko) * 2015-12-11 2017-12-01 현대자동차주식회사 페일 세이프 기능을 갖는 차량 측후방 모니터링 장치 및 방법
US10062290B2 (en) * 2015-12-16 2018-08-28 Ford Global Technologies, Llc Convoy vehicle look-ahead
WO2017155219A1 (en) 2016-03-07 2017-09-14 Lg Electronics Inc. Vehicle control device mounted in vehicle and control method thereof
US9671785B1 (en) * 2016-03-29 2017-06-06 Delphi Technologies, Inc. V2X object-location verification system for automated vehicles
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10647289B2 (en) 2016-11-15 2020-05-12 Ford Global Technologies, Llc Vehicle driver locator
DE102016222746A1 (de) * 2016-11-18 2018-05-24 Conti Temic Microelectronic Gmbh Dreidimensionales Rundumsichtsystem für ein Fahrzeug
JP6843965B2 (ja) * 2017-03-30 2021-03-17 三菱重工機械システム株式会社 車両管理システム、車載装置、車両管理方法、プログラム
EP3392801A1 (en) * 2017-04-21 2018-10-24 Harman International Industries, Incorporated Systems and methods for driver assistance
US10331125B2 (en) * 2017-06-06 2019-06-25 Ford Global Technologies, Llc Determination of vehicle view based on relative location
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
JP6825710B2 (ja) * 2017-08-25 2021-02-03 日産自動車株式会社 周囲車両表示方法及び周囲車両表示装置
US10423886B2 (en) 2017-12-29 2019-09-24 Forward Thinking Systems, LLC Electronic logs with compliance support and prediction
US10134285B1 (en) * 2017-12-29 2018-11-20 Forward Thinking Systems, LLC FleetCam integration
JP6815338B2 (ja) * 2018-01-10 2021-01-20 株式会社日立製作所 画像合成システムおよび画像合成方法
US11170638B2 (en) * 2018-12-19 2021-11-09 International Business Machines Corporation Look ahead auto dashcam (LADCAM) for improved GPS navigation
US10754893B1 (en) 2019-09-09 2020-08-25 Forward Thinking Systems, LLC Providing access to vehicle videos
KR20210112672A (ko) * 2020-03-05 2021-09-15 삼성전자주식회사 객체를 검출하기 위한 프로세서 및 객체 검출 방법
JP7351805B2 (ja) * 2020-07-01 2023-09-27 トヨタ自動車株式会社 情報処理方法、プログラム、車載装置及び車両
US11610342B2 (en) * 2020-09-17 2023-03-21 Ford Global Technologies, Llc Integrated augmented reality system for sharing of augmented reality content between vehicle occupants
CN112085960A (zh) * 2020-09-21 2020-12-15 北京百度网讯科技有限公司 车路协同信息处理方法、装置、设备及自动驾驶车辆
CN112714282A (zh) * 2020-12-22 2021-04-27 北京百度网讯科技有限公司 远程控制中的图像处理方法、装置、设备和程序产品
US11351932B1 (en) * 2021-01-22 2022-06-07 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicles and methods for generating and displaying composite images
KR20230070397A (ko) * 2021-11-12 2023-05-23 충북대학교 산학협력단 차량 추월 제어 방법 및 이를 지원하는 차량 추월 제어 장치

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
EP1179958A1 (en) * 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Image processing device and monitoring system
US20070139523A1 (en) * 2005-12-15 2007-06-21 Toshio Nishida Photographing apparatus, image signal choosing apparatus, driving assisting apparatus and automobile
CN101242523A (zh) * 2007-02-06 2008-08-13 株式会社电装 现场监视设备
CN101681525A (zh) * 2007-06-08 2010-03-24 电子地图有限公司 产生多视点全景图的方法及设备
US20110221901A1 (en) * 2010-03-11 2011-09-15 Gm Global Technology Operations, Inc. Adaptive Scene Rendering and V2X Video/Image Sharing
US20130169675A1 (en) * 2003-08-09 2013-07-04 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US20130285803A1 (en) * 2012-04-25 2013-10-31 Industrial Technology Research Institute Cooperative event data record system and method

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283381A (ja) 2000-03-30 2001-10-12 Toshiba Corp 車車間通信システム
JP3972722B2 (ja) * 2002-04-24 2007-09-05 株式会社エクォス・リサーチ 車載画像処理装置
US6970102B2 (en) 2003-05-05 2005-11-29 Transol Pty Ltd Traffic violation detection, recording and evidence processing system
KR100534698B1 (ko) 2003-07-11 2005-12-07 현대자동차주식회사 연료전지 시스템
JP4339178B2 (ja) 2004-05-12 2009-10-07 アルパイン株式会社 駐車場空きスペース案内装置及び駐車場空きスペース案内方法
JP4681432B2 (ja) 2005-11-28 2011-05-11 アルパイン株式会社 車載周辺画像表示装置
JP4715479B2 (ja) 2005-12-02 2011-07-06 アイシン・エィ・ダブリュ株式会社 車車間通信システム
JP4254887B2 (ja) 2006-07-06 2009-04-15 日産自動車株式会社 車両用画像表示システム
JP4265662B2 (ja) * 2007-02-06 2009-05-20 株式会社デンソー 車両用通信装置
KR100851900B1 (ko) 2007-03-29 2008-08-13 건아정보기술 주식회사 이동식 교통정보 검지 시스템
JP2009173122A (ja) * 2008-01-23 2009-08-06 Toyota Motor Corp 駐車支援システム、及び車両用駐車支援装置
KR20090109312A (ko) 2008-04-15 2009-10-20 주식회사 현대오토넷 실시간 촬영 영상을 이용한 실시간 교통정보 제공 시스템
US20100238161A1 (en) 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
KR101015952B1 (ko) 2010-07-30 2011-02-23 주식회사 한진이엔씨 교통 상황 관제 시스템
US8643715B2 (en) 2010-09-25 2014-02-04 Kyu Hwang Cho Real-time remote-viewing digital compass
KR101097063B1 (ko) 2010-12-30 2011-12-22 주식회사 와이즈오토모티브 사각 지대 표시 장치 및 방법
KR101834014B1 (ko) 2011-06-13 2018-04-13 현대모비스 주식회사 차량정보 제공시스템 및 그의 제어방법
KR101359660B1 (ko) 2011-07-26 2014-02-07 한국과학기술원 헤드업 디스플레이를 위한 증강현실 시스템
KR101272257B1 (ko) * 2011-08-30 2013-06-19 에스엘 주식회사 차량의 주변 영상 보정 장치 및 방법
US20130083061A1 (en) * 2011-09-30 2013-04-04 GM Global Technology Operations LLC Front- and rear- seat augmented reality vehicle game system to entertain & educate passengers
DE102012200731A1 (de) * 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
JP5890294B2 (ja) * 2012-10-29 2016-03-22 日立マクセル株式会社 映像処理システム
JP6032141B2 (ja) * 2013-07-02 2016-11-24 株式会社デンソー 走行路面標示検知装置および走行路面標示検知方法
KR102045088B1 (ko) * 2013-08-13 2019-11-14 현대모비스 주식회사 영상 표시 방법 및 이를 위한 위한 장치
KR101544854B1 (ko) * 2013-09-30 2015-08-19 주식회사 비트컴퓨터 차량 주변의 도로 교통 정보 제공 방법 및 이를 이용한 도로 교통 정보 시스템

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
EP1179958A1 (en) * 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Image processing device and monitoring system
US20130169675A1 (en) * 2003-08-09 2013-07-04 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US20070139523A1 (en) * 2005-12-15 2007-06-21 Toshio Nishida Photographing apparatus, image signal choosing apparatus, driving assisting apparatus and automobile
CN101242523A (zh) * 2007-02-06 2008-08-13 株式会社电装 现场监视设备
CN101681525A (zh) * 2007-06-08 2010-03-24 电子地图有限公司 产生多视点全景图的方法及设备
US20110221901A1 (en) * 2010-03-11 2011-09-15 Gm Global Technology Operations, Inc. Adaptive Scene Rendering and V2X Video/Image Sharing
US20130285803A1 (en) * 2012-04-25 2013-10-31 Industrial Technology Research Institute Cooperative event data record system and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110696743A (zh) * 2018-07-09 2020-01-17 现代摩比斯株式会社 用于车辆的广域环视监控装置及其控制方法
CN110696743B (zh) * 2018-07-09 2023-12-26 现代摩比斯株式会社 用于车辆的广域环视监控装置及其控制方法
CN110849386A (zh) * 2018-08-21 2020-02-28 三星电子株式会社 用于向车辆提供图像的方法及其电子设备

Also Published As

Publication number Publication date
JP2016213815A (ja) 2016-12-15
US20160332574A1 (en) 2016-11-17
JP6836327B2 (ja) 2021-02-24
US9884590B2 (en) 2018-02-06
US10501015B2 (en) 2019-12-10
US20180154832A1 (en) 2018-06-07
EP3094087B1 (en) 2020-06-10
KR20160133072A (ko) 2016-11-22
EP3094087A1 (en) 2016-11-16
CN106162072B (zh) 2020-05-26
KR102375411B1 (ko) 2022-03-18

Similar Documents

Publication Publication Date Title
CN106162072A (zh) 周围观看方法和周围观看系统
US11158056B2 (en) Surround camera system with seamless stitching for arbitrary viewpoint selection
CN106662458B (zh) 用于改进地图和导航数据的可穿戴传感器数据
US10706605B1 (en) Vehicular telematic systems and methods for generating interactive animated guided user interfaces
US8547434B2 (en) Integrated image surveillance system and image synthesis method thereof
DE60028088T2 (de) System und verfahren zur auf einem e-commerce website basierten verwaltung von werbe- und informationsanzeigen auf fahrzeugen
CN107585099A (zh) 车辆倒车时的行人检测
CN107561969A (zh) 用于车辆平台的设备和方法
CN107918781A (zh) 移动传感器平台
CN109389026A (zh) 车道检测方法和设备
US11636633B2 (en) Vehicular telematic systems and methods for generating interactive animated guided user interfaces
CN102442311A (zh) 确定与车辆周边环境有关的编辑的图像数据的方法和设备
US11288886B2 (en) People-gathering analysis device, movement destination prediction creation device, people-gathering analysis system, vehicle, and recording medium
CN109891463A (zh) 图像处理设备和图像处理方法
US20220301315A1 (en) Image processing device and image processing method
KR20150133534A (ko) 차량간 의사 소통 서비스 제공 방법 및 장치
AU2018410435B2 (en) Port area monitoring method and system, and central control system
CN109656319B (zh) 一种用于呈现地面行动辅助信息方法与设备
US11373409B2 (en) Photography system
JP2019008474A (ja) 監視支援システム及び監視支援方法
CN115200586A (zh) 基于协同感知和智能边缘计算的自动驾驶路径规划方法
KR20090099938A (ko) 지리 정보 파노라마 제작을 위한 자동 촬영 시스템
US10977935B2 (en) Information processing device, vehicle-mounted device, and information processing method
Picus et al. Novel Smart Sensor Technology Platform for Border Crossing Surveillance within FOLDOUT
KR20200143554A (ko) 증강 현실 기반 운전 보조 장치 및 그 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant