CN108957748A - 用于显示危险元素的信息的透明显示设备及其方法 - Google Patents

用于显示危险元素的信息的透明显示设备及其方法 Download PDF

Info

Publication number
CN108957748A
CN108957748A CN201810709138.7A CN201810709138A CN108957748A CN 108957748 A CN108957748 A CN 108957748A CN 201810709138 A CN201810709138 A CN 201810709138A CN 108957748 A CN108957748 A CN 108957748A
Authority
CN
China
Prior art keywords
information
user
display
vehicle
dangerous element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810709138.7A
Other languages
English (en)
Inventor
李韩成
李昌秀
李根镐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN108957748A publication Critical patent/CN108957748A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供了一种用于显示危险元素的信息的透明显示设备及其方法。一种在运输设备中使用的透明显示设备包括:通信单元,接收周围情况信息;控制器,使用周围情况信息来识别周围对象,并使用周围对象的特性和运输设备的运动特性来确定可能与运输设备碰撞的危险元素;透明显示器,显示用于向用户通知危险元素的信息。因此,可有效地呈现周围情况。

Description

用于显示危险元素的信息的透明显示设备及其方法
本申请是申请日为2013年7月10日,申请号为“201380037261.4”,发明名称为“用于显示危险元素的信息的透明显示设备及其方法”的发明专利申请的分案申请。
技术领域
以下描述涉及一种透明显示设备及其显示方法,更具体地,涉及一种在透明显示器上显示危险元素的信息的透明显示设备及其显示方法。
背景技术
随着电子技术的发展,已开发和发布了各种类型的显示设备。具体地,近年来,已加快了关于下一代显示设备(诸如,透明显示设备)的研究和讨论。
透明显示设备是指具有透明度并允许透过该设备看到该设备后面的背景的设备。现有技术的显示面板使用不透明的半导体化合物(诸如,硅(Si)或镓砷化物(GaAs))制造而成。然而,由于现有技术的显示面板无法处理的各种应用领域已得到发展,所以已在努力开发新型电子元件。这种努力开发的一方面是透明显示设备。
当使用透明显示设备时,用户可通过透明显示设备的屏幕查看必要信息,同时看到设备后面的背景。因此,可解决现有技术的显示设备具有的空间限制和时间限制。
透明显示设备可易于用在针对各种目的的各种环境下。例如,透明显示设备可用作商店的展示橱窗,或可被安装在运输设备(诸如,车辆、飞机或船舶)中。
发明内容
技术问题
因此,存在一种关于当将透明显示设备应用到各种环境时更有效地使用透明显示设备的透明度的方法的需求。
解决方案
其它方面和/或优点可在随后的描述中被部分地阐述,并且部分地通过描述将是清楚的,或可通过对本发明的实践而获得。
一个或更多个示例性实施例可克服以上缺点和以上没有描述的其它缺点。然而,将理解,一个或更多个示例性实施例无需克服以上描述的缺点,并且可能没有克服以上描述的任何问题。
一个或更多个示例性实施例提供一种使用透明度有效地提供信息的透明显示设备及其显示方法。
根据示例性实施例的一方面,一种在运输设备中使用的透明显示设备包括:通信单元,接收周围情况信息;控制器,使用周围情况信息和运输设备的位置信息来确定可能与运输设备碰撞的危险元素;透明显示器,显示用于向用户通知危险元素的信息。
控制器可使用周围情况信息来识别周围对象,并可在周围对象之中确定危险元素。
所述透明显示设备还可包括:位置检测器,检测用户眼睛的位置。
在这种情况下,控制器可根据位置检测器的检测结果来确定用户的视场,可将在所述视场内被障碍物遮挡的周围对象确定为危险元素,并可参考用户眼睛的位置来确定所述信息在透明显示器上的显示位置。
控制器可将透明显示器的所有区域之中的连接在用户的视场内存在的第一对象和用户眼睛的位置的第一穿透区域与连接在第一对象后面存在的第二对象和用户眼睛的位置的第二穿透区域进行比较以确定第一穿透区域和第二穿透区域是否相互重叠,并且当确定第一穿透区域与第二穿透区域相互重叠时,控制器可确定第一对象被视为对第二对象的障碍物。
控制器可将关于被障碍物遮挡的危险元素的信息显示在透明显示器的所有区域之中的穿透区域上,其中,障碍物通过所述穿透区域被看到。
所述透明显示设备还可包括:位置检测器,检测用户的位置。
在这种情况下,控制器可将所述信息显示在透明显示器的所有区域之中的与用户的位置相应的区域上。
控制器可根据危险元素的特性来调整显示在透明显示器上的信息的以下项中的至少一项:颜色、大小、显示时间、显示位置、闪烁状态、字体和文本粗度。
所述信息可在透明显示器上被显示在危险元素处于的方向上。所述信息可以是表示以下项中的至少一项的图形对象:危险元素的位置、危险元素的种类、运输设备与危险元素之间的距离、危险元素的接近速度和估计的碰撞时间。
周围情况信息可以是关于位于周围区域中的周围对象的信息,其中,所述周围区域包括运输设备的当前位置。
当运输设备进入本地区域时,通信单元可从管理本地区域的服务器接收本地区域的周围情况信息,并且运输设备可以是车辆,透明显示器可包括车辆的挡风玻璃。
控制器可确定包括基于运输设备的位置改变、运动方向和运动速度来指示运输设备是否运动的信息以及未来运动位置中的至少一项的运动特性,并可使用运输设备的运动特性和周围情况信息来确定危险元素。
根据示例性实施例的一方面,一种在运输设备中使用的透明显示设备的显示方法包括:接收周围情况信息;使用周围情况信息和运输设备的位置信息来确定可能与运输设备碰撞的危险元素;将用于向用户通知危险元素的信息显示在透明显示器上。
确定危险元素的步骤可包括:使用周围情况信息来识别周围对象,并在周围对象之中确定危险元素。
所述方法还可包括:检测用户眼睛的位置;参考用户眼睛的位置来确定所述信息在透明显示器上的显示位置,确定危险元素的步骤可包括:使用用户眼睛的位置来确定视场,将在所述视场内被障碍物遮挡的周围对象确定为危险元素。
确定危险元素的步骤可包括:将透明显示器的所有区域之中的连接在用户的视场内存在的第一对象和用户眼睛的位置的第一穿透区域与连接在第一对象后面存在的第二对象和用户眼睛的位置的第二穿透区域进行比较以确定第一穿透区域与第二穿透区域是否相互重叠;当确定第一穿透区域与第二穿透区域相互重叠时,确定第一对象被视为对第二对象的障碍物。
将用于向用户通知危险元素的信息显示在透明显示器上的步骤可包括:将关于被障碍物遮挡的危险元素的信息显示在透明显示器的所有区域之中的穿透区域上,其中,障碍物通过所述穿透区域被看到。
所述方法还可包括:检测用户的位置,将用于向用户通知危险元素的信息显示在透明显示器上的步骤可包括:将所述信息显示在透明显示器的所有区域之中的与用户的位置相应的区域上。
所述方法还可包括:根据危险元素的特性来调整显示在透明显示器上的信息的以下项中的至少一项:颜色、大小、显示时间、显示位置、闪烁状态、字体和文本粗度。
所述信息可在透明显示器上被显示在危险元素处于的方向上,所述信息可以是表示以下项中的至少一项的图形对象:危险元素的位置、危险元素的种类、运输设备与危险元素之间的距离、危险元素的接近速度和估计的碰撞时间。
周围情况信息可以是关于位于周围区域中的周围对象的信息,其中,所述周围区域包括运输设备的当前位置。
可从管理运输设备进入的本地区域的服务器接收本地区域的周围情况信息,运输设备可以是车辆,透明显示器可包括车辆的挡风玻璃。
确定危险元素的步骤可包括:确定包括基于运输设备的位置改变、运动方向和运动速度来指示运输设备是否运动的信息以及未来运动位置中的至少一项的运动特性,并使用运输设备的运动特性和周围情况信息来确定危险元素。
根据示例性实施例的一方面,一种用户终端设备包括:接口,可与运输设备连接;通信单元,从服务器接收周围情况信息;控制器,使用周围情况信息和运输设备的位置来确定可能与运输设备碰撞的危险元素,并通过接口向运输设备提供用于向用户通知危险元素的信息。
当运输设备通过接口连接到用户终端设备时,控制器可使用设置在用户终端设备中的GPS芯片来确定运输设备的位置,可分析周围情况信息,并识别周围对象,并可将周围对象之中的参考运输设备的位置可能碰撞的周围对象确定为危险元素。
根据示例性实施例的一方面,一种用户终端设备的显示方法包括:从服务器接收周围情况信息;使用设置在用户终端设备中的GPS芯片来确定连接到用户终端设备的运输设备的位置;使用周围情况信息和运输设备的位置来确定可能与运输设备碰撞的危险元素;向运输设备提供用于向用户通知危险元素的信息并显示所述信息。
有益效果
根据上述各种示例性实施例,透明显示设备被应用到各种环境并有效提供信息。具体地,如果透明显示设备被安装在运输设备中并被使用时,有效地提供关于危险元素的信息,并可以防止危险。
附图说明
通过参照附图详细地对示例性实施例进行描述,以上和/或其它方面将更清楚,其中:
图1是示出根据示例性实施例的透明显示设备的配置的框图;
图2是示出透明显示器的详细配置的示例的示图;
图3是示出透明显示器的详细配置的示例的示图;
图4是示出用于在安装有透明显示设备的运输设备中显示信息的方法的示图;
图5和图6是示出用于显示信息的方法的各种示例的示图;
图7是示出根据示例性实施例的透明显示设备的配置的框图;
图8是示出在考虑到用户的位置、障碍物的位置和周围运输设备的位置的情况下确定信息显示区域的方法的示图;
图9至图11是示出在透明显示器的整个区域之中确定显示信息的区域的方法的示图;
图12是示出根据各种示例性实施例的显示控制系统的配置的框图;
图13是示出存储在图12的存储器中的软件的结构的示例的示图;
图14至图16是示出用于将信息显示在透明显示器上的方法的各种示例的示图;
图17是示出用于检测用户的位置的方法的示图;
图18是示出根据示例性实施例的显示方法的流程图;
图19是示出用于向运输设备提供周围情况信息的服务器的示例的示图;
图20是示出根据图19的示例性实施例的服务器配置的框图;
图21是示出用于向运输设备提供周围情况信息的服务器的示例的示图;
图22是示出根据图21的示例性实施例的服务器配置的框图;
图23是示出在没有服务器的情况下通过相互通信的运输设备获得周围情况信息的方法的示图;
图24是示出用于在包括置于左侧和右侧的外部图像拾取单元的运输设备中显示信息的方法的示图;
图25是示出用于在包括位于正面的外部图像拾取单元的运输设备中显示图像的方法的示图;
图26是示出根据示例性实施例的确定危险元素的透明显示设备的示图;
图27是示出根据示例性实施例的显示拍摄的图像的透明显示设备的操作的示图;
图28是示出根据示例性实施例的相互连接的用户终端设备和运输设备的示图;
图29是示出图28的用户终端设备的配置的框图。
具体实施方式
现在将详细地参照实施例(其示例在附图中被示出),其中,同样的标号始终指示同样的元件。以下将通过参照附图来描述实施例以解释本发明。
在下文中,将参照附图更详细地描述示例性实施例。
在以下描述中,当在不同附图中描述标号时,相同标号用于相同元件。提供在描述中限定的事宜(诸如详细的构造和元件)以帮助全面理解示例性实施例。因此,清楚的是,可在没有那些具体限定的事宜的情况下实施示例性实施例。此外,由于现有技术中公知的功能或元件会在不必要的细节上模糊示例性实施例,因此不详细描述它们。
图1是示出根据示例性实施例的透明显示设备的配置的框图。参照图1,透明显示设备100包括透明显示器110、控制器120和通信单元130。
透明显示器110由透明材料制成,并允许透过该透明显示器110看到外部对象。
通信单元130使用各种通信方法与外部设备进行通信。
控制器120控制透明显示器110的操作。控制器120可在透过透明显示器110看到外部对象的同时还显示各种信息。可基于通信单元130的通信结果来产生显示的信息。
可根据透明显示设备安装的环境来确定在透明显示器110上显示的信息的类型和显示位置。也就是说,例如,上述透明显示设备100可被安装在各种类型的运输设备(诸如,车辆、船舶、摩托车、地下铁道车辆或火车)中。
例如,如果透明显示设备100被安装在车辆中,则透明显示设备100可被称作车辆主机(vehicle head unit)、中控仪表盘(center fascia)或车辆控制系统。此外,在这种情况下,透明显示器110可通过使用在运输设备中用户可看到外面的透明窗户来实现。
通信单元130从外部设备接收周围情况信息,控制器120基于周围情况信息来产生信息。
例如,周围情况信息可包括各种信息,诸如,交通信息、路径信息、周围运输设备信息和当前位置信息。
控制器120使用周围情况信息来识别周围对象,并参考安装有透明显示设备100的运输设备的运动特性来确定可能与运输设备碰撞的危险元素。
例如,在此所述的运动特性可包括运输设备的位置、运动方向、运动速度、加速度和估计的未来位置。周围对象可不仅包括除了安装有透明显示设备100的运输设备之外的周围运输设备,还包括固定在相应位置的障碍物或其它对象。例如,周围对象可以是例如行人、自行车、摩托车、车辆或球。在这些周围对象中,危险元素可以是从用户的眼睛被障碍物遮挡的对象、乱穿马路的行人、违反交通信号的自行车、超速行驶的摩托车或者在球之后跑进马路的儿童。控制器120通过考虑运输设备的运动特性和周围对象的运动特性确定周围对象是否可能与运输设备碰撞。可以使用用户眼睛的位置和对象的位置来确定周围对象是否为障碍物。
具体地,控制器120确定第一穿透区域是否与第二穿透区域重叠,其中,第一穿透区域连接存在于用户的视场内的第一对象与用户眼睛的位置,第二穿透区域连接存在于第一对象后面的第二对象与用户眼睛的位置。当确定两个穿透区域相互重叠时,确定第一对象是对第二对象的障碍物。将详细地解释确定第一穿透区域和第二穿透区域的方法。
控制器120将关于危险元素的信息显示在透明显示器110上。关于危险元素的信息可被显示在透明显示器110的整个区域之中的合适的区域上。例如,在此所述的信息可以是各种图形对象(诸如,图像、文本和符号)、内容再现屏幕、应用执行屏幕和web浏览器屏幕。
当存在高速运动的危险元素时,控制器120可通过在估计的碰撞时间之前显示信息向用户提前警告危险元素。
结果,驾驶运输设备的用户可识别关于危险元素的信息,同时观察透过透明显示器110看到的外部对象的实际状态。当危险元素存在于盲区(blindspot)中使得无法透过透明显示器110观察到时,用户可能看不到危险元素的真实状态,但是可以看到关于危险元素的信息。因此,用户可预先采取措施以防止与危险元素碰撞。盲区是被外部障碍物遮挡的区域或由于用户的位置或有限的视场导致用户无法看到的区域。
透明显示器110可根据示例性实施例以各种方式被实现。具体地,透明显示器110可通过使用例如透明液晶显示器(LCD)、透明薄膜电致发光面板(TFEL)、透明有机发光二极管(OLED)显示器和投影型显示器来实现。
透明LCD是在没有背光单元的情况下通过使用一对偏光板、光学薄膜、透明薄膜晶体管和透明电极而实现的透明显示设备。透明LCD因偏光板或光学薄膜的存在而具有低透射率,并且因使用环境光而不是背光单元而具有低光学效率,但是透明LCD具有能够实现大尺寸透明显示器的优点。透明TFEL是指使用包括透明电极、无机荧光物质和绝缘薄膜的交流电(AC)型无机薄膜EL显示器(AC-TFEL)的设备。AC-TFEL是通过当在无机荧光物质中的加速电子通过时激发荧光物质而发光的显示器。如果透明显示器110通过使用透明TFFL实现,则控制器130可调整电子以使其投射到合适的位置,并可确定信息显示位置。由于无机荧光物质和绝缘薄膜是透明的,所以可实现透明显示器。
透明OLED显示器是使用可通过自身发光的OLED的透明显示设备。因为有机发光层是透明的,所以如果透明电极被用作相反电极,则OLED显示器可被实现为透明显示设备。当电子和空穴通过两个有机发光层被注入并在有机发光层中相互结合时,OLED发光。透明OLED使用这个原理将电子和空穴注入到期望的位置,并显示信息。
图2是示出通过使用透明OLED实现的透明显示器的详细配置的示例的示图。为了便于解释,标号110-1被用作如图2中所示的透明OLED型的透明显示器。
参照图2,透明显示器110-1包括透明基板111-1、透明晶体管层112-1、第一透明电极113-1、透明有机发光层114-1、第二透明电极115-1、连接电极116-1以及介电薄膜117-1和118-1。
透明基板111-1可使用聚合物材料(诸如,具有透明度的塑料或玻璃)。透明基板111-1的材料可根据使用透明显示设备100的环境来确定。例如,聚合物材料由于质量轻和灵活可被用于便携式显示设备,而玻璃可被用于商店的展示橱窗或运输设备的窗户。
透明晶体管层112-1是指包括通过利用透明材料(诸如,透明氧化锌或氧化钛)替代现有技术的薄膜晶体管的不透明硅制造而成的晶体管的层。源极、栅极、漏极以及各种介电薄膜117-1和118-1可被设置在透明晶体管层112-1中,并且连接电极116-1可被设置为将漏极与第一透明电极113-1电连接。虽然在图2中的透明晶体管层112-1中仅提供了包括源极、栅极和漏极的一个透明晶体管,但是多个透明晶体管可均匀地分布在显示器表面的整个区域上。控制器120可将控制信号施加到透明晶体管层112-1中的每个晶体管的栅极,驱动相应的透明晶体管并显示信息。
第一透明电极113-1和第二透明电极115-1关于透明有机发光层114-1彼此相对。第一透明电极113-1、透明有机发光层114-1和第二透明电极115-1构成透明有机发光二极管(OLED)。
透明OLED根据驱动方法被划分为无源矩阵OLED(PMOLED)和有源矩阵OLED(AMOLED)。PMOLED包括在第一透明电极113-1和第二透明电极115-1相交的地方形成的像素。另一方面,AMOLED包括用于驱动每个像素的薄膜晶体管(TFT)。图2示出AMOLED。第一透明电极113-1和第二透明电极115-1中的每一个包括多个线电极(line electrode),并且这些线电极相互垂直地布置。例如,如果第一透明电极113-1的线电极被布置在水平方向上,则第二透明电极115-1的线电极被布置在垂直方向上。因此,在第一透明电极113-1和第二透明电极115-1之间形成了多个相交区域。如图2中所示,透明晶体管连接到每个相交区域。
控制器130使用透明晶体管在每个相交区域中产生电位差。电子和空穴在产生电位差的相交区域中从每个电极流入透明有机发光层114-1,并相互结合,从而发光。另一方面,没有产生电位差的相交区域不发光,因此,可以如实看到背景。
氧化铟锡(ITO)可被用作第一透明电极113-1和第二透明电极115-1。此外,例如,可使用诸如石墨烯的新材料。石墨烯是具有碳原子相互连接的蜂窝状平面结构并具有透明度的材料。透明有机发光层114-1可由各种材料制成。
如上所述,透明显示器110可通过使用透明LCD、透明TFEL和透明OLED来实现。然而,透明显示器110可通过使用投影型显示器来实现。投影型显示器将图像投影到透明屏幕上,并显示该图像。例如,诸如平视显示器(HUD)的系统与投影型系统相应。
图3是示出在通过使用投影型透明显示设备实现透明显示器的情况下透明显示器的详细配置的示例的示图。在图3中,标号110-2用于投影型透明显示设备。
投影型透明显示器110-2包括透明屏幕111-2、光学设备112-2和光源设备113-2。
例如,光源设备113-2使用各种光源(诸如,真空荧光显示器(VFD)、阴极射线管(CRT)、LCD或LED)发光以显示信息。
光学设备112-2将从光源设备113-2发射出的光投影到透明屏幕111-2上。光学设备112-2可通过使用包括至少一个透镜和反射镜的导光板来实现。
光源设备113-2和光学设备112-2可被实现为单个显示模块。因此,光源设备113-2和光学设备112-2可被放置在透明屏幕111-2的上边缘、下边缘、左边缘和右边缘,并可将光投影到透明屏幕111-2上,使得信息被显示在透明屏幕111-2上。此外,将激光用作光源的全息方法可被实现。在这种情况下,可使用激光将信息直接显示在透明屏幕111-2上。
透明屏幕111-2可由普通玻璃制成。当透明显示设备100被用作例如运输设备的窗户(诸如,车辆、船舶和飞机)、一般家庭的窗户和商店的展示橱窗时,可使用图3的透明显示器110-2的配置。
在图3中,透明显示器110被实现为车辆的挡风玻璃。在这种情况下,光学设备112-2和光源设备113-2可被放置在用户10所坐的车辆内的透明显示器110的下部区域。在下文中,用户在车辆内看向外面的方向被称作第一方向,相反的方向被称作第二方向。
虽然在图3中通过使用投影型显示器实现运输设备的窗户,但是可以通过使用以上描述的各种类型的透明显示器来实现运输设备的窗户。
如果如上所述透明显示设备100被实现为运输设备(诸如,车辆)的窗户,则用户可在透过窗户看到设备后面的背景的同时,看到显示在透明显示器110上的各种信息。因此,用户可根据用户的当前状态和运输设备的周围特性来获得合适信息。
图4是示出当透明显示设备100被应用到车辆时在真实的道路上使用透明显示设备100的方法的示例的示图。为了便于解释,在图4中,水平方向被定义为X轴方向,垂直方向被定义为Y轴方向。参照图4,当安装有透明显示设备100的车辆1000沿X方向运动,并且另一车辆2000沿Y方向行驶时,如果它们继续沿它们各自的方向运动,则这两辆车可能相互碰撞。
安装在车辆1000中的透明显示设备100的控制器120考虑车辆1000的运动方向和运动速度以及另一车辆的运动方向和运动速度,来确定碰撞的可能性。具体地,控制器120考虑车辆1000和车辆2000的运动方向,来计算从车辆1000的前行方向延伸的第一虚拟线和从另一车辆2000的前行方向延伸的第二虚拟线。控制器120计算第一虚拟线和第二虚拟线的交点。交点是可能发生碰撞的点。控制器120参考车辆1000的当前位置和当前速度来计算车辆1000到达可能发生碰撞的点所需的第一时间(t1),并参考另一车辆2000的当前位置和当前速度来计算另一车辆2000到达可能发生碰撞的点所需的第二时间(t2)。控制器120根据第一时间和第二时间之差(t1-t2)与预定时间范围之间的差来确定碰撞的可能性。也就是说,当差(t1-t2)落入预定时间范围内时,控制器120确定碰撞的可能性高,而当差(t1-t2)在预定时间范围之外时,控制器120与所述差在预定时间范围之外的程度成比例地确定碰撞的可能性低。
另一方面,如果当车辆1000沿X方向进入交点时例如障碍物20(诸如,摩天大楼)存在于交点的拐角,则沿Y方向进入交点的另一车辆2000可能被障碍物20遮挡。在这种情况下,当如上所述确定车辆1000可能与另一车辆2000碰撞时,控制器120将另一车辆2000识别为危险元素,并将关于危险元素的信息显示在透明显示器110上。显示的信息可具有各种格式。
图5是示出在图4的情况下显示在透明显示器110上的信息的示例的示图。参照图5,可以透过透明显示器110看到设备后面的真实背景。因此,虽然在右边看到障碍物20,但是在障碍物20后面运动的另一车辆2000被障碍物20遮挡。控制器120确定另一车辆2000与车辆1000之间的碰撞的可能性,并且当存在另一车辆2000与车辆1000碰撞的可能性时,确定另一车辆2000是危险元素。因此,为了使用户10识别危险元素的存在,各种信息30被显示在透明显示器110上。
参照图5,信息30包括与另一车辆2000相应的图形图像31、指示另一车辆2000的运动方向的箭头图像32和通知另一车辆2000是危险元素的文本33。这种信息30被显示在透明显示器110的整个区域之中的与另一车辆2000的真实位置相应的区域上。也就是说,如图5中所示,信息30被显示在这样的区域上:透过该区域,障碍物20被看到。因此,用户可直观地获知,在障碍物20的后面存在危险元素。
控制器120可以以各种方式根据障碍物20的特性来调整信息30的显示状态。具体地,控制器130可考虑障碍物20的颜色、天气状况、周围照明和阴影来调整信息30的颜色、亮度、透明度、大小和闪烁状态。
虽然信息30被显示在看到障碍物20所通过的区域上,但是信息30的显示位置可以各种方式被改变。
图6是示出根据示例性实施例的用于显示信息的方法的示图。参照图6,信息30可被显示在与用户10的位置相应的区域上。具体地,信息30可被显示在用户10所坐的驾驶员座位的前方。
此时,显示的信息30可包括关于危险元素所存在的方向的箭头或文本。在图6中,使用文本来通知危险元素的方向。此外,该信息可包括危险元素的位置和速度信息。当存在多个危险元素时,按碰撞的可能性的顺序来显示预定数量的危险元素,并且例如,使用简单的图形对象(诸如,小图形或点)来显示其它危险元素,使得只有它们的位置和运动可被显示。例如,当存在作为最危险元素的车并且在车后面存在摩托车时,关于车的信息(诸如,图像、位置和速度)被显示,而关于摩托车的信息使用在车图像后面的简单图形被显示。虽然在图6中仅示出了视觉图像,但是可通过语音消息或通知声音可听见地通知危险元素的存在。
信息30的显示位置可被固定到特定位置(诸如,驾驶员座位的前方或挡风玻璃的中央)。也就是说,在车辆的情况下,驾驶员座位的位置是固定的,并且坐在驾驶员座位上的用户的位置不会很大地改变,因此,信息30被最好地看到的区域可被确定为信息30的显示区域。然而,这仅为示例,信息30的显示位置可根据用户的运动而改变。
也就是说,透明显示设备100可使用相机、光学传感器和运动传感器实时地识别用户的位置。控制器120将信息30显示在与用户的位置相应的区域上。
图7是示出根据示例性实施例的检测用户的位置并根据检测的结果显示信息的透明显示设备100的配置的框图。参照图7,透明显示设备100包括透明显示器110、控制器120、通信单元130、存储器140和位置检测器150。
透明显示器110可以以如上所述的各种形式来实现。
控制器120控制透明显示设备100的元件的全部操作。
通信单元130与外部设备进行通信。在此所述的外部设备可由各种设备(诸如,管理本地区域的本地服务器、交通控制服务器、外部运输设备和用户终端设备)实现。
存储器140是存储在透明显示设备100中使用的各种程序和数据的元件。
位置检测器150是检测使用透明显示设备100的用户的位置的元件。位置检测器150可使用相机、运动传感器或接近传感器来检测用户的位置。在下面将详细地解释用于检测用户的位置的方法。位置检测器150可检测用户的头部位置,更精确地,位置检测器150可检测用户的眼睛位置。
当由位置检测器150检测到用户的位置时,控制器120可考虑用户的位置来显示信息。例如,控制器120可将信息显示在如下区域上,该区域对应于连接用户的位置和危险元素的线与透明显示器110相交的交点。
例如,控制器120可将信息显示在透明显示器110的整个区域之中的位于用户的位置前面的区域上。
此外,控制器120可根据位置检测器150的检测结果来跟踪用户的面部方向,并可确定用户的视场。相应地,可调整信息的显示位置,从而可在用户的视场内看到信息。
此外,控制器120可仅将在用户的视场内被障碍物遮挡的外部运输设备确定为危险元素。考虑用户的位置、障碍物的位置和外部运输设备的位置,来确定外部运输设备是否被障碍物遮挡。
图8是用于解释考虑由位置检测器150检测到的用户的位置以及障碍物和外部运输设备的位置来确定危险元素的方法的示图。
在图8中,假设通过U1(0,0)定义用户的位置,通过A1(x1,y1)定义障碍物20的位置,通过A2(x2,y2)定义危险元素2000的位置。在这种情况下,如图8中所示,透明显示器110的允许从障碍物20反射的光进入所穿过的区域(即,穿透区域T1)参考C1被形成在与障碍物20的大小相应的区域上。此外,如图8中所示,当没有障碍物时允许透过其看到外部运输设备2000的区域(即,穿透区域T2)可参考C2被形成。
此外,假设:通过d1定义用户的位置与透明显示器110之间的直线距离,通过L1定义连接用户10的位置和障碍物20的线,通过θ1定义L1与透明显示器110的表面之间的角度,通过L2定义连接用户10的位置和外部运输设备2000的线,通过θ2定义L2与透明显示器110的表面之间的角度。
在这种状况下,可由位置检测器150测量d1。例如,如果位置检测器150包括相机,则计算与在由相机拍摄的图像中的用户相应的对象的大小,并且根据对象大小与拍摄的图像的整个大小的比来估计到用户的距离。此外,如果位置检测器150包括发光二极管和光接收二极管,则可根据时间来计算到用户的距离,该时间是从发光二极管发射的光从用户10被反射并在光接收二极管被接收所需的时间。
可使用一般相机获得或可使用深度相机(未示出)获得到障碍物20的距离和与障碍物20的角度。控制器120可使用由深度相机拍摄的图像来测量到障碍物20的距离、与障碍物20的角度和障碍物20的大小。具体地,可通过从由深度相机拍摄的图像的中心计算到障碍物的距离来计算角度。然而,在这样的计算处理期间,根据深度相机的安装位置和安装方向会在测量的距离或角度上产生误差。然而,如果运输设备不是很大,则误差并非关键的,并因此被忽视。
当测量出与障碍物20的角度θ1时,控制器120可使用d1/cosθ1获得U1与C1之间的直线距离s1。此外,可通过计算s1/sinθ1获得C1的坐标。
控制器120可参考C1估计大小与障碍物的大小成比例的穿透区域T1。
控制器120可以以相同的方式获得连接外部运输设备2000和用户的线L2与透明显示器110相交的交点C2。然而,由于外部运输设备2000位于深度相机无法拍摄的位置上,所以可基于周围情况信息提供外部运输设备2000的位置、距离和角度。当C2包括在T1中时,控制器120确定外部运输设备2000被障碍物遮挡,并且外部运输设备2000是可能引起碰撞的危险元素。
图9至图11是示出用于显示具有危险元素的屏幕的方法的示图。虽然为了便于解释,图9示出了矩形透明显示器110,但是为了将透明显示器110应用到真实的车辆,透明显示器110并非必需是矩形的。
参照图9,控制器120将透明显示器110的整个区域划分为多个区。这些区可被划分为多个列V1至Vx以及多个行H1至Hy。
在图9中,透过透明显示器110看到第一外部对象20。控制器120从整个区域之中确定看到第一外部对象20所透过的区域,也就是,穿透区域20’。由于第一外部对象20位于可被真实看到的位置上,所以可使用由在透明显示设备100或车辆中设置的相机拍摄的图像来确定第一外部对象20的穿透区域20’。
控制器120可将包括与透明显示器110相应的多个区的矩阵表存储在存储器140中。因此,控制器120可确定基于周围情况信息确定的外部运输设备是否可被用户识别。
图10示出由控制器120管理的矩阵表的示例。图10的矩阵表可被存储在存储器140中。
当外部运输设备2000存在于如图10中所示的位置时,控制器120根据外部对象2000的位置和方向来估计虚拟穿透区域2000’。以上已经描述了估计虚拟穿透区域2000’的方法,因此省略重复的解释。控制器120确定图9的穿透区域20’是否与虚拟穿透区域2000’重叠,并且确定外部对象2000是否是存在于无法被用户识别的盲区中的危险元素。
图11是示出当确定外部运输设备2000是危险元素时显示信息的方法的示图。参照图11,控制器120从透明显示器110的全部区域之中将信息30叠加在障碍物20上。
在图11中,信息30被显示在被实现为挡风玻璃的透明显示器110上。然而,如果透明显示器110被实现为侧视镜或后挡风玻璃,则该信息可例如根据用户的眼睛位置、视野的方向或人脸方向被显示在侧视镜或后挡风玻璃上。
在这种情况下,如果当用户没有保持眼睛向前时危险元素被发现,则可通过使用存在于用户的人脸方向上的透明显示器显示信息来唤起用户的注意。也就是说,当确定用户在开车时将他/她的头转向右边时,信息可被显示在位于右边的乘客座位的窗户上。此时,由于没有根据危险元素的准确位置来显示信息,所以该信息可被看作只是通知危险情况的一种信息。此外,当确定用户向后看时,信息可被显示在后挡风玻璃上。
虽然以上已经描述了透明显示设备100确定外部危险元素并显示信息的示例性实施例,但是运输设备还可包括除了透明显示设备100之外的显示设备。因此,以上描述的示例性实施例可通过包括透明显示设备的单个显示控制系统来实现。
图12是解释根据各种示例性实施例的显示控制系统的配置的框图。
参照图12,显示控制系统包括透明显示器110、控制器120、通信单元130、存储器140、位置检测器150、外部检测器160、传感器170、嵌入式显示器180、扬声器191-1和按钮191-2。
在上述示例性实施例中已经描述了透明显示器110的配置和操作,因此,省略重复的解释。
位置检测器150是如上所述在运输设备中检测用户的位置的元件。位置检测器150包括内部图像拾取单元151和第一解析器152。
内部图像拾取单元151被置于运输设备中,并拍摄图像。具体地,例如,内部图像拾取单元151可被置于与用户所坐的驾驶员的座位接近的位置上(诸如,室内镜、手柄、仪表盘或天窗)。
第一解析器152从由内部图像拾取单元151拍摄的图像检测表示用户的区域,并向控制器120提供关于该区域的信息。第一解析器152使用由内部图像拾取单元151拍摄的图像的像素信息来检测包括在图像中的对象的边缘。可以以各种检测算法来检测这些边缘。
例如,第一解析器152通过在m*n个像素的基础上对图像进行划分来将图像划分为多个块。第一解析器152检测每个块的代表值。代表值可以是在相应块中的所有像素的平均像素值、在相应块的像素值之中最频繁出现的像素值或所有像素值的总和。第一解析器152比较代表值,并确定是否存在具有相似的代表值并连续排列的块。包括在同一对象被拍摄的区域中的块具有相似的代表值。
当确定是连续的相似块时,第一解析器152将与具有不同于识别出的相似块的代表值的块之间的边界相应的块检测为边缘。
之后,第一解析器152使用检测出的边缘来识别在图像中拍摄的对象。例如,如果多于预定数量的具有作为代表值的与用户的人脸颜色相应的像素值的块被连续排列并与人脸形状相似,则第一解析器152将相应区域检测为用户的人脸区域,并向控制器120提供关于该区域的信息。
控制器120可根据检测出的人脸区域的大小来估计用户和透明显示器110之间的距离。可基于通过预先进行的实验产生的数据库来估计该距离。例如,实际测量与人脸区域相应的块的数量和相应距离,并且将匹配值存储为数据库。
此外,控制器120可通过从拍摄的用户图像分析用户的人脸颜色或眼睛大小来确定用户是在开车时打瞌睡还是喝醉了地开车。例如,如果人脸肌肉超过预定时间(例如,1秒)没有运动并且眼皮闭上,或者如果用户周期性地低下他/她的头,则控制器120可确定用户是在开车时打瞌睡。此外,如果人脸颜色变得比平常红,则控制器120可确定用户是在喝醉了地开车。当确定用户处于这种不正常状态下时,控制器120可通过透明显示器显示消息以向用户警告他/她的状态,或可提供警告声或喇叭声。
控制器120可根据用户的眼睛位置来确定信息的显示位置,当用户通过沿弯道行驶或掉头改变他/她的姿势时,控制器120可根据改变后的姿势来改变信息的显示位置。
外部检测器160是拍摄在运输设备外面的对象的元件。外部检测器160包括外部图像拾取单元161和第二解析器162。外部图像拾取单元161可被置于运输设备的外面。例如,外部图像拾取单元161可被置于诸如围绕车头灯、前格栅(front grill)或侧视镜的各种方向上。第二解析器162对由外部图像拾取单元161拍摄的图像进行解析,并向控制器120提供解析结果。控制器120使用解析结果来确定周围对象的位置。可以以与位置检测器150的第一解析器152的方式相同的方式来实现解析方法,因此省略重复的解释。
传感器170是包括各种传感器的元件。具体地,传感器170可包括地磁传感器171、加速度传感器172、陀螺仪传感器173和触摸传感器174。
地磁传感器171是使用2-轴磁通门或3-轴磁通门感测周围地磁的改变的传感器。控制器120可使用由地磁传感器171感测的地磁值来计算方位。因此,控制器120可确定运输设备沿哪个方向运动。
加速度传感器172是当进行运动时测量加速度和加速度的方向的传感器。具体地,加速度传感器172输出与根据附接有加速度传感器的运输设备的坡度而改变的重力加速度相应的感测值。控制器120可使用加速度传感器172的输出值来确定运输设备的坡度。
陀螺仪传感器173是这样的传感器:如果发生旋转运动,则通过测量沿运动的速度方向施加的科里奥利力来感测角速度。控制器120可使用由陀螺仪传感器173测量的值来检测运输设备的旋转方向。
触摸传感器174连接到透明显示器110或嵌入式显示器180,并感测在每个显示器110或180上的用户触摸。例如,如果触摸传感器174被设置在透明显示器110中,则触摸传感器174可包括在透明显示器110中的基板上沉积的透明导电薄膜(诸如,氧化铟锡(ITO))和布置在透明导电薄膜上的薄膜。因此,当用户触摸屏幕时,上板和下板在触摸点相互接触,并且电信号被发送到控制器120。控制器120使用电信号被发送到的电极的坐标来识别触摸点。例如,如果触摸传感器174被设置在嵌入式显示器180中,则触摸传感器174可以以与一般触摸屏相同的方式来实现。省略其详细描述。
通信单元130可包括射频识别(RFID)芯片131、数字多媒体广播(DMB)接收芯片132、全球定位系统(GPS)芯片133和无线通信芯片134。
RFID芯片131是用于根据RFID通信标准与外部介质进行通信的芯片。RFID通信标准可使用诸如135KHz、13.56MHz、433MHz、860MHz至960MHz和2.45GHz的频带。RFID芯片131可使用以上提到的频带中的至少一个进行通信。具体地,使用这些频带之中的13.56MHz的频率的技术是指近场通信(NFC)方法。如果RFID芯片131通过使用以NFC方法操作的NFC芯片来实现,则RFID芯片131可被设置在运输设备的门钥匙中。因此,当用户对他/她自己的NFC终端加标签时,NFC芯片131读取记录在NFC终端上的信息,并将该信息发送到控制器120,控制器120识别该信息是否与预存的信息一致,并开启门钥匙。
DMB接收芯片132是接收并处理DMB信号的元件。
GPS芯片133是从GPS卫星接收GPS信号并计算运输设备的当前位置的元件。
无线通信芯片134是根据无线通信标准与外部设备进行通信的元件。无线通信标准的示例可以是Wi-Fi、蓝牙、IEEE和Zigbee。
如上所述,通信单元130可以以各种方式与外部设备进行通信。例如,通信单元130可与管理本地区域的服务器设备进行通信,并可接收周围情况信息。控制器120分析周围情况信息,并识别周围对象。因此,控制器120可将识别出的周围对象之中的可能与运输设备碰撞的对象确定为危险元素。
嵌入式显示器180是与透明显示器110分开设置的显示元件。嵌入式显示器190可通过使用LCD实现,并可输出导航屏幕、各种内容再现屏幕和车辆状态屏幕。
此外,可包括输出声音的扬声器191-1和输入各种用户命令的按钮191-2。按钮191-2可被设置在车辆中的中控仪表盘(center fascia)或其它特定区域上,并且例如,可通过使用各种类型的按钮(诸如,机械按钮)、触摸板或旋轮(wheel)来实现。
存储器140可存储与显示控制系统的操作相关的各种程序或数据、由用户设置的设置信息、系统操作软件、各种应用程序和关于与用户的操纵相应的操作的信息。
控制器120可使用存储在存储器140中的各种软件来执行各种操作。
参照图12,控制器120包括系统存储器121、主CPU 122、图形处理器123、视频处理器124、音频处理器125、各种接口126-1至126-n以及总线129。
系统存储器121、主CPU 122、图形处理器123、视频处理器124、音频处理器125和各种接口126-1至126-n可通过总线129相互连接,并且可相互交换数据或信号。
第一接口126-1至第n接口126-n连接到以上描述的元件。这些接口中的一个接口可以是通过网络连接到外部设备的网络接口。
主CPU 122访问存储器140,并使用存储在存储器140中的O/S来执行启动。此外,主CPU 122使用存储在存储器140中的各种程序、内容和数据来执行各种操作。
具体地,系统存储器121可包括只读存储器(ROM)121-1和随机存取存储器(RAM)121-2。ROM 121-1可存储用于启动系统的命令集。当输入开启命令并供电时,主CPU 122根据存储在ROM 121-1中的命令将存储在存储器140中的O/S复制到RAM 121-2中,执行O/S,并启动系统。当完成启动时,主CPU 122将存储在存储器140中的各种应用程序复制到RAM121-2中,执行复制到RAM 121-2中的应用程序,并执行各种操作。
图形处理器123在主CPU 122的控制下产生指示各种信息的图形对象。
图形处理器123包括渲染器123-1和计算器123-2。计算器123-2计算属性值(诸如,将被显示的图形对象的坐标值以及图像对象的形状、大小和颜色)。渲染器123-1基于由计算器123-2计算的属性值来产生图形对象。由渲染器123-1产生的图形对象可以被显示在透明显示器110上。主CPU 122可如上所述考虑危险元素所处的方向或用户的位置,来确定图形对象的显示位置。此外,主CPU 122可根据各种情况(诸如危险元素的位置、类型、运动方向、运动速度和加速度以及到运输设备的距离)来改变图形对象的细节。如果危险元素是一般车辆,则可以以图形对象形式来产生包括关于车辆的运动方向、运动速度和估计的碰撞时间的文本的信息,并可将该信息与一般车辆图像一起显示。另一方面,如果危险元素是活物(诸如,人),则可以以图形对象形式来产生包括各种文本的信息,并可将该信息与活物的图像一起显示。
视频处理器124可包括视频解码器、渲染器和缩放器。因此,视频处理器124对包括在多媒体内容中的视频数据进行解码,通过对解码后的视频数据进行渲染来形成帧,并根据信息显示区域来对形成的帧的尺寸进行缩放。主CPU 122可将由视频处理器124形成的帧显示在嵌入式显示器180或透明显示器110上。
音频处理器125可包括音频解码器、噪声过滤器和放大器。因此,音频处理器125可针对包括在多媒体内容中的音频数据执行音频信号处理,诸如解码、过滤和放大。主CPU122通过扬声器191-1输出由音频处理器125处理的音频信号。
当显示控制系统被安装在车辆中时,在总体上考虑到车辆的各种功能的情况下,示出了图12的配置。因此,显示控制系统还可包括与图12中的那些元件不同的元件,或可根据安装有显示控制系统的运输设备的种类而改变或省略某些元件。省略对这种修改的示例性实施例的说明和解释。
如上所述,控制器120可将存储在存储器140中的程序复制到系统存储器121中,可执行所述程序,并可执行各种操作。
图13是用于解释存储在存储器140中的软件层的示图。参照图13,存储器140可存储包括基础模块141、感测模块142、通信模块143、呈现模块144、web浏览器模块145和服务模块146的软件。
基础模块141是指处理从在显示设备100内发送的信号并将信号发送到上层模块的模块。
基础模块141包括存储模块141-1、基于位置的模块141-2、安全模块141-3和网络模块141-4。
存储模块141-1是管理数据库(DB)或注册表的程序模块。主CPU 122可使用存储模块141-1访问存储单元140中的数据库,并可读出各种数据。基于位置的模块141-2是与各种硬件(诸如,GPS芯片)互锁并支持基于位置的服务的程序模块。安全模块141-3是支持对硬件的认证、对请求的许可和安全存储的程序模块。网络模块141-4是支持网络连接的模块,网络模块141-4包括分布式网络(DNET)模块和通用即插即用(UPnP)模块。
感测模块142是从包括在传感器170中的各种传感器收集信息并分析和管理收集到的信息的模块。具体地,感测模块142是检测操纵属性(诸如,执行触摸的点的坐标值、触摸移动方向、移动速度和移动距离)的程序模块。此外,根据情况,感测模块142可包括人脸识别模块、语音识别模块、运动识别模块和NFC识别模块。
通信模块143是用于与外部设备进行通信的模块。通信模块143包括消息模块143-1(诸如信使程序、短消息服务(SMS)和多媒体消息服务(MMS)程序以及电子邮件程序)和电话模块143-2,其中,电话模块143-2包括呼叫信息聚合器程序模块和通过互联网协议的语音(VoIP,网络电话)模块。
呈现模块144是产生显示屏幕的模块。呈现模块144包括用于再现多媒体内容并输出多媒体内容的多媒体模块144-1以及用于处理用户界面(UI)和图形的UI和图形模块144-2。多媒体模块144-1可包括播放器模块、摄影机模块和声音处理模块。因此,多媒体模块144-1通过再现各种多媒体内容来产生屏幕和声音,并再现这些屏幕和声音。UI和图形模块144-2可包括用于组合图像的图像合成器模块、用于组合屏幕上的坐标以显示图像并产生坐标的坐标组合模块、用于从硬件接收各种事件的X11模块以及提供用于配置2D或3D格式的UI的工具的2D/3D UI工具箱。
web浏览器模块145是执行web浏览并访问web服务器的模块。web浏览器模块145可包括用于渲染和查看web页的web查看模块、用于下载的下载代理模块、书签模块和Web-kit模块。
服务模块146是用于提供各种服务的应用模块。参照图13,服务模块146可包括各种模块,诸如,情况信息处理模块146-1、危险元素确定模块146-2和导航模块146-3。
情况信息处理模块146-1是这样的模块:当从周围服务器或周围对象接收到周围情况信息时,分析接收到的周围情况信息并识别周围对象。危险元素确定模块146-2是考虑识别出的周围对象的特性和运输设备的运动特性来确定识别出的周围对象是否是危险元素的模块。主CPU 122可通过执行情况信息处理模块146-1和危险元素确定模块146-2来指定危险元素。导航模块146-3是使用从GPS芯片133接收到的当前位置来提供各种导航功能的模块。
当作为执行情况信息处理模块146-1和危险元素确定模块146-2的结果,确定存在危险元素时,主CPU 122可执行UI和图形模块144-2,并向图形处理器123提供用于调整图形对象的显示状态的各种基本数据。基本数据可以是包括在图形对象中的文本以及图像的种类、大小、颜色和显示时间。因此,图形处理器123产生危险元素的图形对象,并将图形对象显示在如上所述的透明显示器110上。
可根据显示控制系统的种类和特性而省略、改变或添加在图13中示出的各种程序模块中的某些程序模块。
如上所述,关于危险元素的信息可被显示在各种位置上。当危险元素运动时,可根据危险元素运动到的位置来调整图像的显示位置。图14示出根据示例性实施例的在其上调整信息显示位置的透明显示器110的显示状态。
图14示出另一车辆20行驶在运输设备的前方并且其它车辆2000进入车辆20的前方的情况。在这种情况下,在运输设备前方的车辆20被视作障碍物,并遮挡了进入的车辆2000。控制器120分析周围情况信息,并识别进入的车辆2000,并在进入的车辆2000所处的方向上显示信息30。在图14中,可显示包括表示进入的车辆2000的种类的图像、指示前进方向的箭头和文本的信息30。
在这种情况下,当进入的车辆2000进一步接近时,调整信息30的显示位置,并且还根据接近的车辆2000的位置而改变诸如信息的尺寸和颜色的显示属性。也就是说,随着碰撞风险的增加,信息的尺寸增大,并且信息的颜色可被改变为明显的颜色。此外,可添加闪烁效果,或者还可输出警告声音。
当运输设备1000或进入的车辆2000停止或改变它的方向,并因此确定可能发生碰撞的可能性低时,控制器120可显示指示危险元素已去除的信息30。也就是说,可改变显示在透明显示器110上的信息的细节。
图15是示出根据示例性实施例的显示信息的方法的示图。参照图15,可根据在相同情况下的用户的位置来确定信息的显示位置。也就是说,信息被显示在透明显示器110的所有区域之中的在用户前面的区域上。在这种情况下,当危险元素2000远离运输设备时,仅为了唤起用户注意的信息30-1可被显示,而当危险元素2000接近并因此碰撞风险增加时,信息可被改变为提高了警告等级的信息30-2。参照图15,信息30-1和信息30-2可包括指示危险元素2000的位置的箭头、警告语和到危险元素的距离。
此外,虽然在以上描述的示例性实施例中根据与正运动的外部对象碰撞的可能性来显示信息,但是可考虑与静止的外部对象碰撞的可能性。
图16是示出用于显示信息的方法的示图。参照图16,当外部对象2000-1和2000-2阻塞道路并因此存在碰撞风险时,显示信息30。信息30可根据当前情况被产生。例如,当由于如图16中示出的车祸而存在碰撞风险时,可显示信息30,其中,信息30用于通知由于车祸而存在危险元素。
可从外部服务器(诸如,交通控制服务器)发送用于通知诸如车祸、周边设施倒塌或封路的情况的周围情况信息。在这种情况下,即使当由于黑夜或大雾降低了可视性时,也可预先通过透明显示器110显示信息,并因此防止事故。
可根据用户所看的方向来调整信息30的显示位置。为了实现这个,通过跟踪用户的眼睛或人脸方向来抓取用户的视场的方向,并随后将信息显示在与该方向相应的区域上。此时,为了更准确地测量用户的视场,可使用多个内部图像拾取单元151。
图17是示出内部图像拾取单元151和外部图像拾取单元的布置的示例的示图。参照图17,内部图像拾取单元151参考用户的位置被置于不同的方向上,并因此从多个不同的角度拍摄用户。在图17中,示出了两个内部图像拾取单元151-1和151-2。第一内部图像拾取单元151-1可被安装在室内镜上,而第二内部图像拾取单元151-2可被安装在用户前面的表面上。图17的布置仅为示例,内部图像拾取单元151的数量和位置不限于图17的数量和位置。外部图像拾取单元161可与第一内部图像拾取单元151-1相反地布置。控制器120可分析由第一内部图像拾取单元151-1和第二内部图像拾取单元151-2中的每一个拍摄的图像,跟踪用户的人脸方向或用户的眼睛,并可根据跟踪的结果来检测视场。
具体地,控制器120从由第一内部图像拾取单元151-1拍摄的图像检测边缘,并在由边缘划分的对象区域之中检测与用户的人脸或瞳孔相应的区域。可基于对象区域的颜色来检测与用户的人脸或瞳孔相应的区域。例如,可将具有与人脸颜色或瞳孔颜色相应的像素值的多个像素块聚集的部分检测为人脸区域或瞳孔区域。
控制器120可考虑到用户的距离、人脸区域的大小和人脸区域的形状来确定用户所看的方向,也就是说,可确定用户正在向前看、向上看、向下看、向左看还是向右看。例如,如果检测到的人脸区域在垂直方向上和水平方向上对称,并且人脸区域的大小是最大的,则确定用户正在向前看。另一方面,如果人脸区域小于最小值,并且在垂直方向上不对称,则可通过参考人脸区域的中心线将左边区域的大小与右边区域的大小进行比较,来估计用户正在向左看还是向右看。在用户的眼睛的情况下,可考虑与眼白相应的区域与用户眼睛的区域的比率以及与眼睛的瞳孔相应的区域与用户眼睛的区域的比率,来估计用户所看的方向。
以相同的方式,控制器120可分析由第二内部图像拾取单元151-2拍摄的帧。控制器120将分析由第一内部图像拾取单元151-1和第二内部图像拾取单元151-2拍摄的数据的结果进行组合,并估计用户的人脸方向或用户的眼睛的方向。此外,通过参考估计的方向应用一般的人的视角来估计视场。控制器120在用户的视场内显示各种信息30。
图18是用于解释根据示例性实施例的显示方法的基本流程的流程图。
参照图18,透明显示设备100接收周围情况信息(操作S1810)。周围情况信息是用于通知安装有透明显示设备100的运输设备的周围区域的情况的信息。可从各种源(诸如,外部服务器、周围运输设备和外部相机)提供周围情况信息。
透明显示设备100分析接收到的周围情况信息,识别周围对象,并在识别出的周围对象之中确定是否存在危险元素(操作S1820)。以上已经描述了确定危险元素的方法,因此省略重复的解释。
当存在危险元素时,透明显示设备100将关于危险元素的信息显示在透明显示器110上(操作S1830)。在以上描述的示例性实施例中已经对关于危险元素的信息及其显示方法的示例进行了描述,因此省略重复的解释。
虽然图18中没有示出,但是透明显示设备100可基于周围情况信息来确定危险元素的特性。此外,显示方法还可包括根据危险元素的特性来调整显示在透明显示器上的信息的颜色、大小、显示时间、显示位置、闪烁状态、字体和文本粗度中的至少一个。例如,当发生碰撞的可能性高并且危险元素是大的危险元素时,可以以更明显的颜色或更长的时间显示信息。此外,可以使用粗体文本或特定字体来显示信息或使信息闪烁。另一方面,当发生碰撞的可能性低并且危险元素相对不太危险且是小的危险元素(诸如,进入道路的球或气球)时,可不同地应用信息的颜色、显示时间、闪烁状态、字体、文本粗度。
危险效果的特性可以是如上所述的危险元素的位置、种类、运动速度和GPS值。信息可以是表示危险元素的位置和种类中的至少一个的图形对象、运输设备与危险元素之间的距离、危险元素的接近速度和估计的碰撞时间。
具体地,信息可包括与危险元素的种类相应的图像。然而,信息可使用简单的图形符号表示危险元素。此外,由于可能不能准确地获知危险元素距地面的高度,所以可以以简单的条形图的形式来表示危险元素的位置。此外,危险元素可被划分为车辆、自行车、行人和其他对象(例如,球或动物),并可以以不同的大小或颜色来表示危险元素。此外,相较于真实大小,可缩小信息的大小,使得用户可一眼看到危险元素的运动。此外,可根据危险的程度不同地调整信息的颜色、亮度或大小。也就是说,当危险的程度增大时,可以以红色来显示信息或连同大图像来显示信息,而当危险的程度减小时,可以以浅黄色来显示图像或连同小图像来显示图像。此外,当危险元素被障碍物遮挡时,可改变信息的大小或颜色,或者添加闪烁效果,使得用户可获知危险元素被遮挡。
此外,除了简单的信息30之外,还可通过从透明显示器110上的与用户10的位置相应的点到与危险元素的位置相应的点划线来显示到危险元素的距离信息。
此外,可以从如上所述的各种源提供周围情况信息。在下文中,将详细地描述通过服务器向运输设备提供周围情况信息的方法。
服务器可通过单向通信或双向通信连接到每个车辆。
根据执行单向通信的示例性实施例,服务器可以以广播的方法向车辆提供各种信息。将被提供的信息可包括由服务器管理的小区中的每个车辆的位置、运动速度和运动方向。
图19是示出根据单向通信方法向运输设备提供周围情况信息的服务器的示例的示图。在图19中,运输设备是车辆。参照图19,在诸如十字路口的道路环境下,传感器310、320、330和340可被设置在每个方向上的道路上。这些传感器可通过使用相机来实现,或可通过使用用于检测在每条道路上的运输设备的速度和距离的各种类型的传感器(诸如,加速度传感器和接近传感器)来实现。
每个传感器实时地收集道路情况,随后将道路情况发送到服务器3000。服务器3000是管理特定本地区域的服务器。服务器3000基于从每个传感器310、320、330和340接收到的信息来产生本地区域的周围情况信息。
例如,传感器310、320、330和340可包括相机。相机可被置于十字路口或道路上,并且可获得关于每个方向上的危险情况的视觉信息(即,照片)。因此,每个传感器310至340可实时地收集关于违反交通信号或加速飞奔的车辆的信息。
服务器3000分析从传感器310至340提供的照片,并获得关于每个车辆的位置信息。具体地,服务器3000可通过将周围结构(诸如,大楼、路灯和街边树)的已知位置与车辆的位置进行比较来确定车辆的位置。可选地,服务器3000可对照片中指示车道的白色虚线的数量进行计数,并可使用与白色虚线的数量相应的距离来确定车辆的位置。此外,服务器3000可分析显示在照片上的对象的大小和位置,并可确定车辆的位置。将详细地对该示例性实施例进行解释。
例如,传感器310至340可包括速度测量装置。服务器3000可分析由传感器310至340感测的信息,并可计算车辆的位置信息和速度以及到车辆的距离。
服务器3000在本地区域中广播产生的周围情况信息。可在特定的无线电频带内执行广播。
因此,进入本地区域的每个运输设备可从服务器3000接收广播的周围情况信息,并可识别周围对象。此外,运输设备可考虑周围对象的特性和运输设备的运动特性来估计碰撞的可能性。
图20是示出根据图19的示例性实施例的服务器的配置的框图。参照图20,服务器3000包括传感器信号接收器3100、信息处理器3200和信号发送器3300。
传感器信号接收器3100从本地区域中的传感器310、320、330和340接收传感器信号。传感器信号接收器3100可通过线缆直接连接到传感器310、320、330和340,或者可通过根据各种无线通信协议的通信连接到传感器310、320、330和340。
信息处理器3200分析已发送传感器信号的传感器310、320、330和340的标识信息和传感器信号,并产生周围情况信息。
具体地,如果传感器是相机,则信息处理器3200接收由每个相机拍摄的照片,分析接收到的照片,并基于拍摄的对象的位置、大小和形状来计算对象的运动信息。运动信息可以是关于对象的运动方向和运动速度的信息。
信息处理器3200可以以各种方式来计算对象的运动信息。例如,信息处理器3200可使用显示在由传感器拍摄的图像帧上的车道来检测对象的运动方向和运动速度。
例如,以虚线来显示并非中间车道的车道,并因此将其与中间车道区分开。信息处理器3200在由传感器310至340提供的照片中检查到对象所位于的点的虚线的数量。由于虚线具有相同长度,所以信息处理器3200基于虚线的数量来计算到对象的距离。
很多道路具有沿中间车道周期性地排列的照明器或反射器,从而可在晚上容易地识别出中间车道。在这种情况下,信息处理器3200对直到对象所处的点存在的照明器或反射器的数量进行计数,并确定到对象的距离。除了这些之外,还可参考人行横道之间的间距或周围地理特征的位置来计算对象的位置。
信息处理器3200可以以相同的方式在由传感器310至340提供的下一照片中计算到对象的距离。因此,信息处理器3200可通过将在两个照片中计算的距离进行比较来抓取对象的运动方向。此外,信息处理器3200可基于在照片中看到的车道的布局方向来确定对象的运动方向。例如,由于大部分车辆与车道并行行驶,所以可基于车道的布局方向来估计车辆的运动方向。例如,如果车道的方向由北向东转了大约20度,则可确定车辆沿北向东运动了20度。
当信息处理器3200完成了对传感器310、320、330和340的传感器信号的分析时,信号处理器3200将分析的结果进行组合,并产生周围情况信息。信号发送器3300广播由信息处理器3200产生的周围情况信息。周围情况信息的格式及其发送方法可根据针对服务器3000预定义的通信协议而被不同地定义。例如,信号发送器3300以各种方法(诸如,频率调制方法、幅度调制方法和正交幅度调制(QAM)方法)对周围情况信息进行调制,随后将周围情况信息转换为特定频带的RF信号,并通过天线输出RF信号。
虽然在图19和图20中服务器被设置在道路之外并且从传感器310、320、330和340收集信息,但是服务器可包括传感器功能。
图21是示出包括传感器的服务器的配置的示例的示图。参照图21,服务器4000可被设置在十字路口的中心。为了道路交通,服务器4000可被埋在地表面之下,或者服务器4000可被设置在形成在道路上面的支架(诸如,交通灯和路标)上。服务器4000可使用置于每个道路方向上的传感器来直接产生交通信息。
在图21中,服务器4000可包括嵌入其中的相机。可提供多个相机,并且可在每个道路方向上放置多个相机。以上已经参照图19和图20描述了使用由相机拍摄的照片确定车辆的位置、速度和方向的方法,因此,省略重复的解释。
根据示例性实施例,图21的服务器4000可包括距离传感器而不包括相机。也就是说,如果在每个道路方向上设置了距离传感器,则距离传感器感测距接近距离传感器的运输设备的距离。服务器4000可使用它的位置与运输设备之间的距离的改变来计算运输设备的速度和时间。因此,服务器4000将关于服务器位置、服务器与运输设备之间的距离、运输设备的方向和运输设备的速度的信息进行组合,产生周围情况信息,并将周围情况信息发送到本地区域中的每个运输设备1000-1、1000-2和1000-3。每个运输设备可基于服务器400与每个运输设备本身之间的距离、其它运输设备与服务器之间的距离、它们各自的速度和其它运输设备的速度来确定碰撞的可能性。
根据示例性实施例,图21的服务器可包括通信模块而不包括相机或距离传感器。也就是说,服务器400可与本地区域中的每个运输设备1000-1、1000-2和1000-3执行双向通信。服务器4000在执行双向通信时不必位于如图21所示的十字路口的中心。服务器4000可位于能够与每个方向的运输设备进行通信的任何范围内。
为了执行双向通信,服务器4000可在本地区域中广播各种连接信息(诸如,服务集标识符(SSID)、加密密钥、互联网协议(IP)地址和接收频带)。进入本地区域的运输设备1000-1、1000-2和1000-3接收广播的连接信息,并使用连接信息执行与服务器4000的配对。
如果完成了配对,则服务器4000接收运输设备1000-1、1000-2和1000-3的运动信息。运动信息可以是速度信息、GPS坐标值、车辆的类型和运动方向。
服务器4000将在本地区域中收集的运动信息进行组合,产生周围情况信息,并将产生的周围情况信息发送到本地区域中的运输设备1000-1、1000-2和1000-3中的每个运输设备。可以以各种方法(诸如,单播、多播或广播)实现发送的方法。
当执行双向通信时,运输设备1000-1、1000-2和1000-3可向服务器4000通知它们各自的状态。例如,当运输设备1000-1、1000-2和1000-3提前向服务器4000通知它们的外部状态(诸如,轮胎内压或制动状态、当前速度和由导航程序确定的前行路径)或向服务器4000通知用户状态(诸如,打瞌睡驾驶、酒驾或用户没有保持眼睛向前)时,服务器4000可基于这些信息确定危险元素。
图22是示出根据图21的示例性实施例的服务器4000的配置的框图。参照图22,服务器4000包括通信单元4100、存储器4200和控制器4300。
通信单元4100接收本地区域中的每个运输设备的运动信息。存储器4200存储接收到的运动信息。控制器4300将存储的运动信息进行组合,并按预定时间间隔产生周围情况信息。周围情况信息可包括各种信息,诸如在本地区域中的每个运输设备的真实位置、运动速度、运动方向和类型。控制器4300控制通信单元4100将产生的周围情况信息发送到本地区域中的每个运输设备。
因此,本地区域中的每个运输设备可获得关于其它运输设备的运动状态的信息,可估计与它本身碰撞的可能性,并可显示合适的信息。
根据示例性实施例,可通过使用蜂窝网络进行通信的基站来实现服务器。在这种情况下,车辆可通过将USIM卡直接插入设置在车辆中的透明显示设备中或使用连接到车辆的移动电话来与服务器进行通信。
服务器可通过安装在每个车辆中的USIM卡或移动电话来产生各种周围情况信息(诸如每个车辆的位置、运动速度、运动方向),并可将周围情况信息发送到服务器管理的小区中的车辆。发送的数据可仅包括位置和速度,并且相应区域的索引可被添加。区域的索引是指唯一地分配给每个区域的标识信息。也就是说,一个小区可被划分为多个区域,并且可对每个区域分配索引。在这种情况下,每个区域中的车辆仅检测分配给它们的区域的索引的信息,并可使用检测到的信息确定它们的区域中的危险元素。这种区域索引可根据各种标准(诸如,行政区域(例如,市、县、州和国家)或道路名称、交叉路口和频繁发生事故的区域)被分配。区域索引可由服务器运营商定义,并可与运输设备共享。运输设备通知服务器与运输设备所位于的区域相应的区域索引,服务器可选择性地发送与接收到的区域索引相应的信息或与区域索引邻近的相关数据。
当车辆从与车辆的当前位置无关的服务器接收到周围情况信息,或接收到关于与车辆的位置无关的区域的周围情况信息时,车辆可将接收到的信息丢弃,或可存储接收到的信息,从而当车辆在将来行驶在相关区域时可使用该信息。
以上,已经对通过服务器抓取周围情况的各种示例性实施例进行了描述。然而,根据另一示例性实施例,运输设备可在没有服务器的情况下通过相互交换信息来抓取周围情况。
图23是用于解释在没有服务器的情况下通过相互通信的运输设备获得周围情况信息的方法的示图。参照图23,当第一运输设备1000-1的通信范围(区域1)与第二运输设备1000-2的通信范围(区域2)相互重叠时,这两个运输设备1000-1和1000-2可识别彼此的运动信息。因此,每个运输设备1000-1和1000-2确定碰撞的可能性,并根据确定的结果将信息显示在设置在每个运输设备中的透明显示器上。
在图23中,每个运输设备1000-1和1000-2周期性地广播它们自己的运动信息,并以RF通信方法接收由其它运输设备广播的运动信息。也就是说,运输设备可包括用于相互交换RF信号的天线,并可使用该天线交换运动信息。
根据情况,可根据各种无线通信协议(诸如,蓝牙,Zigbee和IEEE)执行通信方法。
另一方面,可由附接到相应运输设备的外部的相机而非外部服务器或外部运输设备来获得周围情况信息。
图24是使用外部相机获得周围情况信息的示例性实施例的示图。参照图24,多个外部图像拾取单元161-1和161-2可附接到运输设备的外部。外部图像拾取单元161-1和161-2的数量、放置位置和形状可以以不同方式被实现。
在图24中,第一外部图像拾取单元161-1被置于左侧视镜的下部,第二外部图像拾取单元161-2被置于右侧视镜的下部。控制器120可根据用户的意图输出与由第一外部图像拾取单元161-1或第二外部图像拾取单元161-2拍摄的图像相应的信息。例如,当用户打开左方向指示器,或将手柄向左转动超过预定程度时,控制器120可激活左侧的第一外部图像拾取单元161-1,并可接收由第一外部图像拾取单元161-1拍摄的图像。控制器120分析接收到的图像,并确定在左方向上是否存在危险元素,并且当确定在左方向上存在危险元素时,将关于危险元素的信息30显示在透明显示器110上。另一方面,当用户打开右方向指示器,或将手柄向右转动超过预定程度时,控制器120可激活右侧的第二外部图像拾取单元161-2,并可接收由第二外部图像拾取单元161-2拍摄的图像。因此,控制器120确定在右方向上是否存在危险元素,并根据确定的结果显示信息30。
信息30的显示位置可被固定到用户前面的前表面,或可根据转动方向而改变。例如,当用户向左转动时,信息30可被显示在透明显示器110的左侧区域上,并且当用户向右转动时,信息30可被显示在透明显示器110的右侧区域上。
虽然在图24中信息30是警告消息,但是由第一外部图像拾取单元161-1或第二外部图像拾取单元161-2拍摄的图像可被图形处理,并且可如实被显示在透明显示器110上。因此,关于通过侧视镜无法看到的盲区的屏幕可透过透明显示器110如实被提供。
虽然在以上描述的示例性实施例中,关于可能碰撞的外部对象的信息被显示在透明显示器110上,但是这不应被理解为限制性的。例如,如果外部图像拾取单元161被置于车辆的前格栅上并监视车辆保险杠,则用户可在停车时查看由外部图像拾取单元161拍摄的图像。
图25是示出用于使用透明显示器识别盲区的方法的示图。参照图25,外部图像拾取单元161被置于运输设备1000的前格栅上。外部图像拾取单元161在预定角度(θ)的拍摄范围内进行拍摄。拍摄范围可根据从保险杠的上端查看的方向被设定。虽然在图25中仅示出了一个外部图像拾取单元161,但是多个外部图像拾取单元161可按照间隔相互并行地排列,并可拍摄保险杠。
当用户10选择停车模式时,控制器120对由外部图像拾取单元161拍摄的图像进行图形处理,并将图像显示在透明显示器110的下端。在这种情况下,用户可在查看真实场景的图形图像30时,实时检查保险杠的端部是否触碰到外部对象。
此外,控制器120可以以各种方式从各种源接收周围情况信息,并可根据周围情况信息将各种信息显示在透明显示器110上。因此,增加了透明显示设备的利用率,并还可减小运输设备的碰撞风险。
图26是示出根据示例性实施例的显示信息的透明显示设备的示图。
参照图26,透明显示设备可使用车辆的前进方向和速度以及危险元素的前进方向和速度来获得估计的碰撞点,并还可显示关于估计的碰撞点的信息。
在图26中,假定:危险元素的位置是P0(X0,Y0),设置在车辆中的透明显示器110的中心点是P1(X1,Y1),估计的碰撞点是P2(X2,Y2),用户眼睛的位置是P3(X3,Y3),看到估计的碰撞点的用户的位置是P4(X4,Y4),从用户的位置起关于危险元素的信息应被显示的位置是P5(X5,Y5)。在这种情况下,由于透明显示器110的中心点P1是基于车辆1000的当前位置确定的,所以P1可被视为车辆1000的当前位置。
可基于车辆1000的当前位置P1、前进方向和速度V1以及危险元素2000的当前位置P0和速度V2来确定估计的碰撞点P2。车辆1000的前进方向可通过在车辆1000中计算出的偏航角来确定。偏航角可以以各种方法来计算。
例如,偏航角可通过设置在车辆1000中的地磁传感器来计算。
例如,服务器可通过识别道路上的车辆的前进方向来计算偏航角。也就是说,当服务器确定车辆沿特定道路运动时,服务器可基于道路的布局方向来确定车辆的前进方向。在这种情况下,即使在车辆1000中没有设置单独的传感器,也可仅基于地图和车辆的位置信息来获得前进方向。
估计的碰撞点P2可由车辆1000计算,或者可选地,可由以上描述的在各种示例性实施例中的服务器计算。
用户眼睛的位置P3(X3,Y3)可通过拍摄用户的人脸区域并计算人脸区域与透明显示器110之间的距离和位置来计算。
当用户眼睛的位置P3和估计的碰撞点P2被计算出时,透明显示设备100获得连接P3和P2的线与透明显示器110相交的交点P4。连接P3和P2的线可通过以下等式表示:
[等式1]
透明显示器110的表面可通过以下等式表示:
[等式2]
Y=tanθ(X-X1)+Y1
透明显示设备100可组合等式1和等式2,并可计算它们的交点P4(X4,Y4)。
透明显示设备100可在点P4处显示指示估计的碰撞点的图形对象(诸如,文本或图像)。
此外,透明显示设备100计算连接P3和危险元素的位置P0的线与透明显示器110相交的交点P5
连接P3和P0的线可通过以下等式表示:
[等式3]
透明显示设备100可组合等式3和等式2,并可计算它们的交点P5
透明显示设备100可在点P5处显示用于呈现危险元素的信息。透明显示设备100实时地计算P5,并在该点显示信息,使得用户可一眼察觉到被障碍物20遮挡的危险元素2000的存在以及该危险元素2000的位置。
如在图26的示例性实施例中描述的,透明显示设备100可使用等式1、2和3确定危险元素,并可确定透明显示器110的哪块区域将显示关于估计的碰撞点或危险元素的信息。在图26中描述的确定的方法和等式可以以相同的方式被应用到在以上描述的示例性实施例中描述的确定危险元素或确定信息显示区域的处理。
虽然在以上描述的示例性实施例中通过透明显示器提供关于危险元素的信息,但是可通过透明显示器提供从外部源提供的拍摄的图像,而不用直接确定危险元素。
图27是用于解释提供拍摄的图像的透明显示设备的操作的示图。参照图27,包括相机的服务器3000可被置于十字路口的中心。服务器3000拍摄每个方向上的车辆,并广播对车辆拍摄的图像。
当进入十字路口的运输设备1000接收到在不同方向上进入的另一运输设备2000的拍摄的图像时,拍摄的图像30如实被显示在透明显示器110上。根据该示例性实施例,降低了确定另一运输设备是否是危险元素的计算负担,此外,用户可直观地获知周围道路情况。
此外,虽然在以上描述的示例性实施例中已经描述了由包括透明显示器的透明显示设备执行的操作,但是这些操作可由用户终端设备(诸如,移动电话、个人数字助理(PDA)、平板PC或膝上型PC)执行,而不由透明显示设备执行。
图28示出连接到运输设备1000的用户终端设备2800的状态。在图28中,运输设备1000和用户终端设备2800以无线通信方法相互连接。
参照图28,用户终端设备2800可连接到安装在运输设备1000中的车辆控制系统、主机或中控仪表盘,或连接到嵌入运输设备1000中的或连接到运输设备1000的导航装置。在下文中,为了便于解释,将把用户终端设备2800描述为连接到运输设备1000。
当运输设备1000和用户终端设备2800如图28中所示相互连接时,用户终端设备2800从外部服务器接收周围情况信息,并使用周围情况信息来控制运输设备的操作。周围情况信息可包括如上所述的各种信息,诸如关于在由服务器管理的本地区域内存在的各种对象的信息、拍摄的图像和交通信息。
用户终端设备2800使用设置在其中的GPS芯片来确定运输设备1000的位置。也就是说,由于当用户终端设备2800连接到运输设备1000时,用户终端设备2800可被视为位于运输设备1000中,所以用户终端设备2800的位置可被视为运输设备的位置。
用户终端设备2800分析周围情况信息,并识别周围对象,并且考虑运输设备1000的位置、运动方向和运动速度在周围对象之中确定可能发生碰撞的危险元素。用户终端设备2800向运输设备1000提供关于确定的危险元素的信息。运输设备1000将信息显示在透明显示器上。
图29是示出根据示例性实施例的用户终端设备的配置的框图。参照图29,用户终端设备2800包括接口2810、控制器2820和通信单元2830。
接口2810是连接到运输设备1000的元件。接口2810可以以有线方法或无线方法连接到运输设备1000。具体地,接口2810可通过使用各种通信接口(诸如,Wi-Fi、蓝牙、IEEE、Zigbee、近场通信(NFC)和USB接口)来实现。
通信单元2830从外部服务器接收周围情况信息。通信单元2830可使用用于接收RF信号的RF接收模块和用于接收广播信息的调谐器来接收周围情况信息,或可根据各种通信方法(诸如,Wi-Fi、蓝牙、IEEE和Zigbee)来接收周围情况信息。
控制器2820使用通过通信单元2830接收到的周围情况信息和运输设备的位置来确定可能与运输设备碰撞的危险元素。控制器2820通过接口2810向运输设备1000提供用于通知确定的危险元素的信息。
控制器2820可使用设置在用户终端设备2800中的GPS芯片(未示出)来确定运输设备的位置。
此外,控制器2820可分析周围情况信息,并识别周围对象,并可将在周围对象之中的参考运输设备的位置所确定的可能碰撞的周围对象确定为危险元素。以上已经描述了确定的方法,因此省略重复的解释。
用户终端设备2800可根据用户终端设备2800的种类而包括各种元件。具体地,用户终端设备2800可具有图12的配置。
当危险元素被确定时,控制器2820向运输设备1000提供关于危险元素的信息。运输设备1000可基于提供的信息将信息显示在透明显示器上。如上所述,可以以各种形式来显示信息。
根据如上所述的各种示例性实施例的透明显示设备不仅可被应用到车辆,而且还可以被应用到各种运输设备(诸如,船舶、飞机、摩托车和自行车)。具体地,如果透明显示设备被应用到船舶,则船舶的底面可由透明显示器实现。在这种情况下,透明显示器可与鱼传感器(fish sensor)互锁,并可在存在鱼的方向上显示关于鱼的各种信息。此外,可由雷达对海底的结构进行探索,并可在透明显示器上将探索到的海底的结构显示为3D图形对象。
以上描述的各种方法可被生成为软件,并且软件可被安装在透明显示设备或显示控制系统中并被执行。
具体地,根据示例性实施例,可准备存储用于执行以下操作的程序的非暂时性计算机可读介质:接收周围情况信息;使用周围情况信息识别周围对象,并使用周围情况信息和运输设备的位置信息来确定可能与运输设备碰撞的危险元素;将用于向用户通知危险元素的信息显示在透明显示器上,并且该非暂时性计算机可读介质可被提供给各种设备。因此,可根据以上描述的示例性实施例将信息显示在透明显示器上。
非暂时性计算机可读介质是指半永久性地存储数据而非将数据存储极短时间(诸如,寄存器、高速缓存和内存)的并可由设备读取的介质。具体地,可在非暂时性计算机可读介质(诸如,致密盘(CD)、数字多功能盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、存储卡和只读存储器(ROM))中存储并可提供以上描述的各种应用或程序。
以上描述的实施例可被记录在包括用于实现由计算机实施的各种操作的程序指令的计算机可读介质中。所述介质还可单独包括程序指令、数据文件、数据结构等或包括以上组合。记录在介质上的程序指令可以是为了实施例的目的而被专门设计和构造的程序指令,或者这些程序指令可以是对于计算机软件领域的技术人员而言公知和可用的。计算机可读介质的示例包括磁介质(诸如,硬盘、软盘和磁带);光介质(诸如,CD ROM盘和DVD);磁光介质(诸如,光盘);以及专门被配置为存储和执行程序指令的硬件装置(诸如,只读存储器(ROM)、随机存取存储器(RAM)和闪存等)。计算机可读介质还可以是分布式网络,从而以分布方式来存储并执行程序指令。程序指令可由一个或更多个处理器执行。计算机可读介质还可在执行(如同处理器处理)程序指令的至少一个专用集成电路(ASIC)或现场可编程门阵列(FPGA)中实施。程序指令的示例包括诸如由编译器产生的机器代码和包含可由计算机使用解释器执行的更高级代码的文件两者。以上描述的装置可被配置为用作一个或更多个软件模块以执行以上描述的实施例的操作,反之亦然。
前述示例性实施例和优点仅是示例性的,并不应被解释为对本发明构思的限制。所述示例性实施例可被容易地应用于其他类型的设备。此外,所述示例性实施例的描述意在说明而非限制权利要求的范围,并且对于本领域的技术人员而言,很多替代形式、修改和变化将是显而易见的。
尽管已示出和描述了一些实施例,但本领域的技术人员将理解,在不脱离本发明的原理和精神的情况下,可在这些实施例中进行改变,本发明的范围在权利要求及其等同物中限定。

Claims (25)

1.一种在车辆中使用的显示设备,其中,所述显示设备包括:
显示器;
通信单元,接收周围情况信息;
检测器,检测在所述车辆中的用户的至少一个注视方向;以及
控制器,基于用户的所述至少一个注视方向和周围情况信息来确定位于与所述车辆邻近的区域中的危险元素,其中,所述危险元素包括第一对象,第一对象在用户的所述至少一个注视方向上具有被作为障碍物的第二对象遮挡的第一对象的至少一部分,
其中,控制器执行以下操作:
从显示器的区域之中确定与用户的所述至少一个注视方向相应的第一区域和与用户的所述至少一个注视方向相应的第二区域,其中,第一对象通过第一区域被定位,第二对象通过第二区域被定位;以及
当与用户的所述至少一个注视方向相应的第一区域和第二区域至少部分地重叠时,将第二对象确定为障碍物,以确定第一对象具有被第二对象遮挡的第一对象的至少一部分。
2.如权利要求1所述的显示设备,其中,控制器执行以下操作:
基于周围情况信息识别在与所述车辆邻近的区域中的周围对象;
根据用户的所述至少一个注视方向确定用户的视场;
当在用户的视场内第一对象被第二对象至少部分地遮挡时,从周围对象中确定第一对象被作为障碍物的第二对象至少部分地遮挡,从而将第一对象确定为危险元素;以及
确定通知信息在显示器的与第一对象的实际位置相关联的区域上的显示位置。
3.如权利要求2所述的显示设备,其中,控制器将关于至少部分地被障碍物遮挡的危险元素的通知信息和根据危险元素的危险等级的通知消息的不同类型显示在显示器的区域之中的看到障碍物的区域上。
4.如权利要求2所述的显示设备,其中,控制器将通知信息显示在显示器的区域之中的与用户的所述至少一个注视方向相应的区域上。
5.如权利要求1所述的显示设备,其中,控制器根据危险元素的特性来调整显示在显示器上的通知信息的以下项中的至少一项:颜色、大小、显示时间、显示位置、闪烁状态、字体和文本粗度。
6.如权利要求1所述的显示设备,其中,关于危险元素的通知信息被显示为至少一个图形对象,
其中,所述至少一个图形对象表示以下项中的至少一项:危险元素的位置、危险元素的种类、所述车辆与危险元素之间的距离、危险元素的接近速度和估计的碰撞时间。
7.如权利要求1所述的显示设备,其中,所述周围情况信息为关于位于与所述车辆邻近的区域中的周围对象的信息,其中,所述周围情况信息包括所述车辆的当前位置。
8.如权利要求1所述的显示设备,其中,当所述车辆进入一个位置时,通信单元从管理该位置的外部服务器接收该位置的周围情况信息,
其中,显示器包括所述车辆的挡风玻璃。
9.如权利要求1所述的显示设备,其中,控制器执行以下操作:
确定所述车辆的运动特性,其中,所述车辆的运动特性至少包括以下项:基于所述车辆的位置改变、运动方向、运动速度、未来运动位置,所述车辆是否运动;
使用所述车辆的运动特性和周围情况信息来确定危险元素。
10.如权利要求1所述的显示设备,其中,控制器控制显示器提供与作为危险元素的第一对象的位置相关联的通知信息,
其中,所述危险元素被作为障碍物的第二对象至少部分地遮挡。
11.一种用于控制在车辆中使用的包括显示器的显示设备的方法,其中,所述方法包括:
接收周围情况信息;
检测在所述车辆中的用户的至少一个注视方向;
基于用户通过显示器的所述至少一个注视方向和周围情况信息来确定位于与所述车辆邻近的区域中的危险元素,其中,所述危险元素包括第一对象,第一对象在所述至少一个注视方向上被作为障碍物的第二对象至少部分地遮挡;以及
控制显示器在显示器的与第一对象的实际位置相关联的区域上提供关于危险元素的通知信息和通知信息的不同类型,其中,第一对象具有被作为障碍物的第二对象遮挡的第一对象的至少一部分,
其中,确定危险元素的步骤包括:
从显示器的区域之中确定与用户的所述至少一个注视方向相应的第一区域和与用户的所述至少一个注视方向相应的第二区域,其中,第一对象通过第一区域被定位,第二对象通过第二区域被定位;以及
当确定与用户的所述至少一个注视方向相应的第一区域和第二区域至少部分地重叠时,将第二对象确定为障碍物,以确定第一对象具有被第二对象遮挡的第一对象的至少一部分。
12.如权利要求11所述的方法,其中,确定危险元素的步骤包括:
基于周围情况信息识别在与所述车辆邻近的区域中的周围对象;
根据用户通过显示器的所述至少一个注视方向确定用户的视场;
当在用户的视场内第一对象被第二对象至少部分地遮挡时,从周围对象中确定第一对象被作为障碍物的第二对象至少部分地遮挡,从而将第一对象确定为危险元素;以及
确定通知信息在显示器的与第一对象的实际位置相关联的区域上的显示位置。
13.如权利要求12所述的方法,还包括:
将关于危险元素的通知信息和根据危险元素的危险等级的通知消息的不同类型显示在显示器上,
其中,将关于危险元素的通知信息和根据危险元素的危险等级的通知消息的不同类型显示在显示器上的步骤包括:将关于至少部分地被障碍物遮挡的危险元素的通知信息和根据危险元素的危险等级的通知消息的不同类型显示在显示器的所有区域之中的看到障碍物的区域上。
14.如权利要求12所述的方法,还包括:将通知信息显示在显示器上,
其中,将通知信息显示在显示器上的步骤包括:将通知信息显示在显示器的区域之中的与用户的所述至少一个注视方向相应的区域上。
15.如权利要求11所述的方法,还包括:根据危险元素的特性来调整显示在显示器上的通知信息的以下项中的至少一项:颜色、大小、显示时间、显示位置、闪烁状态、字体和文本粗度。
16.如权利要求11所述的方法,其中,关于危险元素的通知信息被显示为至少一个图形对象,
其中,所述至少一个图形对象表示以下项中的至少一项:危险元素的位置、危险元素的种类、所述车辆与危险元素之间的距离、危险元素的接近速度和估计的碰撞时间。
17.如权利要求11所述的方法,其中,所述周围情况信息为关于位于与所述车辆邻近的区域中的周围对象的信息,其中,所述周围情况信息包括所述车辆的当前位置。
18.如权利要求11所述的方法,其中,当所述车辆进入一个位置时,从管理该位置的外部服务器接收该位置的周围情况信息,
其中,显示器包括所述车辆的挡风玻璃。
19.如权利要求11所述的方法,其中,确定危险元素的步骤包括:
确定所述车辆的运动特性,其中,所述车辆的运动特性至少包括以下项:基于所述车辆的位置改变、运动方向、运动速度和未来运动位置,所述车辆是否运动;
使用所述车辆的运动特性和周围情况信息来确定危险元素。
20.如权利要求11所述的方法,还包括:控制显示器提供关于危险元素的通知信息和通知信息的不同类型,其中,所述通知信息与被作为障碍物的第二对象至少部分地遮挡的第一对象的位置相关联。
21.一种用户终端设备,包括:
接口,能够与车辆连接;
通信单元,接收周围情况信息;
检测器,检测在所述车辆中的用户的至少一个注视方向;以及
控制器,基于用户的所述至少一个注视方向和周围情况信息来确定位于与所述车辆邻近的区域中的危险元素,并提供关于危险元素的通知信息,其中,所述危险元素包括第一对象,第一对象在用户的所述至少一个注视方向上具有被作为障碍物的第二对象遮挡的第一对象的至少一部分,
其中,控制器执行以下操作:
从显示器的区域之中确定与用户的所述至少一个注视方向相应的第一区域和与用户的所述至少一个注视方向相应的第二区域,其中,第一对象通过第一区域被定位,第二对象通过第二区域被定位;以及
当与用户的所述至少一个注视方向相应的第一区域和第二区域至少部分地重叠时,将第二对象确定为障碍物,以确定第一对象具有被第二对象遮挡的第一对象的至少一部分。
22.如权利要求21所述的用户终端设备,其中,当所述车辆通过所述接口被连接到所述用户终端设备时,控制器执行以下操作:
使用所述用户终端设备中提供的GPS芯片来确定所述车辆的位置;
基于周围情况信息识别在与所述车辆邻近的区域中的周围对象;
当在用户的视场内第一对象被第二对象至少部分地遮挡时,从周围对象中确定第一对象被作为障碍物的第二对象至少部分地遮挡,从而将第一对象确定为危险元素;以及
确定关于危险元素的通知信息的显示位置。
23.一种用于控制用户终端设备的方法,其中,所述方法包括:
接收周围情况信息;
检测在所述车辆中的用户的至少一个注视方向;
基于用户的所述至少一个注视方向和周围情况信息来确定位于与所述车辆邻近的区域中的危险元素,其中,所述危险元素包括第一对象,第一对象在所述至少一个注视方向上具有被作为障碍物的第二对象遮挡的第一对象的至少一部分;以及
提供关于危险元素的通知信息,
其中,确定危险元素的步骤包括:
从显示器的区域之中确定与用户的所述至少一个注视方向相应的第一区域和与用户的所述至少一个注视方向相应的第二区域,其中,第一对象通过第一区域被定位,第二对象通过第二区域被定位;以及
当确定与用户的所述至少一个注视方向相应的第一区域和第二区域至少部分地重叠时,将第二对象确定为障碍物,以确定第一对象具有被第二对象遮挡的第一对象的至少一部分。
24.一种存储有用于实现如权利要求23所述的方法的一个或多个程序的非暂时性计算机可读记录介质。
25.一种用于在车辆中使用的包括显示器的显示设备上显示危险元素的方法,其中,所述方法包括:
接收所述车辆的周围情况信息;
检测在所述车辆中的用户的至少一个注视方向;
基于用户的所述至少一个注视方向和周围情况信息来确定位于与所述车辆邻近的区域中的危险元素,其中,所述危险元素包括第一对象,第一对象在所述至少一个注视方向上具有被作为障碍物的第二对象遮挡的第一对象的至少一部分,
其中,确定危险元素的步骤包括:
从显示器的区域中确定与用户的所述至少一个注视方向相应的第一区域和与用户的所述至少一个注视方向相应的第二区域,其中,第一对象通过第一区域被定位,第二对象通过第二区域被定位;以及
当确定与用户的所述至少一个注视方向相应的第一区域和第二区域至少部分地重叠时,将第二对象确定为障碍物,以确定第一对象具有被第二对象遮挡的第一对象的至少一部分。
CN201810709138.7A 2012-07-10 2013-07-10 用于显示危险元素的信息的透明显示设备及其方法 Pending CN108957748A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2012-0075209 2012-07-10
KR1020120075209A KR102028720B1 (ko) 2012-07-10 2012-07-10 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
CN201380037261.4A CN104428707B (zh) 2012-07-10 2013-07-10 用于显示危险元素的信息的透明显示设备及其方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201380037261.4A Division CN104428707B (zh) 2012-07-10 2013-07-10 用于显示危险元素的信息的透明显示设备及其方法

Publications (1)

Publication Number Publication Date
CN108957748A true CN108957748A (zh) 2018-12-07

Family

ID=49914673

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810709138.7A Pending CN108957748A (zh) 2012-07-10 2013-07-10 用于显示危险元素的信息的透明显示设备及其方法
CN201380037261.4A Active CN104428707B (zh) 2012-07-10 2013-07-10 用于显示危险元素的信息的透明显示设备及其方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201380037261.4A Active CN104428707B (zh) 2012-07-10 2013-07-10 用于显示危险元素的信息的透明显示设备及其方法

Country Status (5)

Country Link
US (2) US9767693B2 (zh)
EP (1) EP2872944B1 (zh)
KR (1) KR102028720B1 (zh)
CN (2) CN108957748A (zh)
WO (1) WO2014010931A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111824164A (zh) * 2019-04-11 2020-10-27 泰州市朗嘉尚网络科技有限公司 周围信息采集显示方法
CN112437320A (zh) * 2020-11-10 2021-03-02 维沃移动通信有限公司 视频画面显示方法、装置、电子设备及可读存储介质
CN114365207A (zh) * 2019-09-12 2022-04-15 三菱电机株式会社 驾驶辅助装置、车辆控制装置、驾驶辅助系统和驾驶辅助方法

Families Citing this family (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
US10967882B2 (en) * 2018-01-09 2021-04-06 Motherson Innovations Company Limited Autonomous vehicles with control retaking systems and methods of using same
JP5757900B2 (ja) * 2012-03-07 2015-08-05 日立オートモティブシステムズ株式会社 車両走行制御装置
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
GB2509568B (en) * 2012-10-19 2015-03-25 Hand Held Prod Inc Vehicle Computer System With Transparent Display
US9235553B2 (en) * 2012-10-19 2016-01-12 Hand Held Products, Inc. Vehicle computer system with transparent display
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
KR20150032124A (ko) * 2013-09-17 2015-03-25 네오뷰코오롱 주식회사 헤드업 디스플레이
JP6267972B2 (ja) * 2014-01-23 2018-01-24 日立建機株式会社 作業機械の周囲監視装置
US10235884B2 (en) * 2014-01-28 2019-03-19 The Curators Of The University Of Missouri Wireless beacon collision warning system
DE102014201824A1 (de) * 2014-02-03 2015-08-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
KR102200121B1 (ko) * 2014-02-17 2021-01-08 삼성전자 주식회사 차량 흐름 예측 방법 및 장치
KR20150096826A (ko) * 2014-02-17 2015-08-26 엘지전자 주식회사 디스플레이 장치 및 제어 방법
US9298992B2 (en) * 2014-02-20 2016-03-29 Toyota Motor Engineering & Manufacturing North America, Inc. Geographic feature-based localization with feature weighting
US9324233B2 (en) * 2014-03-04 2016-04-26 Nissan North America, Inc. Vehicle contact warning method and system
US9483997B2 (en) 2014-03-10 2016-11-01 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using infrared signaling
WO2015152753A1 (ru) * 2014-03-31 2015-10-08 Общество с ограниченной ответственностью "ВэйРэй" Способ отображения информации через лобовое стекло автомобиля и устройство для его реализации
CN103895572B (zh) * 2014-04-22 2016-05-18 北京汽车研究总院有限公司 一种前方视野中车辆行驶信息显示装置及方法
DE102014208310A1 (de) * 2014-05-05 2015-11-05 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem zur Darstellung einer erweiterten Realität
US9696414B2 (en) 2014-05-15 2017-07-04 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using sonic signaling
US10070291B2 (en) 2014-05-19 2018-09-04 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using low energy bluetooth
KR20150137214A (ko) * 2014-05-28 2015-12-09 삼성디스플레이 주식회사 유기발광 디스플레이 장치 및 그 제조방법
KR102127356B1 (ko) * 2014-07-31 2020-06-26 삼성전자주식회사 투명 디스플레이 장치 및 그 제어 방법
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US9721475B2 (en) * 2014-09-05 2017-08-01 Honeywell International Inc. Systems and methods for displaying object and/or approaching vehicle data within an airport moving map
DE102014014662A1 (de) 2014-09-19 2016-03-24 Mekra Lang North America, Llc Anzeigeeinrichtung für Fahrzeuge, insbesondere Nutzfahrzeuge
CN104309529B (zh) * 2014-09-26 2016-03-02 腾讯科技(深圳)有限公司 一种预警提示方法、系统以及相关设备
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9469248B2 (en) 2014-10-10 2016-10-18 Honda Motor Co., Ltd. System and method for providing situational awareness in a vehicle
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
KR102310291B1 (ko) * 2014-11-24 2021-10-07 현대모비스 주식회사 차량 내에 설치된 게이트웨이와 연동하는 사용자 단말 및 스마트 폰 애플리케이션을 이용한 교통 신호 변경 안내 방법
CN105806358B (zh) * 2014-12-30 2019-02-05 中国移动通信集团公司 一种驾驶提示的方法及装置
DE102015002245B3 (de) * 2015-02-21 2016-05-25 Audi Ag Verfahren zum Betreiben eines Radiosystems, Radiosystem und Kraftwagen mit einem Radiosystem
WO2016181618A1 (ja) * 2015-05-11 2016-11-17 パナソニックIpマネジメント株式会社 監視対象領域設定装置および監視対象領域設定方法
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
CN104917889A (zh) * 2015-05-28 2015-09-16 瑞声声学科技(深圳)有限公司 移动监控终端及其监控方法
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
EP3310607A4 (en) * 2015-06-22 2019-02-27 Continental Automotive GmbH TRANSPARENT SCREEN WITH ADJUSTABLE MASKING SCREEN
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (en) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensioning device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
WO2017053616A1 (en) 2015-09-25 2017-03-30 Nyqamin Dynamics Llc Augmented reality display system
US10140870B1 (en) 2015-09-30 2018-11-27 Waymo Llc Occupant facing vehicle display
WO2017056953A1 (ja) * 2015-10-02 2017-04-06 株式会社リコー 表示装置
KR101841948B1 (ko) 2015-10-02 2018-03-26 엘지전자 주식회사 차량 내 분실물 예방 서비스 제공장치, 제공방법 및 이동 단말기
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
DE102015221439B3 (de) * 2015-11-02 2017-05-04 Continental Automotive Gmbh Verfahren und Vorrichtung zur Auswahl und Übertragung von Sensordaten von einem ersten zu einem zweiten Kraftfahrzeug
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
KR101916993B1 (ko) * 2015-12-24 2018-11-08 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어방법
US10025314B2 (en) * 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10696216B2 (en) * 2016-02-12 2020-06-30 Mitsubishi Electric Corporation Information display device and information display method
JP6232649B2 (ja) * 2016-02-18 2017-11-22 国立大学法人名古屋大学 仮想空間表示システム
US10315566B2 (en) * 2016-03-07 2019-06-11 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle
EP3248793B1 (en) * 2016-05-20 2019-07-10 OCE Holding B.V. Flat bed printer
CN107438872A (zh) * 2016-05-29 2017-12-05 深圳市欸阿技术有限公司 车载智能终端及其处理车辆信息的方法
US11242068B2 (en) * 2016-05-30 2022-02-08 Lg Electronics Inc. Vehicle display device and vehicle
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US20180130445A1 (en) * 2016-07-22 2018-05-10 Faraday&Future Inc. Dynamic interior color palette
US10248196B2 (en) * 2016-08-23 2019-04-02 Toyota Jidosha Kabushiki Kaisha System for occlusion adjustment for in-vehicle augmented reality systems
DE102016011414A1 (de) * 2016-09-22 2018-03-22 Daimler Ag Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs unter Berücksichtigung eines aktuellen Sichtbereichs des Fahrers, Recheneinrichtung sowie Erfassungsfahrzeug
KR102366723B1 (ko) * 2016-10-11 2022-02-23 삼성전자주식회사 운송 수단으로 시야 확보 영상을 제공하는 방법, 이를 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US10552690B2 (en) * 2016-11-04 2020-02-04 X Development Llc Intuitive occluded object indicator
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US10558264B1 (en) 2016-12-21 2020-02-11 X Development Llc Multi-view display with viewer detection
ES2753131T3 (es) * 2016-12-27 2020-04-07 Volkswagen Ag Sistema de asistencia al conductor, producto de programa informático, secuencia de señales, medio de transporte y procedimiento para la información de un usuario de un medio de transporte
JP2018116516A (ja) * 2017-01-19 2018-07-26 トヨタ自動車株式会社 車両の注意喚起装置
JP6599386B2 (ja) * 2017-03-01 2019-10-30 ソフトバンク株式会社 表示装置及び移動体
JP6599387B2 (ja) * 2017-03-01 2019-10-30 ソフトバンク株式会社 情報報知装置、移動体及び情報報知システム
JP6749470B2 (ja) * 2017-03-31 2020-09-02 本田技研工業株式会社 地域安全システム及びサーバ
US10726792B2 (en) * 2017-04-17 2020-07-28 Intel Corporation Glare and occluded view compensation for automotive and other applications
DE102017111468A1 (de) 2017-05-24 2018-11-29 Automotive Safety Technologies Gmbh Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US20190071014A1 (en) * 2017-09-01 2019-03-07 Honda Motor Co., Ltd System for object indication on a vehicle display and method thereof
KR102001914B1 (ko) * 2017-09-07 2019-07-19 엘지전자 주식회사 차량 av시스템의 오류 검출 ic
US10449839B2 (en) * 2017-09-21 2019-10-22 Honda Motor Co., Ltd. Methods and systems for controlling a transparency of a window of a vehicle
CN108169777A (zh) * 2017-11-03 2018-06-15 北京讯业互联科技股份有限公司 一种基于北斗导航系统的车辆导航装置
DE102017221230B4 (de) * 2017-11-28 2023-07-20 Continental Automotive Technologies GmbH Verfahren zum blendungsreduzierten Betrieb eines Head-up-Displays und Vorrichtung
JP7006235B2 (ja) * 2017-12-18 2022-01-24 トヨタ自動車株式会社 表示制御装置、表示制御方法および車両
JP7003633B2 (ja) * 2017-12-20 2022-01-20 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
CN108267973B (zh) * 2017-12-27 2020-10-02 珠海格力电器股份有限公司 智能控制方法及装置
US10600390B2 (en) * 2018-01-10 2020-03-24 International Business Machines Corporation Displaying a vehicle notification in a location determined based on driver eye gaze direction and other criteria
JP7043845B2 (ja) * 2018-01-17 2022-03-30 トヨタ自動車株式会社 車両用表示連携制御装置
CN110244459B (zh) 2018-03-09 2021-10-08 财团法人工业技术研究院 增强现实装置
TWI664438B (zh) 2018-03-09 2019-07-01 Industrial Technology Research Institute 擴增實境裝置
US10699457B2 (en) * 2018-03-14 2020-06-30 Ford Global Technologies, Llc Vehicle display with augmented realty
US11059421B2 (en) * 2018-03-29 2021-07-13 Honda Motor Co., Ltd. Vehicle proximity system using heads-up display augmented reality graphics elements
CN108583571A (zh) * 2018-04-28 2018-09-28 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
TWI670646B (zh) * 2018-06-15 2019-09-01 財團法人工業技術研究院 資訊顯示方法及其顯示系統
US10746987B2 (en) * 2018-07-12 2020-08-18 Toyota Research Institute, Inc. Vehicle systems and methods for redirecting a driver's gaze towards an object of interest
US20220208004A1 (en) * 2018-07-13 2022-06-30 Nec Corporation Driving support apparatus, driving support method, and computer-readable recording medium
JP7102275B2 (ja) * 2018-07-30 2022-07-19 本田技研工業株式会社 表示制御装置及びプログラム
KR102631933B1 (ko) * 2018-08-10 2024-02-02 삼성디스플레이 주식회사 표시장치 및 그 제조방법
US11866042B2 (en) 2018-08-20 2024-01-09 Indian Motorcycle International, LLC Wheeled vehicle adaptive speed control method and system
US10970899B2 (en) * 2018-10-23 2021-04-06 International Business Machines Corporation Augmented reality display for a vehicle
US11079593B2 (en) 2018-11-26 2021-08-03 International Business Machines Corporation Heads up display system
JP2020091672A (ja) * 2018-12-06 2020-06-11 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 鞍乗型車両のライダー支援システムのための処理装置及び処理方法、鞍乗型車両のライダー支援システム、及び、鞍乗型車両
JP7147527B2 (ja) * 2018-12-10 2022-10-05 トヨタ自動車株式会社 支援装置、支援方法およびプログラム
KR102149732B1 (ko) * 2019-04-17 2020-08-31 라쿠텐 인코포레이티드 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
CN111899567B (zh) * 2019-05-06 2021-12-07 江苏金海星导航科技有限公司 一种基于定位的船舶防碰撞优化方法及系统
DE102019112625A1 (de) * 2019-05-14 2020-11-19 Eyyes Gmbh Verfahren zum Anzeigen und/oder Berechnen einer Relativbewegung
KR102296213B1 (ko) * 2019-06-28 2021-09-01 주식회사대성엘텍 영상 기록 장치 및 그 동작 방법
KR20220016275A (ko) * 2019-07-12 2022-02-08 닛산 지도우샤 가부시키가이샤 정보 처리 장치, 정보 처리 방법, 및 프로그램
EP3782840B1 (en) * 2019-08-20 2023-08-02 Volvo Car Corporation Aid for a driver with impaired field of view
CN110441912B (zh) * 2019-08-27 2024-04-19 高维度(深圳)生物信息智能应用有限公司 一种便携眼镜智能穿戴设备及其控制方法
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US10981507B1 (en) 2019-11-07 2021-04-20 Focused Technology Solutions, Inc. Interactive safety system for vehicles
US11151366B2 (en) * 2020-01-30 2021-10-19 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for occluding vehicle occupant communication
JP2021189932A (ja) * 2020-06-03 2021-12-13 トヨタ自動車株式会社 移動体検知システム
JP7057053B1 (ja) 2021-03-19 2022-04-19 三菱ロジスネクスト株式会社 荷役システム
JP2022186190A (ja) * 2021-06-04 2022-12-15 トヨタ自動車株式会社 車両用表示装置、車両用表示システム、車両用表示方法及びプログラム
US20220396148A1 (en) * 2021-06-15 2022-12-15 Toyota Motor Engineering & Manufacturing North America, Inc. Dual-sided display for a vehicle
US20220396205A1 (en) * 2021-06-15 2022-12-15 Toyota Motor Engineering & Manufacturing North America, Inc. Dual-sided display for a vehicle
KR102338534B1 (ko) * 2021-06-18 2021-12-13 주식회사 올비젼 고속 모드에서 전방 차량 충돌 경고 기능이 포함된 avn 장치
WO2023038428A1 (ko) * 2021-09-09 2023-03-16 엘지전자 주식회사 디스플레이 장치, 이를 구비한 차량 및 그 차량의 제어방법
JP2023050027A (ja) * 2021-09-29 2023-04-10 パナソニックIpマネジメント株式会社 表示制御装置、表示制御システム及び表示制御方法
CN116071945A (zh) * 2021-10-29 2023-05-05 通用汽车环球科技运作有限责任公司 交通灯可见性检测和增强显示
GB2613003A (en) * 2021-11-19 2023-05-24 Wayray Ag System and method
US11965374B2 (en) 2021-11-29 2024-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Anti-pinching window
DE102022101137A1 (de) 2022-01-19 2023-07-20 Zf Cv Systems Global Gmbh Verfahren zum Anzeigen einer Umgebung eines Eigenfahrzeuges auf einer Anzeigeeinrichtung, Verarbeitungseinheit und Eigenfahrzeug
US11663939B1 (en) * 2022-03-23 2023-05-30 GM Global Technology Operations LLC Augmented reality head-up display for generating a contextual graphic signifying a visually occluded object
DE102022205932A1 (de) 2022-06-10 2023-12-21 Volkswagen Aktiengesellschaft Verfahren und Warnvorrichtung für ein Fahrzeug zur Warnung eines Nutzers eines Fahrzeugs vor einer temporären Gefahrensituation in einem Fahrzeugumfeld

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1928494A (zh) * 2005-09-07 2007-03-14 株式会社日立制作所 驾驶支援装置
CN101889299A (zh) * 2007-12-05 2010-11-17 博世株式会社 车辆信息显示系统
JP2010287029A (ja) * 2009-06-11 2010-12-24 Konica Minolta Opto Inc 周辺表示装置
WO2011038978A1 (de) * 2009-10-02 2011-04-07 Robert Bosch Gmbh Verfahren zur abbildung des umfelds eines fahrzeugs
CN102027389A (zh) * 2008-04-15 2011-04-20 卡特彼勒公司 障碍检测方法和系统

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69333543T2 (de) 1992-09-30 2005-06-02 Hitachi, Ltd. Unterstützungssystem für den Fahrer eines Fahrzeugs und damit ausgerüstetes Fahrzeug
US8538636B2 (en) * 1995-06-07 2013-09-17 American Vehicular Sciences, LLC System and method for controlling vehicle headlights
JP3883242B2 (ja) 1997-01-22 2007-02-21 本田技研工業株式会社 車両用ヘッドマウントディスプレイ装置
US8686922B2 (en) * 1999-12-15 2014-04-01 American Vehicular Sciences Llc Eye-location dependent vehicular heads-up display system
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
KR100669902B1 (ko) * 2003-12-12 2007-01-16 한국전자통신연구원 지피에스를 이용하는 차량충돌방지를 위한차량안전운행정보 서비스 시스템 및 그 방법
US7561966B2 (en) 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
WO2005080134A1 (en) * 2004-02-20 2005-09-01 Sharp Kabushiki Kaisha Surroundings exhibiting system and surroundings exhibiting method
JP4940767B2 (ja) 2006-06-05 2012-05-30 マツダ株式会社 車両周辺情報報知装置
US8045022B2 (en) 2007-06-12 2011-10-25 Fujifilm Corporation Imaging apparatus for correcting a luminance signal
WO2009026223A2 (en) * 2007-08-16 2009-02-26 Gentex Corporation Vehicle rearview assembly including a display for displaying video captured by a camera and user instructions
JP4697486B2 (ja) * 2008-07-23 2011-06-08 株式会社デンソー 自動車制御システム
KR20100012945A (ko) 2008-07-30 2010-02-09 엘지전자 주식회사 투명한 플렉서블 디스플레이 모듈을 사용하는 내비게이션단말기와 그에 따른 안내 정보 표시방법
EP2168815B1 (en) * 2008-09-24 2014-06-04 Robert Bosch GmbH Method and device for detecting possibly colliding objects in a blind spot area
KR101667699B1 (ko) * 2009-01-08 2016-10-28 엘지전자 주식회사 네비게이션 단말기 및 네비게이션 단말기의 운행안내방법
US8269652B2 (en) * 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8395529B2 (en) * 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US8358224B2 (en) * 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
US8830141B2 (en) * 2009-04-02 2014-09-09 GM Global Technology Operations LLC Full-windshield head-up display enhancement: anti-reflective glass hard coat
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US7924146B2 (en) * 2009-04-02 2011-04-12 GM Global Technology Operations LLC Daytime pedestrian detection on full-windscreen head-up display
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
US8547298B2 (en) * 2009-04-02 2013-10-01 GM Global Technology Operations LLC Continuation of exterior view on interior pillars and surfaces
US8384531B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Recommended following distance on full-windshield head-up display
US8629903B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Enhanced vision system full-windshield HUD
US8330673B2 (en) * 2009-04-02 2012-12-11 GM Global Technology Operations LLC Scan loop optimization of vector projection display
US8384532B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
US8629784B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US8817090B2 (en) * 2009-04-02 2014-08-26 GM Global Technology Operations LLC Luminance uniformity compensation of vector projection display
US20100253595A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Virtual controls and displays by laser projection
US8344894B2 (en) * 2009-04-02 2013-01-01 GM Global Technology Operations LLC Driver drowsy alert on full-windshield head-up display
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
US8477425B2 (en) * 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
JP5018926B2 (ja) * 2010-04-19 2012-09-05 株式会社デンソー 運転補助装置、及びプログラム
KR20110134077A (ko) 2010-06-08 2011-12-14 현대모비스 주식회사 Lcd를 이용한 연락번호 표시장치 및 그 방법
KR101131983B1 (ko) 2010-07-28 2012-03-29 안희경 차량속도에 따라 가상 영상정보 이미지의 투영위치를 변화시키는 차량용 헤드업 디스플레이 장치
DE102010040803A1 (de) 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
JP5573530B2 (ja) * 2010-09-15 2014-08-20 トヨタ自動車株式会社 車両の制御装置
US8605009B2 (en) * 2010-12-05 2013-12-10 Ford Global Technologies, Llc In-vehicle display management system
US8692739B2 (en) * 2011-09-22 2014-04-08 GM Global Technology Operations LLC Dynamic information presentation on full windshield head-up display
US8781170B2 (en) * 2011-12-06 2014-07-15 GM Global Technology Operations LLC Vehicle ghosting on full windshield display
KR101793628B1 (ko) * 2012-04-08 2017-11-06 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1928494A (zh) * 2005-09-07 2007-03-14 株式会社日立制作所 驾驶支援装置
CN101889299A (zh) * 2007-12-05 2010-11-17 博世株式会社 车辆信息显示系统
CN102027389A (zh) * 2008-04-15 2011-04-20 卡特彼勒公司 障碍检测方法和系统
JP2010287029A (ja) * 2009-06-11 2010-12-24 Konica Minolta Opto Inc 周辺表示装置
WO2011038978A1 (de) * 2009-10-02 2011-04-07 Robert Bosch Gmbh Verfahren zur abbildung des umfelds eines fahrzeugs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111824164A (zh) * 2019-04-11 2020-10-27 泰州市朗嘉尚网络科技有限公司 周围信息采集显示方法
CN114365207A (zh) * 2019-09-12 2022-04-15 三菱电机株式会社 驾驶辅助装置、车辆控制装置、驾驶辅助系统和驾驶辅助方法
CN112437320A (zh) * 2020-11-10 2021-03-02 维沃移动通信有限公司 视频画面显示方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
CN104428707B (zh) 2018-07-27
WO2014010931A1 (en) 2014-01-16
CN104428707A (zh) 2015-03-18
KR20140007709A (ko) 2014-01-20
US20140019005A1 (en) 2014-01-16
EP2872944A1 (en) 2015-05-20
EP2872944B1 (en) 2019-09-11
US9767693B2 (en) 2017-09-19
US20170352277A1 (en) 2017-12-07
EP2872944A4 (en) 2016-05-11
US10115312B2 (en) 2018-10-30
KR102028720B1 (ko) 2019-11-08

Similar Documents

Publication Publication Date Title
CN104428707B (zh) 用于显示危险元素的信息的透明显示设备及其方法
EP3413118B1 (en) Information providing method and information providing vehicle therefor
KR102104500B1 (ko) 정보 제공 방법 및 이를 위한 정보 제공 차량
US11003919B1 (en) Systems and methods for detecting traffic violations using mobile detection devices
WO2014128051A1 (en) Method and apparatus for determining travel path geometry based on mapping information
CN103471597B (zh) 以不同光线效果显示提示讯息的导航装置与导航方法
CN109803867A (zh) 用于将视线确保图像提供给车辆的方法及用于其的电子设备和计算机可读记录介质
CN109644052B (zh) 对光通信源的数据处理和认证
Naranjo et al. Application of vehicle to another entity (V2X) communications for motorcycle crash avoidance
CN106796755A (zh) 在抬头显示器上增强路面对象的安全系统
TW201123024A (en) Method of detecting, populating and/or verifying conditions, attributions, and/or objects along a navigable street network and system therefor
AU2013279017A1 (en) Device context determination
CN103328930A (zh) 非基于地图的移动接口
JP2019215871A (ja) 眼鏡型ウェアラブル端末及びその制御プログラム並びに通知方法
CN103092924A (zh) 实时数据驱动的交通数据三维可视化分析系统及方法
KR20120079341A (ko) 맵데이터갱신방법, 이를 수행하는 전자기기 및 기록매체
US11551590B2 (en) Messaging display apparatus
US20220379806A1 (en) System and Method for Roadway User Safety
CN116569231A (zh) 用于用户安全和体验的车辆控制
US10399627B2 (en) Wearable signaling system and methods
CN107852583A (zh) 车载装置位置确定
US20220080879A1 (en) External facing communications for autonomous vehicles
CN109683774A (zh) 交互式显示系统及交互式显示控制方法
US20220223024A1 (en) Operator proficiency-based infrastructure articles
Mekni et al. Real-Time Smart Parking Integration in Intelligent Transportation Systems (ITS)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181207