CN104272371B - 透明显示设备及其方法 - Google Patents
透明显示设备及其方法 Download PDFInfo
- Publication number
- CN104272371B CN104272371B CN201380019007.1A CN201380019007A CN104272371B CN 104272371 B CN104272371 B CN 104272371B CN 201380019007 A CN201380019007 A CN 201380019007A CN 104272371 B CN104272371 B CN 104272371B
- Authority
- CN
- China
- Prior art keywords
- information
- user
- transparent display
- display device
- transparent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
- G09F9/35—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being liquid crystals
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/30—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
- G09G3/32—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
- G09G3/3208—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Slot Machines And Peripheral Devices (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
一种透明显示设备和用于将信息显示在透明显示设备上的方法,所述方法包括:感测对象的位置;感测用户的位置;确定透明显示器中的区域,其中,用户能够透过所述区域看到对象;基于所述区域将信息显示在所述透明显示器上。
Description
技术领域
与示例性实施例一致的设备和方法涉及一种透明显示设备及其显示方法,更具体地涉及一种考虑用户在查看透明显示器后面的对象时还能看清显示在透明显示器上的透明显示器的各个区域上的对象,来将对象显示在透明显示器上的显示设备及其显示方法。
背景技术
电子技术上的进步已引入在许多领域中对于多种显示设备的使用,并且越来越多的研究和讨论集中于下一代显示设备,诸如,透明显示设备。
透明显示设备指具有允许用户透过透明显示设备的背面观看的透明特性的设备。相反,非透明半导体复合物(诸如,硅(Si)或砷化镓(GaAs))被用于制造显示面板。然而,随着已探索各种应用领域以扩大现有显示面板的能力,继续进行各种努力来开发电子装置的新形式。透明显示设备是通过这些努力获得的成果之一。
透明显示设备通常包括将透明特性赋予透明显示设备的透明氧化物半导体层。因此使透明显示设备的用户在透过透明显示设备的背面查看透明显示设备后面的对象时,能够在透明显示设备的屏幕上看到期望的信息。也就是说,消除了现有技术的显示设备的空间和时间限制。
可在各种环境中方便地使用透明显示设备。例如,在商店的展示橱窗中,当潜在客户经过展示橱窗时在展示橱窗上显示广告,从而吸引用户的注意。可选地,透明显示设备可被安装在房屋的窗户上,其中,透明显示设备在仍然使用户能够在房屋外部观看的同时,允许用户观看房屋窗户上的多媒体内容。
尽管透明特性相比现有技术的显示设备提供了许多改进的优点,但透明显示设备也具有由于其透明特性而导致的缺点。例如,可能由于屏幕的透明性和透过透明显示器可看得见的其他对象干扰,导致显示在透明显示设备上的信息的可视性较差。
发明内容
技术问题
因此,能够使用透明显示设备以进行移动使得容易地看到在透明显示设备上显示的信息的技术是有必要的。
技术方案
示例性实施例克服以上缺点和以上未描述的其他缺点。此外,示例性实施例不需要克服上述缺点,并且示例性实施例可不克服上述问题中的任何一个。
根据示例性实施例的一方面,提供了一种透明显示设备,所述设备包括:透明显示器;至少一个传感器,感测对象的位置和用户的位置;控制器,基于对象的位置和用户的位置来确定透明显示器中的区域,并基于所述区域控制透明显示器将信息显示在透明显示器上,其中,用户能够透过所述区域看到对象。
对象的位置可以是相对于透明显示设备的位置的位置,用户的位置可以是相对于透明显示设备的位置的位置。
所述至少一个传感器可包括至少一个相机,其中,所述至少一个相机拍摄对象和用户,基于对象的照片来感测对象的位置,并基于用户的照片来感测用户的位置。
控制器可确定用户和对象之间的视线,并可基于所述视线来确定所述区域。
控制器可基于所述视线来确定所述区域。
控制器可控制透明显示器将信息显示在透明显示器的不与所述区域重叠的另一区域上。
控制器可控制透明显示器以第一颜色显示信息,其中,第一颜色不同于对象的第二颜色。
控制器可控制透明显示器将信息显示在透明显示器上的第一位置,响应于所述至少一个传感器感测到对象的位置和用户的位置中的至少一个,确定第一位置与所述区域重叠,并响应于确定第一位置与所述区域重叠,确定不与所述区域重叠的第二位置。
控制器可控制透明显示设备将信息显示在第二位置。
透明显示设备可介于对象和用户之间。
控制器可控制透明显示器将信息显示在透明显示器上的第一位置,响应于所述至少一个传感器感测到对象的位置和用户的位置中的至少一个,确定第一位置与所述区域重叠,并调整信息的属性。
所述属性可以是颜色,并且控制器可控制透明显示设备以第一颜色显示信息,其中,第一颜色不同于对象的第二颜色。
所述属性可以是尺寸、颜色、字体、不透明度、粗细度和背景颜色中的至少一个。
所述至少一个传感器可包括:第一拍摄单元,捕获对象的照片;第一检测器,使用照片的图像像素信息来感测边缘;第二检测器,使用感测到的边缘来识别照片中的对象,并感测识别出的对象的位置和识别出对象的识别区域。
控制器可使用感测到的识别区域的尺寸和位置来估计所述区域。
控制器可将透明显示器被划分成的多个虚拟划分区域中的被识别区域占据的虚拟区域确定为所述区域。
虚拟划分区域可被映射到矩阵表,并且控制器可根据矩阵表的单元的映射到所述区域的单元和映射到信息的单元之间的相关性,调整信息的位置。
控制器可在调整信息的位置的同时改变信息的属性,并且所述属性可以是尺寸、不透明度、颜色、粗细度、字体和背景颜色中的至少一个。
所述透明显示设备可还包括存储矩阵表的存储器,并且控制器可调整信息的位置以消除与由第一传感器感测到的对象的位置匹配的单元的重叠。
第一拍摄单元可包括多个第一拍摄单元,并且控制器可选择性地驱动所述多个第一拍摄单元中的与由第二传感器感测到的用户的位置相应的拍摄单元以执行拍摄。
第一拍摄单元可根据用户的位置旋转。
所述至少一个传感器还可包括捕获用户的照片的第二拍摄单元和使用照片来感测用户的位置的用户位置检测器,并且控制器可使用用户的位置来估计用户的视场,并将信息显示在所述视场中。
控制器可基于用户的位置来确定用户与透明显示设备的距离,并基于所述区域和所述距离来显示信息。
控制器可将用户界面(UI)显示在与用户的位置相应的区域。
根据另一示例性实施例的一方面,提供了一种将信息显示在透明显示器上的方法,所述方法包括:感测对象的位置;感测用户的位置;确定透明显示器中的区域,其中,用户能够透过所述区域看到对象;基于所述区域将信息显示在透明显示器上。
根据另一示例性实施例的一方面,提供了一种非暂时性计算机可读记录介质,所述介质上已记录促使计算机执行将信息显示在透明显示器上的方法的程序,所述方法包括:感测对象的位置;感测用户的位置;确定透明显示器中的区域,其中,用户能够透过所述区域看到对象;基于所述区域将信息显示在透明显示器上。
有益效果
因此,在各种实施例中,提高了显示在透明显示设备上的对象的可视性。
附图说明
通过参照附图描述特定示例性实施例,以上和其他方面将会更加明显,其中:
图1示出根据示例性实施例的透明显示设备的操作;
图2是根据示例性实施例的透明显示设备的框图;
图3是示出根据示例性的在透明显示设备中实现的透明显示器;
图4示出根据示例性实施例的在透明显示设备中实现的透明显示器;
图5是根据示例性实施例的透明显示设备的框图;
图6示出被划分为多个区域的透明显示器;
图7是提供的用来解释用于使用映射到图6的透明显示器的矩阵表来记录可视性下降的区域的方法的示图;
图8是提供的用来解释用于使用图7的矩阵表来移动对象的方法的示图;
图9示出根据示例性实施例的具有用于拍摄用户和对象的拍摄单元的透明显示设备;
图10是提供的用来解释用于基于用户的位置和对象的位置来计算透射区域的方法的示图;
图11示出包括根据用户的位置适应性地进行操作的多个拍摄单元的透明显示设备;
图12和图13是提供的用于解释追踪用户的眼动的方法的示图;
图14是提供的用来解释用于修改矩阵表的方法的示图;
图15是提供的用于解释被实现为膝上型计算机的形式的透明显示设备的操作的示图;
图16是提供的用于解释对象的移动的示图;
图17是提供的用于解释显示信息重叠的示图;
图18是提供的用于解释改变信息的布局的示图;
图19是提供的用于解释显示的信息根据用户的移动而移动的实施例的示图;
图20是提供的用于解释车辆中实现的透明显示设备的操作的示图;
图21示出根据示例性实施例的设置屏幕;
图22和图23是提供的用于解释根据示例性实施例的将信息显示在透明显示设备上的操作的流程图;
图24是提供的用于解释根据示例性实施例的透明显示设备的操作的示图;
图25是提供的用于解释根据示例性实施例的透明显示设备的操作的示图;
图26是提供的用于解释根据用户信息显示信息的示图;
图27是根据示例性实施例的透明显示设备的控制器的详细框图;
图28示出由控制器使用的软件层次结构;
图29示出根据用户的移动显示用户界面(UI)屏幕;
图30和图31是示出根据与用户的距离来调整信息显示区域的尺寸的示图;
图32是提供的用来解释用于根据用户的视场来改变信息显示区域的位置的方法的示图;
图33是提供的用来解释用于基于用户信息来改变显示的信息的属性的方法的示图;
图34是提供的用来解释用于根据用户信息来改变信息的内容的方法的示图;
图35是提供的用于解释实现在相机中的透明显示设备的操作的示图;
图36示出根据示例性实施例的透明显示设备。
具体实施方式
现在将参照附图更详细地描述示例性实施例。
在以下描述中,在不同附图中,相同附图标号用于相同元件。提供在描述中限定的事宜(诸如详细构造和元件)以帮助全面理解示例性实施例。然而,可在没有那些具体限定的事宜的情况下来实施示例性实施例。此外,由于公知的功能或构造将利用不必要的细节来模糊描述,因此不详细描述它们。
图1示出根据示例性实施例的透明显示设备。
参照图1,透明显示设备100可包括透明显示屏幕,其中,透明显示屏幕允许用户透过透明显示设备100的背面来观看。如上所讨论的,透明显示设备100的缺点是显示在透明显示设备100上的信息可能与透过透明显示设备100可看得见的背景重叠或互相干扰,从而导致显示的信息的可视性下降。
参照图1,如果对象20位于透明显示设备100的第一方向上,用户10位于透明显示设备100的第二方向上,则用户10能够透过透明显示设备查看对象20。为了方便解释,关于透明显示设备100的第一方向和关于透明显示设备100的第二方向将被称为前方向和后方向,从而用户所位于的第二方向将被称为面对透明显示设备100的前面的前方向,而与用户相对的第一方向将被称为面对透明显示设备100的后面的后方向。由于用户和对象可位于透明显示设备100的任何方向(诸如透明显示设备100的上面、下面或侧面),所以方向不限于前方向和后方向。
透明显示设备100可确定对象20相对于透明显示设备100的位置和用户10相对于透明显示设备100的位置,并随后基于确定的位置来确定将被显示在透明显示设备100上的信息的属性。信息的属性可以是信息的位置、颜色、或尺寸。透明显示设备100可随后根据评估的结果来显示信息(例如设置显示在透明显示设备上的信息的位置、颜色或尺寸)以考虑由于对象20的存在而导致的干扰。
以下将参照附图更详细地解释用于实现透明显示设备100的方法和透明显示设备100的结构。
如这里使用的,“对象”20可以是各种对象(包括可购买的商品、动物、植物、水果、墙壁或壁纸等)中的任何一个或更多个。
考虑到透过透明显示设备100可看得见对象20,透明显示设备100可显示信息30。如这里使用的,显示在透明显示设备100上的“信息”30可指图像、文本、图形、产生内容的屏幕、运行应用的屏幕、网页浏览器屏幕或可在透明显示设备100上显示的其他各种图形对象。
透明显示设备100可分别检测用户10和对象20的位置,并估计透明显示器中的区域,其中,用户透过所述区域看到对象20。也就是说,透明显示设备100可确定从用户透过透明显示设备100到对象20的视线,并基于该视线确定用户透过其感知对象20的透明显示设备100的区域。为了方便解释,透过其看到对象的区域将被简称为“透射区域”。如果信息被显示在透射区域上,则显示在透明显示设备100上的信息30的可视性会因为透过透明显示设备还可查看到的对象的存在而下降。因此,透射区域也可被称为“可视性下降的区域”。
透明显示设备100可将透明显示设备100的整个区域划分为多个预设尺寸的虚拟划分区域以估计透射区域。使用划分的虚拟划分区域,透明显示设备100可基于用户10的位置和对象20的位置来估计透射区域。
在一个示例中,透明显示设备100可通过考虑映射区域10′和映射区域20′之间的相关性来估计透射区域,其中,映射区域10′将用户10的位置和形状映射到显示器表面,映射区域20′将对象20的位置和形状映射到显示器表面。例如,两个映射区域的重叠区域10'∩20'可被估计为透射区域。
透明显示设备100可将虚拟划分区域映射到矩阵表中,以准确地计算各自的映射区域10和20。在矩阵表中,考虑映射到用户的映射区域10的单元和映射到对象20的映射区域20的单元之间的相关性来确定重叠以显示信息30。如果两个映射区域10和20重叠,则可确定透射区域,并且透明显示设备100可考虑透射区域而调整显示信息30的位置。
也就是说,如果估计出透射区域,则透明显示设备100可将显示在透射区域上的信息30移动到另一区域以避免可视性降低,并在不同位置处显示信息30。可考虑透射区域和信息30之间的重叠程度、重叠区域在透明显示设备100上的位置或透明显示设备100的可保证信息30的可视性的另一区域的位置,来确定移动信息30的方法。
透明显示设备100可对信息30的各种显示属性(包括尺寸、颜色、粗细或字体)连同信息30的位置一起进行调整,或者可与信息30的位置分离地对信息30的各种显示属性进行调整。
在示例性实施例中,透明显示设备100可将对象20的特点与信息的显示属性进行比较。例如,透明显示设备100可确定与显示的信息30重叠的透射区域的尺寸、与显示的信息30重叠的对象20的颜色、对象20和透明显示设备100之间的距离或用户10和透明显示设备100之间的距离,并根据确定的结果来改变信息30的显示属性。
换言之,如果透射区域中对象的颜色与显示的信息30的颜色相似,则可改变信息30的颜色,并且可将信息30显示为具有改变后的颜色以使信息30区别于对象20并提高信息30的可视性。此外,如果用户距透明显示设备100较远,则可放大显示的信息的尺寸,而如果用户距透明显示设备100较近,则可缩小显示的信息的尺寸。如果透射区域的尺寸相对较宽,则由于用于显示信息的距离变长,则可改变信息的布局以符合适合变长的方向的形式。如果对象20在远处,则对象20的放大的图像可作为信息30被提供。
可自动执行调整显示的信息30。例如,透明显示设备100可确定对象20的位置和用户10的位置以检测透射区域,并根据透射区域来改变显示的信息30的位置。然而,可根据其他条件(例如,如果用户打开用于自动运行信息30的适应性显示的功能)来设置信息30的动态显示。可选地,条件可以是显示的信息30的位置包括在透射区域中的一段时间,并且如果信息30的位置位于透射区域中超过预设时间,则可对信息30进行调整。
图2是根据示例性实施例的透明显示设备的框图。
参照图2,透明显示设备100可包括第一传感器110、第二传感器120、控制器130和透明显示器140。
第一传感器110可检测对象相对于透明显示设备100的位置。第二传感器可检测用户相对于透明显示设备100的位置。控制器130可考虑感测到的对象的位置和用户的位置,将信息显示在透明显示器140上。
第一传感器110和第二传感器120可以各种方式检测对象的位置和用户的位置。为了方便描述,对第一传感器110和第二传感器120单独进行描述,但单个传感器可检测对象的位置和用户的位置。在下文中,将解释根据各种实施例的用于在第一传感器110和第二传感器120进行感测的方法。
在一个示例性实施例中,第一传感器110可使用拍摄装置(诸如相机)拍摄背景图像,分析拍摄的背景图像,并检测与对象的距离或对象的位置。以下将参照图5详细对此进行解释。
在另一示例性实施例中,第一传感器110可使用光学传感器检测从特定方向接收到的光(诸如在透明显示设备100的前面接收到的光)的强度,并通过分析光的强度的分布来检测对象的位置。
光学传感器可被实现为光电二极管、光电晶体管或电荷耦合器件(CCD)等,并可均匀地分布在透明显示器140的整个区域上。各光学传感器可计算来自于所有方向的入射光的强度。通常,如果对象20和对象20所在的背景被不同地着色,则从对象20反射的光的强度和从背景反射的光的强度不同。因此,可通过以下步骤确定对象20的位置:感测穿过透明显示器140的放射光的强度,并基于强度确定对象20的位置。
在另一示例性实施例中,用户可确定对象的位置并将该位置输入到透明显示设备100。在这种情况下,第一传感器110可被实现为输入工具,诸如,触摸屏、键盘、鼠标、操纵杆、触摸板或按钮等。
透明显示器140的整个区域可被划分为多个区域(例如,9个区域)。如果用户选择区域中的一个或更多个区域,则选择的区域可被直接确定为与透射区域相应的显示区域。因此,信息可被显示在除了用户选择的透射区域之外的区域。
在另一示例性实施例中,第一传感器110可被实现为短程无线通信模块。短程无线通信模块可指包括短程无线通信标签或短程无线通信读写器或以上两者的模块。当在与贴有短程无线通信标签的外部对象的通信范围内时,短程无线通信读写器进行操作以根据短程无线通信来读取写在短程无线通信标签上的信息。这可被称为“贴标签”,在贴标签过程中短程无线通信标签和短程无线通信读写器位于彼此的通信范围内。短程无线通信的一个示例可以是近场通信(NFC)。NFC是装置在短距离上通信的非接触式无线通信方法,该无线通信方法使用13.56Mz频带。利用NFC技术,当多个终端在预定距离(诸如大约10cm)内靠近彼此时,能够发送和接收数据。
在一个示例性实施例中,如果贴有NFC标签的对象与第一传感器110贴标签,则第一传感器110可从NFC标签接收关于对象的位置的信息,并基于从NFC标签接收到的数据来确定对象的位置。
在另一示例性实施例中,第一传感器110可以是集成拍摄单元和NFC模块。在这种情况下,由于贴有NFC标签的对象被贴标签,所以可接收记录在NFC标签中的包括对象的形状或颜色的属性信息。可随后通过从由拍摄单元捕获的图像之中感测与属性信息相应的区域,确定对象的实际位置。
如上所解释的,在各种示例性实施例中,第一传感器110可检测对象的位置。然而,第一传感器110可感测除了对象的位置之外的信息,诸如,对象的颜色、写在对象上的文本或印在或贴在对象上的图像。例如,为了感测颜色,可基于用相机拍摄的图像来感测边缘,并且可感测感测到的边缘的内部的颜色。可选地,可经由NFC标签来提供想要的对象的颜色信息。也可通过读取通过相机捕获的图像、通过图像读取算法或通过短程无线通信,感测文本或图像数据。当感测到颜色、文本或图像时,透明显示设备100可确定对象的类型并显示相应的信息。尽管第一传感器110可检测对象的位置,但对象的位置可被输入和设置在透明显示设备中,因此,对象的位置可以是已知的并且可省略第一传感器110。
第二传感器120可检测用户的位置,例如,在透明显示设备100的前面的用户的位置。
像第一传感器110一样,第二传感器120也可使用拍摄装置或光学传感器来检测用户的位置。
在另一示例性实施例中,第二传感器120可被实现为位于不同位置的多个短程无线通信模块。当用户采用NFC与传感器贴标签时,用户的位置可被确定为传感器的位置。
第二传感器120可包括多个短程无线通信模块,并基于透明显示器的安装了被贴标签的模块的区域来感测透射区域。具体而言,如果透明显示设备100被实现为大规模展示橱窗,则可在展示橱窗的外表面上或在展示橱窗的周围以预定间隔安装多个短程无线通信模块。
行人可停在行人看到行人感兴趣的商品的位置处,并将用户终端装置与附近的短程无线通信模块贴标签。这里使用的“用户终端装置”可以是配备有短距离无线通信模块的移动电话、PDA、平板PC或MP3播放器。可选地,用户可用名片或信用卡来为无线通信模块贴标签,其中,在名片或信用卡中配备有短距离无线通信标签。如果用户执行贴标签操作,则第二传感器120确定在贴有标签的短程无线通信模块的位置处存在用户,并通过考虑展示室橱窗后面的对象的位置和用户的位置来估计透射区域。
可选地,第二传感器120可包括布置在关于透明显示器140的方向上的地板上的多个传感器。传感器可以是光学传感器、压力传感器或运动识别传感器。因此,当用户站在预定点时,布置在该点处的传感器感测用户的存在。第二传感器120可将感测到用户的存在的传感器的位置确定为用户的位置。
如上所解释的,在第一传感器110感测对象的位置和在第二传感器120感测用户的位置的方式可变化。
基于分别在第一传感器110和第二传感器120感测到的对象20的位置和用户10的位置,控制器130可估计透射区域(即,估计当用户10看透明显示器140时在透明显示器140上看到对象20的区域)。
控制器130可随后确定透明显示器140是否在透射区域内显示信息30,并确定将显示信息的位置移动到另一区域。如上所讨论的,控制器130可调整信息30的其他属性(诸如颜色或尺寸),而不是改变位置。
透明显示器140可在用户透过透明显示器140感知对象20而不被信息30遮挡的状态下显示信息30。如上所解释的,可以以各种方式实现信息。如果信息30和透射区域重叠,则透明显示器140可将信息30移动到由控制器130确定的不与透射区域重叠的位置。因此,由于信息30被调整,所以用户可更容易地区分信息30和对象,因此,信息30的可视性提高。
透明显示器140可被实现为透明液晶显示器(LCD)类型、薄膜电致发光面板(TFEL)类型、透明OLED类型、投影类型或许多其他类型。在下文中,将解释根据各种实施例的透明显示器140的结构。
“透明LCD”指通过从当前可用的LCD设备移动背光单元并使用一对偏振面板、光学薄膜、透明薄膜晶体管和透明电极而实现的透明显示设备。尽管透明LCD的缺点可包括由于使用偏振面板或光学薄膜而导致的透射性下降以及由于透明LCD需要使用环境光而不是背光单元而导致光学效率下降,但透明LCD提供了实现大范围透明显示的优点。
“透明TFEL”指使用由透明电极、无机荧光物质或绝缘层组成的AC无机薄膜电致发光显示器(AC-TFEL)的设备。AC-TFEL是当在有机荧光内加速的电子在穿过荧光物质时激活荧光物质时发光的显示器。控制器130可通过控制使得电子被投影到合适的位置来确定显示的信息的位置。由于无机荧光物质的透明特性和绝缘层,可实现相当透明的显示器。
“透明OLED”指使用自发光的OLED的透明显示设备。因为有机发光层是透明的,所以透明显示设备可通过在有机发光层的两边采用透明电极来构建透明显示设备。当电子和空穴被注入在有机发光层的两边上以在有机发光层中相互结合时,OLED发光。透明OLED设备使用以上原理来显示信息,即通过将电子和空穴注入到期望的位置来显示信息。
图3示出透明OLED类型的透明显示器的详细结构。为方便解释,透明OLED类型的透明显示器将被用标号“140-1”来表示。
参照图3,透明显示器140-1可包括透明基板141-1、透明晶体管层142-1、第一透明电极143-1、透明有机发光层144-1、第二透明电极145-1和连接电极146-1。
透明基板141-1可使用聚合物材料(诸如,具有透明特性的塑料或玻璃)。透明基板141-1的材料可根据使用透明显示设备100的环境来确定。例如,聚合物材料由于质量轻和灵活的优点而被用于便携式显示设备,而玻璃由于耐用性和强度而被用于商店的橱窗或建筑物的窗户中。
“透明晶体管”142-1指包括由透明材料(诸如氧化锌或氧化钛)(而不是传统的非透明薄膜晶体管的硅)制成的晶体管的层。透明晶体管层142-1可包括其中的源极、栅极、漏极和其他各种电解质层147-1、148-1,并还可包括用于将漏极电气地连接到第一透明电极143-1的连接电极146-1。尽管图3仅示出透明晶体管层142-1内的包括源极、栅极和漏极的一个透明晶体管,但在实际的实现中,多个透明晶体管可被均匀地分布在显示器表面的整个区域上。控制器130可将控制信号应用于透明晶体管层142-2的各个晶体管的栅极以驱动相应的透明晶体管显示信息。
第一透明电极143-1和第二透明电极145-1可相对于透明有机发光层144-1彼此相对地布置。第一透明电极143-1、透明有机发光层144-1和第二透明电极145-1可构建有机发光二极管。
透明有机发光二极管可被大致分为无源矩阵OLED(PMOLED)类型和有源矩阵OLED(AMOLED)类型。PMOLED具有第一透明电极143-1和第二透明电极145-1在相交处形成像素的结构。AMOLED具有采用薄膜晶体管(TFT)来驱动各个像素的结构。图3示出AMOLED。
第一透明电极143-1和第二透明电极145-1均包括以相互垂直的关系布置的多个线电极。例如,如果第一透明电极143-1的线电极被布置在水平方向上,则第二透明电极145-1的线电极被布置在垂直方向上。因此,在第一透明电极143-1和第二透明电极145-1之间定义了多个交点。参照图3,透明晶体管被连接到各个交点。
控制器130使用透明晶体管使电位差被形成在各个交点处。当电子和空穴从形成电位差的交点中的各个电极被引入到透明有机发光层144-1时,光被发出。相反,没有形成电位差的交点不发光,因此,背景上的对象是可见的。
氧化铟锡(ITO)可被用作第一透明电极143-1和第二透明电极145-1。可选地,可使用诸如石墨烯的新材料。石墨烯具有透明特性并具有碳原子相互连接的平面网状结构。其他各种材料可被用作透明有机发光层144-1。
如上所解释的,透明显示器140可被实现为透明LCD类型、透明TFEL类型、透明OLED类型或投影类型。“投影类型”指通过将图像投影在透明屏幕(诸如平视显示器(HDD))上来进行显示的类型。
图4示出被实现为投影类型的透明显示设备的透明显示器的详细组成。在一个示例性实施例中,将用标号“140-2”来表示投影类型的透明显示器。
投影类型的透明显示器140-2可包括透明屏幕141-2、光学装置142-2和光源143-2。
光源143-2可辐射光以使用多种光源(包括真空荧光显示屏(VFD)、阴极射线管(CRT)、LCD或LED等)来标记信息。
光学装置142-2向透明屏幕141-2发射从光源143-2辐射的光,以对从光源143-2辐射的光进行投影。光学装置142-2可被实现为可包括一个或更多个透镜和反射镜的导光板。
光源143-2和光学装置142-2可被集成在一个单个显示模块中。因此,光源143-2和光学装置142-2可被布置在透明屏幕141-2的上面、下面、左面或右面上的边界上,使得光被投影到用于显示信息的透明屏幕141-2上。可选地,光源143-2和光学装置142-2可被实现为使用激光作为光源的全息类型。在这一示例中,通过使用激光可将信息直接描绘在透明屏幕141-2上。
透明屏幕141-2可由普通玻璃制成。当透明显示设备100被用来应用于移动对象(诸如车辆、轮船或飞机)的窗户或普通房屋的窗户或商店的展示橱窗中时,可采用图4的透明显示器140-2的结构。如上所解释的,可在各种位置处在各种环境中实现用于感测用户和对象的位置、基于感知到的位置构建屏幕并显示结果图像的透明显示设备100。
控制器130可基于用户的位置和对象的位置来确定透射区域。以下将解释用于确定透射区域的方法。
如上所解释的,可以以各种方式来确定用户的位置和对象的位置。图5示出通过使用拍摄单元(诸如相机)来检测用户的位置和对象的位置的透明显示设备。
图5是根据示例性实施例的透明显示设备的框图。参照图5,透明显示设备100可包括第一传感器110、第二传感器120、控制器130、透明显示器140、存储器150和输入器160。
第一传感器110感测对象的位置。第一传感器110可包括第一拍摄单元111、第一检测器112和第二检测器113。
第一拍摄单元111在透明显示设备100的第一方向上执行拍摄。因此,第一拍摄单元111可在第一方向上拍摄包括该对象的一个或更多个对象。为了方便解释,由第一拍摄单元111拍摄的图像可被称为“背景图像”。
第一检测器112可使用背景图像的各个图像像素信息来检测各个对象的边缘。可根据各种检测算法来执行边缘检测。
在一个示例性实施例中,第一检测器112可将背景图像划分为(m*n)像素单元的多个块。第一检测器112可检测各个块的代表值。代表值可以是块内全部像素的平均像素值,块中各个像素的像素值中最高像素值或作为各个像素的像素值相加的结果而获得的总像素值。第一检测器112可将感测到的各个代表值相互比较,并确定是否存在相互连续地排列的具有相似的代表值的块。包括在拍摄同一对象的区域中的块可能具有相似范围的代表值。
如果确定了连续的相似块,则第一检测器112可基于这样的块来检测边缘:所述块相应于具有与确定的相似块的代表值不同的代表值的块的边界。
使用检测到的边缘,第二检测器113可从由第一拍摄单元111拍摄的对象中识别对象,并在拍摄的图像上检测区别出的对象的位置和识别区域。通过示例的方式,如果在第一检测器112检测出的边缘形成闭合曲线,则第二检测器113可基于背景图像的全部块之中包括在闭合曲线中的特定块的位置来检测对象的位置。第二检测器113可随后将背景图像和透明显示器114的整个区域进行比较并检测从透明显示器140的整个区域识别出对象的识别区域。
同时,透明显示设备100可基于各个对象的特征,检测对象的位置和识别区域。可经由短程无线通信或其他通信方式直接从对象提供或从其他资源提供关于特征的信息。例如,如果各个对象均配备有NFC标签并且透明显示设备100配备有NFC读写器,则能够通过将对象贴标签到NFC读写器来接收关于对象的特征的信息。特征可包括对象的颜色、形状、尺寸或排布的位置。第二检测器113可基于在背景图像上检测到的边缘,区分包括在背景图像中的各个对象。因此,在识别的对象中,第二检测器113可将与特征匹配的特定对象感知为对象20,并检测对象20的位置。例如,如果对象20在对象展示架上,则展示架也可被包括拍摄的图像的背景图像中。在这种情况下,第二检测器113可基于具有与对象20的颜色匹配的图像像素信息的区域,检测相应的对象20的位置。
可选地,可从服务器或对象的供应商的终端接收关于对象的特征的信息,或者经由连接到透明显示设备100的输入工具来直接输入特征信息。如上所解释的,第二检测器113可使用经由各种资源提供的特征信息,准确地检测对象的透射区域。
第二传感器120可包括第二拍摄单元121和用户位置检测器122。第二拍摄单元121可在在透明显示设备100的第二方向上执行拍摄。因此,获得前景图像。
用户位置检测器122可通过分析由第二拍摄单元121捕获的前景图像来检测用户的位置。可以以与以上使用的通过第一检测器112检测对象的位置相同的方式来实现用于感测用户的位置的方法。
此外,与用户相关的特征还可被提前注册,或从用户终端或包括由用户配备的短程无线通信模块的标签被提供。因此,可基于用户的特征信息来准确地检测用户的位置。
同时,根据实施例可以以各种方式来确定第一传感器110和第二传感器120执行检测的时间。
在一个示例中,控制器130可根据由放置、带来或使用对象的人进行的外部输入来驱动第一传感器110和第二传感器120。例如,如果用户触摸透明显示器140的表面,或如果预定输入信息经由单独提供的输入工具被输入,则控制器130可驱动第一传感器110和第二传感器120检测对象的位置和用户的位置。如果透明显示设备100包括语音识别模块或运动识别模块,则第一传感器110和第二传感器120还可响应于预定语音或姿势被驱动。图5中示出的示例性实施例描述了第一传感器110和第二传感器120通过使用拍摄来检测对象的位置和用户的位置的情况。然而,除了拍摄之外的各种方式(诸如光学传感器、NFC或用户的直接设置等)可被实现以用于第一传感器110和第二传感器120的操作。例如,可响应于用于执行位置识别的用户命令,经由拍摄、光学感测、NFC或由用户指定的区域来感测位置。
在另一示例性实施例中,如果透明性显示设备100包括运动传感器,则控制器130可使用运动传感器来检测用户或对象的移动,并且如果移动停止了比预定时间更长的时间,则驱动第一传感器110和第二传感器120检测对象的位置和用户的位置。这可防止不必要地功率消耗。
在另一示例性实施例中,如果透明显示设备100包括NFC模块,当进行贴标签时,第一传感器110和第二传感器120可被驱动来检测对象的位置和用户的位置。具体而言,可在商店中布置对象并且可在商店或透明显示设备100中配备NFC模块。在这种情况下,当用户的NFC读写器对配备在商店或透明显示设备100中的NFC模块贴标签时,控制器130可激活第一传感器110和第二传感器120。
控制器130可基于由第一传感器110感测到的对象的位置和由第二传感器120感测到的用户的位置来确定透射区域。
控制器130可将透明显示器140的整个区域划分为多个区域,并基于从对象的位置可看到对象的区域来确定透射区域。如果信息被显示在透射区域中,则控制器130可改变显示的信息的位置,或如果最初在用户不在时信息没被显示,则控制器130可控制透明显示器140一旦检测到用户的位置就显示信息。
存储器150可存储由第一拍摄单元111和第二拍摄单元121拍摄的图像、关于对象的位置和用户的位置的信息、各种其他信息、由用户设置的关于透明显示设备100的操作的各种设置、系统操作软件或各种应用程序。
输入器160接收关于透明显示设备100的操作的用户命令。输入器160可被实现为各种形式,包括在透明显示器140上实现的触摸屏、在透明显示设备100的主体上设置的各种按钮、连接到透明显示设备100的键盘或输入/输出(I/O)接口(诸如用于从外部输入接收各种输入信号的鼠标)。用户可启动或禁用经由输入器160调整显示的信息的功能,或者设置显示的信息何时应被进行调整的条件或改变显示的信息的属性的方式。
控制器130可根据经由输入器160输入的用户命令来执行以上操作。也就是说,如果用户启动用于移动显示的信息的位置的功能,则控制器可控制第一传感器110和第二传感器120检测对象的位置和用户的位置,并将检测结果存储在存储器150中。基于存储的结果,控制器130可确定透射区域,并将位于透射区域内的显示的信息的区域调整到透射区域外部。
图6是提供的用来解释透明显示器140的区域被划分为多个块的状态的示图。
参照图6,可根据多个垂直线(V1~Vx)和多个水平直线(H1~Hy)将透明显示器140划分为虚拟划分区域。虚拟划分区域可被实现为矩阵的形式。
为了高分辨率,矩阵的单元可以是每个单元一个像素。然而,考虑到大量的单元的增加的操作负荷,单元可以是多个像素的尺寸。在其他示例性实施例中,可通过将透明显示器140的整个区域划分为4、6、9、或12等来形成虚拟划分区域。
控制器130可将用户的位置和对象的位置分别匹配到透明显示器140的相应区域。参照图6,透过区域(Vn+4,Hm+2)、(Vn+5,Hm+2)、(Vn+6,Hm+2)、(Vn+7,Hm+2)、(Vn+4,Hm+3)、(Vn+5,Hm+3)、(Vn+6,Hm+3)、(Vn+7,Hm+3)、(Vn+4,Hm+4)、(Vn+5,Hm+4)、(Vn+6,Hm+4)、(Vn+7,Hm+4)、(Vn+4,Hm+5)、(Vn+5,Hm+5)、(Vn+6,Hm+5)、(Vn+7,Hm+5)看到对象20。在下文中,透过其看到对象20的透明显示器140上的区域将用标号20′来表示。
透过区域(Vn+3,Hm+1)、(Vn+4,Hm+1)、(Vn+5,Hm+1)、(Vn+6,Hm+1)、(Vn+3,Hm+2)、(Vn+4,Hm+2)、(Vn+5,Hm+2)、(Vn+6,Hm+2)、(Vn+3,Hm+3)、(Vn+4,Hm+3)、(Vn+5,Hm+3)、(Vn+6,Hm+3)、(Vn+3,Hm+4)、(Vn+4,Hm+4)、(Vn+5,Hm+4)、(Vn+6,Hm+4)、(Vn+3,Hm+5)、(Vn+4,Hm+5)、(Vn+5,Hm+5)、(Vn+6,Hm+5)、(Vn+4,Hm+6)、(Vn+5,Hm+6)、(Vn+4,Hm+7)、(Vn+5,Hm+7)、(Vn+4,Hm+8)、(Vn+5,Hm+8)看到用户的位置。在下文中,透过其看到用户的透明显示器140上的区域将用标号10′来表示。图6示出信息30被显示在对象匹配区域20′和用户匹配区域10′部分重叠的位置处的情况。
控制器130可将在第一传感器110中感测到的对象位置和在第二传感器120中感测到的用户位置记录到存储在存储器150中的矩阵表。因此,两个位置的重叠部分被确定为透射区域。
可选地,控制器130可以以垂直关系直接将对象20投影到透明显示器140上以确定对象匹配区域20′,并还以垂直关系对用户10进行投影确定用户匹配区域10′。在这种情况下,透射区域(即,在用户的位置处可看到对象的区域)可在对象匹配区域20′和用户匹配区域10′之间形成。控制器130可根据对象和透明显示器140之间的距离、用户和透明显示器140之间的距离以及上述两个距离的比来确定透射区域。也就是说,控制器130可针对将透明显示器140的表面垂直地连接到对象的点来考虑对象的形状和尺寸,以确定对象匹配区域20′。控制器130还可通过针对将用户垂直地连接到透明显示器140的点考虑用户的形状和尺寸,来确定用户匹配区域10′。在这种情况下,如果对象和用户针对透明显示设备140的表面是相互垂直对称的,则用户匹配区域10′和对象匹配区域20′之间的重叠区域可被直接确定为透射区域。
另一方面,如果对象和用户区域位于针对透明显示器140的45倾角处,则用户匹配区域10′和对象匹配区域20′之间的区域的中心区域可被确定为透射区域。如上所解释的,可根据用户的距离和角度以及对象的距离和角度来计算透射区域。以下将详细对此进行解释。
同时,如果感测到用户或对象的改变,或新用户或新对象的出现,则控制器130可根据检测结果更新矩阵表。
图7示出存储在存储器150中的矩阵表的示例。参照图7,可以以如图6中所示的将透明显示器140划分为多个区域的相同方式来构建矩阵表700。也就是说,可通过多个垂直线(V1~Vx)和多个水平直线(H1~Hy)来形成矩阵表700,并且数据可被记录在垂直线和水平线的交点处的单元中。
参照图7,可将基值记录在矩阵表700的各个单元中,并且用第一值来记录与对象的位置相应的单元,而用第二值来记录与用户的位置相应的单元。尽管在图7中基值、第一值和第二值被设置为0、1、2,但为了解释方便所述值可被随意设置,因此不应被解释为限制。
根据第一传感器110的检测结果,控制器130将“2”记录在矩阵表700的单元(Vn+4,Hm+2)、(Vn+5,Hm+2)、(Vn+6,Hm+2)、(Vn+7,Hm+2)、(Vn+4,Hm+3)、(Vn+5,Hm+3)、(Vn+6,Hm+3)、(Vn+7,Hm+3)、(Vn+4,Hm+4)、(Vn+5,Hm+4)、(Vn+6,Hm+4)、(Vn+7,Hm+4)、(Vn+4,Hm+5)、(Vn+5,Hm+5)、(Vn+6,Hm+5)、(Vn+7,Hm+5)中。
此外,根据第一传感器120的检测结果,控制器130将“1”记录在矩阵表700的单元(Vn+3,Hm+1)、(Vn+4,Hm+1)、(Vn+5,Hm+1)、(Vn+6,Hm+1)、(Vn+3,Hm+2)、(Vn+4,Hm+2)、(Vn+5,Hm+2)、(Vn+6,Hm+2)、(Vn+3,Hm+3)、(Vn+4,Hm+3)、(Vn+5,Hm+3)、(Vn+6,Hm+3)、(Vn+3,Hm+4)、(Vn+4,Hm+4)、(Vn+5,Hm+4)、(Vn+6,Hm+4)、(Vn+3,Hm+5)、(Vn+4,Hm+5)、(Vn+5,Hm+5)、(Vn+6,Hm+5)、(Vn+4,Hm+6)、(Vn+5,Hm+6)、(Vn+4,Hm+7)、(Vn+5,Hm+7)、(Vn+4,Hm+8)、(Vn+5,Hm+8)中。
控制器130可将“1”和“2”的和(“3”)记录在作为两个区域中的重叠区域的单元(Vn+4,Hm+2)、(Vn+5,Hm+2)、(Vn+6,Hm+2)、Vn+4,Hm+3)、(Vn+5,Hm+3)、(Vn+6,Hm+3)、(Vn+4,Hm+4)、(Vn+5,Hm+4)、(Vn+6,Hm+4)、(Vn+4,Hm+5)、(Vn+5,Hm+5)、(Vn+6,Hm+5)中。
以上仅是示例并且不应被解释为限制。因此,除了两个值的和之外的第三值可被记录在与重叠区域相应的单元中,以借此指示所述单元与重叠区域相应。
控制器130可将在透明显示器140上将显示信息的区域与矩阵表700进行比较。因此,如果矩阵表的用“3”记录的单元(即,与交点相应的单元)与显示信息的位置部分或全部重叠,则控制器130可移动显示信息30的位置。根据实现,如果信息30被放置在矩阵表的用1、2和3中的至少一个记录的单元(与并集相应)上,则可移动显示的信息的位置。
图8示出通过控制器130改变显示的信息的位置的情况。参照图8,信息30被移动以离开具有值1、2和3的单元,并且信息30被显示在新区域(Vn+1,Hm-1)、(Vn,Hm)、(Vn+1,Hm)、(Vn+2,Hm)、(Vn,Hm+1)、(Vn+1,Hm+1)、(Vn+2,Hm+1)、(Vn-1,Hm+2)、(Vn,Hm+2)、(Vn+1,Hm+2)、(Vn+2,Hm+2)、(Vn+3,Hm+2)。
控制器130可基于诸如透射区域和信息显示区域之间的重叠点到不降低可视性的另一区域附近的距离的信息,确定将信息移动30的距离和方向。尽管图8示出信息30从最初位置被向左上方移动了三个或四个区域,并被显示为与透射区域相距预定距离,但这仅是示例并且不应被解释为限制。因此,信息30可被移动到不与最初位置重叠的距最初位置尽可能近的区域。
可选地,移动信息30的方向可由用户预定。例如,信息30可被设置为以预定方向(诸如向上、向下、向左、向右或者针对对象的位置、用户的位置或用户的视场的对角方向)被移动。
尽管如上参照图7所解释的可通过使用一个矩阵表700共同确定对象的位置、用户的位置和信息的位置,但可针对对象、用户和信息产生单独的矩阵表,在这种情况下可通过对矩阵表进行比较来确定透射区域。
可选地,控制器130可将拍摄的用户的图像帧和拍摄的具有不同层的对象的图像帧组合,并可将组合状态下的用户区域和对象区域之间的重叠区域或中间区域之中的特定区域确定为透射区域,而不是准备矩阵表。在这种情况下,可通过直接将组合的帧与包含信息的图像帧进行比较来确定信息是否与透射区域重叠。
图9是提供的用于解释拍摄对象20的第一拍摄单元111和拍摄用户10的第二拍摄单元121的俯视图。
参照图9,第一拍摄单元111可被附着在透明显示设备100的上部,并专门拍摄对象20。相反,第二拍摄单元121可被附着在透明显示设备100并专门拍摄用户10。
参照图9,可存在一个第一拍摄单元111和一个第二拍摄单元121,其中,第一拍摄单元111和第二拍摄单元121可被安装在透明显示设备的中上部。
参照图9,如果用户10处于位置(a)(在这种情况下用户10和对象20相对于透明显示设备100是平行关系),则透明显示设备100上的透射区域可被形成在位置T(a),其中,用户10和对象20之间的视线与透明显示器140相交在位置T(a)处。因此,透明显示设备100可将信息显示在除了透射区域T(a)之外的区域上。
因为透明显示设备100透明地显示对象20,因此透明显示设备140上对象20的图像处于的位置和对象20的形状可根据用户的位置而改变。也就是说,参照图9,如果用户位于位置(b),则透射区域被形成在T(b),而如果用户位于位置(c),则透射区域被形成在T(c)。相似地,尽管描述了用户10改变位置,但对象20也可改变位置,并且用户10和对象20两者都可改变位置。此外,如果对象20是立方形的并且如果用户10位于(a)且用户10的视平线在对象20的水平线上,则对象20可被视为正方形。然而,如果对象20位于(b)或(c),则形状可表现为矩形或菱形。因此,有必要相对于用户的移动来精确地识别对象20。
图10是提供的用来解释用于基于用户的位置和对象的位置来计算透射区域的方法的示图。参照图10,将解释当用户移动位置时使用三角函数来估计透射区域的方法。也就是说,参照图10,将解释关于通过深度相机或距离传感器来测量到对象的距离或对象的角度的方法的示例性实施例。
参照图10,第一拍摄单元111和第二拍摄单元121可被安装在透明显示设备100的中上部。在第一拍摄单元111和第二拍摄单元12被彼此相应地布置的情况下,位于拍摄单元111和拍摄单元112之间的直线上的中心点为原点(0,0),并且假设对象20的实际位置为L1(x1,y1),用户10的实际位置为L2(x2,y2)。
如果第一拍摄单元111和第二拍摄单元121是深度相机,则第一检测器112可使用在第一拍摄单元111拍摄的背景图像,检测与对象的距离(d1)以及在对象的方向和透明显示设备100的表面之间的角度(θ1)。此外,第二检测器122可使用在第二拍摄单元121拍摄的前景图像,检测与用户的距离(d2)以及在用户的方向和透明显示设备100的表面之间的角度(θ2)。尽管描述了两个拍摄单元111、112,但可采用单个深度相机来确定透明显示设备100、用户、和对象20相对于该单个深度相机的位置,从而用户10和对象20相对于透明显示设备100的位置可被确定。
控制器130可使用三角函数来计算x1、y1、x2、y2。即,d1*sinθ1=y1、d1*cosθ1=x1、d2*sinθ2=y2和d2*cosθ2=x2。用计算出的x1、y1、x2、y2,获得连接L1和L2的线性方程。也就是说,可获得诸如y=(y1-y2)*x/(x1-x2)+y1-(y1-y2)*x1/(x1-x2)的方程。因此,在透明显示器140上可看到对象的点(T)可被计算为((x2y1-x1y2)/(y1-y2),0)。控制器130可移动信息以使信息将在远离计算出的点T处被显示。
尽管T可被表示为一个坐标值(图10)。但这是为了方便解释。因此,在实际实现中,可使用对象的尺寸以及用户和对象之间的直线距离,将相对于点T的预定距离内的所有区域估计为透射区域。
尽管图9和图10示出配备一个第一拍摄单元111和一个第二单元121的示例,但可存在多个拍摄单元111、121。也就是说,如果存在多个拍摄单元,即使当用户改变位置时,也可使用位置最靠近用户移动到的位置的拍摄单元来估计对象的位置。因此,能够正确估计用户的位置。
图11示出根据示例性实施例的包括多个拍摄单元的透明显示设备的组成。
参照图11,六个第一拍摄单元111-1~111-6和六个第二拍摄单元121-1~121-6可被彼此相反地对称布置。处于相反位置处的第一拍摄单元和第二拍摄单元可相互关联地进行操作。也就是说,如果用户在点(a),则可通过使用在第一拍摄单元111-3和第二拍摄单元121-3捕获的图像来确定透射区域T(a)。随后如果用户移动到(b),则可通过使用在第一拍摄单元111-4和第二拍摄单元121-4捕获的图像来确定透射区域T(b)。
可使用单独提供的运动传感器(未示出)来感测用户的位置,或可使用在第二拍摄单元121-1~121-6拍摄的图像来分析用户的位置,并且可通过选择性地操作相应的第一拍摄单元111-1~111-6来确定对象的位置。
例如,如果用户在第二拍摄单元121-1拍摄到用户,则控制器可通过对拍摄的用户的帧进行比较来计算用户的运动向量。因此,如果用户的移动方向被确定,则在移动方向上存在的下一拍摄单元可被激活以执行拍摄。也就是说,如果用户10当前正在向右方向移动(图11),则控制器130可基于在第二拍摄单元121-1捕获的图像来预测移动方向,并随后在预测用户向右方向持续运动后,激活第一拍摄单元111-2和第二拍摄单元121-2以执行对用户10和对象20的拍摄。如果用户继续向右方向移动,则随后控制器130可激活在向右方向上随后的第一拍摄单元111-3和第二拍摄单元121-3以执行拍摄。控制器130可基于在拍摄单元捕获的图像来确定透射区域。
使用如上解释的多个第一拍摄单元111-1~111-6和多个第二拍摄单元121-1~121-6,因为可准确地和持续地感知透射区域,所以即使当用户改变方向时也可确定透射区域。
同时,在改进的示例性实施例中,在不需要控制器130的干预的情况下,可经由第一拍摄单元111-1~111-6和第二拍摄单元121-1~121-6之间的有线或无线通信协议来将用户的移动方向告知对应的拍摄单元。例如,如果在第二拍摄单元121-1拍摄到用户,则第二拍摄单元121-1可将用户感测信息发送到第一拍摄单元111-1。第一拍摄单元111-1可根据用户感测信号来对对象20进行拍摄并将图像提供给控制器130。随后,如果用户向右方向移动,则第二拍摄单元121-1可将用户感测信息分别发送到第一拍摄单元111-2和第二拍摄单元121-2。在这样做的过程中,可通过适应性地对用户的移动做出响应并相应地调整显示的信息30,来准确地检测透射区域。
如上参照图11所解释的,尽管可存在多个第一拍摄单元和多个第二拍摄单元,但这不是限制。因此,可提供多个第一拍摄单元和一个第二拍摄单元,或者反之亦然。
各个拍摄单元可被实现为各种形式,诸如,视频相机、静止图像相机、深度相机等。这里所使用的“深度相机”指发射红外线(IR)图案并接收从周围对象反射的IR图案,以获取IR图像。控制器130可分析IR图像以确定与周围环境中的各个对象的距离。
控制器130可通过考虑与对象的距离和与用户的距离,校准由各个拍摄单元捕获的对象或用户的位置。因此能够准确计算透射区域。
尽管如上所解释的可使用多个拍摄单元(图11),但在另一示例性实施例中,拍摄单元可被旋转以根据用户的注视方向来调整拍摄角度。如果配备了多个拍摄单元,则可选择在连接用户10的位置和对象20的位置的直线上或附近的拍摄单元来执行拍摄。在一个示例性实施例中,选择的拍摄单元可被旋转以平行于所述直线的方向。也就是说,可调整拍摄单元的旋转角度。因此,即使当用户移动使得他的注视方向改变时,也可确定与新方向匹配的透射区域。
图12和图13示出根据示例性实施例的旋转拍摄单元以感知对象的位置从而适应用户的注视方向的透明显示设备的组成。图12和图13示出透明显示设备被实现为展示橱窗的示例。
首先参照图12,如果用户10站在展示橱窗外部的中心处观看放置在展示橱窗中的对象20-1(例如,包),则布置在中心部分上端的第一拍摄单元111可在参考位置处执行拍摄。信息30-1可被显示在不与由用户查看到的对象20-1的位置重叠的区域上。在展示橱窗的实现(图12)中,信息30-1可以是关于对象21-1的信息、商店的广告等。透明显示设备100的管理者可经由在透明显示设备100上提供的输入来设置信息30-1的内容,或使用用户的终端来构建信息并将信息发送到透明显示设备100。
如果用户在特定方向上移动,则第一拍摄单元111可被旋转以适应该方向,使得能准确地估计从用户10的位置查看到的对象20-1的位置。
图13示出用户在向左方向上移动时的情况。在这种情况下,第一拍摄单元旋转到向右的方向。因此,透明显示器140上的对象20-1和用户10之间的透射区域改变,并且用户10在用户先前的位置看不到的新对象20-2可进入用户的视野。透明显示设备100可根据用户的位置的改变,改变在对象20-1附近的显示的信息30-1的位置。在这种情况下,显示的信息30-1的形式、布局或内容还可改变以适应改变后的位置。此外,透明显示设备100可额外显示关于新对象20-2的新信息30-2。
参照图13,对象20-1和展示橱窗的边缘之间的实际距离d3可不同于由拍摄单元111提供的拍摄图像上的对象20-1和展示橱窗的边缘之间的距离d4。
在以上情况下,控制器130可通过将实际距离d3和距离d4之间的比反映到图像上,校正矩阵表的单元值。
图14是提供的用来解释用于校正矩阵表的各个单元值的方法的示图。参照图14,根据在拍摄单元111的拍摄范围内实际拍摄的图像,与第一对象20-1相应的值“1”被记录在直线V2、V3、V4和直线Hm、Hm+1和Hm+2之间的相交的单元中,与第二对象20-2相应的值“3”可被记录在直线Vk、Vk+1和直线Hm、Hm+1、Hm+2、Hm+3、Hm+4之间相交的单元中。
然而,控制器130可校正矩阵表700的各个单元值以将第一对象20-1的位置向右方向移动与d3和d4之间的比相应的距离,并固定第二对象20-2的位置。
可从记录通过重复试验获取的最优值的数据库获取移动的距离。
如上所解释的,可根据与透射区域重叠的位置信息来确定这样的移动的距离和方向。在下文中,将解释调整显示信息的各种实施例。
图15示出透明显示设备100被实现为膝上型计算机的示例。参照图15,透明显示设备100的透明显示器140透明地显示对象20。
因此,根据用户10的实际位置和对象20的位置来确定透射区域20′。透明显示设备100可将透射区域20′内的显示的信息30的位置改变到另一区域。
图16示出新对象进入用户的视野的示例。参照图16,如果新对象40移动进视野中,从而与显示的信息30的位置重叠,则再次将显示信息30的位置改变到另一位置。还可改变显示信息30的形式以适应不降低可视性的区域的形式和位置。参照图16,可将显示信息30的形式从横向拉长的矩形改变到纵向拉长的矩形。
只要新对象40移动,透明显示设备100就可延迟对透射区域中的干扰的确定。如果在大于预定时间(例如,5秒)内未检测到新对象40的移动,则透明显示设备100可确定透射区域。
图17是提供的用于解释显示信息重叠的示图。参照图17,如果仅信息30的一部分与透射区域20′重叠,则透明显示设备100可将信息30移动与这样的重叠区域的宽度相应的距离。移动的方向可朝向信息30的没有与透射区域20′重叠的区域。由于图17中信息30的右边部分与透射区域20′重叠,所以可在向左的方向上调整信息30的位置。
如在图17中示出的,可根据在透射区域20′内的重叠来确定显示的信息的移动方向。例如,如果信息30完全包括在透射区域20′中,则可通过考虑从透射区域20′的各个边界到信息30的距离来确定移动方向。作为另一示例,如果信息30被显示为最靠近透射区域20′的下边界,则移动方向可以是向下方向。此外,可将移动的距离确定为大于从透射区域20′的下边界到信息30的上边界的距离。
可选地,可基于各种参考点(包括参考对象、用户、显示器或视场)来确定移动显示的信息的方向。
例如,如果参考对象来确定移动方向,则移动方向可首先被设置为从透射区域的向上方向、向下方向、向左方向、向右方向、左上方向、左下方向、右上方向、右下方向中的一个。其他方向可被按优先顺序进行排列。如果在最高优先级的方向上没有空间可用,则移动方向可以是第二高优先级的方向。如果信息30和透射区域20′如图17中所示重叠,则即使向右方向被设置为最高优先级,因为在向右方向上缺少空间,所以信息30也不会被向右移动。在这种情况下,如果具有第二高优先级的移动方向是向左方向,则可如图17所示将移动方向选择为向左方向。
如果参考用户的位置确定运动方向,则可基于用户相对于透射区域的方向来设置优先级。在一个示例性实施例中,优先级可被设置为向下方向、向左方向、向右方向、左上方向、左下方向、右上方向和右下方向。因此,首先考虑将位置在具有最高优先级的方向上移动,但如果由于在该方向上缺少空间而使得移动是不可能的,则根据优先级顺序来确定移动。
可选地,可参照基于透明显示器140的显示表面上的绝对方向设置的优先级来移动显示的信息的位置,或者如果考虑用户的视场,则移动方向可被设置为向上方向、向下方向、向左方向、向右方向、左上方向、左下方向、右上方向、右下方向之一。
可选地,可将整个显示表面作为参考而不是将透射区域作为参考,在这种情况下用于显示信息的位置可被移动到上边缘、下边缘、左边缘或右边缘或被移动到各个角落。
同时,如果改变后的用于显示信息的区域的尺寸和形状不同于最初显示信息的最初区域的尺寸和形状,则可相应地改变信息的布局。
图18示出用于根据不降低信息30的可视性的区域的尺寸和形状来改变信息30的布局的方法。参照图18,如果透射区域20和信息30重叠使得信息30被移动到左边的最上部分,则信息30的当前的尺寸和形状可以是不同的。在这种情况下,可在信息30被改变为新信息30′的布局下,改变信息30的尺寸和形状以适应新位置的尺寸和形状。
显示的信息的位置还可根据用户的输入来改变。
如果透明显示设备100被实现为膝上型计算机,则用户的位置不会显著地改变。也就是说,膝上型计算机的用户通常位于距膝上型计算机的前面较近的距离内。因此,透射区域可在无需检测用户的位置的情况下被估计。同样地,在具有相对小型化器件并在近距离处使用的装置(诸如,相机、移动电话、PDA、MP3播放器、电子书或电子笔记本)中,用户的位置可能意义不大。在以上示例中,可省略第二传感器。在这种情况下,透明显示设备100可拍摄在透明显示设备100的后面的对象以确定对象的位置和距离,从而估计透射区域。此外,可考虑估计出的透射区域来显示信息。在一个示例性实施例中,为了电话的目的等,透明显示设备100可配备有用于拍摄用户的相机,在这种情况下,可通过使用相机感测用户的位置或用户的注视方向来估计透射区域。
透明显示设备100可被实现为安装在具有人流多的地方的公告牌、广告牌或售货亭。在这种情况下,通过对过路者的每个移动做出反应来改变显示信息的状态将是困难的。因此,在许多人可能出现的地方,透明显示设备100可应用各种算法来从许多人中确定正在查看透明显示设备100的人。透明显示设备100可通过跟踪用户的移动、用户头部的移动或用户眼睛的移动来确定查看透明显示设备100的一个或更多个人。当用户查看透明显示设备100并且另一用户在该用户和透明显示设备100之间经过时,可推测用户持续查看透明显示设备100。
透明显示设备100可确定所述一个或更多个人之间的优先级,并根据优先级来显示信息。最高优先级用户的信息可在中央位置或以最大的字体被显示,而较低优先级用户的信息可在透明显示设备100的边缘或以较小的字体被显示。
如果两个人被确定为查看透明显示设备100,则最近的查看者可被优先考虑或在透明显示设备100的有效空间内的查看者可被优先考虑。有效空间可以是基于字体的尺寸可看见信息的空间,或可准确查看到信息和透明显示设备100后面的产品两者的空间。可选地,查看透明显示设备100较长或较短时间的查看者可被优先考虑。最新的查看者可被优先考虑,或者查看者可根据产品被优先考虑。例如,查看位于透明显示设备100后面的体育商品的男性可在女性之前被优先考虑,而查看位于透明显示设备后面的裙子的女性可在男性之前被优先考虑。
图19示出考虑用户的移动来改变显示的信息的位置的示例。
参照图19,如果用户10在对象20的前面,透明显示器140介于用户10和对象20之间,则信息30可被显示在透射区域20′的一边。
在这种状态下,如果用户向特定方向移动,则透射区域20′根据用户的位置而改变。因此,当最初显示信息30的区域与透射区域20′重叠时,显示的信息30的位置再次改变。如果用户持续移动,可不执行改变显示信息30的位置,而是等待直到用户停止移动为止。
图20示出透明显示设备100被实现在车辆中的示例。具体而言,透明显示器140被实现在车辆的前玻璃上。
参照图20,当用户10驾驶车辆时,信息出现在前玻璃上。在一个示例性实施例中的信息30可以是与车辆情况、驾驶情况、周围环境等相关的信息。例如,可在前玻璃上显示GPS信息、燃料状态、速度、RPM、交通或其他车辆信息。
图20的透明显示器140可被实现为如图4所示的投影类型。在这种情况下,车辆的前玻璃可以是透明屏幕141-2。透明显示设备100可基于前玻璃中的透过其看到车辆前面的对象20的区域来确定透射区域,并远离透射区域显示信息30。在车辆的这种情况下,由于用户通常在驾驶员的座位上保持固定姿势并且用户的运动不显著,所以透明显示器140(即,前玻璃)可以是小尺寸的。此外,可省略用于感测用户的位置的第二传感器。因此,可通过仅考虑对象20相对于玻璃141-2的位置来确定透射区域。
可选地,可提供第二传感器,在这种情况下,第二传感器可跟踪用户的注视,并且显示的信息30的位置可根据用户的注视被移动。在这种情况下,第二传感器120可使用第二拍摄单元121来拍摄用户的面部区域,其中,第二拍摄单元可被安装在室内镜上、驾驶员的座位上或用户佩戴的眼镜上。可随后使用图像处理技术来分析拍摄的图像以检测用户的虹膜区域。可跟随虹膜区域的位置上的改变以确定用户的注视。如果确定了用户的注视,则控制器130可将信息30显示在适合于确定的注视方向的位置上。
同时,在各种示例性实施例中,透明显示设备100可根据用户的设置选择性地调整显示的信息的位置。图21示出设置屏幕的示例。
图21示出用于设置控制透明显示器140的功能的用户界面(UI)屏幕60。尽管图21仅示出用于启动或禁用调整功能的菜单,但其他菜单(诸如,用于设置执行调整功能的条件或用于设置显示信息的属性的菜单)也可被显示在UI屏幕上,以由用户进行选择。例如,用户可选择在调整显示的信息的位置之前信息被显示在透射区域中的持续时间、显示的信息将被移动的距离以及对尺寸、形状、颜色、字体、粗细的调整。用户可为显示信息的每个应用设置以上提及的设置。
如果输入器160被实现为触摸屏,则用户可直接触摸UI屏幕60来设置功能。可将用户进行的设置存储在存储器150中。
因此,当应用被运行以显示信息时,透明显示设备100可根据在存储器150中预先存储的设置来执行移动显示的信息的功能。
图22是提供的用于解释根据示例性实施例的将信息显示在透明显示设备上的方法的流程图。
参照图22,在S2210,感测对象的位置和用户的位置,在S2220参考感测的位置来确定透射区域。
可基于拍摄的对象和用户的图像来感测对象的位置和用户的位置,或者可选地,可通过使用单独提供的光学传感器感测穿过透明显示器的光的强度,感测对象的位置和用户的位置。
可基于透明显示器140上的透过其可看到对象的区域和用户与透明显示器140匹配的区域之间的交集区域或并集区域,确定透射区域。如上所解释的,可使用矩阵表来确定透射区域。
在S2230,透明显示设备可确定信息是否包括在透射区域中。具体而言,可将用于显示信息的位置与矩阵表进行匹配,并且可将匹配单元和与透射区域相应的单元相互比较,从而在存在单元的至少部分重叠的情况下确定信息包括在透射区域中。
因此,在S2240,如果信息在步骤S2230-是被确定为位于透射区域中,则透明显示设备可将用于显示信息的位置移动到另一区域。具体而言,确定在矩阵表中内与对象或用户中的一个不匹配的单元,感测与显示信息的当前位置最接近的单元,并将信息显示在与感测到的单元相应的区域上。可选地,如上所讨论的,可在尺寸、透明度、颜色上对显示的信息进行调整,或以其它方式对显示的信息进行调整,以使对象对透射区域中的显示的信息的影响最小。显示的信息除了被调整显示的信息的属性之外,还可能也被移动。
相反,在S2250,如果信息在步骤S2230-否不包括在透射区域中,则信息不用调整就被显示。
因此,由于透射区域中的对象和显示的信息之间的冲突被最小化,所以透明性显示设备100可提供增强的信息的可视性。
图23是提供的用于解释根据示例性实施例的将信息显示在透明显示设备上的方法的流程图。
参照图23,除非感测到附近的用户,否则透明显示设备100不显示任何信息。当感测到用户时,透明显示设备100可显示与对象相关的信息。
根据图23的显示方法,在S2310,如果感测到用户移动到附近,则在S2320,确定对象的位置和用户的位置。
在S2330,基于对象的位置和用户的位置来确定透射区域。由于以上解释了用于确定位置和透射区域的方法,所以为了简洁,将省略对用于确定位置和透射区域的方法的解释。
在S2340,透明显示设备100在透射区域附近显示与对象相关的信息。信息可与对象相关并可被预先设置。例如,如果透明显示设备100被实现在商店的展示橱窗上,则透明显示设备100可显示对象的名称、价格或说明。如果透明显示设备100具有通信功能,则可经由网络从连接的服务器接收与对象相关的信息。
在S2350-是,如果由于用户的移动或新对象的移动,透过透明显示设备100在用户的视场中感知到新对象,则在S2360,透明显示设备100确定用户和新对象的透射区域。
因此,在S2370,如果新的透射区域和显示的信息的位置重叠,则改变显示的信息的位置,并且可另外将关于新对象的信息显示在不与用户和最初的对象的透射区域或用户和新对象的透射区域重叠的区域上。
在S2390,如果在步骤S2350-否未感知到新对象,但在步骤S2380-是存在增加的新用户,则在S2400,当新用户查看对象时,确定对象和新用户的透射区域。
在S2400,更新显示的信息以便不与对象和新用户的透射区域重叠。如果最初的用户和新用户都查看对象,则可基于对象和最初的用户的透射区域以及对象和新用户的透射区域,调整显示的信息。
如果在少于预设阈值时间的少量的时间内检测到新对象或新用户,则随后可保持显示的信息。
如上所解释的,透明显示设备可通过适应性地对用户或对象的位置做出反应,将信息显示在合适的位置或移动显示信息的位置。可选地,如上所讨论的,显示的信息可在尺寸、透明度、颜色上被调整,或者以其它方式被调整,以使对象对透明区域中的显示的信息的影响最小。显示的信息除了被调整显示的信息的属性之外,还可能也被移动。
尽管在各种实施例中当信息包括在透射区域中时,可改变显示的信息的位置,但其他改进的示例性实施例也是可能的。具体而言,由于透明显示设备100的性质是在其上显示信息的同时,允许对象透过透明显示设备100被看到,所以透明显示设备100有时需要在以与显示对象的位置重叠的方式显示信息时,通过其透明地显示对象。以大尺寸的地图为例,为了将信息显示为位于地图上的特定区域,透过其看到对象的区域和显示的信息的位置将通常会重叠。以下将参照图24解释在以上情况下增强可视性的方法。
图24是提供的用于解释根据示例性实施例的透明显示设备的操作的示图。
参照图24,存在透明显示设备100的后面的多个对象21、22、23以及显示的与各个对象相应的信息31、32、33。
图24的透明显示设备通过根据对象的类型或特征,移动显示的信息的位置或改变显示的信息的属性来提高可视性。
参照图24,考虑具有单一颜色的对象21,通过分析对象21的属性和信息31来确定可视性是否下降,并且可根据确定的结果来改变显示信息31的状态。如果对象21是红色,并且如果信息31的颜色是红色或相似的颜色并包括在透射区域中,则确定可视性下降。因此,可改变显示的信息31的属性。在一个示例性实施例中,颜色可被改变到对象21的颜色的互补色。
此外,可改变颜色和位置两者,而不是单独改变颜色。相反,如果对象20和信息30是互不相同的颜色,则当显示的信息30包括在透射区域中时,信息30的属性可保持不变。
此外,如果对象是地图23,则可不移动与地图23重叠的显示信息33的位置,但可将信息33改变到具有高可视性的基色从而增强可视性。
如果对象是图片22或布满五颜六色的图案的壁纸,则可将与对象重叠的显示信息32的位置改变到另一区域。
为实现这一目的,管理者可确定在后面的不应被信息遮挡的各个对象,确定是否针对对象执行显示信息的位置的移动,并设置是否改变与对象相关联的显示的信息的属性。
参照图24,可基于当在完全匹配的位置和高度从前方向查看透明显示设备100时查看到的区域,设置对象21、22、23的参考区域。候选区域可被设置为包括在上、下、左、右方向上加上空白边沿的参考区域。可考虑透明显示器140的水平和垂直长度、参考区域在透明显示器140的整个区域上的位置,在上、下、左、右方向上不同地添加空白边沿。也就是说,如果到右边的边界的距离比左边的边界的距离长两倍,则右边空白边沿可比左边空白边沿至少大两倍。如果设置了关于各个对象的候选区域,则确定是否从候选区域移动显示的信息的位置或改变显示的信息的属性。
可选地,透明显示设备100可检测在背景图像上感测到的对象的边缘,并确定检测到的边缘内是否存在大于阈值数量的尺寸超过了预定区域并具有彼此互不相同的颜色的区域。也就是说,透明显示设备100可检测对象是否是多色的。例如,如果阈值数量被设置为5,则可改变显示在壁纸的图像上的包括五种或更多种颜色的信息,或者可改变显示的属性以保持可视性。以地图为例,考虑到地图上的名称和线通常小于预定尺寸而总体的颜色是恒定的,所以可确定改变显示的信息的属性。
如上参照图24所解释的,由于能够通过考虑信息和对象的特征来适应性地移动显示的信息的位置或改变显示的信息的属性,所以增加了透明显示设备100的实用性。同时,尽管以上参照图24仅解释了颜色,但将理解还可能改变诸如形状、尺寸、粗细、透明度、亮度或字体等的属性。
除了根据用户的位置来移动显示的信息的位置的操作之外,透明显示设备100还可另外显示新信息。
图25是提供的用于解释根据示例性实施例的透明显示设备的操作的示图。参照图25,透明显示设备可显示各种信息或移动显示的信息以激起用户的好奇心。
参照图25,如果未感测到用户10,则透明显示设备100不显示任何信息。如果未检测到对象20,则透明显示设备100可不显示信息。可选地,当用户10和对象20中的一个被检测到时,或者仅当用户10和对象20都被检测到时,可显示信息。
随后,当用户10进入透明显示设备100的检测范围时,包括关于当前正显示的产品20的说明的信息30-1被显示在产品20的附近。同时,包括广告语的信息30-2可被显示在透明显示器140的预定区域上。不像包括说明的信息30-1,包括广告语的信息30-2可被闪烁或周期性地用不同的显示属性来显示以激发用户的好奇心。
如果用户10在透明显示设备的检测范围中持续移动,则根据用户的移动来改变显示的信息30-1、30-2的位置。参照图25,可将信息30-1、30-2移动到透明显示器140上的在用户正在移动的方向上的区域,使得用户即使在用户不能准确看到产品20的角度上也能够看到信息30-1、30-2。
如果透明显示设备100考虑用户正在移动的方向而确定用户将退出透明显示设备100的检测范围,则可另外显示适合于这样的事件的新信息30-3。
如果确定用户10退出拍摄范围,则透明显示设备100可从显示器140移除信息30-1、30-2、30-3。尽管在图25中信息30-1、30-2、30-3被移除,但其他示例也是可能的。例如,信息30-2可被固定在参考位置。
如在图25中所示,透明显示设备100可被实现在商店并以各种方式被使用。
同时,在各种示例性实施例中,由用户输入的信息、从外部装置接收到的信息或根据应用的实现的信息可被显示为“信息”30,但不限于此。因此,如果用户信息是可获取到的,则与用户信息相关的信息也可被显示为“信息”。
图26是提供的用于解释透明显示设备接收用户信息并适应性地显示与接收到的信息相应的信息的示例性实施例的示图。
参照图26,透明显示设备100可另外包括短程无线通信模块200。短程无线通信模块200可被实现为包括短程无线通信标签、短程无线通信读写器或以上两者的模块。在一个示例性实施例中,可使用近场通信(NFC)模块。
参照图26,透明显示设备100可被实现为显示了多个商品20-1、20-2、20-3、20-4的展示橱窗。透明显示器140(即,展示橱窗)可显示包括广告语的信息30。即使当用户10不在透明显示设备100的检测范围内时,信息30也可被持续显示。
如果用户10进入透明显示设备100的检测范围,则与商品相应的信息30-1、30-2、30-3、30-4被显示在透明显示器140上的透过其可看到各个商品20-1、20-2、20-3、20-4的区域20'-1、20'-2、20'-3、20'-4的附近。可根据用户10的移动来改变显示的信息30-1、30-2、30-3、30-4的位置。
如果用户10将他自己的配备有NFC模块的用户终端300贴标签到NFC模块200,则用户信息被感测到。配备在透明显示设备100中的NFC模块200可以是NFC读写器,并且配备在用户终端300中的NFC模块200可以是NFC标签。
如果根据NFC方法从用户终端300提供用户信息,则透明显示设备100使用提供的用户信息来将各种类型的信息显示在透明显示器140上。
作为示例,如果拿着配备有NFC模块的用户终端300或卡的用户靠近通信范围并与NFC模块200贴标签,则包括在NFC模块中的用户信息被接收。用户信息可包括用户的标识信息,诸如,姓名、ID、性别或年龄等。
透明显示设备100可向服务器请求与接收到的用户信息匹配的信息。因此,可接收到购物历史、先前由用户选择的愿望清单或用户的职业。使用从服务器接收到的附加信息和在NFC模块感测到的标识信息,透明显示设备100可确定用户可能感兴趣的商品。
如果确定展示橱窗上的显示的产品之中存在用户将感兴趣的产品,则可将包括关于相应产品的说明的信息显示在透明显示器140上(即,展示橱窗上)。
相反,如果透明显示设备确定用户可能感兴趣的产品没有被显示在展示橱窗上,则透明显示设备100可将包括关于相应产品的信息的信息显示在透明显示器140上(即,展示橱窗上)。
参照图26,除了与显示的产品20-1、20-2、20-3、20-4相关的信息30-1、30-2、30-3、30-4之外,还可新显示关于在商店中但不在展示橱窗中的产品的信息30-5、30-6、30-7。新显示的信息30-5、30-6、30-7可包括用于指示相应产品在商店内部的位置的箭头标记。
为此,透明显示设备100的存储器150可存储关于商店的存货清单中的产品的简要说明、关于产品的位置的信息或关于用于显示信息的属性的信息。可根据各种标准(包括爱好、专长、职业等)来对这些组的信息进行分类。因此,控制器150可搜索每个组中映射到关于用户的附加信息的信息并显示结果。
作为以上解释的示例的一个可选示例,可直接从用户终端300接收附加信息本身,在这种情况下,可直接使用附加信息使得相关信息可被显示在透明显示器140上。
如果另外显示新信息,则最初显示的信息30-1、30-2、30-3、30-4可被检测、调整、或移动以使得信息30-1的一部分不与新信息30-5重叠。可基于按照以上解释的方式构建的矩阵表来执行改变信息的位置。也就是说,信息的位置也可被记录在矩阵表中,以用作执行信息的移动时的参考。
此外,尽管在一些示例性实施例中可使用NFC模块确认用户信息,但透明显示设备100可使用其他无线通信方式(包括WiFi、蓝牙、Zigbee等)来从用户终端接收用户信息。在这种情况下,用户信息除了包括标识信息(诸如用户姓名、ID或社会安全号码)之外,还可另外包括购物历史或愿望清单。
如上所解释的,透明显示设备100可不仅包括一般的在屏显示(OSD)消息和图形图像,而且可包括运行各种应用的屏幕、内容生成屏幕或网页。控制器130可通过运行先前存储的各种应用来产生信息。
例如,关于内容播放屏幕,控制器130可读出存储在存储器150的内容数据或从外部源接收内容数据。控制器130可随后顺序地对内容数据执行解码、渲染或缩放,以产生内容播放屏幕。
如果透明显示器140被实现为透明OLED,则控制器130可根据产生的内容播放屏幕,导通和截止在透明显示器140内部的各个单元中提供的透明薄层晶体管以表现内容播放屏幕的各个像素。如上参照各种示例性实施例所解释的,为了移动显示的信息的位置,控制器130可不同地改变像素坐标以显示内容播放屏幕,从而使内容播放屏幕被显示在改变后的位置上。相反,为了改变显示的信息的属性,控制器130可使用渲染器或缩放器来改变显示的信息的属性。以下将参照图27解释包括控制器130的透明显示设备100的详细组成。
图27示出根据示例性实施例的在透明显示设备100中采用的控制器130的详细组成。参照图27,控制器130可包括系统存储器131、主CPU 132、图像处理器133、系统总线134、接口135、第一相机接口136、第二相机接口137、输入接口138和网络接口139。
系统存储器131、主CPU 132、图像处理器133和各种接口135、136、137、138、139可经由系统总线134相互连接,以发送和接受数据或信号。
接口135可被连接到存储器150以发送和接收各种程序、内容或数据。在一个示例性实施例中,如果用户输入用于查看存储在存储器150的内容的命令,则主CPU 132可经由接口135访问存储器,产生存储的内容的列表,并将产生的列表显示在透明显示器140上。如果用户选择内容并输入用于回放该内容的命令,则主CPU132运行存储在存储器150中的内容播放程序。主CPU 132可根据包括在内容播放程序中的指令,控制图像处理器133构建内容播放屏幕。
图像处理器133可包括解码器、渲染器或缩放器等。因此,图像处理器133可对存储的内容进行解码、对解码后的内容数据进行渲染以构建帧,并对构建的帧的尺寸进行缩放以适合信息显示区域。
在不得不移动显示的信息的位置的情况下,如上所解释的,主CPU 132改变像素坐标值以显示在图像处理器133产生的帧。信息可随后被显示在透明显示器140上的与改变后的像素坐标值相应的显示区域上。
可将第一相机接口136和第二相机接口137分别连接到相机。在一些示例性实施例中,第一传感器110和第二传感器120可分别检测对象的位置和用户的位置。然而,在可选的示例性实施例中,第一传感器110和第二传感器120可被实现为相机。也就是说,主CPU 132可经由第一相机接口136、第二相机接口137接收在各个相机捕获的拍摄的图像的输入,并运行存储在存储器150中的图像分析程序以确定包括在各个图像中的对象和用户的位置。
可将输入接口138连接到输入器160以接收由用户输入的各种信号。参照图27,一个输入接口138被示出。然而,如果输入器160包括各种输入工具(诸如,键盘、鼠标或操纵杆),则输入接口138的数量可与输入工具的数量相应。主CPU 132可根据经由输入接口138输入的用户信号来将信息显示在透明显示器140上,或执行显示UI屏幕60的操作以建立显示信息的功能。
可经由网络将网络接口139连接到外部装置。如果网络浏览程序被运行,则主CPU132可经由网络接口139来访问网络服务器。如果从网络服务器接收到网页数据,则主CPU132可控制图像处理器133构建网页屏幕并将构建的网页屏幕显示在透明显示器140上。
系统存储器131可包括ROM 131-1和RAM 131-2。ROM 131-1可存储用于系统启动的命令集。如果被供电,根据存储在ROM 131-1中的命令,主CPU 132可将存储在存储器150的O/S复制到RAM 131-2上,并通过运行O/S来启动系统。在完成启动时,主CPU 132将存储在存储器150的各种应用程序复制到RAM 131-2上,并通过运行复制到RAM 131-2上的应用程序来执行各种操作。
如上所解释的,主CPU 132可根据存储在存储器150中的应用程序的实现,产生各种类型的信息并将各种类型的信息显示在透明显示器140上。
同时,在另一示例性实施例中,可感测用户的移动,以使得可将合适的对象显示在透明显示器140的与用户移动到的位置相应的区域上。
如上所解释的,控制器130可将存储在存储器150上的程序复制到系统存储器131上,并运行所述程序从而执行各种操作。
图28是提供的用于解释存储在存储器150的软件的层次结构的示图。参照图28,存储器150可包括基本模块2810、装置管理模块2810、通信模块2830、演示模块2840、网络浏览器模块2850和服务模块2860。
基础模块2810对从包括在透明显示设备100中的各个硬件发送的信号进行处理,并将处理后的信号发送到上层模块。
基础模块2810可包括存储模块2811、基于位置的模块2812、安全模块2813或网络模块2814。
存储模块2811是管理数据库DB或注册表的程序模块。基于位置的模块2812是支持与诸如GPS芯片的硬件相关联的基于位置的服务的程序模块。安全模块2813是支持认证、许可或硬件的安全存储的程序模块,网络模块2814支持联网并可包括DNET模块或UPnP模块。
装置管理模块2820管理外部输入和与外部装置相关的信息。装置管理模块2820可包括感测模块2821、装置信息管理模块2822或远程控制模块2823。感测模块2821对从包括第一传感器110和第二传感器120的各种传感器提供的传感器数据进行分析。具体而言,感测模块2821是执行感测对象的位置或用户的位置、颜色、形状、尺寸和其他特征的操作的程序模块。感测模块2821还可包括人脸识别模块、语音设备模块、运动识别模块或NFC识别模块。装置信息管理模块2822提供关于各种装置的信息,远程控制模块2823是执行对周围装置(诸如电话、TV、打印机、相机或空调等)进行远程控制的操作的程序模块。
提供通信模块2830以与外部装置进行通信。通信模块2830可包括消息模块2831(诸如通讯程序、短消息服务(SMS)&多媒体消息服务(MMS)程序、或电子邮件程序)或电话模块2832(包括呼叫信息聚合器程序模块或VoIP模块)。
提供演示模块2940以构建显示屏幕。演示模块2840可包括用于回放或输出多媒体内容的多媒体模块2841和用于处理UI和图形的UI和图像模块2842。多媒体模块2841可包括播放器模块、便携式摄像机模块或声音处理模块。因此,多媒体模块2841进行操作以回放各种多媒体内容来产生屏幕和声音,并播放屏幕和声音。UI和图像模块2842可包括图像合成器模块2842-1、坐标组合模块2842-2、X11模块2842-3或2D/3D UI工具箱2842-4,其中,图像合成器模块2842-1对图像进行合成,坐标组合模块2842-2在图像将被显示的屏幕上组合并产生坐标,X11模块2842-3从硬件接收各种事件,2D/3DUI工具箱2842-4提供用于构建2D或3D UI的工具。
网络浏览模块2850通过实现网络浏览来访问网络服务器。网络浏览器模块2850可包括各种模块(包括用于构建网页的网络浏览模块、执行下载的下载代理模块、书签模块或Webkit模块)。
此外,服务模块2860是提供各种服务的应用模块。作为示例,服务模块2860可包括各种模块,包括导航服务模块、游戏模块或广告应用模块,其中,导航服务模块用于提供地图、当前位置、地标或路线信息。
控制器130内部的主CPU 132可经由接口135访问存储器150以将存储在存储器150的各种模块复制到RAM 131-2上,并根据复制的模块的操作来执行操作。
具体而言,主CPU 132可检测对象的位置和用户的位置,并根据感测模块2821的操作来确定透射区域。随后,主CPU132通过运行演示模块2840,促使信息被显示在除透射区域之外的区域上。具体而言,主CPU 132可使用坐标组合模块2842-2来产生信息的新位置的坐标,并将信息显示在与该坐标相应的新位置上。此外,主CPU 132可使用图像合成器模块2842-1改变信息的各种属性,诸如,尺寸、颜色、形状或布局。
显示的信息可以是将由多媒体模块2841播放的多媒体内容,或可以是在UI和图形模块2842产生的各种UI、图形图像或文本。
此外,主CPU 132可运行消息模块2841,以从通信状态下的节点接收信使、SMS消息、MMS消息或电子邮件。接收的消息可被显示在透明显示器140上。
参照图25和图26,如果透明显示设备被实现在商店的展示橱窗上,则主CPU 132可运行UI和图形模块以显示各种广告图像或广告语。可经由网络服务器或其他网络装置接收广告图像或广告语。主CPU 132可运行网络浏览模块2850,以经由网络接口139访问外部网络服务器,从网络服务器接收网页数据,并根据网页数据显示屏幕。透明显示设备可与该服务器通信,并且该服务器可控制透明显示设备连同其他透明显示设备来共同显示信息。
如上所解释的,存储器150可将各种结构的程序存储在其中,并且控制器130可使用存储在存储器150的程序来执行根据示例性实施例的操作。
图29示出将用户界面(UI)屏幕显示在与用户的位置相应的区域上。
参照图29,如果在对象20与用户相对并且透明显示器140介于对象20和用户之间的状态下用户向特定方向移动,则根据改变后的位置来改变透射区域20′,并且考虑改变后的位置来将信息30显示在合适的位置上。
在这种情况下,如果透明显示设备100确定用户接近于透明显示显示器140的预定距离内,则透明显示设备设备100将用户UI显示在与用户10的位置相应的区域上。用户UI可包括关于对象20的信息、关于实现透明显示设备100的环境(例如,商店)的信息、用于将信息30改变为其他信息的菜单或用于改变显示的信息30的属性的菜单。用户10可查看关于商店的存货清单中的其他产品的信息,或联系商店。
此外,如上所解释的,可根据用户的位置来改变显示的信息的属性。图30和图31是示出根据用户和透明显示器之间的距离来调整信息显示区域的尺寸的示例性实施例的示图。
参照图30,如果用户在距离(LD)处,则信息30以相对较大的尺寸显示在透射区域20′的一侧上。
相反,参照图30,如果用户在比距离(LD)短的距离(SD)处,则信息30以与距离差成比例地被减小的尺寸显示。
因此,不管距离如何,用户能够方便地看清信息。
图32示出用于根据用户的视场来调整显示的信息30的位置的方法。
参照图32,如果用户从透明显示设备100的前方向观看对象20,则透射区域20′被形成在前面,并且信息被显示在一侧。
随后,如果用户在向左的方向上移动使得用户的视场改变,则透明显示设备100通过在用户的视场中避免透射区域20′来显示信息30。
可通过拍摄用户并跟踪用户的脸或注视的方向来计算视场。此外,还可在普通人处于用户的位置处的视线范围内,基于连接用户的位置和对象20的位置的直线(诸如,视线)来计算视场。
同时,如果存在多个对象,则可仅为与用户的位置相应的对象适应性地显示信息。
此外,如果存在多个将被显示的信息,则可针对与用户的位置相应的区域考虑各个信息。
同时,如上所解释的,能够改变显示的信息的属性以及显示的信息的位置。如果用当前状态估计先前状态的结果指示环境是相同的,则对位置进行简单地移动时,可保持显示的信息的属性。如果对象或用户在不存在用户或对象上的任何改变的情况下移动,则由于透射区域根据改变的位置而改变,所以相同的属性可被显示在远离改变后的透射区域的其他区域上。
相反,如果用于避开透射区域的空间由于透射区域的相对较大的尺寸而不够时,则可仅将信息的颜色改变为区别于对象的颜色。可选地,如果对象的颜色和信息的颜色相似,使得即使在移动显示的信息的位置之后仍可能使可视性下降,则可改变显示的信息的位置并同时改变信息的颜色。可选地,由于位置的移动,最靠近用户的对象的信息、显示的最靠近用户的信息或显示在与用户的注视相交的区域处的信息,可被以改变后的颜色显示。
可以以与改变颜色相似的方式来改变粗细度。例如,关于与用户相距较远距离处的对象的信息或显示在较远的显示区域上的信息可被以粗线显示,而显示在近距离处的信息可被以细线显示。或者,显示在与用户的注视相交的区域出的信息可被以粗线显示。然而,以上示例可根据设置而改变。例如,在与用户相距较远距离处的信息可被设置为用细的粗细度来显示。
同样的情况应用于尺寸。也就是说,如果信息是关于位于与用户相距较远处的对象的信息,如果信息在与用户相距较远处被显示,或如果用户和透明显示设备之间的距离近或远时,则信息的尺寸可被适应性地调整。
除了以上解释的颜色、尺寸或粗细度之外,还可对各种其他属性(诸如语言或字体)进行不同地设置。
尽管属性可根据用户和对象的位置或显示环境而改变,但在可选的示例性实施例中,还可根据由短程无线通信或其他通信获得的关于用户的信息来不同地设置信息。
也就是说,如果通过短程无线通信提供用户信息,则可基于用户信息来调整信息的粗细度、颜色、尺寸、语言或字体,并且甚至还可不同地显示信息的类型或级别。例如,特定信息可被以更大的粗细度和尺寸来显示。
图33示出根据由短程无线通信提供的用户信息来改变显示的信息的属性的实施例。
参照图33,即使用户10是老年人或外国人,也首先考虑用户10的位置和对象20的位置来将信息30显示在合适的位置。随后,如果用户将他自己的用户终端300贴标签到NFC模块200,则NFC模块200接收用户信息。用户信息可包括用户的姓名、性别、年龄或国籍。
如果接收到用户信息,则透明显示设备100确定适合于用户信息的属性。
图33示出老年妇女贴标签的示例。透明显示设备100显示具有比最初显示的形式更大的粗细度和尺寸的信息。因此,即使具有较低视力的老年人也可容易地感知信息30。
如果用户是外国人,则可根据用户的国籍以各种语言(包括英语、日语、法语或中文)显示信息。
除了显示的信息的属性之外,还可不同地改变信息的内容和级别。例如,如果40岁的家庭主妇贴标签,则激起家庭主妇好奇心的信息可被显示,或者如果10岁的学生贴标签,则如果信息是针对成年人的内容,则该信息不被显示。
此外,在图33中示出的示例性实施例中,尽管可使用NFC来接收用户信息并且可适当地改变信息,但还可使用其他无线通信方法,包括WiFi、蓝牙、Zigbee。可选地,可使用户能够经由透明显示器140上提供的终端直接输入用户自己的信息。
可选地,透明显示设备100可通过直接拍摄用户图像和分析拍摄的图像来确定用户特征,而不是使用无线通信。
图34示出通过拍摄用户来确定用户的特征并根据特征改变信息显示状态的实施例。
参照图34,如果第一用户10-1站在透明显示器140的前面,则通过拍摄来获取第一用户10-1的图像。透明显示设备100通过分析获取的图像来确定用户是成年人还是孩子。具体而言,使用获取的图像的垂直长度、图像上与第一用户10-1相应的区域的垂直长度以及透明显示器140和第一用户10-1之间的距离,可成比例地计算出第一用户10-1的高度。因此,如果计算出的高度超出阈值,则第一用户10-1被视为是成年人。
如果第一用户10-1被确定为成年人,则透明显示设备100在成年人10-1的视线水平显示为成年人准备的信息30-1。
随后如果第一用户10-1离开拍摄范围并且第二用户10-2进入拍摄范围,则通过拍摄获取第二用户10-2的图像,并通过分析获取的图像来再确定第二用户10-2是成年人还是孩子。因此,如果确定第二用户10-2是孩子,则删除先前的信息30-1并在孩子的视线水平显示为孩子准备的信息30-2、30-3。
因此,可将具有足够可视性的各种信息适应性地提供给用户。
在以上解释的各种示例性实施例中,信息被以框的形式显示。然而,这是为了方便解释而书写的,并且其他示例是可能的。例如,信息可被显示为仅是文本。可选地,显示信息的区域的背景颜色可被处理为非透明以使信息清楚地区别于背景图像。
同时,可在能够进行透明显示的几乎所有类型的装置中实现根据以上解释的各种示例性实施例的方法。例如,可在包括窗户、平视显示(HUD)系统、头盔安装显示(HUD)系统、膝上型计算机、PC监控器、TV、PDA、电子相框、平板PC或相机等的各种装置中实现所述方法。
图35示出实现在相机中的透明显示设备。参照图35,相机1000可包括透明显示器1400。透明显示器1400可作为替代物安装在传统相机装置中显示实时取景的普通显示单元的位置处。因此,用户能够在查看相机前面的从透明显示器1400透明地查看到的实际的前景时进行拍摄,而不是观看在拍摄装置(诸如电荷耦合器件(CCD))捕获的实时取景。
在一个示例实施例中,透明显示器1400可使用面向前方的拍摄装置,检测布置在前景中的对象20的位置。相机1000可使用深度相机或距离传感器来检测对象和相机1000之间的距离。相机1000可基于感测到的距离和对象的位置来确定查看到对象的透射区域。在采用相机1000的实施例中,在不需要感测用户的位置的操作的情况下也能确定透射区域,即,通过使用用户和相机1000之间的统计距离和角度,其中,相机1000的用户可参考相机1000来布置。此外,通过感测想要使用相机1000的用户的位置和/或注视,能够估计与用户的注视相应的对象20、相应的对象20的位置和/或对象20的透射区域。因此,可基于用户的位置、用户的注视、相应的对象20的位置和/或对象20的识别区域,确定在透明显示器1400上的透过其查看到对象的透射区域。
如果确定了透射区域20′,则相机1000将信息30显示在透明显示器1400上除了透射区域20′之外的区域上。尽管图35示出显示关于可选菜单的信息30的情况,可选地,还可显示其他各种信息(诸如,相机1000电池功率、操作模式或存储容量)并且可将信息显示在除了透射区域20′之外的区域上以增强可视性。
如上所解释的,透明显示设备1000可被实现为相机。
同时,在一些示例性实施例中,多个拍摄单元或可旋转拍摄单元可被用于确保根据用户的移动准确地确定透射区域。然而,其他实施例是可能的。例如,拍摄单元可被指定为根据用户的移动而移动。
图36示出根据示例性实施例的透明显示设备。参照图36,透明显示设备1000可包括横杆36和可沿着横杆36移动的可移动的主体3600。
第一拍摄单元111和第二拍摄单元121可面对彼此相反的方向地被附着在可移动主体3600上。可移动主体3600根据用户的位置来移动。
在没有用户存在的待机模式下,可移动主体3600可停留在透明显示器140的中心或一端的固定的位置处。
以当可移动主体3600在待机模式下位于透明显示器140的中心为例,如果最初在第二拍摄单元121拍摄的图像中感测到用户,则控制器130确定图像中的用户的位置。如果确定了用户的位置,则当参考图像的中心在用户所在的方向上移动可移动主体3600时,控制器130继续执行拍摄。如果作为结果获取到用户在中心处的图像,则从那以后,控制器130根据用户正在移动的方向和这样的移动的速度,移动可移动主体3600。由于第一拍摄单元111和第二拍摄单元121被分别附着到可移动主体3600上,所以第一拍摄单元111的拍摄范围根据可移动主体3600的移动而改变。因此,从通过第一拍摄单元110捕获的图像感测到的对象的识别区域与在用户的眼中感知到的透射区域一致。
可选地,参照图36,如果用户在可移动主体3600位于一端的状态下进入拍摄区域,则控制器130保持可移动主体3600处于待机模式下,直到获取到用户在中心处的图像为止。在这种情况下,基于对用户在连续拍摄的图像中的位置的比较来计算运动向量。如果获取到用户10在中心处的图像,则控制器130根据运动向量来移动可移动主体3600。因此,在第一拍摄单元110的拍摄的图像中感测到的对象的识别区域与通过用户的眼睛感知到的透射区域一致。
另外,当用户向后移动而不是向右经过或向左经过时,可移动主体3600可停留在可移动主体3600移动到的位置处。可选地,可移动主体3600可停留和向左和右周期性地往复运动来检测用户的存在。可移动主体3600可在感测到用户存在时感知进入用户的视场中的对象,从而确定相应的透射区域并相应地显示信息。
如上所解释的,在各种示例性实施例中,可考虑用户的位置和对象的位置更高效地传递信息。
同时,根据各种示例性实施例的方法可被编程并存储在各种存储介质中。因此,可在运行存储介质的多种类型的电子设备上实现根据各种示例性实施例的方法。
具体而言,在示例性实施例中,可提供存储程序的非暂时性计算机可读介质,其中,在所述介质中所述程序顺序执行以下操作:分别感测对象的位置和用户的位置,基于感测到的位置来估计透射区域,并移动包括在估计出的透射区域中的显示信息的位置。
非暂时性计算机可读记录介质可半永久性地存储数据,并可被装置读取。也就是说,可在非暂时性计算机可读介质(诸如,CD、DVD、硬盘、蓝光光盘、USB、存储卡或ROM)上存储和提供以上提到的各种应用或程序。
此外,上面的示例性实施例和优点仅是示例性的,并不被解释为限制。本教导可被容易地应用于其他类型的设备。此外,本发明构思的示例性实施例的描述意在说明而不是限制权利要求的范围。
Claims (11)
1.一种透明显示设备,包括:
透明显示器;
至少一个传感器,感测对象的位置和用户的位置;
控制器,基于对象的位置和用户的位置来确定透明显示器中的第一区域,并基于确定的第一区域控制透明显示器将信息显示在不与透明显示器的第一区域重叠的透明显示器的第二区域上,其中,用户能够透过第一区域看到对象,
其中,如果所述至少一个传感器感测到用户的位置和对象的位置中的至少一个的改变,则控制器基于改变后的用户的位置和对象的位置确定新的第一区域,确定当前显示所述信息的第二区域与新的第一区域是否重叠,并且响应于确定当前显示所述信息的第二区域与新的第一区域重叠,基于确定的新的第一区域控制透明显示器将所述信息显示在透明显示器的不与新的第一区域重叠的新的第二区域上,
其中,控制器还获得关于所述用户的用户信息,并根据获得的用户信息改变显示的所述信息的属性。
2.如权利要求1所述的透明显示设备,其中,对象的位置是相对于透明显示设备的位置的位置,用户的位置是相对于透明显示设备的位置的位置。
3.如权利要求1所述的透明显示设备,其中,所述至少一个传感器包括至少一个相机,其中,所述至少一个相机拍摄对象和用户,基于对象的照片来感测对象的位置,并基于用户的照片来感测用户的位置。
4.如权利要求1所述的透明显示设备,其中,控制器基于用户的位置和对象的位置来确定用户和对象之间的视线。
5.如权利要求4所述的透明显示设备,其中,控制器基于所述视线来确定所述区域。
6.如权利要求1所述的透明显示设备,其中,控制器控制透明显示器以第一颜色显示信息,其中,第一颜色不同于对象的第二颜色。
7.如权利要求1所述的透明显示设备,其中,透明显示设备介于对象和用户之间。
8.如权利要求1所述的透明显示设备,其中,控制器控制透明显示器将信息显示在透明显示器上的第一位置,响应于所述至少一个传感器感测到对象的位置和用户的位置中的至少一个,确定第一位置与第一区域是否重叠,并且响应于第一位置与第一区域重叠,调整信息的属性。
9.如权利要求8所述的透明显示设备,其中,所述属性为颜色,并且控制器控制透明显示器以第一颜色显示信息,其中,第一颜色不同于对象的第二颜色。
10.如权利要求8所述的透明显示设备,其中,所述属性是信息的尺寸、信息的颜色、信息的字体、信息的不透明度、信息的粗细度和显示信息的区域的背景颜色中的至少一个。
11.一种将信息显示在透明显示器上的方法,所述方法包括:
感测对象的位置;
感测用户的位置;
基于对象的位置和用户的位置确定透明显示器中的第一区域,其中,用户能够透过第一区域看到对象;
基于确定的第一区域将信息显示在不与透明显示器的第一区域重叠的透明显示器的第二区域上,
其中,所述方法还包括:如果感测到用户的位置和对象的位置中的至少一个的改变,则基于改变后的用户的位置和对象的位置确定新的第一区域,确定当前显示所述信息的第二区域与新的第一区域是否重叠,并且响应于确定当前显示所述信息的第二区域与新的第一区域重叠,基于确定的新的第一区域控制透明显示器将所述信息显示在透明显示器的不与新的第一区域重叠的新的第二区域上,
其中,所述方法还包括:获得关于所述用户的用户信息,并根据获得的用户信息改变显示的所述信息的属性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910038594.8A CN109471535B (zh) | 2012-04-08 | 2013-04-03 | 透明显示设备及其方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0036475 | 2012-04-08 | ||
KR1020120036475A KR101793628B1 (ko) | 2012-04-08 | 2012-04-08 | 투명 디스플레이 장치 및 그 디스플레이 방법 |
PCT/KR2013/002759 WO2013154295A1 (en) | 2012-04-08 | 2013-04-03 | Transparent display apparatus and method thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910038594.8A Division CN109471535B (zh) | 2012-04-08 | 2013-04-03 | 透明显示设备及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104272371A CN104272371A (zh) | 2015-01-07 |
CN104272371B true CN104272371B (zh) | 2019-02-15 |
Family
ID=48142627
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380019007.1A Active CN104272371B (zh) | 2012-04-08 | 2013-04-03 | 透明显示设备及其方法 |
CN201910038594.8A Active CN109471535B (zh) | 2012-04-08 | 2013-04-03 | 透明显示设备及其方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910038594.8A Active CN109471535B (zh) | 2012-04-08 | 2013-04-03 | 透明显示设备及其方法 |
Country Status (9)
Country | Link |
---|---|
US (2) | US9958957B2 (zh) |
EP (2) | EP2657929B1 (zh) |
JP (1) | JP2015518580A (zh) |
KR (1) | KR101793628B1 (zh) |
CN (2) | CN104272371B (zh) |
AU (1) | AU2013203007B2 (zh) |
IN (1) | IN2014DN09252A (zh) |
RU (1) | RU2014140597A (zh) |
WO (1) | WO2013154295A1 (zh) |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288472B2 (en) | 2011-08-30 | 2022-03-29 | Digimarc Corporation | Cart-based shopping arrangements employing probabilistic item identification |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
KR102028720B1 (ko) * | 2012-07-10 | 2019-11-08 | 삼성전자주식회사 | 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법 |
KR102047494B1 (ko) * | 2012-09-10 | 2019-11-21 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 객체 선택 방법 |
JP2016503918A (ja) * | 2012-12-21 | 2016-02-08 | ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー | 車両のためのシステム |
KR102051656B1 (ko) * | 2013-01-22 | 2019-12-03 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 디스플레이 방법 |
KR102187837B1 (ko) * | 2013-05-16 | 2020-12-07 | 삼성전자 주식회사 | 컴퓨터의 입력 장치 및 이를 이용한 입력 방법과 그 시스템 |
US10984372B2 (en) | 2013-05-24 | 2021-04-20 | Amazon Technologies, Inc. | Inventory transitions |
US10949804B2 (en) | 2013-05-24 | 2021-03-16 | Amazon Technologies, Inc. | Tote based item tracking |
US10860976B2 (en) | 2013-05-24 | 2020-12-08 | Amazon Technologies, Inc. | Inventory tracking |
US10176456B2 (en) | 2013-06-26 | 2019-01-08 | Amazon Technologies, Inc. | Transitioning items from a materials handling facility |
US10268983B2 (en) | 2013-06-26 | 2019-04-23 | Amazon Technologies, Inc. | Detecting item interaction and movement |
US10176513B1 (en) * | 2013-06-26 | 2019-01-08 | Amazon Technologies, Inc. | Using gestures and expressions to assist users |
US10353982B1 (en) | 2013-08-13 | 2019-07-16 | Amazon Technologies, Inc. | Disambiguating between users |
KR20150026201A (ko) * | 2013-09-02 | 2015-03-11 | 엘지전자 주식회사 | 디지털 디바이스 및 제어 방법 |
KR20150026565A (ko) * | 2013-09-03 | 2015-03-11 | 엘지전자 주식회사 | 디스플레이 장치 및 그것의 제어방법 |
GB2519325A (en) * | 2013-10-17 | 2015-04-22 | Ibm | Switching of electronic social presence between devices |
US9990034B2 (en) * | 2013-11-15 | 2018-06-05 | Lg Electronics Inc. | Transparent display device and control method therefor |
KR102179154B1 (ko) * | 2013-11-27 | 2020-11-16 | 한국전자통신연구원 | 투명 디스플레이를 이용한 전자기기 제어방법 및 이를 이용한 장치 |
KR102135367B1 (ko) * | 2014-01-23 | 2020-07-17 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US10453371B2 (en) | 2014-02-07 | 2019-10-22 | Samsung Electronics Co., Ltd. | Multi-layer display with color and contrast enhancement |
US10554962B2 (en) | 2014-02-07 | 2020-02-04 | Samsung Electronics Co., Ltd. | Multi-layer high transparency display for light field generation |
US10565925B2 (en) * | 2014-02-07 | 2020-02-18 | Samsung Electronics Co., Ltd. | Full color display with intrinsic transparency |
US10375365B2 (en) | 2014-02-07 | 2019-08-06 | Samsung Electronics Co., Ltd. | Projection system with enhanced color and contrast |
CN111246050B (zh) | 2014-02-25 | 2022-10-28 | 苹果公司 | 用于视频数据处理的系统、装置和方法 |
US9483997B2 (en) | 2014-03-10 | 2016-11-01 | Sony Corporation | Proximity detection of candidate companion display device in same room as primary display using infrared signaling |
US10264211B2 (en) * | 2014-03-14 | 2019-04-16 | Comcast Cable Communications, Llc | Adaptive resolution in software applications based on dynamic eye tracking |
AT515595A2 (de) * | 2014-03-27 | 2015-10-15 | 9Yards Gmbh | Verfahren zur optischen Erkennung von Zeichen |
US9626709B2 (en) * | 2014-04-16 | 2017-04-18 | At&T Intellectual Property I, L.P. | In-store field-of-view merchandising and analytics |
US9696414B2 (en) | 2014-05-15 | 2017-07-04 | Sony Corporation | Proximity detection of candidate companion display device in same room as primary display using sonic signaling |
US10070291B2 (en) | 2014-05-19 | 2018-09-04 | Sony Corporation | Proximity detection of candidate companion display device in same room as primary display using low energy bluetooth |
KR101592365B1 (ko) * | 2014-06-11 | 2016-02-11 | (주)피엑스디 | 디지털 스크린과 인쇄 매체가 결합된 증강정보 제공 장치 및 증강정보 제공 방법 |
EP3907590A3 (en) * | 2014-06-24 | 2022-02-09 | Sony Group Corporation | Information processing device, information processing method, and computer program |
EP3981295A1 (en) | 2014-06-26 | 2022-04-13 | Corning Incorporated | Insulated glass unit |
CN104077149B (zh) * | 2014-07-18 | 2018-02-02 | 北京智谷睿拓技术服务有限公司 | 内容分享方法和装置 |
KR20160015843A (ko) * | 2014-07-31 | 2016-02-15 | 삼성전자주식회사 | 디스플레이 장치 및 그 디스플레이 장치를 제어하는 방법 |
JP6432197B2 (ja) * | 2014-07-31 | 2018-12-05 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
WO2016017997A1 (en) | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable glasses and method of providing content using the same |
KR102322034B1 (ko) * | 2014-09-26 | 2021-11-04 | 삼성전자주식회사 | 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치 |
US9851786B2 (en) * | 2014-12-10 | 2017-12-26 | Sixense Entertainment, Inc. | System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment |
KR102219910B1 (ko) * | 2014-12-12 | 2021-02-24 | 삼성전자주식회사 | 컨텐트를 표시하는 방법 및 디바이스 |
IL236243A (en) | 2014-12-14 | 2016-08-31 | Elbit Systems Ltd | Visual enhancement of color icons is shown |
US10552750B1 (en) | 2014-12-23 | 2020-02-04 | Amazon Technologies, Inc. | Disambiguating between multiple users |
KR101535595B1 (ko) * | 2014-12-23 | 2015-07-09 | (주)엘리비젼 | 디스플레이의 ui 위치 자동조절 시스템 |
US10475185B1 (en) | 2014-12-23 | 2019-11-12 | Amazon Technologies, Inc. | Associating a user with an event |
US10438277B1 (en) * | 2014-12-23 | 2019-10-08 | Amazon Technologies, Inc. | Determining an item involved in an event |
CN104505002B (zh) * | 2014-12-31 | 2016-03-23 | 深圳市中兴移动通信有限公司 | 基于oled屏的显示方法和装置 |
KR20160096789A (ko) * | 2015-02-05 | 2016-08-17 | 삼성디스플레이 주식회사 | 이중 화상 표시장치 및 구동 방법 |
US10416520B2 (en) | 2015-03-20 | 2019-09-17 | Hewlett-Packard Development Company, L.P. | Display with adjustable transparency |
KR20160123622A (ko) * | 2015-04-16 | 2016-10-26 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어방법 |
EP3094082A1 (en) * | 2015-05-13 | 2016-11-16 | AIM Sport Vision AG | Digitally overlaying an image with another image |
WO2017056776A1 (ja) * | 2015-09-29 | 2017-04-06 | 富士フイルム株式会社 | 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法 |
US9666118B2 (en) * | 2015-10-01 | 2017-05-30 | Chunghwa Picture Tubes, Ltd. | Transparent display apparatus |
DE102015226153A1 (de) | 2015-12-21 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Anzeigevorrichtung und Bedieneinrichtung |
KR102534722B1 (ko) * | 2015-12-24 | 2023-05-22 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
CN105719586A (zh) * | 2016-03-18 | 2016-06-29 | 京东方科技集团股份有限公司 | 透明显示方法和透明显示装置 |
CN107221548A (zh) * | 2016-03-22 | 2017-09-29 | 上海和辉光电有限公司 | Oled显示面板、智能显示玻璃装置及制备方法 |
KR101904453B1 (ko) * | 2016-05-25 | 2018-10-04 | 김선필 | 인공 지능 투명 디스플레이의 동작 방법 및 인공 지능 투명 디스플레이 |
KR102520108B1 (ko) * | 2016-06-07 | 2023-04-11 | 삼성디스플레이 주식회사 | 투명 표시 장치, 이의 구동 방법, 및 이미지 취득 장치 |
US10943562B2 (en) | 2016-08-17 | 2021-03-09 | Sony Corporation | Display control apparatus and display control method |
EP3316117A1 (en) | 2016-10-31 | 2018-05-02 | Nokia Technologies OY | Controlling content displayed in a display |
EP3316186B1 (en) | 2016-10-31 | 2021-04-28 | Nokia Technologies Oy | Controlling display of data to a person via a display apparatus |
EP3551826B1 (en) * | 2016-12-09 | 2021-06-30 | Gentex Corporation | Location based adjustable windows |
CN108227914B (zh) * | 2016-12-12 | 2021-03-05 | 财团法人工业技术研究院 | 透明显示装置、使用其的控制方法及其控制器 |
JP7050067B2 (ja) * | 2016-12-14 | 2022-04-07 | サムスン エレクトロニクス カンパニー リミテッド | ディスプレイ装置及びその制御方法 |
JP7012241B2 (ja) * | 2017-02-03 | 2022-01-28 | パナソニックIpマネジメント株式会社 | 映像表示システム及び映像表示方法 |
FR3063564B1 (fr) * | 2017-03-06 | 2021-05-28 | Isorg | Capteur d'empreintes digitales integre dans un ecran d'affichage |
JP2018159889A (ja) * | 2017-03-24 | 2018-10-11 | 富士ゼロックス株式会社 | 表示装置 |
JP6929114B2 (ja) * | 2017-04-24 | 2021-09-01 | キヤノン株式会社 | 光電変換装置及び撮像システム |
CN107133005B (zh) * | 2017-04-28 | 2019-05-17 | 维沃移动通信有限公司 | 一种柔性屏的显示方法及移动终端 |
KR20190001114A (ko) * | 2017-06-26 | 2019-01-04 | 삼성전자주식회사 | 디스플레이장치와 그 제어방법 및 시스템 |
KR101987142B1 (ko) * | 2017-06-30 | 2019-06-10 | 한국과학기술연구원 | 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법 |
CN107093395B (zh) * | 2017-07-05 | 2020-07-21 | 京东方科技集团股份有限公司 | 一种透明显示装置及其图像显示方法 |
CN107392162B (zh) * | 2017-07-27 | 2020-08-21 | 京东方科技集团股份有限公司 | 危险人物识别方法及装置 |
JP6938270B2 (ja) * | 2017-08-09 | 2021-09-22 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
CN109388233B (zh) * | 2017-08-14 | 2022-07-29 | 财团法人工业技术研究院 | 透明显示装置及其控制方法 |
US10469819B2 (en) | 2017-08-17 | 2019-11-05 | Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd | Augmented reality display method based on a transparent display device and augmented reality display device |
CN107506032A (zh) * | 2017-08-17 | 2017-12-22 | 深圳市华星光电半导体显示技术有限公司 | 基于透明显示器的增强现实显示方法和装置 |
TWI629675B (zh) * | 2017-08-18 | 2018-07-11 | 財團法人工業技術研究院 | 影像辨識系統及其資訊顯示方法 |
JP6958141B2 (ja) * | 2017-09-05 | 2021-11-02 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、画像形成装置、および、プログラム |
CN107505773B (zh) | 2017-09-26 | 2021-01-26 | 京东方科技集团股份有限公司 | 背光模组及显示装置 |
US10080051B1 (en) * | 2017-10-25 | 2018-09-18 | TCL Research America Inc. | Method and system for immersive information presentation |
JP2019086735A (ja) * | 2017-11-10 | 2019-06-06 | シャープ株式会社 | 表示装置、制御方法、及びコンピュータープログラム |
US20190156270A1 (en) | 2017-11-18 | 2019-05-23 | Walmart Apollo, Llc | Distributed Sensor System and Method for Inventory Management and Predictive Replenishment |
CN107944960A (zh) * | 2017-11-27 | 2018-04-20 | 深圳码隆科技有限公司 | 一种无人售货方法和设备 |
CN108153502B (zh) * | 2017-12-22 | 2021-11-12 | 长江勘测规划设计研究有限责任公司 | 基于透明屏幕的手持式增强现实显示方法及装置 |
US10614271B2 (en) * | 2018-01-15 | 2020-04-07 | Universal City Studios Llc | Interactive systems and methods |
WO2019181488A1 (ja) * | 2018-03-20 | 2019-09-26 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN108764998B (zh) | 2018-05-25 | 2022-06-24 | 京东方科技集团股份有限公司 | 智能展示装置以及智能展示方法 |
CN108644628B (zh) | 2018-06-06 | 2024-03-29 | 北京夏禾科技有限公司 | 高良率低成本大面积柔性oled照明模组 |
TWI670646B (zh) | 2018-06-15 | 2019-09-01 | 財團法人工業技術研究院 | 資訊顯示方法及其顯示系統 |
WO2020013519A1 (en) * | 2018-07-10 | 2020-01-16 | Samsung Electronics Co., Ltd. | Method and system of displaying multimedia content on glass window of vehicle |
TWI669703B (zh) | 2018-08-28 | 2019-08-21 | 財團法人工業技術研究院 | 適於多人觀看的資訊顯示方法及資訊顯示裝置 |
TWI718410B (zh) | 2018-09-14 | 2021-02-11 | 財團法人工業技術研究院 | 目標物資訊的預載顯示方法及裝置 |
KR102178939B1 (ko) * | 2018-10-17 | 2020-11-13 | 유병훈 | 환경제어장치 및 환경제어방법 |
CN109582134B (zh) * | 2018-11-09 | 2021-07-23 | 北京小米移动软件有限公司 | 信息显示的方法、装置及显示设备 |
CN109673043B (zh) * | 2018-11-27 | 2022-01-07 | Oppo广东移动通信有限公司 | 分体式电子设备的控制方法、装置、存储介质及电子设备 |
JP7400732B2 (ja) * | 2018-12-11 | 2023-12-19 | Agc株式会社 | 透明ディスプレイを備える透明ガラス、コントローラー、透明表示機器、及び透明ガラスの用法 |
CN109346003B (zh) * | 2018-12-13 | 2020-06-12 | 大连集思特科技有限公司 | 一种多层柔性透明薄膜led显示屏控制系统 |
JP7426782B2 (ja) * | 2019-03-04 | 2024-02-02 | 日本信号株式会社 | 情報表示システム |
WO2020262738A1 (ko) * | 2019-06-28 | 2020-12-30 | 전자부품연구원 | 투명 oled 디스플레이를 이용한 ar 쇼케이스 |
KR20210014813A (ko) | 2019-07-30 | 2021-02-10 | 삼성디스플레이 주식회사 | 표시장치 |
TWI717824B (zh) * | 2019-09-04 | 2021-02-01 | 財團法人工業技術研究院 | 資訊顯示方法以及資訊顯示系統 |
JP6917427B2 (ja) * | 2019-09-18 | 2021-08-11 | スカパーJsat株式会社 | 表示制御装置、表示装置、表示制御方法、プログラム |
KR20210057525A (ko) * | 2019-11-12 | 2021-05-21 | 삼성전자주식회사 | 디스플레이의 속성을 변경하기 위한 전자 장치 및 전자 장치에서의 동작 방법 |
JP2021081681A (ja) * | 2019-11-22 | 2021-05-27 | 凸版印刷株式会社 | 表示制御システム、表示制御方法 |
WO2021111975A1 (ja) * | 2019-12-04 | 2021-06-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US11929006B2 (en) | 2020-01-22 | 2024-03-12 | Sony Group Corporation | Display device |
KR20210113485A (ko) | 2020-03-05 | 2021-09-16 | 삼성전자주식회사 | 투명 스크린을 포함하는 디스플레이 장치를 제어하기 위한 방법 및 그 디스플레이 장치 |
TWI767232B (zh) * | 2020-05-20 | 2022-06-11 | 財團法人工業技術研究院 | 透明顯示系統、視差校正方法與圖像輸出方法 |
CN113923437B (zh) * | 2020-07-09 | 2024-03-22 | 财团法人工业技术研究院 | 信息显示方法及其处理装置与显示系统 |
KR20220017043A (ko) | 2020-08-03 | 2022-02-11 | 삼성디스플레이 주식회사 | 표시 장치 |
FR3113429A1 (fr) | 2020-08-17 | 2022-02-18 | Isorg | Dispositif d'acquisition d'images |
GB202019489D0 (en) * | 2020-12-10 | 2021-01-27 | Bae Systems Plc | Augmented reality window |
CN113269293B (zh) * | 2021-05-21 | 2022-02-18 | 深圳市方圆展示制品有限公司 | 一种线上线下体验的商品展示柜 |
WO2023018827A1 (en) * | 2021-08-11 | 2023-02-16 | Meta Platforms Technologies, Llc | Dynamic widget placement within an artificial reality display |
DE112022004249A5 (de) * | 2021-09-01 | 2024-07-18 | Continental Automotive Technologies GmbH | Head-Up-Display mit reduzierter Verdeckung |
DE102021209616B3 (de) * | 2021-09-01 | 2022-07-07 | Continental Automotive Gmbh | Head-Up-Display mit reduzierter Verdeckung |
CN114567767B (zh) * | 2022-02-23 | 2024-06-18 | 京东方科技集团股份有限公司 | 显示装置、光场采集方法、图像数据传输方法及相关设备 |
CN114816145A (zh) * | 2022-03-08 | 2022-07-29 | 联想(北京)有限公司 | 设备管控方法、装置 |
JP2024000858A (ja) | 2022-06-21 | 2024-01-09 | 株式会社ジャパンディスプレイ | 電子機器 |
WO2024043424A1 (ko) * | 2022-08-23 | 2024-02-29 | 김필재 | 감지된 객체를 이용한 컨텐츠 제공 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3364081B2 (ja) * | 1995-02-16 | 2003-01-08 | 株式会社半導体エネルギー研究所 | 半導体装置の作製方法 |
JP2001117684A (ja) * | 1999-10-20 | 2001-04-27 | Fujitsu General Ltd | タッチパネル装置 |
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US6919866B2 (en) * | 2001-02-06 | 2005-07-19 | International Business Machines Corporation | Vehicular navigation system |
US7978184B2 (en) * | 2002-11-08 | 2011-07-12 | American Greetings Corporation | Interactive window display |
WO2004095374A1 (ja) * | 2003-04-21 | 2004-11-04 | Nec Corporation | 映像オブジェクト認識装置および認識方法、映像アノテーション付与装置および付与方法ならびにプログラム |
JP2005258015A (ja) * | 2004-03-11 | 2005-09-22 | Mitsubishi Electric Corp | 多次元表示装置及び方法 |
US7394459B2 (en) * | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
JP5008560B2 (ja) * | 2005-11-02 | 2012-08-22 | パナソニック株式会社 | 表示オブジェクト透過装置 |
WO2008012716A2 (en) * | 2006-07-28 | 2008-01-31 | Koninklijke Philips Electronics N. V. | Private screens self distributing along the shop window |
KR101058040B1 (ko) * | 2006-12-21 | 2011-08-19 | 삼성전자주식회사 | 컨텐츠 출력 방법 및 그 장치 |
JP4549381B2 (ja) * | 2007-11-14 | 2010-09-22 | シャープ株式会社 | 情報処理システム及び情報処理装置 |
ATE489804T1 (de) * | 2008-05-29 | 2010-12-15 | Lg Electronics Inc | Transparente anzeige und betriebsverfahren dafür |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
KR20100064177A (ko) * | 2008-12-04 | 2010-06-14 | 삼성전자주식회사 | 전자장치 및 그의 디스플레이방법 |
KR20100128958A (ko) * | 2009-05-29 | 2010-12-08 | 엘지전자 주식회사 | 영상표시장치 및 그 제어방법 |
JP2011118807A (ja) * | 2009-12-07 | 2011-06-16 | Sanden Shoji Kk | タッチパネル自動販売機 |
KR101691564B1 (ko) * | 2010-06-14 | 2016-12-30 | 주식회사 비즈모델라인 | 시선방향 추적을 이용한 증강현실 제공 방법 |
KR20120029228A (ko) | 2010-09-16 | 2012-03-26 | 엘지전자 주식회사 | 투명 디스플레이 장치 및 객체 정보 제공 방법 |
US20120102438A1 (en) * | 2010-10-22 | 2012-04-26 | Robinson Ian N | Display system and method of displaying based on device interactions |
US8698771B2 (en) * | 2011-03-13 | 2014-04-15 | Lg Electronics Inc. | Transparent display apparatus and method for operating the same |
EP2500814B1 (en) * | 2011-03-13 | 2019-05-08 | LG Electronics Inc. | Transparent display apparatus and method for operating the same |
EP2500816B1 (en) * | 2011-03-13 | 2018-05-16 | LG Electronics Inc. | Transparent display apparatus and method for operating the same |
JP5830987B2 (ja) * | 2011-07-06 | 2015-12-09 | ソニー株式会社 | 表示制御装置、表示制御方法およびコンピュータプログラム |
KR20140045801A (ko) * | 2012-10-09 | 2014-04-17 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 제어 방법 |
KR102051656B1 (ko) * | 2013-01-22 | 2019-12-03 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 디스플레이 방법 |
-
2012
- 2012-04-08 KR KR1020120036475A patent/KR101793628B1/ko not_active Application Discontinuation
-
2013
- 2013-04-03 WO PCT/KR2013/002759 patent/WO2013154295A1/en active Application Filing
- 2013-04-03 RU RU2014140597A patent/RU2014140597A/ru not_active Application Discontinuation
- 2013-04-03 IN IN9252DEN2014 patent/IN2014DN09252A/en unknown
- 2013-04-03 JP JP2015504493A patent/JP2015518580A/ja active Pending
- 2013-04-03 CN CN201380019007.1A patent/CN104272371B/zh active Active
- 2013-04-03 CN CN201910038594.8A patent/CN109471535B/zh active Active
- 2013-04-08 EP EP13162683.0A patent/EP2657929B1/en active Active
- 2013-04-08 AU AU2013203007A patent/AU2013203007B2/en not_active Ceased
- 2013-04-08 US US13/858,190 patent/US9958957B2/en active Active
- 2013-04-08 EP EP19169668.1A patent/EP3531408A3/en active Pending
-
2018
- 2018-03-26 US US15/935,448 patent/US10732729B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
Also Published As
Publication number | Publication date |
---|---|
AU2013203007A1 (en) | 2013-10-24 |
RU2014140597A (ru) | 2016-04-27 |
US10732729B2 (en) | 2020-08-04 |
US20130265232A1 (en) | 2013-10-10 |
US9958957B2 (en) | 2018-05-01 |
WO2013154295A1 (en) | 2013-10-17 |
EP2657929A3 (en) | 2017-01-18 |
EP3531408A2 (en) | 2019-08-28 |
IN2014DN09252A (zh) | 2015-07-10 |
US20180217678A1 (en) | 2018-08-02 |
AU2013203007B2 (en) | 2014-12-11 |
EP2657929B1 (en) | 2019-06-12 |
CN109471535B (zh) | 2022-07-19 |
JP2015518580A (ja) | 2015-07-02 |
CN104272371A (zh) | 2015-01-07 |
KR20130113902A (ko) | 2013-10-16 |
CN109471535A (zh) | 2019-03-15 |
EP3531408A3 (en) | 2019-11-13 |
KR101793628B1 (ko) | 2017-11-06 |
EP2657929A2 (en) | 2013-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104272371B (zh) | 透明显示设备及其方法 | |
US11567535B2 (en) | Temperature-controlled wearable extended reality appliance | |
US11340855B2 (en) | Forming a larger display using multiple smaller displays | |
KR101971521B1 (ko) | 투명 디스플레이 장치 및 그 디스플레이 방법 | |
KR101896099B1 (ko) | 투명 디스플레이 장치 및 그 디스플레이 방법 | |
US10679587B2 (en) | Display of supplemental information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |