CN106055218A - 显示装置及其控制方法 - Google Patents

显示装置及其控制方法 Download PDF

Info

Publication number
CN106055218A
CN106055218A CN201610239605.5A CN201610239605A CN106055218A CN 106055218 A CN106055218 A CN 106055218A CN 201610239605 A CN201610239605 A CN 201610239605A CN 106055218 A CN106055218 A CN 106055218A
Authority
CN
China
Prior art keywords
display
display device
user
shooting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610239605.5A
Other languages
English (en)
Inventor
朴海允
姜东求
尹汝骏
李镕妍
车翔玉
郭知妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106055218A publication Critical patent/CN106055218A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Instrument Panels (AREA)

Abstract

提供一种显示装置。所述显示装置包括:透明显示器,其被配置成显示多个图形对象,并且响应于发生预定事件,中断显示所述多个显示的图形对象中的除了预定图形对象外的图形对象;图像拍摄单元,其被配置成通过拍摄从所述透明显示器投影的被摄物,生成拍摄图像;以及控制器,其被配置成合成所生成的拍摄图像与所述预定图形对象。

Description

显示装置及其控制方法
技术领域
本公开总体上涉及一种显示装置及其控制方法,并且更具体地,涉及一种提供实际对象以及显示在透明显示器上的图形对象的总体视图的显示装置及其控制方法。
背景技术
随着电子技术的发展,各种类型的显示装置用于各种领域。近年来,已经加速如透明显示装置的下一代显示装置。
透明显示装置是指其中显示器后侧的背景由于显示器透明度而反映出来的显示装置。在常规技术中,显示面板由不透明半导体化合物(如硅(Si)、砷化镓(galliumarsenide,GaAs)等)制成。然而,已开发出常规显示面板所无法支持的各种应用领域,并且已经努力开发新类型的电子装置。透明显示装置是根据这些努力的开发之一。
透明显示装置包括透明氧化物半导体薄膜,并且因此其具有透明度。当用户使用透明显示装置时,用户能够通过透明显示装置查看必要信息,从而查看在显示装置后侧的背景。因此,透明显示装置可以解决常规显示装置在空间和时间上的限制,并方便地用于各种环境以及各种用途。
透明显示装置通过透明显示单元显示各种信息,并且因此反映在显示器后侧的实际对象的外观与所显示的信息相协调。
随着用户需要多样化,将透明显示器用于更多环境。因此,需要一种用于以新颖方式显示信息的方法。
发明内容
已做出本公开来解决相关技术中出现的上述和其它问题及缺点,并且本公开的一方面提供一种提供实际对象以及显示在透明显示器上的图形对象的总体视图的显示装置及其控制方法。
根据本公开的一方面,提供一种显示装置。所述装置包括:透明显示器,其被配置成显示多个图形对象,并且响应于发生预定事件而中断显示所述多个显示的图形对象中的除了预定图形对象外的图形对象;图像拍摄单元,其被配置成通过拍摄从所述透明显示器投影的被摄物,来生成拍摄图像;以及控制器,其被配置成合成所生成的拍摄图像与所述预定图形对象。
根据本公开的一方面,提供一种用于控制具有透明显示器的显示装置的方法。所述方法包括:显示多个图形对象;响应于发生预定事件而中断显示所述多个显示的图形对象中的除了预定图形对象外的图形对象;通过拍摄从所述透明显示器投影的被摄物,生成拍摄图像;以及合成所生成的拍摄图像与所述预定图形对象。
根据本公开的一方面,提供一种计算机可读的存储介质,其具有用于运行用于控制具有透明显示器的显示装置的方法的程序。所述方法包括:显示多个图形对象;响应于发生预定事件而中断显示所述多个显示图形对象中的除了预定图形对象外的图形对象;通过拍摄从所述透明显示器投影的被摄物,生成拍摄图像;以及合成所生成的拍摄图像与所述预定图形对象。
附图说明
参考附图,本公开的上述和/或其它方面将从本公开的以下详细描述更为清楚,在附图中:
图1A和图1B为根据本公开的实施例的显示装置的概念图;
图2为根据本公开的实施例的显示装置的方框图;
图3A-3C为描述根据本公开的实施例的改变显示装置的模式的操作的视图;
图4A-4C和图5A-5D为描述根据本公开的各种实施例的用于改变模式的事件的发生的视图;
图6A-6B为描述根据本公开的实施例的改变显示装置的图像拍摄屏幕的操作的视图;
图7A-7D为描述根据本公开的实施例的显示装置的地图功能的视图;
图8A-8B为描述根据本公开的实施例的显示装置的增强现实(augmentedreality,AR)功能的视图;
图9、图10A-10D和图11A-11C为描述根据本公开的实施例的校正显示装置的拍摄图像中的误差的功能的视图;
图12A-12B、图13和图14A-14B为描述根据本公开的各种实施例的显示装置的各种功能的视图;
图15A-15D、图16A-16B、图17A-17B、图18A-18C、图19A-19B和图20A-20B为描述根据本公开的各种实施例的显示装置的生成合成图像的操作的视图;
图21A-21B、图22A-22B和图23为描述根据本公开的实施例的在显示装置上输入书写内容的功能的视图;
图24A-24C和图25A-25B为描述根据本公开的各种实施例的显示装置的利用双显示器的功能的视图;
图26为根据本公开的另一实施例的显示装置的方框图;以及
图27为描述根据本公开的实施例的用于控制显示装置的方法的流程图。
具体实施方式
在下文中,将参考附图来描述本公开的各种实施例。然而,应当理解,本公开不限于本文中公开的特定形式;相反,应将本公开解释为覆盖本公开的实施例的各种修改、等效形式和/或替代。在描述附图时,类似参考数字可以用来指定类似构成元件。
可用术语“第一”、“第二”、……描述各种组件,但是这些组件不受这些术语限制。这些术语仅仅用于区分一个组件与其它。
本公开中使用的术语是用于描述实施例,但不限制本公开的范围。单数表达还包括了复数含义,除非上下文中不同地定义。在本公开中,术语“包括”和“由……组成”指定了在本说明书中写的特征、数量、步骤、操作、组件、元件或它们的组合的存在,但不排除一个或多个其它特征、数量、步骤、操作、组件、元件或它们的组合的存在或添加的可能性。
根据本公开的实施例,“模块”或“单元”执行至少一个功能或操作,并且可以用硬件、软件或硬件和软件的组合来实施。另外,除了必须以特定硬件实施的“模块”或“单元”外的多个“模块”或多个“单元”可集成为至少一个模块,并且可用至少一个处理器来实施。
图1A和1B为根据本公开的实施例的显示装置的概念图。
参考图1A,显示装置100包括透明显示屏幕,后方对象20可透射地反映在透明显示屏幕中。
因此,如图1B所示,显示装置100上显示的图形对象1连同后方对象20的实际外观一起被用户30查看。
显示装置100可为各种类型的电子装置,例如移动电话、平板个人计算机(PC)、电视机(TV)、台式计算机、MP3播放器、便携多媒体播放器(portable multimedia player,PMP)、远程控制器等。显示装置可应用于各种对象,如家具、窗户、透明的门、相框、橱窗、墙壁等。
图2为根据本公开的实施例的显示装置的方框图。参考图2,显示装置100包括透明显示器110、图像拍摄单元120和控制器130。
透明显示器110可以在位于后侧处的对象可透射地反映出来的状态中显示图形对象。图形对象可以包括图像、文本、应用运行屏幕、Web浏览器屏幕等。透明显示器110可以根据控制器130的控制显示各种图形对象。
根据本公开的实施例,透明显示器110可被实现为各种类型的显示器,例如,透明液晶显示器(liquid crystal display,LCD)型显示器、透明薄膜电致发光面板(thin-filmelectroluminescent panel,TFEL)型显示器、透明有机发光二极管(organic light-emitting diode,OLED)型显示器、投影型显示器等。
透明LCD型显示器是指通过从常规LCD中移除背光单元并采用一对偏光板、光学膜、透明薄膜晶体管(thin film transistor,TFT)、透明电极等实现的透明显示器。在透明LCD中,透射率因为偏光板和光学膜而降低,并且由于使用环境光来替代背光单元,因此光学效率也降低,但是LCD具有的优点是实现大比例透明显示器。透明TFEL型显示器是指使用交流型无机薄膜EL显示器(alternating current type-inorganic thin film ELdisplay,AC-TFEL)的装置,所述AC-TFEL是由透明电极、无机荧光物质和绝缘膜组成。AC-TFEL是在加速电子通过无机荧光物质内部并将荧光物质激发时发光的显示器。在透明TFEL型透明显示器110情况下,控制器130可以控制电子投影到适当位置上,以便确定用于显示信息的位置。无机荧光物质和绝缘膜是透明的,并且因此能够实现非常透明的显示器。
透明OLED型显示器是指使用可自主发光的OLED的透明显示器。由于有机发光层是透明的,因此透明显示器110可以通过在显示器的两侧上使用透明电极实现。当电子和空穴从有机发光层的两侧注入并在有机发光层中合并时,OLED发光。基于上述原理,透明OLED通过在期望位置处注入电子和空穴来显示信息。
图像拍摄单元120可以根据控制器130的控制通过拍摄从透明显示器110投影的被摄物(subject)来生成拍摄图像。
显示装置100可以包括多个图像拍摄单元120。根据本公开的实施例,可将图像拍摄单元布置在透明显示器110的前表面(显示方向)和后表面中的每个上。在前表面上的图像拍摄单元可以用于拍摄用户,并且在后表面上的图像拍摄单元可以用于拍摄被摄物。
控制器130控制显示装置100的总体操作。
控制器130可以响应于发生预定事件来中断在透明显示器110上显示的特定图形对象的显示或者显示新的图形对象。
举例来说,响应于在主页屏幕(初始屏幕)被显示时发生预定事件,用于控制图像拍摄单元120的图形对象可以被显示。控制器130可以根据相对于用于控制图像拍摄单元120的图形对象的用户的输入而驱动图像拍摄单元120,并生成拍摄图像。在下文中,此实施例将会参考图3更详细地描述。
图3A-3C为描述根据本公开的实施例的改变显示装置的模式的操作的视图。
响应于在主页屏幕被显示(如图3A所示)时发生预定事件,主页屏幕上显示的图形对象的透明度如图3B中那样增加(也就是说,图形对象变得透明,以使面对后显示器的被摄物更清楚地示出),并且用于向用户告知显示装置100正在进入拍摄模式的图形对象可以被显示。例如,如图3B所示,可以显示拍摄焦点对象34和拍摄对象32。响应于拍摄对象32被选择,控制器130驱动图像拍摄单元120对被摄物进行拍摄并且生成被摄物的拍摄图像。在完成拍摄操作后,控制器130可以在透明显示器110上显示拍摄图像,如图3C所示。
图4A-4C为描述根据本公开的各种实施例的用于改变模式的事件的发生的视图。
在这种情况下,预定事件是用户输入。例如,预定事件可以是感测到显示装置100的特定运动的事件。举例来说,特定运动可以包括使显示装置100竖直立起的运动,如图4A所示。作为另一示例,预定事件可以是包括摇晃显示装置100的运动的特定运动。
当显示装置100仅仅通过显示装置100的特定运动来进入拍摄模式时,显示装置100的模式可改变为拍摄模式,即使在用户不期望这样做时也是如此。为了避免这个问题,如图4B所示,显示装置100可以仅在连同显示装置100的特定运动一起感测到用户的注视30时进入拍摄模式。或者,显示装置100可响应于施加到显示装置100的特定部分(例如,边缘)的压力(如图4C所示)而非显示装置100的特定运动来进入拍摄模式。另外,显示装置100可以仅在感测到显示装置100的特定运动、同时压力被施加到显示装置100的特定部分时进入拍摄模式。
根据上述实施例,显示装置100可从主页屏幕快速进入拍摄模式,无需用于运行相机功能的复杂用户输入,由此增强了用户便利。
根据本公开的另一实施例,显示装置100可以仅在连同预定事件的发生一起接收到另外的用户输入时进入拍摄模式。在下文中,此实施例将会参考图5A-5D更详细地描述。
图5A-5D为描述根据本公开的各种实施例的用于改变模式的事件的发生的视图。
响应于在主页屏幕如图5A所示那样被显示时发生预定事件,拍摄准备对象52可以如图5B中那样被显示。拍摄准备对象52告知用户显示装置100正在准备进入拍摄模式。在这种情况下,可以中断对主页屏幕中的图标的显示操作,并可以替代地显示拍摄准备对象52。随后,响应于用户选择除了拍摄准备对象52之外的区域51,主页屏幕可以如图5C所示那样再次被显示。响应于用户选择拍摄准备对象52,显示装置100进入拍摄模式,如图5D所示。随后,响应于选择拍摄准备对象52,控制器130可以驱动图像拍摄单元120对被摄物进行拍摄并且生成被摄物的拍摄图像。
根据本公开的另一实施例,在显示装置100进入拍摄模式并且第一拍摄操作被执行后,控制器130从主页屏幕中移除图标以使第二拍摄操作在干净屏幕中被执行,因为控制器130确定第一拍摄操作的运行表示对拍摄图像的用户输入请求。在下文中,此实施例将会参考图6A-6B更详细地描述。
图6A-6B为描述根据本公开的实施例的改变显示装置的图像拍摄屏幕的操作的视图。
参考图6,响应于在显示装置100进入拍摄模式并且拍摄对象32被选择时第一拍摄操作被执行(如图6A所示),控制器130可以移除屏幕上显示的图标61并仅显示与拍摄操作有关的菜单,如图6B所示。因此,用户可以在执行第二拍摄操作时通过干净屏幕来查看被摄物。在这种情况下,可以通过选择拍摄图像查看对象62来检查在第一拍摄操作中获得的拍摄图像。
除了上述拍摄功能之外,显示装置100可以执行其它各种功能。
图7A-7D为描述根据本公开的实施例的显示装置的地图功能的视图。
响应于发生预定事件,如图7A所示,地图对象31、拍摄对象32和增强现实(AR)对象33可以显示在透明显示器110上。响应于地图对象31被选择,关于投影到透明显示器110上的建筑的信息可以被显示,如图7B所示。地图功能还提供了各种子功能,例如,告知行人通道、告知自行车道以及告知机动车道。响应于路线搜索对象71被拖曳,用户可选择子功能中的一个,如图7C所示。另外,响应于在地图功能中选择导向回家(guide-to-home)对象72,至预存储的家庭地址的指向开始。响应于目的地设置(destination-set)对象73被选择,用户可以设置新目的地。当已经设置自行车道告知功能,并且选择导向回家对象72时,用户能够使用自行车回家的可用路线如图7D所示那样被显示。
根据上述实施例,可以通过透明显示器110来向用户提供方向,同时查看实际建筑或道路的外观,可以增强用户对方向的理解。
图8A-8B为描述根据本公开的实施例的显示装置的增强现实(AR)功能的视图。
响应于发生预定事件,地图对象31、拍摄对象32和AR对象33可以显示在透明显示器110上,如图8A所示。响应于AR对象33被选择,用户可以获得关于通过透明显示器110显示的建筑的信息。例如,如图8B所示,可向用户提供各种信息,如咖啡店提供的优惠券、用户的积分点以及相关的优惠券、无线保真(Wireless-Fidelity,Wi-Fi)状态、用户评论等。
根据上述实施例,用户可通过使店铺反映在显示装置100上来简单地获得关于期望的店铺的各种信息,并且被提供AR体验。
在透明显示器110中,透明显示器110框架中的对象可以用作没有变化的拍摄预览。拍摄预览使得用户能够在执行拍摄操作前检查要拍摄的图像。在常规装置中,拍摄预览仅在图像拍摄单元被驱动之后才可显示在显示器上。就此而言,比起常规装置,显示装置100可以减少功耗和查看延时。然而,在这种情况下,在运行图像拍摄单元120的拍摄操作后生成的拍摄图像可能不对应于用户通过透明显示器110查看到的对象。因此,需要在用户通过透明显示器110查看时生成拍摄图像。
根据本公开的实施例,显示装置100可以通过使用与用户的视点对应的区域来生成通过图像拍摄单元120所生成的拍摄图像中的最终拍摄图像。在下文中,此实施例将会参考图9至图11更详细地描述。
图9、图10A-10D和图11A-11C为描述显示装置100的生成拍摄图像的操作的视图。
参考图9,显示装置100识别用户的面部的位置和用户的注视。显示装置100可以包括布置在透明显示器110的显示方向上的传感器140以及布置在显示方向的相对方向上的图像拍摄单元120。
控制器130基于传感器140识别出的用户的面部的位置和用户的注视从图像拍摄单元120所拍摄的图像中检测对应于用户的视点的区域,并且通过使用检测到的区域生成最终拍摄图像。
传感器140可以通过检测用户的面部来识别用户30的面部的位置,并且基于识别出的大小计算用户的面部与显示装置100之间的距离。另外,传感器140可以识别用户的注视。例如,传感器140可实现为图像传感器、红外传感器、超声传感器、接近度传感器等。
参考图10A-10D,图10A示出图像拍摄单元120实际可拍摄的区域10。控制器130可以基于传感器140识别出的用户的面部的位置和用户的注视来仅将区域10的一部分生成为拍摄图像。例如,如图10B-10D所示,图像拍摄单元120可仅将拍摄区域10中与用户的注视对应的区域12生成为拍摄图像。
在同一位置处,用户可仅改变注视。因此,在同一位置处,用户通过透明显示器110注视的点可以变化。也就是说,如图11A-11C所示,虽然用户30与显示装置100之间的距离是恒定的,但是用户通过透明显示器110注视的点取决于用户的注视而变化。因此,显示装置100需要生成与用户的注视对应的区域12(即与用户实际注视的点对应的区域)的拍摄图像。就此而言,控制器130基于传感器140识别出的用户的注视以及用户的面部的位置来生成拍摄图像。根据本公开的实施例,显示装置可以消除在仅仅基于用户的面部的位置来生成拍摄图像时可能出现的误差。
图12A-12B为描述根据本公开的另一实施例的显示装置100生成拍摄图像的操作的视图。
如图12A所示,响应于用于放大或缩小投影在透明显示器110上的被摄物的用户的输入,显示装置100可以通过根据接收到的用户的输入来驱动图像拍摄单元120以生成其中已扩大或减小被摄物的拍摄图像,并且在透明显示器110上显示拍摄图像,如图12B所示。用户的输入可以通过显示装置100的输入单元进行。根据本公开的实施例,输入单元可实现为嵌入有触摸传感器的触摸屏。在这种情况下,用于缩小被摄物的输入可为在触摸屏上将手指放在一起(捏近(pinch-in)),并且用于放大被摄物的输入可为在触摸屏上将手指展开(捏开(pinch-out))。
图13为描述根据本公开的实施例的显示装置100的放大镜功能的视图。
参考图13,控制器130可以控制图像拍摄单元120生成其中通过放大镜区域13投影的对象已被扩大的拍摄图像,并且在透明显示器110中显示所生成的拍摄图像。自显示装置100被开启,放大镜区域13可以已经被激活,并且可以根据用户设置被禁用(inact ivate)。
根据本公开的实施例,显示装置100可以通过利用透明显示器110的透明度来获得所投影的对象的实际图像以及其中该对象的特定部分已被扩大的图像。因此,可向用户提供类似于实际的放大镜的放大功能。
图14A-14B为描述根据本公开的实施例的显示装置100的电话号码识别功能的视图。
参考图14A-14B,响应于显示装置100放在电话号码被显示的文件的视图,控制器130从通过图像拍摄单元120所拍摄的图像中识别电话号码。在这种情况下,电话号码识别对象14可以显示在识别出的电话号码区域上。响应于用户选择电话号码识别对象14,可向电话号码拨出电话呼叫。
在上述实施例中,控制器130识别电话号码,但是这仅仅是示例,并且控制器130可以识别各种对象。例如,控制器130可以识别网站地址并且显示网站的网页屏幕,或者识别账号并且显示对于该帐号的转账屏幕。
根据本公开的另一实施例,显示装置100可以将通过图像拍摄单元120所生成的图像与透明显示器110上显示的特定图形对象合成。
透明显示器110可以显示多个图形对象,并且可以响应于发生预定事件而中断显示所述多个显示的图形对象中的除了预定图形对象外的图形对象。在这种情况中,如上所述,预定事件可以是感测到显示装置100的预定运动的事件,或感测到施加到显示装置100的特定部分的压力的事件。
响应于在仅仅预定图形对象被显示时用户注视在透明显示器110上,可以将后方对象和透明显示器110上显示的预定图形对象示出,如上参考图1所述。控制器130可以通过使用后方对象和透明显示器110上显示的预定图形对象的总体形状来生成图像。也就是说,控制器130可以将图像拍摄单元120所生成的拍摄图像与透明显示器110上显示的预定图形对象合成。
在这种情况下,预定图形对象取决于所显示的屏幕的状态来确定。在下文中,将会参考图15A-15D、图16A-16B、图17A-17B、图18A-18C、图19A-19B和图20A-20B提供关于用于合成操作的图形对象的详细描述。
图15A-15D、图16A-16B、图17A-17B、图18A-18C、图19A-19B和图20A-20B为根据本公开的各种实施例的显示装置生成合成图像的操作的视图。
具体地讲,图15A-15D、图16A-16B、图17A-17B、图18A-18C、图19A-19B和图20A-20B为描述将用户所输入的内容与拍摄图像合成的操作的视图。在这种情况下,用户所输入的内容可以是文本、图像等。图15A-15D为描述用户所输入的内容是文本的情况的视图,并且图16为描述用户所输入的内容是图像的情况的视图。
参考图15A,用户可以将文本输入显示装置100中。响应于在用户所输入的文本被显示为消息输入框1510中的文本对象1511时发生预定事件,透明显示器110中断显示除了文本对象1511外的图形对象,如图15B所示。随后,位于显示装置100后侧的被摄物如图15B所示可透射地反映出来,并与文本对象1511一起示出。如图15B所示,与图像拍摄单元120的功能控制有关的图形对象1520和1530显示在透明显示器110上。
在这种情况下,预定事件可以是感测到显示装置100的特定运动的事件。例如,预定事件可以是感测到以特定角度抬起显示装置100的用户的运动或摇晃显示装置100的用户的运动的情况。另外,预定事件可以是用户的注视连同特定运动一起被感测到的情况。预定事件还可以是压力被施加到显示装置100的特定部分的情况。显示装置100的特定部分可为显示装置100的边缘或边框(bezel)。压力可由显示装置100的用户施加。另外,预定事件可以是连同特定运动一起施加压力的情况,但是不限于此。预定事件可以是感测到各种类型的用户输入的情况,例如,选择通过透明显示器110显示的软按钮的情况、选择显示装置100上布置的物理按钮的情况等。
响应于在这个状态下选择相机对象1520或视频对象1530,控制器130通过使用图像拍摄单元120来拍摄被摄物,并且将被摄物的拍摄图像与文本对象1511合成。响应于选择相机对象1520,控制器130可以生成静态图像与文本对象1511的合成图像。响应于选择视频对象1530,控制器130可以生成视频与文本对象1511的合成图像。合成图像存储在显示装置100的存储装置中。
根据本公开的实施例,响应于在运行聊天会话时执行上述操作,可立即将合成图像发送到另一方。例如,在完成合成操作后,显示用于询问是否发送合成图像的弹窗1540,如图15C所示。响应于用户选择“否”,屏幕返回图15D中的屏幕。响应于用户选择“是”,合成图像被发送到另一方,如图15D所示。
根据本公开的实施例,响应于在用户输入文本时摇晃显示装置100,可提取出所输入的文本,并将其与拍摄图像合成。另外,当文本通过聊天会话输入时,用户可立即将合成图像发送到另一方。
图16A-16B为描述根据本公开的另一实施例的生成合成图像的方法的视图。在下文中,将会参考图16描述在生成合成图像时使用用户所输入的图像的操作。
参考图16A,用户可以通过使用输入工具将图像输入到显示装置100中。例如,在包括触摸屏的显示装置100的情况下,输入工具可为笔1620,利用所述笔来执行触摸输入。响应于在用户所输入的图像被显示为图像对象1610时发生预定事件,透明显示器110中断显示除了图像对象1610外的图形对象,如图16B所示。由此,位于显示装置100后侧的被摄物如图16B所示可透射地反映出来,并与图像对象1610一起示出。如图16B所示,与图像拍摄单元120的功能控制有关的图形对象1520和1530显示在透明显示器110上。
在这种情况下,预定事件可以是感测到显示装置100的特定运动的事件。例如,预定事件可以是感测到以特定角度抬起显示装置100的用户运动或感测到摇晃显示装置100的用户运动的事件。另外,预定事件可以是连同特定运动一起感测到用户的注视的事件。预定事件还可以是压力被施加到显示装置100的特定部分的事件。显示装置100的特定部分可为显示装置100的边缘或边框。另外,预定事件可以是连同特定运动一起施加压力的事件,但是不限于此。预定事件可以是感测到各种类型的用户输入的事件,例如,选择通过透明显示器110来显示的软按钮的事件、选择显示装置100上布置的物理按钮的事件等。
响应于在这个状态下选择相机对象1520或视频对象1530,控制器130通过使用图像拍摄单元120来拍摄被摄物,并且将被摄物的拍摄图像与图像对象1610合成。响应于选择相机对象1520,控制器130可以生成静态图像与图像对象1610的合成图像。响应于选择视频对象1530,控制器130可以生成视频与图像对象1610的合成图像。合成图像存储在显示装置100的存储装置中。
在图15和图16中,由用户输入来用于生成合成图像的文本或图像对象并未改变,但是用户可以在执行拍摄操作前编辑文本或图像对象。也就是说,用户可以擦除文本对象1511中的文本的一部分,或者在如图15B中那种状态下输入额外的文本。另外,用户可以移动文本对象1511的显示位置,或者改变文本对象1511的设计。通过相同方式,用户可以擦除图像对象1610,或者通过使用笔1620输入额外的图像,如图16B中那样。另外,用户可以移动图像对象1610的显示位置,或者改变图像对象1610的设计。响应于在编辑操作已执行的状态下执行拍摄操作,控制器130将所编辑的文本对象或图像对象与拍摄图像合成。
根据本公开的另一实施例,显示装置100中存储的内容可以用于生成合成图像。在下文中,此实施例将会参考图17A-17B和图18A-18C更详细地描述。内容指的是可通过显示装置100输出的信息,并且可以包括文本、图片、视频、音乐内容等。
参考图17A,用户所选择的内容1710可以显示在透明显示器110上。举例来说,用户所选择的内容1710可以是相册应用所提供的图像内容。响应于在用户所选择的内容1710显示时发生预定事件,透明显示器110中断显示除了所选择的内容1710外的图形对象,如图17B所示。
在这种情况下,用户所选择的内容1710可以通过维持其原始形式来显示,或者说是仅被摄物(婴儿)可以显示,而无如图17B所示背景。
随后,位于显示装置100后侧的被摄物如图17B所示可透射地反映出来,并与所选择的内容1710一起示出。如图17B所示,与图像拍摄单元120的功能控制有关的图形对象1520和1530显示在透明显示器110上。
在这种情况下,预定事件可以是感测到显示装置100的特定运动的事件。例如,预定事件可以是感测到以特定角度抬起显示装置100的用户运动或摇晃显示装置100的用户运动的事件。另外,预定事件可以是连同特定运动一起感测到用户的注视的事件。预定事件还可以是压力被施加到显示装置100的特定部分的事件。显示装置100的特定部分可以是显示装置100的边缘或边框。另外,预定事件可以是连同特定运动一起施加压力的事件,但是不限于此。预定事件可以是感测到各种类型的用户输入的情况,例如,选择通过透明显示器110显示的软按钮的情况、选择显示装置100上布置的物理按钮的情况等。
响应于在这个状态下选择相机对象1520或视频对象1530,控制器130通过使用图像拍摄单元120来拍摄被摄物,并且将被摄物的拍摄图像与所选择的内容1710合成。响应于选择相机对象1520,控制器130可以生成静态图像与所选择的内容1710的合成图像。响应于选择视频对象1530,控制器130可以生成视频与所选择的内容1710的合成图像。合成图像存储在显示装置100的存储装置中。
图18A-18C为描述将多个所选择的内容与拍摄图像合成的实施例的视图。
响应于在选择多个内容1810a和1810b时发生预定事件,透明显示器110中断显示除了如图18A所示的多个所选择的内容1810a和1810b外的图形对象。随后,位于显示装置100后侧的被摄物如图18B所示可透射地反映出来,并与多个所选择的内容1810a和1810b一起示出。如图18B所示,与图像拍摄单元120的功能控制有关的图形对象1520和1530显示在透明显示器110上。
在这种情况下,预定事件可以是感测到显示装置100的特定运动的事件。例如,预定事件可以是感测到以特定角度抬起显示装置100的用户运动或摇晃显示装置100的用户运动的事件。另外,预定事件可以是连同特定运动一起感测到用户的注视的事件。预定事件还可以是压力被施加到显示装置100的特定部分的事件。显示装置100的特定部分可为显示装置100的边缘或边框。另外,预定事件可以是连同特定运动一起施加压力的事件,但是不限于此。预定事件可以是感测到各种类型的用户输入的事件,例如,选择通过透明显示器110显示的软按钮的事件、选择显示装置100上布置的物理按钮的事件等。
同时,所选择内容的显示位置可以改变。如图18B所示,用户可以移动小狗对象1810a,以便不与婴儿对象1810b重叠。
响应于在这个状态下选择相机对象1520或视频对象1530,控制器130通过使用图像拍摄单元120来拍摄被摄物,并且将被摄物的拍摄图像与多个内容1810a和1810b合成。响应于选择相机对象1520,控制器130可以生成静态图像与多个内容1810a和1810b的合成图像。响应于选择视频对象1530,控制器130可以生成视频与多个内容1810a和1810b的合成图像。合成图像存储在显示装置100的存储装置中。
根据本公开的另一实施例,用户所选择的文本可以用于合成操作。在下文中,此实施例将会参考图19A-19B更详细地描述。
参考图19A,用户可以选择透明显示器110上显示的文本的一部分。例如,在电子书或网页显示时,用户可以通过使用拖曳输入来选择文本。响应于在选择文本1910时发生预定事件,透明显示器110中断显示除了所选择的文本1910外的图形对象。也就是说,透明显示器110中断显示其它图形对象以及未选择的文本。因此,位于显示装置100后侧的被摄物如图19B所示可透射地反映出来,并与所选择的文本1910一起示出。如图19B所示,与图像拍摄单元120的功能控制有关的图形对象1520和1530显示在透明显示器110上。
在这种情况下,预定事件可以是感测到显示装置100的特定运动的事件。例如,预定事件可以是感测到以特定角度抬起显示装置100的用户运动或摇晃显示装置100的用户运动的情况。另外,预定事件可以是连同特定运动一起感测到用户的注视的情况。预定事件还可以是压力被施加到显示装置100的特定部分的情况。显示装置100的特定部分可为显示装置100的边缘或边框。另外,预定事件可以是连同特定运动一起施加压力的情况,但是不限于此。预定事件可以是感测到各种类型的用户输入的情况,例如,选择通过透明显示器110显示的软按钮的事件、选择显示装置100上布置的物理按钮的事件等。
在如图19B中那种状态下,用户可以擦除所选择的文本1910的一部分,或者输入额外的文本。另外,用户可以移动所选择的文本1910的显示位置,或者改变所选择的文本1910的设计。
响应于在这个状态下选择相机对象1520或视频对象1530,控制器130通过使用图像拍摄单元120来拍摄被摄物,并且将被摄物的拍摄图像与所选择的文本1910合成。响应于选择相机对象1520,控制器130可以生成静态图像与所选择的文本1910的合成图像。响应于选择视频对象1530,控制器130可以生成视频与所选择的文本1910的合成图像。合成图像存储在显示装置100的存储装置中。
根据本公开的实施例,上述合成操作可以在通过显示装置100再现音乐时执行。在下文中,此实施例将会参考图20A-20B更详细地描述。
参考图20A,显示装置100在再现音乐时可以显示音乐再现屏幕,如图20A所示。音乐再现屏幕可以包括关于音乐的各种信息。例如,音乐再现屏幕可以显示音乐的标题。响应于在通过显示装置100再现音乐时发生预定事件,透明显示器110中断显示除了关于所再现的音乐的信息2010外的图形对象,如图20B所示。因此,如图20B所示,与图像拍摄单元120的功能控制有关的图形对象1520、1530可以显示在透明显示器110上。
在这种情况下,预定事件可以是感测到显示装置100的特定运动的事件。例如,预定事件可以是感测到以特定角度抬起显示装置100的用户运动或摇晃显示装置100的用户运动的事件。另外,预定事件可以是连同特定运动一起感测到用户的注视的情况。预定事件还可以是压力被施加到显示装置100的特定部分的情况。显示装置100的特定部分可为显示装置100的边缘或边框。另外,预定事件可以是连同特定运动一起施加压力的情况,但是不限于此。预定事件可以是感测到各种类型的用户输入的情况,例如,选择通过透明显示器110显示的软按钮的事件、选择显示装置100上布置的物理按钮的事件等。
在这种情况下,维持对音乐的再现操作。响应于在这个状态下选择相机对象1520或视频对象1530,控制器130通过使用图像拍摄单元120来拍摄被摄物,并且将被摄物的拍摄图像与关于所再现的音乐的信息2010合成。响应于选择相机对象1520,控制器130可以生成静态图像与关于所再现的音乐的信息2010的合成图像。响应于选择视频对象1530,控制器130可以生成视频与关于所再现的音乐的信息2010的合成图像。合成图像存储在显示装置100的存储装置中。
根据本公开的实施例,可将在生成合成图像时再现的音乐添加为背景音乐。控制器130可以通过将关于所再现的音乐的信息2010与拍摄图像合成而来生成合成图像,并将在预定事件发生时再现的音乐添加到所生成的合成图像作为背景音乐。在这种情况下,在完成拍摄操作后,可以显示用于询问是否要添加所再现的音乐作为背景音乐的弹窗。响应于用户通过弹窗选择音乐作为背景音乐,音乐可以作为背景音乐被添加到拍摄图像与关于所再现的音乐的信息2010的合成图像。例如,当合成图像是视频时,音乐可以在视频再现时作为背景音乐再现。
可以通过排除关于所再现的音乐的信息2010并仅将当前所再现的音乐添加到拍摄图像作为背景音乐来生成图像。也就是说,响应于在音乐再现时发生预定事件,可以仅仅显示与图像拍摄单元120的功能控制有关的图形对象1520、1530。在完成拍摄操作时,可以生成已添加所再现的音乐作为背景音乐的图像。
根据如上参考图15至图20所述的本公开的实施例,视频可与将要合成在一起的移动图形对象一起记录下来。在下文中,此实施例将会参考图17B更详细地描述。
参考图17B,响应于在内容1710显示时选择视频对象1530,视频记录操作开始。用户在记录视频时可以移动内容1710。例如,用户可以触摸内容1710并将其移动到期望位置。在完成视频记录操作后,控制器130可以生成已经反映出内容1710的移动的视频。
根据上述实施例,用户可以利用用户的输入来使用显示装置100上显示的多个图形对象中的特定对象用于生成合成图像。另外,显示装置100包括透明显示器110,并且因此用户可以在查看实际的被摄物的同时生成合成图像。
在用户通过透明显示器110查看的被摄物与图像拍摄单元120所拍摄的对象之间可能存在误差。为了避免这种误差,可以在生成合成图像时使用以上参考图9至图11所描述的误差校正功能。也就是说,响应于在发生预定事件时仅仅显示多个图形对象中的预定图形对象的同时执行拍摄操作,控制器130可以基于由传感器140识别出的用户的面部的位置和用户的注视,来从图像拍摄单元120所拍摄的拍摄图像中检测对应于用户视点的区域,并且将检测到的区域与预定图形对象合成。
另外,根据放大或缩小被摄物的用户输入的拍摄图像(如上参考图12所述)可以用于生成合成图像。也就是说,响应于在发生预定事件时仅仅显示多个图形对象中的预定图形对象的同时接收到放大或缩小从透明显示器110投影的被摄物的用户输入,图像拍摄单元120生成其中被摄物已根据所接收的用户输入被扩大或减小的拍摄图像。透明显示器110将其中已经将被摄物扩大或减小的拍摄图像连同预定图形对象一起显示。在完成拍摄操作后,控制器130通过将已经将被摄物扩大或减小的拍摄图像与预定图形对象合成而生成合成图像。
在下文中,将描述使用显示装置100的透明显示器110的透明度的其它实施例。
图21A-21B、图22A-22B和图23为描述向显示装置100输入书写内容(writing)的功能的视图。输入书写内容的功能可以通过使用书籍实现。在下文中,将会参考图21A-21B提供对书籍的详细描述。
参考图21A,书籍2100包括多个通信芯片2110a至2110h。多个通信芯片2110a至2110h是用于与显示装置100的通信器通信的组件。例如,多个通信芯片2110a至2110h可实现为蓝牙或近场通信(near field communication,NFC)芯片。
参考图21B,书籍2100中的每个页面包括具有关于书籍的书籍信息和关于页面号码的页面信息的标记2120。
图22A-22B为描述通过使用以上参考图21所述书籍来向显示装置100中输入书写内容的实施例的视图。
参考图22A,用户在将显示装置100放在书籍2100上时输入书写内容。在这种情况下,笔1620可以用作输入工具。显示装置100显示所输入的书写内容2130。因此,用户可以看到通过透明显示器110显示的、在后侧的书籍2100的内容,连同所输入的书写内容2130。
在这种情况下,在书写内容被输入时,显示装置100可与书籍2100中的多个通信芯片2110a至2110h中的至少一个通信,以便确定显示装置100相对于书籍2100的相对位置。另外,显示装置100可以从图像拍摄单元120所生成的书籍2100的特定页面的拍摄图像中检测标记2120,并且获得所检测到的标记2120中包括的关于书籍的书籍信息和页面信息。
显示装置100将书写内容输入期间确定的显示装置100的相对位置、所获得的书籍信息以及页面信息连同所输入的书写内容2130一起存储。
显示装置100存储与书籍2100上当前显示的电子书对应的电子书(书籍上显示的内容),并且可以将所输入的书写内容2130添加到与所存储的书籍信息、页面信息和关于相对位置的信息对应的电子书的特定页面中的特定区域,以更新电子书。
如图22B所示,响应于确定显示装置100与书籍2100间隔特定距离并且偏离显示装置100与书籍2100中的多个通信芯片2100a至2100h之间的通信覆盖范围,显示装置100可以显示电子书的已输入书写内容的页面。
如图23所示,响应于显示装置100再次拍摄书籍2100的标记2120,显示装置100可以显示电子书的已输入书写内容的对应页面。另外,显示装置100提供搜索功能。响应于选择所显示的电子书的区域,显示装置100可以提供通过使用与所选择的区域对应的文本或图像作为搜索关键字而获得的互联网搜索结果。用户可以通过使用笔1620选择电子书的特定区域。
显示装置100可实现为具有双显示器,如图23所示,来同时显示更多信息。在这种情况下,第一显示器110-1可以显示电子书的已输入书写内容的页面,并且第二显示器110-2可以显示关于第一显示器110-1中选择的文本的互联网搜索结果。
根据本公开的实施例,具有双显示器的显示装置包括多个显示器层。也就是说,第一显示器110-1可以层叠在第二显示器110-2上。在这种情况下,第一显示器110-1和第二显示器110-2可以物理地连接到彼此。或者,第一显示器110-1和第二显示器110-2可以通过经由无线通信来连接而分开存在。在这种情况下,第一显示器110-1和第二显示器110-2可以用无线通信方法(如蓝牙、NFC等)彼此交互。第一显示器110-1和第二显示器110-2两者可实现为透明显示器。或者,第一显示器110-1和第二显示器110-2中的一个可实现为透明显示器,而另一个可实现为普通不透明显示器。
在下文中,将会参考图24A-24C和图25A-25B提供本公开的使用具有双显示器的显示装置100的另一实施例的详细描述。
图24A-24C和图25A-25B为描述通过使用具有双显示器的显示装置100来记录视频的实施例的视图。
参考图24A,用户可以通过第一透明显示器110-1查看在后侧的被摄物,并且指定用于记录视频的路径。如图24A所示,响应于输入点A和点B之间的路径,显示装置100拍摄与所输入的路径对应的被摄物并且生成视频,如图24B和图24C所示。在这种情况下,可以通过第二显示器110-2实时检查将要拍摄的被摄物。
根据本公开的实施例,在记录视频时,用户无需移动显示装置100。
图25A-25B为描述通过使用具有双显示器的显示装置100来拍摄图片的实施例的视图。
参考图25A-25B,图25A示出第一拍摄操作的视图,并且图25B示出第二拍摄操作的视图。用户通过第一透明显示器110-1来检查被摄物并且执行第一拍摄操作,如图25A所示。通过第一拍摄操作所生成的第一拍摄图像可以显示在第二显示器110-2上。随后,当用户希望执行第二拍摄操作时,第一透明显示器110-1显示第一拍摄图像,如图25B所示。因此,用户可以查看第一拍摄图像的同时执行第二拍摄操作。也就是说,如图25B所示,用户可以在通过第一透明显示器110-1同时检查被摄物和第一拍摄图像的同时,执行第二拍摄操作。在完成第二拍摄操作后,第二拍摄图像可以显示在第二显示器110-2上,如图25B中那样。
根据本公开的实施例,用户可以在将先前所拍摄的图片中的被摄物与用户当前所希望拍摄的被摄物进行比较的同时执行拍摄操作。
根据本公开的实施例,用户可以通过施加多种滤镜效果中的一种来经由第一透明显示器110-1查看被摄物。第二显示器110-2可以显示已施加所选择的滤镜效果的拍摄图像。滤镜效果是指改变图片亮度、色度和颜色。用户可以在通过第一透明显示器110-1查看已施加滤镜效果的实际被摄物的同时执行拍摄操作。
附图将一些透明显示器示为不透明的,因为背景并未反映出来,这显示出透明显示器的透明度变化。因此,应当理解,可实现示为不透明的透明显示器,以使背景得以反映出来。
图26为根据本公开的另一实施例的显示装置的方框图。上文已经描述图26的一些组件,并且因此将会省略对那些组件的重复描述。
参考图26,显示装置100'包括透明显示器110、图像拍摄单元120、控制器130、传感器140、触摸传感器150、通信器160、全球定位系统(global positioning system,GPS)接收器170、存储装置180、音频处理器190、图像处理器195、扬声器191、按钮192和麦克风193。
透明显示器110根据控制器130的控制来显示各种图形对象。透明显示器110可以响应于预定事件的发生来改变图形对象的显示状态。
图像拍摄单元120根据来自用户的输入来拍摄静态图像或记录视频。图像拍摄单元120可以包括前置图像拍摄单元120-1和后置图像拍摄单元120-2。前置图像拍摄单元120-1被布置在用户的方向(即,参考透明显示器110的显示方向)上,并且后置图像拍摄单元120-2被布置在显示方向的相对方向上。前置图像拍摄单元120-1生成用户的拍摄图像。控制器130可以从前置图像拍摄单元120-1所生成的拍摄图像中识别用户的面部的位置和用户的注视。
控制器130可以基于如从前置图像拍摄单元120-1的拍摄图像识别出的用户的面部的位置和用户的注视,从后置图像拍摄单元120-2所生成的拍摄图像中检测对应于用户的视点的图像。
传感器140可以包括多个运动传感器140-1至140-m。
多个运动传感器140-1至140-m感测显示装置100的旋转状态、用户的位置等。地磁传感器、加速度传感器和陀螺仪传感器可以用于感测显示装置100的旋转状态。加速度传感器输出与重力加速度对应的感测值,其取决于传感器附接到的装置的倾斜度而变化。陀螺仪传感器测量检测角速度的科里奥利(Coriolis)效应。地磁传感器感测方位角。同时,还可使用图像传感器、红外传感器、超声传感器和接近传感器感测用户的位置。传感器140可以感测用户的面部的位置和用户的注视。
触摸传感器150可以感测由用户或通过笔输入的触摸。触摸传感器150可以包括触摸传感器。所述触摸传感器可实现为电容型传感器或压敏型传感器。电容型传感器是指这样的传感器:其通过使用涂布显示器层的表面的介电物质来感测响应于用户身体的一部分相对于显示器层表面的触摸而激发到用户身体中的微小电力,并且基于感测到的微小电力计算触摸坐标。压敏型传感器包括嵌入在显示装置100中的两个电极板。当用户触摸屏幕时,位于触摸点的上板和下板彼此接触,并且由此电流流过。压敏型传感器通过感测电流来计算触摸坐标。如上所述,触摸传感器可实现为各种类型的触摸传感器。
当将笔用作输入工具并且笔包括内部线圈时,触摸传感器150可以包括用于感测通过笔的内部线圈来变化的磁场的磁场传感器。因此,触摸传感器150可以感测接近输入(即,悬停)以及触摸输入。
触摸传感器150可以执行输入单元的角色、从用户接收对内容的选择、接收用于放大或缩小从透明显示器110投影的被摄物的用户输入,并且接收由用户或通过笔输入的书写内容。
控制器130可以基于触摸传感器150感测到的信号确定触摸输入的形式。触摸输入可以包括各种类型输入,包括简单触摸、选中(tab)、长按(touch and hold)、移动、轻弹、拖放、捏近、捏开等。控制器130可以根据由触摸传感器150感测到的用户触摸输入来控制显示装置100的组件。
存储装置180可以存储各种数据,如包括操作系统(operating system,O/S)和各种应用的程序、用户设置数据、在应用的运行期间所生成的数据、多媒体内容等。
如上参考图15至图20所述,存储装置180可以存储所生成的合成图像。另外,如上参考图21至图23所述,存储装置180可以包括由用户输入的书写内容。存储装置180还可存储在显示装置100与电子书籍中的多个通信芯片通信时确定的显示装置100相对于电子书籍的相对位置、通过拍摄书籍的标记获得的书籍信息以及页面信息。另外,存储装置180可包括电子书。存储装置180可以包括用于显示装置100的地图功能的家庭地址。
控制器130可以根据触摸传感器150和多个运动传感器140-1至140-m的感测结果、按钮192的操作状态、通过图像拍摄单元120获得的用户的运动手势和通过麦克风193获得的语音命令来控制图像处理器195以通过透明显示器110显示各种屏幕。
控制器130可以通过通信器160来与外部装置通信。
通信器160根据各种通信方法来与各种类型外部装置通信。通信器160包括各种通信芯片,包括无线保真(Wi-Fi)芯片161、蓝牙芯片162、近场通信(NFC)芯片163和无线通信芯片164等。
Wi-Fi芯片161、蓝牙芯片162和NFC芯片163分别根据Wi-Fi方式、蓝牙方式和NFC方式执行通信。NFC芯片163是指根据NFC方式来操作的芯片,其中NFC方式可以使用各种射频标识(Radio Frequency-Identification,RF-ID)频带(包括135kHz、13.56MHz、433MHz、860至960MHz、2.45GHz等)中的13.56MHz带。在Wi-Fi芯片161和蓝牙芯片162的情况下,可以首先发送/接收各种连接信息(如服务集标识符(service set identifier,SSID)和会话密钥)用于通信连接设置,并且然后可发送/接收各种信息。无线通信芯片164可以根据各种通信标准执行通信,所述通信标准包括电气与电子工程师协会(Electrical andElectronics Engineers,IEEE)、Zigbee、第三代(3rd generation,3G)、第三代合作伙伴项目(3rd generation partnership project,3GPP)、长期演进(long term evolution,LTE)等。控制器130可以在每个透明显示器层中显示通过通信器160从外部装置接收的数据。
GPS接收器170从GPS卫星处接收GPS信号,来计算显示装置100的当前位置。在运行地图功能时,控制器130可以通过使用经由GPS接收器170接收到的GPS信号来计算显示装置100的当前位置,并且在透明显示器中显示其中已经反映出当前位置的路线导向屏幕。因此,可向用户提供立体方向屏幕(stereoscopic directions screen)。
图像处理器195配置在透明显示器110中显示的屏幕,如上所述。图像处理器195可以包括各种组件,如用于编码或解码视频数据的编解码器、解析器、计数器、噪声过滤器(noise filter)、帧率转换模块等。
音频处理器190处理音频数据。音频处理器190可以执行相对于音频数据的各种处理操作,如解码、放大或噪声过滤。响应于再现包括音频信号的内容,控制器130可以控制音频处理器190输出音频信号。所述音频信号被发送到扬声器191并且通过扬声器191输出。
扬声器191输出各种通知声音、音乐再现或语音消息,以及音频处理器190所处理的各种音频数据。
按钮192可实现为各种类型按钮,如机械按钮、触摸垫或布置在包括显示装置100的主体的前表面、侧表面或后表面的区域上的滚轮。按钮192可以执行输入单元的角色来从用户接收对内容的选择。另外,按钮192可以接收用于放大或缩小从透明显示器投影的被摄物的用户输入,或者接收用户书写内容的输入。
麦克风193接收用户的语音或其它声音,并且将其转换成音频数据。控制器130可以使用在呼叫过程期间通过麦克风193输入的用户的语音,或者将用户的语音转换成音频数据并将所转换的音频数据存储在存储装置180中。
控制器130可以根据通过麦克风193接收到的用户语音或通过图像拍摄单元120识别出的用户运动来执行控制操作。显示装置100可以在正常模式(其中显示装置100通过用户的触摸或用户输入来控制)、运动控制模式和语音控制模式下操作。在运动控制模式下,控制器130激活图像拍摄单元120来拍摄用户、跟踪用户运动的变化并且执行与所跟踪的用户运动对应的控制操作。在语音控制模式下,控制器130可以分析通过麦克风193接收到的用户语音并且在语音识别模式下操作,在所述语音识别模式下,所述控制操作根据所分析的用户语音来执行。
显示装置100还可包括各种外部输入端口,用于将显示装置100与各种外部终端连接。所述外部输入端口可以包括耳机、鼠标、局域网(local area network,LAN)等。
控制器130的上述操作可以通过存储装置180中存储的程序的运行来执行。存储装置180可以存储用于驱动显示装置100的O/S软件、各种应用、在应用的运行期间输入或设置的各种数据、内容、触摸手势、运动手势、语音命令、事件信息等。
控制器130通过使用存储装置180中存储的各种程序来控制显示装置100的总体操作。
控制器130包括随机存取存储器(random access memory,RAM)131、只读存储器(read-only memory,ROM)132、主中央处理单元(central processing unit,CPU)134、第一至第n接口135-1至135-n和总线133。RAM 131、ROM 132、主CPU 134和第一至第n接口135-1至135-n可以通过总线133互连。
第一至第n接口135-1至135-n被连接到前述各种组件。所述接口中的一个可为通过网络连接到外部装置的网络接口。
主CPU 134存取存储装置180并且通过使用存储装置180中存储的O/S来执行启动操作。另外,主CPU 134通过使用存储装置180中存储的各种程序、内容和数据来执行各种操作。
ROM 132存储用于系统启动的命令集。响应于接收到通电命令并且供应电力,主CPU 134根据ROM 132中存储的命令将存储装置180中存储的O/S复制到RAM 131,并且通过运行所述O/S启动系统。在完成启动操作后,主CPU 134将存储装置180中存储的各种程序复制到RAM 131,并且运行复制到RAM 131的程序来执行各种操作。
响应于通过触摸传感器150、多个运动传感器140-1至140-m、按钮192、图像拍摄单元120和麦克风193感测到各种类型用户输入,主CPU 134通过使用感测结果确定是否发生对应于存储装置180中存储的事件信息的事件。各种事件可以被设置。例如,事件可以包括选择用户的触摸或用户的按钮的情况、接收运动手势或语音命令的情况、接收到命令的情况、接收到用于再现内容的命令的情况、达到预定时间或经过一定周期的情况、出现系统通知消息的情况、执行与外部源的通信的情况等。
根据本公开的实施例,显示装置100还可包括用于将显示装置100与各种外部终端连接的各种外部端口,包括通用串行总线(USB)连接器可连接到的USB端口、耳机、鼠标或LAN、用于接收和处理数字多媒体广播(DMB)信号的DMB芯片、以及各种类型的传感器。
在下文中,将会参考图27的流程图描述一种用于控制显示装置的方法。
图27为描述根据本公开的实施例的用于控制具有透明显示器的显示装置的方法的流程图。参考图27,在步骤S2710中,显示装置显示多个图形对象。所述图形对象可以包括图像、文本、运行屏幕、Web浏览器屏幕等。
在步骤S2730中,响应于在步骤S2720中发生预定事件,显示装置中断显示多个显示的对象中的除了预定图形对象外的图形对象。也就是说,仅仅显示多个显示对象中的预定图形对象。预定事件可以是感测到显示装置100的特定运动的情况。取决于显示装置100上显示的屏幕的状态来不同地确定预定图形对象。举例来说,在实时显示用户所输入的内容时,预定图形对象可为屏幕上显示的多个图形对象中的与所实时输入的内容(例如,用户在消息输入框中输入的消息)对应的图形对象。作为另一示例,在用户所选择的内容显示在屏幕上时,预定图形对象可为屏幕上显示的多个图形对象中的与选择的内容(例如,用户从屏幕上显示的电子书的页面选择的词语)对应的图形对象。
响应于发生预定事件,可将与显示装置的图像拍摄单元的功能控制有关的图形对象连同预定图形对象一起显示。
在步骤S2740中,显示装置拍摄从透明显示器投影的被摄物并且生成拍摄图像。具体地,响应于接收到用于放大或缩小从透明显示器投影的被摄物的用户输入,显示装置可以生成拍摄图像,其中被摄物已根据用户输入被扩大或减小。在这种情况下,响应于在发生预定事件时接收用户输入,显示装置可以将其中被摄物已被扩大或减小的拍摄图像连同预定图形对象一起显示。
在步骤S2750中,显示装置将所生成的拍摄图像与预定图形对象合成。具体地,显示装置可通过传感器识别用户的面部的位置和用户的注视,并且基于传感器识别的用户的面部的位置和用户的注视从图像拍摄单元所生成的拍摄图像中检测对应于用户视点的区域。显示装置可以将检测到的区域与预定图形对象合成。
响应于在通过显示装置再现音乐时发生预定事件,显示装置可以通过将关于所再现的音乐的音乐信息与拍摄图像合成来生成合成图像,并且将在预定事件发生时再现的音乐添加到所生成的合成图像作为背景音乐。
可以执行除了上述各种实施例中描述的那些控制操作外的另外的控制操作。然而,将会省略针对实施例的特定的流程图以及相关描述。
如上所述,显示装置可以支持各种控制方法。可以根据需要将上述实施例分开或彼此组合来实现。
可将用于控制显示装置的方法存储在非暂态存储介质中。非暂态存储介质可以包括在各种类型装置中。
非暂态存储介质是指可永久地或半永久地存储数据而非短时间地存储数据(如寄存器、高速缓存、易失性存储器等)的介质,并且可由装置读出。可将上述各种应用和程序存储在非暂态存储介质中,并且通过非暂态存储介质提供,所述非暂态存储介质如压缩盘(compact disc,CD)、数字通用光盘(digital versatile disk,DVD)、硬盘、蓝光盘、通用串行总线(USB)、存储卡、只读存储器(ROM)等。
非暂态存储介质可包括并提供用于执行以下操作的程序代码:显示多个图形对象;响应于发生预定事件而中断显示所述多个显示图形对象中的除了预定图形对象外的图形对象;通过拍摄从透明显示器投影的被摄物,生成拍摄图像;以及合成所生成的拍摄图像与所述预定图形对象。
如上所述,本公开的实施例已示出并且进行描述。上述实施例和优点不被解释为限制本公开。可轻易将本公开应用于其它类型的设备。另外,实施例的描述旨在为说明性的,并且并不限制权利要求书的范围,而且许多替代、修改和变化将对本领域技术人员显而易见。因此,应当理解,除了在本文中列出的实施例之外,基于本公开的技术理念所得出的所有修改或者修改过的形式都包括在如权利要求书及其等效物限定的本公开的范围内。

Claims (15)

1.一种显示装置,包括:
透明显示器,其被配置为显示多个图形对象,并且响应于发生预定事件而中断显示所述多个显示的图形对象中的除了预定图形对象外的图形对象;
图像拍摄单元,其被配置为通过拍摄从所述透明显示器投影的被摄物,来生成拍摄图像;以及
控制器,其被配置为合成所生成的拍摄图像与所述预定图形对象。
2.如权利要求1所述的显示装置,其中响应于发生所述预定事件,所述透明显示器将与所述图像拍摄单元的控制有关的图形对象连同所述预定图形对象一起显示。
3.如权利要求1所述的显示装置,其中所述预定事件是感测到所述显示装置的预定运动的情况,或感测到相对于所述显示装置的特定部分的压力的情况。
4.如权利要求1所述的显示装置,进一步包括:
传感器,其被配置为识别用户的面部的位置和用户的注视,并且被布置在所述透明显示器的显示方向上,
其中所述图像拍摄单元被布置在所述显示方向的相对方向上,并且
其中所述控制器基于所述传感器识别的用户的面部的位置和用户的注视,从所述图像拍摄单元所拍摄的所述拍摄图像检测与用户的视点对应的区域,并且合成检测到的区域与所述预定图形对象。
5.如权利要求1所述的显示装置,其中所述预定图形对象是用户所输入的文本对象和通过笔输入的图形对象中的至少一者。
6.如权利要求1所述的显示装置,进一步包括:
输入单元,其被配置为接收对显示在所述透明显示器上的内容的选择,
其中所述预定图形对象是通过所述输入单元选择的内容。
7.如权利要求1所述的显示装置,其中所述预定图形对象是关于由所述显示装置再现的音乐的音乐信息。
8.如权利要求7所述的显示装置,其中所述控制器通过合成所述音乐信息与所述拍摄图像,来生成合成图像,并且在发生所述预定事件时将所再现的音乐添加到所生成的合成图像作为背景音乐。
9.如权利要求1所述的显示装置,进一步包括:
输入单元,其被配置为接收用于放大或缩小从所述透明显示器投影的所述被摄物的用户输入,
其中所述图像拍摄单元生成拍摄图像,在所述拍摄图像中,所述被摄物根据所接收的用户输入被扩大或减小,
其中响应于发生所述预定事件并接收到所述用户输入,所述透明显示器就将所生成的拍摄图像连同所述预定图形对象一起显示。
10.如权利要求1所述的显示装置,进一步包括:
通信器,其被配置为执行与外部通信芯片的无线通信;
输入单元,其被配置为接收用户的书写内容;以及
存储装置,其被配置为存储所接收的用户的书写内容,
其中所述控制器从通过所述图像拍摄单元拍摄书籍的页面来生成的拍摄图像中检测标记,获得所述检测到的标记中包括的关于书籍的书籍信息和页面信息,通过在接收所述用户的书写内容时经由通信器与所述书籍中的多个通信芯片中的至少一个通信来确定显示装置相对于所述书籍的相对位置,并且将所获得的书籍信息、页面信息和关于所确定的相对位置的位置信息连同所接收的用户的书写内容一起存储在所述存储装置中。
11.如权利要求10所述的显示装置,其中所述存储装置存储电子书籍(电子书),
其中所述控制器将所接收的用户的书写内容添加到电子书的特定页面中的特定区域以更新电子书,所述特定区域对应于所存储的书籍信息、页面信息和位置信息。
12.如权利要求11所述的显示装置,其中响应于确定通信器偏离所述显示装置与所述书籍中的所述多个通信芯片之间的通信覆盖范围,所述控制器控制所述透明显示器显示所更新的电子书的页面。
13.一种用于控制具有透明显示器的显示装置的方法,所述方法包括:
显示多个图形对象;
响应于发生预定事件,中断显示所述多个显示的图形对象中的除了预定图形对象外的图形对象;
通过拍摄从所述透明显示器投影的被摄物,生成拍摄图像;以及
合成所生成的拍摄图像与所述预定图形对象。
14.如权利要求13所述的方法,其中响应于发生所述预定事件,中断显示所述图形对象包括将与拍摄操作有关的图形对象连同所述预定图形对象一起显示。
15.如权利要求13所述的方法,其中所述预定事件是感测到所述显示装置的预定运动的情况,或感测到相对于所述显示装置的特定部分的压力的情况。
CN201610239605.5A 2015-04-16 2016-04-18 显示装置及其控制方法 Pending CN106055218A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0053878 2015-04-16
KR1020150053878A KR20160123622A (ko) 2015-04-16 2015-04-16 디스플레이 장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
CN106055218A true CN106055218A (zh) 2016-10-26

Family

ID=55755425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610239605.5A Pending CN106055218A (zh) 2015-04-16 2016-04-18 显示装置及其控制方法

Country Status (4)

Country Link
US (1) US20160309090A1 (zh)
EP (1) EP3082019A3 (zh)
KR (1) KR20160123622A (zh)
CN (1) CN106055218A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686276A (zh) * 2017-10-19 2019-04-26 张家港康得新光电材料有限公司 智能橱窗系统
TWI659334B (zh) * 2016-12-12 2019-05-11 Industrial Technology Research Institute 透明顯示裝置、使用其之控制方法以及其之控制器
CN109782848A (zh) * 2018-12-24 2019-05-21 武汉西山艺创文化有限公司 一种基于透明液晶显示屏的智能显示器及其交互方法
US10643359B2 (en) 2016-12-12 2020-05-05 Industrial Technology Research Institute Transparent display device, control method thereof and controller thereof
CN111656767A (zh) * 2018-04-03 2020-09-11 三星电子株式会社 电子装置及其操作方法
US10928930B2 (en) 2017-08-14 2021-02-23 Industrial Technology Research Institute Transparent display device and control method using the same

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10627911B2 (en) 2017-04-25 2020-04-21 International Business Machines Corporation Remote interaction with content of a transparent display
USD852841S1 (en) * 2017-11-07 2019-07-02 Microsoft Corporation Display screen with animated graphical user interface
USD852221S1 (en) * 2017-11-07 2019-06-25 Microsoft Corporation Display screen with animated graphical user interface
KR102013622B1 (ko) * 2018-02-12 2019-08-26 박상현 프로젝션 매핑 장치 및 시스템
KR20200118211A (ko) 2018-03-01 2020-10-14 삼성전자주식회사 사용자 인터페이스를 디스플레이하기 위한 디바이스, 방법, 및 컴퓨터 프로그램
KR102096229B1 (ko) * 2018-04-13 2020-05-29 유브갓프렌즈 주식회사 가상아이템을 이용한 사용자 제작형 전자책콘텐츠 관리서버
US11039173B2 (en) * 2019-04-22 2021-06-15 Arlo Technologies, Inc. Method of communicating video from a first electronic device to a second electronic device via a network, and a system having a camera and a mobile electronic device for performing the method
CN115866391A (zh) * 2021-09-23 2023-03-28 北京字跳网络技术有限公司 一种视频生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100141784A1 (en) * 2008-12-05 2010-06-10 Yoo Kyung-Hee Mobile terminal and control method thereof
CN102385477A (zh) * 2010-09-03 2012-03-21 Lg电子株式会社 基于多个显示器提供用户界面的方法及使用该方法的移动终端
US20130162876A1 (en) * 2011-12-21 2013-06-27 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of controlling the digital photographing apparatus
CN104423878A (zh) * 2013-09-03 2015-03-18 Lg电子株式会社 显示装置以及控制该显示装置的方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285420A (ja) * 2000-03-24 2001-10-12 Telefon Ab L M Ericsson 移動無線通信装置、通信システム及び印刷装置
JP2002261918A (ja) * 2001-03-02 2002-09-13 Hitachi Ltd 携帯電話機
JP3135098U (ja) * 2007-05-18 2007-09-06 パラダイスリゾート株式会社 電子メール画像提供システム
KR20120029228A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
US8941683B2 (en) * 2010-11-01 2015-01-27 Microsoft Corporation Transparent display interaction
KR20120075845A (ko) * 2010-12-29 2012-07-09 삼성전자주식회사 터치스크린 단말기에서 메모 방법 및 장치
JP5830987B2 (ja) * 2011-07-06 2015-12-09 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
EP2648086A3 (en) * 2012-04-07 2018-04-11 Samsung Electronics Co., Ltd Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
KR101793628B1 (ko) * 2012-04-08 2017-11-06 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
US9583032B2 (en) * 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
KR102051656B1 (ko) * 2013-01-22 2019-12-03 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
KR102056175B1 (ko) * 2013-01-28 2020-01-23 삼성전자 주식회사 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100141784A1 (en) * 2008-12-05 2010-06-10 Yoo Kyung-Hee Mobile terminal and control method thereof
CN102385477A (zh) * 2010-09-03 2012-03-21 Lg电子株式会社 基于多个显示器提供用户界面的方法及使用该方法的移动终端
US20130162876A1 (en) * 2011-12-21 2013-06-27 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of controlling the digital photographing apparatus
CN104423878A (zh) * 2013-09-03 2015-03-18 Lg电子株式会社 显示装置以及控制该显示装置的方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI659334B (zh) * 2016-12-12 2019-05-11 Industrial Technology Research Institute 透明顯示裝置、使用其之控制方法以及其之控制器
US10643359B2 (en) 2016-12-12 2020-05-05 Industrial Technology Research Institute Transparent display device, control method thereof and controller thereof
US10928930B2 (en) 2017-08-14 2021-02-23 Industrial Technology Research Institute Transparent display device and control method using the same
CN109686276A (zh) * 2017-10-19 2019-04-26 张家港康得新光电材料有限公司 智能橱窗系统
CN111656767A (zh) * 2018-04-03 2020-09-11 三星电子株式会社 电子装置及其操作方法
CN111656767B (zh) * 2018-04-03 2023-03-28 三星电子株式会社 电子装置及其操作方法
CN109782848A (zh) * 2018-12-24 2019-05-21 武汉西山艺创文化有限公司 一种基于透明液晶显示屏的智能显示器及其交互方法

Also Published As

Publication number Publication date
EP3082019A2 (en) 2016-10-19
EP3082019A3 (en) 2017-01-04
KR20160123622A (ko) 2016-10-26
US20160309090A1 (en) 2016-10-20

Similar Documents

Publication Publication Date Title
CN106055218A (zh) 显示装置及其控制方法
US10883849B2 (en) User terminal device for displaying map and method thereof
US10470538B2 (en) Portable terminal and display method thereof
CN105739813B (zh) 用户终端设备及其控制方法
CN108139778B (zh) 便携式设备和便携式设备的屏幕显示方法
US10222840B2 (en) Display apparatus and controlling method thereof
CN103729160B (zh) 多显示设备和多显示方法
CN104246683B (zh) 在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质
US9741149B2 (en) User terminal device for providing animation effect and display method thereof
TWI410906B (zh) 使用擴增實境導航路徑之方法及使用該方法之行動終端機
CN105229590B (zh) 具有笔的用户终端装置和用户终端装置的控制方法
CN102754352B (zh) 提供多个应用的信息的方法和装置
CN103870132B (zh) 基于情境提供信息的方法和系统
EP2916208B1 (en) Portable terminal and method of enlarging and displaying contents
CN104685460A (zh) 透明显示装置及其显示方法
CN106255948A (zh) 用户终端装置及其控制方法
AU2018223043B2 (en) Portable terminal and display method thereof
US20160179766A1 (en) Electronic device and method for displaying webpage using the same
CN107003735A (zh) 用于接收字符输入的设备及其方法
KR102208361B1 (ko) 키워드 검색 방법 및 장치
KR20160018269A (ko) 디바이스 및 디바이스의 제어 방법
US10976895B2 (en) Electronic apparatus and controlling method thereof
CN105763911A (zh) 一种视频播放的方法和终端
US10732817B2 (en) Electronic apparatus and text input method for the same
KR20160044400A (ko) 디스플레이 장치 및 그 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161026