CN104246688A - 显示设备和显示控制方法 - Google Patents

显示设备和显示控制方法 Download PDF

Info

Publication number
CN104246688A
CN104246688A CN201380015137.8A CN201380015137A CN104246688A CN 104246688 A CN104246688 A CN 104246688A CN 201380015137 A CN201380015137 A CN 201380015137A CN 104246688 A CN104246688 A CN 104246688A
Authority
CN
China
Prior art keywords
transparent display
display
image
overlapped information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380015137.8A
Other languages
English (en)
Other versions
CN104246688B (zh
Inventor
西智裕
横山一树
黑川益义
宫本浩平
上森丈士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104246688A publication Critical patent/CN104246688A/zh
Application granted granted Critical
Publication of CN104246688B publication Critical patent/CN104246688B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

一种设备,包括显示控制器,所述显示控制器被配置成根据传感器输出,控制透明显示器的显示状态,所述传感器输出包含关于与设备分离的对象的信息。

Description

显示设备和显示控制方法
技术领域
本技术涉及显示设备和显示控制方法,以及非临时性计算机可读介质,尤其涉及利用透明显示器构成的显示设备等。
背景技术
在现有技术中,提出了利用透明显示器构成的显示设备(例如,参见PTL 1)。就显示设备来说,用户可通过透明显示器,观察在前侧的图像,和与观察的图像相关的文字或图像相关的信息(叠加信息)可被显示在透明显示器上。
引文列表
专利文献
PTL 1:未经审查的日本专利申请公开No.2010-108647
发明内容
本技术的目的是改善利用透明显示器构成的显示设备的便利性。
按照一个实施例,设备包括
显示控制器,所述显示控制器被配置成根据传感器输出,控制透明显示器的显示状态,所述传感器输出包含关于与设备分离的对象的信息。
按照本技术,能够改善利用透明显示器构成的显示设备的便利性。
附图说明
图1是示意图解说明按照第一实施例的显示设备的外观的示图。
图2是图解说明用户通过透明显示器观察的图像Ia的例子,并且图解说明包含在图像Ia中的用户的手被删除的示图。
图3是图解说明按照第一实施例的显示设备的电路结构例子的示图。
图4是图解说明显示设备在外来物体去除模式下的处理过程的例子的流程图。
图5是示意图解说明按照第二实施例的显示设备的外观的示图。
图6是图解说明用户通过透明显示器观察的图像Ia的例子,并且图解说明包含在图像Ia中的预定对象被删除的示图。
图7是图解说明按照第二实施例的显示设备的电路结构例子的示图。
图8是图解说明显示设备在外来物体去除模式下的处理过程的例子的流程图。
图9是示意图解说明按照第三实施例的显示设备的外观的示图。
图10是图解说明位于透明显示器的后侧的用户Ma观察的视野(用户视野)的例子,和位于透明显示器的前侧的另一人Mb观察的视野(他人视野)的例子的示图。
图11是图解说明按照第三实施例的显示设备的电路结构例子的示图。
图12是图解说明显示设备在隐私保护模式下的处理过程的例子的流程图。
图13是示意图解说明按照第四实施例的显示设备的外观的示图。
图14是图解说明位于透明显示器的后侧的用户Ma能够观察在前侧的图像Ia,位于透明显示器的前侧的另一人Mb能够观察位于后侧的用户Ma等的示图。
图15是图解说明按照第四实施例的显示设备的电路结构例子的示图。
图16是图解说明显示设备在隐私保护模式下的处理过程的例子的流程图。
图17是示意图解说明按照第五实施例的显示设备的外观的示图。
图18是图解说明位于透明显示器的后侧的用户Ma通过透明显示器,观察图像Ia的状态的例子的示图。
图19是图解说明在用户注视透明显示器的显示面的情况下的透明显示器的显示的示图。
图20是图解说明按照第五实施例的显示设备的电路结构例子的示图。
图21是图解说明显示设备在焦点失配改善模式下的处理过程的例子的流程图。
图22是示意图解说明按照第六实施例的显示设备的外观的示图。
图23是图解说明位于透明显示器的后侧的用户Ma通过透明显示器,观察图像Ia的状态的例子的示图。
图24是图解说明用户Ma在几乎和图像Ia相同的位置,感知显示在透明显示器的显示面上的叠加信息的示图。
图25是图解说明按照第六实施例的显示设备的电路结构例子的示图。
图26是图解说明左眼和右眼的叠加信息区域,即,光控制显示部分,和显示在其中的叠加信息,或者各个视点图像到左眼和右眼的照射之间的关系的示图。
图27是图解说明显示设备在显示位置调整模式下的处理过程的例子的流程图。
具体实施方式
下面,说明本发明的实施例。另外,将按照以下顺序进行说明。
1.第一实施例
2.第二实施例
3.第三实施例
4.第四实施例
5.第五实施例
6.第六实施例
7.变形例
<1.第一实施例>
“显示设备的结构例子”
图1示意表示按照第一实施例的显示设备100的外观。显示设备100构成移动设备。显示设备100包括透明显示器101。在透明显示器101的上端,彼此相邻地布置后摄像头(后图像传感器)102和前摄像头(前图像传感器)103。后摄像头102拍摄在透明显示器101的前侧的图像。前摄像头103拍摄在透明显示器101的后侧的图像。另外,在透明显示器101的前侧的表面上,布置触摸面板104。
图2(a)表示用户通过透明显示器101观察的图像Ia的例子。这种情况下,用户的手(手的一部分)105位于透明显示器101的前侧,手105的一部分遮盖透明显示器101,作为外来物体包含在图像Ia中。在显示设备100中,如图2(b)中所示,能够删除包含在图像Ia中的用户的手105。
图3表示按照第一实施例的显示设备100的电路结构例子。显示设备100包括透明显示器101、后摄像头102、前摄像头103和触摸面板104。另外,显示设备100包括视点估计单元121、区域估计单元122、拍摄图像存储单元123、插值图像创建单元124、显示控制单元125和叠加信息生成单元126。
视点估计单元121根据利用前摄像头103获得的拍摄图像,估计用户的视点(眼睛的位置)。区域估计单元122从触摸面板104的输出中,检测作为外来物体区域的用户的手105的区域。另外,区域估计单元122根据关于用户的手104的区域的信息,和利用视点估计单元121获得的视点信息,从利用后摄像头102获得的拍摄图像中,估计与用户的手105的区域对应的图像区域。
拍摄图像存储单元123保存对应于预定帧周期,利用后摄像头102获得的拍摄图像。插值图像创建单元124从保存在拍摄图像存储单元123中的拍摄图像中,切割与用户的手105的区域对应的那部分的图像,以便根据区域估计单元122的区域估计结果,创建插值图像。叠加信息生成单元126生成显示在透明显示器101上的诸如字母或图像之类的叠加信息。
叠加信息例如是与包含在用户通过透明显示器101观察的在前侧的图像中的预定对象相关的信息。可通过从作为图像,利用后摄像头102获得的拍摄图像中,识别预定对象,并通过利用识别结果,使用通信功能(未图示)从因特网上的服务器设备自动获得叠加信息。这种情况下,存在其中使用通信功能,把利用后摄像头102获得的拍摄图像传送给云上(因特网上)的服务器设备,服务器设备进行图像识别,并从服务器设备接收叠加信息的结构。对以下的其它实施例来说,关于以上叠加信息的内容也相同。
当叠加信息生成单元126生成叠加信息时,显示控制单元125(例如,可编程处理器或其它处理电路)把叠加信息显示在透明显示器101上。另外,在外来物体去除模式下,显示控制单元125把利用插值图像创建单元124创建的插值图像只显示在透明显示器101的用户的手105的区域中。
下面简要说明图3中所示的显示设备100的操作。利用拍摄在透明显示器101的前侧的图像的后摄像头102获得的拍摄图像被临时保存在拍摄图像存储单元123中。另外,利用拍摄在透明显示器101的前侧的图像的前摄像头103获得的拍摄图像被提供给视点估计单元121。视点估计单元121根据利用前摄像头103获得的拍摄图像,估计用户的视点。视点估计结果被提供给区域估计单元122。
触摸面板104的输出被提供给区域估计单元122。区域估计单元122从触摸面板104的输出中,检测用户的手105的区域,作为外来物体区域。另外,在区域估计单元122中,根据用户的手105的区域的有关信息,和利用视点估计单元121获得的视点信息,从利用后摄像头102获得的拍摄图像中,估计与用户的手105的区域对应的图像区域。区域估计结果被提供给插值图像创建单元124。
在插值图像创建单元124中,从保存在拍摄图像存储单元123中的拍摄图像中,切割与用户的手105的区域对应的那部分的图像,根据来自区域估计单元122的区域估计结果,创建插值图像(替换图像)。在外来物体去除模式下,显示控制单元125把利用插值图像创建单元124创建的插值图像只显示在透明显示器101的用户的手105的区域中。从而,包含在用户通过透明显示器101观察的图像Ia中的用户的手105被删除(参见图2(b))。此外,当叠加信息生成单元126生成叠加信息时,显示控制单元125把叠加信息显示在透明显示器101上。
图4的流程图表示在图1和图3中所示的显示设备100在外来物体去除模式下的处理过程的例子。显示设备100在步骤ST1,开始所述处理,随后在步骤ST2,开始利用后摄像头102和前摄像头103成像,并启动触摸面板104。
之后,在步骤ST3,显示设备100检测触摸面板104中被手105遮盖的区域。之后,在步骤ST4,显示设备100估计并从利用后摄像头102获得的拍摄图像中切割被手遮盖的区域的景象(图像)。接下来,在步骤ST5,显示设备100只在被手遮盖的区域中,显示在步骤ST4中切割的图像。
之后,显示设备100在步骤ST6,判定外来物体去除模式是否结束。例如根据用户的明确指令操作,判定外来物体去除模式是否结束,不过图3中未表示用户操作单元。如果判定所述模式未结束,那么显示设备100返回步骤ST3的处理,重复进行上述处理。另一方面,如果判定所述模式结束,那么显示设备100在步骤ST7,终止该处理。
如上所述,在图1中所示的显示设备100中,在外来物体去除模式下,利用后摄像头102获得的拍摄图像的与用户的手105的区域对应的那部分的图像只被显示在包含在用户通过透明显示器101观察的图像Ia中的用户的手105的区域中。因此,从用户通过透明显示器101观察的图像Ia中,除去用户的手105,从而改善环境特性。
<2.第二实施例>
“显示设备的结构例子”
图5示意表示按照第二实施例的显示设备200的外观。显示设备200构成移动设备。显示设备200包括透明显示器201。在透明显示器201的上端,彼此相邻地布置后摄像头(后图像传感器)202和前摄像头(前图像传感器)203。后摄像头202拍摄在透明显示器201的前侧的图像。前摄像头203拍摄在透明显示器201的后侧的图像。另外,在透明显示器201的前侧的表面上,布置触摸面板204。
图6(a)表示用户通过透明显示器201观察的图像Ia的例子。这种情况下,对象205作为外来物体包含在图像Ia中。在显示设备100中,如图6(b)中所示,能够删除包含在图像Ia中的对象205。
图7表示按照第二实施例的显示设备200的电路结构例子。显示设备200包括透明显示器201、后摄像头202、前摄像头203和触摸面板204。另外,显示设备200包括视点估计单元221、区域估计单元222、拍摄图像存储单元223、插值图像创建单元224、显示控制单元225和叠加信息生成单元226。
触摸面板204用于从用户通过透明显示器201观察的图像Ia中,指定预定对象205。在这方面,触摸面板201构成对象指定单元。视点估计单元221根据利用前摄像头103获得的拍摄图像,估计用户的视点。区域估计单元222检测包括在触摸面板204中指定的对象205的对象区域,作为外来物体区域。另外,区域估计单元222根据关于对象区域的信息,和利用视点估计单元221获得的视点信息,估计利用后摄像头202获得的拍摄图像中的与对象区域对应的图像区域。
拍摄图像存储单元223保存对应于预定帧周期,利用后摄像头202获得的拍摄图像。插值图像创建单元224根据来自区域估计单元222的区域估计结果,创建插值图像。这种情况下,当对象205移动时,插值图像创建单元224从保存在拍摄图像存储单元223中的拍摄图像之中其中不存在对象205的过去一帧的拍摄图像中,切割与对象区域对应的那部分的图像,以便创建插值图像(替换图像)。另外,当对象205不移动时,插值图像创建单元224通过利用对象区域的周边像素,创建插值图像(替换图像)。
当叠加信息生成单元226生成叠加信息时,显示控制单元225把叠加信息显示在透明显示器201上。另外,在外来物体去除模式下,显示控制单元225把利用插值图像创建单元224创建的插值图像只显示在透明显示器201的对象区域中。
下面简要说明图7中所示的显示设备200的操作。利用拍摄在透明显示器201的前侧的图像的后摄像头202获得的拍摄图像被临时保存在拍摄图像存储单元223中。另外,利用拍摄在透明显示器101的前侧的图像的前摄像头203获得的拍摄图像被提供给视点估计单元221。视点估计单元221根据利用前摄像头203获得的拍摄图像,估计用户的视点。视点估计结果被提供给区域估计单元222。
通过利用触摸面板204,用户指定希望从用户通过透明显示器201观察的图像Ia中除去的对象205。区域估计单元222检测包括在触摸面板204中指定的对象的对象区域,作为外来物体区域。另外,区域估计单元222根据对象区域的有关信息,和利用视点估计单元221获得的视点信息,从利用后摄像头202获得的拍摄图像中,估计与对象区域对应的图像区域。区域估计结果被提供给插值图像创建单元224。
插值图像创建单元224根据来自区域估计单元222的区域估计结果,创建插值图像(替换图像)。这种情况下,当对象205移动时,插值图像创建单元224从保存在拍摄图像存储单元223中的拍摄图像之中其中不存在对象205的过去一帧的拍摄图像中,切割与对象区域对应的那部分的图像,以便创建插值图像(替换图像)。另一方面,当对象205不移动时,插值图像创建单元224通过利用对象区域的周边像素,创建插值图像(替换图像)。
在外来物体去除模式下,显示控制单元225把利用插值图像创建单元224创建的插值图像只显示在透明显示器201的对象区域中。从而,包含在用户通过透明显示器201观察的图像Ia中的对象205被删除(参见图6(b))。另外,当叠加信息生成单元226生成叠加信息时,显示控制单元225把叠加信息显示在透明显示器201上。
图8的流程图表示在图5和图7中所示的显示设备200在外来物体去除模式下的处理过程的例子。显示设备200在步骤ST11,开始所述处理,随后进入步骤ST12的处理。在步骤ST12,显示设备200开始利用后摄像头202和前摄像头203成像,并启动触摸面板204。
之后,在步骤ST13,显示设备200指定操作触摸面板204的用户希望从通过透明显示器201观察的图像中除去的对象205。另外,在步骤ST14,显示设备200判定指定的对象是否移动。例如,根据利用后摄像头202获得的拍摄图像,检测对象205的运动向量,从而判定对象205是否移动。
如果判定对象205移动,那么在步骤ST15,显示设备200通过使用利用后摄像头202获得的拍摄图像中的其中不存在对象205的过去一帧,创建与对象区域对应的插值图像(替换图像)。另一方面,如果判定对象205不移动,那么在步骤ST16,显示设备200通过使用利用后摄像头202获得的拍摄图像的对象区域205的周围像素,创建与对象区域对应的插值图像(替换图像)。
显示设备200进行步骤ST15或ST16中的处理,随后进入步骤ST17中的处理。在步骤ST17,显示设备200把在步骤ST15或ST16中创建的插值图像只显示在对象区域中。
之后,显示设备200在步骤ST18,判定外来物体去除模式是否结束。例如根据用户的明确指令操作,判定外来物体去除模式是否结束,不过图7中未表示用户操作单元。如果判定所述模式未结束,那么显示设备200返回步骤ST13的处理,重复进行上述处理。另一方面,如果判定所述模式结束,那么显示设备200在步骤ST19,终止该处理。
如上所述,在图5中所示的显示设备200中,在外来物体去除模式下,根据利用后摄像头202获得的拍摄图像创建的插值图像(替换图像)只被显示在包含在用户通过透明显示器101观察的图像Ia中的用户指定的对象105的区域中。因此,从用户通过透明显示器201观察的图像Ia中,除去指定的对象105,从而改善环境特性。
<3.第三实施例>
“显示设备的结构例子”
图9示意表示按照第三实施例的显示设备300的外观。显示设备300构成移动设备。显示设备300包括透明显示器301。在透明显示器301的上端,彼此相邻地布置后摄像头(后图像传感器)302和前摄像头(前图像传感器)303。后摄像头302拍摄在透明显示器301的前侧的图像。前摄像头303拍摄在透明显示器301的后侧的图像。
图10表示在位于透明显示器301的后侧的用户Ma观察在透明显示器301的前侧的图像Ia的情况下的视野(用户视野)的例子。在该视野(下面称为“用户视野”)中,除了图像Ia之外,包括另一人Mb,还包括显示在透明显示器301上的诸如字母或图像之类的叠加信息(所示例子中的字符信息)。
另外,图10表示在位于透明显示器301的前侧的另一人Mb观察在透明显示器301的后侧的图像Ib的情况下的视野(他人视野)的例子。在该视野(下面称为“他人视野”)中,除了图像Ib之外,包括用户Ma,还包括显示在透明显示器301上的诸如字母或图像之类的叠加信息(所示例子中的字符信息)。
在显示设备300中,当另一人Mb的视线对着显示在透明显示器301上的叠加信息时,能够把叠加信息的显示颜色设定成与图像Ib的沿视线方向的区域的颜色信息对应的颜色。
图11表示按照第三实施例的显示设备300的电路结构例子。显示设备300包括透明显示器301、后摄像头302和前摄像头303。另外,显示设备300包括视线估计单元321、颜色信息获取单元322、叠加信息生成单元323、叠加信息处理单元324和显示控制单元325。
视线估计单元321根据利用后摄像头302获得的拍摄图像,估计另一人Mb的视线方向。视线方向的估计可以采用例如在T.Ishikawa,S.Baker,I.Matthews和T.Kanade的“Passive Driver Gaze Tracking withActive Appearance Models”(Proceedings of the 11th World Congress onIntelligent Transportation Systems,October,2004)中公开的技术等。
当利用视线估计单元321估计的另一人Mb的视线方向是朝向显示在透明显示器301上的叠加信息(字母、图像等)的视线时,颜色信息获取单元322从利用前摄像头303获得的拍摄图像中,获得沿视线方向的区域的颜色信息。沿视线方向的区域是当另一人Mb的视线对着显示在透明显示器301上的叠加信息时,通过透明显示器301观察的,并且位于叠加信息的背景中的图像区域。
叠加信息生成单元323生成显示在透明显示器301上的叠加信息(字母、图像等)。在隐私保护模式下,叠加信息处理单元324进行颜色变更处理,以致利用叠加信息生成单元323的显示颜色生成的叠加信息变成与利用颜色信息获取单元322获得的颜色信息对应的颜色。另外,当未处于隐私保护模式时,叠加信息处理单元324原样输出利用叠加信息生成单元323生成的叠加信息,而不进行颜色变更处理。当叠加信息生成单元323生成叠加信息时,显示控制单元325把已经过叠加信息处理单元324的叠加信息显示在透明显示器301上。
下面简要说明图11中所示的显示设备300的操作。利用拍摄在透明显示器301的前侧的图像的后摄像头302获得的拍摄图像被提供给视线估计单元321。视线估计单元321处理拍摄的图像,如果在拍摄图像中,存在另一人Mb,那么估计视线。视线方向的估计结果被提供给颜色信息获取单元322。
另外,利用拍摄在透明显示器301的后侧的图像的前摄像头303获得的拍摄图像被提供给颜色信息获取单元322。当利用视线估计单元321估计的另一人Mb的视线方向是朝向显示在透明显示器301上的叠加信息(字母、图像等)的视线时,颜色信息获取单元322从利用前摄像头303获得的拍摄图像中,获得沿视线方向的区域的颜色信息。所述颜色信息被提供给叠加信息处理单元324。
在隐私保护模式下,当另一人Mb的视线对着显示在透明显示器301上的叠加信息时,叠加信息处理单元324进行颜色变更处理,以致利用叠加信息生成单元323的显示颜色生成的叠加信息变成与利用颜色信息获取单元322获得的颜色信息对应的颜色。另一方面,当未处于隐私保护模式时,叠加信息处理单元324原样输出利用叠加信息生成单元323生成的叠加信息。
在隐私保护模式下,当另一人Mb的视线对着显示在透明显示器301上的叠加信息时,显示控制单元325把已在叠加信息处理单元524中经历颜色变更处理的叠加信息显示在透明显示器301上。因此,另一人Mb难以得知显示在透明显示器301上的叠加信息。另外,当未处于隐私保护模式时,或者当另一人Mb的视线未对着显示在透明显示器301上的叠加信息时,利用叠加信息生成单元323生成的叠加信息被原样显示在透明显示器301上。
图12的流程图表示在图9和图11中所示的显示设备300在隐私保护模式下的处理过程的例子。显示设备300在步骤ST21,开始所述处理,随后进入步骤ST22的处理。在步骤ST22,显示设备200开始利用后摄像头302和前摄像头303成像。此外,在步骤ST23,从利用后摄像头302拍摄的图像中,估计另一人Mb的视线方向。
在步骤ST24,显示设备300判定所述视线方向是否对着显示在透明显示器301上的叠加信息。当所述视线方向对着叠加信息时,在步骤ST25,显示设备300从利用前摄像头303获得的拍摄图像中,获得沿所述视线方向的区域的颜色信息。另外,在步骤ST26,显示设备300对叠加信息进行颜色变更处理,以致叠加信息的显示颜色变成与所述颜色信息对应的颜色,以便被显示。另一方面,当视线方向未对着叠加信息时,在步骤ST27,显示设备300原样显示利用叠加信息生成单元323生成的叠加信息,而不进行颜色变更处理。
之后在步骤ST28,显示设备300判定隐私保护模式是否结束。例如根据用户的明确指令操作,判定隐私保护模式是否结束,不过图11中未表示用户操作单元。如果判定所述模式未结束,那么显示设备300返回步骤ST23的处理,重复进行上述处理。另一方面,如果判定所述模式结束,那么显示设备300在步骤ST29,终止该处理。
如上所述,在图9中所示的显示设备300中,在隐私保护模式下,当另一人Mb的视线对着显示在透明显示器301上的叠加信息时,在透明显示器301上显示经过颜色变更处理的叠加信息。因此,另一人Mb难以得知显示在透明显示器301上的叠加信息,从而改善隐私保护。
<4.第四实施例>
“显示设备的结构例子”
图13示意表示按照第四实施例的显示设备400的外观。显示设备400构成移动设备。显示设备400包括透明显示器401。透明显示器401由前侧透明显示器401R和后侧透明显示器401F构成。在透明显示器401的上端,彼此相邻地布置后摄像头(后图像传感器)402和人物检测传感器403。后摄像头402拍摄在透明显示器401的前侧的图像。人物检测传感器403检测存在于透明显示器401的前侧的预定范围中的人物。
图14(a)表示位于透明显示器401的后侧的用户Ma能够通过透明显示器401,观察在前侧的图像Ia。另外,图14(b)表示位于透明显示器401的前侧的另一人Mb能够通过透明显示器401,观察位于后侧的用户Ma等。
在显示设备400中,当检测到另一人Mb的存在,并且存在对着透明显示器401的视线时,如图14(c)中所示,利用后摄像头402获得的拍摄图像可被显示在后侧透明显示器401F上,并且前侧透明显示器401R可被设定成不透明状态,如图14(d)中所示。
图15表示按照第四实施例的显示设备400的电路结构例子。显示设备400包括前侧透明显示器401R、后侧透明显示器401F、后摄像头402和人物检测传感器403。另外,显示设备400包括视线估计单元421、人物检测单元422、叠加信息生成单元423和显示控制单元424。
视线估计单元421根据利用后摄像头402获得的拍摄图像,估计另一人Mb的视线方向。视线估计单元421具有和上述显示设备300的视线估计单元321相同的结构。人物检测单元422根据人物检测传感器403的输出,检测存在于透明显示器401的前侧的预定范围中的另一人Mb。
叠加信息生成单元423生成显示在透明显示器401上的诸如字母或图像之类的叠加信息。当叠加信息生成单元423生成叠加信息时,显示控制单元424把叠加信息显示在透明显示器401,例如,后侧透明显示器401F上。
另外,在隐私保护模式下,显示控制单元424根据来自视线估计单元421的视线估计结果,和来自人物检测单元422的人物检测结果,判定是否满足存在另一人Mb,并且其视线对着透明显示器401的条件。如果判定该条件被满足,那么显示控制单元424把利用后摄像头402获得的拍摄图像显示在后侧透明显示器401F上,并把前侧透明显示器401R设定成不透明状态。
下面简要说明图15中所示的显示设备400的操作。人物检测传感器403的输出被提供给人物检测单元422。另外,人物检测单元422根据人物检测传感器403的输出,检测存在于透明显示器401的前侧的预定范围中的人物。检测结果被提供给显示控制单元424。
此外,利用拍摄在透明显示器401的前侧的图像的后摄像头402获得的拍摄图像被提供给视线估计单元421。视线估计单元421处理拍摄图像,如果在拍摄图像中存在另一人Mb,那么估计视线方向。视线方向的估计结果被提供给显示控制单元424。
叠加信息生成单元423生成显示在透明显示器401上的叠加信息(字母、图像等)。叠加信息被提供给显示控制单元424。显示控制单元424把叠加信息显示在后侧透明显示器401F上。
另外,在隐私保护模式下,显示控制单元424根据来自视线估计单元421的视线估计结果,和来自人物检测单元422的人物检测结果,判定是否满足存在另一人Mb,并且其视线对着透明显示器401的条件。如果判定该条件被满足,那么利用后摄像头402获得的拍摄图像被显示在后侧透明显示器401F上,前侧透明显示器401R被设定成不透明状态。因此,另一人Mb难以通过透明显示器401,观察位于后侧的用户Ma等。
图16的流程图表示图13和图15中所示的显示设备400在隐私保护模式下的处理过程的例子。显示设备400在步骤ST31中开始处理,随后进入步骤ST32中的处理。在步骤ST32,显示设备400开始利用后摄像头402成像,并启动人物检测传感器403。
之后在步骤ST33,显示设备400判定在透明显示器401的前侧的预定范围中,是否存在另一人Mb。当存在另一人Mb时,显示设备400进入步骤ST34中的处理。在步骤ST34,显示设备400判定另一人Mb的视线是否对着透明显示器401。
当另一人Mb的视线对着透明显示器401时,在步骤ST35,显示设备400把前侧透明显示器(外部显示器)401R设定成不透明状态。另外在此时,显示设备400把利用后摄像头402获得的拍摄图像显示在后侧透明显示器(内部显示器)401F上。另一方面,当在步骤ST33,不存在另一人Mb时,或者在步骤ST34,另一人Mb的视线未对着透明显示器401时,在步骤ST36,显示设备400使前侧透明显示器401R和后侧透明显示器401F都维持透明状态。
之后,在步骤ST37,显示设备400判定隐私保护模式是否结束。例如根据用户的明确指令操作,判定隐私保护模式是否结束,不过图15中未表示用户操作单元。如果判定所述模式未结束,那么显示设备400返回步骤ST33的处理,重复进行上述处理。另一方面,如果判定所述模式结束,那么显示设备400在步骤ST38,终止该处理。
如上所述,在图13中所示的显示设备400中,在隐私保护模式下,当存在另一人Mb,并且他/她的视线对着透明显示器401时,利用后摄像头402获得的拍摄图像被显示在后侧透明显示器401F上,并且前侧透明显示器401R被设定成不透明状态。因此,另一人Mb难以通过透明显示器401,观察位于透明显示器401的后侧的用户Ma等,从而改善隐私保护。这种情况下,能够减轻用户Ma被另一人Mb观察的感觉。
在上面的说明中,在隐私保护模式下,当存在另一人Mb,并且他/她的视线对着透明显示器401时,利用后摄像头402获得的拍摄图像被显示在后侧透明显示器401F上,并且前侧透明显示器401R被设定成不透明状态。不过,当存在另一人Mb时,利用后摄像头402获得的拍摄图像可被显示在后侧透明显示器401F上,并且前侧透明显示器401R可被设定成不透明状态。这种情况下,不施加另一人Mb的视线对着透明显示器401的条件。这种情况下,图15的显示设备400的视线估计单元421不是必需的。
此外,在上面的说明中,人物检测单元422根据人物检测传感器403的输出,检测存在于在透明显示器401的前侧的预定范围中的另一人Mb。不过,人物检测单元403可通过处理利用后摄像头402获得的拍摄图像,识别(检测)存在于在透明显示器401的前侧的预定范围中的另一人Mb。这种情况下,人物检测传感器403不是必需的。
此外,在上面的说明中,当存在另一人Mb,并且他/她的视线对着透明显示器401时,利用后摄像头402获得的拍摄图像被显示在后侧透明显示器401F上,并且前侧透明显示器401R被设定成不透明状态。不过,透明显示器401可被分成多个块,利用后摄像头402获得的拍摄图像可被只显示在后侧透明显示器401F上的所述视线对着的分割区域中,前侧透明显示器401R可被设定成不透明状态。另外,可以进行控制,以致视线对着的分割区域的透明度最小,并且离该分割区域越远,透明度越高。
<5.第五实施例>
“显示设备的结构例子”
图17示意表示按照第五实施例的显示设备500的外观。显示设备500构成移动设备。显示设备500包括透明显示器501。在透明显示器501的上端,彼此相邻地布置后摄像头(后图像传感器)502和前摄像头(前图像传感器)503。后摄像头502拍摄在透明显示器501的前侧的图像。前摄像头503拍摄在透明显示器501的后侧的图像。
图18(a)表示位于透明显示器501的后侧的用户Ma通过透明显示器501,观察图像Ia的状态的例子。该例子表示透明显示器501的显示面和图像Ia之间的距离rb远远大于用户Ma的眼睛和透明显示器501的显示面之间的距离ra(ra<<rb),从而发生透明显示器501的显示面和图像Ia的焦点失配的状态。图18(b)表示当在这种情况下,用户Ma注视透明显示器501的显示面,并且图像Ia处于模糊状态时观察到的视野的例子。另外,尽管未图示,不过相反地,在当用户Ma注视图像Ia时观察到的视野中,透明显示器501的显示面的信息处于模糊状态。
图18(c)表示位于透明显示器501的后侧的用户Ma通过透明显示器501,观察图像Ia的状态的例子。该例子表示透明显示器501的显示面和图像Ia之间的距离rb远远小于用户Ma的眼睛和透明显示器501的显示面之间的距离ra(ra>>rb),从而不发生透明显示器501的显示面和图像Ia的焦点失配的状态。图18(d)表示当在这种情况下,用户Ma注视透明显示器501的显示面或者图像Ia,并且透明显示器501的显示面和图像Ia两者的信息都处于清晰状态时观察到的视野的例子。
在显示设备500中,在检测到透明显示器501的显示面和图像Ia的焦点失配的情况下,如图19(a)中所示,当用户注视透明显示器501的显示面时,利用后摄像头502获得的拍摄图像可被显示在透明显示器501上,叠加信息(字母、图像等)可叠加地显示在拍摄图像上。这种情况下,如图19(b)中所示,在用户Ma观察的视野中,叠加信息和图像Ia都处于清楚状态。
在显示设备500中,在检测到透明显示器501的显示面和图像Ia的焦点失配的情况下,如图19(c)中所示,当用户注视透明显示器501的显示面时,叠加信息可能不被显示在透明显示器501上,或者透明显示器501上的叠加信息的显示可能不太显眼。这种情况下,如图19(d)中所示,在用户Ma观察到的视野中,图像Ia处于被清晰显示,而不被显示在透明显示器501上的叠加信息妨碍的状态。
图20表示按照第五实施例的显示设备500的电路结构例子。显示设备500包括透明显示器501、后摄像头502和前摄像头503。另外,显示设备500包括视线估计单元521、距离估计单元522、距离估计单元523、叠加信息生成单元524和显示控制单元525。
视线估计单元521根据利用前摄像头503获得的拍摄图像,估计用户Ma的左眼和右眼的视线方向。视线估计单元521具有和上述显示设备300的视线估计单元321相同的结构。距离估计单元522根据利用前摄像头503获得的拍摄图像,估计用户Ma的眼睛和透明显示器501的显示面之间的距离ra。距离估计单元523根据利用后摄像头502获得的拍摄图像,估计透明显示器501的显示面和用户Ma通过透明显示器501观察的图像Ia之间的距离rb。
叠加信息生成单元524生成显示在透明显示器501上的叠加信息(字母、图像等)。在焦点失配改善模式下,显示控制单元525根据来自距离估计单元522和523的距离估计结果,判定是否发生透明显示器501的显示面和图像Ia的焦点失配。例如,如果ra<<rb,那么显示控制单元525判定存在焦点失配。
另外,显示控制单元525根据利用视线估计单元521估计的用户Ma的左眼和右眼的视线方向,判定用户Ma是在注视透明显示器501的显示面,还是在注视图像Ia。如果左眼和右眼的视线对着透明显示器501的显示面的几乎相同的位置(叠加信息的显示位置),那么显示控制单元525判定用户Ma注视透明显示器501的显示面。另一方面,如果左眼和右眼的视线对着图像Ia的几乎相同的位置,那么显示控制单元525判定用户用户Ma注视图像Ia。
另外,当判定存在焦点失配,并且判定用户Ma注视透明显示器501的显示面时,显示控制单元525把利用后摄像头502获得的拍摄图像显示在透明显示器501上,并把叠加信息(字母、图像等)叠加地显示在拍摄图像上。此外,如果判定存在焦点失配,并且判定用户Ma注视图像Ia,那么显示控制单元525不把叠加信息显示在透明显示器501上,通过降低叠加信息的对比度,不太明显地显示叠加信息,等等。另外,如果判定不存在焦点失配,那么显示控制单元525只把叠加信息显示在透明显示器501上。
下面简要说明图20中所示的显示设备500的操作。利用前摄像头503获得的拍摄图像被提供给视线估计单元521。视线估计单元521根据拍摄图像,估计用户Ma的左眼和右眼的视线方向。视线估计结果被提供给显示控制单元525。
另外,利用前摄像头503获得的拍摄图像被提供给距离估计单元522。距离估计单元522根据该拍摄图像,估计用户Ma的眼睛和透明显示器501的显示面之间的距离ra。此外,利用后摄像头502获得的拍摄图像被提供给距离估计单元523。距离估计单元523根据该拍摄图像,估计透明显示器501的显示面和用户Ma通过透明显示器501观察的图像Ia之间的距离rb。
叠加信息生成单元524生成显示在透明显示器501上的叠加信息(字母、图像等)。当未在焦点失配改善模式下时,显示控制单元525只把叠加信息显示在透明显示器501上。另外,在焦点失配改善模式下,显示控制单元525进行以下控制。
即,根据来自距离估计单元522和523的距离估计结果,判定是否发生透明显示器501的显示面和图像Ia的焦点失配。另外,根据利用视线估计单元521估计的用户Ma的左眼和右眼的视线方向,判定用户Ma是注视透明显示器501的显示面,还是注视图像Ia
另外,当判定存在焦点失配,并且判定用户Ma注视透明显示器501的显示面时,显示控制单元525把利用后摄像头502获得的拍摄图像显示在透明显示器501上,并把叠加信息(字母、图像等)叠加地显示在拍摄图像上(参见图19(a)和(b))。
此外,如果判定存在焦点失配,并且判定用户Ma注视图像Ia,那么显示控制单元525不把叠加信息显示在透明显示器501上,通过降低叠加信息的对比度,不太明显地显示叠加信息,等等(参见图19(c)和(d))。另外,如果判定不存在焦点失配,那么按照和上面说明的未处于焦点失配改善模式时相同的方式,显示控制单元525只把叠加信息显示在透明显示器501上。
图21的流程图表示图13和图15中所示的显示设备500在焦点失配改善模式下的处理过程的例子。显示设备500在步骤ST41,开始该处理,随后进入步骤ST42的处理。在步骤ST42,显示设备500开始利用后摄像头502和前摄像头503成像。
之后,在步骤ST43,显示设备500根据利用前摄像头503拍摄的图像,估计用户Ma的眼睛和透明显示器501的显示面之间的距离ra。之后,在步骤ST44,显示设备500估计透明显示器501的显示面和用户Ma通过透明显示器501的显示面观察的图像Ia之间的距离rb。另外,在步骤ST45,显示设备500比较距离ra和距离rb。
之后,在步骤ST46,显示设备500根据比较结果,判定是否发生了透明显示器501的显示面和图像Ia的焦点失配。如果判定发生了焦点失配,那么在步骤ST47,显示设备500根据利用前摄像头503拍摄的图像,估计用户Ma的左眼和右眼的视线方向。
之后在步骤ST48,显示设备500根据视线方向的估计结果,判定用户Ma是否注视透明显示器501的显示面。如果判定透明显示器501的显示面被注视,那么在步骤S49,显示设备500把利用后摄像头502拍摄的图像,和利用叠加信息生成单元524生成的叠加信息显示在透明显示器501上(参见图19(a)和(b))。
另外,如果在步骤ST48,判定透明显示器501的显示面未被注视,那么在步骤S50,显示设备500在透明显示器501上什么也不显示,或者通过降低叠加信息生成单元524生成的叠加信息的对比度等,不太明显地把所述叠加信息显示在透明显示器501上(参见图19(c)和(d))。此外,如果在步骤ST46,判定未发生焦点失配,那么在步骤ST51,在正常状态下,显示设备500只把叠加信息生成单元524生成的叠加信息显示在透明显示器501上。
在进行步骤ST49、ST50和ST51中的处理之后,在步骤ST52,显示设备500判定焦点失配改善模式是否结束。例如根据用户的明确指令操作,判定焦点失配改善模式是否结束,不过图20中未表示用户操作单元。如果判定所述模式未结束,那么显示设备500返回步骤ST43的处理,重复进行上述处理。另一方面,如果判定所述模式结束,那么显示设备500在步骤ST53,终止该处理。
如上所述,在图17中所示的成像设备500中,在焦点失配改善模式下,如果判定发生焦点失配,那么取决于用户Ma是否注视透明显示器501的显示面,改变透明显示器501的显示状态。即,当用户Ma注视透明显示器501的显示面时,利用后摄像头502拍摄的图像,和利用叠加信息生成单元524生成的叠加信息被显示在透明显示器501上。
另一方面,如果判定透明显示器501的显示面未被注视,即,通过透明显示器501观察在前侧的图像Ia,那么在透明显示器501上什么也不显示,或者不太明显地显示利用叠加信息生成单元524生成的叠加信息。因此,能够改善由焦点失配引起的用户Ma的不适。
另外,在上面说明的图20中所示的显示设备500中,从利用后摄像头502拍摄的图像中估计距离rb,从利用前摄像头503拍摄的图像中估计距离ra,然后在显示控制单元525中,通过所述距离的比较,自动判定是否发生焦点失配。不过,例如,可通过用户的手动操作,给出关于是否发生焦点失配的信息。这种情况下,在图20中所示的显示设备500中,距离估计单元522和523不是必需的。另外,显示控制单元525不必根据距离信息,判定是否发生焦点失配。
<6.第六实施例>
“显示设备的结构例子”
图22示意表示按照第六实施例的显示设备600的外观。显示设备600构成移动设备。显示设备600包括透明显示器601。在透明显示器601的上端,彼此相邻地布置后摄像头(后图像传感器)602和前摄像头(前图像传感器)603。后摄像头602拍摄在透明显示器601的前侧的图像。前摄像头603拍摄在透明显示器601的后侧的图像。另外,在透明显示器601的后侧,附着由液晶透镜或视差栅格构成的光控制单元604。
图23表示位于透明显示器601的后侧的用户Ma通过透明显示器601,观察图像Ia的状态的例子。该例子表示透明显示器601的显示面和图像Ia之间的距离rb远远大于用户Ma的眼睛和透明显示器601的显示面之间的距离ra(ra<<rb)的状态。这种情况下,由于透明显示器601的显示面和图像Ia的视差较大,因此左图像和右图像彼此不统一,从而观看困难。
这种情况下,在当用户Ma注视透明显示器601的显示面时观察的视野中,图像Ia处于未被统一的状态。另外,这种情况下,在用户Ma注视图像Ia时观察的视野中,透明显示器601的显示面处于未被统一的状态。
在显示设备600中,如图24(a)中所示,显示在透明显示器601的显示面上的叠加信息,比如字母或图像(所示例子中的字母)可被用户Ma在几乎和图像Ia相同的位置感知,如图24(b)中所示。因此,生成左眼叠加信息和右眼叠加信息,作为叠加信息,并且这两个叠加信息被赋予适当的视差,并被显示在透明显示器601上。
图25表示按照第六实施例的显示设备600的电路结构例子。显示设备600包括透明显示器601、后摄像头602、前摄像头603和光控制单元604。另外,显示设备600包括深度图获取单元621、叠加位置判定单元622、用户视点位置判定单元624、用户视点图像生成单元624、叠加信息生成单元625和显示控制单元626。
深度图获取单元621通过根据利用后摄像头602获得的拍摄图像,检测各个像素的深度,获得深度图。作为检测深度的方法,存在根据立体输入的计算方法,利用2D/3D变换的预测,单透镜摄像头和距离传感器的组合,等等。叠加位置判定单元622参考深度图,判定显示在透明显示器601的显示面上的叠加信息对左眼和右眼来说的显示位置。在这种情况下,叠加位置判定单元622判定对左眼和右眼来说的显示位置,以致用户能够在几乎与通过透明显示器601观察的在前侧的图像Ia的位置相同的位置,感知叠加信息。
用户视点位置检测单元623根据利用前摄像头603获得的拍摄图像,检测用户的左眼和右眼的视点位置(眼睛的位置)。视点位置的检测可以采用在T.Ishikawa,S.Baker,I.Matthews和T.Kanade的“Passive DriverGaze Tracking with Active Appearance Models”(Proceedings of the 11thWorld Congress on Intelligent Transportation Systems,October,2004)中公开的技术等。
用户视点图像生成单元624参照检测的用户的左眼和右眼的视点位置,和获得的深度图,从利用后摄像头602获得的拍摄图像,生成左眼和右眼的各个视点图像。例如,在未经审查的日本专利申请公开No.2011-176822中,记载了获得图像的深度,并根据图像的深度,生成任意视点图像的技术。叠加信息生成单元625生成显示在透明显示器501上的叠加信息,比如字母或图像。
当未处于显示位置调整模式时,显示控制单元626把利用叠加信息生成单元625生成的叠加信息原样显示在透明显示器601上。这种情况下,为左眼和右眼共用的单项叠加信息被显示在透明显示器601上,用户在透明显示器601的显示面中感知叠加信息。另一方面,在显示位置调整模式下,显示控制单元626在显示在利用叠加位置判定单元622判定的对左眼和右眼来说的显示位置的叠加信息区域中,进行以下显示。
这种情况下,显示控制单元626把叠加信息显示在左眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射左眼。另外,显示控制单元626从右眼的视点图像中切割区域部分,以致所述区域部分被显示在左眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射右眼。
此外,显示控制单元626把叠加信息显示在右眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射左眼。另外,显示控制单元626从左眼的视点图像中切割区域部分,以致所述区域部分被显示在右眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射左眼。光控制单元604由如在未经审查的日本专利申请公开No.2004-258631中记载的液晶透镜阵列构成。图26是图解说明左眼和右眼的上述叠加信息区域,即,光控制显示部分,与显示在其中的叠加信息或者各个视点图像相对于左眼和右眼的照射之间的关系的示图。
下面简要说明图25中所示的显示设备600的操作。利用拍摄在透明显示器601的前侧的图像的后摄像头602获得的拍摄图像被提供给深度图获取单元621。深度图获取单元621根据利用后摄像头602获得的拍摄图像,检测各个像素的深度,以便获得深度图。深度图被提供给叠加位置判定单元622。叠加位置判定单元622判定对左眼和右眼来说的显示位置,以致用户能够在与通过透明显示器601观察的在前侧的图像Ia的位置几乎相同的位置,感知叠加信息。显示位置信息被提供给显示控制单元626。
另外,利用拍摄在透明显示器601的后侧的图像的前摄像头603获得的拍摄图像被提供给用户视点位置检测单元623。用户视点位置检测单元623根据利用前摄像头603获得的拍摄图像,检测用户的左眼和右眼的视点位置(眼睛的位置)。视点位置信息被提供给显示控制单元626。
当未处于显示位置调整模式时,显示控制单元626把利用叠加信息生成单元625生成的叠加信息原样显示在透明显示器601上。这种情况下,用户在透明显示器601的显示面中感知叠加信息。另外,在显示位置调整模式下,显示控制单元626在显示在透明显示器601的显示面的,利用叠加位置判定单元622判定的对左眼和右眼来说的显示位置处的叠加信息区域中,进行以下显示。
这种情况下,显示控制单元626把叠加信息显示在左眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射左眼。另外,显示控制单元626从右眼的视点图像中切割区域部分,以致所述区域部分被显示在左眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射右眼。
此外,显示控制单元626把叠加信息显示在右眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射右眼。另外,显示控制单元626从左眼的视点图像中切割区域部分,以致所述区域部分被显示在右眼的叠加信息区域中,并控制光控制单元604,以致用显示信息照射左眼。这种情况下,用户在与通过透明显示器601观察的在前侧的图像Ia的位置几乎相同的位置,感知叠加信息。
图27的流程图表示图22和图25中所示的显示设备600在显示位置调整模式下的处理过程的例子。显示设备600在步骤ST61,开始所述处理,随后进入步骤ST62的处理。在步骤ST62,显示设备600开始利用后摄像头602和前摄像头603成像。此外,在步骤ST63,从利用后摄像头602拍摄的图像中,检测用户通过透明显示器601观察的目标主题(图像Ia)的各个像素的深度,以便生成深度图。
之后,在步骤ST64,显示设备600从利用前摄像头603拍摄的图像中,检测用户的左眼和右眼的视点位置。另外,在步骤ST65,显示设备600检测透明显示器601的显示面中的叠加信息对左眼和右眼来说的叠加位置。此外,在步骤ST66,显示设备600通过参照用户的左眼和右眼的视点位置,以及深度图,根据利用后摄像头602拍摄的图像,生成用户的左眼和右眼的视点图像。
之后,在步骤ST67,显示设备600把叠加信息和视点图像只显示在示于左眼和右眼的叠加位置处的图像叠加区域中,并进行光控制。从而,用户能够在与通过透明显示器601观察的在前侧的图像Ia的位置几乎相同的位置,感知叠加信息。
之后,显示设备600在步骤ST68,判定显示位置调整模式是否结束。例如根据用户的明确指令操作,判定显示位置调整模式是否结束,不过图25中未表示用户操作单元。如果判定所述模式未结束,那么显示设备600返回步骤ST63的处理,重复进行上述处理。另一方面,如果判定所述模式结束,那么显示设备600在步骤ST69,终止该处理。
如上所述,在图22中所示的显示设备600中,在显示位置调整模式下,施加以视差的左眼和右眼的叠加信息被显示在透明显示器601上,并进行光控制,从而用户能够在与通过透明显示器601观察的在前侧的图像Ia的位置几乎相同的位置,感知叠加信息。因此,能够实现图像Ia和叠加信息的无缝结合,从而减轻由焦点失配的产生引起的用户的不适。
<7.变形例>
另外,在上面的说明中,表示了把本技术应用于移动设备的情况。不过,本技术可适用于其它设备、建筑结构等。
例如,橱窗可具有和按照第四实施例的上述显示设备400相同的结构。这种情况下,通常通过透明显示器,观察橱窗内部。在工作人员进入橱窗中,更换显示物品等的情况下,内部透明显示器变得不透明,在外部透明显示器上显示摄像头图像、电视图像或再现图像。
另外,例如,房屋的墙壁的一部分可具有和按照第四实施例的上述显示设备400相同的结构。这种情况下,由于是透明的,因此通常改善环境特性,并且当检测到人时,外部透明显示器变得不透明,在内部透明显示器上显示摄像头图像、电视图像或再现图像。
另外,在第一实施例(参见图1),第二实施例(参见图5),第三实施例(参见图9),第五实施例(参见图17)和第六实施例(参见图22)中,表示了其中设置两个摄像头,后摄像头(图像传感器)502和前摄像头503的结构。不过,代替配置两个摄像头,例如如在日本专利No.4000449中公开的那样,可以配置单个摄像头(图像传感器),并利用所述单个摄像头,拍摄在透明显示器的前侧和后侧的图像。
此外,本技术可具有以下结构。
按照一个实施例,设备包括
显示控制器,所述显示控制器被配置成根据传感器输出,控制透明显示器的显示状态,所述传感器输出包含关于与设备分离的对象的信息。
按照一个方面,
所述信息包括图像信息。
按照另一个方面,
所述信息包括关于外来物体区域的信息。
按照另一个方面,
人手的一部分是遮挡显示在透明显示器上的图像的外来物体区域的外来物体。
按照另一个方面,所述实施例还包括
插值图像创建单元,所述插值图像创建单元生成并替换被人手的所述至少一部分遮挡的景物的插值图像部分。
按照另一个方面,所述设备还包括
区域估计单元,所述区域估计单元识别被对象遮挡的景物的区域;和
插值图像创建单元,所述插值图像创建单元生成并替换被对象遮挡的景物的区域的插值图像部分。
按照另一个方面,
插值图像创建单元通过观察对象在一帧和前一帧之间的移动,识别被对象遮挡的景物的区域。
按照另一个方面,
插值图像创建单元通过观察对象的周边像素,识别被对象遮挡的景物的区域。
按照另一个方面,所述设备还包括
叠加信息生成单元,所述叠加信息生成单元生成供在透明显示器上显示的叠加信息;
叠加信息处理单元,所述叠加信息处理单元相对于沿着非设备使用者的视线方向的图像中的区域的颜色,有选择地设定叠加信息的颜色。
按照另一个方面,
当设备处于隐私保护模式时,叠加信息处理单元把叠加信息的颜色设定成和沿着非使用者的视线的图像中的区域相同的颜色。
按照另一个方面,
当设备未处于隐私保护模式时,叠加信息处理单元把叠加信息的颜色设定成和沿着非使用者的视线的图像中的区域不同的颜色。
按照另一个方面,所述设备还包括
透明显示器,所述透明显示器具有用户可见的内部显示器,和面向与内部显示器相反的方向的外部显示器,其中
显示控制器被配置成响应隐私保护模式的启动,把外部显示器从透明状态改变成不透明状态。
按照另一个方面,
响应检测到视线朝向外部显示器的人物,启动隐私保护模式。
按照另一个方面,所述设备还包括
检测人物的人物检测单元;和
估计所述人物的视线的视线估计单元。
按照另一个方面,所述设备还包括
叠加信息生成单元,所述叠加信息生成单元生成供在透明显示器上显示的叠加信息,其中
显示控制器判定在透明显示的表面和图像之间,是否存在焦点失配,当不存在失配时,显示控制器使叠加信息被显示在透明显示器上。
按照另一个方面,
当存在焦点失配,并且透明显示器的表面未被注视时,显示控制器使叠加信息被不引人注意地显示在透明显示器上,和
当存在焦点失配,并且透明显示器的表面被注视时,显示控制器把图像和叠加信息一起显示在透明显示器上。
按照另一个方面,所述设备还包括
叠加信息生成单元,所述叠加信息生成单元生成供在透明显示器上显示的叠加信息;和
叠加判定单元,所述叠加判定单元判定对于用户的左眼和右眼的显示位置;其中
显示控制器把叠加信息显示在与显示在透明显示器上的图像大体相同的感知深度。
按照另一个方面,所述设备还包括
为透明显示器的前侧和透明显示器的后侧提供图像的单一图像传感器。
按照方法实施例,控制透明显示器的方法包括
接收传感器输出,所述传感器输出包含关于与透明显示器分离的对象的信息;和
利用处理电路,根据传感器输出,控制透明显示器的显示状态。
按照非临时性计算机可读存储介质实施例,所述介质包括保存于其中的计算机可读指令,当被处理器执行时,所述计算机可读指令进行控制透明显示器的方法,所述方法包括
接收传感器输出,所述传感器输出包含关于与透明显示器分离的对象的信息;和
利用处理电路,根据传感器输出,控制透明显示器的显示状态。
按照一个实施例,显示设备包括
透明显示器;获得关于透明显示器的周边的信息的传感器单元;和根据传感器单元的输出,控制透明显示器的显示状态的控制单元。
按照一个方面,
传感器单元通过拍摄透明显示器的周边的图像,获得拍摄图像,其中控制单元通过利用拍摄的透明显示器的周边图像,进行图像处理,控制透明显示器的显示状态。
按照另一个方面,
传感器单元包括拍摄在透明显示器的前侧的图像的后图像传感器,和拍摄在透明显示器的后侧的图像的前图像传感器。
按照另一个方面,
传感器单元包括能够拍摄在透明显示器的前侧和后侧的图像的单个图像传感器。
按照另一个方面,
传感器单元包括拍摄在透明显示器的前侧的图像的后图像传感器,其中控制单元只把以与利用后图像传感器获得的拍摄图像的外来物体的区域对应的那部分的图像为基础的图像,显示在包含在用户通过透明显示器观察的图像中的外来物体的区域中,并从用户通过透明显示器观察的图像中删除外来物体。
按照另一个方面,
传感器单元还包括布置在透明显示器的前侧的表面上的触摸面板,其中控制单元从触摸面板的输出中,检测用户的手的区域,作为外来物体的区域,只把利用后图像传感器获得的拍摄图像的与用户的手的区域对应的那部分的图像,显示在用户的手的区域中,并从用户通过透明显示器观察的图像中,删除用户的手。
按照另一个方面,实施例还包括
对象指定单元,所述对象指定单元从用户通过透明显示器观察的图像中,指定预定对象,其中控制单元把包括指定的预定对象的对象区域设定为外来物体的区域,只把以与利用后图像传感器获得的拍摄图像的对象区域对应的那部分的图像为基础的图像显示在对象区域中,并从用户通过透明显示器观察的图像中删除所述预定对象。
按照另一个方面,
当指定的对象移动时,控制单元只把与利用后图像传感器获得的,其中不存在预定对象的过去一帧的拍摄图像的对象区域对应的那部分的图像显示在对象区域中,并从用户通过透明显示器观察的图像中删除所述预定对象。
按照另一个方面,
对象指定单元包括布置在透明显示器的后侧的触摸面板。
按照另一个方面,
传感器单元包括拍摄在透明显示器的前侧的图像的后图像传感器,和拍摄在透明显示器的后侧的图像的前图像传感器,其中显示设备还包括生成显示在透明显示器上的叠加信息的叠加信息生成单元,其中控制单元把生成的叠加信息显示在透明显示器上,并且其中当利用由后图像传感器获得的拍摄图像,检测到对着显示在透明显示器上的叠加信息的视线时,控制单元从利用前图像传感器获得的拍摄图像中,获得与通过透明显示器观察的沿所述视线方向的区域有关的颜色信息,并把显示在透明显示器上的叠加信息的显示颜色设定成与获得的颜色信息对应的颜色。
按照另一个方面,
透明显示器包括在其前侧的第一透明显示器,和在其后侧的第二透明显示器,其中传感器单元包括检测在透明显示器的前侧的人物的人物检测传感器,和拍摄在透明显示器的前侧的图像的后图像传感器,其中当人物检测传感器检测到人物的存在时,控制单元把第一透明显示器设定成不透明状态,并把利用后图像传感器获得的拍摄图像显示在第二透明显示器上。
按照另一个方面,
控制单元根据利用后图像传感器获得的拍摄图像,判定是否存在对着透明显示器的视线,其中当人物检测传感器检测到人物的存在,并且存在对着透明显示器的视线时,控制单元把第一透明显示器设定成不透明状态,并把利用后图像传感器获得的拍摄图像显示在第二透明显示器上。
按照另一个方面,
当对着透明显示器的视线是对着透明显示器的预定分割区域的视线时,控制单元把第一透明显示器的所述预定分割区域设定成不透明状态,并把利用后图像传感器获得的拍摄图像的对应于所述预定分割区域的那部分的图像显示在第二透明显示器的所述预定分割区域中。
按照另一个方面,
传感器单元包括检测在透明显示器的前侧的人物的人物检测传感器,和拍摄在透明显示器的前侧的图像的后图像传感器,其中显示设备还包括生成显示在透明显示器上的叠加信息的叠加信息生成单元,其中当发生用户对于透明显示器的显示面和通过透明显示器观察的图像的焦点失配时,控制单元根据利用前图像传感器获得的拍摄图像,判定用户是否注视透明显示器的显示面,当判定透明显示器的显示面被注视时,把利用后图像传感器获得的拍摄图像显示在透明显示器上,并把生成的叠加信息叠加地显示在所述拍摄图像上。
按照另一个方面,
控制单元不把生成的叠加信息显示在透明显示器上,或者不太明显地把叠加信息显示在透明显示器上。
按照另一个方面,
控制单元根据从利用前图像传感器获得的拍摄图像估计的用户的眼睛和透明显示器的显示面之间的距离,以及从利用后图像传感器获得的拍摄图像估计的透明显示器的显示面和透过透明显示器观察的图像之间的距离,判定用户对于透明显示器的显示面和通过透明显示器观察的图像的焦点失配。
按照另一个方面,实施例还包括
生成显示在透明显示器上的叠加信息的叠加信息生成单元;和配置在透明显示器的后侧的表面上的光控制单元,其中传感器单元包括拍摄在透明显示器的前侧的图像的后图像传感器,和拍摄在透明显示器的后侧的图像的前图像传感器,其中控制单元根据从利用前图像传感器获得的拍摄图像得到的用户的左右眼相对于透明显示器的位置,和从利用后图像传感器获得的拍摄图像得到的通过透明显示器观察的图像的深度信息,生成被施加使用户能够在通过透明显示器观察的图像的位置,感知叠加信息的视差的左眼叠加信息和右眼叠加信息,以便被显示在透明显示器上,其中控制单元控制光控制单元,以致来自显示在透明显示器上的左眼叠加信息的光到达用户的左眼,来自显示在透明显示器上的右眼叠加信息的光到达用户的右眼。
按照方法实施例,控制显示器的方法包括检测透明显示器的周边环境;和根据周围环境,控制透明显示器的显示状态。
附图标记列表
[0125]100,200,300,400,500,600 显示设备
101,201,301,401,501,601 透明显示器
102,202,302,402,502,602 后摄像头
103,203,303,503,603 前摄像头
104,204 触摸面板
121,221 视点估计单元
122,222 区域估计单元
123,223 拍摄图像存储单元
124,224 插值图像创建单元
125,225,325,424,525,626 显示控制单元
126,226,323,423,524,625 叠加信息生成单元
321,421,521 视线估计单元
322 颜色信息获取单元
324 叠加信息处理单元
401R 前侧显示器
401F 后侧显示器
403 人物检测传感器
422 人物检测单元
522,523 距离估计单元
604 光控制单元
621 深度图获取单元
622 叠加位置判定单元
623 用户视点位置检测单元
624 用户视点图像生成单元

Claims (20)

1.一种设备,包括:
显示控制器,所述显示控制器被配置成基于传感器输出,控制透明显示器的显示状态,所述传感器输出包含关于与设备分离的对象的信息。
2.按照权利要求1所述的设备,其中
所述信息包括图像信息。
3.按照权利要求1所述的设备,其中
所述信息包括关于外来物体区域的信息。
4.按照权利要求3所述的设备,其中
人手的至少一部分是遮挡显示在透明显示器上的图像的外来物体区域的外来物体。
5.按照权利要求4所述的设备,还包括:
插值图像创建单元,所述插值图像创建单元生成并替换被人手的所述至少一部分遮挡的景物的插值图像部分。
6.按照权利要求3所述的设备,还包括:
区域估计单元,所述区域估计单元识别被对象遮挡的景物的区域;和
插值图像创建单元,所述插值图像创建单元生成并替换被对象遮挡的景物的区域的插值图像部分。
7.按照权利要求6所述的设备,其中
插值图像创建单元通过观察对象在一帧和以前的帧之间的移动,识别被对象遮挡的景物的区域。
8.按照权利要求6所述的设备,其中
插值图像创建单元通过观察对象的周边像素,识别被对象遮挡的景物的区域。
9.按照权利要求1所述的设备,还包括:
叠加信息生成单元,所述叠加信息生成单元生成供在透明显示器上显示的叠加信息;
叠加信息处理单元,所述叠加信息处理单元相对于沿着非设备使用者的视线方向的图像中的区域的颜色,有选择地设定叠加信息的颜色。
10.按照权利要求1所述的设备,其中
当设备处于隐私保护模式时,叠加信息处理单元把叠加信息的颜色设定成和沿着非使用者的视线的图像中的区域相同的颜色。
11.按照权利要求10所述的设备,其中
当设备未处于隐私保护模式时,叠加信息处理单元把叠加信息的颜色设定成和沿着非使用者的视线的图像中的区域不同的颜色。
12.按照权利要求1所述的设备,还包括:
透明显示器,所述透明显示器具有用户可见的内部显示器,和面向与内部显示器相反的方向的外部显示器,其中
显示控制器被配置成响应隐私保护模式的启动,把外部显示器从透明状态改变成不透明状态。
13.按照权利要求12所述的设备,其中
响应于检测到视线朝向外部显示器的人,启动隐私保护模式。
14.按照权利要求13所述的设备,还包括:
检测人的人检测单元;和
估计所述人的视线的视线估计单元。
15.按照权利要求1所述的设备,还包括:
叠加信息生成单元,所述叠加信息生成单元生成供在透明显示器上显示的叠加信息,其中
显示控制器判定在透明显示器的表面和图像之间是否存在用户的焦点失配,并且当不存在失配时,显示控制器使叠加信息被显示在透明显示器上。
16.按照权利要求15所述的设备,其中
当存在焦点失配,并且透明显示器的表面未被注视时,显示控制器使叠加信息被不引人注意地显示在透明显示器上,并且
当存在焦点失配,并且透明显示器的表面被注视时,显示控制器把图像和叠加信息一起显示在透明显示器上。
17.按照权利要求1所述的设备,还包括:
叠加信息生成单元,所述叠加信息生成单元生成供在透明显示器上显示的叠加信息;和
叠加判定单元,所述叠加判定单元判定对于用户的左眼和右眼的显示位置;其中
显示控制器把叠加信息显示在与显示在透明显示器上的图像大体相同的感知深度处。
18.按照权利要求1所述的设备,还包括:
为透明显示器的前侧和透明显示器的后侧提供图像的单个图像传感器。
19.一种控制透明显示器的方法,包括:
接收传感器输出,所述传感器输出包含关于与透明显示器分离的对象的信息;和
利用处理电路,基于传感器输出,控制透明显示器的显示状态。
20.一种保存有计算机可读指令的非临时性计算机可读存储介质,当被处理器执行时,所述计算机可读指令执行控制透明显示器的方法,所述方法包括:
接收传感器输出,所述传感器输出包含关于与透明显示器分离的对象的信息;和
利用处理电路,根据传感器输出,控制透明显示器的显示状态。
CN201380015137.8A 2012-03-28 2013-03-25 显示设备和显示控制方法 Expired - Fee Related CN104246688B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-072669 2012-03-28
JP2012072669A JP6134478B2 (ja) 2012-03-28 2012-03-28 情報処理装置、表示制御方法、プログラムおよび記憶媒体
PCT/JP2013/002027 WO2013145706A1 (en) 2012-03-28 2013-03-25 Display apparatus and display control method

Publications (2)

Publication Number Publication Date
CN104246688A true CN104246688A (zh) 2014-12-24
CN104246688B CN104246688B (zh) 2017-09-22

Family

ID=48190567

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380015137.8A Expired - Fee Related CN104246688B (zh) 2012-03-28 2013-03-25 显示设备和显示控制方法

Country Status (4)

Country Link
US (1) US9952657B2 (zh)
JP (1) JP6134478B2 (zh)
CN (1) CN104246688B (zh)
WO (1) WO2013145706A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105280111A (zh) * 2015-11-11 2016-01-27 武汉华星光电技术有限公司 透明显示器
CN105564866A (zh) * 2015-12-17 2016-05-11 小米科技有限责任公司 提示方法及装置
CN108351704A (zh) * 2015-11-17 2018-07-31 三星电子株式会社 电子设备以及用于根据电子设备的位置提供屏幕的方法
WO2018210269A1 (en) * 2017-05-17 2018-11-22 Film Players Limited Display apparatus and method for controlling display apparatus
CN110049233A (zh) * 2018-01-16 2019-07-23 佳能株式会社 图像处理设备、图像处理系统和图像处理方法
US10943562B2 (en) 2016-08-17 2021-03-09 Sony Corporation Display control apparatus and display control method

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6608137B2 (ja) * 2014-01-03 2019-11-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
KR102135367B1 (ko) * 2014-01-23 2020-07-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20150228229A1 (en) * 2014-02-07 2015-08-13 Christie Digital Systems Usa, Inc. System and method for displaying layered images
GB2532954A (en) 2014-12-02 2016-06-08 Ibm Display control system for an augmented reality display system
KR101679265B1 (ko) * 2015-06-30 2016-11-24 (주)피엑스디 투명 디스플레이 장치 및 그 동작 방법
TWI696847B (zh) 2016-01-28 2020-06-21 中強光電股份有限公司 頭戴式顯示裝置
TWI589929B (zh) 2016-01-28 2017-07-01 中強光電股份有限公司 頭戴式顯示裝置
KR102441328B1 (ko) * 2016-01-28 2022-09-08 삼성전자주식회사 이동 로봇이 전송한 화면을 표시하는 방법 및 그 전자장치
CN105786433B (zh) * 2016-03-18 2018-12-18 广州酷狗计算机科技有限公司 显示方法及装置
JP2018159889A (ja) * 2017-03-24 2018-10-11 富士ゼロックス株式会社 表示装置
JP6638687B2 (ja) * 2017-04-05 2020-01-29 京セラドキュメントソリューションズ株式会社 表示装置
WO2018235313A1 (ja) * 2017-06-23 2018-12-27 富士フイルム株式会社 撮像装置及び文字表示方法
US10650791B2 (en) * 2017-12-28 2020-05-12 Texas Instruments Incorporated Display system
KR102538309B1 (ko) * 2018-06-20 2023-05-31 한국전자통신연구원 양방향 디스플레이 장치 및 방법
CN109637406A (zh) * 2019-01-04 2019-04-16 京东方科技集团股份有限公司 一种显示装置的显示方法、显示装置以及可读存储介质
JP2021063390A (ja) * 2019-10-16 2021-04-22 富士ゼロックス株式会社 ブース及び装置
JP7000408B2 (ja) * 2019-12-24 2022-01-19 株式会社スクウェア・エニックス ゲーム装置、ゲーム処理方法及びプログラム
WO2021199244A1 (ja) * 2020-03-31 2021-10-07 三菱電機株式会社 車両用調光装置および調光方法
US11449131B2 (en) 2020-07-28 2022-09-20 Qualcomm Incorporated Obfuscated control interfaces for extended reality
EP3968259A1 (en) 2020-09-15 2022-03-16 Hyosung Tns Inc. Digital desk and image control method using same
KR20220118751A (ko) * 2021-02-19 2022-08-26 삼성전자주식회사 투명 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
US11796801B2 (en) * 2021-05-24 2023-10-24 Google Llc Reducing light leakage via external gaze detection
WO2023037525A1 (ja) * 2021-09-10 2023-03-16 日本電信電話株式会社 表示方法および表示装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60155421A (ja) 1984-01-25 1985-08-15 Matsushita Electric Works Ltd 射出成形方法及びその装置
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
IL109939A (en) * 1993-06-21 1997-09-30 Gen Electric Display system for enhancing visualization of body structures during medical procedures
DE19542605A1 (de) * 1994-11-17 1996-05-23 Gen Electric Anzeigesystem zur Verbesserung der Darstellung von Körperstrukturen während medizinischer Verfahren
JP3940725B2 (ja) 2003-02-06 2007-07-04 株式会社東芝 立体画像表示装置
JP2005208125A (ja) * 2004-01-20 2005-08-04 Toshiba Lsi System Support Kk 画像表示装置およびそれを搭載した電子機器
KR100580264B1 (ko) * 2004-12-09 2006-05-16 삼성전자주식회사 자동 화상 처리 방법 및 장치
JP2008083289A (ja) * 2006-09-27 2008-04-10 Sony Corp 撮像表示装置、撮像表示方法
JP4930716B2 (ja) * 2007-08-23 2012-05-16 株式会社デンソー 車両用遠隔操作装置
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8188119B2 (en) 2008-10-24 2012-05-29 Eisai R&D Management Co., Ltd Pyridine derivatives substituted with heterocyclic ring and γ-glutamylamino group, and antifungal agents containing same
JP5169735B2 (ja) 2008-10-28 2013-03-27 株式会社デンソー タッチパネルディスプレイ
JP4781440B2 (ja) * 2009-02-05 2011-09-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
JP2011059589A (ja) * 2009-09-14 2011-03-24 Sony Ericsson Mobilecommunications Japan Inc 表示装置、携帯情報端末、携帯情報端末の表示制御方法及び表示制御プログラム、
JP2011076560A (ja) 2009-10-02 2011-04-14 Canon Inc 情報処理装置
JP2011176823A (ja) 2010-01-28 2011-09-08 Toshiba Corp 画像処理装置、立体表示装置及び画像処理方法
JP5647464B2 (ja) 2010-08-27 2014-12-24 京セラ株式会社 携帯端末装置
US20120102438A1 (en) * 2010-10-22 2012-04-26 Robinson Ian N Display system and method of displaying based on device interactions
US8941683B2 (en) * 2010-11-01 2015-01-27 Microsoft Corporation Transparent display interaction
US8698771B2 (en) * 2011-03-13 2014-04-15 Lg Electronics Inc. Transparent display apparatus and method for operating the same
JP2013041100A (ja) * 2011-08-15 2013-02-28 Panasonic Corp 透明ディスプレイ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOSUKE TAKEDA等: "Diminished Reality for Landscape video Sequences with Homographies", 《KNOWLEDGE-BASED AND INTELLIGENT INFORMATION AND ENGINEERING SYSTEMS》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105280111A (zh) * 2015-11-11 2016-01-27 武汉华星光电技术有限公司 透明显示器
CN105280111B (zh) * 2015-11-11 2018-01-09 武汉华星光电技术有限公司 透明显示器
US9978299B2 (en) 2015-11-11 2018-05-22 Wuhan China Star Optoelectronics Technology Co., Ltd Transparent display
CN108351704A (zh) * 2015-11-17 2018-07-31 三星电子株式会社 电子设备以及用于根据电子设备的位置提供屏幕的方法
US10936182B2 (en) 2015-11-17 2021-03-02 Samsung Electronics Co., Ltd. Electronic device, and method for providing screen according to location of electronic device
CN105564866A (zh) * 2015-12-17 2016-05-11 小米科技有限责任公司 提示方法及装置
US10943562B2 (en) 2016-08-17 2021-03-09 Sony Corporation Display control apparatus and display control method
WO2018210269A1 (en) * 2017-05-17 2018-11-22 Film Players Limited Display apparatus and method for controlling display apparatus
CN110049233A (zh) * 2018-01-16 2019-07-23 佳能株式会社 图像处理设备、图像处理系统和图像处理方法
US11064092B2 (en) 2018-01-16 2021-07-13 Canon Kabushiki Kaisha Image processing apparatus and image processing method for detecting a predetermined object in a captured image
CN110049233B (zh) * 2018-01-16 2021-09-14 佳能株式会社 图像处理设备、图像处理系统和图像处理方法

Also Published As

Publication number Publication date
WO2013145706A1 (en) 2013-10-03
JP6134478B2 (ja) 2017-05-24
US9952657B2 (en) 2018-04-24
US20140347267A1 (en) 2014-11-27
JP2013205526A (ja) 2013-10-07
CN104246688B (zh) 2017-09-22

Similar Documents

Publication Publication Date Title
CN104246688A (zh) 显示设备和显示控制方法
JP5732888B2 (ja) 表示装置及び表示方法
EP2701390B1 (en) Apparatus for adjusting displayed picture, display apparatus and display method
KR101435594B1 (ko) 디스플레이 장치 및 그 디스플레이 방법
EP2605521B1 (en) Image display apparatus, image display method, and image correction method
KR20110140090A (ko) 표시 장치
JP2007052304A (ja) 映像表示システム
KR20110089997A (ko) 디스플레이 장치, 3d 영상 제공 방법 및 3d 영상 제공 시스템
CN102804792A (zh) 立体视频处理设备、方法和程序
WO2019104548A1 (zh) 图像显示方法、智能眼镜及存储介质
CN113170084B (zh) 图像处理装置、图像处理方法和图像处理系统
US20120007949A1 (en) Method and apparatus for displaying
US10567744B1 (en) Camera-based display method and system for simulators
JP2016181004A (ja) 情報処理装置、表示制御方法、プログラムおよび記憶媒体
CN113170083B (zh) 图像处理装置、图像处理方法和图像处理系统
CN106774869B (zh) 一种实现虚拟现实的方法、装置及虚拟现实头盔
TW201249174A (en) Image-processing device, method, and program
KR20120059947A (ko) 3차원 안경 및 이에 적용되는 3차원 안경 제어방법
JP7494735B2 (ja) 画像処理装置、画像処理方法および画像処理システム
CA3018454C (en) Camera-based display method and system for simulators
CN107179822B (zh) 信息处理方法及装置、显示设备及计算机存储介质
KR20120017653A (ko) 디스플레이 장치 및 이에 적용되는 osd 제공방법
CN113170081B (zh) 图像处理装置、图像处理方法和图像处理系统
KR20150077167A (ko) 3차원영상 표시장치 및 그 구동방법
US10567743B1 (en) See-through based display method and system for simulators

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170922

CF01 Termination of patent right due to non-payment of annual fee