CN202995700U - 用于向用户显示内容的装置 - Google Patents

用于向用户显示内容的装置 Download PDF

Info

Publication number
CN202995700U
CN202995700U CN2011203190211U CN201120319021U CN202995700U CN 202995700 U CN202995700 U CN 202995700U CN 2011203190211 U CN2011203190211 U CN 2011203190211U CN 201120319021 U CN201120319021 U CN 201120319021U CN 202995700 U CN202995700 U CN 202995700U
Authority
CN
China
Prior art keywords
display
operation tool
display screen
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
CN2011203190211U
Other languages
English (en)
Inventor
成田智也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of CN202995700U publication Critical patent/CN202995700U/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供了一种信息处理装置。一种用于向用户显示内容的装置,包括:存储器;触摸板,用于检测操作构件以及确定操作构件和立体显示单元的显示屏之间的距离;显示控制单元,用于将控制信息和关于显示对象的数据输入到所述立体显示单元中;以及所述立体显示单元,用于基于所述控制信息来显示所述显示对象。其中,所述显示控制单元控制立体显示单元在第一位置显示内容,以及如果操作构件和显示屏之间的距离小于预定距离,则在相对于用户出现在第一位置后面的第二位置显示内容。

Description

用于向用户显示内容的装置
技术领域
本公开涉及信息处理装置。 
背景技术
近年来,能够立体显示比如视频内容的显示对象、操作对象等的立体显示装置投入实际应用,并且正变得很普遍。例如,有很多用于能够立体显示的电视、便携式游戏机和个人计算机(以下用PC)的显示装置已经出现在市场上。预期在将来,当前广泛使用的非立体显示装置将会逐渐被立体显示装置所代替。与这样的立体显示装置有关地,JP 2010-045584A公开了一种校正能够精确地表达显示对象的创建者想要的突出量、压入量等的立体图像的方法。 
实用新型内容
如上所述,立体显示技术本身已广泛为人所知,但是存在由于立体显示所导致的各种问题。例如,当现实世界中的对象与立体显示的显示对象重叠时,出现了在实际具有三维形状的对象和通过虚拟实现视差立体示出的显示对象之间产生关于距离感的不匹配的问题,由此给观看的用户奇怪的感觉。鉴于以上所述,期望提供一种新颖的、改进的信息处理装置、立体显示方法和程序,其能够减小在现实世界中的对象接近上面立体显示显示对象的显示屏时,用户体验到的奇怪感觉。 
因此,提供一种用于向用户显示内容的方法。该方法包括在第一位置显示内容。该方法还包括检测操作构件;以及确定构件和设备之间的距离。该方法还包括:如果构件和设备之间的距离小于预定距离,则在相对于用户出现在第一位置后面的第二位置显示内容。 
在第二方面,提供一种非暂时性计算机可读介质,该介质存储当由处理器执行时进行向用户显示内容的方法的指令。该方法包括在第一位置显示内容。该方法还包括检测操作构件;以及确定构件和设备之间的距离。 该方法还包括:如果构件和设备之间的距离小于预定距离,则在相对于用户出现在第一位置后面的第二位置显示内容。 
在第三方面,提供一种用于向用户显示内容的装置,包括:存储器;触摸板,用于检测操作构件以及确定操作构件和立体显示单元的显示屏之间的距离;显示控制单元,用于将控制信息和关于显示对象的数据输入到所述立体显示单元中;以及所述立体显示单元,用于基于所述控制信息来显示所述显示对象。其中,所述显示控制单元控制立体显示单元在第一位置显示内容,以及如果操作构件和显示屏之间的距离小于预定距离,则在相对于用户出现在第一位置后面的第二位置显示内容。 
根据上述本公开的实施例,可以减小当现实世界中的对象接近上面立体显示显示对象的显示屏时用户体验到的奇怪(odd)的感觉。 
附图说明
图1是用于描述根据本公开的实施例的立体显示装置的功能配置的说明性示意图; 
图2是用于描述立体显示的原理的说明性示意图; 
图3是用于描述根据实施例的显示控制方法(#1)的说明性示意图; 
图4是用于描述根据实施例的立体显示装置的操作(#1)的说明性示意图; 
图5是用于描述根据实施例的显示控制方法(#1(修改示例))的说明性示意图; 
图6是用于描述根据实施例的立体显示装置的操作(#1(修改示例))的说明性示意图; 
图7是用于描述根据实施例的显示控制方法(#2)的说明性示意图; 
图8是用于描述根据实施例的立体显示装置的操作(#2)的说明性示意图; 
图9是用于描述根据实施例的显示控制方法(#2(修改示例))的说明性示意图; 
图10是用于描述根据实施例的立体显示装置的操作(#2(修改示例))的说明性示意图; 
图11是用于描述根据实施例的显示控制方法(#3)的说明性示意图; 
图12是用于描述根据实施例的立体显示装置的操作(#3)的说明性示意图; 
图13是用于描述根据实施例的显示控制方法(#3(修改示例))的说明性示意图; 
图14是用于描述根据实施例的立体显示装置的操作(#3(修改示例))的说明性示意图,以及 
图15是用于描述能够实现根据实施例的立体显示装置的功能的信息处理装置的硬件配置示例的说明性示意图。 
具体实施方式
一种用于向用户显示内容的装置,包括:存储器;以及执行存储在存储器中的指令以完成如下处理的处理器:在第一位置显示内容;检测操作构件;确定构件和设备之间的距离;以及如果构件和设备之间的距离小于预定距离,则在相对于用户出现在第一位置后面的第二位置显示内容。 
在下文中将参考附图详细描述本公开的实施例。注意在本说明书和附图中,具有基本上相同功能和结构的结构元件用相同的附图标记来表示,并且省略这些结构元件的重复说明。 
[说明的流程] 
在这里简要说明将会在下面描述的本公开的实施例的说明流程。首先,将参考图1描述根据本公开的立体显示装置100的功能配置。同时,将参考图2简单描述立体显示的原理。接下来,将参考图3到14描述根据实施例的显示控制方法和用于实现显示控制方法的立体显示装置100的操作。接下来,将参考图15描述能够实现立体显示装置100的功能的信息处理装置硬件配置的示例。最后,将总结实施例的技术观点并且简单描述通过该技术观点获得的效果。 
(描述项目)。 
1.实施例 
1-1:立体显示装置100的功能配置 
1-2:立体显示装置100的显示控制方法和操作 
1-2-1:(#1)显示对象的非立体显示 
1-2-2:(#2)显示对象的向内推入(inward pushing) 
1-2-3:(#3)显示对象的模糊显示 
1-3.硬件配置 
2.总结 
<1:实施例> 
将描述本公开的实施例。本实施例提出了一种能够减轻当现实世界中的对象接近立体显示的显示对象、也就是内容时用户体验到的奇怪(odd)的感觉。 
[1-1:立体显示装置100的功能配置] 
首先,将参考图1描述根据本实施例能够实现显示控制方法的立体显示装置100的功能配置。图1是用于描述根据本实施例的立体显示装置100的功能配置的说明性示意图。 
如图1所示,立体显示装置100主要由触摸板101、显示控制单元102、存储单元103和立体显示单元104配置而成。 
另外,触摸板101对应在后面描述的硬件配置中的输入单元916。而且,显示控制单元102的功能通过使用在后面描述的硬件配置中的CPU902等来实现。此外,存储单元103的功能通过在后面描述的硬件配置中的ROM 904、RAM 906或者可拆卸记录媒体928来实现。此外,立体显示单元104的功能通过在后面描述的硬件配置中的输出单元918来实现。 
触摸板101是用于检测操作工具、也就是操作构件的接近的装置。触摸板101设置在立体显示单元104的显示屏、也就是设备上。触摸板101检测接近立体显示单元104的显示屏的操作工具的位置。触摸板101还可以具有检测接近立体显示单元104的显示屏的操作工具和显示屏之间的距离的功能。此外,触摸板101还可以具有检测操作工具按压立体显示单元104的显示屏的压力的功能。触摸板101的功能通过例如电容性触摸板或者光学触摸板来实现。 
电容性触摸板用于检测在触摸板和操作工具之间产生的电容并且从电容的变化来检测操作工具的接近或者接触。当触摸板和操作工具之间的距离改变时,在它们之间产生的电容也改变。也可以得知当触摸板被操作工具按压时,在它们之间产生的电容根据按压而发生改变。因此,当使用电容性触摸板时,不仅仅检测到操作工具接近触摸屏,而且可以检测到操作工具和触摸板之间的距离以及操作工具按压触摸板的压力。 
另一方面,光学触摸板通过光学传感器用来检测接近或者接触触摸板 的操作工具。已知有多种类型的光学触摸板,并且最近开发了被称为“内触控型(in-cell type)”的光学触摸板。内触控光学触摸板从显示板的内部发射光到操作工具上并且通过检测被操作工具反射的光来检测操作工具的位置。当操作工具出现在显示板附近时,光被操作工具强烈地反射。因而,可以基于操作工具所反射的光的强度来检测显示板和操作工具之间的距离。 
当通过触摸板101检测操作工具的接近或者接触时,指示操作工具的接近或者接触的信息(在下文中,接近信息)从触摸板101输入到显示控制单元102。指示操作工具等的位置的位置信息也从触摸板101输入到显示控制单元102。当输入接近信息、位置信息等时,显示控制单元102根据已经输入的接近信息、位置信息等通过立体显示单元104控制显示对象的显示。显示控制单元102是用于使立体显示单元104对显示对象进行显示的装置。 
例如,显示控制单元102读取存储在存储单元103中的图像数据并且使得立体显示单元104显示已读出的图像数据。而且,显示控制单元102使得立体显示单元104显示视频内容、GUI(图形用户界面)等。此时,显示控制单元102执行用于立体显示比如图像数据、视频内容、GUI等显示对象的操作。例如,显示控制单元102执行用于使得显示对象在立体显示单元104的显示屏突出或者向显示屏内部推入的操作。 
这里参考图2简单描述立体显示的原理。图2是用于描述立体显示的原理的说明性示意图。 
如图2所示,为了立体示出显示对象,用于右眼的显示对象和用于左眼的显示对象在显示屏上彼此独立地显示,并且使得用于右眼的显示对象只能被右眼看见而用于左眼的显示对象只能被左眼看见。在很多情况下,使用偏振光来使得用于右眼的显示对象只能被右眼看见而用于左眼的显示对象只能被左眼看见。例如,用于右眼的显示对象利用在第一方向上线性偏振的光来显示,而用于左眼的显示对象利用和在与第一方向正交的第二方向上线性偏振的光来显示。此外,通过在右眼上佩戴让在第一方向上线性偏振的光通过的透镜并且在左眼上佩戴让在第二方向上线性偏振的光通过的透镜,可以创造用于右眼的显示对象只能被右眼看见并且用于左眼的显示对象只能被左眼看见的情形。 
当创造了这样的情形时,将看到显示对象显示在连接右眼和用于右眼的显示对象的视线和连接左眼和用于左眼的显示对象的视线相交的位置 处。此外,可以通过控制用于右眼的显示对象和用于左眼的显示对象之间的距离来调整会聚的角度。当会聚的角度改变的时候,立体显示的显示对象的突出程度也将改变。 
也就是说,通过控制用于右眼和左眼的显示对象在显示屏上的显示位置,可以控制立体显示的显示对象突出程度和向内推入的程度。另外,这里描述了一种通过使用偏振光实现立体显示的方法,但是本实施例并不限于这样,而可以应用能够立体显示显示对象的任何显示控制方法。 
再次参考图1,如上面所描述,显示控制单元102通过控制用于右眼和左眼的显示对象的显示来立体显示显示对象。关于由显示控制单元102确定的显示对象的突出程度或者向内推入程度的信息(在下文中,控制信息)输入到立体显示单元104。显示控制单元102从存储单元103读取的关于显示对象的数据也输入到立体显示单元104中。当输入控制信息时,立体显示单元104基于输入的控制信息来显示显示对象。 
在上文中,已经描述了立体显示装置100的功能配置。 
[1-2:显示控制方法和立体显示装置100的操作] 
接下来,将参考图3到14描述根据本实施例的显示控制方法和用于实现该显示控制方法的立体显示装置100的操作。下面描述的显示控制方法用于减轻当现实世界中的对象接近立体显示的显示对象时用户体验到的奇怪的感觉。 
(1-2-1:(#1)显示对象的非立体显示) 
首先,参考图3。这里描述的显示控制方法是用于当操作工具F接近立体显示单元104的显示屏时,将立体显示的显示对象、即三维图像的显示模式转换为非立体显示。图3是用于描述该显示控制方法的说明性示意图。另外,在图3中示意性示出用户所看到的立体显示对象。 
如图3中所示,假定显示对象被立体显示单元104立体显示(步骤1)。当操作工具F接近立体显示单元104的显示屏时(步骤2),显示控制单元102将立体显示的显示对象的显示模式转换为非立体显示(步骤3)。当在步骤3中显示模式被转换为非立体显示时,在到显示对象的距离感和到操作工具F的距离感之间将产生不匹配。作为结果,当操作工具F接近立体显示的显示对象时用户将不会体验到奇怪的感觉。 
在前面描述了根据本实施例的显示控制方法。 
接下来,将参考图4。图4是示出了用于实现已经参考图3描述的显示控制方法的立体显示装置100的操作的说明性示意图。 
如图4所示,立体显示装置100通过使用显示控制单元102的功能在立体显示单元104上立体显示显示对象(S101)。接下来,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已经接近立体显示单元104的显示屏(S102)。在操作工具F已经接近立体显示单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S103。另一方面,在操作工具F没有接近立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S102。 
当处理进行到S103时,立体显示装置100通过使用显示控制单元102的功能将立体显示的显示对象的显示模式转换为非立体显示(S103)。接下来,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已经从立体显示单元104的显示屏移除。 
在操作工具F已经从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理进行到步骤S105。另一方面,在操作工具F没有从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理返回到步骤S104。在处理进行到步骤S105的情况下,立体显示装置100通过使用显示控制单元102的功能将非立体显示的显示对象、即二维图像的显示模式转换到立体显示(S105)。 
在前面描述了根据本实施例的立体显示装置100的操作。 
(修改示例) 
接下来,将参考图5。图5是图3所示出的显示控制方法的修改示例。这里将要描述的显示控制方法是用于在操作工具F接近显示屏时将显示对象的显示模式转换为非立体显示,并且当操作工具F接触显示屏时将显示对象向内推入显示屏。图5是用于描述该显示控制方法的说明性示意图。附带地,只有在图3中所示出的步骤1和步骤2之后的操作在图5中示出。因此,涉及到步骤1和步骤2的操作时将会参考图3。 
如图3所示,假定显示对象被立体显示单元104立体显示(步骤1)。当操作工具F接近立体显示单元104的显示屏时(步骤2),显示控制单元102将立体显示的显示对象的显示模式转换为非立体显示(步骤3)。接着,如图5所示,当操作工具F接触立体显示单元104的显示屏时,显示控制单元102将非立体显示的显示对象的显示模式转换为立体显示(步 骤4)。然而,显示控制单元102使得显示对象以显示对象被向内推入立体显示单元104的显示屏这样的方式来显示。 
在显示对象小的情况下,当操作工具F接触立体显示单元104的显示屏时显示对象可能被操作工具F隐藏起来。然而,如图5所示,随着操作工具F的接触后显示对象被向内推入显示屏,防止了显示对象被操作工具F所隐藏。在图5中,示意性地显示显示对象使得对用户可见,但是实际上,用于右眼的显示对象和用于左眼的显示对象被投射到操作工具F的左侧和右侧来显示。因此,即使显示对象小,显示对象也不会被操作工具F完全隐藏。 
这样的显示控制方法在通过操作工具F操作比如按钮对象、菜单对象等显示对象的情形下有效工作。该显示控制方法也在接触显示对象的一定时间段上执行操作的情形下有效工作。例如,在拖动显示对象的情况下,操作工具F在接触显示对象的同时必须移动。在这种情况下,如果显示对象被操作工具F所隐藏,则变得难以看到显示对象是否和操作对象F接触。然而,当应用上面描述的显示控制方法时,可以看到显示对象跟随操作工具F移动的运动,并且用户可以放心地执行拖动操作。 
在上文中描述了根据本实施例的显示控制方法的修改示例。 
接下来将参考图6。图6是示出了用于实现参考图3和5已经描述的显示控制方法的立体显示装置100的操作的说明性示意图。 
如图6所示,立体显示装置100通过使用显示控制单元102的功能在立体显示单元104上立体显示显示对象(S111)。接下来,立体显示装置100通过使用触摸板101的功能检测操作工具F是否已经接近立体显示单元104的显示屏(S112)。在操作工具F已经接近立体显示单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S113。另一方面,在操作工具F没有接近立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S112。 
当处理进行到步骤S113时,立体显示装置100通过使用显示控制单元102的功能将立体显示的显示对象的显示模式转换为非立体显示(S113)。接下来,立体显示装置100通过使用触摸板101的功能检测操作工具F是否接触立体显示单元104的显示屏(S114)。在操作工具F已经接触到立体显示单元104的显示屏的情况下,立体显示装置立体显示装置100将处理进行到步骤S115。另一方面,在操作工具F没有接触立体 显示单元104的显示屏的情况下,立体显示装置立体显示装置100将处理返回到步骤S114。 
当处理进行到步骤S115时,立体显示装置100通过使用显示控制单元102的功能将非立体显示的显示对象的显示模式转换为立体显示(S115)。此时,立体显示装置100以显示对象被向内推入立体显示单元104的显示屏这样的方式显示来显示对象。接下来,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已经从立体显示单元104的显示屏移除(S116)。在操作工具F已经从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理进行到S117。另一方面,在操作工具F未从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理返回到步骤S116。 
当处理进行到步骤S117时,立体显示装置100将非立体显示的显示对象的显示模式转换为立体显示(S117)。另外,这里给出的说明假定操作操作工具F接触立体显示单元104的显示屏,但是在步骤S113中使得显示对象的显示模式为非立体显示之后操作工具F从显示屏上移除的情况下,执行步骤S117的处理。 
在前面描述了根据本实施例的修改示例的立体显示装置100的操作。 
(1-2-2:(#2)显示对象的向内推入) 
接下来将参考图7。这里将要描述的显示控制方法用于当操作工具F接近立体显示单元104的显示屏时将立体显示的显示对象向内推入显示屏。图7是用于描述这种显示控制方法的说明性示意图。另外,在图7中示意性示出用户看到的立体显示对象。 
如图7所示,假定通过立体显示单元104从显示屏向外立体显示显示对象(步骤1)。当操作工具F接近立体显示单元104的显示屏时(步骤2),显示控制单元102以立体显示的显示对象向内推入显示屏这样的方式来显示显示对象(步骤3)。如果在步骤3中显示对象被向内推入显示屏,则显示对象将不会从显示屏向外突出,这样操作工具F将不会掩埋(buried in)在显示对象中显示,并且在到显示对象的距离感和到操作工具F的距离感之间将不会发生不匹配。作为结果,可以减轻当操作工具F接近立体显示的显示对象时用户体验到的奇怪的感觉。 
在上面描述了根据本实施例的显示控制方法。 
接下来将参考图8。图8是示出了用于实现参考图7已经描述的显示 控制方法的立体显示装置100的操作的说明性示意图。 
如图8所示,立体显示装置100通过使用显示控制单元102的功能在立体显示单元104上立体显示显示对象(S201)。接下来,立体显示装置100通过使用触摸板101的功能检测是否操作工具F已经接近立体显示单元104的显示屏(S202)。在操作工具F已经接近立体显示单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S203。另一方面,在操作工具F没有接近立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S202。 
当处理进行到步骤S203时,立体显示装置100通过使用显示控制单元102的功能向显示屏内立体显示从显示屏向外立体显示的显示对象(S203)。也就是说,立体显示装置100向显示屏内推入从显示屏向外立体显示的显示对象。然后,立体显示装置100通过使用触摸板101的功能检测操作工具F是否已经从立体显示单元104的显示屏移除(S204)。 
在操作工具F已经从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理进行到步骤S205。另一方面,在操作工具F没有从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理返回到步骤S204。当处理进行到步骤S205时,立体显示装置100通过使用显示控制单元102的功能从显示屏向外立体显示已经向显示屏内推入的显示对象(S205)。 
在上面描述了根据本实施例的立体显示装置100的操作。 
(修改示例) 
接下来将参考图9。图9是图7中所示出的显示控制方法的修改示例。这里将要描述的显示控制方法是用于当操作工具F接近显示屏时向显示屏内推入显示对象,并且当操作工具F接触显示屏时进一步向内推入显示对象。也就是说,该显示控制方法用于根据显示屏和操作工具F之间的距离离散地向显示屏内推入显示对象。图9是用于描述该显示控制方法的说明性示意图。顺便提及,在图9中只示出在图7中所示出的步骤1和步骤2之后的操作。因而,涉及到步骤1和步骤2的操作时将会参考图7。 
如图7中所示,假定立体显示单元104从显示屏向外立体显示显示对象(步骤1)。当操作工具F接近立体显示单元104的显示屏时(步骤2),显示控制单元102以向显示屏内推入显示对象的方式来显示立体显示的显示对象(步骤3)。接下来,如图9中所示,当操作工具F接触立体显 示单元104的显示屏时,显示控制单元102进一步向内推入向显示屏内显示的显示对象(步骤4)。例如,在步骤3中使最前面层的显示对象相对于显示屏的深度为0,并且在步骤4中最前面层的显示对象被向内推入显示屏来显示。 
在显示对象小的情况下,当操作工具F接触立体显示单元104的显示屏时显示对象可能会被操作工具F隐藏。然而,如图9中所示,利用在操作工具F接触后最前面层的显示对象被向显示屏内推入,所有的显示对象被防止被操作工具F所隐藏。在图9中,示意性地显示显示对象使得对用户可见,但是实际上,用于右眼的显示对象和用于左眼的显示对象被投射在操作工具F的左侧和右侧来显示。因此,即使显示对象小,显示对象也不会被操作工具F完全隐藏。 
这样的显示控制方法在通过操作工具F操作如按钮对象、菜单对象等显示对象的情形下有效工作。该显示控制方法也在接触显示对象的一定时间段上执行操作的情形下有效工作。例如,在拖动显示对象的情况下,操作工具F在接触显示对象的同时必须移动。在这种情况下,如果显示对象被操作工具F所隐藏,则变得难以看到显示对象是否和操作对象F接触。但是,当应用上面描述的显示控制方法时,可以看到显示对象跟随操作工具F移动的运动,并且用户可以放心地执行拖动操作。 
在上面描述了根据本实施例的显示控制方法的修改示例。 
接下来将参考图10。图10是示出了用于实现参考图7和9已经描述的显示控制方法的立体显示装置100的操作的说明性示意图。 
如图10所示,立体显示装置100通过使用显示控制单元102的功能在立体显示单元104上立体显示显示对象(S211)。接下来,立体显示装置100通过使用触摸板101的功能检测操作工具F是否已经接近立体显示单元104的显示屏(S212)。在操作工具F已经接近立体显示单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S213。另一方面,在操作工具F未接近立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S212。 
当处理进行到S213时,立体显示装置100通过使用显示控制单元102的功能向显示屏内推入从显示屏向外显示的显示对象(S213)。接下来,立体显示装置100通过使用触摸板101的功能检测操作工具F是否已经接触立体显示单元104的显示屏(S214)。在操作工具F已经接触立体显示 单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S215。另一方面,在操作工具F未接触立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S214。 
当处理进行到步骤S215时,立体显示装置100通过使用显示控制单元102的功能进一步向内推入向显示屏内显示的显示对象(S215)。例如,在步骤213中使最前面层的显示对象相对于显示屏的深度为0,并且在步骤215中最前面层中的显示对象被向内推入显示屏来显示。 
接下来,立体显示装置100通过使用触摸板101的功能检测操作工具F是否已经从立体显示单元104的显示屏移除(S216)。在操作工具F已经从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理进行到步骤S217。另一方面,在操作工具F未从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理返回到步骤S216。 
当处理进行到步骤S217时,立体显示装置100从显示屏向外立体显示被向显示屏内显示的显示对象(S217)。另外,这里给出的说明假定操作工具F接触立体显示单元104的显示屏,但是在步骤S213中显示对象向显示屏内显示之后操作工具F从显示屏移除的情况下,执行步骤S217的处理。 
在前面描述了根据本实施例的修改示例的立体显示装置100的操作。 
(1-2-3:(#3)显示对象的模糊显示) 
接下来将参考图11。这里将要描述的显示控制方法是用于在操作工具F接近立体显示单元104的显示屏时模糊地显示立体显示的显示对象。图11是用于描述该显示控制方法的说明性示意图。另外,图11中示意性示出了用户看到的立体显示对象。 
如图11所示,假定通过立体显示单元104从显示屏向外立体显示显示对象(步骤1)。当操作工具F接近立体显示单元104的显示屏时(步骤2),显示控制单元102模糊地显示立体显示的显示对象(步骤3)。例如,模糊地显示显示对象的轮廓。 
当显示对象的轮廓是模糊的时候,显示对象的突出程度变得难以感知。因而,当在步骤3中模糊地显示显示对象时,显示屏和显示对象之间的距离感变得不清楚,并且到显示对象的距离感和到操作工具F的距离感之间的不匹配更不易于感觉。结果,可以减轻当操作工具F接近立体显示的显示对象时用户体验到的奇怪的感觉。 
在上面描述了根据本实施例的显示控制方法。 
接下来将参考图12。图12是示出了用于实现参考图11已经描述的显示控制方法的立体显示装置100的操作的说明性示意图。 
如图12所示,立体显示装置100通过使用显示控制单元102的功能在立体显示单元104上立体显示显示对象(S301)。接下来,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已经接近立体显示单元104的显示屏(S302)。在操作工具F已经接近立体显示单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S303。另一方面,在操作工具F未接近立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S302。 
当处理进行到步骤S303时,立体显示装置100通过使用显示控制单元102的功能模糊地显示立体显示的显示对象(S303)。比如,立体显示装置100模糊地显示显示对象的轮廓。接下来,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已经从立体显示单元104的显示屏移除(S304)。 
在操作工具F已经从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理进行到步骤S305。另一方面,在操作工具F未从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理返回到步骤S304。在处理进行到步骤S305的情况下,立体显示装置100通过使用显示控制单元102的功能清楚地显示被模糊地显示的显示对象(S305)。 
在前面描述了根据本实施例的立体显示装置100的操作。 
(修改示例) 
接下来将参考图13。图13是图11中所示出的显示控制方法的修改示例。这里将要描述的显示控制方法是用于将定位于操作工具F附近的显示对象的显示模式转换为非立体显示并且当操作工具F接近立体显示单元104的显示屏时模糊地显示定位于远离操作工具F的显示对象,也就是内容。图13是用于描述该显示控制方法的说明性示意图。 
如图13所示假定显示对象被立体显示单元104立体显示(步骤1)。当操作工具F接近立体显示单元104的显示屏时(步骤2),显示控制单元102将定位于操作工具F附近的显示对象的显示模式转换为非立体显示并且模糊地显示定位于远离操作工具F的显示对象(步骤3)。 
通过以这种方式将立体显示转换为非立体显示,操作工具F将不会被掩埋在显示对象中并且在到操作工具F的距离感和到显示对象的距离感之间不会发生不匹配。而且,随着显示对象被模糊地显示,到显示对象的距离感变得不清楚,并且因此可以减轻由于到操作工具F的距离感与到显示对象的距离感之间产生的不匹配所导致的用户体验到的奇怪的感觉。 
在上面描述了根据本实施例的显示控制方法的修改示例。 
接下来,将参考图14。图14是示出用于实现已参考图13描述的显示控制方法的立体显示装置100的操作的说明性示意图。 
如图14所示,立体显示装置100通过使用显示控制单元102的功能在立体显示单元104上立体显示显示对象。然后,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已接近立体显示单元104的显示屏。在操作工具F已接近立体显示单元104的显示屏的情况下,立体显示装置100将处理进行到步骤S313。另一方面,在操作工具F未接近立体显示单元104的显示屏的情况下,立体显示装置100将处理返回到步骤S312。 
当处理进行到步骤S313时,立体显示装置100通过使用显示控制单元102的功能非立体显示定位在操作工具F附近的显示对象并模糊地显示定位在远离操作工具F的显示对象(S313)。然后,立体显示装置100通过使用触摸板101的功能来检测操作工具F是否已从立体显示单元104的显示屏移除。 
在操作工具F已从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理进行到步骤S315。另一方面,在操作工具F未从立体显示单元104的显示屏移除的情况下,立体显示装置100将处理返回到S314。在处理进行到步骤S315的情况下,立体显示装置100通过使用显示控制单元102的功能立体显示被非立体显示的显示对象并清楚地显示被模糊地显示的显示对象(S315)。 
在前述中,已经描述了根据本实施例的修改示例的立体显示装置100的操作。 
在前述中,已经描述了本公开的实施例。如上所述,通过根据在操作工具F的附近或接触操作工具F适当地控制显示对象的显示模式,可以减少由于到立体显示的显示对象的距离感与到操作工具F的距离感之间产生的不匹配所导致的用户体验到的奇怪感觉。 
此外,上述显示控制方法可以应用于适当的组合。而且,根据显示对象的类型可以单独使用显示控制方法;例如,根据操作工具F的接近模糊地显示显示对象的显示控制方法应用于在状态显示区域中显示的显示对象,比如剩余电池显示或时间显示,而根据操作工具F的接近将显示对象向内推入显示屏的显示控制方法应用于比如GUI的显示对象。 
此外,在上面的说明中,已经描述了通过触摸板101检测非邻近、邻近和接触三种状态,并且根据检测结果控制显示对象的显示模式的方法。然而,根据本实施例的显示控制方法不限于这样的方法。例如,在触摸板101可以离散地或连续地检测显示屏和显示对象之间的距离的情况下,根据距离可以在深度方法上离散地或连续地将显示对象推得更深,或可以离散地或连续地增加模糊的程度。这样的修改也包括在本实施例的技术范围内。 
[1-3:硬件配置] 
上述立体显示装置100的每个结构元件的功能可以安装在例如图15中示出的信息处理装置中。而且,通过使用计算机程序控制图15中示出的硬件来实现每个结构元件的功能。此外,该硬件的模式是任意的,可以是个人计算机、移动信息终端(如移动电话、PHS或PDA)、游戏机或各种类型的信息用具。另外,PHS是个人手持电话系统的缩写。而且,PDA是个人数字助理的缩写。 
如图15所示,该硬件主要包括CPU 902、ROM 904、RAM 906、主机总线908和桥910。此外,该硬件包括外部总线912、接口914、输入单元916、输出单元918、存储单元920、驱动器922、连接端口924和通信单元926。另外,CPU是中央处理单元的缩写。而且,ROM是只读存储器的缩写。此外,RAM是随机存取存储器的缩写。 
CPU 902起到算术处理单元或控制单元的作用,例如,基于记录在ROM 904、RAM 906、存储单元920或可拆卸记录介质928上的各种程序来控制每个结构元件的全部操作或部分操作。ROM 904是用于存储例如要加载在CPU 902上的程序或在算术运算中使用的数据等。RAM 906临时地或永久地存储例如要加载在CPU 902上的程序或在执行程序中任意改变的各种参数等。 
这些结构元件通过例如能够执行高速数据传输的主机总线908彼此连接。对于主机总线908的部分,例如,主机总线908通过桥910连接到 数据传输速度相对低的外部总线。此外,输入单元916例如是鼠标、键盘、触摸板、按钮、开关或操作杆。而且,输入单元916可以是通过使用红外线或其他无线电波发送控制信号的遥控。 
输出单元918例如是可以可视地或可听地向用户通知获取的信息的显示设备(如CRT、LCD、PDP或ELD)、音频输出设备(如扬声器或耳机)、打印机、移动电话、或传真机。此外,CRT是阴极射线管的缩写。LCD是液晶显示器的缩写。PDP是等离子显示面板的缩写。而且,ELD是电致发光显示器的缩写。 
存储单元920是用于存储各种数据的器件。存储单元920例如是磁存储器件(如硬盘驱动HDD)、半导体存储器件、光存储器件、或磁光存储器件。HDD是硬盘驱动(Hard Disk Drive)的缩写。 
驱动922是读取记录在可拆卸记录介质928(如磁盘、光盘、磁光盘、或半导体存储器)上的信息或将信息写入可拆卸记录介质928的器件。可拆卸记录介质928例如是DVD介质、Blu-ray介质、HD-DVD介质、各种类型的半导体存储介质等。当然,可拆卸记录介质928可以例如是上面安装有非接触IC芯片的电子器件或IC卡。IC是集成电路的缩写。 
连接端口924是端口,诸如USB端口、IEEE 1394端口、SCSI、RS-232C端口或用于连接外部连接设备930(如光学音频终端)的端口。外部连接设备930例如是打印机、移动音乐播放器、数码相机、数字视频摄像机、或IC记录器。另外,USB是通用串行总线的缩写。而且,SCSI是小计算机系统接口的缩写。 
通信单元926是要连接到网络932的通信器件,并且例如是用于有线或无线LAN的通信卡、蓝牙(注册商标)、或WUSB、光通信路由器、ADSL路由器、或各种通信调制解调器。连接到通信单元926的网络932由有线连接或无线连接的网络构成,并且例如是因特网、家用LAN、红外通信、可见光通信、广播、或卫星通信。另外,LAN是局域网的缩写。而且,WUSB是无线USB的缩写。此外,ADSL是非对称数字用户线的缩写。 
<2:总结> 
最后,将简要描述根据本公开的实施例的技术内容。这里陈述的技术内容可以应用于各种信息处理装置,比如个人计算机、移动电话、便携式游戏机、便携式信息终端、信息用具、汽车导航系统等。 
以上描述的信息处理装置的功能配置可以表达如下。信息处理装置包括如下的立体显示单元、邻近(proximity)检测单元和显示控制单元。立体显示单元是用于立体显示显示对象的装置。此外,邻近检测单元是用于检测操作工具向立体显示单元接近的装置。例如,立体显示单元可以显示用于操作的对象,比如按钮对象和菜单对象。而且,当用户使操作工具接近用于操作的对象时,邻近检测单元可以检测操作工具向用于操作的对象的接近。也就是说,通过结合使用立体显示单元和邻近检测单元,使用操作工具的触摸操作变为可能。 
然而,当立体显示的显示对象和现实世界中的操作工具在触摸操作时彼此重叠,用户感觉到的距离感之间产生不匹配。例如,关于从显示屏向外突出显示的显示对象,操作工具将掩埋在显示对象中显示,操作工具和显示对象之间的隐藏和被隐藏关系将丢失。另一方面,关于向显示屏内显示的显示对象,操作工具的晶状体的焦点和显示对象的焦点之间的关系丢失。出于这些原因,用户将体验关于操作工具和显示对象之间的关系的奇怪感觉。 
为了消除这样的奇怪感觉,上述显示控制单元在邻近检测单元检测到操作工具的接近时,例如使得显示在立体显示单元上的显示对象向立体显示单元的显示屏内显示。也就是说,显示并且最向外突出的显示对象将向显示屏内显示,而其它显示对象将更向内显示。因此,将没有显示对象显示在操作工具之前。结果,立体显示的显示对象和现实世界中的操作工具之间产生的关于距离感的不匹配将不明显,并且可以消除用户体验到的奇怪感觉。 
此外,作为如上所述用于消除奇怪感觉的另一配置,上述显示控制单元可以被配置为在邻近检测单元检测到操作工具的接近时,例如使得显示在立体显示单元上的显示对象被非立体显示。如果,显示对象被非立体显示,在显示对象和已经接近的操作工具之间关于距离感将不会产生不匹配,并且将没有用户在显示对象被立体显示的状态下体验到的奇怪感觉。也就是说,通过应用如上所述的显示控制单元的配置,可以避免显示对象和现实世界中的操作工具之间在用户使操作工具接近显示屏时产生的关于距离感的不匹配。 
此外,作为如上所述用于消除奇怪感觉的另一配置,上述显示控制单元可以被配置为在邻近检测单元检测到操作工具的接近时,例如使得显示在立体显示单元上的显示对象被模糊地显示。当显示对象被模糊地显示 时,对于用户来说,变得难以准确感知显示对象和显示屏之间的距离感。当利用这种效果时,变得可以减小显示对象和现实世界中的操作工具之间关于距离感的不匹配。也就是说,通过应用如上所述的显示控制单元的配置,立体显示的显示对象和现实世界中的操作工具之间关于距离感的不匹配将不明显,并且可以消除用户体验到的奇怪感觉。 
(注意) 
上述触摸板101是邻近检测单元的示例。上述立体显示装置100是信息处理装置的示例。 
本领域技术人员将理解到,取决于设计要求和其他因素可以进行各种修改、组合、子组合和改变,只要这些修改、组合、子组合和改变处于所附权利要求或其等同物的范围内。 
本公开包含与2010年8月30日在日本专利局提交的日本在先专利申请JP 2010-192248中披露的主题内容有关的主题内容,其整体内容通过引用结合于此。 
附图标记列表 
L左眼 
R右眼 
AC会聚角 
DOL显示对象(用于左眼的) 
DOR显示对象(用于右眼的) 
DOS显示对象(立体显示) 
DONS显示对象(非立体显示) 
DOB显示对象(模糊显示) 
DOO显示对象(向外) 
DOI显示对象(向内) 
DODS显示对象(在显示屏上) 
DS显示屏 

Claims (1)

1.一种用于向用户显示内容的装置,包括:
存储器;
触摸板,用于检测操作构件以及确定所述操作构件和立体显示单元的显示屏之间的距离;
显示控制单元,用于将控制信息和关于显示对象的数据输入到所述立体显示单元中;以及
所述立体显示单元,用于基于所述控制信息来显示所述显示对象,
其中,所述显示控制单元控制所述立体显示单元在第一位置显示内容,以及如果所述操作构件和所述显示屏之间的距离小于预定距离,则在相对于用户出现在所述第一位置后面的第二位置显示内容。 
CN2011203190211U 2010-08-30 2011-08-23 用于向用户显示内容的装置 Expired - Lifetime CN202995700U (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010192248A JP5593972B2 (ja) 2010-08-30 2010-08-30 情報処理装置、立体視表示方法、及びプログラム
JP2010-192248 2010-08-30

Publications (1)

Publication Number Publication Date
CN202995700U true CN202995700U (zh) 2013-06-12

Family

ID=44653177

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2011203190211U Expired - Lifetime CN202995700U (zh) 2010-08-30 2011-08-23 用于向用户显示内容的装置
CN201110249698.7A Expired - Fee Related CN102387383B (zh) 2010-08-30 2011-08-23 信息处理装置和立体显示方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201110249698.7A Expired - Fee Related CN102387383B (zh) 2010-08-30 2011-08-23 信息处理装置和立体显示方法

Country Status (4)

Country Link
US (3) US9678655B2 (zh)
EP (1) EP2423786B1 (zh)
JP (1) JP5593972B2 (zh)
CN (2) CN202995700U (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046270A1 (en) * 2010-10-05 2012-04-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
EP2693405A4 (en) * 2011-03-31 2014-09-03 Fujifilm Corp STEREOSCOPIC DISPLAY DEVICE, INSTRUCTION ACCEPTANCE METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
EP2784640A4 (en) 2011-11-21 2015-10-21 Nikon Corp DISPLAY DEVICE AND DISPLAY CONTROL PROGRAM
JP5858059B2 (ja) 2013-04-02 2016-02-10 株式会社デンソー 入力装置
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application
JP6424947B2 (ja) * 2017-12-27 2018-11-21 株式会社ニコン 表示装置、およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2824997B2 (ja) * 1989-11-29 1998-11-18 キヤノン株式会社 複数ウインド表示装置
JPH11234703A (ja) * 1998-02-09 1999-08-27 Toshiba Corp 立体表示装置
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
EP1769326A2 (en) * 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. A method and device for preventing staining of a display device
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7788607B2 (en) * 2005-12-01 2010-08-31 Navisense Method and system for mapping virtual coordinates
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
JP2007300565A (ja) 2006-05-03 2007-11-15 Sony Computer Entertainment Inc マルチメディア再生装置およびメニュー画面表示方法
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
CN101523924B (zh) 2006-09-28 2011-07-06 皇家飞利浦电子股份有限公司 3d菜单显示
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
KR101482080B1 (ko) * 2007-09-17 2015-01-14 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
JP2010045584A (ja) 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
JP5504456B2 (ja) 2009-02-18 2014-05-28 日本バイリーン株式会社 リチウムイオン二次電池

Also Published As

Publication number Publication date
JP2012048622A (ja) 2012-03-08
EP2423786A3 (en) 2014-01-01
EP2423786A2 (en) 2012-02-29
US20170262151A1 (en) 2017-09-14
US20120050501A1 (en) 2012-03-01
US20190272073A1 (en) 2019-09-05
EP2423786B1 (en) 2017-10-04
CN102387383A (zh) 2012-03-21
CN102387383B (zh) 2017-04-05
US10338805B2 (en) 2019-07-02
JP5593972B2 (ja) 2014-09-24
US9678655B2 (en) 2017-06-13

Similar Documents

Publication Publication Date Title
CN202995700U (zh) 用于向用户显示内容的装置
US8970478B2 (en) Autostereoscopic rendering and display apparatus
RU2559720C2 (ru) Устройство и способ пользовательского ввода для управления отображаемой информацией
US8836663B2 (en) Touch sensitive device for providing mini-map of tactile user interface and method of controlling the same
US9618972B2 (en) Three-dimensional, multi-depth presentation of icons in association with differing input components of a user interface
CN103838365A (zh) 穿透型头部穿戴式显示系统与互动操作方法
CN103858074A (zh) 经由3d显示器与装置交互的系统和方法
CN105027058A (zh) 信息显示装置、信息显示方法以及信息显示程序
EP2717140B1 (en) Equipment control device, operation reception method, and program
CN102508562B (zh) 一种立体交互系统
CN102426486A (zh) 一种立体交互方法及被操作设备
CN105183236A (zh) 一种触屏输入装置与方法
CN102411486A (zh) 信息处理设备、程序以及信息处理方法
CN107092434A (zh) 重叠目标选择方法及装置、存储介质、电子设备
CN104216517A (zh) 一种信息处理方法及电子设备
CN105786373A (zh) 一种触控轨迹显示方法及电子设备
CN107272971A (zh) 抓握管理
CN102508563A (zh) 一种立体交互方法以及被操作设备
GB2533777A (en) Coherent touchless interaction with steroscopic 3D images
CN103513881B (zh) 电子设备及电子设备中控制显示界面的方法及装置
CN103838460A (zh) 终端设备
CA2825131C (en) Three-dimensional, multi-depth presentation of icons in association with differing input components of a user interface
CN102760004B (zh) 一种控制数据显示状态的方法及装置
CN104571776A (zh) 电子装置
WO2013105041A1 (en) Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region

Legal Events

Date Code Title Description
C14 Grant of patent or utility model
GR01 Patent grant
CX01 Expiry of patent term

Granted publication date: 20130612

CX01 Expiry of patent term