CN103460257A - 立体显示设备、接受指令的方法、程序及记录其的介质 - Google Patents

立体显示设备、接受指令的方法、程序及记录其的介质 Download PDF

Info

Publication number
CN103460257A
CN103460257A CN2012800170054A CN201280017005A CN103460257A CN 103460257 A CN103460257 A CN 103460257A CN 2012800170054 A CN2012800170054 A CN 2012800170054A CN 201280017005 A CN201280017005 A CN 201280017005A CN 103460257 A CN103460257 A CN 103460257A
Authority
CN
China
Prior art keywords
instruction
display device
picture
stereo
indication body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012800170054A
Other languages
English (en)
Inventor
田中康一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to CN201610878202.5A priority Critical patent/CN106896952A/zh
Publication of CN103460257A publication Critical patent/CN103460257A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

该立体显示设备包括:显示指令提供立体图像的立体显示单元(13);布置在该立体显示单元(13)的显示屏幕上的触摸传感器(16);检测该立体显示单元(13)的显示表面或触摸传感器16的触摸表面与指示体(手指、触摸笔等)之间的距离的空间传感器(17);根据由空间传感器(17)检测到的所述距离上的减小来减小所述指令提供立体图像的视差量的控制单元(30);以及通过由所述控制单元(30)确定的视差量将所述指令提供立体图像显示在立体显示单元(13)上的三维图像处理单元(12)。

Description

立体显示设备、接受指令的方法、程序及记录其的介质
技术领域
本发明涉及一种当立体地显示将由指示体指令的指令图像以及接收用户的指令时能够不破坏用户的立体效果的立体显示设备、指令接受方法和程序。
背景技术
在相关技术中,已知存在一种立体显示设备,在该立体显示设备中,当显示用右眼的按钮图像和左眼的按钮图像形成的3D按钮图像并且用户通过诸如手指和触摸笔的指示体触摸布置在显示屏幕上的触摸传感器时,检测在显示屏幕上的触摸位置(例如,参见PTL1)。
{引用列表}
{专利文献}
{PTL1}:日本专利申请特开No.2010-55266
发明内容
技术问题
然而,如图17中所示,当用户的手指92接近其上设有触摸传感器的显示屏幕90时,手指92和按钮立体图像94重叠并且看起来好像手指92穿过按钮,并且因此存在用户感到奇怪的问题。也就是,虽然在硬件按钮的情况下按钮受到手指的按压,但是在虚拟3D按钮的情况下,即使按压操作由手指执行,按钮立体图像也只是覆盖手指,并且因此存在观察员的立体效果受到破坏的问题。
鉴于以上问题,完成了本发明,并且本发明的目的是提供一种当立体地显示将由指示体指令的指令图像以及接受用户的指令时不能破坏用户的立体效果的立体显示设备与指令接受方法和程序。
问题的解决方案
为了实现该目的,本发明提供了一种立体显示设备,包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;空间传感器,所述空间传感器检测在所述立体显示设备的显示屏幕上由所述指示体指令的指令位置并且检测所述立体显示设备的显示屏幕与所述指示体之间的间隔;确定装置,所述确定装置用于确定由所述空间传感器检测到的所述指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。
而且,本发明提供了一种立体显示设备,该设备包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;触摸传感器,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的指令位置;确定装置,所述确定装置用于确定所述触摸传感器检测到所述触摸的所述指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;空间传感器,所述空间传感器检测所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的间隔;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。
根据本发明,由于空间传感器检测到显示屏幕与指示体(例如,手指或触摸笔)之间的间隔,并且根据检测到的间隔上的减小来减小指令左眼图像与指令右眼图像之间视差量,所以可以不破坏用户的立体效果。
在该说明书中,“指令立体图像”是将由指示体指令的指令图像并且表示被立体地显示的图像。“指令立体图像”的具体示例包括所谓的按钮类型(例如,3D按钮、3D图标或3D缩略图)的3D图像和所谓的滑动类型(例如,3D滑块)的3D图像。触摸操作类型(例如,按钮操作或滑动操作)和图像显示格式不特别地受到限制。
在按钮类型3D图像(即,3D按钮图像)中,通过本发明,由于可以改变立体图像的弹出量,使得立体图像连同诸如手指和触摸笔的指示体受到按压,所以能够消除视觉奇异性的感觉。即使当不提供按钮类型3D图像时,也提供促使用户精确地识别指示体与显示屏幕之间的间隔的效果。
在一个实施例中,当空间传感器或触摸传感器检测到指示体的指令时,图像处理装置将指令立体图像切换至平面显示。也就是,当指示体触摸时,由于将指令图像从立体显示切换至平面显示,所以不仅可以感觉到触觉而且还可以感觉到指示体与显示屏幕之间的间隔变为零的视觉,这是优选的。
而且,本发明提供了一种使用立体显示装置和空间传感器的指令接受方法,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像,所述空间传感器检测在所述立体显示装置的显示屏幕上由指示体指令的指令位置并且检测所述立体显示装置的显示屏幕与所述指示体之间的间隔,所述方法包括:通过预定的视差量将所述指令立体图像显示在所述立体显示装置上的步骤;通过所述空间传感器获取在所述立体显示装置的显示屏幕与所述指示体之间的间隔的步骤;根据在所获取的间隔上的减小来减小所述指令左眼图像与指令右眼图像之间的视差量的步骤;以及通过判定由所述空间传感器检测到的指令位置是否在与所述指令立体图像相对应的检测区域内来接受与所述指令立体图像相对应的指令的步骤。
而且,本发明提供了一种使用立体显示装置、触摸传感器和空间传感器的指令接受方法,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的立体图像,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的位置,所述空间传感器检测在所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的空间上的间隔的变化,所述方法包括:通过预定的视差量将所述指令立体图像显示在所述立体显示装置上的步骤;从所述空间传感器获取在所述立体显示装置的显示屏幕与所述指示体之间的间隔的步骤;根据在从所述空间传感器获取的间隔上的减小来减小所述指令左眼图像与指令右眼图像之间的视差量的步骤;以及通过判定由所述触摸传感器检测到触摸的位置是否在与所述指令立体图像相对应的检测区域内来接受与所述指令立体图像相对应的指令的步骤。
而且,本发明提供促使计算机执行指令接受方法的程序和存储该程序的计算机可读记录介质。
发明的有益效果
根据本发明,当立体地显示触摸操作的指令图像和接受用户的指令时,可以不破坏用户的立体效果。
附图说明
图1是图示根据本发明的立体显示设备的示例的整个配置的框图。
图2是图示指令立体图像和指令位置检测区域的示例的解释图。
图3是图示使用立体照相机作为空间传感器的立体显示设备的外观的视图。
图4是图示使用红外光传感器作为空间传感器的立体设备的视图。
图5是图示指令接收设备的示例的流程的流程图。
图6是例如其中用于优势眼的指令图像接近用于不是优势眼的眼睛的指令图像的解释图。
图7是图示其中根据指示体与显示屏幕之间的间隔的减小来减小指令立体图像的弹出量dz的状态的模式图。
图8是图示仅面对指示体的指令立体图像的视差量减小的情况的解释图。
图9是图示仅面对指示体的指令立体图像的尺寸增大的情况的解释图。
图10是图示移动周围的指令立体图像远离面对指示体的指令立体图像的情况的解释图。
图11是图示在未获取优势眼信息的情况下指令立体图像与指令位置检测区域的示例的解释图。
图12是图示根据本发明的立体设备的另一个示例的整个配置的框图。
图13是用来描述优势眼测量处理的解释图。
图14是图示立体显示设备的基础硬件配置示例的框图。
图15是图示根据本发明的能够通过空间传感器检测指令位置的立体显示设备的示例的整个配置的框图。
图16是图示图15中的立体显示设备的基础硬件配置示例的框图。
图17是用来描述本发明的问题的解释图。
具体实施方式
在下文中,根据附图详细地描述本发明的实施例。
图1是图示一个实施例的立体显示设备10的配置示例的框图。
图像输入单元11输入一个视点的2D图像。三维图像处理单元12将从图像输入单元11输出的一个方面的2D图像转换成用多个视点的2D图像(即,右眼的右眼图像和左眼的左眼图像)形成的3D图像。立体显示单元13执行3D图像的立体显示。触摸传感器16布置在立体显示单元13的显示屏幕上并且检测在显示屏幕上由用户通过诸如手指和触摸笔的指示体触摸的指令位置(x-y坐标)。
在此处,在说明书中,“2D”意指二维(即,平面)和“3D”意指三维(即,立体)。也就是,“2D图像”表示平面图像,并且“3D图像”表示立体图像(即,能够立体地观察的图像)。
图2的部分(A)至(C)图示了为了接受立体显示单元13和触摸传感器16中的用户的指令将多个视点的指令2D图像(即,指令左眼图像53L和指令右眼图像53R)显示在立体显示单元13的显示屏幕上的状态。图2的部分(A)图示了视差量为零(即,无弹出)的情况,图2的部分(B)图示了视差量是小的(即,小弹出量)的情况,并且图2的部分(C)图示了视差量是最大的(即,最大弹出)的情况。附图标记56表示其中在显示屏幕(即,触摸表面)上触摸的指令位置被检测为有效的指令位置检测区域。虽然在图2的部分(A)的情况下它不被识别为立体图像,但是通过将指令左眼图像53L和指令右眼图像53R在x方向(即,水平方向)上移位视差量d并且如图2的部分(B)和(C)所示显示它们,用户将指令图像识别为在显示屏幕的近侧上弹出的立体图像(即,3D图像)。
空间传感器17表示检测指示体(例如,手指和触摸笔)的三维位置的传感器,该传感器检测立体显示单元13的显示屏幕(或触摸传感器16的触摸表面)与指示体之间的间隔。在此处,触摸传感器16与指令的移动距离相比是薄的,并且因此,触摸传感器16的和显示屏幕的前表面(即,触摸表面)被识别为大致相同的。在下文中,在假定空间传感器17检测到立体显示单元13的显示屏幕与指示体之间的间隔的情况下给出解释。
立体效果设定单元14具有接受与指令3D图像的立体效果的量级(或强度)相关的设定输入操作并且促使存储单元15存储与立体效果的设定和输入量级相对应的视差量作为初始视差量的功能。例如,立体效果设定单元14促使立体显示单元13显示立体效果的“强烈”、“中等”和“微弱”的选择菜单以从用户接受立体效果水平的选择输入,并且促使存储单元15存储与该立体效果水平相对应的视差量。
优势眼信息设定单元20A接受用户的优势眼信息的设定输入并且将设定和输入优势眼信息存储在存储单元15中。例如,通过询问用户关于左右眼中的哪一只眼是优势眼的问题,从用户接受右眼或左眼的选择输入。在此处,对通过用户的设定输入操作获取优势眼信息的配置给出解释,并且稍后描述通过自动地确定用户的优势眼获取优势眼信息的模式。
指令位置检测区域判定单元18至少基于优势眼信息来判定在立体显示单元13的显示屏幕上的指令位置检测区域(即,反应区域)。例如,在获取优势眼信息的情况下,取决于用户的优势眼是右眼还是用户的优势眼是左眼,切换在指令位置检测区域中的显示屏幕上的位置、尺寸和形状中的至少一个。
确定单元19确定其中指令位置检测单元16检测到触摸的位置是否在由指令位置检测区域判定单元18判定的指令位置检测区域(其是与指令3D图像相对应的区域)的范围内,使得接受与指令3D图像相对应的指令。也就是,确定单元19确定是否存在与指令3D图像相对应的用户的指令。
控制单元30控制立体显示设备10的每个单元。而且,作为视差量判定装置,控制单元30判定在指令左眼图像53L与指令右眼图像53R之间的视差量。控制单元30根据由空间传感器17检测到的在立体显示单元13的显示屏幕与指示体之间的空间的间隔上的变化来改变视差量。根据由空间传感器17检测到的间隔上的减小,该示例的控制单元30减小指令右眼图像53R与指令左眼图像53L之间的视差量。而且,当由触摸传感器16检测到指示体的触摸时,该示例的控制单元30执行控制以将指令3D图像切换至平面显示。为了将指令3D图像切换至平面显示,存在仅将指令右眼图像和指令左眼图像中的一个显示在立体显示单元13上的切换模式和将视差量改变为零的模式。
接着,描述优势眼与用户的触摸位置之间的关系。如果执行图2的部分(B)和(C)所示的显示,则虽然立体图像出现在指令右眼图像53R的中心位置与指令左眼图像53L的中心位置之间的中间,但是在用户在看见立体图像的同时通过手指或触摸笔给出指令的情况下,指令位置是取决于用户的优势眼的位置。例如,在用户的优势眼是右眼的情况下,用户倾向于指令与在指令右眼图像53R的中心位置与指令左眼图像53L的中心位置之间的中间位置C相比更靠近指令右眼图像53R的中心位置的位置。因此,在获取优势眼信息的情况下,根据用户的优势眼是否右眼还是用户的优势眼是左眼,指令位置检测区域判定单元18切换指令位置检测区域的位置、尺寸和形状中的至少一个。例如,在获取优势眼信息的情况下,指令位置检测区域布置在更靠近指令右眼图像和指令左眼图像当中的优势眼的指令图像的显示位置中。例如,包括指令右眼图像53R的显示区域的指令位置检测区域被设定。通过该方式,可以正确地确定由用户预期的指令。
在图1中,图像输入单元11、三维图像处理单元12、指令位置检测区域判定单元18、确定单元19和控制单元30用例如微处理器(CPU)形成。立体效果设定单元14和优势眼信息设定单元20主要用例如微处理器和触摸传感器16形成。在不使用触摸传感器的情况下,立体效果设定单元14和优势眼信息设定单元20可以用诸如键盘和鼠标的其它输入设备形成。存储单元15用例如存储器形成。然而,在每个单元中的处理可以由软件根据在诸如存储单元15的计算机可读非临时记录介质中所记录的程序来执行或可以由硬件通过电路来执行。
接着,描述了能够检测指示体的三维位置的空间传感器17的示例。
图3图示了在使用复眼立体照相机42(下文被称为“复眼3D照相机”)作为图1的空间传感器17的情况下的立体显示设备10。复眼3D照相机42是包括光学系统和多个视点的摄像元件的照相机,并且,基于由多重成像元件拍摄的多个视点的成像图像,检测指示体的三维位置以触摸包括立体显示单元13和触摸传感器16的触摸面板40。
在此处,在图3中,虽然例证了其中使用复眼3D照相机42的情况,但是执行单个成像光学系统的光瞳分割以执行立体射线照相的单眼3D照相机可以被用作空间传感器17。
如图4的部分(A)和(B)所示,红外光传感器可以被用作空间传感器17,该红外光传感器包括发出红外光的红外发光单元17a和接收红外光的红外光接收单元17b。图4的部分(A)表示其中从与显示屏幕正交的z方向(即,x-y平面)看到立体显示设备10的平面图。图4的部分3(B)表示其中沿着z方向看到立体显示设备10的横截面的横截面图。该示例的空间传感器17具有其中包括红外发光单元17a和红外光接收单元17b的红外光传感器集合在z方向上被分层的配置。如图4的部分(C)所示,通过检测其中置于所述红外光传感器17a和17b集合当中的由指示体遮挡的红外光,检测到指示体与显示屏幕之间的间隔。根据在指示体与显示屏幕之间的间隔检测所需的分辨能力来判定红外光传感器在Z方向上之间的元件间隔。
在此处,虽然立体照相机(即,立体成像传感器)和红外光传感器已经作为空间传感器17被引入,但是毋庸赘述,可以使用其它种类的传感器。例如,电容类型触摸传感器(或触摸面板)可以被用作空间传感器。
图5是图示在图1中的立体显示设备10a中的指令接收处理示例的流程图。根据通过控制形成控制单元30的微处理器的程序来执行该处理。假定在开始该处理之前,将一个视点的指令2D图像输入在图像输入单元11中。
首先,确定是否已经设定优势眼信息(步骤S2)。也就是,判定是否将优势眼信息存储在存储单元15中。
在已经设定优势眼信息的情况下,基于优势眼信息,判定观察员的优势眼是左眼还是用户的优势眼是右眼(步骤S4)。在优势眼是右眼的情况下,事先对三维图像处理单元12给出通知,使得当指示体接近显示屏幕时,将指令左眼图像移位至指令右眼图像侧并且显示在立体显示单元13上(步骤S6)。在优势眼是左眼的情况下,事先对三维图像处理单元12给出通知,使得当指示体接近显示屏幕时,将指令右眼图像移位至指令左眼图像侧并且显示在立体显示单元13上(步骤S8)。因此,通过事先设定与优势眼信息相对应的移位信息,当指示体接近立体显示单元13的显示屏幕时,执行图像处理,使得用于不是优势眼的眼睛的指令图像的显示位置(例如,指令左眼图像)接近用于优势眼的指令图像的显示位置(例如,指令右眼图像)。
在尚未设定优势眼信息的情况下,事先对三维图像处理单元12给出通知,使得将指令左眼图像和指令右眼图像两者移位并且显示在立体显示单元13上(步骤S10)。也就是,由于不提供优势眼信息,所以事先设定优势眼信息使得执行如下默认的处理:当指示体接近立体显示单元13的显示屏幕时,使指令左眼图像和指令右眼图像接近两个指令图像的显示位置的中心。
随后,将指令图像立体地显示在立体显示单元13上(步骤S12)。也就是,基于由立体效果设定单元14设定的初始视差量,由三维图像处理单元12将由图像输入单元11获取的一个视点的指令2D图像转换成包括指令左眼图像和指令右眼图像的指令3D图像,并且将指令3D图像显示在立体显示单元13上。
随后,开始观察员的指令的接受(步骤S14)。在该示例中,由指令位置检测区域判定单元18基于存储在存储单元15中的优势眼信息来判定指令位置检测区域,并且指令位置检测区域被通知给确定单元19。
随后,从空间传感器17获取指示体的三维位置(px、py、pz)(步骤S16)。在该示例中,由图3中的复眼3D照相机42测量指示体的三维位置。在此处,在该示例中,px和py表示在与显示屏幕平行的平面上的坐标,并且px示出在水平方向上的位置。而且,pz示出离显示屏幕的距离(或间隔)。
随后,确定指示体的x-y位置(px、py)和指令3D图像的x-y位置是否匹配(步骤S18)。也就是,确定由空间传感器17检测到的指示体的x-y位置(px、py)是否在指令3D图像的x-y平面中的范围内。在将多个指令3D图像显示在立体显示单元13上的情况下,在所述多个指令3D图像当中指定面对指示体的指令3D图像。
在存在面对指示体的指令3D图像的情况下,确定相对于指令3D图像的弹出量dz和在指示体与显示屏幕之间的间隔pz而言是否规定pz<dz(步骤S20)。已经知道初始视差量d0(即,左右指令图像之间的距离)和与初始视差量d0相对应的弹出量dz0,并且首先确定是否建立pz<dz0。在此处,根据在观察员与显示屏幕之间的距离r和在观察员的两只眼睛之间的间隔s,通过dz0=(d0×r)/(d0+s)判定dz0。作为一个示例,在大约三英寸的LCD的情况下,可以计算s=65mm,并且r=300mm。关于r,可以针对观察员使用复眼照相机或距离传感器来计算精确的值。而且,可以执行脸部检测和面部检测以检测观察员的眼睛的位置并且计算s的精确值。
在面对指示体的指令3D图像存在并且建立pz<dz的情况下,通过使指令左眼图像和指令右眼图像中的至少一个在水平方向(即,x方向)上移位,由三维图像处理单元12调节指令左眼图像与指令右眼图像之间的视差量,使得建立dz=pz。也就是,基于在步骤S6、S8或S10中设定的移位信息集合,使得用于不是优势眼的眼睛的指令图像的显示位置接近用于优势眼的指令图像的显示位置。图6典型地图示了其中当优势眼是右眼时使用于左眼的指令左眼图像53L接近用于右眼的右眼指令右眼图像53R的状态。因此,当根据由空间传感器17检测到的间隔dz上的减小来减小视差量时,并且指令3D图像的立体图像54被移动并且受到指示体的按压。
随后,由确定单元19确定是否触摸了指令位置检测区域(步骤S24)。也就是,确定指示体是否触摸在显示屏幕中由指令位置检测区域判定单元18判定的指令位置检测区域(实际上,触摸面板的触摸表面包括立体显示单元13和触摸传感器16)。
在确定指令位置检测区域被触摸的情况下,通过在水平方向(即,x方向)上移位指令左眼图像和指令右眼图像中的至少一个,调节视差量使得指令3D图像的弹出量dz成为零(步骤S26)。也就是,基于在步骤S6、S8或S10中的移位信息集合,由三维图像处理单元12将指令3D图像切换至2D显示,使得指令左眼图像与指令右眼图像之间的视差量变成零。在该示例中,它进入其中显示仅用于优势眼的指令图像(例如,指令右眼图像,如果右眼是优势眼的话)的状态。
随后,执行与触摸操作相对应的动作(步骤S28)。也就是,执行与指令3D图像相对应的处理。
随后,确定是否终止该处理(步骤S30),在该处理终止的情况下终止处理,并且在该处理继续的情况下返回至步骤S16。
如上文使用图5所描述的,当间隔pz小于初始弹出量dz0时,根据在间隔pz上的减小来减小弹出量dz。图7的部分(A)至(D)图示了该状态。
在图7的部分(A)所示的状态下,由于间隔pz大于弹出量dz并且手指在3D按钮的立体图像54前面,所以即使间隔pz减小,也不会改变弹出量dz。如图7的部分(C)中所示,当间隔pz小于初始弹出量dz0时,通过根据间隔pz上的减小来减小视差量,控制单元30减小弹出量dz。如图7的部分(D)所示,当检测到手指的触摸时,三维图像处理单元12将3D按钮的指令3D图像切换至2D显示。例如,它进入仅显示优势眼的指令图像的状态。替代地,将视差量调节成变为dz=0。
当使触摸手指远离显示屏幕时,根据由空间传感器17检测到的间隔pz上的增加,可以使3D按钮的视差量增加。也就是,像从部分(D)、部分(C)至部分(B)以逆序看到图7的情况那样,根据间隔pz的增加,可以增加弹出量dz。然而,如图7的部分(A)所示,当间隔pz等于或大于初始弹出量dz0时,弹出量dz不增加。
如图7所示,虽然上文已经描述了其中间隔pz与初始弹出量dz0之间关系是当建立pz<dz0时弹出量dz逐渐减小的示例情况,但是作为另一个模式,当建立pz<dz0时,可以将弹出量dz设定为零。也就是,在pz<dz0时,切换至2D显示。
而且,已经描述了其中使用于不是优势眼的眼睛的指令图像的显示位置靠近用于优势眼的指令图像的显示位置的情况,基于优势眼的敏锐度可以移位指令图像。更具体地,将指示用户的优势眼和优势眼的敏锐度的优势眼信息事先存储在存储单元15中,并且,当根据在空间传感器17检测到间隔pz上的减小来减小视差量时,基于存储在存储单元15中的优势眼信息,三维图像处理单元12使得指令右眼图像的显示位置和指令左眼图像的显示位置两者接近如下位置:该位置与在指令右眼图像与指令左眼图像之间的中间位置相比更靠近用于优势眼的指令图像的显示位置并且通过根据优势眼的敏锐度的速率更靠近用于优势图像的指令图像的显示位置。
接着,对在多个指令3D图像被显示在立体显示单元13上的情况下的控制示例给出解释。
图8是在仅减小面对指示体的3D按钮的视差量的情况下的解释图。
在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54b,并且,如图8的部分(B)和(C)中所示,对于在所述多个3D按钮54a、54b和54c当中的仅面对手指的3D按钮54b,通过根据间隔pz的减小来减小视差量来减小弹出量。
而且,在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定3D按钮54b,指定面对手指的3D按钮54b,并且,如图8的部分(D)所示,当检测到手指触摸到显示屏幕时,三维图像处理单元12将在所述多个3D按钮54a、54b和54c当中的仅面对手指的3D按钮54b切换至2D显示。
而且,在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于从空间传感器17获取的指示体的三维位置来指定面对指示体的指令3D图像,基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54b,并且,像以从部分(D)、部分(C)至部分(B)的逆序看到图8的情况那样,仅对于在所述多个3D按钮54a、54b和54c当中的面对手指的3D按钮54b而言,可以通过根据间隔pz的增加而增加视差量来减小弹出量dz。
图9是在放大仅面对指示体的指令3D图像的尺寸的情况下的解释图。
在显示多个3D按钮54a、54b,和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54b,并且,如图9的部分(A)和(B)中所示,在多个3D按钮54a、54b和54c当中的仅面对手指的3D按钮54b的尺寸被放大,并且3D按钮54a、54b和54c中的每一个的位置不被改变。而且,指令位置检测区域根据按钮尺寸的放大而扩大。
在以这种方式放大仅面对指示体的3D按钮的尺寸的情况下,要被按压的3D按钮变得容易被按压。而且,由于每个3D按钮的位置不改变,所以甚至在当要被按压的3D按钮改变至其它3D按钮的情况下,每个3D按钮也容易被按压。
图10是在将周围的指令3D图像移动远离面对指示体的指令3D图像的情况下的解释图。
在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54c,并且,如图10的部分(A)和(B)中所示,将周围的3D按钮54a、54b、54d和54e(即,指令3D图像)移动远离面对手指的3D按钮54c(即,指令3D图像)。
在将其它3D按钮以这种方式移动远离面对指示体的3D按钮的情况下,要被按压的3D按钮变得容易被按压。然而,当手指在按钮的布置方向(例如,x方向)上移动时,显示位置顺利地移动,使得,在将要被按压的3D按钮改变至另一个3D按钮的情况下,按钮不会变得难以被按压。
接着,描述在图1所示的指令位置检测区域判定单元18中的指令位置检测区域判定。
取决于优势眼信息是否被存储在存储单元15中(即,优势眼信息是否存在),指令位置检测区域判定单元18切换指令位置检测区域的位置、尺寸和形状中的至少一个。
在优势眼信息存在的情况下,指令位置检测区域判定单元18使指令位置检测区域的尺寸小于在未提供优势眼信息的情况。
在优势眼信息存在的情况下,取决于用户的优势眼是右眼还是用户的优势眼是左眼,指令位置检测区域判定单元18切换检测区域的位置、尺寸和形状中的至少一个。
在优势眼信息存在的情况下,指令位置检测区域判定单元18将检测区域布置成更靠近指令右眼图像和指令左眼图像中的用于优势眼的指令图像的显示位置。而且,在优势眼信息存在的情况下,指令位置检测区域判定单元18判定指令位置检测区域,使得与指令右眼图像和指令左眼图像中的优势眼相对应的指令图像的至少部分被包括。
接着,对在未获取优势眼信息的情况下的指令位置检测区域给出解释。
在未获取用户的优势眼信息的情况下,不能仅通过检测仅在指令左眼图像位置与指令右眼图像位置之间的中间位置中的用户的指令来覆盖能够被指令的区域。这是因为其右眼是优势眼的用户趋向于指令指令右眼图像的周边,并且其左眼是优势眼的用户趋向于指令指令左眼图像的周边。因此,在未获取优势眼信息的情况下,如图11的部分(A)和(B)中所示,指令位置检测区域判定单元18判定指令位置检测区域56,使得指令右眼图像53R的至少部分和指令左眼图像53L的至少部分被包括。在此处,图11的部分(A)图示了在最小视差量(即,立体图像的最小弹出量)的情况下的示例,并且图11的部分(B)图示了在最大视差量(即,立体图像的最大弹出量)的情况下的示例。
在未获取用户的优势眼信息的情况下,存在从图1的配置省略优势眼信息设定单元20的第一情况,并且存在其中用户的优势眼信息不由在图1所示的配置中的优势眼信息设定单元20设定的第二情况。
接着,对其中测量优势眼信息的情况给出解释。图12是图示能够测量优势眼信息的立体显示设备10的配置示例的框图。在此处,相同的附图标记被分配给图1所示的组件,并且省略关于已解释的事项的解释。
图12中的立体显示设备10包括作为优势眼信息获取装置的优势眼测量单元21,通过优势眼测量单元21执行优势眼测量,并且将作为测量结果的优势眼信息存储在存储单元15中。控制单元30控制包括优势眼测量单元21的每个单元。
基于包括指令右眼图像53R和指令左眼图像53L的指令3D图像的视差量和在指令3D图像被显示在立体显示单元13上的状态下由指令位置检测单元16检测到的用户的指令位置,优势眼测量单元21计算优势眼参数。
优势眼参数在该示例中表示优势眼信息并且指示用户的优势眼连同优势眼的敏锐度水平(在下文中称为“优势眼程度”)。优势眼程度示出如何将立体显示单元13的显示屏幕上的用户的指令位置移位至指令右眼图像53R的显示位置和指令左眼图像53L的显示位置中的优势侧上的指令图像的显示位置。
例如,如图13的部分(A)至(C)所示,包括指令右眼图像53R和指令左眼图像53L的指令3D图像通过三种立体效果显示在立体显示单元13上。在该示例中,在三种(也就是小、中和大)之间改变立体效果(即,立体图像的弹出量)的同时显示指令3D图像。也就是,通过由立体效果设定单元14改变d1、d2和d3之间的视差量来改变指令3D图像的立体效果,促使用户执行关于每个指令3D图像的指令操作,并且由指令位置检测单元16检测到分别与视差量d1、d2和d3相对应的指令位置p1、p2和p3,作为立体显示单元13的显示屏幕上的坐标值。
在该示例中,使用w=a×d作为优势眼模型等式。在此处,“w”表示从一个指令图像的参考位置(在该示例中,其是指令右眼图像53R的中心位置)至指令位置的距离,“a”表示优势眼参数,并且“d”表示视差量。也就是,通过优势眼测量单元21,指令右眼图像53R的参考位置(即,中心位置)和与其相对应的指令左眼图像53L的参考位置(即,中心位置)被用作参考,并且计算数值a=w/d作为优势眼参数,示出指令位置更靠近(即,经移位的)的指令图像的参考位置的数值。
例如,在用户是惯用右眼的情况下,优势眼参数“a”小于0.5。也就是,指令位置成为更靠近指令右眼图像53R的中心位置的位置。在用户是惯用左眼的情况下,优势眼参数“a”变得大于0.5。也就是,指令位置成为更靠近指令左眼图像53L的中心位置的位置。在此处,在优势眼参数“a”变成0.5的情况下,虽然存在用户既是惯用右眼又是惯用左眼的高可能性,但是为了方便起见,可以处理成用户是惯用右眼的或惯用左眼的。
在此处,由于优势眼参数“a”因每个观察员(用户)而变化,所以优选的是,优势眼参数被存储在与用户ID(例如,名称)相关联的存储单元15中,并且指令位置检测区域的范围(即,位置和尺寸)由指令位置检测区域判定单元18为每个用户判定。
为了提高优势眼测量单元21的优势眼测量的测量精度,设定下列测量模式。
第一,存在在改变视差量的同时将指令3D图像多次显示在立体显示单元13上的模式,用户的指令位置由指令位置检测单元16多次检测,并且优势眼信息被计算。
第二,存在在改变显示位置的同时将指令3D图像多次显示在立体显示单元13上的模式,用户的指令位置由指令位置检测单元16多次检测,并且优势眼信息被计算。优选的是,每当显示指令3D图像一次时,就改变视差量。
第三,存在在改变显示位置的同时将指令3D图像的多个项目显示在立体显示单元13上的模式,用户的指令位置由指令位置检测单元16多次检测,并且优势眼信息被计算。优选的是,每个指令3D图像改变视差量。
由于该示例的立体显示设备10测量用户的优势眼和优势眼程度并且基于测量结果判定指令位置检测区域,所以可以更加精确地判定用户的指令。
在此处,在第一实施例至第三实施例中,虽然已经描述了根据用户的优势眼信息判定指令位置检测区域的位置和尺寸的示例情况,但是,可以根据用户的优势眼来判定位置和尺寸中的一个。而且,虽然已经描述了其中指令位置检测区域的形状是四边形的示例情况,但是指令位置检测区域的形状不特别地受到限制。例如,椭圆形状是可接受的。
而且,可以根据用户的优势眼来判定指令位置检测区域的形状。
虽然为了便于本发明的理解在上文中已经将仅四边形按钮图像图示为指令立体图像,但是“按钮图像”并不限于这样的图像并且包括接受指示体(诸如手指和触摸笔)的按压操作的各种立体图像。例如,包括3D图标图像和3D缩略图像。而且,在本发明中,“指令立体图像”不特别地受到“按钮图像”的限制。例如,包括通过诸如类似3D滑块的滑动操作、旋转操作、移动操作、扩大操作和缩小操作的各种触摸操作接受指令的各种图像。
而且,虽然已经描述了其中将指令立体图像显示成随着指示体接近显示屏幕而被按压的示例情况,但是本发明还适用于其中将指令立体图像显示成随着指示体接近显示屏幕而从显示屏幕中的深处接近显示屏幕的情况。
而且,控制单元30可以检测到,通过触摸传感器16(即,指令位置检测单元)输入指令的用户被改变。
例如,控制单元30(即,用户改变检测装置)计算由触摸传感器16检测到的指令位置(即,触摸位置)在由指令位置检测区域判定单元18判定的指令位置检测区域的范围之外的次数或频率,并且基于计算结果来检测用户的变化。控制单元30可以创建关于由触摸传感器16检测到的指令位置的历史信息并且基于关于指令位置的历史信息来检测用户的变化。例如,通过基于关于指令位置的历史信息检测优势眼或优势眼的敏锐度的改变来检测用户的变化。
在检测到用户的变化的情况下,控制单元30执行下列校准处理、检测模式切换处理、显示模式切换处理和通知处理中的至少一个处理。
在校准处理中,获取新用户的优势眼信息以相对于指令左眼图像和指令右眼图像的显示区域来判定检测区域的位置、尺寸和形状中的至少一个上的差别。
检测模式切换处理执行从第一检测模式到第二检测模式的切换,该第一检测模式基于优势眼信息根据用户的优势眼或优势眼的敏锐度来判定指令位置检测区域,该第二检测模式设定指令位置检测区域以默认其尺寸大于上述第一检测模式。
显示模式切换处理执行从显示指令3D图像的立体显示模式至显示指令2D图像的平面显示模式的切换。
可以从用户接受在用户的变化被检测到的情况下执行的处理的选择。
图14是图示根据上述第一至第三实施例的应用立体显示设备的基础硬件配置的框图。在图14中的立体显示设备10中,微处理器110包括根据第一和第二实施例的三维图像处理单元12、指令位置检测区域判定单元18、确定单元19、控制单元30和优势眼测量单元21。而且,介质接口101包括图像输入单元11。相对于如存储卡的立体显示设备10的主体可分离的介质而言,介质接口101执行数据读取和数据写入。作为介质接口101,可以使用经由网络执行通信的网络接口。
作为图14中的立体显示设备10,例如,存在能够执行立体显示的各种数字设备,诸如个人计算机、3D照相机设备、3D便携式终端设备、3D游戏设备、3D引导设备和3D电视设备。
在将图14中的立体显示设备10用作3D照相机设备的情况下,3D成像装置独立于空间传感器17被设定,该3D成像装置通过在多个视点处拍摄物体来获取拍摄的3D图像,并且在立体摄像单元中获取的拍摄的立体图像和指令立体图像被组合并且由立体显示单元13立体地显示。
虽然在上文中已经描述了由触摸传感器16检测到显示屏幕上的指令位置的示例情况,但是可以由空间传感器17检测到指令位置。
图15图示了其中能够由空间传感器17检测到指令位置的立体显示设备10的一个示例的整体配置。在图15中,为图12中所示的组件分配相同的附图标记,并且仅描述与图12的情况不同的要点。
空间传感器17检测由指示体指令的立体显示单元13的显示屏幕上的指令位置并且检测立体显示单元13的显示屏幕与指示体之间的间隔。确定单元19确定由空间传感器17检测到的指令位置是否在与指令3D图像相对应的检测区域内,并且接受与指令3D图像相对应的指令。
当指示体对显示屏幕的指令由空间传感器17检测到时,三维图像处理单元12将指令3D图像切换至平面显示。
根据该示例的空间传感器17,可以检测诸如手指的指示体是否触摸立体显示单元13的显示屏幕以及指示体触摸显示屏幕上的哪个位置。作为这样的空间传感器17的示例,存在立体照相机(例如,复眼3D照相机和单眼3D照相机)。
图16是图示图15所示的立体显示设备的基础硬件配置示例的框图。在图16中,对图14所示的组件分配相同的附图标记,并且存在与图14的情况不同的要点在于,还使用空间传感器17作为指令位置检测单元16。
上面公开的本发明和应用本发明的发明如下。
发明1:一种立体显示设备,包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;空间传感器,所述空间传感器检测在所述立体显示装置的显示屏幕上由所述指示体指令的指令位置并且检测所述立体显示装置的显示屏幕与所述指示体之间的间隔;确定装置,所述确定装置用于确定由所述空间传感器检测到的指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。
发明2:一种立体显示设备,包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;触摸传感器,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的指令位置;确定装置,所述确定装置用于确定其中由所述触摸传感器检测到所述触摸的指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;空间传感器,所述空间传感器检测所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的间隔;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。
发明3:根据发明1所述的立体显示设备,其中,当由所述空间传感器检测到所述指示体到所述显示屏幕的指令时,所述图像处理装置将所述指令立体图像切换至平面显示。
发明4:根据发明2所述的立体显示设备,其中,当由所述触摸传感器检测到所述指示体到所述显示屏幕的触摸时,所述图像处理装置将所述指令立体图像切换至平面显示。
发明5:根据发明1至4中的任一项所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的指令立体图像,并且,在所述多个指令立体图像当中,仅对于面对所述指示体的指令立体图像而言,所述图像处理装置根据所述间隔上的减小来减小所述指令右眼图像与所述指令左眼图像之间的视差量。
发明6:根据发明1至5中的一个所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的指令立体图像,并且,当检测到所述指示体到所述显示屏幕的指令时,所述图像处理装置仅将在所述多个指令立体图像当中的面对所述指示体的指令立体图像切换至平面显示。
发明7:根据发明1至6中的一个所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的立体图像并且放大在所述多个指令立体图像当中的仅面对所述指示体的指令立体图像。
发明8:根据发明1至7中的一个所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的立体图像并且使周围的指令立体图像移动远离面对所述指示体的指令立体图像。
发明9:根据发明1至8中的一个所述的立体显示设备,其中,所述视差量判定装置根据由所述空间传感器检测到的间隔上的增加来增加所述指令右眼图像与所述指令左眼图像之间的视差量。
发明10:根据发明9所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的指令立体图像,并且,在所述多个指令立体图像当中,仅对于面对所述指示体的指令立体图像而言,所述图像处理装置根据所述间隔上的增加来增加所述指令右眼图像与所述指令左眼图像之间的视差量。
发明11:根据发明1至10中的一个所述的立体显示设备,进一步包括用于存储指示用户的优势眼的优势眼信息的存储装置,其中,当根据所述间隔上的减小来减小所述视差量时,基于存储在所述存储装置中的优势眼信息,所述图像处理装置将用于不是所述指令右眼图像和所述指令左眼图像中的优势眼的眼睛的指令图像的显示位置移动至用于所述优势眼的指令图像的显示位置。
发明12:根据发明1至10中的一个所述的立体显示设备,进一步包括用于存储指示用户的优势眼的优势眼信息和所述优势眼的敏锐度的存储装置,其中,当根据在所述间隔上的减小来减小所述视差量时,基于存储在所述存储装置中的优势眼信息,所述图像处理装置将所述指令右眼图像的显示位置和所述指令左眼图像的显示位置两者移动至更靠近如下位置:该位置与在所述指令右眼图像与所述指令左眼图像之间的中间位置相比更靠近用于所述优势眼的指令图像的显示位置,并且在取决于所述优势眼的敏锐度的程度上更靠近用于所述优势眼的指令图像的显示位置。
发明13:根据发明11和12中的任一项所述的立体显示设备,进一步包括检测区域判定装置,所述检测区域判定装置用于至少基于所述优势眼信息来判定在所述立体显示装置的显示屏幕上指令位置的检测区域。
发明14:根据发明1至13中的任一项所述的立体显示设备,进一步包括优势眼信息获取装置,所述优势眼信息获取装置用于通过基于所述指令立体图像的视差量和在所述指令立体图像被显示在所述立体显示装置上状态下检测到的指令位置计算优势眼信息来获取所述优势眼信息。
发明15:根据发明1至13中的任一项所述的立体显示设备,进一步包括优势眼信息获取装置,所述优势眼信息获取装置用于通过接受所述优势眼信息的输入操作来获取优势眼信息。
发明16:根据发明1至15中的任一项所述的立体显示设备,其中,所述空间传感器是立体成像传感器、红外光传感器与电容传感器中的一个。
发明17:根据发明1至16中的任一项所述的立体显示设备,其中,所述指示体是手指和笔中的一个。
发明18-34:分别对应于发明1至17的指令接受方法。
发明35:一种立体显示设备,包括:立体显示装置,用于显示用指令右眼图像和指令左眼图像形成的指令立体图像以接受用户的指令;指令位置检测装置,用于检测在立体显示装置的显示屏幕上用户的指令位置;优势眼信息获取装置,用于获取指示用户的优势眼的优势眼信息;检测区域判定装置,用于至少基于优势眼信息来判定在立体显示装置的显示屏幕上的指令位置的检测区域;以及确定装置,用于通过确定由指令位置检测装置检测到的指令位置是否在检测区域内来接受与指令立体图像相对应的用户的指令。
发明36:根据发明35所述的立体显示设备,其中,取决于优势眼信息是否存在,所述检测区域判定装置切换所述检测区域的位置、尺寸和形状中的至少一个。
发明37:根据发明36所述的立体显示设备,其中,与在不存在优势眼信息的情况相比,在优势眼信息存在的情况下,检测区域判定装置将检测区域的尺寸设定成更小。
发明38:根据发明35至37中的一个所述的立体显示设备,其中,在优势眼信息存在的情况下,取决于用户的优势眼是右眼还是用户的优势眼是左眼,检测区域判定装置切换检测区域的位置、尺寸和形状中的至少一个。
发明39:根据发明38所述的立体显示设备,其中,在优势眼信息存在的情况下,检测区域判定装置将检测区域布置成更靠近指令右眼图像和指令左眼图像中的优势眼的指令图像的显示位置。
发明40:根据发明35至39中的一个所述的立体显示设备,其中,在优势眼信息存在的情况下,检测区域判定装置判定检测区域,使得指令图像的至少部分对应于指令右眼图像和指令左眼图像中的优势眼。
发明41:根据发明35至40中的一个所述的立体显示设备,其中,在优势眼信息不存在的情况下,检测区域判定装置判定检测区域,使得指令右眼图像的至少部分和指令左眼图像的至少部分被包括。
发明42:根据发明35至41中的一个所述的立体显示设备,其中,基于指令立体图像的视差量和在指令立体图像被显示在立体显示装置上的状态下由指令位置检测装置检测到的用户的指令位置,优势眼信息获取装置计算指示用户的优势眼和优势眼的敏锐度的优势眼信息。
发明43:根据发明42所述的立体显示设备,其中,指令立体图像多次显示在立体显示装置上,而视差量是变化的,用户的指令位置由指令位置检测装置多次检测,并且优势眼信息被计算。
发明44:根据发明42和43中的一个所述的立体显示设备,其中,指令立体图像多次显示在立体显示装置上,而显示位置是变化的,用户的指令位置由指令位置检测装置多次检测,并且优势眼信息被计算。
发明45:根据发明42和43中的一个所述的立体显示设备,其中,指令立体图像显示在立体显示装置上,而显示位置是变化的,用户的指令位置由指令位置检测装置多次检测,并且优势眼信息被计算。
发明46:根据发明35至41中的一个所述的立体显示设备,其中,优势眼信息获取装置接受用户的优势眼信息的输入操作。
发明47:根据发明35至46中的一个所述的立体显示设备,进一步包括:立体效果设定装置,用于接受指令立体图像的立体效果的量级的设定输入操作;以及指令立体图像生成装置,用于通过与立体效果的设定和输入量级相对应的视差量生成指令立体图像,其中:所述立体显示装置显示由所述指令立体图像生成装置生成的立体显示图像;并且所述检测区域判定装置也基于与立体效果的量级相对应的视差量来判定检测区域。
发明48:根据发明35至47中的一个所述的立体显示设备,进一步包括用于通过指令位置感测装置检测输入指令的用户的改变的用户改变检测装置。
发明49:根据发明48所述的立体显示设备,其中,用户改变检测装置计算由指令位置检测装置检测到的指令位置在由检测区域判定装置判定的检测区域的范围之外的次数或频率,并且基于计算结果来检测用户的改变。
发明50:根据发明48所述的立体显示设备,其中,用户改变检测装置创建关于由指令位置检测装置检测到的指令位置的历史信息并且基于关于指令位置的历史信息来检测用户的改变。
发明51:根据发明50所述的立体显示设备,其中,在一个实施例中,用户改变检测装置通过基于关于指令位置的历史信息检测优势眼或优势眼的敏锐度的改变来检测用户的改变。
发明52:根据发明48至51中的一个所述的立体显示设备,进一步包括执行下列各项中的至少一项的控制装置:校准处理,该校准处理获取关于新用户的优势眼信息并且相对于指令左眼图像和指令右眼图像的显示区域来判定检测区域的位置、尺寸和形状中的至少一个上的差别;检测模式切换处理,该检测模式切换处理执行从第一检测模式到第二检测模式的切换,该第一检测模式基于根据用户的优势眼或优势眼的敏锐度的优势眼信息来判定检测区域,该第二检测模式将与第一检测模式相比具有更大的尺寸的检测区域设定成默认;显示模式切换处理,该显示模式切换处理执行从显示指令立体图像的立体显示模式切换到显示平面指令图像的平面显示模式;以及输出通知的通知处理。
发明53:根据发明48至51所述的立体显示设备,进一步包括选择接收装置,该选择接收装置用于从用户接受在检测到用户的改变的情况下执行的处理的选择。
发明54:一种立体摄影设备,包括:根据发明45至52中的一个的立体显示设备;以及立体成像装置,用于获取通过从多个视点拍摄物体而拍摄的立体图像,其中所述立体显示装置组合拍摄的立体图像与指令立体图像并且执行立体显示。
发明54至72:分别对应于发明35至53的指令接受方法。
发明73:一种促使计算机执行根据发明18至34和54至72中的一个所述的指令接受方法的程序。
发明74:记录发明73中描述的程序的记录介质。也就是,可以在预定的记录介质中记录程序并且提供和使用该程序。
虽然已经描述了各种本发明的各种模式,但是毋庸赘述,该说明书中描述的事项可以尽可能被组合并且被实施。
本发明并不限于该说明书中描述的示例和附图所示的示例,并且自然的是,在不脱离本发明的范围的情况下,能够执行各种设计改变和改进。
附图标记清单
10立体显示设备
11图像输入单元
12三维图像处理单元
13立体显示单元
14立体效果设定单元
15存储单元
16触摸传感器
17空间传感器
18指令位置检测区域判定单元
19确定单元
20优势眼信息设定单元
21优势眼测量单元
30控制单元
53R指令右眼图像
53L指令左眼图像
54立体图像
56指令位置检测区域

Claims (21)

1.一种立体显示设备,包括:
立体显示装置,所述立体显示装置用于显示指令立体图像,通过要由指示体指令的指令左眼图像和指令右眼图像来形成所述指令立体图像;
空间传感器,所述空间传感器检测在所述立体显示装置的显示屏幕上由所述指示体指令的指令位置并且检测所述立体显示装置的所述显示屏幕与所述指示体之间的间隔;
确定装置,所述确定装置用于确定由所述空间传感器检测到的所述指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;
视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的所述间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的所述视差量。
图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量,来将所述指令立体图像显示在所述立体显示装置上。
2.一种立体显示设备,包括:
立体显示装置,所述立体显示装置用于显示指令立体图像,通过要由指示体指令的指令左眼图像和指令右眼图像来形成所述指令立体图像;
触摸传感器,所述触摸传感器被布置在所述立体显示装置的显示屏幕上,并且检测由所述指示体触摸的指令位置;
确定装置,所述确定装置用于确定由所述触摸传感器检测到的所述触摸的所述指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;
空间传感器,所述空间传感器检测所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的间隔;
视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的所述间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的所述视差量;以及
图像处理装置,所述图像处理装置用于通过由视差量判定装置判定的所述视差量,来将所述指令立体图像显示在所述立体显示装置上。
3.根据权利要求1所述的立体显示设备,其中,当由所述空间传感器检测到所述指示体到所述显示屏幕的指令时,所述图像处理装置将所述指令立体图像切换至平面显示。
4.根据权利要求2所述的立体显示设备,其中,当由所述触摸传感器检测到所述指示体到所述显示屏幕的所述触摸时,所述图像处理装置将所述指令立体图像切换至平面显示。
5.根据权利要求1至4中的任一项所述的立体显示设备,其中:
所述空间传感器检测所述指示体在空间上的三维位置;以及
在多个指令立体图像被显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的所述三维位置来指定面对所述指示体的指令立体图像,并且,仅针对在所述多个指令立体图像当中面对所述指示体的指令立体图像,所述图像处理装置根据所述间隔上的减小来减小所述指令右眼图像与所述指令左眼图像之间的视差量。
6.根据权利要求1至5中的任一项所述的立体显示设备,其中:
所述空间传感器检测所述指示体在空间上的三维位置;以及
在多个指令立体图像被显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的所述三维位置来指定面对所述指示体的指令立体图像,以及,当检测到所述指示体到所述显示屏幕的指令时,所述图像处理装置仅将在所述多个指令立体图像当中面对所述指示体的指令立体图像切换至平面显示。
7.根据权利要求1至6中的任一项所述的立体显示设备,其中:
所述空间传感器检测所述指示体在空间上的三维位置;以及
在多个指令立体图像被显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的所述三维位置来指定面对所述指示体的立体图像,并且仅将在所述多个指令立体图像当中面对所述指示体的指令立体图像的尺寸进行放大。
8.根据权利要求1至7中的任一项所述的立体显示设备,其中:
所述空间传感器检测所述指示体在空间上的三维位置;以及
在多个指令立体图像被显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的所述三维位置来指定面对所述指示体的立体图像,并且使周围的指令立体图像移动远离面对所述指示体的所述指令立体图像。
9.根据权利要求1至8中的任一项所述的立体显示设备,其中,所述视差量判定装置根据由所述空间传感器检测到的所述间隔上的增加,来增加所述指令右眼图像与所述指令左眼图像之间的所述视差量。
10.根据权利要求9所述的立体显示设备,其中:
所述空间传感器检测所述指示体在空间上的三维位置;以及
在多个指令立体图像被显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的所述三维位置来指定面对所述指示体的指令立体图像,并且,仅针对在所述多个指令立体图像当中与所述指示体相对应的指令立体图像,所述图像处理装置根据所述间隔上的增加,来增加所述指令右眼图像与所述指令左眼图像之间的所述视差量。
11.根据权利要求1至10中的任一项所述的立体显示设备,进一步包括存储装置,所述存储装置用于存储指示用户优势眼的优势眼信息,
其中,当根据所述间隔上的减小来减小所述视差量时,基于存储在所述存储装置中的所述优势眼信息,所述图像处理装置将所述指令右眼图像和所述指令左眼图像之中用于不是优势眼眼睛的指令图像的显示位置移动至用于所述优势眼的指令图像的显示位置。
12.根据权利要求1至10中的任一项所述的立体显示设备,进一步包括存储装置,所述存储装置用于存储指示用户优势眼的优势眼信息和所述优势眼的敏锐度,
其中,当根据在所述间隔上的减小来减小所述视差量时,基于存储在所述存储装置中的所述优势眼信息,所述图像处理装置将所述指令右眼图像的显示位置和所述指令左眼图像的显示位置两者移动至更靠近下述位置:该位置比位于所述指令右眼图像与所述指令左眼图像之间的中间位置更靠近用于所述优势眼的指令图像的显示位置,并且在取决于所述优势眼敏锐度的程度上更靠近用于所述优势眼的所述指令图像的所述显示位置。
13.根据权利要求11和12中的任一项所述的立体显示设备,进一步包括检测区域判定装置,所述检测区域判定装置用于至少基于所述优势眼信息,来判定在所述立体显示装置的所述显示屏幕上的所述指令位置的检测区域。
14.根据权利要求1至13中的任一项所述的立体显示设备,进一步包括优势眼信息获取装置,所述优势眼信息获取装置用于通过基于所述指令立体图像的视差量和在所述指令立体图像被显示在所述立体显示装置上状态下检测到的指令位置来计算优势眼信息,从而获取所述优势眼信息。
15.根据权利要求1至13中的任一项所述的立体显示设备,进一步包括优势眼信息获取装置,所述优势眼信息获取装置用于通过接受所述优势眼信息的输入操作来获取所述优势眼信息。
16.根据权利要求1至15中的任一项所述的立体显示设备,其中,所述空间传感器是立体成像传感器、红外光传感器和电容传感器中的一个。
17.根据权利要求1至16中的任一项所述的立体显示设备,其中,所述指示体是手指和笔中的一个。
18.一种在立体显示设备中的指令接受方法,所述立体显示设备包括立体显示装置和空间传感器,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像,所述空间传感器用于检测在所述立体显示装置的显示屏幕上由所述指示体指令的指令位置并且检测在所述立体显示装置的所述显示屏幕与所述指示体之间的间隔,所述设备执行:
通过预定的视差量将所述指令立体图像显示在所述立体显示装置上的步骤;
通过所述空间传感器获取在所述立体显示装置的显示屏幕与所述指示体之间的间隔的步骤;
根据在所获取的间隔上的减小来减小所述指令左眼图像与指令右眼图像之间的视差量的步骤;以及
通过判定由所述空间传感器检测到的所述指令位置是否在与所述指令立体图像相对应的检测区域内来接受与所述指令立体图像相对应的指令的步骤。
19.一种在立体显示设备中的指令接受方法,所述立体显示设备包括立体显示装置、触摸传感器和空间传感器,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的位置,所述空间传感器检测在所述触摸传感器的触摸表面或所述立体显示装置的所述显示屏幕与所述指示体之间的空间上的间隔的变化,所述设备执行:
通过预定的视差量将所述指令立体图像显示在所述立体显示装置上的步骤;
从所述空间传感器获取在所述立体显示装置的显示屏幕与所述指示体之间的间隔的步骤;
根据在从所述空间传感器获取的间隔上的减小来减小所述指令左眼图像与指令右眼图像之间视差量的步骤;以及
通过判定由所述触摸传感器检测到触摸的所述位置是否在与所述指令立体图像相对应的检测区域内来接受与所述指令立体图像相对应指令的步骤。
20.一种促使所述立体显示设备执行根据权利要求18至19中的任一项的指令接受方法的程序。
21.一种计算机可读记录介质,所述计算机可读记录介质记录促使所述立体显示设备执行根据权利要求18至19中的任一项的指令接受方法的程序。
CN2012800170054A 2011-03-31 2012-03-01 立体显示设备、接受指令的方法、程序及记录其的介质 Pending CN103460257A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610878202.5A CN106896952A (zh) 2011-03-31 2012-03-01 立体显示设备和接受指令的方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-079295 2011-03-31
JP2011079295 2011-03-31
PCT/JP2012/055176 WO2012132749A1 (ja) 2011-03-31 2012-03-01 立体表示装置、指示受付方法及びプログラムならびにその記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201610878202.5A Division CN106896952A (zh) 2011-03-31 2012-03-01 立体显示设备和接受指令的方法

Publications (1)

Publication Number Publication Date
CN103460257A true CN103460257A (zh) 2013-12-18

Family

ID=46930496

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201610878202.5A Pending CN106896952A (zh) 2011-03-31 2012-03-01 立体显示设备和接受指令的方法
CN2012800170054A Pending CN103460257A (zh) 2011-03-31 2012-03-01 立体显示设备、接受指令的方法、程序及记录其的介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201610878202.5A Pending CN106896952A (zh) 2011-03-31 2012-03-01 立体显示设备和接受指令的方法

Country Status (5)

Country Link
US (1) US9727229B2 (zh)
EP (1) EP2693405A4 (zh)
JP (1) JP5693708B2 (zh)
CN (2) CN106896952A (zh)
WO (1) WO2012132749A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103997329A (zh) * 2014-05-14 2014-08-20 广东美的厨房电器制造有限公司 家电设备操控界面显示方法以及显示装置和家电设备
CN106019584A (zh) * 2015-03-27 2016-10-12 精工爱普生株式会社 显示装置、显示装置的控制方法以及程序

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
US9979946B2 (en) * 2013-02-19 2018-05-22 Mirama Service Inc I/O device, I/O program, and I/O method
CN104991684A (zh) * 2015-07-23 2015-10-21 京东方科技集团股份有限公司 触控设备及其工作方法
KR20170024453A (ko) * 2015-08-25 2017-03-07 한신대학교 산학협력단 3차원 가상 버튼을 이용한 포인팅 장치
US20180267671A1 (en) * 2017-03-15 2018-09-20 Edito Co., Ltd. Touch screen system and method for driving the same
CN108334191B (zh) * 2017-12-29 2021-03-23 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105735A (ja) * 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2005316790A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法および情報入出力装置並びにプログラム
CN1700776A (zh) * 2004-05-21 2005-11-23 株式会社东芝 三维图像显示方法、三维图像捕获方法以及三维显示装置
WO2008062586A1 (fr) * 2006-11-22 2008-05-29 Sharp Kabushiki Kaisha Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
US20100315417A1 (en) * 2009-06-14 2010-12-16 Lg Electronics Inc. Mobile terminal and display controlling method thereof

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06131442A (ja) * 1992-10-19 1994-05-13 Mazda Motor Corp 3次元虚像造形装置
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US8264477B2 (en) * 2005-08-05 2012-09-11 Pioneer Corporation Image display apparatus
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
JP4657331B2 (ja) 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US8704881B2 (en) 2009-06-01 2014-04-22 Panasonic Corporation Stereoscopic image display apparatus
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5593972B2 (ja) * 2010-08-30 2014-09-24 ソニー株式会社 情報処理装置、立体視表示方法、及びプログラム
GB2485140A (en) * 2010-10-26 2012-05-09 Sony Corp A Method and Apparatus For Inserting Object Data into a Stereoscopic Image
US20120127155A1 (en) * 2010-11-23 2012-05-24 Sharp Laboratories Of America, Inc. 3d comfort and fusion limit empirical model

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105735A (ja) * 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2005316790A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法および情報入出力装置並びにプログラム
CN1700776A (zh) * 2004-05-21 2005-11-23 株式会社东芝 三维图像显示方法、三维图像捕获方法以及三维显示装置
WO2008062586A1 (fr) * 2006-11-22 2008-05-29 Sharp Kabushiki Kaisha Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
US20100315417A1 (en) * 2009-06-14 2010-12-16 Lg Electronics Inc. Mobile terminal and display controlling method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王爱红 等: "立体显示中立体深度与视差图获取的关系", 《光学精密工程》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103997329A (zh) * 2014-05-14 2014-08-20 广东美的厨房电器制造有限公司 家电设备操控界面显示方法以及显示装置和家电设备
CN106019584A (zh) * 2015-03-27 2016-10-12 精工爱普生株式会社 显示装置、显示装置的控制方法以及程序

Also Published As

Publication number Publication date
JPWO2012132749A1 (ja) 2014-07-24
EP2693405A1 (en) 2014-02-05
WO2012132749A1 (ja) 2012-10-04
US9727229B2 (en) 2017-08-08
US20140022198A1 (en) 2014-01-23
JP5693708B2 (ja) 2015-04-01
EP2693405A4 (en) 2014-09-03
CN106896952A (zh) 2017-06-27

Similar Documents

Publication Publication Date Title
CN103460257A (zh) 立体显示设备、接受指令的方法、程序及记录其的介质
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
CN103139463B (zh) 扩增实境的方法、系统及移动装置
JP5446769B2 (ja) 3次元入力表示装置
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
US9445084B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10665014B2 (en) Tap event location with a selection apparatus
EP2976881B1 (en) 3d display device and method for controlling the same
JP6560740B2 (ja) バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体
US20120159330A1 (en) Method and apparatus for providing response of user interface
US10203837B2 (en) Multi-depth-interval refocusing method and apparatus and electronic device
KR20120095084A (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
CN103150009A (zh) 信息处理装置、信息处理方法和程序
KR101441882B1 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법
EP3286601B1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
EP2788839A1 (en) Method and system for responding to user&#39;s selection gesture of object displayed in three dimensions
JPWO2011114564A1 (ja) 立体画像表示装置およびその制御方法
CN102508548A (zh) 一种电子信息设备的操作方法及系统
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP6053845B2 (ja) ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20131218

RJ01 Rejection of invention patent application after publication