CN102566902A - 使用对象的移动来选择项的装置和方法 - Google Patents
使用对象的移动来选择项的装置和方法 Download PDFInfo
- Publication number
- CN102566902A CN102566902A CN2011103730676A CN201110373067A CN102566902A CN 102566902 A CN102566902 A CN 102566902A CN 2011103730676 A CN2011103730676 A CN 2011103730676A CN 201110373067 A CN201110373067 A CN 201110373067A CN 102566902 A CN102566902 A CN 102566902A
- Authority
- CN
- China
- Prior art keywords
- control module
- screen
- moving
- visual feedback
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
提供一种项选择装置,其包括检测用户的移动的移动检测单元,显示图像信息的屏幕,存储数据的显示图像存储单元,所述数据用于生成将被显示在屏幕上的图像,生成将要显示在屏幕上的图像的显示图像生成单元,以及进行控制以使得多个项以一维排列、二维排列和三维排列中的一种显示在屏幕上的控制单元,其中,所述控制单元从移动检测单元接收信号以测量对象沿x轴、y轴和z轴方向的至少一个方向的移动,并且响应于测量出的用户的移动并且根据多个项在屏幕上的排列,发出用于从多个项之中选择至少一项的命令或提供关于所述至少一项的视觉反馈。
Description
相关申请的交叉引用
本申请要求于2010年11月22日在韩国知识产权局提交的韩国专利申请No.10-2010-0116067的优先权,通过引用的方式将其内容全部合并于此。
技术领域
此处提供的与本公开一致的装置和方法涉及对项(item)的选择,并且更具体地,涉及从显示在屏幕上的多个项之中选择期望的项。
背景技术
用户界面(UI)一般提供临时或连续的访问以允许用户与对象、系统、设备或程序等通信。UI可以包括实际或虚拟的介质。通常,UI可以被划分成输入和输出,用户在所述输入上操作系统,并且在所述输出上指示对到系统的输入的响应或结果。
所述输入一般要求输入装置来移动光标,或者获得用户的操纵来选择具体对象。所述输出一般要求输出装置来进行操作,以使得用户可以利用视觉、听觉或触觉来确认对其输入的响应。
最近,为了向包括电视和游戏控制台的设备的用户提供更多的方便,已经开始研究响应于在远距离处输入的并且被识别为输入的用户移动(movement)来提供UI的反应的技术。根据该技术,可以使用UI从显示在屏幕上的多个项之中选择期望的项。
发明内容
本发明构思的示范性实施例克服上述缺点及其它上面未描述的缺点。此外,不要求本发明构思克服上面描述的缺点,并且本发明构思的示范性实施例可以不必克服上面描述的任何问题。
本发明的一方面提供一种项选择装置,可以包括:可以检测对象的移动的移动检测单元;以及控制多个项以一维、二维和三维排列中的一种显示在屏幕上的控制单元,其中所述控制单元可以从移动检测单元接收信号并且测量对象沿x轴、y轴和z轴方向中的至少一方向的移动,以及其中,响应于测量的移动,控制单元可以根据所述多个项在屏幕上的排列来输出相应于下述两个中的一个的命令:对所述多个项的至少一个项的选择和关于所述多个项的至少一个的视觉反馈。
如果所述多个项以一维排列来排列并且所述对象的移动在相对所述一维排列的方向的预定角度内,则所述控制单元可以输出相应于关于所述至少一个项的视觉反馈的命令,以及如果所述多个项以一维排列来排列并且所述对象的移动不在所述预定角度内,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果在从输出相应于视觉反馈的命令开始的预定时间内在所述对象的移动的变化被保持,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果所述对象的移动相应于预定模式,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果所述多个项以二维排列来排列并且对象的移动沿x轴和y轴方向,则所述控制单元可以输出相应于关于所述至少一个项的视觉反馈的命令,以及如果所述多个项以二维排列来排列并且所述对象的移动沿z轴方向,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果在从输出相应于视觉反馈的命令开始的预定时间内所述对象的移动的变化被保持,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果所述对象的移动相应于预定的特定模式,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果所述多个项以三维排列被排列,则响应于所述对象的移动,所述控制单元可以输出相应于关于所述至少一个项的视觉反馈的命令,以及如果在从输出相应于视觉反馈的命令开始的预定时间内所述对象的移动的变化被保持,则所述控制单元可以输出相应于对所述至少一个项的选择的命令,以及如果对象的移动相应于预定的特定模式,则所述控制单元可以输出相应于对所述至少一个项的选择的命令。
如果测量出的所述对象的移动比预定的基准速度快,则所述控制单元可以控制屏幕显示第二多个项,并且可以输出相应于关于第二多个项的至少一个的第二视觉反馈的第二命令。
如果所述视觉反馈排列在屏幕的边界上并且如果所述测量的移动向屏幕的边界移动,则所述控制单元可以控制屏幕显示第二多个项,并且所述控制器可以输出相应于关于第二多个项的至少一个的第二视觉反馈的命令。
本发明的另一方面提供一种项选择装置,可以包括:可以显示多个项的屏幕;以及可以以一维排列在屏幕上显示多个项的控制单元,其中所述控制单元可以测量对象的移动,以及其中如果对象的移动在相对所述多个项的排列的预定角度内,则所述控制器可以控制屏幕提供关于所述多个项的至少一个项的视觉反馈,以及其中如果对象的移动偏离相对所述多个项的排列的预定角度,则所述控制器可以选择所述多个项的至少一个项。
所述控制单元可以从移动检测单元接收该移动检测单元响应于对象的移动可以生成的信号。
所述移动检测单元可以包括拍摄对象并获得图像帧的视觉感测器。
所述移动检测单元可以包括遥控器,所述遥控器包括惯性感测器、移动感测器、加速计和光学感测器中的至少一个。
本发明的另一方面提供一种用于从显示在屏幕上的多个项之中选择至少一个项的方法,其中所述方法可以包括:以一维、二维和三维排列在屏幕上显示多个项,检测对象的移动;以及测量对象沿x轴、y轴和z轴方向中的至少一个方向的移动,以及响应于测量出的移动,根据多个项在屏幕上的排列,执行下列操作中一个:发出用于选择所述多个项中的至少一个的命令和提供关于所述多个项的至少一个的视觉反馈。
如果所述多个项以一维排列被排列,则所述方法还包括下述中的一个:如果对象的移动被测量为沿落在相对排列的方向的预定角度内的方向,则提供关于所述至少一个项的视觉反馈,以及如果对象的移动被测量为沿偏离相对排列的方向的预定角度的方向,则选择至少一个项。
所述方法还可以包括:如果在从提供视觉反馈的时间开始的预定时间内对象的移动的变化被保持,则选择所述至少一个项。
所述方法还可以包括如果对象的移动相应于预定的特定模式,则选择所述至少一个项。
如果所述多个项以二维排列被排列,则所述方法还可以包括:如果对象的移动沿x轴和y轴方向,则提供关于所述至少一个项的视觉反馈;以及如果对象的移动沿z轴方向,则选择所述至少一个项。
所述方法还可以包括如果在从提供视觉反馈的时间开始的预定时间内对象的移动的变化被保持,则选择所述至少一个项。
附图说明
通过参考附图描述本发明构思的特定示范性实施例,本发明构思的上述和/或其他方面将变得更加清楚,其中:
图1示出根据示范性实施例的项选择装置的配置;
图2是根据示范性实施例的、对于对象的移动提供用户接口(UI)的反应的视图;
图3是示出根据示范性实施例的感测器的视图;
图4是示出根据示范性实施例的图像帧和图像帧上的对象的视图;
图5是示出根据示范性实施例的、沿垂直方向和水平方向的移动识别的范围的视图;
图6是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项一维地排列在下部;
图7是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项一维地排列在上部;
图8是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项一维地排列在左部;
图9是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项一维地排列在右部;
图10是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项一维地沿从左上部到右下部的方向排列;
图11是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项一维地沿从左下部到右上部的方向排列;
图12是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项两维地排列;
图13是示出根据示范性实施例的屏幕的示例的视图,在该屏幕上多个项三维地排列;
图14是示出响应于在多个项一维地、二维地或三维地排列在屏幕上的状态中输入的对象的移动,项选择装置选择项或提供视觉反馈的示范性过程的视图。
具体实施方式
现在将参照附图更详细地描述本发明构思的特定示范性实施例。
在下面的描述中,即使在不同的附图中相同附图标号也用于相同元件。提供在描述中定义的内容,诸如具体构造和元件,以助于对本发明构思的全面理解。因此,明显清楚地是,可在没有那些明确定义的内容的情况下也可以实现本发明构思的示范性实施例。此外,不详细描述公知功能或构造,因为其会以不必要的细节模糊本发明。
此外,此处或在所附权利要求中使用的单数形式意图包括复数形式,除非另作说明。此外,此处使用的表达“和”应该被理解为包含列出的相关项的一个或多个项的每个可能的组合。
图1示出根据示范性实施例的项选择装置的配置。参照图1,项选择装置100可以包括检测用户的移动的移动检测单元110、在其上显示图像信息的屏幕150、在其中存储用于生成要被显示在屏幕上的图像的数据的显示图像存储单元130、生成要被显示在屏幕上的图像的显示图像生成单元140、以及进行控制以使得显示在屏幕上的多个项一维地、二维地或三维地排列的控制单元120。控制单元120可以从移动检测单元110接收信号、测量对象在x轴、y轴和z轴之中的至少一个方向上的移动、以及响应于测量的用户移动并且根据在屏幕上的多个项的排列,来关于多个项之中的至少一项发出选择命令或提供视觉反馈。
移动检测单元110可以实现为接收对象的移动的输入并且据此获得基础数据(base data)的部件。移动检测单元110可以根据对象的移动生成电信号。该电信号可以是模拟信号或数字信号。操作检测单元110可以是包括惯性感测(inertial sensor)、运动感测器、加速计和光学感测器中的至少一个的遥控器(‘remocon’)。遥控器可以响应于对象(在x轴、y轴和z轴上)的三维移动生成电信号。对象可以是用户或用户的一部分。如果用户手持遥控器移动,则作为响应,遥控器的惯性感测器可以根据x轴、y轴或z轴移动来生成电信号。x轴、y轴和z轴操作的电信号可以经由有线/无线通信被发送到项选择装置。
移动检测单元110可以是视觉感测器。视觉感测器可以拍摄对象,并且获得包括视觉感测器和对象之间的距离信息的图像信息。视觉感测器可以作为单独的模块被提供或者包括在项选择装置中。
移动检测单元110可以获得对象的位置。对象的位置可以包括下述中的至少一个:图像帧上的垂直方向上的坐标、图像帧上的水平方向上的坐标以及表示在对象和移动检测单元110之间的距离的对象的深度信息。对象的深度信息可以被表示为相对于垂直于图像帧的方向的坐标值。举例来说,移动检测单元110可以拍摄对象并且获得包含对象的深度信息的图像帧。图像帧可以被划分为多个区域并且所述多个区域的至少两个可以具有不同的阈值。移动检测单元110可以获得图像帧上的垂直方向上的坐标以及图像帧上的水平方向上的坐标,作为对象在图像帧上的位置。移动检测单元110还可以获得表示在对象与移动检测单元110之间的距离的对象的深度信息。深度感测器、二维相机或包括立体摄像机的三维相机可以被实现为移动检测单元110。
控制单元120可以使用图像帧计算对象的移动的大小。控制单元120可以检测位置并使用检测的位置生成相应于对象的移动的移动信息。也就是说,控制单元120可以基于所述位置生成关于图像帧的移动信息,以使得响应于对象的移动在每个相应的位置发生相应的事件。控制单元120还可以响应于移动信息来生成事件。
控制单元120可以使用至少一个存储的图像帧或关于对象的位置的数据来检测对象的移动。控制单元120可以计算检测到对象的移动的大小。举例来说,控制单元120可以基于连接对象的移动的开始点和结束点的线的长度,或者通过基于对象的移动的平均位置绘制假想线并参照该假想线的长度,来计算移动的大小。如果通过多个图像帧获得对象的移动,则对象的位置可以相应于与对象的移动对应的多个图像帧的至少一个位置,或者相应于使用多个图像帧的至少一个位置或者考虑在每个区域中移动所花费的时间来获得的中心位置。举例来说,对象的位置可以相应于下述位置:在对象的移动的第一图像帧上的对象的位置、在对象的移动的最后图像帧上的位置、或在上述两个位置之间的中心点。
控制单元120可以基于对象的位置生成移动信息,以使得响应于对象的移动发生相应的事件。根据事件,控制单元120可以通过图2的显示菜单220的屏幕来显示对于对象的移动的反应。
将参照图2到图4更详细地解释各个组件的操作。
图2的项选择装置210可以包括电视、游戏控制台和/或音频播放器。对象可以是用户260的身体、用户260的身体的一部分或由用户260使用的工具。
图3示出作为感测器的深度感测器110、光接收单元320、镜头(lens)322、红外滤光器324以及图像感测器326。
参照图3,感测器110包括红外发射单元310和光接收单元320。红外发射单元310和光接收单元320可以放置在相同的或彼此相邻的位置。感测器110可以根据光接收单元320具有作为唯一值的视场。通过红外发射单元310发射的红外线在到达包括放置在其前侧的对象的多个对象之后被反射,并且该反射的红外线可以被发射到光接收单元320。镜头322接收对象的光元素(optical element),并且红外滤光器324可以使接收的光元素当中的红外线穿过。图像感测器326可以将穿过的红外线转换成为电信号以获得图像帧。例如,图像感测器326可以是电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)等等。此时,可以根据对象的深度来揭示外形(outline)并且可以对每个外形进行信号处理以包括深度信息。可以通过使用从红外发射单元310发射的红外线到光接收单元320的飞行时间来获得深度信息。此外,通过接收/发射超声波或无线电波来检测对象的位置的装置也可以通过使用超声波或无线电波的飞行时间来获得深度信息。
操作检测单元110可以获得包括用户260的手270的图4的图像帧410。视觉感测器可以是项选择装置210的一部分或作为单独的模块被提供。图像帧410可以包括对象的轮廓(contour)和相应于轮廓的深度信息,所述对象的轮廓具有与等高线图(contour map)相似的特定范围的深度。轮廓412可以相应于图像帧410上的用户260的手270,并且包括表示在手270和操作检测单元110之间的距离的深度信息。轮廓414可以相应于用户的手臂的一部分,并且轮廓416可以相应于用户260的头和上身。轮廓418可以相应于在用户260后面的背景。轮廓412到轮廓418可以具有不同的深度信息。
控制单元120可以使用图像帧410来检测对象和对象的位置。控制单元120可以从图像帧410中检测图像帧410上的对象412并且进行控制以使得图像帧420仅包括检测到的对象422。此外,控制单元120可以进行控制以使得对象412在图像帧上具有不同的形式。举例来说,控制单元120可以进行控制以使得可以将图像帧430上的对象432显示为至少一个点、线或平面。
此外,控制单元120可以使得对象432被显示为图像帧430上的点,并且对象432的位置被显示为三维坐标。三维坐标包括x轴、y轴和z轴分量,其中x轴相应于图像帧上的水平方向、y轴相应于图像帧上的垂直方向。z轴可以相应于垂直于图像帧的方向,即,通过深度信息表示z轴的值。
控制单元120可以使用至少两个图像帧来跟踪对象的位置并且据此计算移动的大小。此外,控制单元120可以分别指示对象的移动的在x轴、y轴或z轴分量中的大小。
控制单元120可以进行控制以使得以一维、二维和三维排列中的一种来显示屏幕上的多个项。显示在屏幕上的项可以是菜单项或内容项。举例来说,所述内容可以包括视频图像、静止图像或音乐文件。此外,举例来说,内容项可以包括表示视频图像的缩略图像、表示静止图像的缩略图像、表示广播信道的缩略图像、表示音乐文件的唱片(album)图像或表示文件名的图标。
菜单项和内容项可以被存储在显示图像存储单元130中。举例来说,显示图像存储单元130可以是计算机可读记录介质。计算机可读记录介质的示例包括诸如硬盘、软盘或磁带的磁介质,诸如CD-ROM或DVD的光学介质,诸如可光读磁盘的磁光介质,或诸如ROM、RAM的固态存储器,或者闪存。
控制单元120可以进行控制以使得项被从显示图像存储单元130读出并且以一维、二维和三维排列中的至少一种显示在屏幕上。控制单元120可以以一维、二维或三维排列将项显示在屏幕150上,而无需来自用户的单独的命令。控制单元120可以根据要被显示在屏幕150上的项的数量来确定一维、二维和三维排列。举例来说,如果在屏幕150上显示50个或更少项,则控制单元120可以进行控制以使得一维地排列所述多个项。如果在屏幕150上显示300个或更少项,则控制单元120可以进行控制以使得两维地排列所述多个项。如果在该屏幕上显示300个或更多项,则控制单元120可以进行控制以使得三维地排列所述多个项。
项选择装置可以仅以一维排列在屏幕上显示所述多个项。或者,项选择装置可以仅以二维排列在屏幕上显示所述多个项。或者,项选择装置可以仅以三维排列在屏幕上显示所述多个项。
此外,在一些示范性实施例中,控制单元120可以根据在初始阶段由用户设置的显示模式以一维,二维和三维排列中的一种在屏幕150上显示项。举例来说,如果用户选择一维排列,则可以以一维排列,即,以x方向、y方向以及对角线方向在屏幕150上显示多个项。如果用户选择二维排列,则可以在屏幕150上二维地显示多个项。如果用户选择三维排列,则可以在屏幕150上三维地显示多个项。
控制单元120可以从移动检测单元110接收信号并且测量对象在x轴、y轴和z轴中的至少一个轴中的移动。从移动检测单元110输出的信号被输入到控制单元120内,并且控制单元120通过分析该信号来测量对象在三维空间中的移动。该信号可以包括x轴分量、y轴分量或z轴分量,并且控制单元120以预定时间间隔测量该信号、测量在相应于x轴分量、y轴分量和z轴分量的值的变化,从而测量对象的移动。对象的移动可以包括用户的手部移动。如果用户移动他的手,则移动检测单元110输出信号作为响应并且控制单元120接收信号从而确定移动的变化、移动方向和速度。
控制单元120可以响应于测量的移动并且根据所述多个项在屏幕150上的排列模式,关于所述多个项中的至少一个发出选择命令或提供视觉反馈。响应于检测到对象的移动,控制单元120确定当前显示在屏幕上的多个项是以一维、二维还是三维来排列的。控制单元120可以根据确定的结果感知同一对象在多个项上的移动或感知用于选择项的命令。如果多个项沿x轴一维地排列,则控制单元120可以响应于沿x轴方向的移动提供关于显示在屏幕上的多个项的至少一个的视觉反馈。举例来说,视觉反馈可以包括以亮色指示相应项的突出显示,或以不同的颜色或大小进行指示。例如,如果用户沿x轴方向移动他的手,则控制单元120可以根据沿x轴方向的移动在屏幕上移动被突出显示项的位置。如果用户沿y轴方向移动他的手,则作为响应控制单元120可以进行控制以使得而在屏幕上被突出显示的项可以被选择。控制单元120可以进行控制以使得:如果选择了项,则将选择的项的子项显示在屏幕上或重放相应于选择的项的内容,或者选择相应于选择的项的广播信道。
此外,如果多个项一维地排列,则当对象的移动被测量为在与多个项排列的方向的角度在预定角度内的方向中时,则控制单元120可以提供关于多个项的至少一个的视觉反馈,或者当对象的移动被测量为在与多个项排列的方向的角度超过预定角度的方向中时,则控制单元120可以选择至少一个项。
屏幕150可以是通用显示装置。举例来说,诸如LCD、CRT、PDP等的显示装置可以被实现为屏幕。
图5示出根据示范性实施例的、响应于对象沿垂直方向和水平方向的移动来感知(perceive)移动的范围。虚线530、525彼此相交。虚线530、525成90度角。随着对象510移动到彼此交叉的虚线530、525内定义的区域515、545,控制单元可以感知水平方向中的移动。举例来说,如果对象在落在相对x轴方向545成+45度和-45度之间的范围以及+135度和-135度之间的范围内的方向中移动,则控制单元可以感知对象沿水平方向移动。也就是说,如果对象510向方向540、545和550移动,则控制单元可以感知对象510沿水平方向移动。
此外,虚线530、525以90度角彼此相交。区域590、585定义在彼此交叉的虚线530,525内。举例来说,如果对象在落在相对x轴方向545成+45度和+135度之间的范围560以及相对x轴方向545成-135度和-45度之间的范围(580)的方向中,则控制单元可以感知对象沿垂直方向移动。也就是说,如果对象510在区域590、585内移动,则控制单元可以感知对象510沿垂直方向移动。例如,如果对象510向方向565、570、575移动,则控制单元可以感知对象510的移动是沿垂直方向。
图6是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项一维地排列在下部。参照图6以及图2,多个项显示在屏幕610上。也就是说,多个项650、652、654、656、658一维地排列在屏幕610上。例如,控制单元可以沿x轴方向以一维排列来显示多个项650、652、654、656、658。参照图2,对象680可以是用户的手270,并且处于沿z轴方向离屏幕预定距离处。对象680可以沿x轴方向、y轴方向或z轴方向移动。控制单元可以测量对象680沿x轴方向、y轴方向以及z轴方向中的至少一个方向的移动。如果对象680的移动被测量为沿多个项650、652、654、656、658的排列方向并且在预定角度内,则控制单元可以提供关于至少一个项的视觉反馈。举例来说,控制单元可以通过突出显示项652来提供视觉反馈。控制单元确定屏幕上的多个项650、652、654、656、658是否沿水平方向690或垂直方向692。也就是说,控制单元可以确定多个项650、652、654、656、658是沿x轴方向690还是沿y轴方向692排列。
控制单元还可以确定对象680的移动是沿x轴方向690还是y轴方向692。如果排列是沿x轴方向并且如果对象680移动的方向落在相对于x轴方向的预定角度内,则控制单元可以提供关于相应移动的视觉反馈。举例来说,如果用户沿x轴方向移动他的手,则控制单元可以响应于该移动使得光标显示在屏幕上或使得多个项650、652,654、656、658中的至少一个680被突出显示。
在一个示例中,如图5中所示,预定角度可以包括相对项排列的方向成+45度和-45度之间的范围535以及相对项排列的方向成+135度和-135度之间的范围555。如果排列沿x轴方向并且如果对象680的移动相对x轴方向背离预定角度,则控制单元还可以进行控制以使得至少一个项被选择。举例来说,如果在项680被突出显示的状态中用户沿y轴方向移动他的手,则响应于这一移动、控制单元可以进行控制以使得突出显示的项680被选择。
控制单元可以响应于对象680的移动在屏幕上提供视觉反馈。提供视觉反馈可以包括在屏幕上指示光标,以及突出显示特定项。举例来说,响应于对象,控制单元可以在屏幕上显示光标602。对象680的移动可以被表示为光标在屏幕上的移动。光标可以根据对象的移动而在屏幕上移动。也就是说,光标602可以根据对象680的移动而在屏幕上移动。此外,控制单元可以通过对显示在屏幕上的多个项650,652、654、656、658中的至少一个652进行突出显示,来提供所述视觉反馈。该突出显示可以根据对象680的移动而在多个项当中移动。例如,如果在项652被突出显示的状态中对象680沿+x轴方向658移动,则以正常状态显示项652并且突出显示项654。如果对象680继续沿+x轴方向658移动,则以正常状态显示项654并且突出显示项656。视觉反馈可以包括利用光标进行指示、突出显示项、改变项的大小或改变项的颜色。
如果对象680沿偏离相对项的排列方向的所述预定角度的方向630移动,则控制单元可以感知到突出显示的项652被选择。如果用户在垂直方向移动他的手,则控制单元可以选择项,对该项提供视觉反馈。例如,如果用户沿垂直方向630移动他的手,则控制单元可以进行控制以使得突出显示的项652被选择。如果突出显示的项652被选择,则控制单元可以在屏幕上显示项652的子项660、662,664。或者,根据对象680沿箭头方向666的移动,光标可以在屏幕上移动或子项目660、662、664可以依次被突出显示。
如果对象在子项662上沿z轴方向635、693移动,则控制单元可以感知到子项662被选择,从而使得相应于子项662的内容640将被放大显示。
此外,如果在对象的移动的变化在自从提供视觉反馈的时间之后的预定时间内保持在预定值内,则控制单元可以选择至少一个项。预定值可以包括屏幕上的项(例如,项654)的宽度655和高度657。然而,通过参考对象680的移动,该预定值可以用作改变在屏幕上显示的项被突出显示的位置的阈值。例如,如果对象680的移动在5cm之内,则在屏幕上可以不发生反应。也就是说,如果对象680在5cm内移动,则控制单元可以不改变屏幕上的项被突出显示的位置。然而,5cm仅是一个示例并且可以根据设计者的需要而改变。此外,如果被显示在屏幕上的光标602响应于对象680的移动而在预定时间内移动的距离在项656的宽度655和高度657之内,则控制单元可以进行控制以使得该被提供了视觉反馈的项被选择,并且与选择的项相关的下一操作被实行。例如,如果响应于对象680的移动的、屏幕上的移动在三秒内维持在小于项652的宽度和高度的值上,则控制单元可以感知到项652被选择从而实行与项652相关的下一操作。与项652相关的操作可以包括子菜单的出现或与该项相关的内容的重放。
此外,如果对象的移动相应于预定的特定模式,则控制单元可以选择至少一个项。举例来说,如果在为特定项提供了视觉反馈的状态中用户挥动相应于对象680的他的手,则控制单元可以进行控制以使得该特定项被选择。“特定模式”可以包括挥动相应于对象680的手,以及改变手的形状,诸如握拳。
图7是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项一维地排列在上部。参照图7以及图2,多个项显示在屏幕710上。也就是说,在屏幕710上以一维排列显示多个项750、752、754、756、758。举例来说,控制单元可以沿x轴方向一维地显示多个项750、752、754、756、758。参照图2,对象780可以是用户的手270,并且沿z轴方向与屏幕相距预定距离。对象780可以沿x轴方向、y轴方向或z轴方向移动。控制单元可以测量对象780沿x轴方向、y轴方向以及z轴方向中的至少一个方向的移动。如果对象680的移动被测量为沿多个项750、752、754、756、758的排列方向并且在预定角度内,则控制单元可以提供关于至少一个项的视觉反馈。举例来说,控制单元可以通过突出显示项752来提供视觉反馈。控制单元确定屏幕上的多个项750、752、754、756、758是否沿水平方向790或垂直方向792。也就是说,控制单元可以确定多个项750、752、754、756、758是沿x轴方向790还是Y轴方向792排列。
控制单元还可以确定对象780的移动是沿x轴方向790还是y轴方向792。如果排列是沿x轴方向并且如果对象780移动的方向落在相对x轴方向的预定角度内,则控制单元可以提供关于相应移动的视觉反馈。举例来说,如果用户沿x轴方向移动他的手,则控制单元可以响应于这一移动使得光标显示在屏幕上或突出显示多个项750、752、754、756、758中的至少一个780。
在一个示例中,如图5中所示,预定角度可以包括相对项排列的方向成+45度和-45度之间的范围535以及相对项排列的方向成+135度和-135度之间的范围555。如果对象780的排列沿x轴方向中并且如果对象780的移动相对x轴方向偏离预定角度,则控制单元还可以进行控制以使得至少一个项被选择。举例来说,如果在项780被突出显示的状态中用户沿y轴方向移动他的手,则响应于这一移动控制单元可以进行控制以使得突出显示的项780被选择。
控制单元可以响应于对象780的移动在屏幕上提供视觉反馈。假定视觉反馈可以包括在屏幕上指示光标,并且突出显示特定项。举例来说,响应于对象,控制单元可以在屏幕上显示光标702。对象780的移动可以被表示为屏幕上的光标的移动。光标可以根据对象的移动而在屏幕上移动。也就是说,光标702可以根据对象780的移动而在屏幕上移动。此外,控制单元可以通过对显示在屏幕上的多个项750、752、754、756、758中的至少一个752进行突出显示来提供所述视觉反馈。该突出显示可以根据对象780的移动而在多个项当中移动。例如,如果在项752被突出显示的状态中对象780沿+x轴方向758移动,则以正常状态显示项752并且突出显示项754。如果对象780持续沿+x轴方向758移动,则以正常状态显示项754并且突出显示项756。视觉反馈可以包括利用光标进行指示、突出显示项、改变项的大小或改变项的颜色。
如果对象780沿偏离相对项的排列方向的所述预定角度的方向730移动,则控制单元可以感知到突出显示的项被选择。如果用户沿垂直方向移动他的手,则控制单元可以选择被提供了视觉反馈的项。例如,如果用户沿垂直方向730移动他的手,则控制单元可以进行控制以使得突出显示的项752被选择。如果突出显示的项752被选择,则控制单元可以在屏幕上显示项752的子项760、762、764。或者,根据对象780沿箭头方向766的移动,光标可以在屏幕上移动或子项760、762、764可以依次被突出显示。
如果对象沿子项762上的z轴方向735、793移动,则控制单元可以感知到子项762被选择,从而使得相应于子项762的内容740将被放大显示。
图8是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项一维地排列在左部。参照图8,在屏幕810上沿y轴方向显示多个项850、852、854、856、858。对象880可以是如图2所示的用户的手270,并且沿z轴方向与屏幕相距预定距离。控制单元可以响应于对象880的移动向屏幕提供视觉反馈。控制单元可以在屏幕上显示光标(未示出),或者利用不同尺寸或不同颜色、以亮色突出显示或指示多个项850、852、854、856、858中的至少一个,以提供视觉反馈。
如果对象880移动的方向落在相对x轴方向的预定角度内并且落在相对y轴方向的预定角度内,则控制单元可以在屏幕810上显示光标或者突出显示多个项850、852、854、856、858中的至少一个。举例来说,预定角度可以包括以x轴方向为基准的+45度和+135度之间的范围以及-45度和-135度之间的范围。
如果对象880沿偏离相对x轴方向的所述预定角度并且偏离相对y轴方向的所述预定角度的方向830移动,则控制单元可以感知到被提供了视觉反馈的项被选择。例如,偏离所述预定角度的方向可以相应于以x轴方向为基准的+45度和-45度之间的范围以及+135度和-135度之间的范围。
例如,如果用户沿x轴方向830移动他的手,则控制单元可以使得突出显示的项852被选择。
如果突出显示的项852被选择,则控制单元可以使得被选择的项852的子项860,862、864显示在屏幕上。如果用户沿箭头方向866移动他的手,则光标可以被显示在屏幕上或者子项860、862、864可以被依次突出显示。
在子项862处,如果用户向朝向屏幕的z轴方向835移动他的手,则控制单元可以感知到子项862被选择从而相应于子项862的显示内容将被放大显示840。
图9是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项一维地显示在右部。参照图9,在屏幕910上沿y轴方向显示多个项950、952、954、956、958。对象980可以是如图2所示的用户的手270,并且沿z轴方向993与屏幕相距预定距离。控制单元可以响应于对象980的移动在屏幕上提供视觉反馈。控制单元可以在屏幕上显示光标902,或者利用不同尺寸或不同颜色、以亮色突出显示或指示多个项950、952、954、956、958中的至少一个,以提供该视觉反馈。
如果对象980沿落在相对y轴方向992的预定角度内的方向移动,则控制单元可以在屏幕910上显示光标902或者突出显示多个项950、952、954、956、958中的至少一个。举例来说,预定角度可以包括以x轴方向为基准的+45度和+135度之间的范围以及-45度和-135度之间的范围。
如果对象980沿偏离相对y轴方向992的预定角度的方向930移动,则控制单元可以感知到提供了视觉反馈的项被选择。例如,偏离所述预定角度的方向可以相应于以x轴方向为基准的+45度和-45度之间的范围以及+135度和-135度之间的范围。
例如,如果用户沿x轴方向930移动他的手,则控制单元可以使得突出显示的项954被选择。
如果突出显示的项954被选择,则控制单元可以使得被选择的项954的子项960,962、964被显示在屏幕上。如果用户沿箭头方向966移动他的手,则光标可以被显示在屏幕上或者子项960、962、964可以被依次突出显示。
在子项962上,如果用户将他的手向朝向屏幕的z轴方向935移动,则控制单元可以感知到子项962被选择从而相应于子项962的显示内容将被放大显示。
图10是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项一维地排列在从左上部到右下部的对角线上。参照图10,在屏幕1010上对角地显示多个项1050、1052、1054、1056。如图2中所示,对象1080可以是用户的手270,并且沿z轴方向与屏幕相距预定距离。控制单元可以响应于对象1080的移动向屏幕提供视觉反馈。控制单元可以在屏幕上显示光标(未示出),或者利用不同尺寸或者不同颜色、以亮色突出显示或指示多个项1050、1052、1054、1056、1058中的至少一个,以提供该视觉反馈。
如果对象1080沿对角线方向1020、1015并且在以对角线方向为基准的预定角度内移动,则控制单元可以在屏幕1010上显示光标1002,或者突出显示多个项1050、1052、1054、1056、1058中的至少一个。如果对象1080沿方向1030移动,该方向1030偏离垂直于对角方向的方向并且偏离以对角方向为基准的所述预定角度,则控制单元可以感知到被提供了视觉反馈的项被选择。例如,如果对象1080沿垂直于多个项排列的方向的方向1030移动,则控制单元可以进行控制以使得突出显示的项1054被选择。
如果突出显示的项1054被选择,则控制单元可以显示将被显示在屏幕上的项1054的子项1060、1062。随着对象沿箭头方向1066移动,可以在屏幕上显示光标,或者可以依次突出显示子项1060、1062。
如果在子项1062被突出显示的状态中对象沿z轴方向1093移动,则控制单元可以感知到子项1062被选择,从而使得相应于子项1062的显示1040内容将被放大显示。
图11是示出根据实施例的示范性屏幕,在该屏幕上多个项一维地排列在从右上部到左下部的对角线上。参照图11,在屏幕1110上对角地显示多个项1150、1152、1154、1156、1158。如图2中所示,对象1180可以是用户的手270,并且沿z轴方向与屏幕相距预定距离。控制单元可以响应于对象1180的移动向屏幕提供视觉反馈。控制单元可以在屏幕上显示光标1102,或者利用不同尺寸或者不同颜色、以亮色突出显示或指示多个项1150、1152、1154、1156、1158中的至少一个,以提供该视觉反馈。
如果对象1180沿对角线方向1120、1115并且在以对角线方向为基准的预定角度内移动,则控制单元可以在屏幕1110上显示光标(未示出),或者突出显示多个项1150、1152、1154、1156、1158中的至少一个。如果对象1180沿方向1130移动,该方向1130偏离垂直于对角线方向的方向并且偏离以对角线方向为基准的所述预定角度,则控制单元可以感知到被提供了视觉反馈的项被选择。例如,如果对象1180沿垂直于多个项排列的方向的方向1130移动,则控制单元可以进行控制以使得突出显示的项1154被选择。
如果突出显示的项1154被选择,则控制单元可以显示将被显示在屏幕上的项1154的子项1160、1162。随着对象沿箭头方向1166移动,可以在屏幕上移动光标,或者可以依次突出显示子项1160、1162。
如果在子项1162被突出显示的状态中对象沿z轴方向1193移动,则控制单元可以感知到子项1162被选择,从而使得相应于子项1162的显示1140内容将被放大显示。
图12是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项二维地排列。参照图12,在屏幕1210上二维地排列多个项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262。基于一个屏幕单元来分组多个项1240、1242、1244、1246、1248、1250,1252、1254、1256、1258,1260、1262。在屏幕的上部、下部、左部和右部上,具有与当前显示在屏幕上的项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262不同的多个项的一些组1222、1226、1220、1224被部分地显示。如果对象1280被放置在屏幕的边界上,则组1222、1226、1220、1224可以取代组1205而被显示在屏幕上。在屏幕的下部,多个项中的一些项1270、1272、1274、1276被显示在组1226上。如果对象1280沿x轴方向1230或y轴方向1232、1236移动,则控制单元可以提供关于多个项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262中的至少一个的视觉反馈,并且如果对象沿z轴方向移动,则控制单元可以选择多个项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262中的至少一个。
如果用户移动他的手,则控制单元可以将用户的手感知为对象1280。响应于对象的移动,控制单元可以使得光标1202显示在屏幕上,或者多个项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262中的至少一个被突出显示。通过光标1202或突出显示指示的项可以是视觉反馈的示例。例如,如果对象1280沿箭头方向移动,则控制单元可以沿箭头方向在屏幕上移动光标1202,或改变突出显示的项的位置。也就是说,控制单元可以依次突出显示项1258、1252、1244、1246。如果对象沿z轴方向1293移动,则控制单元可以感知到突出显示的项被选择。此处z轴方向1293可以相应于垂直于屏幕平面的方向。举例来说,如果用户朝向屏幕推进他的手,则控制单元可以感知到对象1280沿z轴方向1293移动,从而显示1240内容相应于通过光标指示或在屏幕上突出显示所指示的项。所述内容可以包括视频图像、静止图像、音乐、文本、菜单项和图形媒体。
此外,如果该对象的移动在从提供视觉反馈时起的预定时间内保持在预定值内,则控制单元可以进行控制以使得至少一个项被选择。该预定值可以包括屏幕上的多个项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262的宽度1255和高度1257。然而,通过参考对象1280的移动,预定值可以用作用来改变位置的阈值,所述位置是显示在屏幕上的项被突出显示的位置。例如,如果对象1280的移动在5cm之内,则可以在屏幕上不发生反应。也就是说,如果对象1280在5cm内移动,则控制单元可以不改变屏幕上的项被突出显示的位置。然而,5cm仅是一个示例并且可以根据设计者的需要而改变。此外,如果显示在屏幕上的光标1202响应于对象1280的移动在预定时间中在项1256的宽度1255和高度1257之内的距离内移动,则控制单元可以选择被提供了视觉反馈的项,并且实行与选择的项相关的下一操作。例如,如果响应于对象1280的移动的、屏幕上的移动维持在小于项1252的宽度和高度1255和高度1257的值上三秒,则控制单元可以感知到项1250被选择从而实行与项1250相关的下一操作。与项1250相关的操作可以包括子菜单的出现或与该项相关的内容的重放。
此外,如果对象的移动相应于预定的特定模式,则控制单元可以选择至少一个项。举例来说,如果在为特定项提供了视觉反馈的状态中用户挥动相应于对象1280的他的手,则控制单元可以进行控制以使得该特定项被选择。“特定模式”可以包括挥动相应于对象1280的手,并且改变手的形状,诸如握拳。
此外,如果对象1280的移动比预定基准速度快,则控制单元可以进行控制以使得与当前多个项不同的另外的多个项显示在屏幕上,并且向新显示的多个项的至少一个提供视觉反馈。举例来说,如果测量对象的移动的速度的控制单元确定测量到的对象的移动比预定基准速度慢,则控制单元可以进行控制以使得光标1202响应于对象的移动而在屏幕上移动,或者该多个项的一个被突出显示,以及被突出显示的项的位置响应于对象的移动而改变。如果确定对象的移动比预定基准速度快,则具有项1240、1242、1244、1246、1248、1250、1252、1254、1256、1258、1260、1262的当前显示的组1205可以被替换为另外的组1220、1222、1224、1226。如果对象快速向左侧1230移动,则控制单元可以使得当前显示的组1205消失并且新显示组1224。如果对象向上侧1232快速移动,则控制单元可以使得组1205消失并且显示组1226。
图13是示出根据示范性实施例的示范性屏幕,在该屏幕上多个项三维地排列。参照图13,多个项1340,1342、1344、1346、1348、1350、1352、1354,1356、1358、1360、1362作为一个组1320显示在屏幕1310上。组1322、1324还分别包括多个项。组1320、1322、1324三维地排列。组1320在屏幕上排列在前面,后面是组1322,然后最后是组1324。对象1380距屏幕1310预定距离1382。如果对象1380移动,则控制单元可以向屏幕提供视觉反馈作为响应。当多个项三维地排列时,如果在对象沿x轴方向1330、y轴方向1332或z轴方向1334移动,则控制单元可以提供关于至少一个项的视觉反馈。举例来说,如果对象沿x轴方向1330和y轴方向1332移动,则响应于对象的移动,控制单元可以使得光标1364显示在屏幕上、或使得多个项中的至少一个1350被突出显示1370,然后使得突出显示的项被重新定位。响应于对象沿z轴方向的移动,控制单元可以激活具有多个项的组。激活的组与那些未激活的组相比可以具有不同的透明度、亮度和颜色。例如,如果组1320被激活,则与其它组1320、1324相比,可以更加不透明地显示组1320。如果组1322被激活,则组1322可以与组1320、1324相比显得更不透明。
如果对象的移动的变化在从提供视觉反馈时起的预定时间中保持在预定值内,或者如果对象的移动相应于预置的特定运动,则控制单元可以进行控制以使得至少一个项被选择。例如,如果在被突出显示的项1350的位置处对象1380的移动在5cm之内,则控制单元可以进行控制以使得被突出显示的项1350被选择。然而,5cm仅是一个示例并且可以根据设计者的需要而改变。此外,控制单元可以实行与被选择的项相关的下一操作。与项1350相关的操作可以包括子菜单的出现或与该项相关的内容的重放。
此外,如果对象的移动相应于预定的特定模式,则控制单元可以选择至少一个项。举例来说,如果在通过光标1364或突出显示来指示特定项1350的状态中,用户挥动相应于对象1380的他的手,则控制单元可以进行控制以使得特定项1380被选择。“特定模式”可以包括挥动手,并且改变手的形状,诸如握拳。
图14是示出在以一维、二维和三维排列中的一种显示多个项的状态中,项选择装置响应于对象的移动而选择项或提供视觉反馈的示范性过程。在下面将参照图2、图6和图8以及图14更详细地解释示范性实施例。在一个示范性实施例中,在S1405,项选择装置可以以一维、二维和三维排列中的一种来显示多个项。在S1410,在多个项被显示在屏幕上的状态中,项选择装置检测对象的移动。S1415处的对象的移动可以是用户的手部移动。如果用户在屏幕的前面挥动他的手(参见图2),则项选择装置检测这一挥动并且测量对象沿x轴、y轴和z轴方向中的至少一个方向的移动。在S1420,项选择装置确定多个项的排列。响应于测量到的同样模式的移动,项选择装置依据屏幕上的多个项的排列,可以发出选择多个项中的至少一个项的命令或提供关于多个项中的至少一个项的视觉反馈。例如,响应于对象沿同样是x轴方向的移动,项选择装置依据项的排列,可以选择项、移动光标或改变被突出显示的项的位置。
在S1425,如果以一维排列显示多个项,则项选择装置确定多个项是否沿x轴方向排列。如果确定的结果指示多个项沿x轴方向排列,则项选择装置测量对象的移动的方向。如果测量出对象的移动在相对多个项排列的方向的预定角度内,项选择装置提供关于该至少一个项的视觉反馈。举例来说,相对排列的方向的预定角度可以包括排列的方向与对象的移动的方向之间的、在+45度和-45度之间的范围555以及+135度和-135度之间的范围535内的角度,如图5所示。响应于对象的移动,项选择装置可以在屏幕上指示光标或重定位被突出显示的项。在图6中示出对项进行重定位。参照图6,如果在项652被突出显示的状态中对象680沿+x轴方向658移动,则项选择装置可以响应于对象680的移动而突出显示项654,然后突出显示项656,再然后突出显示项658。此外,如果测量出对象的移动偏离相对排列的方向的预定角度,则项选择装置可以使得至少一个项被选择。举例来说,如图5所示,偏离相对排列的方向的预定角度的方向可以包括排列的方向与对象的移动的方向之间的、在+45度和+135度之间的范围560以及-135度和-45度之间的范围580内的角度。如果测量出对象的移动沿偏离相对x轴方向的预定角度的方向,则项选择装置可以选择至少一个项。举例来说,如图6中所示,如果多个项650、652、654、656、658沿水平方向(即,x轴方向)排列,则如果对象沿垂直方向630(即,y轴方向)移动,项选择装置可以选择项652。
换句话说,在S1435,在项沿x轴方向排列的状态中,对象沿x轴方向的移动用作用于对项进行重定位的命令并且对象沿y轴方向的移动用作对项进行选择的命令。
此外,如果多个项沿y轴方向排列并且对象的移动也沿y轴方向,则响应于对象的移动,项选择装置可以在屏幕上显示光标或重定位突出显示的项。在图8中示出对项进行重定位。参照图8,如果在项854被突出显示的状态中对象880沿+y轴方向移动,则响应于对象880的移动,移动项选择装置突出显示项856,然后依次突出显示下一项858。此外,如果测量出对象的移动沿偏离相对排列的方向的预定角度的方向,则项选择装置可以使得至少一个项被选择。举例来说,如图5所示,偏离相对排列的方向的预定角度的方向可以包括在排列的方向与对象的移动的方向之间的、在+45度和+135度之间的范围535以及-135度和-45度之间的范围555内的角度。如果测量出对象的移动沿偏离相对x轴方向的预定角度的方向,则项选择装置可以选择至少一个项。举例来说,参照图8,在多个项850、852、854、856、858沿垂直方向(即,y轴方向)排列的状态中,项选择装置可以响应于对象沿水平方向860(即,x轴方向)的移动而选择项854。
换句话说,在S1440,当项沿y轴方向排列时,对象沿x轴方向的移动用作重定位项的命令并且对象沿x轴方向的移动用作选择对象的命令。此外,如果对象的移动的变化在从提供视觉反馈时起的预定时间中保持在预定值内,则项选择装置可以选择至少一个项。如果对象的移动相应于预定的特定模式,则项选择装置还可以选择至少一个项。
在S1450,项选择装置确定多个项是否二维地排列。如果确定多个项以二维排列,则在S1455,如果对象沿x轴方向和y轴方向移动,则项选择装置提供关于至少一个项的视觉反馈。在S1460,如果对象的移动是沿z轴方向的,则项选择装置选择至少一个项。在S1460,如果对象的移动的变化在从提供视觉反馈时起的预定时间中保持在预定值内,则项选择装置可以选择至少一个项。此处的预定值可以包括项的长度和宽度。在一个示例中,预定时间可以是三秒。也就是说,如果响应于对象的移动的、屏幕上的改变保持在项的长度和宽度内三秒,则项选择装置可以感知到相应的项被选择。在S1460,如果对象的移动相应于预定的特定模式,则项选择装置可以进行控制以使得至少一个项被选择。
在S1465,项选择装置确定多个项是否以三维排列被显示。在S1470,如果多个项以三维排列被显示,则如果对象沿x轴方向、y轴或z轴方向移动,则项选择装置提供关于至少一个项的视觉反馈。在S1475,如果对象的移动的变化在从提供视觉反馈时起的预定时间中保持在预定值内,或在S1475,如果对象的移动相应于预定特定模式,则在S1475,项选择装置可以进行控制以使得至少一个项被选择。
可以以通过各种计算装置可执行的和记录在计算机可读介质上的程序命令的形式实现以上阐明的方法。计算机-可读介质可以包括单独或组合的程序命令,数据文件和数据结构。记录在介质上的程序命令可以是为示范性实施例而特别设计的,或者是计算机软件领域中的技术人员公知或可用的。计算机可读记录介质的示例可以包括特别构造以存储和运行程序命令的诸如硬盘、软盘或磁带的磁介质,诸如CD-ROM或DVD的光学介质,诸如可光读磁盘的磁光介质或者诸如ROM、RAM和闪存的硬件设备。程序命令的示例可以不仅包括由编译器创建的机器代码,而且包括由使用解释器等的计算机可执行的高级语言代码。硬件设备可以被实现为执行示范性实施例的操作的一个或多个软件模块,或者反之。
上述示范性实施例和优点仅是示范性的,并不视作对本发明的限制。可以容易地将本教导应用于其他类型的装置。而且,本发明构思的示范性实施例的描述旨在进行说明,而不是限制权利要求的范围,并且对本领域技术人员来说许多替换、修改和变化都是明显的。
Claims (15)
1.一种项选择装置,包括:
移动检测单元,其检测对象的移动;以及
控制单元,其控制多个项以一维、二维和三维排列中的一种显示在屏幕上,
其中所述控制单元从移动检测单元接收信号并且测量对象沿x轴、y轴和z轴方向中的至少一个方向的移动,以及
其中响应于测量的移动,控制单元根据所述多个项在屏幕上的排列来输出相应于下述两个操作中的一个操作的命令:对多个项中的至少一个项的选择和关于多个项中的至少一个项的视觉反馈。
2.如权利要求1所述的项选择装置,其中:
如果所述多个项以一维排列来排列并且所述对象的移动在相对于所述一维排列的方向的预定角度内,则所述控制单元输出相应于所述关于至少一个项的视觉反馈的命令,以及
其中如果所述多个项以一维排列来排列并且所述对象的移动不在所述预定角度内,则所述控制单元输出相应于所述对至少一个项的选择的命令。
3.如权利要求2所述的项选择装置,其中如果在从输出所述相应于视觉反馈的命令开始的预定时间内所述对象的移动的变化被保持,则所述控制单元输出相应于所述对至少一个项的选择的命令。
4.如权利要求2所述的项选择装置,其中如果所述对象的移动相应于预定模式,则所述控制单元输出相应于所述对至少一个项的选择的命令。
5.如权利要求1所述的项选择装置,其中如果所述多个项以二维排列被排列并且对象的移动沿x轴和y轴方向,则所述控制单元输出相应于所述关于至少一个项的视觉反馈的命令,以及
其中如果所述多个项以二维排列来排列并且所述对象的移动沿z轴方向,则所述控制单元输出相应于所述对至少一个项的选择的命令。
6.如权利要求5所述的项选择装置,其中如果在从输出相应于所述视觉反馈的命令开始的预定时间内所述对象的移动的变化被保持,则所述控制单元输出相应于所述对至少一个项的选择的命令。
7.如权利要求5所述的项选择装置,其中如果所述对象的移动相应于预定的特定模式,则所述控制单元输出相应于所述对至少一个项的选择的命令。
8.如权利要求1所述的项选择装置,其中如果所述多个项以三维排列来排列,则响应于所述对象的移动,所述控制单元输出相应于所述关于至少一个项的视觉反馈的命令,
其中如果在从输出相应于视觉反馈的命令开始的预定时间内所述对象的移动的变化被保持,则所述控制单元输出相应于所述对至少一个项的选择的命令,以及
其中如果所述对象的移动相应于预定的特定模式,则所述控制单元输出相应于所述对至少一个项的选择的命令。
9.如权利要求1所述的项选择装置,其中如果测量到的对象的移动比预定的基准速度快,则所述控制单元控制屏幕显示第二多个项,并且输出相应于关于第二多个项中的至少一个项的第二视觉反馈的第二命令。
10.如权利要求1所述的项选择装置,其中如果所述视觉反馈排列在屏幕的边界上并且如果测量出的移动朝向屏幕的边界移动,则所述控制单元控制屏幕显示第二多个项,并且所述控制器输出相应于关于第二多个项中的至少一个项的第二视觉反馈的命令。
11.一种项选择装置,包括:
屏幕,其显示多个项;以及
控制单元,其以一维排列在屏幕上显示多个项,
其中所述控制单元测量对象的移动,并且如果对象的移动在相对于所述多个项的排列的预定角度内,则所述控制器控制屏幕提供关于所述多个项中的至少一个项的视觉反馈,以及
其中如果对象的移动偏离相对于所述多个项的排列的所述预定角度,则所述控制器选择所述多个项中的至少一个项。
12.如权利要求11所述的项选择装置,其中所述控制单元从移动检测单元接收所述移动检测单元响应于对象的移动而生成的信号。
13.如权利要求12所述的项选择装置,其中所述移动检测单元包括拍摄对象并获得图像帧的视觉感测器。
14.如权利要求12所述的项选择装置,其中所述移动检测单元包括遥控器,所述遥控器包括惯性感测器、移动感测器、加速计和光学感测器中的至少一个。
15.一种用于从显示在屏幕上的多个项之中选择至少一个项的方法,所述方法包括:
以一维、二维和三维排列在屏幕上显示多个项;
检测对象的移动;以及
测量检测到的对象沿x轴、y轴和z轴方向中的至少一个方向的移动;以及
响应于测量出的移动,根据多个项在屏幕上的排列,执行下列操作中的一个:发出用于选择所述多个项中的至少一个的命令和提供关于所述多个项中的至少一个的视觉反馈。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20100116067 | 2010-11-22 | ||
KR10-2010-0116067 | 2010-11-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102566902A true CN102566902A (zh) | 2012-07-11 |
Family
ID=45033710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011103730676A Pending CN102566902A (zh) | 2010-11-22 | 2011-11-22 | 使用对象的移动来选择项的装置和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9256288B2 (zh) |
EP (1) | EP2455841A3 (zh) |
JP (1) | JP2012113715A (zh) |
CN (1) | CN102566902A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103616965A (zh) * | 2013-11-22 | 2014-03-05 | 深圳Tcl新技术有限公司 | 基于空间定位设备的菜单控制方法 |
CN103916689A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 电子装置及控制电子装置的方法 |
CN106202140A (zh) * | 2015-06-01 | 2016-12-07 | 佳能株式会社 | 数据浏览装置和数据浏览方法 |
CN108614661A (zh) * | 2013-09-29 | 2018-10-02 | 联想(北京)有限公司 | 基于智能终端的可交互对象显示控制方法及智能终端 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201128441A (en) * | 2010-02-01 | 2011-08-16 | Hon Hai Prec Ind Co Ltd | Television system and remote controller thereof and method for selecting program and method for adjusting volume |
CN108469899B (zh) * | 2012-03-13 | 2021-08-10 | 视力移动技术有限公司 | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 |
WO2013136118A1 (en) | 2012-03-14 | 2013-09-19 | Nokia Corporation | Spatial audio signal filtering |
CN102662577B (zh) * | 2012-03-29 | 2016-08-10 | 华为终端有限公司 | 一种基于三维显示的光标操作方法及移动终端 |
US9448634B1 (en) * | 2013-03-12 | 2016-09-20 | Kabam, Inc. | System and method for providing rewards to a user in a virtual space based on user performance of gestures |
DE102013209701A1 (de) * | 2013-05-24 | 2014-11-27 | Johnson Controls Gmbh | Darstellung von Grafikelementen in Abhängigkeit von einer Bewegung eines Objekts |
US9910507B2 (en) | 2013-10-02 | 2018-03-06 | Samsung Electronics Co., Ltd. | Image display apparatus and pointing method for same |
US10152136B2 (en) * | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US9891712B2 (en) | 2013-12-16 | 2018-02-13 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual cameras with vectors |
US9390726B1 (en) | 2013-12-30 | 2016-07-12 | Google Inc. | Supplementing speech commands with gestures |
US9213413B2 (en) | 2013-12-31 | 2015-12-15 | Google Inc. | Device interaction with spatially aware gestures |
DE102014202490A1 (de) * | 2014-02-12 | 2015-08-13 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe |
EP2916209B1 (en) | 2014-03-03 | 2019-11-20 | Nokia Technologies Oy | Input axis between an apparatus and a separate apparatus |
KR101617216B1 (ko) * | 2014-05-07 | 2016-05-02 | 삼성전자 주식회사 | 디스플레이장치 및 영상의 오브젝트 하이라이트를 표시하는 방법 |
WO2016017956A1 (en) | 2014-07-30 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable device and method of operating the same |
KR102397397B1 (ko) * | 2014-07-30 | 2022-05-13 | 삼성전자주식회사 | 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법 |
US10528224B2 (en) * | 2014-12-10 | 2020-01-07 | Rakuten, Inc. | Server, display control method, and display control program |
CN106033294B (zh) * | 2015-03-20 | 2019-04-26 | 广州金山移动科技有限公司 | 一种窗口弹跳方法及装置 |
KR102452635B1 (ko) * | 2016-03-10 | 2022-10-11 | 삼성전자주식회사 | 영상 표시 장치 및 방법 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US11675374B2 (en) | 2018-10-26 | 2023-06-13 | Illinois Tool Works Inc. | Mass flow controller with advanced zero trending diagnostics |
US11144128B2 (en) * | 2019-11-20 | 2021-10-12 | Verizon Patent And Licensing Inc. | Systems and methods for controlling video wall content using air gestures |
CN112882594B (zh) * | 2020-12-31 | 2023-12-22 | 安徽鸿程光电有限公司 | 触控装置及定位方法、设备及介质 |
CN112835484B (zh) * | 2021-02-02 | 2022-11-08 | 北京地平线机器人技术研发有限公司 | 基于操作体的动态显示方法、装置、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
US20030032479A1 (en) * | 2001-08-09 | 2003-02-13 | Igt | Virtual cameras and 3-D gaming enviroments in a gaming machine |
US20040239670A1 (en) * | 2003-05-29 | 2004-12-02 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US20080100572A1 (en) * | 2006-10-31 | 2008-05-01 | Marc Boillot | Touchless User Interface for a Mobile Device |
US7479949B2 (en) * | 2006-09-06 | 2009-01-20 | Apple Inc. | Touch screen device, method, and graphical user interface for determining commands by applying heuristics |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6782141B1 (en) * | 1999-05-10 | 2004-08-24 | Canon Kabushiki Kaisha | Ordering a plurality of objects |
JP4708581B2 (ja) * | 2000-04-07 | 2011-06-22 | キヤノン株式会社 | 座標入力装置、座標入力指示具及びコンピュータプログラム |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7233316B2 (en) * | 2003-05-01 | 2007-06-19 | Thomson Licensing | Multimedia user interface |
JP2004355106A (ja) * | 2003-05-27 | 2004-12-16 | Tetsuo Ito | コンピュータのタッチインタフェース |
US7158118B2 (en) * | 2004-04-30 | 2007-01-02 | Hillcrest Laboratories, Inc. | 3D pointing devices with orientation compensation and improved usability |
JP2007535774A (ja) * | 2004-04-30 | 2007-12-06 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 自由空間ポインティングデバイスにおける意図的でない動きを除去するための方法およびデバイス |
EP1596271A1 (en) * | 2004-05-11 | 2005-11-16 | Hitachi Europe S.r.l. | Method for displaying information and information display system |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
EP1645944B1 (en) * | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
US7486274B2 (en) * | 2005-08-18 | 2009-02-03 | Mitsubishi Electric Research Laboratories, Inc. | Method for stabilizing and precisely locating pointers generated by handheld direct pointing devices |
US20070057912A1 (en) * | 2005-09-14 | 2007-03-15 | Romriell Joseph N | Method and system for controlling an interface of a device through motion gestures |
EP2293172A3 (en) * | 2005-10-26 | 2011-04-13 | Sony Computer Entertainment Inc. | System and method for interfacing and computer program |
US8411034B2 (en) * | 2009-03-12 | 2013-04-02 | Marc Boillot | Sterile networked interface for medical systems |
US20070113207A1 (en) * | 2005-11-16 | 2007-05-17 | Hillcrest Laboratories, Inc. | Methods and systems for gesture classification in 3D pointing devices |
US20140035805A1 (en) * | 2009-04-02 | 2014-02-06 | David MINNEN | Spatial operating environment (soe) with markerless gestural control |
US20070283261A1 (en) * | 2006-06-06 | 2007-12-06 | Christopher Harrison | Gesture-Based Transient Prioritization Processes Scheduling |
JP2008014696A (ja) | 2006-07-04 | 2008-01-24 | Dainippon Screen Mfg Co Ltd | ムラ検査装置、画像表示装置、ムラ検査方法および画像表示方法 |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP4569613B2 (ja) * | 2007-09-19 | 2010-10-27 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
KR101451271B1 (ko) * | 2007-10-30 | 2014-10-16 | 삼성전자주식회사 | 방송수신장치 및 그 제어방법 |
US20090201249A1 (en) * | 2007-12-07 | 2009-08-13 | Sony Corporation | Input apparatus, control apparatus, control system, and handheld apparatus |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US9035876B2 (en) * | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US7975243B2 (en) * | 2008-02-25 | 2011-07-05 | Samsung Electronics Co., Ltd. | System and method for television control using hand gestures |
JP2009250772A (ja) * | 2008-04-04 | 2009-10-29 | Sony Corp | 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法 |
US8566741B2 (en) * | 2008-08-29 | 2013-10-22 | Microsoft Corporation | Internal scroll activation and cursor adornment |
JP5427385B2 (ja) * | 2008-09-29 | 2014-02-26 | 日立コンシューマエレクトロニクス株式会社 | 操作制御装置及び操作表示方法 |
JP5183398B2 (ja) * | 2008-09-29 | 2013-04-17 | 株式会社日立製作所 | 入力装置 |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
US8961313B2 (en) * | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
JP4702475B2 (ja) * | 2008-12-25 | 2011-06-15 | ソニー株式会社 | 入力装置、ハンドヘルド装置及び制御方法 |
JP5537040B2 (ja) * | 2009-01-28 | 2014-07-02 | キヤノン株式会社 | 表示制御装置および表示制御方法 |
JP5635736B2 (ja) * | 2009-02-19 | 2014-12-03 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
KR101666995B1 (ko) * | 2009-03-23 | 2016-10-17 | 삼성전자주식회사 | 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법 |
JP2010231736A (ja) * | 2009-03-30 | 2010-10-14 | Sony Corp | 入力装置および方法、情報処理装置および方法、情報処理システム、並びにプログラム |
JP5295839B2 (ja) * | 2009-03-30 | 2013-09-18 | 株式会社東芝 | 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム |
US20140078318A1 (en) * | 2009-05-22 | 2014-03-20 | Motorola Mobility Llc | Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures |
US8693724B2 (en) * | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US9703398B2 (en) * | 2009-06-16 | 2017-07-11 | Microsoft Technology Licensing, Llc | Pointing device using proximity sensing |
CN102473070B (zh) * | 2009-08-10 | 2016-06-01 | 皇家飞利浦电子股份有限公司 | 用于移动屏幕上的光标的系统和方法 |
JP5614014B2 (ja) * | 2009-09-04 | 2014-10-29 | ソニー株式会社 | 情報処理装置、表示制御方法及び表示制御プログラム |
JP2011081453A (ja) * | 2009-10-02 | 2011-04-21 | Toshiba Corp | 映像再生装置及び映像再生方法 |
GB2474536B (en) * | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
US20140053115A1 (en) * | 2009-10-13 | 2014-02-20 | Pointgrab Ltd. | Computer vision gesture based control of a device |
US9268404B2 (en) * | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8593402B2 (en) * | 2010-04-30 | 2013-11-26 | Verizon Patent And Licensing Inc. | Spatial-input-based cursor projection systems and methods |
US20110276891A1 (en) * | 2010-05-06 | 2011-11-10 | Marc Ecko | Virtual art environment |
US20110289455A1 (en) * | 2010-05-18 | 2011-11-24 | Microsoft Corporation | Gestures And Gesture Recognition For Manipulating A User-Interface |
US8751215B2 (en) * | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
US20120086630A1 (en) * | 2010-10-12 | 2012-04-12 | Sony Computer Entertainment Inc. | Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system |
-
2011
- 2011-10-20 EP EP11185921.1A patent/EP2455841A3/en not_active Withdrawn
- 2011-11-17 US US13/298,871 patent/US9256288B2/en active Active
- 2011-11-21 JP JP2011254207A patent/JP2012113715A/ja active Pending
- 2011-11-22 CN CN2011103730676A patent/CN102566902A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
US20030032479A1 (en) * | 2001-08-09 | 2003-02-13 | Igt | Virtual cameras and 3-D gaming enviroments in a gaming machine |
US20040239670A1 (en) * | 2003-05-29 | 2004-12-02 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7479949B2 (en) * | 2006-09-06 | 2009-01-20 | Apple Inc. | Touch screen device, method, and graphical user interface for determining commands by applying heuristics |
US20080100572A1 (en) * | 2006-10-31 | 2008-05-01 | Marc Boillot | Touchless User Interface for a Mobile Device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916689A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 电子装置及控制电子装置的方法 |
CN108614661A (zh) * | 2013-09-29 | 2018-10-02 | 联想(北京)有限公司 | 基于智能终端的可交互对象显示控制方法及智能终端 |
CN108614661B (zh) * | 2013-09-29 | 2021-04-13 | 联想(北京)有限公司 | 基于智能终端的可交互对象显示控制方法及智能终端 |
CN103616965A (zh) * | 2013-11-22 | 2014-03-05 | 深圳Tcl新技术有限公司 | 基于空间定位设备的菜单控制方法 |
CN106202140A (zh) * | 2015-06-01 | 2016-12-07 | 佳能株式会社 | 数据浏览装置和数据浏览方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2455841A2 (en) | 2012-05-23 |
EP2455841A3 (en) | 2015-07-15 |
US20120131518A1 (en) | 2012-05-24 |
JP2012113715A (ja) | 2012-06-14 |
US9256288B2 (en) | 2016-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102566902A (zh) | 使用对象的移动来选择项的装置和方法 | |
KR102276173B1 (ko) | 공간-의존 콘텐츠를 위한 햅틱 효과 생성 | |
US20120139907A1 (en) | 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system | |
US10852913B2 (en) | Remote hover touch system and method | |
US7477243B2 (en) | Apparatus for controlling the shift of virtual space and method and program for controlling same | |
TWI534661B (zh) | 畫像辨識裝置及操作判定方法以及電腦程式 | |
CN102830795B (zh) | 利用运动传感装置的远程控制 | |
US10665014B2 (en) | Tap event location with a selection apparatus | |
JP5638896B2 (ja) | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 | |
CN102792255A (zh) | 图像处理设备、图像处理方法和程序 | |
US20120208639A1 (en) | Remote control with motion sensitive devices | |
CN105264572A (zh) | 信息处理设备、信息处理方法和程序 | |
US9928665B2 (en) | Method and system for editing scene in three-dimensional space | |
CN105829948B (zh) | 可佩戴显示输入系统 | |
EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
JP4783456B2 (ja) | 映像再生装置及び映像再生方法 | |
KR101888491B1 (ko) | 가상 공간 이동 장치 및 방법 | |
US9310851B2 (en) | Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof | |
CN102902352B (zh) | 运动控制作为控制装置 | |
KR101806864B1 (ko) | 증강 현실 환경에서 3d 객체를 제어하기 위한 장치 및 그 방법 | |
KR20120136719A (ko) | 손과 눈의 3차원 위치정보를 이용한 원거리 스크린 상의 물체지목 및 제어방법 | |
JP4945694B2 (ja) | 映像再生装置及び映像再生方法 | |
KR20120055434A (ko) | 디스플레이 시스템 및 그 디스플레이 방법 | |
US20070200847A1 (en) | Method And Device For Controlling A Virtual Reality Graphic System Using Interactive Techniques | |
JPS5856152B2 (ja) | 立体図形読取表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120711 |
|
WD01 | Invention patent application deemed withdrawn after publication |