CN103813193A - 显示装置及其控制方法 - Google Patents
显示装置及其控制方法 Download PDFInfo
- Publication number
- CN103813193A CN103813193A CN201310540849.3A CN201310540849A CN103813193A CN 103813193 A CN103813193 A CN 103813193A CN 201310540849 A CN201310540849 A CN 201310540849A CN 103813193 A CN103813193 A CN 103813193A
- Authority
- CN
- China
- Prior art keywords
- display unit
- pointer
- motion
- mode
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4227—Providing Remote input by a user located remotely from the client device, e.g. at work
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
实施例公开处理图像信号以显示的显示装置及其控制方法,所述显示装置包括:显示设备;图像处理设备,处理图像信号以便在所述显示设备上显示图像;检测设备,检测用户的运动;以及控制器,以预设的第一模式与由所述检测设备检测到的运动相对应地移动指针,在图像上显示所述指针,并且响应于由所述检测设备检测到的所述运动的位置与所述显示装置之间的距离的变化,以不同于所述第一模式的预设的第二模式移动所述指针。
Description
技术领域
与示例实施例相一致的装置和方法涉及处理图像信号以显示图像的显示装置及其控制方法。更具体地,示例实施例涉及具有通过适当地反映用户意图易于在图像内移动指针的配置的显示装置及其控制方法。
背景技术
相关技术显示装置可以是处理从外部图像源输入的并且被自主存储的图像信号/图像数据,以便在显示单元上呈现图像的设备。针对一般用户可利用的相关技术显示装置可以包括电视机和监视器。例如,被配置为电视机的相关技术显示装置根据各种类型的图像处理(例如调谐和解码)处理自外面传送的广播信号,以提供用户期望的广播频道的图像。
相关技术显示装置显示各种类型和格式的用户界面(UI)图像以便给用户提供便利。所述UI图像可以使用户能够给出关于所期望功能和操作的显示装置指令。所述UI图像可以包括各种类型的预设对象(即图标或超链接)以及在图像内移动以选择所述预设对象的指针或光标。用户操纵被配置与所述显示装置分离的遥控器或定点设备,从而在所述图像内任意移动所述指针以选择对象。
然而,当在UI图像中彼此靠近地布置小对象时,或者指针太大而不能选择小对象时,用户不能容易地将指针移动到具体对象。在此方面,需要基于针对所述显示装置的用户意图的指针移动控制方法。
发明内容
示例实施例的一方面可以提供显示装置,包括:显示设备;图像处理设备,其处理图像信号以便在显示设备上显示图像;检测设备,其检测用户的运动;以及控制器,以预设的第一模式与由检测设备检测到的运动相对应地移动指针,在图像上显示所述指针,并且响应于由检测设备检测到的运动的位置与显示装置之间的距离的变化,以不同于所述第一模式的预设的第二模式移动指针。
响应于所述距离长于预设值,控制器可以以第一模式操作,并且响应于由检测设备检测到的运动的位置与显示装置之间的距离等于或短于预设值,控制器可以以第二模式操作。
所述检测设备可以检测由所述运动引起的角度变化或移动量,并且控制器可以与由检测设备检测到的角度变化或移动量相对应地移动指针。
所述检测设备可以包括给用户拍照的照相机,并且所述控制器可以与由照相机检测到的运动相对应地移动所述指针。
所述显示装置可以进一步包括定点设备,其与所述显示装置分离并且被配置由用户掌握,并且可以在所述定点设备中安装所述检测设备以检测定点设备的运动。
所述第二模式可以比所述第一模式更精确地移动所述指针。
第一模式和第二模式之间的差异可以包括指针的单位移动距离、指针的样式、指针的尺寸以及由指针选择的图像中的至少一个对象的尺寸中的至少一个差异。
所述控制器可以设置与所述运动的预设移动量相对应的指针的单元移动距离在第二模式中的比在第一模式中的短。
所述控制器可以设置所述指针的尺寸在第二模式中的比在第一模式中的小。
所述控制器可以以不同于第一模式中的第一样式的第二模式中的第二样式来设置指针。
所述图像可以包括被配置由所述指针选择的至少一个对象,并且所述控制器可以设置所述至少一个对象的尺寸在第二模式中的比在第一模式中的大。
示例实施例的另一方面可以提供显示装置的控制方法,包括:检测用户的运动;以预设的第一模式与所述运动相对应地移动指针,在图像上显示所述指针;以及响应于检测到所述运动的位置与显示装置之间的距离的变化,以不同于第一模式的预设的第二模式移动所述指针。
所述的以第二模式移动指针可以包括:响应于检测到运动的位置与显示装置之间的所述距离长于预设值,以第一模式移动指针;以及响应于检测到运动的位置与显示装置之间的距离等于或短于预设值,以第二模式移动指针。
所述的检测用户运动可以包括检测由所述运动引起的角度变化或移动量,并且所述的移动指针可以包括与检测到的所述角度变化或移动量相对应地移动指针。
所述的检测用户运动可以包括用照相机给用户拍照,并且所述的移动指针可以包括与所述照相机检测到的所述运动相对应地移动指针。
所述的检测用户运动可以包括检测定点设备的运动,其与显示装置分离并且被配置由所述用户掌握。
所述第二模式可以比所述第一模式更精确地移动指针。
第一模式和第二模式之间的差异可以包括在指针的单位移动距离、指针的样式、指针的尺寸以及由指针选择的图像中的至少一个对象的尺寸中的至少一个差异。
所述的以第二模式移动指针可以包括,移动所述指针以便与所述运动的预设移动量相对应的指针的单元移动距离在第二模式中的比在第一模式中的短。
所述的以第二模式移动指针可以包括,设置所述指针在第二模式中具有比在第一模式中更小的尺寸。
所述的以第二模式移动指针可以包括,以不同于第一模式中的第一样式的第二模式中的第二样式来显示所述指针。
所述图像可以包括被配置由指针选择的至少一个对象,并且所述的以第二模式移动指针可以包括,显示所述至少一个对象在第二模式中具有比在第一模式中更大的尺寸。
示例实施例的另一方面可以提供显示装置,包括:显示设备;图像处理设备,其处理图像信号以在所述显示设备上显示图像;检测设备,其检测用户的运动;以及控制器,以预设的第一模式与所述检测设备检测到的运动相对应地移动在图像中显示的指针,并且响应于由检测设备检测到的运动的位置在距离显示装置的预设范围内,以能够比第一模式更精确地操纵指针的预设的第二模式移动所述指针。
示例实施例的另一方面可以提供显示装置,包括:显示设备;图像处理设备,处理图像信号以在显示设备上显示图像;检测设备,检测用户的运动;以及控制器,与由检测设备检测到的运动相对应地移动在图像中显示的指针,并且与由检测设备检测到运动的位置是否在距离显示装置的预设范围之内相对应,改变所述指针的移动样式和显示模式中的至少之一。
示例实施例的另一方面可以提供显示装置,包括:显示设备;图像处理设备,处理图像信号以在所述显示设备上显示图像;检测设备,检测用户身体部位中的运动;以及控制器,响应于由检测设备检测到的运动的位置在距离显示设备的预设范围内,以不同于第一模式的第二模式与由检测设备检测到的运动相对应地移动在图像中显示的指针。
附图说明
从结合附图的示例实施例的以下描述中,以上和/或其它方面将变得显然并且更加容易理解,其中:
图1示出根据第一示例实施例的显示系统。
图2是示出图1的显示装置和输入设备的配置的方框图。
图3至5示出基于图1的输入设备的运动来移动图像中的指针。
图6示出基于图1的输入设备距显示装置的距离的输入设备的位置。
图7至10示出在第一模式和第二模式中由图1的显示装置提供的图像。
图11示出根据第二示例实施例的显示装置基于用户运动移动图像内的指针。
图12是示出根据第三示例实施例的显示装置的控制方法的流程图。
具体实施方式
以下将参照附图详细地描述示例实施例,以便本领域普通技术人员容易实现。可以以各种形式实例化所述示例实施例,而不局限于这里所阐述的示例实施例。为了清晰和简明起见,省略对熟知部分的描述,并且全文中相似的参考编号指代相似的元件。
图1示出根据第一示例实施例的显示系统1。
如图1中所示,根据本实施例的显示系统1包括:显示装置100,其根据预设的图像处理过程处理图像信号以显示图像;及输入设备200,其产生并且向显示装置100发送与各种操作相对应的预设命令,以便远程控制显示装置100的操作。
在本实施例中,将显示装置100配置为电视机,其能够基于从外部图像源(未示出)接收的或内部存储的图像信号/图像数据/图像信息显示图像。将输入设备200配置为电视机的遥控器。
然而,也可以将本实施例应用于具有不同结构的显示装置100。例如,不同结构可以是其中显示装置100是被连接到主计算机的监视器(未示出),并且输入单元200是与主计算机通信的系统的配置。换句话说,提供以下实施例仅是为了说明性的目的,而不被理解为限定所述实施例的范围。
显示装置100可以显示任何类型的图像,而没有被具体地限定。例如,所述图像可以包括视频、静止图像、应用程序、屏上显示(OSD)以及用于控制各种操作的图形用户界面(GUI)。
输入设备200使能与显示装置100的无线通信,并且被提供为由用户操纵和持有的外部设备。输入设备200向显示装置100发送与用户操纵相对应的预设命令或控制信号。
此后将参照图2详细地描述显示装置100和输入设备200的配置。
图2是示出显示装置100和输入设备200的配置的方框图。
如图2中所示,显示装置100包括:图像接收单元110,接收图像信号;图像处理单元120,处理由图像接收单元110接收的所述图像信号;显示单元130,基于由图像处理单元120处理的图像信号来显示图像;通信单元140,与输入设备200进行通信;照相机150,给外部主题拍照;以及控制器160,控制显示装置100的组件的一般操作。
如图2中所示,输入设备200包括:输入设备通信单元210,与显示装置100进行通信;输入单元220,由用户操纵;运动传感器230,检测输入设备200的运动;以及输入设备控制器240,控制输入设备200的组件的一般操作。
此后将描述显示装置100的每一个组件。
图像接收单元110经由有线或以无线方式从图像源(未示出)接收图像信号,并且向图像处理单元120发送所述信号。对应于所接收图像信号的标准和显示装置100的配置,可以以各种方式配置图像接收单元110。例如,图像接收单元110可以接收符合高清晰度多媒体接口(HDMI)标准的数字图像信号或从流服务器(未示出)接收图像数据的分组流。
图像处理单元120根据各种类型的预设图像处理过程来处理从图像接收单元110接收的图像信号。图像处理单元120向显示单元130输出所处理的图像信号,以便在显示单元130上显示基于所接收图像信号的图像。
图像处理单元120可以执行任何类型的图像处理,而不局限于所述示例实施例。例如,图像处理可以包括依据图像信号格式的解码、将交织图像信号转换成逐行形式的解交织、将图像数据调整到预设分辨率的缩放、提高图像质量的降噪、细节增强以及帧刷新速率转换。
图像处理单元120可以被提供为诸如片上系统(SOC)的集成多功能组件,或者可以被提供为通过在印制电路板上安装独立执行单个处理的组件所形成的图像处理板(未示出)。
显示单元130基于从图像处理单元120输出的图像信号显示图像。可以以使用液晶、等离子、发光二极管、有机发光二极管、表面传导电子发射器、碳纳米管、纳米晶体等(但不局限于此)的各种显示模式来配置显示单元130。
显示单元130可以进一步包括取决于其显示模式的附加元件。例如,在使用液晶的显示模式中,显示单元130可以包括液晶显示(LCD)面板(未示出)、向所述面板提供光线的背光单元(未示出)以及驱动所述面板的面板驱动板(未示出)。
通信单元140向控制器160发送从输入设备200接收的命令/数据/信息/信号。通信单元140不仅作为单向通信从输入设备200接收信号,而且也可以向输入设备200发送从控制器160接收的命令/数据/信息/信号。在此情形中,通信单元140符合诸如射频(RF)规范、紫蜂、或者蓝牙的无线通信标准,以实现显示装置100和输入设备200之间的双向通信。
照相机150可以在基于显示装置100的特定方向上对诸如用户的各种主题摄影或者拍照。例如,所述特定方向可以是在显示装置100的前面。照相机150给主题摄影以产生所述主题的运动图像,或者给主题拍照以产生所述主题的静止图像。照相机150向控制器160发送主题的移动图像或静止图像。
控制器160按照向通信单元140发送的命令来控制显示装置100的操作。例如,当通过通信单元140从输入设备200接收到预设命令时,控制器160控制图像处理单元120按照所述命令处理图像。尽管本实施例示出将控制器160和图像处理单元120提供为分离组件,但是可以将控制器160和图像处理单元120配置为单个图像处理板(未示出)。
此后描述输入设备200的每个组件。
输入设备通信单元210向显示装置100发送从输入设备控制器240发送的控制信号或命令。按照与通信单元140相对应的通信协议配置输入设备通信单元210。除了到通信单元140的单向通信之外,可以配置输入设备通信单元210执行与通信单元140的双向通信。
运动传感器230检测由用户持有的输入设备200的运动。例如,输入设备200的所述运动可以是基于输入设备200的当前位置的输入设备200的倾斜或变化。运动传感器230在预设的三轴坐标系中检测输入设备200的移动。所述预设的三轴坐标系可以是具有宽度、长度和高度或者x、y和z轴的三维坐标系。可以将运动传感器230配置为陀螺仪传感器、惯性传感器或者加速度传感器。
将输入单元220配置为由用户操纵,从而使输入设备控制器240能够产生与用户操纵相对应的命令/控制信号。将输入单元220配置为各种形式。例如,输入单元220的所述各种形式可以包括菜单键/按钮、触摸板或者触摸屏。
运动传感器230可以使输入设备控制器240能够定量地确定输入设备200的移动量。例如,当输入设备200从第一位置移动到第二位置时,运动传感器230计算第一位置和第二位置之间的移动距离。因此,输入设备控制器240确定输入设备200的所述移动量。可替换地,当输入设备200从第一角度旋转到第二角度时,运动传感器230计算第一角度和第二角度之间的差。因此,输入设备控制器240确定输入设备200的角度变化。
当通过输入单元220发生用户操纵时,输入设备控制器240向输入设备通信单元210发送与所述操纵相对应的控制信号。因此,向显示装置100发送所述控制信号。进一步,输入设备控制器240产生与由运动传感器230检测到的输入设备200的运动相对应的控制信号,并且向显示装置100发送所述控制信号。因此,在显示装置100中执行与所述运动相对应的操作。
在此配置中,在显示包含指针的图像时,显示装置100可以根据从输入设备200接收的控制信号移动指针。输入设备200可以按照通过输入单元220的操纵或者由运动传感器230检测到的输入设备200的运动来产生控制信号。在本实施例中,将示出后者的情形。
图3至5示出基于输入设备200的运动移动图像中的指针P。
如图3中所示,显示装置100显示包括各种对象B和指针P的图像。指针P可以在所述图像内移动并且可以覆盖对象B。当在指针P正在覆盖特定对象B的同时,在输入设备200中实现点击命令时,执行与对象B相对应的预设操作。
例如,当所述被显示图像是网页时,对象B可以是超链接文本或图像。当所述指针移动到对象B上并且在其上点击时,可以显示被链接到对象B的网页。可替换地,当所述显示图像是桌面的用户界面(UI)图像时,对象B可以是选择菜单项或图标。
当用户持有并且移动输入设备200时,输入设备200的运动在所述三维坐标系中发生。如图3中所示,所述三维坐标系包括互相垂直的x、y和z轴。
在本实施例中,x轴平行于在显示装置100上显示的图像的宽度方向,而y轴平行于所述图像的长度方向。换句话说,与x-y平面平行部署所述图像。
因此,z轴垂直于所述图像或者显示装置100。换句话说,沿着z轴移动输入设备200意味着输入设备200变得接近或者远离所述图像或者显示装置100。
如以上所公开的,提供所述三轴坐标系以使本实施例清晰,并且将在本实施例的整个描述中使用它。
为了移动所述图像内的指针P,用户考虑指针P的移动方向和移动量来移动输入设备200。
如图4中所示,显示装置100移动与输入设备200的旋转相对应的指针P。
当输入设备200从初始位置以预设方向旋转角度D时,输入设备200使用运动传感器230检测输入设备200的旋转方向和旋转角度。输入设备200基于输入设备200的所述旋转方向和所述旋转角度计算指针P的移动方向和移动距离,并且向显示装置100发送包含指针P的所述移动方向和所述移动距离的、用于移动指针P的命令(例如,“移动命令”)。
显示装置100基于从输入设备200接收到的所述移动命令将指针P移动到位置P1。
在本实施例中可以以各种方式设计输入设备200的旋转方向与指针P的移动方向之间的对应,以及输入设备200的旋转角度与指针P的移动距离之间的对应。
例如,当输入设备200在xz平面上关于y轴向右旋转时,设置指针P准确地向右移动。当输入设备200在xz平面上朝左上方倾斜地旋转时,设置指针P朝所述左上方移动。进一步,当输入设备200旋转1度时,设置指针P移动10个像素。
在图5中所示的另一示例实施例中,显示装置100可以根据输入设备200的位置变化移动指针P。
当从初始位置向右移动输入设备200预设距离L时,输入设备200使用运动传感器230检测输入设备200的移动方向和移动距离。输入设备200基于输入设备200的所述移动方向和所述移动距离计算指针P的移动方向和移动距离,并且向显示装置100发送包含指针P的所述移动方向和所述移动距离的、用于移动指针P的命令。
显示装置100基于从输入设备200接收的所述移动命令将指针P移动到位置P1。
类似于图4,在实现本实施例的过程中可以以各种方式设计在输入设备200的所述移动方向和指针P的所述移动方向之间的对应,以及在输入设备200的所述移动距离和指针P的所述移动距离之间的对应。
例如,当输入设备200平行于x-y平面移动时,也设置指针P以与输入设备200的移动方向相对应的方向移动。进一步,当输入设备200移动10cm时,设置指针P移动100个像素。
在基于输入设备200的运动移动指针P的相关技术配置中,基于输入设备200的移动距离来确定(fix)指针P的移动距离。因此,为了指针P的精确移动,请求所述用户准确地移动输入设备200。
例如,在相关技术配置中,当图像包括小的对象B或者图像中的对象B之间的短间隔时,基于输入设备200的预设移动量的指针P的更短单位移动距离适合于准确地移动指针,以便使用指针P选择对象B。当指针P的所述单位移动距离长时,当移动输入设备200时,所述用户可以允许指针P从期望对象B旁经过。
相反,在相关技术配置中,可能不需要准确地和精致地移动指针P。在此情况中,指针P的较长单位移动距离对用户来说相当便利,而指针P的较短单位移动距离可能引起不便,因为为了将指针P移动到期望位置,所述用户移动输入设备200达到过度的程度。
考虑到这些方面,在本实施例中建议以下方法和配置。
图6示出基于距显示装置100的距离的输入设备200的位置。
如图6中所示,显示装置100具有从其上部署显示装置100的原点A0出发、沿z轴方向、间隔预设参考距离AL的预设参考点AR。可以基于显示装置100的配置以各种方式确定所述距离AL,而不局限于特定值。
当进行输入设备200的运动时,显示装置100确定检测到所述运动的位置和显示装置100之间的距离。当所确定的距离比参考距离AR长时,显示装置100以预设的第一模式移动指针P。当所确定的距离比参考距离AR短时,显示装置100以不同于所述第一模式的预设第二模式移动指针P。在移动指针P的操作中,所述第一模式是正常模式,并且所述第二模式是精确地移动指针P的精确模式。
换句话说,当出现输入设备200的运动的位置A1超出从原点A0到参考点AR的范围时,显示装置100以正常模式移动指针P。然而,当出现输入设备200的运动的位置A2在从原点A0到参考点AR的范围内时,显示装置100以精确模式移动指针P。当在精确模式期间将输入设备200移出从原点A0到参考点AR的范围时,显示装置100从精确模式变化到正常模式。
因此,基于用户意图,可以选择性地以正常模式或者以精确模式来操纵指针P。一般来说,人们接近对象以便对所述对象进行精确操作。于是,在本实施例中,当将输入设备200接近显示装置100放置时,即,当用户接近显示装置100时,以精确模式操作指针P。因此,用户按照本实施例直觉地行动(behave),而不需要专门培训。
通过各种方法可以确定在检测到输入设备200的运动的位置与显示装置100之间的距离,即位置A1或A2距原点A0的距离。例如,以立体声模式安装显示装置100的照相机150,以便在输入设备200运动的时刻通过三角测量确定输入设备200的位置。
同时,前述模式包括针对与指针P有关的各种环境的设置,例如,指针P的移动样式、指针P的显示模式以及对象B的显示模式。
取决于第一模式和第二模式,这些设置的至少一些是不同的。第二模式使指针P能够比第一模式相对更精确地移动。
此后将参照图7至10描述,当输入设备200从位置A1移动到位置A2时,显示装置100从第一模式切换到第二模式的配置。
图7至10示出以第一模式和第二模式在显示装置100上显示的图像。以第一模式提供图7至10的左图像,并且以第二模式提供图7至10的右图像。所示出的图像可以被单独应用,或者当从第一模式切换到第二模式时作为混合被应用。
如图7中所示,当从第一模式切换到第二模式时,显示装置100将在第二模式中的指针P4的尺寸设置为小于在第一模式中的指针P3。
与相对较大尺寸的指针P3相比,相对较小尺寸的指针P4易于选择图像中的小对象。
如图8中所示,显示装置100可以在第一模式中设置指针P5,并且在第二模式中以与第一模式相比不同的样式设置指针P6。样式包括与指针P5和P6的显示模式有关的各种参数,例如,形状和颜色。
如图9中所示,显示装置100可以在图像中调整对象B1和B2的显示模式,而保留指针P7无变化。显示装置100将在第二模式中的对象B2设置为大于在第一模式中的对象B1。
相对较大尺寸对象B2使得指针P7易于选择对象B2。换句话说,相对较大尺寸的对象B2使得指针P7能够精确操纵。
如图10中所示,显示装置100不改变指针P8或者图像的显示模式。作为替代,与第一模式相比,显示装置100在第二模式中将与输入设备200的预设移动量相对应的指针P8的单位移动距离设置为更短。
换句话说,对于输入设备200的相同移动量,在第二模式中的指针P8的移动距离L2短于在第一模式中的指针P8的移动距离L1。换句话说,与第一模式相比,在第二模式中的指针P8的移动对输入设备200的运动不太敏感。因此,与第一模式相比,在第二模式中指针P8的移动更精确。
在前述实施例中,用户持有输入设备200并且使输入设备200运动。在此情形中,输入设备200产生与输入设备200的运动相对应的控制信号,并且向显示装置100发送所述控制信号。显示装置100基于从输入设备200接收到的控制信号移动指针P。
然而,可以对本实施例的构思做各种修改,而不局限于前述的实例。例如,显示装置100在没有输入设备200的情况下,可以检测用户的动作/运动,并且基于检测结果移动所述指针。
图11示出根据第二示例实施例的,在显示装置100上指针P基于用户运动在图像内移动。
如图11中所示,显示装置100包括在显示装置100外部安装的照相机150。照相机150可以对在显示装置100前面的用户U拍照,并且检测用户U的动作或运动。
照相机150可以聚焦在特定身体部位,代替用户U的轮廓,并且检测所述部位的运动。例如,照相机150检测用户U的手的运动,并且显示装置100的控制器160基于检测结果计算手的移动方向和移动量。控制器160基于所计算的信息移动指针P,在以上第一实施例中已经对其进行了详细描述。因此,这里省略移动指针P的描述。
显示装置100确定检测到用户U的运动的位置是否在距离显示装置100的预设范围内。当所述位置超出所述范围时,显示装置100以作为正常模式的第一模式移动指针P。当所述位置在所述范围内时,例如,当用户U正在做相对接近显示装置100的运动时,显示装置100以作为精确模式的第二模式移动指针P。
在以上第一实施例中已经描述了所述第一模式和第二模式。因此,这里省略对其的描述。
如上所述,在没有如第一实施例中所描述的输入设备200的情况下,照相机150检测用户U的运动。因此,显示装置100可以达到所述示例实施例的目的。
将参照图12描述根据第三示例实施例的显示装置100的控制方法。第三实施例的显示装置100具有与第一实施例和第二实施例大体上相同的配置。
图12是示出根据第三示例实施例的显示装置100的控制方法的流程图。在初始状态中,将用户安置在距离显示装置100的预设范围之外。
如图12中所示,显示装置100检测用户的运动(S100)。显示装置100以第一模式移动与所述用户的运动相对应的指针P(S110)。
显示装置100监视所述用户的运动是否发生在预设范围内。当用户的运动发生在预设范围内时(S120),显示装置100从所述第一模式切换到第二模式,并且以第二模式移动与所述用户的运动相对应的指针P(S130)。
在图12中,显示装置100可以提供基于用户意图来控制指针P的移动的环境。
当检测到所述用户的运动时,显示装置100可以确定所述运动发生的位置是否在预设范围内。当检测到所述位置超出预设范围时,显示装置100选择第一模式。进一步,当检测到所述位置在预设范围内时,显示装置100选择第二模式。显示装置100以所选择的模式控制与用户运动相对应的指针P的移动。
在另一示例实施例中,图像接收单元110、图像处理单元120、显示单元130、通信单元140、输入设备通信单元210以及输入单元220中的至少之一可以包括用于执行它们各自功能的处理器。进一步,图像接收单元110、图像处理单元120、显示单元130、通信单元140、输入设备通信单元210以及输入单元220中的至少之一可以包括用于执行它们各自功能的硬件模块或者电路。
尽管已经示出和描述了几个示例实施例,本领域技术人员将理解到,在不脱离所述示例实施例的原则和精神(在所附权利要求书及其等价物中定义其范围)的情况下,可以在这些示例实施例中进行改变。
Claims (12)
1.一种显示装置,包括:
显示单元;
图像处理单元,处理图像信号以在所述显示单元上显示图像;
检测单元,检测用户的运动;以及
控制器,以预设的第一模式与由检测单元检测到的运动相对应地移动指针,在所述图像中显示所述指针,并且当由检测单元检测到的所述运动的位置与所述显示装置之间的距离变化时,以不同于所述第一模式的预设的第二模式移动所述指针。
2.如权利要求1所述的显示装置,其中,当所述距离长于预设值时,所述控制器以第一模式操作,并且当所述距离等于或者短于预设值时,所述控制器以第二模式操作。
3.如权利要求1所述的显示装置,其中,所述检测单元检测由所述运动引起的角度变化或移动量,并且所述控制器与由检测单元检测到的角度变化或移动量相对应地移动所述指针。
4.如权利要求1所述的显示装置,其中,所述检测单元包括给用户拍照的照相机,并且所述控制器与由照相机检测到的运动相对应地移动所述指针。
5.如权利要求1所述的显示装置,进一步包括定点设备,其与所述显示装置分离并且被配置由用户持有,其中在定点设备中安装检测单元以检测定点设备的运动。
6.如权利要求1所述的显示装置,其中,第二模式比第一模式更精确地移动指针。
7.如权利要求1所述的显示装置,其中,第一模式和第二模式之间的差异包括指针的单位移动距离、指针的样式、指针的尺寸以及由所述指针选择的图像中的至少一个对象的尺寸之中的至少一个差异。
8.如权利要求1所述的显示装置,其中,所述控制器将与所述运动的预设移动量相对应的指针的单位移动距离设置为在第二模式中的比在第一模式中的短。
9.如权利要求1所述的显示装置,其中,所述控制器将所述指针的尺寸设置为在第二模式中的比在第一模式中的小。
10.如权利要求1所述的显示装置,其中,所述控制器在第二模式中以与第一模式不同的样式来设置指针。
11.如权利要求1所述的显示装置,其中,所述图像包括被配置由所述指针选择的至少一个对象,并且所述控制器将所述至少一个对象的尺寸设置为在第二模式中的比在第一模式中的大。
12.一种显示装置的控制方法,包括:
检测用户的运动;
以预设的第一模式与所述运动相对应地移动指针,在图像中显示所述指针;以及
当检测到所述运动的位置与所述显示装置之间的距离变化时,以不同于所述第一模式的预设的第二模式移动所述指针。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0124214 | 2012-11-05 | ||
KR1020120124214A KR101969318B1 (ko) | 2012-11-05 | 2012-11-05 | 디스플레이장치 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103813193A true CN103813193A (zh) | 2014-05-21 |
Family
ID=49447925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310540849.3A Pending CN103813193A (zh) | 2012-11-05 | 2013-11-05 | 显示装置及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9817472B2 (zh) |
EP (1) | EP2728447B1 (zh) |
KR (1) | KR101969318B1 (zh) |
CN (1) | CN103813193A (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108211342A (zh) * | 2018-01-19 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 视角调整方法和装置、存储介质及电子装置 |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11176745B2 (en) | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11086406B1 (en) | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US10802600B1 (en) * | 2019-09-20 | 2020-10-13 | Facebook Technologies, Llc | Virtual interactions at a distance |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US12008717B2 (en) | 2021-07-07 | 2024-06-11 | Meta Platforms Technologies, Llc | Artificial reality environment control through an artificial reality environment schema |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11947862B1 (en) | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419498A (zh) * | 2007-10-22 | 2009-04-29 | 三菱电机株式会社 | 操作输入装置 |
CN101821705A (zh) * | 2007-10-05 | 2010-09-01 | 汤姆森特许公司 | 指针控制装置 |
CN101902588A (zh) * | 2009-06-01 | 2010-12-01 | Lg电子株式会社 | 图像显示设备及其操作方法 |
US20100306710A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Living cursor control mechanics |
CN101907936A (zh) * | 2009-06-04 | 2010-12-08 | 索尼公司 | 控制设备、输入设备、控制系统、手持式设备和控制方法 |
US20120218183A1 (en) * | 2009-09-21 | 2012-08-30 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010055346A (ja) | 2008-08-28 | 2010-03-11 | Panasonic Corp | ポインタ表示装置 |
US8441450B2 (en) * | 2008-09-30 | 2013-05-14 | Apple Inc. | Movable track pad with added functionality |
US8194038B1 (en) * | 2009-03-10 | 2012-06-05 | I-Interactive Llc | Multi-directional remote control system and method with automatic cursor speed control |
US8872762B2 (en) * | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
JP2012173865A (ja) * | 2011-02-18 | 2012-09-10 | Sony Corp | 3dポインタ生成装置及び3dポインタ生成方法 |
KR20120119440A (ko) * | 2011-04-21 | 2012-10-31 | 삼성전자주식회사 | 전자기기에서 사용자의 제스처를 인식하는 방법 |
-
2012
- 2012-11-05 KR KR1020120124214A patent/KR101969318B1/ko active IP Right Grant
-
2013
- 2013-10-07 EP EP13187480.2A patent/EP2728447B1/en active Active
- 2013-11-05 CN CN201310540849.3A patent/CN103813193A/zh active Pending
- 2013-11-05 US US14/071,967 patent/US9817472B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101821705A (zh) * | 2007-10-05 | 2010-09-01 | 汤姆森特许公司 | 指针控制装置 |
CN101419498A (zh) * | 2007-10-22 | 2009-04-29 | 三菱电机株式会社 | 操作输入装置 |
US20100306710A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Living cursor control mechanics |
CN101902588A (zh) * | 2009-06-01 | 2010-12-01 | Lg电子株式会社 | 图像显示设备及其操作方法 |
CN101907936A (zh) * | 2009-06-04 | 2010-12-08 | 索尼公司 | 控制设备、输入设备、控制系统、手持式设备和控制方法 |
US20120218183A1 (en) * | 2009-09-21 | 2012-08-30 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
Also Published As
Publication number | Publication date |
---|---|
US20140125594A1 (en) | 2014-05-08 |
KR101969318B1 (ko) | 2019-04-17 |
EP2728447A3 (en) | 2015-04-22 |
KR20140057892A (ko) | 2014-05-14 |
EP2728447B1 (en) | 2017-12-06 |
EP2728447A2 (en) | 2014-05-07 |
US9817472B2 (en) | 2017-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103813193A (zh) | 显示装置及其控制方法 | |
US11423769B2 (en) | Electronic apparatus, control method thereof, remote control apparatus, and control method thereof | |
US10948950B2 (en) | Information processing device, table, display control method, program, portable terminal, and information processing system | |
US8988342B2 (en) | Display apparatus, remote controlling apparatus and control method thereof | |
CN103513895A (zh) | 远程控制装置及其控制方法 | |
KR20140060818A (ko) | 원격 제어 장치, 디스플레이 장치 및 그 제어 방법 | |
EP2613227B1 (en) | Input apparatus and control method thereof | |
CN204945943U (zh) | 用于为外部显示设备提供远程控制信号的远程控制设备 | |
CN103279274A (zh) | 输入装置、显示装置及其控制方法和显示系统 | |
KR20130041052A (ko) | 전자 장치와 상기 전자 장치의 제어 방법 및 원격 제어 장치와 상기 원격 제어 장치의 제어 방법 | |
EP2538308A2 (en) | Motion-based control of a controllled device | |
JP2013143775A (ja) | ディスプレイ装置、入力装置及びこの制御方法 | |
WO2023221929A1 (zh) | 画面显示方法、装置、电子设备及存储介质 | |
KR20100091807A (ko) | 관성센서를 구비한 휴대용 멀티미디어 단말기 및 이를 이용한 명령 입력 방법 | |
MX2014015378A (es) | Aparato de entrada, aparato de despliegue, metodo de control de los mismos y sistema de despliegue. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140521 |
|
RJ01 | Rejection of invention patent application after publication |