CN105320398A - 控制显示装置的方法以及远程控制器 - Google Patents
控制显示装置的方法以及远程控制器 Download PDFInfo
- Publication number
- CN105320398A CN105320398A CN201510289629.7A CN201510289629A CN105320398A CN 105320398 A CN105320398 A CN 105320398A CN 201510289629 A CN201510289629 A CN 201510289629A CN 105320398 A CN105320398 A CN 105320398A
- Authority
- CN
- China
- Prior art keywords
- remote controllers
- display device
- information
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Selective Calling Equipment (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
提供一种控制显示装置的方法以及远程控制器。根据一个或更多个示例性实施例,一种远程控制器的用于控制显示装置的方法包括:捕捉对象的图像;基于捕捉到的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息;将检测到的信息发送到显示装置。
Description
本申请要求于2014年5月29日提交到韩国知识产权局的第10-2014-0065338号韩国专利申请的优先权,所述申请的公开内容通过引用整体合并于此。
技术领域
与示例性实施例一致的设备和方法涉及一种远程控制器和用于使用远程控制器控制显示装置的方法。
背景技术
作为多媒体技术和网络技术的快速发展的结果,诸如电视机(TV)的显示装置的性能被迅速提交。因此,显示装置能够提供大量信息,同时也能够提供各种功能,诸如游戏等。
因此,为了更容易控制越来越多的能够被显示在显示装置上的信息,以及控制使用户与各种功能(诸如游戏)进行交互,显示装置需要更加直观并且能够与用户进行各种交互。然而,当前的用于控制TV的远程控制器通常仅发送与远程控制器的键盘相应的输入,从而限制了可通过远程控制器被发送到显示装置的用户的输入的数量和类型。因此,用户与显示装置的交互也受相关远程控制限制。
发明内容
示例性实施例克服以上缺点和以上未描述的其它缺点。此外,示例性实施例不需要克服以上描述的缺点,并且示例性实施例可不克服上述任何问题。
一个或更多个示例性实施例与一种远程控制器和一种使用远程控制器来控制显示器的屏幕的方法相关。
附加的方面部分地将在随后的描述中被阐述,并且部分地将从所述描述变得清楚,或者可通过一个或更多个示例性实施例的实践而被获知。
根据示例性实施例的一方面,提供一种用于远程控制器控制显示装置的方法,所述方法包括:捕捉对象的图像;基于捕捉到的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息;将检测到的信息发送到显示装置。
捕捉对象的图像的步骤可包括:从远程控制器中所包括的运动传感器捕捉对象的图像。
所述方法还可包括:检测远程控制器的角度和方向中的至少一个;将检测到的角度和方向中的至少一个与参考范围进行比较;基于所述比较,选择性地激活远程控制器中所包括的运动传感器。
激活运动传感器的步骤可包括:基于所述比较,激活远程控制器中包括的触摸传感器和运动传感器之一。
检测关于对象的形状、位置、距离和移动中的至少一个的信息的步骤可包括:检测捕捉到的图像中所包括的对象的与预先存储的模板匹配的边界;基于检测到的边界,检测关于对象的形状、位置、距离和移动中的至少一个的信息。
预先存储的模板可以是手指的形状的模板。
所述方法还可包括:接收用户触摸设置在远程控制器中的脊状条的部分区域的用户输入;将关于被触摸的部分区域的位置信息发送到显示装置。
根据另一示例性实施例的一方面,提供一种远程控制器,包括:通信器,被配置为将数据发送到显示装置,和从显示装置接收数据;图像获取器,被配置为捕捉对象的图像;控制器,被配置为基于捕捉到的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息,并通过通信器将检测到的信息发送到显示装置。
图像获取器可包括运动传感器。
控制器可被配置为:检测远程控制器的角度和方向中的至少一个;将检测到的角度和方向中的至少一个与参考范围进行比较;基于所述比较,选择性地激活设置在远程控制器中的运动传感器。
控制器还可被配置为基于所述比较来激活远程控制器中包括的触摸传感器和运动传感器之一。
控制器还可被配置为:检测在捕捉到的图像中所包括的对象的与预先存储的模板匹配的边界,基于检测到的边界来检测关于对象的形状、位置、距离和移动中的至少一个的信息。
预先存储的模板可包括手指的形状的模板。
远程控制器还可包括:脊状条;用户接口,被配置为接收用户触摸脊状条的部分区域的用户输入,其中,控制器还可被配置为将关于被用户触摸的部分区域的位置的信息发送到显示装置。
根据示例性实施例的一方面,计算机可读记录介质可包括用于执行在此描述的方法的计算机程序。
根据另一示例性实施例的一方面,提供一种控制设备,包括:通信器,被配置为将数据发送到显示设备,和从显示设备接收数据;脊状条,被配置为接收用户输入;控制器,被配置为确定用户输入的位置,并根据用户输入的位置来控制显示设备。
控制器还可被配置为:确定与用户输入的位置和脊状条的全部长度之间的比较相应的比率;根据确定的比率,针对正被显示在显示设备上的视频确定回放时间点。
显示设备还可包括用户接口。
用户接口还可被配置为显示与视频中的多个时间点相应的多个缩略图。
用户接口还可被配置为用有区别的特征来显示所述多个缩略图之中的与回放时间点相应的缩略图。
附图说明
从结合附图对示例性实施例进行的以下描述,这些和/或其它方面将变得更明显和更易于理解,其中:
图1是示出根据示例性实施例的远程控制器的示图;
图2是示出根据示例性实施例的远程控制器选择性地激活远程控制器中所包括的传感器的方法的流程图;
图3A和图3B是示出根据示例性实施例的远程控制器激活远程遥控器中所包括的传感器的示图;
图4是示出根据示例性实施例的远程控制器识别对象并将关于识别出的对象的信息发送到显示装置的方法的流程图;
图5是示出根据示例性实施例的显示装置接收关于由远程控制器识别出的用户的运动的信息并控制显示装置的屏幕的方法的流程图;
图6是示出根据示例性实施例的远程控制器使用运动传感器来控制显示装置的示图;
图7是示出根据另一示例性实施例的远程控制器使用运动传感器来控制显示装置的示图;
图8是示出根据示例性实施例的显示装置通过远程控制器的脊状条(ridgebar)接收用户输入并控制显示装置的屏幕的方法的流程图;
图9是示出根据示例性实施例的显示装置通过远程控制器的脊状条接收用户输入并控制屏幕的示图;
图10是示出根据示例性实施例的远程控制器的框图;
图11是示出根据示例性实施例的显示装置的框图。
具体实施方式
在示例性实施例中使用的一些术语被简要地解释,并且示例性实施例被进一步详细地描说明。
在描述一个或更多个示例性实施例的过程中所使用的术语是在考虑其在本公开中的功能时从通常所使用的术语中选择的,但是术语可根据本领域技术人员的意图、判例法、新技术的出现等而改变。另外,可存在根据申请人自己的决定而选择的术语,并且在这种情况下,将在具体实施方式中的相应部分中解释含义。因此,在描述一个或更多个示例性实施例的过程中所使用的术语不应依照简单的名称来限定,而应基于术语的含义和本公开的示例性实施例的内容作为一个整体来限定。
应理解,当在此说明书中使用术语“包括”和/或“包括有…”时,不排除一个或更多个其它特征的存在或添加,除非另有明确描述。此外,诸如“单元”和“模块”的术语被用于指示用于处理至少一个功能或操作的单元,并且可由硬件、软件或硬件和软件的组合来实现。
现在将描述示例性实施例,在附图中示出了示例性实施例的示例,使得本领域普通技术人员可实现实施例。然而,应理解,示例性实施例可具有不同形式,并且不应被解释为受限于在此阐述的描述。此外,可省略在本领域公知的功能和结构的附图或描述中的不相关的部件。另外,相同参考标号始终指示相同的元件。
图1是示出根据示例性实施例远程控制器100的示图。
参照图1,远程控制器100可使用运动传感器150来识别对象的形状、位置、距离和/或移动。例如,如果用户将他们的手指移动到传感器150的感测空间中,则远程控制器100可识别用户的手指的形状、手指的位置以及手指的距离。这里,所述距离可以是从手指到远程控制器100的距离。此外,例如,当用户在手指位于运动传感器150的感测空间中的同时移动手指时,远程控制器100可跟踪手指的移动。远程控制器100可将关于识别出的对象的形状、位置、距离和/或移动的信息发送到显示设备200。
远程控制器100可通过用户在触摸屏160的部分区域上的触摸来接收用户输入。当用户输入被接收到时,远程控制器100可计算被触摸的区域相对于整个触摸屏160的位置。
远程控制器100可在触摸屏160上显示用户界面。此外,远程控制器100可包括单独的触摸板。例如,远程控制器100可通过触摸板或触摸屏160接收用户输入,并可将接收到的用户输入发送到显示装置200。
根据一个或更多个示例性实施例,远程控制器100可通过脊状条170来接收用户输入。在此示例中,脊状条170被布置在接近远程控制器的正面的底部,但是示例性实施例不限于此。脊状条170可包括具有细长条形状的触摸板。脊状条170可具有突出或凹陷的形状。作为示例,远程控制器170可通过在脊状条170的区域(诸如预定区域)处的触摸来接收用户输入。在接收到用户输入时,远程控制器100可计算被触摸的预定区域相对于脊状条170的整个长度的位置。远程控制器100可将通过脊状条170接收的用户输入发送到显示装置200。
图2是示出根据示例性实施例的远程控制器100选择性地激活远程控制器100中所包括的传感器的方法的流程图。
参照图2,在操作S210,远程控制器100检测远程控制器100的角度和方向中的至少一个。例如,远程控制器100可包括可被用于检测远程控制器100的角度和方向中的至少一个的以下传感器中的至少一个:陀螺仪传感器、地磁传感器、加速度传感器等。例如,可相对于重力来确定远程控制器100的角度和方向。
在操作S220,远程控制器100将检测到的角度和方向中的至少一个与参考范围进行比较。例如,用于角度和方向中的至少一个的参考范围可被设置,或可被预先确定并被存储在远程控制器100中。通过检测角度和方向中的至少一个,远程控制器100可确定检测到的角度和方向中的至少一个是否位于参考范围内。
在此示例中,如果在操作S220远程控制器100确定检测到的角度和方向中的至少一个位于参考范围内,则在操作S230远程控制器100激活远程控制器100中所包括的运动传感器150。例如,当检测到的角度和方向中的至少一个位于参考范围内,则远程控制器100可激活运动传感器150并且同时禁用触摸传感器,或者可保持触摸传感器的激活状态或禁用状态。此外,当检测到的角度和检测到的方向均位于参考范围内时,远程控制器100可激活运动传感器150。
当运动传感器150被激活时,远程控制器100可提供指示运动传感器150被激活的信息。例如,远程控制器100可在远程控制器100的屏幕上显示指示运动传感器150被激活的信息。当触摸传感器被禁用时,远程控制器100可在远程控制器100的屏幕上显示指示触摸传感器被禁用的信息。
在操作S240,远程控制器100使用被激活的运动传感器150来识别用户的运动。例如,当运动传感器150被激活时,运动传感器150可使用远程控制器100中所包括的相机来捕捉位于运动传感器150的感测空间中的对象的照片。远程控制器100可从通过拍摄对象而获得的图像检测关于对象的形状、位置、距离和移动中的至少一个的信息。
相反,当在操作S220确定检测到的角度和方向中的至少一个超出参考范围时,在操作S250远程控制器100激活远程控制器100中所包括的触摸传感器。例如,当检测到的角度和方向中的至少一个超出参考范围时,远程控制器100可激活触摸传感器并同时禁用运动传感器150。
当触摸传感器被激活时,远程控制器100可提供指示触摸传感器被激活的信息。例如,远程控制器100可在远程控制器100的屏幕上显示指示触摸传感器被激活的信息。此外,远程控制器100可在远程控制器100的屏幕上显示指示运动传感器150被禁用的信息。
在操作S260,远程控制器100使用被激活的触摸传感器来接收用户的触摸输入。例如,当触摸传感器被激活时,远程控制器100可检测被用户触摸的区域相对于触摸传感器的整个区域的位置。
在操作S270,远程控制器100将与使用被激活的触摸传感器而检测到的对象的形状、位置、距离和移动中的至少一个有关的信息或关于被触摸的位置的信息发送到显示装置200。
图3A和图3B是示出根据示例性实施例的远程控制器100选择性地激活远程控制器100中所包括的传感器的示图。
参照图3A和图3B,远程控制器100可具有三棱柱形。在此示例中,用户输入装置(诸如触摸屏160、脊状条170和运动传感器150)可被包括在三棱柱的侧面上。用户从三棱柱的不包括用户输入功能的其它两个侧面中选择的一个侧面可被放在平面上,以支撑远程控制器100。
参照图3A,远程控制器100可以以使运动传感器150被放置在平面上的方式被放在平面上。在此示例中,因为运动传感器150被放置在平面上,因此远程控制器100可检测远程控制器100的角度和方向。例如,如果检测到的角度和方向位于参考范围内,则远程控制器100可激活运动传感器150并禁用触摸传感器。远程控制器100的运动传感器150被激活并且触摸传感器被禁用的状态可被称为手动作控制模式。
参照图3B,远程控制器100的角度和方向可被改变,并且运动传感器150可不与平面接触。在此示例中,因为支撑远程控制器100的平面在三棱柱中改变,因此远程控制器100的角度和方向也会改变。因此,当远程控制器100的角度和方向改变时,远程控制器100可检测改变的角度和方向。
如果远程控制器100的改变的角度和方向中的至少一个超出参考范围,则远程控制器100可禁用运动传感器150并激活触摸传感器。运动传感器150被禁用并且触摸传感器被激活的状态可被称为触摸模式。
图4是示出根据示例性实施例的远程控制器100识别对象并将关于识别出的对象的信息发送到显示装置200的方法的流程图。
参照图4,在操作S410,远程控制器100获得对象的图像。例如,远程控制器100可基于远程控制器100的角度和方向中的至少一个来激活运动传感器150。当运动传感器150被激活时,运动传感器150可拍摄位于运动传感器150的感测空间中的对象的照片。这里,对象可指的是用户的手指或整个手的一部分。远程控制器100可获得由运动传感器150拍摄的对象的图像。例如,响应于用户将手放置在运动传感器150的感测空间中,远程控制器100可捕捉用户的手指的图像。
运动传感器150可被预先设置,使得运动传感器150的感测空间被布置在距远程控制器100的预定区域或相对于远程控制器100的预定区域。例如,可将运动传感器150在远程控制器100中的位置设置为使得运动传感器150的感测空间被形成在远程控制器100被放置的地表面之上。在此示例中,当用户在远程控制器100以上的预定高度处移动手指时,远程控制器100可识别用户的手指的移动。
作为示例,运动传感器150可包括3D相机传感器、红外光传感器等,但是不限于这些示例。此外,运动传感器150可包括朝着对象发射光的光源单元以及感测从对象反射的光的感测单元。作为另一示例,运动传感器150可仅包括感测从对象反射的光的感测单元。朝着对象发射的光可包括具有各种波长的光,诸如红外线、紫外线、可见光、X射线等。运动传感器150可被称为运动姿态传感器(MGS)或在一些示例中被称为光学运动传感器。
在操作S420,远程控制器100基于在操作S410获得的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息。远程控制器100可基于由运动传感器150获得的对象的图像来识别对象的形状、位置、距离和移动中的至少一个。
例如,运动传感器150可包括RGB相机,运动传感器150可从接收从对象反射的可见光并产生对象的彩色图像。例如,远程控制器100可从产生的彩色图像检测对象的边界。使用检测到的对象的边界,远程控制器100可检测对象的形状和位置。
例如,如果运动传感器150包括发射红外线的光源单元以及接收从对象反射的红外线的感测单元,则运动传感器150可根据接收到的红外线的强度来产生具有变化的像素亮度的对象图像。在此示例中,远程控制器100可从感测单元接收对象图像,并可基于接收到的对象图像的像素亮度来检测对象距感测单元的距离。
作为另一示例,远程控制器100可检测对象的边界或轮廓,随着时间的推移而跟踪检测到的边界和轮廓,并检测对象的移动。例如,可被检测的对象的可能形状可被预先存储在远程控制器100中。例如,将被检测的可能的对象可以是人体的手指。在此示例中,根据手势的手指的形状可作为模板被存储在远程控制器100中。在此示例中,远程控制器100可在从运动传感器150接收到的图像中检测与模板相似的形状的边界。因此,远程控制器100可识别由用户做出的手指手势。
远程控制器100可从获得的图像中检测对象的与预先存储的模板匹配的边界。基于检测到的边界,远程控制器100可检测关于对象的形状、位置、距离和移动中的至少一个的信息。
在操作S430,远程控制器100将检测到的信息发送到显示装置200。例如,远程控制器100可实时地将关于对象的形状、位置、距离和移动中的至少一个的信息发送到显示装置200。
远程控制器100可将所有检测到的关于对象的形状、位置、距离和移动中的至少一个的信息发送到显示装置200,或可仅发送检测到的信息中被显示装置200请求的一部分信息。例如,不发送关于用户的整个手指的形状、位置、距离和移动的信息,而是可将仅关于手末端的位置、距离和移动的信息发送到显示装置200。
图5是示出根据示例性实施例的显示装置200接收关于由远程控制器100识别出的用户的运动的信息并控制屏幕的方法的流程图。
参照图5,在操作S510,显示装置200从远程控制器100接收由远程控制器100的运动传感器150检测到的关于对象的形状、位置、距离和移动中的至少一个的信息。
作为另一示例,显示装置200可从远程控制器100接收由远程控制器100的触摸传感器获得的关于用户输入的信息。当远程控制器100的运动传感器150和触摸传感器之一被激活时,显示装置200可从远程控制器100接收指示被激活的传感器的类型的信息。例如,显示装置200可确定从远程控制器100接收到的用户输入的类型。
在操作S520,显示装置200基于接收到的关于对象的形状、位置、距离和移动中的至少一个的信息来改变在屏幕上显示的图像。
各种操作可与用户的各种手势配对。例如,可在显示装置200中预先设置将响应于用户的手指手势而被显示装置200执行的操作。此外,可根据应用的类型不同地设置将响应于手指手势而被执行的操作。例如,依据应用,执行操作可以是翻过在屏幕上显示的页面的操作,或者可以是选择图像对象的操作。
因此,基于对象的形状、位置、距离和/或移动,显示装置200可确定对象的手势并执行与确定的手势相应的操作。
图6是示出根据示例性实施例的远程控制器100使用运动传感器150控制显示装置200的示图。参照图6,用户将他的手指放置在远程控制器100以上的预定高度处。这里,远程控制器100可识别用户的手指的形状或轮廓。远程控制器100也可检测用户的手指在远程控制器100的感测空间中的位置,以及用户的手指与远程控制器100之间的距离。此外,远程控制器100可将检测到的用户的手指的形状、位置和距离发送到显示装置200。
例如,显示装置200可执行用于选择与在伸出食指的情况下握拳的手的形状相应的图像对象的执行操作。在此示例中,当在伸出食指的情况下握拳的手指形状被接收到时,显示装置200可在多个图像对象之中选择在与用户的手指在感测空间中的位置相应的屏幕位置上所显示的图像对象610。
当图像对象610被选择时,显示装置200可将选择的图像对象610显示为使得被选择的图像对象610可与其它图像对象区分开。
例如,随着用户在伸出食指的情况下握拳的同时移动他的整个手,显示装置200可基于手的移动来选择另一图像对象。
作为另一示例,在在伸出食指的情况下进行握拳时,用于点击图像对象的执行操作可响应于向上或向下移动食指的手势而被执行。当向上或向下移动食指的手势被接收到时,显示装置200可执行点击被选择的图像对象的操作。
图7是示出根据示例性实施例的远程控制器100使用运动传感器150控制显示装置200的示图。
在图7的示例中,可在显示装置200中执行飞机710根据用户操纵而移动的飞行游戏。在此示例中,可设置用于响应于每个手指伸展开的手的移动而使飞机710移动的执行操作。在此示例中,用户可移动他的手,并且显示设备100可检测手移动的相应方向。
在此示例中,当手的移动被接收到时,显示装置200可将屏幕上的飞机710移动到屏幕中的与手在感测空间中的移动位置相应的位置。此外,当接收到用户的手向左或向右倾斜的手势时,显示装置200可执行根据飞机710向左或向右的倾斜的操作。
图8是示出根据示例性实施例的显示装置200接收通过远程控制器100的脊状条170接收到的用户输入并控制屏幕的方法的流程图。
在操作S810,显示装置200显示用于根据预设顺序输出一系列数据项的用户界面。例如,可预先设置一列数据项的输出顺序。例如,一系列数据项可包括运动画面内容、音乐内容、电子书等。此外,用户界面可包括被输出的数据项的顺序以及数据项的总数。例如,用户界面可包括与整个数据相应的沿水平方向的条。
在此操作S820,显示装置200从远程控制器100接收关于在远程控制器100的脊状条170的区域中被用户触摸的部分区域的位置信息。
例如,关于显示装置200的屏幕中的被触摸的部分区域的位置信息可包括被触摸的部分区域距参考点的长度信息以及脊状条170的整个长度信息。例如,位置信息可包括被用户触摸的屏幕的区域的长度。此外,关于被触摸的部分区域的位置信息可包括与从被触摸的部分区域距参考点的长度与脊状条170的整个长度相比的比率有关的信息。
在操作S830,显示装置200基于位置信息来输出一系列数据项中的一项。显示装置200可计算从被触摸的部分区域距参考点的长度相对于脊状条170的整个长度的比率。
根据计算出的比率,显示装置200可输出一系列数据项中的一项或更多项。例如,当一系列数据项包括运动画面内容时,显示装置200可确定与被触摸的位置相应的回放时间。例如,显示装置200可从确定的回放时间点开始回放运动画面。
图9是示出根据示例性实施例的显示装置200接收通过远程控制器100的脊状条170被输入的用户输入并控制显示主装置200的屏幕的示图。
参照图9,显示装置200可在显示装置200的屏幕上再现运动画面内容。例如,在远程控制器100作为绝对定位装置进行操作的示例中,远程控制器100可接收触摸脊状条170的用户的用户输入。例如,当脊状条170的部分区域被触摸时,远程控制器100可将脊状条170的被触摸的部分区域的位置发送到显示装置200。
在一些示例中,显示装置200可从远程控制器100接收脊状条170的被触摸的部分区域的位置。例如,当接收到脊状条170的被触摸的部分区域的位置时,显示装置200可按照这样的方式来确定回放时间点:被选择的回放时间点相对于整个回放时间的时间比率与被触摸的部分区域距脊状条170的起点的长度相对于脊状条170的整个长度的比率相同。例如,如果距脊状条的起点的长度是脊状条170的整个长度的三分之一的点被触摸,则显示装置200可将作为整个回放时间的三分之一的回放时间点确定为用户选择的回放时间点。
作为示例,显示装置200可显示能够使用户选择回放时间点的用户界面。例如,用户界面可包括被用户选择的回放时间点的时间信息以及将在与回放时间点相邻的时间范围内被回放的帧的缩略图910。此外,用户界面可将被用户选择的回放时间点的缩略图920显示为使得缩略图920与其它帧的其它缩略图910区分开。例如,用户界面可以以比其它缩略图910的尺寸更大的尺寸来显示被用户选择的回放时间点的缩略图920。
此外,用户可在手指触摸脊状条170(相对触摸)的同时向左或向右滚动脊状条170。在此示例中,显示装置200可从远程控制器100接收基于被触摸的位置的位置改变。例如,基于改变的被触摸的位置,显示装置200可从被用户选择的回放时间点向前或向后移动。基于被移动的回放时间点,显示装置200可显示被移动的回放时间点的时间信息,并以缩略图来显示与被移动的回放时间点紧邻或与被移动的回放时间点相邻的时间范围内的帧。
此外,远程控制器100可在远程控制器100的触摸屏160上显示用于选择回放时间点的用户界面。例如,远程控制器100可在触摸屏160上显示用于诸如回放、暂停、前进和后退的操作的用户界面。
用于按时间顺序显示数据项的用户界面可以是沿水平方向的图形用户界面。因此,通过附加与沿水平方向的GUI类似的沿水平方向的细长脊状条170,用户可通过使用脊状条170直观地选择数据项,而不必学习可能令人混淆的新处理。
图10是根据示例性实施例的远程控制器100的框图。
参照图10,远程控制器100可包括图像获取器110、控制单元120(例如,控制器)和通信器130。
图像获取器110可获取靠近远程控制器100的对象的图像。图像获取器110可包括运动传感器150。图像获得器110可获取由运动传感器150捕捉到的对象的图像。
通信器130可通过短距离无线通信将数据发送到显示装置200或从显示装置200接收数据。
此外,通信器130可包括短距离无线通信单元,其中,短距离无线通信单元包括蓝牙通信单元、蓝牙低功耗(BLE)通信单元、近场通信单元、无线局域网(WLAN、WiFi)通信单元、ZigBee通信单元、红外数据协会(IrDA)通信单元、WiFi直连(WFD)通信单元、超宽带(UWB)通信单元和Ant+通信单元,但不限于此。
此外,通信单元130可将无线信号发送到移动通信网络中的基站、外部终端和服务器中的至少一个,或从基站、外部终端和服务器中的至少一个接收无线信号。在此示例中,无线信号可包括语音呼叫信号、视频通信呼叫信号以及根据文本和/或多媒体消息发送和接收的各种数据形式中的至少一个。
控制单元120可控制远程控制器100的常规操作。例如,控制单元120可执行存储在存储单元中的程序,从而控制图像获取器110、控制单元120和通信器130。
此外,控制单元120可基于远程控制器100的角度和方向中的至少一个来激活运动传感器150。
例如,控制单元120可检测远程控制器100的角度和方向中的至少一个。此外,控制单元120可将检测到的角度和方向中的至少一个与参考范围进行比较。基于检测到的角度和方向中的至少一个是否位于参考范围内,控制单元120可激活运动传感器150。
此外,控制单元120可基于由图像获取器110获取的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息。
例如,控制单元120可从彩色图像检测对象的边界。通过使用检测到的对象的边界,控制单元120可检测对象的形状和位置。此外,基于对象的图像的像素亮度,控制单元120可检测对象距感测单元的距离。通过检测具有与模板相似的形状的边界,控制单元120可识别由用户做出的手指手势。
此外,通过通信器130,控制单元120可将检测到的信息发送到显示装置200。
此外,远程控制器100可包括存储单元。存储单元可预先存储将被检测的对象的形状。例如,如果期望被检测的对象是人体的手指,则根据手势的人体的手指的形状可作为模板被存储在存储单元中。
此外,远程控制器100还可包括显示器。通过被控制单元120控制,显示单元可显示正被远程控制器100处理的信息。
当显示器和触摸板具有层结构以形成触摸屏时,显示器可被用作输入装置以及输出装置。
显示器可包括以下显示器中的至少一个:液晶显示器、薄膜晶体管液晶显示器、有机发光二极管显示器、柔性显示器、3D显示器和电泳显示器。
此外,远程控制器100可包括用户输入单元(例如,用户接口)。用户输入单元可接收用于控制远程控制器100的用户输入。用户输入单元可包括键区、圆顶开关、触摸板(接触型电容方法、压力型电阻薄膜方法、红外感测方法、表面超声透射方法、整体张力测量方法、压电效应方法等)、滚轮和轮滚开关中的至少一个,但不限于此。
图11是根据示例性实施例的显示装置200的框图。
参照图11,显示装置200可包括图像接收器210、图像处理器220、通信器230、控制单元240(例如,控制器)和显示单元250(例如,显示器)。
图像接收器210可从外部网络接收广播数据。例如,图像接收器210可接收地面波广播信号、有线广播信号、IPTV广播信号和卫星广播信号中的至少一个。因此,图像接收器210可包括有线TV接收器、IPTV接收器和卫星广播接收器中的至少一个。
此外,图像接收器210可从外部装置接收图像信号。例如,图像接收器210可接收来自PC、视听(AV)装置、智能电话和智能平板的图像信号中的至少一个。
图像处理器220可对地面波广播信号、有线广播信号、IPTV广播信号和卫星广播信号中的至少一个执行解调。解调之后的数据可包括压缩图像、音频和附加信息中的至少一个。图像处理器220可通过对遵循MEPGx/H.264标准的压缩图像执行解压缩来产生视频原始数据。此外,图像处理器220可通过对遵循MPEGx/AC3/AAC标准的压缩语音执行解压缩来产生音频原始数据。图像处理器220可将解压缩的视频数据发送到显示单元250。
通信器230可通过短距离无线通信将数据发送到远程控制器100或从远程控制器100接收数据。
通信器230可通过诸如数据通信信道的通信网络来与外部服务器执行数据通信,其中,数据通信信道用于执行与由图像接收器210接收的广播内容分开的数据的通信。
通信器230可包括以下单元中的至少一个单元:蓝牙通信单元、BLE通信单元、近场通信单元、无线局域网(WLAN、WiFi)通信单元、ZigBee通信单元、IrDA通信单元、WFD通信单元、UWB通信单元和Ant+通信单元,但不限于此。
此外,通信器230可将无线信号发送到移动通信网络中的基站、外部终端和服务器中的至少一个,或者从基站、外部终端和服务器中的至少一个接收无线信号。这里,无线信号可包括语音呼叫信号、视频通信呼叫信号或根据文本和/或多媒体消息发送和接收的各种数据形式。
控制器240可控制显示单元250显示正被显示装置200处理的信息。
此外,显示单元250可显示由图像处理器220解压缩的视频数据。例如,显示单元250可显示地面波广播、有线广播、IPTV广播和卫星广播中的至少一个的图像。此外,显示单元250可显示正被控制单元240执行的应用的执行图像。
当显示单元250和触摸板具有层结构以形成触摸屏时,显示单元250可被用作输入装置以及输出装置。显示单元250可包括以下显示器中的至少一个:液晶显示器、薄膜晶体管液晶显示器、有机发光二极管显示器、柔性显示器、3D显示器和电泳显示器。另外,根据示例性实施例,显示装置200可包括两个或更多个显示单元250。
此外,显示装置200可包括用户输入单元。用户输入单元可接收用于控制显示装置200的用户输入。用户输入单元可包括键区、圆顶开关、触摸板(接触型电容方法、压力型电阻薄膜方法、红外感测方法、表面超声透射方法、整体张力测量方法、压电效应方法等)、滚轮和轮滚开关中的至少一个,但不限于此。
此外,用户输入单元可包括与显示装置200分离的远程控制器110。
控制单元240可控制显示装置200的全部操作。例如,控制单元240可执行存储在存储单元中的程序,从而控制图像接收器210、图像处理器220、通信器230、显示单元250和用户输入单元。
通过通信器230,控制单元可从远程控制器100接收由远程控制器100的运动传感器250检测到的关于对象的形状、位置、距离和移动中的至少一个的信息。
控制单元240可从远程控制器100接收关于由触摸传感器获得的用户输入的信息。
此外,当远程控制器100的运动传感器150和触摸传感器之一被激活时,控制单元240可从远程控制器100接收指示被激活的传感器的类型的信息。因此,控制单元240可确定从远程控制器100接收到的用户输入的类型。
此外,基于接收到的关于对象的形状、位置、距离和移动中的至少一个的信息,控制单元240可改变在显示单元250的屏幕上显示的图像。例如,基于对象的形状、位置、距离和移动,控制单元240可确定对象的手势,并执行与确定的手势相应的操作。
控制单元240可在显示单元250的屏幕上显示用户界面以按预设顺序输出一系列数据项。
此外,控制单元240可通过通信器170从远程控制器100接收关于在远程控制器100的脊状条170的区域中被用户触摸的预定区域的信息。
此外,基于位置信息,控制单元240可输出一系列数据项中的一项。
一个或更多个示例性实施例可以以记录介质的形式来实现,其中,所述记录介质包括可被计算机执行的指令(诸如被计算机执行的程序模块)。计算机可读介质可以是可被计算机访问的随机可用介质,并可包括易失性和非易失性介质以及可移除和不可移除介质。此外,计算机可读记录介质可包括所有计算机存储介质和通信介质。计算机存储介质可包括可通过用于存储信息(诸如可读指令、数据结构、程序模块或其它数据)的方法或技术来实现的所有的易失性和非易失性介质以及可移除和不可移除介质。通信介质可包括计算机可读指令、数据结构、程序模块或被调制的数据信号或其它传输机制的其它数据,并且还包括任意信息传输介质。
虽然已参照附图描述了一个或更多个示例性实施例,但是本领域普通技术人员应理解,可在不脱离由权利要求限定的精神和范围的情况下,在示例性实施例中做出形式和细节上的各种改变。应理解,在此描述的示例性实施例应仅被解释为描述意义,而不用于限制的目的。例如,作为一个元件被解释的每个元件可以以单独的单元来实现,并且类似的,作为单独的元件被解释的元件可以以组合形式来实现。
因此,本发明构思的范围不由具体实施方式来限定,而由权利要求来限定,并且权利要求的含义和范围以及从等同于权利要求的构思获得的所有修改或修改形式将被解释为包括在本发明构思中。
Claims (15)
1.一种远程控制器的用于控制显示装置的方法,所述方法包括:
捕捉对象的图像;
基于捕捉到的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息;
将检测到的信息发送到显示装置。
2.如权利要求1所述的方法,其中,捕捉对象的图像的步骤包括:从远程控制器中所包括的运动传感器捕捉对象的图像。
3.如权利要求2所述的方法,还包括:
检测远程控制器的角度和方向中的至少一个;
将检测到的角度和方向中的至少一个与参考范围进行比较;
基于所述比较,选择性地激活远程控制器中所包括的运动传感器。
4.如权利要求3所述的方法,其中,激活运动传感器的步骤包括:基于所述比较,激活远程控制器中包括的触摸传感器和运动传感器之一。
5.如权利要求1所述的方法,其中,检测关于对象的形状、位置、距离和移动中的至少一个的信息的步骤包括:
检测捕捉到的图像中所包括的对象的与预先存储的模板匹配的边界;
基于检测到的边界,检测关于对象的形状、位置、距离和移动中的至少一个的信息。
6.如权利要求5所述的方法,其中,预先存储的模板包括手指的形状的模板。
7.如权利要求1所述的方法,还包括:
接收用户触摸设置在远程控制器中的脊状条的部分区域的用户输入;
将关于被触摸的部分区域的位置信息发送到显示装置。
8.一种远程控制器,包括:
通信器,被配置为将数据发送到显示装置和从显示装置接收数据;
图像获取器,被配置为捕捉对象的图像;
控制器,被配置为基于捕捉到的图像来检测关于对象的形状、位置、距离和移动中的至少一个的信息,并通过通信器将检测到的信息发送到显示装置。
9.如权利要求8所述的远程控制器,其中,图像获取器包括运动传感器。
10.如权利要求9所述的远程控制器,其中,控制器还被配置为:
检测远程控制器的角度和方向中的至少一个;
将检测到的角度和方向中的至少一个与参考范围进行比较;
基于所述比较,选择性地激活设置在远程控制器中的运动传感器。
11.如权利要求10所述的远程控制器,其中,
控制器还被配置为基于所述比较来激活远程控制器中包括的触摸传感器和运动传感器之一。
12.如权利要求8所述的远程控制器,其中,控制器还被配置为:检测捕捉到的图像中所包括的对象的与预先存储的模板匹配的边界,并基于检测到的边界来检测关于对象的形状、位置、距离和移动中的至少一个的信息。
13.如权利要求12所述的远程控制器,其中,预先存储的模板包括手指的形状的模板。
14.如权利要求8所述的远程控制器,还包括:
脊状条;
用户接口,被配置为接收用户触摸脊状条的部分区域的用户输入,
其中,控制器还被配置为将关于用户触摸的部分区域的位置的信息发送到显示装置。
15.如权利要求14所述的远程控制器,其中,控制器还被配置为:
确定与用户触摸的部分区域的位置和脊状条的整个长度之间的比较相应的比率;
根据确定的比率,针对正被显示在显示装置上的视频确定回放时间点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140065338A KR20150137452A (ko) | 2014-05-29 | 2014-05-29 | 디스플레이 장치 제어 방법 및 이를 위한 원격 제어 장치 |
KR10-2014-0065338 | 2014-05-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105320398A true CN105320398A (zh) | 2016-02-10 |
Family
ID=54699211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510289629.7A Pending CN105320398A (zh) | 2014-05-29 | 2015-05-29 | 控制显示装置的方法以及远程控制器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150350587A1 (zh) |
EP (1) | EP3092549A4 (zh) |
KR (1) | KR20150137452A (zh) |
CN (1) | CN105320398A (zh) |
WO (1) | WO2015182935A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109478107A (zh) * | 2016-05-20 | 2019-03-15 | Coredar株式会社 | 电子装置及其操作方法 |
CN112789675A (zh) * | 2018-10-01 | 2021-05-11 | 松下电器(美国)知识产权公司 | 显示装置和显示控制方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10712836B2 (en) * | 2016-10-04 | 2020-07-14 | Hewlett-Packard Development Company, L.P. | Three-dimensional input device |
EP3396226B1 (en) * | 2017-04-27 | 2023-08-23 | Advanced Digital Broadcast S.A. | A method and a device for adjusting a position of a display screen |
JP6719087B2 (ja) * | 2017-12-08 | 2020-07-08 | パナソニックIpマネジメント株式会社 | 入力装置、及び、入力方法 |
KR20210125193A (ko) * | 2020-04-08 | 2021-10-18 | 삼성전자주식회사 | 디스플레이 시스템, 디스플레이 시스템의 제어 방법 및 디스플레이 장치 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6647200B1 (en) * | 1998-10-29 | 2003-11-11 | Securion 24 Co., Ltd. | Digital recorder, monitoring system, remote monitoring system, monitor image retrieval method, remote image reproduction method, recording medium and computer data signal |
US6535694B2 (en) * | 2001-02-12 | 2003-03-18 | Thomson Licensing S.A. | Finger actuated device having a proximity detector |
US20060044399A1 (en) * | 2004-09-01 | 2006-03-02 | Eastman Kodak Company | Control system for an image capture device |
WO2007013652A1 (ja) * | 2005-07-29 | 2007-02-01 | Pioneer Corporation | 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム |
JP4709101B2 (ja) * | 2006-09-01 | 2011-06-22 | キヤノン株式会社 | 自動追尾カメラ装置 |
US8291346B2 (en) * | 2006-11-07 | 2012-10-16 | Apple Inc. | 3D remote control system employing absolute and relative position detection |
EP1950957A2 (en) * | 2007-01-23 | 2008-07-30 | Funai Electric Co., Ltd. | Image display system |
TWM318760U (en) * | 2007-01-26 | 2007-09-11 | Pixart Imaging Inc | Remote controller |
CN101689244B (zh) * | 2007-05-04 | 2015-07-22 | 高通股份有限公司 | 用于紧凑设备的基于相机的用户输入 |
US7889175B2 (en) * | 2007-06-28 | 2011-02-15 | Panasonic Corporation | Touchpad-enabled remote controller and user interaction methods |
US20090327111A1 (en) * | 2007-09-28 | 2009-12-31 | The Western Union Company | Bill payment in association with television service providers systems and methods |
US8237807B2 (en) * | 2008-07-24 | 2012-08-07 | Apple Inc. | Image capturing device with touch screen for adjusting camera settings |
JP4697279B2 (ja) * | 2008-09-12 | 2011-06-08 | ソニー株式会社 | 画像表示装置および検出方法 |
JP4683103B2 (ja) * | 2008-09-22 | 2011-05-11 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US20100171878A1 (en) * | 2009-01-07 | 2010-07-08 | Echostar Technologies L.L.C. | Systems and methods for selecting and displaying video content |
US20100231511A1 (en) * | 2009-03-10 | 2010-09-16 | David L. Henty | Interactive media system with multi-directional remote control and dual mode camera |
US8742885B2 (en) * | 2009-05-01 | 2014-06-03 | Apple Inc. | Directional touch remote |
US9232167B2 (en) * | 2009-08-04 | 2016-01-05 | Echostar Technologies L.L.C. | Video system and remote control with touch interface for supplemental content display |
KR101657565B1 (ko) * | 2010-04-21 | 2016-09-19 | 엘지전자 주식회사 | 증강 원격제어장치 및 그 동작 방법 |
US8316413B2 (en) * | 2010-02-04 | 2012-11-20 | Eldon Technology Limited | Apparatus for displaying electrical device usage information on a television receiver |
US8229242B2 (en) * | 2010-03-25 | 2012-07-24 | Mitsubishi Electric Research Laboratories, Inc. | Method for reconstructing surfaces of specular object from sparse reflection correspondences |
KR20110116525A (ko) * | 2010-04-19 | 2011-10-26 | 엘지전자 주식회사 | 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법 |
EP2416564B1 (en) * | 2010-08-02 | 2016-04-13 | Lg Electronics Inc. | Method for providing a shortcut and image display device thereof |
KR20120046973A (ko) * | 2010-11-03 | 2012-05-11 | 삼성전자주식회사 | 움직임 정보 생성 방법 및 장치 |
KR101337429B1 (ko) * | 2012-02-29 | 2013-12-05 | 고려대학교 산학협력단 | 입력 장치 |
JP5694867B2 (ja) * | 2011-06-27 | 2015-04-01 | 京セラ株式会社 | 携帯端末装置、プログラムおよび表示制御方法 |
US9002739B2 (en) * | 2011-12-07 | 2015-04-07 | Visa International Service Association | Method and system for signature capture |
TW201351959A (zh) * | 2012-06-13 | 2013-12-16 | Wistron Corp | 立體全景影像合成方法及其相關之立體攝影機 |
US8843964B2 (en) * | 2012-06-27 | 2014-09-23 | Cable Television Laboratories, Inc. | Interactive matrix cell transformation user interface |
TWI484376B (zh) * | 2012-08-09 | 2015-05-11 | Pixart Imaging Inc | 互動系統及遙控裝置 |
GB2504999B8 (en) * | 2012-08-17 | 2015-04-22 | Sony Comp Entertainment Europe | Apparatus and method for object positioning |
KR102104497B1 (ko) * | 2012-11-12 | 2020-04-24 | 삼성전자주식회사 | 영상을 표시하는 방법 및 이를 위한 장치 |
TW201421294A (zh) * | 2012-11-29 | 2014-06-01 | Hon Hai Prec Ind Co Ltd | 游標控制系統及方法 |
US9274606B2 (en) * | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
-
2014
- 2014-05-29 KR KR1020140065338A patent/KR20150137452A/ko not_active Application Discontinuation
-
2015
- 2015-05-22 WO PCT/KR2015/005201 patent/WO2015182935A1/en active Application Filing
- 2015-05-22 EP EP15800505.8A patent/EP3092549A4/en not_active Withdrawn
- 2015-05-29 CN CN201510289629.7A patent/CN105320398A/zh active Pending
- 2015-05-29 US US14/725,355 patent/US20150350587A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109478107A (zh) * | 2016-05-20 | 2019-03-15 | Coredar株式会社 | 电子装置及其操作方法 |
CN112789675A (zh) * | 2018-10-01 | 2021-05-11 | 松下电器(美国)知识产权公司 | 显示装置和显示控制方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20150137452A (ko) | 2015-12-09 |
WO2015182935A1 (en) | 2015-12-03 |
US20150350587A1 (en) | 2015-12-03 |
EP3092549A4 (en) | 2017-10-04 |
EP3092549A1 (en) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10771836B2 (en) | Display apparatus and control method thereof | |
CN105320398A (zh) | 控制显示装置的方法以及远程控制器 | |
US9977497B2 (en) | Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal | |
US10120454B2 (en) | Gesture recognition control device | |
US10013083B2 (en) | Utilizing real world objects for user input | |
US8922721B2 (en) | Display apparatus and control method thereof | |
US20160117076A1 (en) | Mobile terminal and control method thereof | |
US9632642B2 (en) | Terminal apparatus and associated methodology for automated scroll based on moving speed | |
US20150123919A1 (en) | Information input apparatus, information input method, and computer program | |
US20090146968A1 (en) | Input device, display device, input method, display method, and program | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
KR102155091B1 (ko) | 이동단말기 및 그 제어방법 | |
CN104765584A (zh) | 用户终端装置及其控制方法 | |
KR101872272B1 (ko) | 제어 기기를 이용한 전자기기의 제어 방법 및 장치 | |
CN103729054A (zh) | 多显示设备及其控制方法 | |
US10095384B2 (en) | Method of receiving user input by detecting movement of user and apparatus therefor | |
EP2824905A1 (en) | Group recording method, machine-readable storage medium, and electronic device | |
CN108024127A (zh) | 图像显示装置、移动设备及其操作方法 | |
KR20150031986A (ko) | 디스플레이장치 및 그 제어방법 | |
KR20160009976A (ko) | 이동 단말기 및 그 제어 방법 | |
US20160147294A1 (en) | Apparatus and Method for Recognizing Motion in Spatial Interaction | |
KR102255087B1 (ko) | 객체를 디스플레이하는 전자 장치 및 방법 | |
US10506290B2 (en) | Image information projection device and projection device control method | |
US20170052674A1 (en) | System, method, and device for controlling a display | |
KR101537625B1 (ko) | 이동단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160210 |