CN103197862A - 电子设备及其控制方法 - Google Patents

电子设备及其控制方法 Download PDF

Info

Publication number
CN103197862A
CN103197862A CN2012103949616A CN201210394961A CN103197862A CN 103197862 A CN103197862 A CN 103197862A CN 2012103949616 A CN2012103949616 A CN 2012103949616A CN 201210394961 A CN201210394961 A CN 201210394961A CN 103197862 A CN103197862 A CN 103197862A
Authority
CN
China
Prior art keywords
icon
action
electronic equipment
input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012103949616A
Other languages
English (en)
Inventor
韩尚珍
权容焕
金正根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103197862A publication Critical patent/CN103197862A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供了一种电子设备及其控制方法。用于控制电子设备的方法包括:当输入动作开始命令时,显示图标和指针以执行动作任务模式;根据第一用户动作来移动指针;在指针被放置在图标上的同时,当输入第二用户动作时执行与图标相应的功能。因此,用户使用用户动作更加方便且直观地控制电子设备。

Description

电子设备及其控制方法
本申请要求于2011年12月30日提交到韩国知识产权局的第10-2011-0147457号韩国专利申请的优先权,该申请的公开通过引用完全合并于此。
技术领域
与示例性实施例一致的方法和设备涉及一种电子设备和用于控制该电子设备的方法,更具体地讲,涉及一种电子设备以及用于控制该电子设备的方法,该电子设备根据通过动作输入接收器输入的动作而被控制。
背景技术
随着电子技术的发展,已经开发和分发了各种类型的电子设备。具体地讲,包括电视(TV)的各种类型的电子设备正被广泛地用于一般家庭。这种电子设备配备有多种功能。例如,TV连接到互联网并且提供基于互联网的服务。此外,用户可通过TV观看多个数字广播频道。
因此,需要各种输入方法来有效地使用电子设备的这种功能。例如,使用遥控器、鼠标和触摸板的输入方法已经适合于电子设备的使用。
然而,那些简单的输入方法对有效地使用电子设备的各种功能施加限制。例如,如果电子设备的所有功能仅受遥控器的控制,则必须在遥控器上增加按钮的数量。然而,对于遥控器具有很多按钮是不实用的或者对于遥控器的一般用户来说利用遥控器是不容易的。此外,如果所有菜单被显示在屏幕上,则用户需要逐一通过复杂的菜单树以选择期望的菜单,这引起用户的不便。
因此,需要一种用于更加方便且直观地控制电子设备的方法。
发明内容
一个或更多示例性实施例可克服以上缺点以及以上未描述的其他缺点。然而,应理解一个或更多示例性实施例不需要克服上述缺点,并且可不克服上述任何问题。
一个或更多示例性实施例提供一种电子设备以及用于控制该电子设备的方法,该电子设备使用通过动作输入接收器输入的用户动作以及显示在显示屏幕上的多个图标和指针来执行其功能。
根据示例性实施例的一方面,提供了一种用于控制电子设备的方法,所述方法包括:如果输入动作开始命令,则显示图标和指针以执行动作任务模式;根据第一用户动作来移动指针;在指针被放置在图标上的同时,如果输入第二用户动作,则执行与图标相应的功能。
在输入第二用户动作的同时,放置在图标上的指针可被固定。
执行步骤可包括:如果指针被放置在图标上并且第二用户动作的输入被维持,则连续地执行放置指针的图标的功能。
第一用户动作可以是张开动作(诸如,用户的手的手指张开),第二用户动作可以是抓动作(诸如,用户的手的手指握紧)。
图标可包括音量增加图标、音量降低图标、频道上升图标和频道下降图标中的至少一个。
图标可包括音量增加图标和音量降低图标以及频道上升图标和频道下降图标,音量增加图标和音量降低图标被显示在显示屏幕的左区域,频道上升图标和频道下降图标被显示在显示屏幕的右区域。然而,注意这仅是一个示例性实施例,并且图标可被不同地安排在显示屏幕上。
在电子设备中当前设置的音量级别信息可被显示在显示音量增加图标和音量降低图标的区域上,在电子设备中当前设置的频道信息可被显示在显示频道上升图标和频道下降图标的区域上。
所述方法可还包括:如果输入结束动作,则从显示屏幕移除图标和指针。
根据另一示例性实施例的一方面,提供了一种电子设备,该电子设备包括:动作输入接收器,接收用户动作的输入;显示器;控制器,如果通过动作输入接收器输入动作开始命令,则显示图标和指针以执行动作任务模式,根据通过动作输入接收器输入的第一用户动作来控制显示器移动指针,并且如果在指针被放置在图标上的同时通过动作输入接收器输入第二用户动作,则执行与图标相应的功能。
在输入第二用户动作的同时,控制器可固定指针而不移动指针。
如果指针被放置在图标上并且第二用户动作的输入被维持,则控制器可连续地执行放置指针的图标的功能。
第一用户动作可以是张开动作(诸如,用户的手的手指张开),第二用户动作可以是抓动作(诸如,用户的手的手指握紧)。然而,这仅是用户动作的一个示例性实施例,并且用户动作可具有不同类型。
图标可包括音量增加图标、音量降低图标、频道上升图标和频道下降图标中的至少一个。
图标可包括音量增加图标和音量降低图标以及频道上升图标和频道下降图标,音量增加图标和音量降低图标被显示在显示屏幕的左区域,频道上升图标和频道下降图标被显示在显示屏幕的右区域。然而,与以上类似,这仅是一个示例性实施例,并且图标可被不同地安排在显示屏幕上。
在电子设备中当前设置的音量级别信息可被显示在显示音量增加图标和音量降低图标的区域上,在电子设备中当前设置的频道信息可被显示在显示频道上升图标和频道下降图标的区域上。
如果通过动作输入接收器输入结束动作,则控制器可从显示器的显示屏幕移除图标和指针。
附图说明
通过结合附图对示例性实施例进行的详细描述,以上和/或其他方面将更加清楚,其中:
图1至图3是示出根据各种示例性实施例的电子设备的框图;
图4至图9是根据各种示例性实施例的用于解释使用用户动作来控制频道和音量的方法的示图;
图10是示出根据示例性实施例的用于使用用户动作来控制电子设备的方法的流程图。
具体实施方式
下文中,将参照附图对示例性实施例进行更加详细地描述。
在以下描述中,当相同的标号在不同的附图中描绘时,相同的标号用于相同的元件。在描述中定义的内容(诸如,详细构造和元件)被提供以帮助对示例性实施例的全面理解。因此,可在不需要那些特别定义的内容的情况下来执行示例性实施例是明显的。另外,由于现有技术中已知的功能或元件将在不必要的细节上使得示例性实施例不清楚,因此不对现有技术中已知的功能或元件进行详细描述。
图1是示意性地示出根据示例性实施例的电子设备的框图。
参照图1,电子设备100包括动作输入接收器120、存储器130、控制器140和显示器193。电子设备100可以是但不限于可与外部网络连接的智能TV、机顶盒、个人计算机(PC)、数字TV或移动电话的形式。
动作输入接收器120接收通过拍摄用户动作而获得的图像信号(例如,连续帧),并将该图像信号提供给控制器140。例如,动作输入接收器120可以是但不限于包括镜头和图像传感器的照相机的形式。动作输入接收器120可以是电子设备100的全内置设计类型或独立式类型。独立式类型动作输入接收器120可通过有线网络或无线网络与电子设备100连接。
存储器130存储各种数据以及用于驱动和控制电子设备100的程序。存储器130存储用于识别通过语音输入接收器输入的语音的语音识别模块以及用于识别通过动作输入接收器120输入的动作的动作识别模块。
存储器130可包括语音数据库和动作数据库。语音数据库是指记录了预定语音和与预定语音匹配的语音任务的数据库。动作数据库是指记录了预定动作和与预定动作匹配的动作任务的数据库。
显示器193显示与通过广播接收器接收的广播信号相应的图像。显示器193可显示通过外部终端输入而输入的图像数据(例如,运动图像)。显示器193可在控制器140的控制下显示语音帮助信息以执行语音任务,显示动作帮助信息以执行动作任务。
控制器140控制动作输入接收器120、存储器130和显示器193。控制器140可包括控制中央处理单元(CPU)和电子设备100、并且控制只读存储器(ROM)和随机存取存储器(RAM)存储数据的模块。
如果通过动作输入接收器120输入了动作,则控制器140使用动作识别模块和动作数据库来识别动作。动作识别使用动作识别模块来将与通过动作输入接收器120输入的用户动作相应的图像(例如,连续帧)划分为背景和手区域(例如,通过将一只手做成杯状来张开手指或握拳),并且识别连续的手动作。如果输入了用户动作,则控制器140基于帧来存储接收的图像,并且使用存储的帧来感测用户动作的对象(例如,用户的手)。控制器140通过感测包括在帧中的对象的形状、颜色和动作中的至少一个来检测对象。控制器140可使用包括在多个帧中的对象的位置来跟踪对象的动作。
控制器140根据跟踪的对象的形状和动作来确定动作。例如,控制器140使用对象的形状、速度、位置和方向的改变中的至少一个来确定用户动作。用户动作包括握紧一只手的抓动作、用一只手移动显示的光标的指示移动动作、以预定速度或更高速度在一个方向上移动一只手的拍动作、水平或垂直地挥动一只手的挥动动作、以及旋转一只手的旋转动作。本公开的技术构思可被应用到其他动作。例如,用户动作可还包括张开一只手的张开动作。
控制器140确定对象在预定时间(例如,800ms)内是否离开预定区域(例如,40厘米×40厘米的正方形),以确定用户动作是指示移动动作还是拍动作。如果对象在预定时间内没有离开预定区域,则控制器140可确定用户动作是指示移动动作。如果对象在预定时间内离开预定区域,则控制器140可确定用户动作是拍动作。作为另一示例,如果对象的速度低于预定速度(例如,30cm/s),则控制器140可确定用户动作是指示移动动作。如果对象的速度超过预定速度,则控制器140确定用户动作是拍动作。
如上所述,控制器140使用识别的语音和动作来执行电子设备100的任务。电子设备100的任务包括由电子设备100执行的功能(诸如,频道的改变、音量的控制、内容(例如,运动图像、音乐或照片)的重放或互联网浏览)中的至少一个。
具体地讲,如果通过动作输入接收器120输入了动作开始命令,则控制器140将电子设备100的模式改变为动作任务模式。动作开始命令可以是多次水平地挥动一只手的动作。动作任务模式是根据通过动作输入接收器120输入的用户动作来控制电子设备100的模式。
如果模式被改变为动作任务模式,则控制器140将图标和指针显示在显示器193上以执行动作任务模式。显示的图标是控制电子设备100的功能(例如,音量的控制和频道的改变)的图标。图标可被显示在显示屏幕的左区域和右区域上。指针可被显示在显示屏幕的中央。
控制器140根据通过动作输入接收器120输入的第一用户动作来移动指针。第一用户动作是移动正张开的一只手的动作。也就是,如果通过动作输入接收器120输入了移动正张开的一只手的动作,则控制器140可根据用户的手的移动来移动指针。
如果在指针被放置在图标上的同时通过动作输入接收器120输入了第二用户动作,则控制器140执行与图标相应的功能。第二用户动作可以是握紧一只手的抓动作。例如,如果在指针被放置在音量增加图标上的同时通过动作输入接收器120输入了用户的抓动作,则控制器140可将当前音量级别增加“1”。
控制器140控制指针,从而在第二用户动作被输入的同时,指针的位置不被改变并且被固定。这是因为由于第二用户动作被误识别为指示用户的手被移动,因此指针的位置可被改变,因此用户不可能精确地控制电子设备100。
如果在指针被放置在图标上的同时第二用户动作的输入被维持,则控制器140可连续地执行放置指针的图标的功能。例如,如果在指针被放置在音量降低图标上的同时第二用户动作的输入被维持,则控制器140可连续地减小音量级别。此时,如果第二用户动作的输入被连续地维持,则控制器140可更加快速地执行放置指针的图标的功能。例如,如果在指针被放置在音量降低图标上的同时第二用户动作的输入被维持,则控制器140可以以增加的速度来减小音量级别。
如果通过动作输入接收器120输入了动作结束动作,则控制器140可从显示器193的显示屏幕移除多个图标和指针。动作结束动作和动作开始动作可以是相同的动作。然而,应注意动作结束动作和动作开始动作不限于此,并且这些动作可以不同。
以下将参照图4至图9来详细解释用于使用用户动作、多个图标和指针来控制电子设备100的方法。
图2是示出根据另一示例性实施例的电子设备100的框图。参照图2,电子设备100包括语音输入接收器110、动作输入接收器120、存储器130、控制器140、广播接收器150、外部终端输入160、遥控信号接收器170、网络接口180和包括电路的图像输出单元190。可由机顶盒来实现图2中显示的电子设备100。然而,应注意,由机顶盒实现的电子设备100仅是示例性实施例,并且电子设备100可被实现为其他电子装置(诸如,智能TV、个人计算机(PC)、数字TV、移动电话或能够再现音频和/或视频的任何其他装置)。
图2中显示的动作输入接收器120、存储器130和控制器140与图1中显示的动作输入接收器120、存储器130和控制器140相同,因此省略其详细描述。
语音输入接收器110接收由用户发出的语音。语音输入接收器110将输入的语音信号转换为电子信号并将该电子信号输出到控制器140。可由麦克风来实现语音输入接收器110。另外,可由电子设备100的全内置设计类型或独立式类型来实现语音输入接收器110。独立式类型语音输入接收器110可通过有线网络或无线网络与电子设备100连接。
广播接收器150以有线或无线方式从外部源接收广播信号。广播信号可包括视频数据、音频数据和附加数据(例如,电子节目指南(EPG))。广播接收器150可从各种源(诸如,地面广播、有线广播、卫星广播和互联网广播)接收广播信号。
外部终端输入160从电子设备100的外部源接收图像数据(例如,运动图像和照片)、音频数据(例如,音乐)。外部终端输入160可包括高清晰度多媒体接口(HDMI)输入端子、分量输入端子、PC输入端子和USB输入端子中的至少一个。遥控信号接收器170接收从外部遥控器输入的遥控信号。遥控信号接收器170可在语音任务模式或动作任务模式下接收遥控信号。
网络接口180可在控制器140的控制下将电子设备100与外部设备(例如,服务器)连接。控制器140可从通过网络接口180连接的外部设备下载应用或者执行网络浏览。网络接口180可提供以太网、无线局域网(LAN)和蓝牙中的至少一个。
包括电路的图像输出单元190将通过广播接收器150接收的外部广播信号、从外部终端输入160输入的图像数据或存储在存储器130中的图像数据输出到外部电子设备(例如,监视器或TV)。
如果通过语音输入接收器110输入了用户语音,则控制器140使用语音识别模块和语音数据库来识别语音。语音识别可被划分为通过根据输入语音的形式区分词语来识别发出的语音的孤立词语识别、用于识别连续词语、连续句子和对话语音的连续讲话识别、以及作为孤立词语识别和连续讲话识别之间的中间类型并且通过检测预定义的关键词来识别语音的关键词识别(spotting)。
如果输入了用户语音,则控制器140通过从输入的语音信号检测由用户发出的语音的开始和结束来确定语音部分。控制器140计算输入语音信号的能量,根据计算的能量来对语音信号的能量级别进行分类,并通过动态编程来检测语音部分。控制器140通过基于声音模型在检测的语音部分内从语音信号检测作为语音的最小单位的音素来产生音素数据。控制器140通过将隐马尔可夫模型(HMM)应用到产生的音素数据来产生文本信息。然而,上述语音识别方法仅是示例,并且其他语音识别方法可被使用。在上述方法中,控制器140识别包括在语音信号中的用户语音。
图3是示出根据另一示例性实施例的电子设备100的框图。如图3所示,电子设备100包括语音输入接收器110、动作输入接收器120、存储器130、控制器140、广播接收器150、外部终端输入160、遥控信号接收器170、网络接口180、显示器193和包括电路的音频输出单元196。电子设备100可以是但不限于数字TV。
图3中显示的语音输入接收器110、动作输入接收器120、存储器130、控制器140、广播接收器150、外部终端输入160、遥控信号接收器170、网络接口180和显示器193与图1和图2中显示的相同标号的元件相同,因此省略其详细描述。
包括电路的音频输出单元196在控制器140的控制下输出与广播信号相应的语音。包括电路的音频输出单元196可包括扬声器196a、耳机输出端子196b和S/PDIF输出端子196c中的至少一个。
如图3所示,存储器130包括功率控制模块130a、频道控制模块130b、音量控制模块130c、外部输入控制模块130d、屏幕控制模块130e、音频控制模块130f、互联网控制模块130g、应用模块130h、搜索控制模块130i、UI处理模块130j、语音识别模块130k、动作识别模块130l、语音数据库130m和动作数据库130n。可通过软件来实现这些模块130a至130n,以分别执行功率控制功能、频道控制功能、音量控制功能、外部输入控制功能、屏幕控制功能、音频控制功能、互联网控制功能、应用执行功能、搜索控制功能和UI处理功能。控制器140可通过执行存储在存储器130中的软件来执行相应的功能。外部端子输入160包括高清晰度多媒体接口(HDMI)端子161、分量端子162、PC端子163和USB端子164。网络接口180包括以太网181、无线局域网(LAN)182和蓝牙183。
下文中,将参照图4至图9来解释各种示例性实施例。
控制器140对通过广播接收器150接收的广播信号进行信号处理,并将广播图像400显示在如图4所示的显示屏幕上。
如果通过动作输入接收器120输入了动作开始命令,则控制器140将电子设备100的模式改变为动作任务模式。动作任务模式是根据通过动作输入接收器120输入的用户动作来控制电子设备100的模式。
如果模式被改变为动作任务模式,则控制器140显示如图5所示的多个图标510、530、540和560以及指针570以执行电子设备100的特定功能。具体地讲,如图5所示,控制器140将音量增加图标510和音量降低图标530显示在显示屏幕的左区域以控制音量级别,将频道上升图标540和频道下降图标560显示在显示屏幕的右区域以控制频道,并将指针570显示在显示屏幕的中央。
在电子设备100中当前设置的音量级别信息520被显示在音量增加图标510和音量降低图标530之间。在电子设备100中当前设置的频道信息550(例如,频道名称或频道号)被显示在频道上升图标540和频道下降图标560之间。因此,用户可容易地检查当前设置的频道信息和当前设置的音量级别信息。
尽管在以上示例性实施例中用于控制音量级别的图标510和530被显示在显示屏幕的左区域,用于控制频道的图标540和560被显示在显示屏幕的右区域,但是这仅是示例,并且图标可被显示在显示屏幕的其他区域上。
另外,尽管用于控制音量级别的图标510和530以及用于控制频道的图标540和560被显示,但是用于控制电子设备100的其他功能(例如,静音或关机)的图标可被显示在显示屏幕上。
如果在多个图标510、530、540和560以及指针570被显示的同时通过动作输入接收器120输入了移动正张开的一只手的动作,则控制器140根据移动动作来移动指针570。
如果在指针570被放置在多个图标510、530、540和560之一上的同时通过动作输入接收器120输入了用户的抓动作,则控制器140执行与放置指针的图标相应的功能。
例如,如果通过动作输入接收器120输入了将正张开的用户的手移动到显示屏幕的左侧的动作,则控制器140根据移动动作将指针570移动到显示屏幕的左侧。如果在如图6所示指针570被放置在音量降低图标530上的同时通过动作输入接收器120输入一次用户的抓动作,则控制器140将在电子设备100中当前设置的音量级别减小“1”。也就是,如果在电子设备100中当前设置的音量级别是“21”,并且在指针570被放置在音量降低图标530上的同时通过动作输入接收器120输入一次用户的抓动作,则控制器140将电子设备100的当前音量级别设置为“20”。控制器140可控制电子设备100的音量级别并且可还如图7所示改变音量级别信息520。
即使当通过动作输入接收器120输入抓动作时用户的手移动,控制器140也可固定指针570的位置而不改变其位置。
如果在指针570被放置在音量降低图标530上的同时通过动作输入接收器120连续输入用户的抓动作,则控制器140可连续地减小电子设备100的当前音量级别。
作为另一示例,如果通过动作输入接收器120输入了将正张开的用户的手移动到右侧的动作,则控制器140根据移动动作将指针570移动到显示屏幕的右侧。如果在如图8所示指针570被放置在频道下降图标560上的同时通过动作输入接收器120输入两次用户的抓动作,则控制器140接收减小了“2”的频道号的广播图像,并显示广播图像。也就是,如果在电子设备100中当前设置的频道号是“11”,并且在指针570被放置在频道下降图标560上的同时通过动作输入接收器120输入两次抓动作,则控制器140接收频道号“9”的广播图像并显示频道号“9”的广播图像。控制器140可控制电子设备100的频道并且还可如图9所示改变频道信息550。
另外,如果在指针570被放置在频道下降图标560上的同时通过动作输入接收器120连续输入用户的抓动作,则控制器140可连续地减小电子设备100的当前频道号。
如上所述,电子设备100允许用户使用用户动作更加容易且直观地控制显示设备。
下文中,将参照图10来对用于使用用户动作控制电子设备100的方法进行解释。
电子设备100确定是否通过动作输入接收器120输入动作开始命令(S1010)。动作开始命令可以是水平地多次挥动用户的手的动作。
如果输入动作开始命令(S1010-Y),则电子设备100将电子设备100的模式改变为动作任务模式(S1020)。动作任务模式是根据用户动作控制电子设备100的模式。
如果模式被改变为动作任务模式,则电子设备100将多个图标和一个指针显示在显示屏幕上(S1030)。多个图标可被显示在显示屏幕的左区域或右区域上,并且指针可被显示在显示屏幕的中央。多个图标可包括用于设置频道的图标和用于设置音量级别的图标。然而,注意用于控制电子设备100的不同功能的其他图标可被显示在显示屏幕上,并且可响应于如上所述的水平地多次挥动用户的手的动作或根据用户的手的其他动作来显示这些图标。例如,可响应于用户的手的不同动作来显示不同图标。
电子设备100确定是否通过动作输入接收器120输入第一用户动作(S1040)。用户动作可以是移动正张开的用户的手的动作。
如果确定输入了第一用户动作(S1040-Y),则电子设备100根据第一用户动作在显示屏幕上移动指针(S1050)。
电子设备100确定是否通过动作输入接收器120输入第二用户动作(S1060)。用户动作可以是握紧用户的手的抓动作。
如果确定输入了第二用户动作(S1060-Y),则电子设备100执行与放置指针的图标相应的功能。例如,如果指针被放置在音量增加图标上并且第二用户动作被输入,则电子设备100增加在电子设备100中当前设置的音量级别。另外,如果在指针被放置在特定图标上的同时连续输入第二动作,则电子设备100可连续执行放置指针的图标的功能。
即使当输入第二用户动作时用户的手移动,电子设备100也可固定指针而不移动指针。
根据如上所述的用于控制电子设备的方法,用户可使用用户动作更加容易且直观地控制电子设备100。
执行根据上述示例性实施例的控制方法的程序代码可被存储在各种类型的记录介质中。具体地讲,程序代码可被存储在由终端设备可读取的各种类型的记录介质中,诸如随机存取存储器(RAM)、闪存、只读存储器(ROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、寄存器、硬盘、可移动盘、存储卡、USB存储器和CD-ROM。
前述示例性实施例和优点仅是示例性的并且不被解释为限制本发明构思。示例性实施例可被容易地应用到其他类型的设备。另外,对示例性实施例的描述是示例性的并且不限制权利要求的范围,并且许多选择、修改和变换对于本领域的技术人员是清楚的。

Claims (16)

1.一种用于控制电子设备的方法,所述方法包括:
当输入动作开始命令时,显示图标和指针以执行动作任务模式;
根据第一用户动作来移动指针;
在指针被放置在图标上的同时,当输入第二用户动作时执行与图标相应的功能。
2.如权利要求1所述的方法,其中,在输入第二用户动作的同时,放置在图标上的指针被固定而没有被移动。
3.如权利要求1所述的方法,其中,执行步骤包括:当指针被放置在图标上并且第二用户动作的输入被维持时,连续地执行放置指针的图标的功能。
4.如权利要求1所述的方法,其中,第一用户动作相应于张开用户的手的动作,
其中,第二用户动作是握紧用户的手的抓动作。
5.如权利要求1所述的方法,其中,图标包括音量增加图标、音量降低图标、频道上升图标和频道下降图标中的至少一个。
6.如权利要求1所述的方法,其中,图标包括音量增加图标和音量降低图标以及频道上升图标和频道下降图标,音量增加图标和音量降低图标被显示在显示屏幕的左区域和右区域之一上,频道上升图标和频道下降图标被显示在显示屏幕的左区域和右区域中的另一个上。
7.如权利要求6所述的方法,其中,在电子设备中当前设置的音量级别信息被显示在显示音量增加图标和音量降低图标的区域上,
其中,在电子设备中当前设置的频道信息被显示在显示频道上升图标和频道下降图标的区域上。
8.如权利要求1所述的方法,还包括:如果输入动作结束动作,则从显示屏幕移除图标和指针。
9.一种电子设备,包括:
动作输入单元,接收用户动作的输入;
显示单元;
控制器,如果通过动作输入单元输入动作开始命令,则显示图标和指针以执行动作任务模式,根据通过动作输入单元输入的第一用户动作来控制显示单元移动指针,如果在指针被放置在图标上的同时通过动作输入单元输入第二用户动作,则执行与图标相应的功能。
10.如权利要求9所述的电子设备,其中,在输入第二用户动作的同时,控制器固定指针而不移动指针。
11.如权利要求9所述的电子设备,其中,如果指针被放置在图标上并且第二用户动作的输入被维持,则控制器连续地执行放置指针的图标的功能。
12.如权利要求9所述的电子设备,其中,第一用户动作是张开用户的手的张开动作,
其中,第二用户动作是握紧用户的手的抓动作。
13.如权利要求9所述的电子设备,其中,图标包括音量增加图标、音量降低图标、频道上升图标和频道下降图标中的至少一个。
14.如权利要求9所述的电子设备,其中,图标包括音量增加图标和音量降低图标以及频道上升图标和频道下降图标,音量增加图标和音量降低图标被显示在显示屏幕的左区域和右区域之一上,频道上升图标和频道下降图标被显示在显示屏幕的左区域和右区域中的另一个上。
15.如权利要求14所述的电子设备,其中,在电子设备中当前设置的音量级别信息被显示在显示音量增加图标和音量降低图标的区域上,
其中,在电子设备中当前设置的频道信息被显示在显示频道上升图标和频道下降图标的区域上。
16.如权利要求9所述的电子设备,其中,如果通过动作输入单元输入结束动作,则控制器从显示单元的显示屏幕移除图标和指针。
CN2012103949616A 2011-12-30 2012-10-17 电子设备及其控制方法 Pending CN103197862A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0147457 2011-12-30
KR1020110147457A KR101237472B1 (ko) 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법

Publications (1)

Publication Number Publication Date
CN103197862A true CN103197862A (zh) 2013-07-10

Family

ID=47290578

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012103949616A Pending CN103197862A (zh) 2011-12-30 2012-10-17 电子设备及其控制方法

Country Status (7)

Country Link
US (2) US20130174099A1 (zh)
EP (2) EP2610705A1 (zh)
JP (1) JP2013140578A (zh)
KR (1) KR101237472B1 (zh)
CN (1) CN103197862A (zh)
AU (1) AU2012216583B2 (zh)
WO (1) WO2013100367A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105849673A (zh) * 2014-01-07 2016-08-10 索夫特克尼特科软件公司 基于自然三维手势的人机导览方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014009561A2 (en) 2012-07-13 2014-01-16 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
US9582737B2 (en) * 2013-09-13 2017-02-28 Qualcomm Incorporated Context-sensitive gesture classification
US10222866B2 (en) 2014-03-24 2019-03-05 Beijing Lenovo Software Ltd. Information processing method and electronic device
CN104951051B (zh) * 2014-03-24 2018-07-06 联想(北京)有限公司 一种信息处理方法和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
EP2040156A2 (en) * 2007-09-19 2009-03-25 Sony Corporation Image processing
US20090217211A1 (en) * 2008-02-27 2009-08-27 Gesturetek, Inc. Enhanced input using recognized gestures
US20090278915A1 (en) * 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4902878A (en) * 1988-11-04 1990-02-20 General Electric Company Data entry and control arrangement for an appliance
US6094188A (en) * 1990-11-30 2000-07-25 Sun Microsystems, Inc. Radio frequency tracking system
JPH05281937A (ja) * 1992-03-31 1993-10-29 Toshiba Corp 情報処理装置及び表示制御方法
US6075575A (en) * 1995-10-02 2000-06-13 Starsight Telecast, Inc. Remote control device and method for using television schedule information
US5825308A (en) * 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6078308A (en) * 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US5764901A (en) * 1995-12-21 1998-06-09 Intel Corporation Record and playback in a data conference
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
JPH1195912A (ja) * 1997-09-22 1999-04-09 Sanyo Electric Co Ltd 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
AR032747A1 (es) * 1999-09-24 2003-11-26 United Video Properties Inc Un metodo y una disposicion que proveen un paradigma de navegacion deslizante
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US6515687B1 (en) * 2000-05-25 2003-02-04 International Business Machines Corporation Virtual joystick graphical user interface control with one and two dimensional operation
AU2003217587A1 (en) * 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US7352359B2 (en) * 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
DE60215504T2 (de) * 2002-10-07 2007-09-06 Sony France S.A. Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
KR101085917B1 (ko) * 2004-04-30 2011-11-23 삼성전자주식회사 디지털 캡션과 osd를 동일한 스타일의 문자로 표시할수 있는 방송수신장치 및 문자정보 표시방법
EP2337016B1 (en) * 2004-04-30 2018-01-10 IDHL Holdings, Inc. Free space pointing devices with tilt compensation and improved usability
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
TWI251163B (en) * 2004-10-29 2006-03-11 Avision Inc Apparatus and method for adjusting a digital setting value at a variable speed
CN101124534A (zh) * 2005-02-24 2008-02-13 诺基亚公司 用于计算终端的运动输入设备及其操作方法
US9201507B2 (en) * 2005-11-15 2015-12-01 Carefusion 303, Inc. System and method for rapid input of data
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
KR20070103895A (ko) * 2006-04-20 2007-10-25 강남대학교 산학협력단 손 제스쳐 인식 시스템 및 방법
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
KR100827243B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
JP5127242B2 (ja) * 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
WO2008108352A1 (ja) * 2007-03-07 2008-09-12 Rohm Co., Ltd. リモコンシステム、テレビ、及び、リモコン
KR101358767B1 (ko) * 2007-04-02 2014-02-07 삼성전자주식회사 사용자 입력장치의 공간상 이동에 기초한 사용자 명령수행방법 및 이를 적용한 영상기기
KR101391602B1 (ko) * 2007-05-29 2014-05-07 삼성전자주식회사 터치 스크린 기반의 사용자 인터페이스 인터렉션 방법 및 멀티 미디어 단말 기기
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
KR101141087B1 (ko) * 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US7975243B2 (en) * 2008-02-25 2011-07-05 Samsung Electronics Co., Ltd. System and method for television control using hand gestures
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
US20090284478A1 (en) * 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
KR101479338B1 (ko) * 2008-06-25 2015-01-05 엘지전자 주식회사 디스플레이 장치 및 상기 디스플레이 장치의 동작 방법
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US8264381B2 (en) * 2008-08-22 2012-09-11 Microsoft Corporation Continuous automatic key control
JP5393190B2 (ja) * 2009-02-17 2014-01-22 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム、及び記録媒体
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
DE102009017772A1 (de) * 2009-04-16 2010-11-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und System zum Erkennen eines Objektes, und Verfahren und System zum Erzeugen einer Markierung in einer Bildschirmdarstellung mittels eines berührungslos gestikgesteuerten Bildschirmzeigers
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
KR101585466B1 (ko) * 2009-06-01 2016-01-15 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
US9513798B2 (en) * 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
US10357714B2 (en) * 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
JP5122544B2 (ja) * 2009-10-30 2013-01-16 京セラドキュメントソリューションズ株式会社 数値入力装置及び該数値入力装置を備えた画像形成装置
CN101853568A (zh) * 2010-04-13 2010-10-06 鸿富锦精密工业(深圳)有限公司 手势遥控装置
JP2011258158A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20120032877A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
JP4918945B2 (ja) * 2010-09-13 2012-04-18 セイコーエプソン株式会社 画像表示装置、画像表示方法及びプログラム
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US20130100115A1 (en) * 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US20090278915A1 (en) * 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
EP2040156A2 (en) * 2007-09-19 2009-03-25 Sony Corporation Image processing
US20090217211A1 (en) * 2008-02-27 2009-08-27 Gesturetek, Inc. Enhanced input using recognized gestures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105849673A (zh) * 2014-01-07 2016-08-10 索夫特克尼特科软件公司 基于自然三维手势的人机导览方法

Also Published As

Publication number Publication date
US20130174036A1 (en) 2013-07-04
WO2013100367A1 (en) 2013-07-04
EP2610705A1 (en) 2013-07-03
EP3009919A1 (en) 2016-04-20
AU2012216583B2 (en) 2014-06-26
JP2013140578A (ja) 2013-07-18
KR101237472B1 (ko) 2013-02-28
AU2012216583A1 (en) 2013-07-18
US20130174099A1 (en) 2013-07-04

Similar Documents

Publication Publication Date Title
CN103187054B (zh) 电子装置和控制电子装置的方法
JP5535298B2 (ja) 電子装置及びその制御方法
EP3754997B1 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP6184098B2 (ja) 電子装置及びその制御方法
CN104620593A (zh) 显示装置及用于控制该显示装置的方法
JP2013037689A (ja) 電子装置及びその制御方法
CN103092337A (zh) 电子装置及其控制方法
CN103197862A (zh) 电子设备及其控制方法
CN103914144A (zh) 电子装置及其控制方法
EP2750014A2 (en) Electronic apparatus, and method of controlling an electronic apparatus through motion input
KR101311972B1 (ko) 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치
KR101324232B1 (ko) 전자 장치 및 그의 제어 방법
KR20130080380A (ko) 전자 장치 및 그의 제어 방법
KR20130078483A (ko) 전자 장치 및 그의 제어 방법
CN103218038A (zh) 电子设备及其控制方法
CN103914140A (zh) 电子装置和用于控制电子装置的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130710