CN102640102B - 信息处理装置、信息处理方法 - Google Patents
信息处理装置、信息处理方法 Download PDFInfo
- Publication number
- CN102640102B CN102640102B CN201080054318.8A CN201080054318A CN102640102B CN 102640102 B CN102640102 B CN 102640102B CN 201080054318 A CN201080054318 A CN 201080054318A CN 102640102 B CN102640102 B CN 102640102B
- Authority
- CN
- China
- Prior art keywords
- moving direction
- finger
- mode
- information processor
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4852—End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Position Input By Displaying (AREA)
- Selective Calling Equipment (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供了一种能够容易地并精确地通过用户确定设备的操作状态信息处理设备、信息处理方法和程序。该信息处理设备提供有显示面板(101a);触摸面板(101b),用于检测在显示面板上移动的手指(P);以及控制器(103),用于指定预定移动方向(Dd),并且基于指定的移动方向(Dd)和根据指定在显示面板上移动的手指的移动方向(Da)之间的差Δ,确定设备的操作状态。结果,在用一只手操作设备的情况下,在指定的移动方向和手指的移动方向之间,因为手的结构,对应于操作中使用的手指的差可能出现。然而,在用两只手操作设备的情况下,在指定的移动方向和手指的移动方向之间,对应于操作中使用的手指的差不太可能出现。相应地,基于移动方向上的差,可能确定设备的操作状态。
Description
技术领域
本发明涉及信息处理装置、信息处理方法和程序。
背景技术
近年来,已经广泛使用提供有触摸面板显示器的便携式信息处理装置。用户经由触摸面板显示器上显示的图形用户界面(GUI)输入预定操作。
用户在利用主导手握持装置的同时利用主导手在触摸面板上输入操作,或者在利用非主导手握持装置的同时利用主导手在触摸面板上输入操作。由于取决于操作状态的GUI配置,触摸面板的可操作性可能不同,例如操作用一只手容易但是用另一只手困难,或者操作用两只手容易但是用任一只手困难。因此,信息处理装置的可操作性可能劣化。
发明内容
技术问题
另一方面,在传统信息处理装置中,操作状态可以预先设置,并且GUI配置可以根据设置改变。然而,操作状态每个用户不同,并且当一只手操作和两只手操作一起使用时,即使对于相同用户操作状态也不同。因此,无论何时操作状态改变时,设置就不得不改变,这对用户强加了复杂的设置操作。
鉴于以上,期望提供一种用于允许用户容易地和精确地确定装置的操作状态的信息处理装置、信息处理方法和程序。
问题的解决方案
根据本发明的第一实施例,提供了一种信息处理装置,包括:显示面板;检测单元,用于检测在显示面板上移动的手指;以及确定单元,用于指定预定移动方向,并且基于指定的移动方向和根据指定在显示面板上移动的手指的移动方向之间的差,确定装置的操作状态。
利用该结构,可以基于指定的移动方向和根据指定在显示面板上移动的手指的移动方向之间的差,确定装置的操作状态。当用一只手操作装置时,在指定移动方向和手指的移动方向之间,由于手结构和取决于用于操作的手指的差容易出现。另一方面,当用两只手操作装置时,在指定移动方向和手指的移动方向之间,取决于用于操作的手指的差不可能出现。因此,基于移动方向之间的差,能够容易地并精确地确定装置的操作状态。
所述确定单元可以指定多个相互不同的移动方向,并且基于每个指定的移动方向和根据指定在显示面板上移动的手指的每个移动方向之间的差,确定装置的操作状态。所述确定单元可以指定多个相互正交的移动方向。
所述信息处理装置还可以包括显示控制单元,用于根据操作状态的确定结果控制显示面板的显示。
所述确定单元可以确定一只手握持并操作装置的操作状态、以及一只手握持装置并且另一只手操作装置的操作状态。所述确定单元可以确定左手握持并操作装置的操作状态、以及右手握持并操作装置的操作状态。
所述确定单元可以基于根据指定在显示面板上移动的手指的移动开始点和移动结束点之间的坐标差,发现手指的移动方向。
所述预定移动方向可以指定为显示面板的上方向、下方向、左方向和右方向的任一。
所述确定单元可以指定显示面板上的移动方向,并且基于根据指定在显示面板上连续检测到的手指的移动轨迹,发现手指的移动方向。所述确定单元可以指定两个或更多点,通过该两个或更多点能够规定显示面板上的移动方向,并且基于根据指定在显示面板上的一个点和另一个点之间离散检测到的手指的移动坐标,发现手指的移动方向。
所述信息处理装置是便携式信息处理装置,如个人数字助理(PDA)或蜂窝式电话,并且可以是用于操作电子设备的遥控器。
根据本发明的第二实施例,提供了一种通过信息处理装置的信息处理方法,该方法用于:指定预定移动方向;以及基于指定的移动方向和根据指定在显示面板上移动的手指的移动方向,确定装置的操作状态。
根据本发明的第三实施例,提供了一种用于使得计算机执行信息处理方法的程序。该程序可以通过使用计算机可读记录介质提供,或者可以经由通信部件提供。
发明的有利效果
根据本发明,可能提供一种用于允许用户容易地并精确地确定装置的操作状态的信息处理装置、信息处理方法和程序。
附图说明
图1是示出根据本发明一个实施例的包括遥控器的遥控器系统的图。
图2是示出根据本发明一个实施例的遥控器的主要功能的结构的框图。
图3是示出遥控器的操作的流程图。
图4是用于说明遥控器的操作的图。
图5是示出根据操作状态的GUI配置的修改示例的图。
图6是示出根据操作状态的手指的移动状态的图。
图7A是示出在右手操作时检测到的手指的移动方向的图。
图7B是示出在左手操作时检测到的手指的移动方向的图。
图7C是示出在两只手操作时检测到的手指的移动方向的图。
图8是示出示例性操作状态确定处理的流程图。
具体实施方式
以下,将参考附图详细描述本发明的优选实施例。注意,在本说明书和附图中,具有基本相同功能和结构的元件用相同参考标号表示,并且省略重复说明。
下面将描述根据本发明一个实施例的遥控器100。本发明不限于遥控器100,并且类似地可应用于便携式信息处理装置,如提供有触摸面板显示器101的个人数字助理(PDA)和蜂窝式电话。
[1.遥控器系统的结构]
图1是示出根据本发明一个实施例的包括遥控器100的遥控器系统的图。如图1所示,遥控器系统包括提供有触摸面板显示器101的遥控器100、以及经由遥控器100操作的电视10。电视10是经由遥控器100操作的示例性电子设备。
在遥控器系统中,至少从遥控器100朝向电视10进行有线通信或无线通信。遥控器100和电视10之间的通信可以直接进行或经由网络等(未示出)间接地进行。
遥控器100在触摸面板显示器101上显示用于操作电视10的操作图标。当输入如图标的选择的操作时,遥控器100响应于操作输入发送预定操作命令C到电视10。电视10接收操作命令C,并且响应于操作命令C执行预定操作A。
用户典型地用主导手握持遥控器100,并且用主导手操作触摸面板显示器101,或者用非主导手握持遥控器100,并且用主导手操作触摸面板显示器101。遥控器100在预定时间点确定遥控器100的操作状态,并且改变如操作图标的GUI的显示。
在确定操作状态时,遥控器100指定预定的移动方向Dd,并且检测根据指定在触摸面板显示器101上移动的手指P的移动方向Da。然后,遥控器100基于指定的移动方向Dd和检测的移动方向Da之间的差Δ,确定装置的操作状态。
将假设用右手握持遥控器100并且用右手的拇指P操作触摸面板显示器101进行说明。在该情况下,即使在用户试图在触摸面板显示器101上(与面板表面平行)仅在上方向Dd移动拇指P时,由于右手的结构,拇指的移动方向Da在右上方向倾斜。因此,检测到根据指定移动的手指P的移动方向Da,从而能够基于指定的移动方向Dd和检测的移动方向Da之间的差Δ,确定遥控器100的操作状态。
[2.遥控器100的结构]
图2是示出根据本发明实施例的遥控器100的主要功能的结构的框图。如图2所示,遥控器100包括触摸面板显示器101、控制单元103、存储器105和通信单元107。
配置触摸面板显示器101,使得触摸面板101b(检测单元)层压在显示面板101a上。显示面板101a采用液晶显示器(LCD)等。触摸面板101b采用电阻系统、静电电容系统、超声系统、红外线系统等的面板。
触摸面板101b检测面板表面上的手指P的接触状态。在其他实施例中,替代或除了接触状态外,还可以检测手指P的接近状态。当手指P与触摸面板101b接触时,触摸面板101b提供接触信号给控制单元103,并且当手指P与触摸面板101b分开时,提供释放信号给控制单元103。
触摸面板101b在手指P与触摸面板101b接触的同时,将对应于接触位置的坐标信号提供给控制单元103。坐标信号指示触摸面板101b上接触位置的X-Y坐标。在下面的说明中,触摸面板101b的水平方向定义为X方向(左方向用-并且右方向用+),并且纵向方向定义为Y方向(上方向用+并且下方向用-)。
控制单元103包括CPU、RAM、ROM等,并且CPU使用RAM作为工作存储器以执行ROM中存储的程序,并且控制遥控器100中的各个单元。程序用作用于确定遥控器100的操作状态的确定单元、以及用于控制显示面板101a的显示的显示控制单元。
存储器105是如EEPROM的非易失性存储器,并且在其中存储图标数据、命令信息等。通信单元107响应于用户的操作输入,将预定操作命令C发送到电视10。
控制单元103解码从触摸面板101b提供的坐标信号以生成坐标数据,并且基于坐标数据和接触/释放信号控制遥控器100的每个单元。控制单元103从存储器105读取取决于操作输入的命令信息,并且响应于用户的操作输入将其提供给通信单元107。通信单元107基于该命令信息将预定操作命令C发送给电视10。
控制单元103读取存储器105中存储的图标数据以生成GUI屏幕的显示数据,并且将该显示数据提供到显示面板101a。显示面板101a基于该显示数据显示GUI屏幕。控制单元103生成GUI屏幕的显示数据,使得图标的形状和安排根据遥控器100的操作状态改变,如后面描述的。
控制单元103生成指定在预定时间点的预定移动方向Dd的消息Msg,并且将其通知给用户,如后面描述的。消息Msg可以通过使用显示面板101a视觉通知,并且可以通过使用扬声器(未示出)听觉通知。
例如,移动方向Dd指定为相对于触摸面板101b的上方向、下方向、左方向和右方向的任一。移动方向Dd指定为相对于触摸面板101b的移动方向。在该情况下,例如,通知指示“沿着显示屏幕直线向上移动手指”的消息Msg。
移动方向Dd可以指定为两个或更多点,通过其能够规定相对于触摸面板101b的移动方向。在该情况下,例如,通知“利用手指在显示屏幕的下端指定点,然后利用手指在显示屏幕的上端指定就在该点上面的点”的消息Msg。
控制单元13基于指定的移动方向Dd和根据指定在触摸面板101b上移动的手指P的移动方向Da之间的差Δ,确定遥控器100的操作状态。然后,控制单元103基于指定的移动方向Dd和检测到的移动方向Da之间的差Δ,确定控制器100的操作状态。
当指定移动方向时,基于响应于拖动操作或轻敲操作在触摸面板101b上连续检测到的手指P的移动轨迹,发现手指P的移动方向Da。拖动操作要在手指P与触摸面板101b接触的同时移动手指P,并且轻敲操作要利用手指P在任意方向轻敲触摸面板101b。在该情况下,基于当检测到接触信号时的坐标数据(移动开始点)和紧接在检测到释放信号之前的坐标数据(移动结束点)之间的坐标差,发现手指P的移动方向Da。
另一方面,当指定能够通过其规定移动方向的点时,基于响应于定点(pointing)操作在触摸面板101b上的一个点和另一个点之间离散检测到的手指P的移动坐标,发现手指P的移动方向Da。定点操作要利用手指P指示触摸面板101b上的任意点。在该情况下,基于当检测到一个点上的定点时的坐标数据(移动开始点)和当检测到另一个点上的定点时的坐标数据(移动结束点)之间的坐标差,发现手指P的移动方向Da。
[3.遥控器100的操作]
下面将参考图3到5描述遥控器100的操作。图3是示出遥控器100的操作的流程图。图4是用于说明遥控器100的操作的图。图5是示出根据操作状态的GUI配置中的改变的图。
如图3所示,控制单元103在预定时间点到来时开始确定操作状态的处理(步骤S101)。预定时间点可以是当输入预定操作时,或者可以是当执行预定处理时,如当激活遥控器100时。
当开始确定处理时,控制单元103将指定预定移动方向Dd的消息Msg通知给用户(S103)。例如,在图4中,显示“沿着显示屏幕直线向上移动手指”的消息Msg(状态ST4a)。
当显示消息Msg并且响应于消息Msg输入操作时,遥控器100检测操作输入(S105)。例如,在图4中,用户试图在触摸面板101b(触摸面板显示器101)上直线向上移动右手的拇指P,但是由于右手的结构手指P在右上方向上稍微倾斜(状态ST4b)。
当检测到操作输入时,控制单元103基于手指P的移动开始点M0和移动结束点M1之间的坐标差,发现手指P的移动方向Da(S107)。在发现移动方向Da之后,控制单元103基于指定的移动方向Dd和检测到的移动方向Da之间的差Δ,确定遥控器100的操作状态(S109)。在用一只手操作和用两只手操作之间、以及在用左手操作和用右手操作之间,区分操作状态。当能够确定操作状态时,控制单元103根据确定结果改变GUI配置(S111)。
图5示出根据操作状态的GUI配置的修改示例。状态ST5a是用右手操作的修改示例,并且状态ST5b是用两只手操作的修改示例。
在用右手操作时,至少部分图标朝向触摸面板101b的右下移动,以便改进利用右手的拇指P的可操作性(状态ST5a)。在图5中,移动频道切换按钮和声音音量按钮。要移动的图标可以是频繁操作的图标。至少一部分图标可以在尺寸上比用两只手操作时增大,以便改进用任一只手操作时的可操作性。
另一方面,在用两只手操作时在触摸面板101b上显示比用任一只手操作时更多的图标,以便改进用两只手操作时的可操作性(状态ST5b)。在图5中,显示比状态ST5a更多图标。至少部分图标可以比用任一只手操作时缩小。
[4.操作状态确定处理]
下面将参考图6到8描述操作状态确定处理。图6是示出根据操作状态的手指P的移动状态的图。图7A到7C分别是示出在用右手操作时、在用左手操作时和用两只手操作时检测到的手指P的移动方向Da的图。图8是示出示例性操作状态确定处理的流程图。
如图6的状态ST6a所示,在用右手操作时,用右手握持遥控器100,并且右手的拇指P的根部位于遥控器100的右下。当拇指P在触摸面板101b上移动时,拇指P用其根部作为中心进行操作。因此,即使在用户为了直线方向移动拇指P时,拇指P容易移动画出以拇指P根部为中心的圆。在用左手操作时的移动状态能够类似地说明为在用右手操作时的移动状态。
另一方面,如图6的状态ST6b所示,在用两只手操作时,用一只手(如左手)握持遥控器100,并且另一只手(如右手)的食指P等在触摸面板101b(触摸面板显示器101)上移动。另一只手的手指P可以在触摸面板101b上自由地移动,而不管握持遥控器100的左手。当用户为了直线方向移动食指P时,食指P容易移动画出圆形。在图6中没有示出移动操作的开始点M0和结束点M1之间在X方向上的坐标差ΔX,但是典型地出现微小坐标差ΔX。
图7A示出在用右手操作时检测到的手指P的移动方向Da。在该情况下,当指定上方向的移动操作时,移动方向Da在右方向上倾斜(状态ST7Aa),并且当指定下方向的移动操作时,移动方向Da容易在左方向上倾斜(状态ST7Ab)。当指定左方向的移动操作时,移动方向Da在下方向上倾斜(状态ST7Ac),并且当指定右方向的移动操作时,移动方向Da容易在上方向上倾斜(状态ST7Ad)。
图7B示出在用左手操作时检测到的手指P的移动方向Da。在该情况下,当指定上方向的移动操作时,移动方向Da在左方向上倾斜(状态ST7Ba),并且当指定下方向的移动操作时,移动方向Da容易在右方向上倾斜(状态ST7Bb)。当指定左方向的移动操作时,移动方向Da在上方向上倾斜(状态ST7Bc),并且当指定右方向的移动操作时,移动方向Da容易在下方向上倾斜(状态ST7Bd)。
图7C示出当用两只手操作时检测到的手指P的移动方向Da。在该情况下,即使在指定上、下、左和右方向的任一的移动方向Dd时,手指也典型地在指定方向上移动,因此移动方向Da不太可能在特定方向上倾斜(状态7Ca到ST7Cd)。
图8示出示例性操作状态确定处理。在图8所示的确定处理中,控制单元103首先提示用户执行触摸面板101b的上方向的移动操作(步骤S201)。
控制单元103确定上方向的移动操作的开始点M0和结束点M1之间的X方向上的坐标差ΔX(结束点坐标-开始点坐标)的绝对值|ΔX|是否小于第一阈值Δth1(S203)。然后,如果满足确定条件,则控制单元103确定操作是用两只手(S205)。
如果不满足步骤S203中的确定条件,则控制单元103确定绝对值|ΔX|是否为第二阈值Δth2(≥第一阈值Δth1)或更多(S207)。阈值Δth2用于确定绝对值|ΔX|,从而防止错误地确定操作状态。
当满足确定条件时,控制单元103确定坐标差ΔX是否为正值(S209)。当坐标差ΔX为正值时,控制单元103确定操作是用右手(S211),并且当坐标值ΔX为负值时,控制单元103确定操作是用左手(S213)。
另一方面,在步骤S207中的处理中,当确定绝对值|ΔX|小于第二阈值Δth2时,控制单元103提示用户在触摸面板101b的右方向上执行移动操作(S215)。
控制单元103确定右方向的移动操作的开始点坐标M0和结束点坐标M1之间的Y方向上的坐标差ΔY(结束点坐标-开始点坐标)的绝对值|ΔY|是否为第二阈值Δth2或更多(S217)。阈值Δth2用于确定绝对值|ΔY|,从而防止错误地确定操作状态。
如果满足确定条件,则控制单元103确定坐标差ΔY是否为正值(S219)。当坐标差ΔY为正值时,控制单元103确定操作是用右手(S221),并且当坐标值ΔY为负值时,控制单元103确定操作是用左手(S223)。
另一方面,在步骤S217中的处理中,当确定绝对值|ΔY|小于阈值Δth2时,控制单元103结合上方向和右方向的移动操作的确定结果确定操作状态。从而,即使当绝对值|ΔX|和|ΔY|小时,关于相互不同方向上的移动操作的确定结果可以用于确定操作状态。
控制单元103确定X方向和Y方向的坐标差|ΔX|和|ΔY|两者是否为正(S225)。然后,当满足确定条件时,控制单元103确定该操作是用右手(S227)。
另一方面,如果不满足确定条件,则控制单元103确定X方向和Y方向的坐标差ΔX和ΔY两者是否为负(S229)。当满足确定条件时,控制单元103确定该操作是用左手(S231),并且当不满足确定条件时,确定该操作不可确定。
在上面示例中,第一阈值Δth1用于在步骤S203中的处理中确定用两只手操作。然而,当不满足步骤S229中的确定条件时,可能确定该操作是用两只手,而不是确定该操作不可确定。在步骤S215之后,关于右方向的移动操作的Y方向上的坐标差ΔY的绝对值|ΔY|是否小于阈值Δth1进行确定,并且当满足确定条件时,可以确定操作是用两只手。
在上面示例中,关于上方向和右方向的移动操作的确定结果用于确定操作状态。然而,在相互不同方向的移动操作的情况下,可以使用任何方向的移动操作的确定结果,如上方向和下方向、上方向和左方向、或者左方向和右方向。当使用相互正交方向的移动操作的确定结果时,由于触摸面板101b的纵横比,移动方向Dd和Da之间的差Δ容易出现,从而高精度地确定操作状态。
在上面示例中,在步骤S225及后面的处理中,结合关于上方向和右方向的移动操作的确定结果确定操作状态,但是当步骤S217中的处理中不满足确定条件时,移动操作可以确定为不可确定。
在上面示例中,相同阈值Δth2用作关于上方向的移动操作的阈值和关于右方向的移动操作的阈值,但是可以使用不同的阈值,如Δth2和Δth2’。
[5.结论]
如上所述,利用根据本发明一个实施例的遥控器100,基于指定的移动方向Dd和根据指定在显示面板101a上移动的手指P的移动方向Da之间的差Δ,确定遥控器100的操作状态。当用任一只手操作遥控器100时,由于手的结构,在指定的移动方向Dd和手指P的移动方向Da之间,取决于用于操作的手指P的差Δ容易出现。另一方面,当用两只手操作遥控器100时,在指定的移动方向Dd和手指P的移动方向Da之间,取决于用于操作的手指P的差Δ难以出现。因此,基于移动方向Dd和Da之间的差Δ,能够容易地和精确地确定遥控器100的操作状态。
上面已经参考附图描述了本发明的优选实施例,然而本发明当然不限于上述示例。本领域技术人员可以在权利要求的范围内发现各种替代和修改,并且应当理解的是它们将在本发明的技术范围下自然地出现。
例如,上面实施例中已经假设对于触摸面板101b指定上、下、左和右移动方向Dd进行说明。然而,例如可以沿着触摸面板101b的对角线指定斜的移动方向Dd。在该情况下,基于指定的沿着对角线的移动方向Dd和检测的移动方向Da之间的差Δ(角度差),可以确定遥控器100的操作状态。
上面实施例中已经假设检测与触摸面板101b接触的手指P的移动方向Da进行说明。然而,可以检测接近触摸面板101的手指的移动方向Da。
参考标号列表
100遥控器
101触摸面板显示器
101a显示面板
101b触摸面板
103控制单元
105存储器
107通信单元
Claims (12)
1.一种信息处理装置,包括:
显示面板;
检测单元,用于检测在显示面板上移动的手指;以及
确定单元,用于指定预定移动方向,并且基于指定的移动方向和根据指定在显示面板上移动的手指的移动方向之间的差,确定装置的操作状态,
其中所述确定单元确定一只手握持并操作装置的操作状态、以及一只手握持装置并且另一只手操作装置的操作状态。
2.如权利要求1所述的信息处理装置,其中所述确定单元指定多个相互不同的移动方向,并且基于每个指定的移动方向和根据指定在显示面板上移动的手指的每个移动方向之间的差,确定装置的操作状态。
3.如权利要求2所述的信息处理装置,其中所述确定单元指定多个相互正交的移动方向。
4.如权利要求1所述的信息处理装置,还包括:
显示控制单元,用于根据操作状态的确定结果控制显示面板的显示。
5.如权利要求1所述的信息处理装置,其中所述确定单元确定左手握持并操作装置的操作状态、以及右手握持并操作装置的操作状态。
6.如权利要求1所述的信息处理装置,其中所述确定单元基于根据指定在显示面板上移动的手指的移动开始点和移动结束点之间的坐标差,发现手指的移动方向。
7.如权利要求1所述的信息处理装置,其中所述预定移动方向指定为相对于显示面板的上方向、下方向、左方向和右方向的任一。
8.如权利要求7所述的信息处理装置,其中所述确定单元指定显示面板上的移动方向,并且基于根据指定在显示面板上连续检测到的手指的移动轨迹,发现手指的移动方向。
9.如权利要求7所述的信息处理装置,其中所述确定单元指定两个或更多点,通过该两个或更多点能够规定显示面板上的移动方向,并且基于根据指定在显示面板上的一个点和另一个点之间离散检测到的手指的移动坐标,发现手指的移动方向。
10.如权利要求1所述的信息处理装置,该装置是可用任一只手操作的装置。
11.如权利要求10所述的信息处理装置,该装置是用于操作电子设备的遥控器。
12.一种通过信息处理装置的信息处理方法,包括:
指定预定移动方向;以及
基于指定的移动方向和根据指定在显示面板上移动的手指的移动方向之间的差,确定装置的操作状态,
其中确定装置的操作状态包括确定一只手握持并操作装置的操作状态、以及一只手握持装置并且另一只手操作装置的操作状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-229481 | 2009-10-01 | ||
JP2009229481A JP5458783B2 (ja) | 2009-10-01 | 2009-10-01 | 情報処理装置、情報処理方法およびプログラム |
PCT/JP2010/064770 WO2011040165A1 (ja) | 2009-10-01 | 2010-08-31 | 情報処理装置、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102640102A CN102640102A (zh) | 2012-08-15 |
CN102640102B true CN102640102B (zh) | 2016-08-03 |
Family
ID=43825996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080054318.8A Active CN102640102B (zh) | 2009-10-01 | 2010-08-31 | 信息处理装置、信息处理方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10042386B2 (zh) |
EP (1) | EP2469386B1 (zh) |
JP (1) | JP5458783B2 (zh) |
CN (1) | CN102640102B (zh) |
BR (1) | BR112012006663A2 (zh) |
RU (1) | RU2012111262A (zh) |
WO (1) | WO2011040165A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5370144B2 (ja) * | 2009-12-28 | 2013-12-18 | ソニー株式会社 | 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム |
KR101824388B1 (ko) * | 2011-06-10 | 2018-02-01 | 삼성전자주식회사 | 사용자의 신체특성을 고려한 동적 사용자 인터페이스 제공 장치 및 방법 |
JP5790203B2 (ja) * | 2011-06-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および遠隔操作システム |
JP5875337B2 (ja) * | 2011-11-16 | 2016-03-02 | クラリオン株式会社 | 入力装置 |
JP5855481B2 (ja) * | 2012-02-07 | 2016-02-09 | シャープ株式会社 | 情報処理装置、その制御方法およびその制御プログラム |
TWM450762U (zh) * | 2012-04-23 | 2013-04-11 | shun-fu Luo | 全新的一筆畫操作控制之裝置 |
TWM448713U (zh) * | 2012-11-12 | 2013-03-11 | shun-fu Luo | 軌跡輸入及辨識操作控制之裝置 |
CN102970442A (zh) * | 2012-12-06 | 2013-03-13 | 江苏诚迈科技有限公司 | 一种在智能触屏手机上处理来电的方法 |
JP6319298B2 (ja) * | 2013-03-27 | 2018-05-09 | 日本電気株式会社 | 情報端末、表示制御方法及びそのプログラム |
JP6253284B2 (ja) * | 2013-07-09 | 2017-12-27 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム、記録媒体 |
CN104641341B (zh) | 2013-08-20 | 2018-08-21 | 华为技术有限公司 | 一种手持设备和在手持设备上实现输入区位置调整的方法 |
US9229612B2 (en) | 2013-08-27 | 2016-01-05 | Industrial Technology Research Institute | Electronic device, controlling method for screen, and program storage medium thereof |
KR102282498B1 (ko) * | 2014-05-19 | 2021-07-27 | 삼성전자주식회사 | 디스플레이를 이용한 입력 처리 방법 및 장치 |
US9760758B2 (en) * | 2015-12-30 | 2017-09-12 | Synaptics Incorporated | Determining which hand is being used to operate a device using a fingerprint sensor |
CN108594995A (zh) * | 2018-04-13 | 2018-09-28 | 广东小天才科技有限公司 | 一种基于手势识别的电子设备操作方法及电子设备 |
JP7353491B2 (ja) * | 2020-06-15 | 2023-09-29 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
US11513604B2 (en) | 2020-06-17 | 2022-11-29 | Motorola Mobility Llc | Selectable response options displayed based-on device grip position |
US20230221838A1 (en) * | 2022-01-13 | 2023-07-13 | Motorola Mobility Llc | Configuring An External Presentation Device Based On User Handedness |
US11726734B2 (en) | 2022-01-13 | 2023-08-15 | Motorola Mobility Llc | Configuring an external presentation device based on an impairment of a user |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1069346A (ja) * | 1996-08-28 | 1998-03-10 | Alps Electric Co Ltd | 座標入力装置およびその制御方法 |
JPH10232735A (ja) * | 1997-02-18 | 1998-09-02 | Sharp Corp | 情報機器の入力装置 |
JP2000347800A (ja) * | 1999-06-03 | 2000-12-15 | Alps Electric Co Ltd | ポインティングカーソルの校正装置及びポインティングカーソルの校正方法 |
US6714221B1 (en) * | 2000-08-03 | 2004-03-30 | Apple Computer, Inc. | Depicting and setting scroll amount |
JP4096164B2 (ja) * | 2002-06-10 | 2008-06-04 | 日本電気株式会社 | ポインティングデバイスのセットアップ方法と該方法を記録した記録媒体および携帯端末 |
US20040204129A1 (en) * | 2002-08-14 | 2004-10-14 | Payne David M. | Touch-sensitive user interface |
JP2004252715A (ja) * | 2003-02-20 | 2004-09-09 | Dainippon Printing Co Ltd | 画像出力装置、プログラム、記録媒体、画面表示方法 |
US7565623B2 (en) | 2004-04-30 | 2009-07-21 | Microsoft Corporation | System and method for selecting a view mode and setting |
KR100608576B1 (ko) * | 2004-11-19 | 2006-08-03 | 삼성전자주식회사 | 휴대 단말기 제어 장치 및 방법 |
JP3833228B2 (ja) * | 2004-12-01 | 2006-10-11 | 任天堂株式会社 | ゲーム装置およびゲームプログラム |
US7932895B2 (en) * | 2005-05-24 | 2011-04-26 | Nokia Corporation | Control of an electronic device using a gesture as an input |
WO2006126310A1 (ja) * | 2005-05-27 | 2006-11-30 | Sharp Kabushiki Kaisha | 表示装置 |
US7480870B2 (en) * | 2005-12-23 | 2009-01-20 | Apple Inc. | Indication of progress towards satisfaction of a user input condition |
US7657849B2 (en) * | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
JP2007264808A (ja) * | 2006-03-27 | 2007-10-11 | Nikon Corp | 表示入力装置及び撮像装置 |
KR20070113025A (ko) * | 2006-05-24 | 2007-11-28 | 엘지전자 주식회사 | 터치스크린 장치 및 이의 작동방법 |
JP4699955B2 (ja) * | 2006-07-21 | 2011-06-15 | シャープ株式会社 | 情報処理装置 |
US20080055263A1 (en) * | 2006-09-06 | 2008-03-06 | Lemay Stephen O | Incoming Telephone Call Management for a Portable Multifunction Device |
US7941760B2 (en) * | 2006-09-06 | 2011-05-10 | Apple Inc. | Soft keyboard display for a portable multifunction device |
RU63947U1 (ru) | 2006-12-20 | 2007-06-10 | Государственное образовательное учреждение высшего профессионального образования "Пермский государственный университет" | Универсальное информационное устройство |
US7872652B2 (en) * | 2007-01-07 | 2011-01-18 | Apple Inc. | Application programming interfaces for synchronization |
US7903115B2 (en) * | 2007-01-07 | 2011-03-08 | Apple Inc. | Animations |
JPWO2009031214A1 (ja) * | 2007-09-05 | 2010-12-09 | パナソニック株式会社 | 携帯端末装置、及び表示制御方法 |
JP2009110286A (ja) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法 |
US20090109183A1 (en) * | 2007-10-30 | 2009-04-30 | Bose Corporation | Remote Control of a Display |
JP2009140368A (ja) * | 2007-12-07 | 2009-06-25 | Sony Corp | 入力装置、表示装置、入力方法、表示方法及びプログラム |
JP2009163278A (ja) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | 携帯型機器 |
US8395584B2 (en) * | 2007-12-31 | 2013-03-12 | Sony Corporation | Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation |
JP2009169820A (ja) * | 2008-01-18 | 2009-07-30 | Panasonic Corp | 携帯端末 |
US9152309B1 (en) * | 2008-03-28 | 2015-10-06 | Google Inc. | Touch screen locking and unlocking |
JP4533943B2 (ja) * | 2008-04-28 | 2010-09-01 | 株式会社東芝 | 情報処理装置、表示制御方法およびプログラム |
JP5045559B2 (ja) * | 2008-06-02 | 2012-10-10 | 富士通モバイルコミュニケーションズ株式会社 | 携帯端末 |
GB2462579A (en) * | 2008-06-10 | 2010-02-17 | Sony Service Ct | Touch screen display including proximity sensor |
JP4632102B2 (ja) * | 2008-07-17 | 2011-02-16 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
EP3654141A1 (en) * | 2008-10-06 | 2020-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
KR101019335B1 (ko) * | 2008-11-11 | 2011-03-07 | 주식회사 팬택 | 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템 |
CN101770299B (zh) * | 2008-12-26 | 2013-11-06 | 深圳富泰宏精密工业有限公司 | 导航键功能实现系统及方法 |
US8451238B2 (en) * | 2009-09-02 | 2013-05-28 | Amazon Technologies, Inc. | Touch-screen user interface |
US8531515B2 (en) * | 2009-09-29 | 2013-09-10 | Olympus Imaging Corp. | Imaging apparatus |
JP5370144B2 (ja) * | 2009-12-28 | 2013-12-18 | ソニー株式会社 | 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム |
US20110231796A1 (en) * | 2010-02-16 | 2011-09-22 | Jose Manuel Vigil | Methods for navigating a touch screen device in conjunction with gestures |
US8810509B2 (en) * | 2010-04-27 | 2014-08-19 | Microsoft Corporation | Interfacing with a computing application using a multi-digit sensor |
US8933910B2 (en) * | 2010-06-16 | 2015-01-13 | Panasonic Intellectual Property Corporation Of America | Information input apparatus, information input method, and program |
US8698764B1 (en) * | 2010-06-30 | 2014-04-15 | Amazon Technologies, Inc. | Dorsal touch input |
KR20120040617A (ko) * | 2010-10-19 | 2012-04-27 | 최재숙 | 방향성 센서와 무방향성 센서를 겸비한 포인팅 장치 및 포인팅 데이터 입력 방법 |
WO2012176371A1 (ja) * | 2011-06-24 | 2012-12-27 | 株式会社村田製作所 | 携帯機器 |
JP5790203B2 (ja) * | 2011-06-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および遠隔操作システム |
US20130067366A1 (en) * | 2011-09-14 | 2013-03-14 | Microsoft Corporation | Establishing content navigation direction based on directional user gestures |
JP2013117885A (ja) * | 2011-12-02 | 2013-06-13 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法 |
US8863042B2 (en) * | 2012-01-24 | 2014-10-14 | Charles J. Kulas | Handheld device with touch controls that reconfigure in response to the way a user operates the device |
KR20140062233A (ko) * | 2012-11-14 | 2014-05-23 | 삼성전자주식회사 | 휴대 단말기의 바로가기 잠금 해제 방법 및 장치 |
-
2009
- 2009-10-01 JP JP2009229481A patent/JP5458783B2/ja active Active
-
2010
- 2010-08-31 RU RU2012111262/08A patent/RU2012111262A/ru not_active Application Discontinuation
- 2010-08-31 BR BR112012006663A patent/BR112012006663A2/pt not_active IP Right Cessation
- 2010-08-31 WO PCT/JP2010/064770 patent/WO2011040165A1/ja active Application Filing
- 2010-08-31 EP EP10820285.4A patent/EP2469386B1/en active Active
- 2010-08-31 CN CN201080054318.8A patent/CN102640102B/zh active Active
- 2010-08-31 US US13/497,984 patent/US10042386B2/en active Active
-
2018
- 2018-07-02 US US16/025,690 patent/US10936011B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2469386A1 (en) | 2012-06-27 |
RU2012111262A (ru) | 2013-10-27 |
CN102640102A (zh) | 2012-08-15 |
JP5458783B2 (ja) | 2014-04-02 |
US10042386B2 (en) | 2018-08-07 |
JP2011076521A (ja) | 2011-04-14 |
EP2469386B1 (en) | 2019-03-20 |
WO2011040165A1 (ja) | 2011-04-07 |
US20180314294A1 (en) | 2018-11-01 |
US10936011B2 (en) | 2021-03-02 |
BR112012006663A2 (pt) | 2016-05-03 |
EP2469386A4 (en) | 2014-03-05 |
US20120176336A1 (en) | 2012-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102640102B (zh) | 信息处理装置、信息处理方法 | |
JP5790203B2 (ja) | 情報処理装置、情報処理方法、プログラム、および遠隔操作システム | |
US9733752B2 (en) | Mobile terminal and control method thereof | |
KR101540169B1 (ko) | 터치 스크린 단말기의 애플리케이션 프로그램 전환방법 및 장치 | |
US8650508B2 (en) | Mobile terminal and operating method thereof | |
CN104932809B (zh) | 用于控制显示面板的装置和方法 | |
US20160124579A1 (en) | Controlling multiple devices with a wearable input device | |
EP2778865A2 (en) | Input control method and electronic device supporting the same | |
KR101971982B1 (ko) | 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법 | |
KR20140093080A (ko) | 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법 | |
KR20100021863A (ko) | 휴대 단말기 및 그 구동 방법 | |
US20140210730A1 (en) | Stylus based object modification on a touch-sensitive display | |
EP2146493B1 (en) | Method and apparatus for continuous key operation of mobile terminal | |
CN105718204A (zh) | 基于触摸手势的控制方法及装置 | |
KR20150008963A (ko) | 스크린을 제어하는 휴대 단말 및 방법 | |
KR101911680B1 (ko) | 터치 감지 디스플레이 장치 및 그 화면 제어 방법 | |
CN105847675A (zh) | 一种照相机模式切换方法、装置及移动设备 | |
KR20090089707A (ko) | 터치 스크린 입력을 이용한 화면 확대/축소 방법 및 장치 | |
JP2005338949A (ja) | 入力装置 | |
JP4764936B2 (ja) | 入力装置 | |
KR101559694B1 (ko) | 휴대 단말기 및 그 구동 방법 | |
KR20130094660A (ko) | 복합 터치 패널 운용 방법과 시스템 및 이를 지원하는 단말기 | |
KR101708640B1 (ko) | 휴대 단말기 및 그 동작 제어방법 | |
EP2763019A1 (en) | Stylus based object modification on a touch-sensitive display | |
CN104424303A (zh) | 一种输入装置及电子设备和信息处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |