CN102129311B - 信息处理设备、操作输入方法和操作输入程序 - Google Patents
信息处理设备、操作输入方法和操作输入程序 Download PDFInfo
- Publication number
- CN102129311B CN102129311B CN201110005283.5A CN201110005283A CN102129311B CN 102129311 B CN102129311 B CN 102129311B CN 201110005283 A CN201110005283 A CN 201110005283A CN 102129311 B CN102129311 B CN 102129311B
- Authority
- CN
- China
- Prior art keywords
- operating
- contacts
- touch
- input
- cpu110
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G02—OPTICS
- G02F—OPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
- G02F1/00—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
- G02F1/01—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour
- G02F1/13—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour based on liquid crystals, e.g. single liquid crystal display cells
- G02F1/133—Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
- G02F1/1333—Constructional arrangements; Manufacturing methods
- G02F1/13338—Input devices, e.g. touch panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Nonlinear Science (AREA)
- Crystallography & Structural Chemistry (AREA)
- Optics & Photonics (AREA)
- Chemical & Material Sciences (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
在此公开了信息处理设备、操作输入方法和操作输入程序。所述信息处理设备包括:接触检测单元,其配置为检测对于操作表面的接触操作;靠近检测单元,其配置为检测对于该操作表面的靠近操作;以及控制单元,其配置为在连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入。
Description
技术领域
本发明涉及信息处理设备、操作输入方法和操作输入程序,并且例如可适当地应用于具有触摸板的信息处理设备。
背景技术
近年来,具有触摸板的信息处理设备已经开始广泛使用。在具有触摸板的信息处理设备中,检测指示器(手指、触摸笔等)与触摸板的接触,并作为操作输入进行接收以便执行各种处理。
近来,已经提出了除了指示器与触摸板接触之外还能够检测靠近的信息处理设备(例如,日本待审专利申请公开No.2006-302126)。在该信息处理设备中,即使与触摸板接触的手指离开触摸板时,如果手指靠近触摸板,也继续执行当手指与触摸板接触时所执行的处理。
例如,当长时间按下屏幕上显示的按钮时,尽管手指通过振动等中途离开触摸板,但是可以执行当长时间按下按钮时的相同处理(即,用户想要的处理)。
发明内容
然而,在现有技术的具有触摸板的信息处理设备中,基本上,通过使指示器与触摸板接触以执行操作输入。
如果除了指示器与触摸板的接触之外,还选择靠近作为操作输入的对象,则与现有技术相比,可以执行各种操作输入。
期望提供与现有技术相比能够执行各种操作输入的信息处理设备、操作输入方法和操作输入程序。
根据本发明的实施例,提供了一种信息处理设备,包括:接触检测单元,其配置为检测对于操作表面的接触操作;靠近检测单元,其配置为检测对于该操作表面的靠近操作;以及控制单元,其配置为在连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入。
通过将连续的接触操作和靠近操作识别为一系列操作输入,相比于仅选择接触操作作为操作输入的对象的情况,可以增加操作输入的种类。
根据本发明,通过将连续的接触操作和靠近操作识别为一系列操作输入,相比于仅选择接触操作作为操作输入的对象的情况,可以增加操作输入的种类。因此,可以实现相比于现有技术能够执行各种操作输入的信息处理设备、操作输入方法和操作输入程序。
附图说明
图1是示出根据本实施例的信息处理设备的功能配置的框图。
图2是示出本发明的详细示例的移动终端的外观配置的示意性简图。
图3是示出移动终端的硬件配置的框图。
图4是示出静电传感器的输出值的改变的示意性简图。
图5是用于描述接触部分、靠近部分和非靠近部分的确定的示意性简图。
图6是用于描述网页浏览器屏幕的显示的示意性简图。
图7是示出触摸操作和靠近操作的示例的示意性简图。
图8是用于描述在触摸操作后的预定时间T内执行靠近操作的示例(1)的示意性简图。
图9是用于描述在触摸操作后超过预定时间T时执行靠近操作的示例的示意性简图。
图10是用于描述在触摸操作后的预定时间T内执行靠近操作的示例(2)的示意性简图。
图11是图示操作输入接收处理的过程的流程图。
图12是示出根据另一实施例的操作输入示例(1)的示意性简图。
图13是示出根据另一实施例的操作输入示例(2)的示意性简图。
图14是示出根据另一实施例的操作输入示例(3)的示意性简图。
图15是示出根据另一实施例的操作输入示例(4)的示意性简图。
具体实施方式
下文描述本发明的最佳方式(下文称为实施例)。将以下列顺序给出描述。
1.实施例
2.其它实施例
1.实施例
1-1.实施例的概要
首先描述实施例的概要。在描述了实施例的概要之后,将给出本发明的详细示例。
在图1中,附图标记1表示信息处理设备。在该信息处理设备1中,提供了接触检测单元2,其用于检测相对于操作表面(例如,触摸板的操作表面)的触摸操作;以及靠近检测单元3,其用于检测相对于操作表面的靠近操作。在信息处理设备1中,提供了控制单元4,其用于在连续地检测到触摸操作和靠近操作时,将触摸操作和靠近操作识别为一系列操作输入。
信息处理设备1将连续的触摸操作和靠近操作识别为一系列操作输入,以便相比于仅选择接触操作作为操作输入的对象的情况,增大了操作输入的种类。
更详细地,在预定时间内连续地检测接触操作和靠近操作时,控制单元4将接触操作和靠近操作识别为一系列操作输入。当在超过预定时间之后连续地检测到接触操作和靠近操作时,将接触操作和靠近操作识别为单独的操作输入。
此时,控制单元4基于接触检测单元2检测到的预定接触操作来控制预定处理的执行,并且当靠近检测单元3在从检测到预定接触操作起的预定时间内检测到预定靠近操作时,控制单元4控制到预定处理执行之前的状态的恢复处理。
控制单元4可以基于接触检测单元2检测到的预定接触操作来控制预定处理的执行,并且在靠近检测单元3从预定接触操作检测起的预定时间内检测到另一靠近操作时,继续执行预定处理。此时,另一靠近操作例如是用于在该接触操作之后使指示器离开操作表面并停止指示器的操作。
控制单元4可以基于接触检测单元2检测到的接触操作的预定动作来控制预定处理的执行,并且当接触检测单元3在从检测到接触操作起的预定时间内检测到靠近操作的预定动作时,控制单元4执行使用与基于接触操作的执行时使用的参数不同的参数来执行预定处理。
当接触检测单元2在靠近检测单元3检测到在某一方向上移动指示器的靠近操作之后的预定时间内检测到接触操作时,控制单元4可以基于某一方向和接触操作来执行控制。
当靠近检测单元3在接触检测单元2检测到接触操作之后的预定时间内检测到距离接触位置预定范围内的靠近操作时,控制单元4可以将接触操作和靠近操作识别为一系列操作输入。
现在将详细描述具有以上配置的信息处理设备1的详细示例。
1-2.实施例的详细示例
1-2-1.移动终端的外观配置
接下来使用图2描述作为上述信息处理设备1的详细示例的移动终端100的外观配置。
通过经由折页部分103A和103B将平面矩形状的第一和第二外壳101和102可开可关地连接,将移动终端100形成为用一只手握持。
在第一外壳101的前表面101A的中心部分提供第一矩形触摸屏104。另外,在第二外壳102的前表面102A的中心部分提供具有与第一触摸屏幕104相同形状和尺寸的第二触摸屏105。
第一触摸屏104和第二触摸屏105中的每一个均包括液晶面板和覆盖液晶面板的显示表面的薄透明触摸板。该触摸板是电容型,且对应于多重触摸板。
移动终端100将第一触摸屏104和第二触摸屏105中的每一个上的手指(触摸笔等)的接触操作和靠近操作识别为操作输入。另外,接触操作是通过以手指触摸触摸屏而执行的操作(也称为触摸操作),而靠近操作是通过使手指能够在不触摸触摸屏的情况下靠近触摸屏的操作。
移动终端100用在第一外壳101位于上方而第二外壳102位于下方的状态下。一般而言,在第一触摸屏104是上部屏幕而第二触摸屏105是下部屏幕的状态下显示多种信息。
在第二触摸屏105的两侧,在移动终端100的第二外壳102的前表面102A上提供了多个操作按键106(如,电源按钮)。
1-2-2.移动终端的硬件配置
接下来使用图3描述移动终端100的硬件配置。在移动终端100中,CPU110将非易失性存储器111中存储的程序展开(develop)在RAM112,读取该程序,根据该程序执行多种处理,并控制每一个单元。另外,CPU是中央处理单元的简称,RAM是随机存取存储器的简称。
当识别出对于第一触摸屏104和第二触摸屏105的触摸操作和靠近操作时,CPU110将操作识别为操作输入,并根据该操作输入执行处理。
第一触摸屏104包括第一液晶面板104A和第一触摸板104B,而第二触摸屏105包括第二液晶面板105A和第二触摸板105B。
第一液晶面板104A和第二液晶面板105A分别将多种信息显示为上部屏幕和下部屏幕。
如上所述,第一触摸板104B和第二触摸板105B中的每一个均为电容触摸板。
第一触摸板104B具有在操作表面上以格子形状排列的多个静电传感器(未示出)。根据随着导体(如,手指)接近操作表面而改变的电容,多个静电传感器的每一个的输出值改变。
实际中,如图4所示,假设手指靠近第一触摸板104B的操作表面。此时,当操作表面与手指之间的距离为30mm时,正好位于手指下面的静电传感器的输出值例如改变到“10”,当距离为15mm时改变到“20”,当距离为5mm时改变到“40”,而当手指与操作表面接触时改变到作为最大的“80”。
CPU110从第一触摸板104B获取每一个静电传感器的改变的输出值和每一个静电传感器的位置。基于每一个静电传感器的输出值和每一个静电传感器的位置,在第一触摸板104B的操作表面上,CPU110在手指接触的部分、手指靠近的部分和手指没有接触或手指没有靠近的部分之中进行鉴别。另外,将手指接触的部分称为接触部分,将手指靠近的部分称为靠近部分,将手指没有接触或手指没有靠近的部分称为非靠近部分。
详细地,如图5所述,CPU110将第一触摸板104B的操作表面上静电传感器的输出值等于或大于“50”的部分鉴别为接触部分。另外,CPU110将输出值等于或大于“20”且小于“50”的部分鉴别为靠近部分,并将输出值小于“20”的部分鉴别为非靠近部分。
CPU110鉴别第一触摸板104B的操作表面上的接触部分、靠近部分和非靠近部分,以便指定手指是接触操作表面还是靠近操作表面。另外,可以指定手指在哪里接触或靠近操作表面。此时,如果存在接触部分,则CPU110例如将接触部分的重心或中心(接触操作表面的手指肚的重心或中心)识别为触摸位置。如果仅存在靠近部分,则CPU110例如将重心或中心(靠近操作表面的手指肚的重心或中心)识别为靠近位置。
另外,CPU110每隔固定时间段,从第一触摸板104B获取每一个静电传感器的输出值,并在接触部分、靠近部分和非靠近部分之中进行鉴别,以便基于接触部分、靠近部分和非靠近部分来检测触摸位置和靠近位置的转变。CPU110基于该转变指定第一触摸板104B上手指的动作。
CPU110基于第一触摸板104B上手指的指定移动,将对于第一触摸板104的触摸操作和靠近操作识别并接收为操作输入。
与第一触摸板104B类似,第二触摸板105B具有操作表面上以格子形状排列的多个静电传感器(未示出)。
CPU110每隔固定时间,从第二触摸板105B获取每一个静电传感器的输出值,在第二触摸板105B的操作表面上的接触部分、靠近部分和非靠近部分之中进行鉴别,并检测触摸位置和靠近位置的转变。
CPU110基于转变指定第二触摸板105B上手指的移动,并基于手指的动作,将第二触摸屏105的触摸操作和靠近操作识别并接收为操作输入。
CPU110将对于第一触摸屏104和第二触摸屏105的触摸操作和靠近操作识别并接收为操作输入,并根据操作输入执行处理。
CPU110将操作按键106的按下操作识别并接收为操作输入,并根据该操作输入执行处理。
例如,假设在第二触摸屏105上显示用于回放音乐数据的回放按钮的状态下,用户点击回放按钮。
如果检测到这种触摸操作,则CPU110将该触摸操作识别并接收为用于回放音乐数据的操作输入,从非易失性存储器111读取音乐数据,并将音乐数据发送到回放单元113。
回放单元113在CPU110的控制之下针对音乐数据执行回放处理(如,解码处理、数模转换处理和放大处理),获得声音信号,并将声音信号输出到耳机端(未示出)。
因此,用户可以使用连接到耳机端的耳机来聆听音乐。
此时,CPU110从读取的音乐数据获取诸如歌曲名称或艺术家名称之类的信息,并且例如在第一触摸屏104的第一液晶面板104A上显示信息。因此,可以呈现与正向用户回放的音乐有关的信息。
例如,假设在第二触摸屏104上显示用于启动网页浏览器的浏览器图标的状态下,用户点击浏览器图标。
如果检测到这种触摸操作,则CPU110将该触摸操作识别并接收为用于启动网页浏览器的操作输入,并启动网页浏览器。
CPU110在第一液晶面板104A和第二液晶面板105A上显示网页浏览器屏幕,并经由网络接口114从网络上的服务器接收网页的页面数据。CPU110将基于页面数据的页面图像显示在网页浏览器屏幕上。
因此,用户可以经由网页浏览器来浏览网页。
作为本实施例的概要所描述的信息处理设备1的接触检测单元2和靠近检测单元3的详细硬件示例是上述移动终端100的第一触摸板104B和第二触摸板105B。信息处理设备1的控制单元4的详细硬件示例是移动终端100的CPU110。
移动终端100不仅将触摸操作和靠近操作识别并接收为单独的操作输入,而且当在预定时间内连续执行这种操作时还将这些操作识别并接收为一系列的操作输入。
下文详细描述连续执行触摸操作和靠近操作时的操作输入。
1-3.连续执行触摸操作和靠近操作时的操作输入
如图6所示,假设在第一触摸屏104上显示网页浏览器的上半部,而在第二触摸屏105上显示网页浏览器的下半部。
此时,作为接触操作和靠近操作,存在由CPU110识别并接收为操作输入的向内收缩(pinch-in)、向外收缩(pinch-out)、滑移(shuffle)。
向内收缩是指用于缩小两个手指(例如,拇指和食指)之间的空间的操作。如图7的(A)中所示,向内收缩包括作为通过使得两个手指能够触摸触摸板而执行的触摸操作的接触向内收缩以及作为通过使得两个手指能够靠近触摸板而执行的靠近操作的靠近向内收缩。
向外收缩是指用于加宽两个手指之间的空间的操作。如图7的(B)所示,向外收缩包括作为通过使得两个手指能够触摸触摸板而执行的触摸操作的接触向外收缩以及作为通过使得两个手指能够靠近触摸板而执行的靠近操作的靠近向外收缩。
滑移是指用于以一个手指画出Z字形的操作。如图7的(C)所示,滑移仅包括作为通过使得一个手指能够靠近触摸板而执行的靠近操作的靠近滑移。另外,为了维持与仅执行作为操作输入的触摸操作的现有技术的一般操作的兼容性,当一个手指触摸触摸板以便执行滑移时,CPU110不识别接触滑移,而是识别一般拖动。
作为连续执行触摸操作和靠近操作的示例,例如,可以在接触向内收缩之后执行靠近滑移。
实际中,如图8所示,假设在某一时间t1,针对第一触摸屏104执行作为触摸操作的接触向内收缩。
当检测到接触向内收缩时,CPU110将接触向内收缩识别并接收为用于缩小网页浏览器屏幕的页面图像的操作输入,缩小页面图像,并在网页浏览器屏幕上显示缩小的页面图像。
此时,当执行接触向内收缩时,CPU110例如以两个手指移动量的1/2到1/3范围设置页面图像的缩小率。CPU110将通过把页面图像的当前显示缩放因子(例如,一倍)乘以设置的缩小率(例如,1/2)所获得的值(1/2)设置为新的显示缩放因子(1/2),并缩小页面图像。
此后,假设在某一时间t2,用户使手指离开第一触摸屏104以便执行作为靠近操作的靠近滑移。
当检测到靠近滑移时,CPU110确定当前时间t2是否处于从执行前一触摸操作(接触向内收缩)的时间t1起的预定时间T(大约1秒)内。
如果执行靠近滑移时的当前时间t2处于从执行前一触摸操作的时间t1起的预定时间T内,则CPU110确定当前靠近操作(靠近滑移)是与前一触摸操作相关联的操作。
此时,CPU110将靠近滑移识别并接收为用于把页面图像的显示缩放因子返回到通过前一接触向内收缩的缩小之前的值的操作输入,并将页面图像的显示缩放因子返回到缩小之前的值(即,一倍)。
相比之下,如图9所示,假设执行靠近滑移的当前时间t2超过了从执行前一触摸操作的时间t1起的预定时间T。在这种情况下,CPU110确定当前靠近操作(靠近滑移)独立于前一触摸操作。
此时,CPU110将靠近滑移识别并接收为返回到前一页面图像的操作输入,并在网页浏览器屏幕上显示前一页面图像(而不是当前显示的页面图像)。
当在接触向内收缩之后的预定时间T内执行靠近滑移时,CPU110将靠近滑移识别并接收为继续前一接触向内收缩的一系列操作输入。
当接触向内收缩之后的预定时间T之后执行靠近滑移时,将靠近滑移作识别并接收为独立于前一接触向内收缩的操作输入。
作为连续执行触摸操作和靠近操作的另一示例,例如,可以在接触向外收缩之后执行靠近滑移。
实际中,假设在某一时间t1,用户针对第一触摸屏104(未示出)执行作为触摸操作的接触向外收缩。
当检测到接触向外收缩时,CPU110将接触向外收缩识别并接收为用于放大网页浏览器屏幕的页面图像的操作输入,放大页面图像,并在网页浏览器屏幕上显示放大的页面图像。
此时,当执行接触向外收缩时,CPU110例如以两个手指移动量的两倍或三倍的范围设置放大率。CPU110将通过把页面图像的当前显示缩放因子(例如,一倍)乘以设置的放大率(例如,两倍)所获得的值(两倍)设置为新的显示缩放因子(两倍),并放大页面图像。
此后,假设在某一时间t2,用户使手指离开第一触摸屏104以便执行作为靠近操作的靠近滑移。
当检测到靠近滑移时,CPU110确定当前时间t2是否处于从执行前一触摸操作(接触向外收缩)的时间t1起的预定时间T(大约1秒)内。
如果执行靠近滑移的当前时间t2处于从执行前一触摸操作的时间t1起的预定时间T内,则CPU110确定当前靠近操作(靠近滑移)是与前一触摸操作相关联的操作。
此时,CPU110将靠近滑移识别并接收为用于将页面图像的显示缩放因子返回到通过前一接触向外收缩的放大之前的值的操作输入,并将页面图像的显示缩放因子返回到放大之前的值(即,一倍)。
相比之下,如果执行靠近滑移的当前时间t2超过了从执行前一触摸操作的时间t1起的预定时间T,则CPU110确定当前靠近操作(靠近滑移)独立于前一触摸操作。
此时,CPU110将靠近滑移识别并接收为返回到前一页面图像的操作输入,并在网页浏览器屏幕上显示前一页面图像(而不是当前显示的页面图像)。
当在接触向外收缩之后的预定时间T内执行靠近滑移时,CPU110将靠近滑移识别并接收为继续前一接触向外收缩的一系列操作输入。
当在接触向外收缩后的预定时间T之后执行靠近滑移时,将靠近滑移识别并接收为独立于前一接触向外收缩的操作输入。
作为连续执行触摸操作和靠近操作的另一示例,例如,可以在接触向外收缩之后执行靠近向外收缩。
实际中,如图10所示,假设在某一时间t1,用户针对第一触摸屏104执行作为触摸操作的接触向外收缩。
当检测到接触向外收缩时,CPU110如上所述那样,将接触向外收缩识别并接收为用于放大网页浏览器屏幕的页面图像的操作输入,放大页面图像,并在网页浏览器屏幕上显示放大的页面图像。
此时,当执行接触向外收缩时,CPU110例如以两个手指移动量的两倍或三倍的范围设置放大率。CPU110将通过把页面图像的当前显示缩放因子(例如,一倍)乘以设置的放大率(例如,两倍)所获得的值(两倍)设置为新的显示缩放因子(两倍),并放大页面图像。
此后,假设在某一时间t2,用户使手指离开第一触摸屏104以便执行作为靠近操作的靠近向外收缩。
当检测到靠近向外收缩时,CPU110确定当前时间t2是否处于从执行前一触摸操作(接触向外收缩)的时间t1起的预定时间T内。
如果执行靠近向外收缩的当前时间t2处于从执行前一触摸操作的时间t1起的预定时间T内,则CPU110确定当前靠近操作(靠近向外收缩)是与前一触摸操作相关联的操作。
此时,CPU110将靠近向外收缩识别并接收为用于更加细微地设置前一接触向外收缩放大的页面图像的放大率的操作输入,并且更加细微地设置页面图像的放大率。
此时,当执行接触向外收缩时,CPU110例如以两个手指移动量的+0.2倍到+0.3倍的范围设置放大率。CPU110将通过把设置的放大率(例如,+0.3倍)加到页面图像的当前显示缩放因子(例如,两倍)所获得的值(2.3倍)设置为新的显示缩放因子(2.3倍),并放大页面图像。
相比之下,如果执行靠近向外收缩的当前时间t2超过了从执行前一触摸操作的时间t1起的预定时间T,则CPU110确定当前靠近操作(靠近向外收缩)独立于前一触摸操作。此时,CPU110不把该靠近向外收缩接收为操作输入。
当在接触向外收缩后的预定时间T内执行靠近向外收缩时,CPU110将靠近向外收缩识别并接收为与前一接触向外收缩相关联的操作输入。
如至此所述的那样,移动终端100不仅把触摸操作而且把靠近操作识别并接收为关于第一触摸板104B和第二触摸板105B的操作输入。
据此,在移动终端100中,相比于仅把触摸操作识别并接收为操作输入的情况,可以执行各种操作输入。
在移动终端100中,除了触摸操作之外,还把靠近操作识别并接收为操作输入。另外,当在预定时间T内连续执行触摸操作和靠近操作时,将这些操作识别并接收为一系列操作输入。
因此,在移动终端100中,可以把触摸操作和靠近操作识别并接收为单独的操作输入,并可以执行通过组合这些操作所获得的操作输入。结果,可以执行各种操作输入。
如上所述,在移动终端100中,当在触摸操作之后的预定时间T内执行特定的靠近操作(例如,靠近滑移)时,执行返回到进行触摸操作的处理之前的状态的处理。
例如,即使在未触摸屏幕上显示的用于返回原始状态的按钮时,也可以通过一个靠近操作返回到正好在触摸操作之前的状态。
在移动终端100中,在用于放大/缩小图像等的触摸操作之后,当在预定时间T内执行与触摸操作相同动作的靠近操作时,通过与触摸操作不同的改变率来执行相同处理(放大/缩小)。
因此,例如,在通过触摸操作粗略地放大/缩小图像之后,可以通过靠近操作细调图像尺寸。
1-4.接收操作输入的过程
接下来使用图11所示的流程图,描述移动终端100识别并接收操作输入的详细过程(这也称为操作输入接收处理)。图11所示的操作输入接收过程RT1是移动终端100的CPU110根据非易失性存储器111中存储的程序而执行的过程。
CPU110例如在移动终端100接通电源时开始操作输入接收过程RT1,并转至步骤SP1。在步骤SP1,CPU110确定是否检测到手指与第一触摸板104B或第二触摸板105B的接触。
例如,如果通过手指与第一触摸板104B的触摸检测在步骤SP1获得肯定结果,则CPU110转至步骤SP2。
在步骤SP2,CPU110检测触摸操作,并转至下一步骤SP3。在步骤SP3,CPU110确定在前一阶段的步骤SP2中是否检测到与操作输入对应的触摸操作(例如,上述的接触向内收缩、接触向外收缩等)。
如果在前一阶段的步骤SP2中检测到对应于操作输入的触摸操作而由此在步骤SP3中获得肯定结果,则CPU110设置用于测量上述预定时间T的计时器,并转至步骤SP4。
在步骤SP4,CPU110将步骤SP2中检测到的触摸操作识别并接收为操作输入,并发出对应于操作输入的命令(例如,用于缩小页面图像的命令)。结果,执行对应于该命令的处理(例如,缩小页面图像的处理)。CPU110再次返回到步骤SP1。如果在上述步骤SP3中获得否定结果(即,如果步骤SP2检测到的触摸操作不是对应于操作输入的触摸操作),则CPU110再次返回到步骤SP1。
如果未检测到手指的接触而由此在上述步骤SP1中获得否定结果,则CPU110转至步骤SP5。
在步骤SP5,CPU110确定是否检测到手指对于第一触摸板104B或第二触摸板105B的靠近。
如果例如检测到手指对于第一触摸板104B的靠近并在步骤SP5中获得肯定结果,则CPU110转至步骤SP6。
在步骤SP6,CPU110检测靠近操作,并转至下一步骤SP7。在步骤SP7,CPU110确定在前一阶段的步骤SP6中是否检测到对应于操作输入的靠近操作(例如,上述的靠近向外收缩、靠近滑移等)。
如果在前一阶段的步骤SP6中检测到对应于操作输入的靠近操作而由此在步骤SP7中获得肯定结果,则CPU110转至步骤SP8。
在步骤SP8,CPU110基于计时器的输出,确定当前时间是否处于从检测到对应于前一操作输入的触摸操作的时间起的预定时间T内。
如果当前时间处于从检测到对应于前一操作输入的触摸操作的时间起的预定时间T内而由此在步骤SP8中获得肯定结果,则CPU110转至步骤SP9。
在步骤SP9,CPU110将检测到的靠近操作识别并接收为继续前一触摸操作的一系列操作输入,并发出对应于该操作输入的命令(例如,用于将页面图像的显示缩放因子返回到缩小之前的值的命令)。结果,执行对应于该命令的处理(例如,将页面图像的显示缩放因子返回到缩小之前的值的处理)。然后,CPU110将计时器复位,并再次返回到步骤SP1。
如果当前时间超过了从检测到对应于前一操作输入的触摸操作的时间起的预定时间T而由此在上述步骤SP8中获得否定结果,则CPU110转至步骤SP10。
在步骤SP10,CPU110将检测到的靠近操作识别并接收为独立的操作输入,并发出对应于该操作输入的命令(例如,用于返回到前一页面的命令)。结果,执行对应于该命令的处理(例如,返回到前一页面的处理)。然后,CPU110将计时器复位,然后再次返回到步骤SP1。如果在上述步骤SP7中获得否定结果(即,如果在步骤SP6中检测到的靠近操作不是对应于操作输入的靠近操作),则CPU110再次返回到步骤SP1。
移动终端100的CPU110通过操作输入接收过程RT1,将触摸操作和靠近操作接收为操作输入。
1-5.操作和效果
在上述配置中,移动终端100的CPU110监控电容型第一触摸板104B和第二触摸板105B的输出值,以便识别其触摸操作和靠近操作。
如果检测到对于第一触摸板104B或第二触摸板105B的触摸操作,则CPU110将触摸操作识别并接收为操作输入,并执行对应于该操作输入的处理。
如果在检测到触摸操作后的预定时间T内检测到对于第一触摸板104B或第二触摸板105B的靠近操作,则CPU110将靠近操作识别并接收为继续前一触摸操作的一系列操作输入。
相比之下,如果在超过检测到触摸操作后的预定时间T时检测到靠近操作,则CPU110将靠近操作识别并接收为独立于前一触摸操作的操作输入。
据此,在移动终端100中,通过除了触摸操作之外还将靠近操作识别并接收为操作输入,相比于用于仅执行作为操作输入的触摸操作的装置,可以增加操作输入的类型并执行各种操作输入。
在移动终端100中,除了触摸操作之外,还将靠近操作识别并接收为操作输入。另外,当在预定时间T内连续执行触摸操作和靠近操作时,将这些操作识别为一系列操作输入。
因此,在移动终端100中,可以将触摸操作和靠近操作识别并接收为单独的操作输入,并可以执行通过组合这些操作而获得的操作输入。结果,可以执行各种操作输入。
在移动终端100中,在把现有技术的一般触摸操作(向内收缩、向外收缩、拖动、点击等)不加以改变地添加到这种触摸操作的状态下,将靠近操作识别并接收为操作输入。
因此,即使通过熟悉现有技术的一般触摸操作的用户,也可以容易地操作移动终端100。结果,各种操作输入和简易操作是兼容的。
通过上述配置,由于移动终端100将预定时间T内连续执行的触摸操作和靠近操作识别为一系列操作输入,因此相比于仅将触摸操作执行为操作输入的情况,可以增加操作输入的类型。据此,相比于现有技术,移动终端100可以执行各种操作输入。
2.其它实施例
2-1.其它实施例1
在上述实施例中,在预定时间T内,当在接触向内收缩或接触向外收缩之后执行靠近滑移时或者当在接触向外收缩之后执行靠近向外收缩时,将这些操作接收为一系列操作输入。
本发明不限于此,而是可以将其它各种触摸操作和靠近操作的组合接收为一系列操作输入。
例如,如图12所示,将描述在接触拖动之后执行靠近保持的情况。接触拖动是指用于使一个手指触摸在触摸板上并在某一方向上移动(即,滑动)手指的触摸操作。靠近保持是用于以一个手指靠近触摸板并停止该手指的靠近操作。
例如,在第一触摸屏104上显示从音乐数据获取的艺术家名称列表的一部分的状态下,用户针对第一触摸屏104执行接触拖动。
当检测到接触拖动时,CPU110将接触拖动识别并接收为用于滚动列表的操作输入,并根据接触拖动的速度、距离和方向来滚动列表。
此后,假设用户在预定时间T内使手指离开第一触摸屏104,并执行靠近保持。
当检测到靠近保持时,CPU110将靠近保持识别并接收为用于继续通过前一接触拖动而滚动列表的操作输入,并继续滚动列表。
此时,在靠近保持期间,CPU110以与前一接触拖动的列表滚动相同的速度和相同的方向继续滚动列表。
据此,例如,如果将列表滚动几个屏幕,则在现有技术中重复地执行几次拖动。然而,在移动终端100中,由于仅执行一个接触拖动和靠近保持,因此可以减小用户负担。
当在触摸操作之后执行用于离开和停止手指的靠近操作时,可以连续执行触摸操作所执行的处理(例如,滚动)。
2-2.其它实施例2
在上述实施例中,当在触摸操作后的预定时间内执行靠近操作时,将这些操作接收为一系列操作输入。本发明不限于此。当在靠近操作后的预定时间T内执行触摸操作时,可以将这些操作接收为一系列操作输入。
例如,如图13所示,描述将点击执行为作为靠近操作的靠近拖动之后的触摸操作的情况。靠近拖动是指用于以一个手指靠近触摸板并且在某一方向上移动手指的靠近操作。
假设在第一触摸屏104或第二触摸屏105上显示软键盘。在配置软键盘的按键中,包括用于显示多个可输入字符的按键。
例如,在主要用于输入“M”的按键(这也称为M按键)中,在其中心显示“M”,在其上端显示“?”,并在其左端显示“,”。
此时,假设例如用户在M按键上以屏幕的向上方向(附图的Y方向)将其手指移动预定量,执行用于返回到原始状态的靠近拖动,然后在预定时间内点击M按键。
当连续检测到靠近拖动和点击时,CPU110将靠近拖动和点击识别并接收为用于输入M按键的上端显示的“?”的一系列操作输入,并发出用于输入字符“?”的命令。结果,将字符“?”输入到移动终端100。
相比之下,假设用户在M按键上以屏幕的左向(附图的X方向)将手指移动预定量,执行用于返回到原始状态的靠近拖动,并在预定时间T内点击M按键。
当连续检测到靠近拖动和点击时,CPU110将靠近拖动和点击识别并接收为用于输入M按键的左端显示的“,”的一系列操作输入,并发出用于输入字符“,”的命令。结果,将字符“,”输入到移动终端100。
假设用户不对M按键执行靠近拖动,而是点击M按键。
在这种情况下,当检测到点击时,CPU110将点击识别并接收为用于输入M按键中心显示的“M”的操作输入,并发出用于输入字符“M”的命令。结果,将字符“M”输入到移动终端100。
在移动终端100中,通过正好点击M按键之前在向上方向或向左方向上执行靠近拖动,可以选择性地输入分配给M按键的“M”以外的字符。
据此,在移动终端100中,通过靠近拖动的方向和点击的组合,可以使用一个按键输入多个字符。因此,可以减少屏幕上显示的按键数量,结果可以高效地使用屏幕。另外,相比于触摸转换(shift)按键等以便切换每个按键可输入的字符的情况,可以实现在直观上更简单的操作。
本发明不限于这种字符输入,靠近拖动和点击的连续操作可以是其它各种操作,并且例如可应用于网页浏览器操作。
实际中,例如,在第一触摸屏104上显示网页浏览器屏幕的上半部,而在第二触摸屏105上显示网页浏览器屏幕的下半部。
此时,如图14所示,假设用户在网页浏览器屏幕的下半部上显示的链接上以屏幕的右向(附图的X方向)将手指移动预定量,执行用于返回到原始状态的靠近拖动,并在预定时间T内点击该链接。
当连续地检测到靠近拖动和点击时,CPU110将靠近拖动和点击识别为用于通过点击打开链接目的地的页面的一系列操作输入,并发出用于通过点击打开链接目的地的页面的命令。结果,通过点击在第一触摸屏104和第二触摸屏105上显示链接目的地的页面的页面图像。
相比之下,如图15所示,假设用户在网页浏览器屏幕的下半部上显示的链接上以屏幕的向上方向(附图的Y方向)将其手指移动预定量,执行用于返回到原始状态的靠近拖动,并在预定时间T内点击该链接。
当连续检测到靠近拖动和点击时,CPU110将靠近拖动和点击识别为用于在上部屏幕上打开链接目的地的页面的一系列操作输入,并发出用于在上部屏幕上打开链接目的地的页面的命令。结果,第二触摸屏105的显示内容未改变,并且仅在第一触摸屏104上显示链接目的地的页面的页面图像。
在移动终端100中,通过正好点击链接之前在向上方向或向右方向上执行靠近拖动,可以通过使用某一打开方法打开链接目的地的页面(无论在上部屏幕上打开页面还是通过点击打开页面)。
在移动终端100中,登记作为一系列操作输入所接收到的触摸操作和靠近操作的组合,并且当通过登记的组合执行触摸操作和靠近操作时,将这些操作接收为一系列操作输入。
可以由用户登记这种组合以及对应于该组合的操作输入。因此,用户可以定制移动终端100的操作,以便方便移动终端的使用。
2-3.其它实施例3
在上述实施例中,当在触摸操作后的预定时间T内对第一触摸屏104或者第二触摸屏105执行靠近操作时,将这些操作接收为一系列操作输入。
本发明不限于此,而是例如,当在触摸操作后的预定时间T内执行对于经历了触摸操作的触摸屏的靠近操作时,可以将这些操作接收为一系列操作输入。
另外,例如,当在触摸操作之后,在以经历了触摸操作的触摸位置为中心的预定范围内执行靠近操作时,可以将这些操作识别并接收为一系列操作输入。
2-4.其它实施例4
在上述实施例中,当在预定时间T内连续执行触摸操作和靠近操作,不依赖于执行哪一操作,将这些操作接收为一系列操作输入。
预定时间T仅是示例性的,并且要点在于:当在设置的预定时间内连续执行触摸操作和靠近操作时,将操作接收为一系列操作输入。本发明不限于此,而是可以针对每个操作设置预定时间T。例如,可以将预定时间T设置为接触向外收缩之后的5秒,以及接触拖动之后的1秒。
本发明不限于此。例如,可以不设置预定时间T,在连续执行特定的触摸操作和靠近操作时,可以将这些操作识别并接收为一系列操作输入。
2-5.其它实施例5
在上述实施例中,将本发明应用于具有电容型第一触摸板104B和第二触摸板105B的移动终端100。
本发明不限于此。在其为能够检测手指(指示器)的接触和靠近的操作输入设备的情况下,本发明可应用于包括其它各种操作输入设备的装置(如,液晶面板中包括光传感器的光感测触摸屏)。
代之第一液晶面板104A和第二液晶面板105A,本发明可应用于包括其它各种显示设备的装置(如,有机电致发光(EL)面板)。
2-6.其它实施例6
在上述实施例中,将本发明应用于具有两个屏幕(即,第一触摸屏104和第二触摸屏105)的移动终端100。
本发明不限于此,而是本发明可应用于例如具有一个屏幕(即,一个触摸屏)的装置。
2-7.其它实施例7
在上述实施例中,在移动终端100中提供用作接触检测单元2和靠近检测单元3的第一触摸板104B和第二触摸板105B作为信息处理设备1。提供CPU110作为信息处理设备1的控制单元4。
本发明不限于此。如果执行相同功能,则可以通过各种其它硬件或软件来配置上述移动终端100的每一个单元。
本发明不限于移动终端100,而是可应用于各种装置,如数码相机、固定个人计算机、游戏机、移动音频播放器或移动电话。
2-8.其它实施例8
在上述实施例中,在移动终端100的非易失性存储器111中写入用于执行各种处理的程序。
本发明不限于此。例如,可以在移动终端100中提供存储介质(如,存储卡)的槽,并且CPU110可以从插入到槽中的存储介质读取并执行程序。另外,CPU110可以在非易失性存储器111中安装从存储介质读取的程序。另外,CPU110可以经由网络I/F114从网络上的装置下载程序,并将程序安装在非易失性存储器111中。
2-9.其它实施例9
另外,本发明不限于上述实施例和其它实施例。即,本发明可应用于以下的任意组合:一部分或所有的上述实施例和其它实施例或者从上述实施例和其它实施例提取出的一部分。
本发明包含与2010年1月19日向日本专利局提交的日本优先权专利申请JP2010-009183中公开的主题有关的主题,其全部内容通过引用的方式合并在此。
本领域的技术人员应当理解,依据设计要求或其它因素,可以出现各种修改、组合、部分组合和变更,只要它们落在所附权利要求及其等价物的范围内即可。
Claims (8)
1.一种信息处理设备,包括:
接触检测单元,其配置为检测对于操作表面的接触操作;
靠近检测单元,其配置为检测对于该操作表面的靠近操作;以及
控制单元,其配置为在连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入,其中,当在预定时间内连续检测到接触操作和靠近操作时,控制单元将该接触操作和靠近操作识别为一系列操作输入,而当在超过预定时间之后连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为单独的操作输入。
2.根据权利要求1所述的信息处理设备,其中,控制单元基于接触检测单元检测到的预定接触操作来控制预定处理的执行,并且当靠近检测单元在从检测到预定接触操作起的预定时间内检测到预定靠近操作时,控制单元控制恢复到该预定处理执行之前的状态的处理。
3.根据权利要求1所述的信息处理设备,其中,控制单元基于接触检测单元检测到的预定接触操作来控制预定处理的执行,并且当靠近检测单元在从检测到预定接触操作起的预定时间内检测到另一靠近操作时,控制单元继续执行该预定处理。
4.根据权利要求3所述的信息处理设备,其中,所述另一靠近操作是用于在接触操作之后使指示器离开操作表面并停止该指示器的操作。
5.根据权利要求1所述的信息处理设备,其中,控制单元基于接触检测单元检测到的接触操作的预定动作来控制预定处理的执行,并且当接触检测单元在从检测到预定接触操作起的预定时间内检测到靠近操作的预定动作时,控制单元通过使用与基于接触操作的执行时使用的参数不同的参数来执行该预定处理。
6.根据权利要求1所述的信息处理设备,其中,当接触检测单元在靠近检测单元检测到用于在特定方向上移动指示器的靠近操作之后的预定时间内检测到接触操作时,控制单元基于所述特定方向和接触操作来执行控制。
7.根据权利要求1所述的信息处理设备,其中,当靠近检测单元在接触检测单元检测到接触操作之后的预定时间内,在距离接触位置的预定范围内检测到靠近操作时,控制单元将该接触操作和该靠近操作识别为一系列操作输入。
8.一种操作输入方法,包括如下步骤:
通过接触检测单元检测对于操作表面的接触操作;
通过靠近检测单元检测对于该操作表面的靠近操作;以及
当连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入,
其中,当在预定时间内连续检测到接触操作和靠近操作时,将该接触操作和靠近操作被识别为一系列操作输入,而当在超过预定时间之后连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作被识别为单独的操作输入。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010009183A JP2011150413A (ja) | 2010-01-19 | 2010-01-19 | 情報処理装置、操作入力方法及び操作入力プログラム |
JP009183/10 | 2010-01-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102129311A CN102129311A (zh) | 2011-07-20 |
CN102129311B true CN102129311B (zh) | 2015-11-18 |
Family
ID=44267416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110005283.5A Active CN102129311B (zh) | 2010-01-19 | 2011-01-12 | 信息处理设备、操作输入方法和操作输入程序 |
Country Status (3)
Country | Link |
---|---|
US (9) | US8581864B2 (zh) |
JP (1) | JP2011150413A (zh) |
CN (1) | CN102129311B (zh) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
USD612398S1 (en) * | 2007-09-04 | 2010-03-23 | Apple Inc. | Icon for a portion of a display screen |
JP2011150413A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力方法及び操作入力プログラム |
US9411504B2 (en) | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US8261213B2 (en) | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
US20110191704A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Contextual multiplexing gestures |
US9519356B2 (en) | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US9310994B2 (en) | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US9274682B2 (en) | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US9367205B2 (en) | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US9075522B2 (en) | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US20120306930A1 (en) * | 2011-06-05 | 2012-12-06 | Apple Inc. | Techniques for zooming in and out with dynamic content |
JP5942375B2 (ja) * | 2011-10-04 | 2016-06-29 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP5801177B2 (ja) * | 2011-12-19 | 2015-10-28 | シャープ株式会社 | 情報処理装置の入力方法、及び情報処理装置 |
JP5721662B2 (ja) | 2012-04-26 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 入力受付方法、入力受付プログラム、及び入力装置 |
US9652043B2 (en) * | 2012-05-14 | 2017-05-16 | Hewlett-Packard Development Company, L.P. | Recognizing commands with a depth sensor |
JP5961448B2 (ja) * | 2012-05-28 | 2016-08-02 | 京セラ株式会社 | 情報処理装置、プログラムおよび情報処理装置の制御方法 |
JP5923395B2 (ja) | 2012-06-26 | 2016-05-24 | 京セラ株式会社 | 電子機器 |
US9225810B2 (en) * | 2012-07-03 | 2015-12-29 | Sony Corporation | Terminal device, information processing method, program, and storage medium |
JP5751233B2 (ja) * | 2012-10-02 | 2015-07-22 | 株式会社デンソー | 操作デバイス |
US9310895B2 (en) * | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
JP2014109803A (ja) | 2012-11-30 | 2014-06-12 | Toshiba Corp | 電子機器およびプログラム |
JP5489379B1 (ja) * | 2013-01-18 | 2014-05-14 | パナソニック株式会社 | スクロール装置、スクロール方法及びプログラム |
JP5984722B2 (ja) * | 2013-03-22 | 2016-09-06 | シャープ株式会社 | 情報処理装置 |
JP6004105B2 (ja) * | 2013-07-02 | 2016-10-05 | 富士通株式会社 | 入力装置、入力制御方法、及び入力制御プログラム |
KR102234400B1 (ko) * | 2013-07-08 | 2021-03-31 | 삼성전자주식회사 | 컨텐츠의 순서 또는 위치를 변경하는 전자 장치 및 방법 |
JP5579914B2 (ja) * | 2013-12-27 | 2014-08-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | スクロール装置、スクロール方法及びプログラム |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
JP2017090942A (ja) * | 2014-03-19 | 2017-05-25 | アルプス電気株式会社 | 入力装置 |
EP3242189A4 (en) * | 2014-12-30 | 2018-08-08 | Shenzhen Royole Technologies Co. Ltd. | Touch operation method, touch operation assembly and electronic device |
US10564762B2 (en) * | 2015-09-17 | 2020-02-18 | Canon Kabushiki Kaisha | Electronic apparatus and control method thereof |
JP6205021B2 (ja) * | 2016-06-27 | 2017-09-27 | 京セラ株式会社 | 情報処理装置、プログラムおよび情報処理装置の制御方法 |
CN109951691A (zh) * | 2017-12-20 | 2019-06-28 | 深圳光峰科技股份有限公司 | 投影画面的校正方法、装置以及投影系统 |
CN108668083B (zh) * | 2018-07-24 | 2020-09-01 | 维沃移动通信有限公司 | 一种拍照方法及终端 |
JP7302150B2 (ja) * | 2018-09-20 | 2023-07-04 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及び情報処理プログラム |
CN113497888B (zh) * | 2020-04-07 | 2023-05-02 | 华为技术有限公司 | 照片预览方法、电子设备和存储介质 |
CN111831157B (zh) * | 2020-07-14 | 2024-03-19 | 京东方科技集团股份有限公司 | 一种触控显示面板及其驱动方法、触控显示装置 |
JP7521372B2 (ja) * | 2020-10-15 | 2024-07-24 | セイコーエプソン株式会社 | 表示方法、及び表示装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101097496A (zh) * | 2006-06-29 | 2008-01-02 | 株式会社Aki | 触摸面板的操纵方法和输入方法 |
CN101546245A (zh) * | 2008-03-26 | 2009-09-30 | Lg电子株式会社 | 终端及其控制方法 |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6707449B2 (en) * | 2000-08-30 | 2004-03-16 | Microsoft Corporation | Manual controlled scrolling |
US6690365B2 (en) * | 2001-08-29 | 2004-02-10 | Microsoft Corporation | Automatic scrolling |
US7202857B2 (en) * | 2001-08-29 | 2007-04-10 | Microsoft Corporation | Manual controlled scrolling |
US6664744B2 (en) * | 2002-04-03 | 2003-12-16 | Mitsubishi Electric Research Laboratories, Inc. | Automatic backlight for handheld devices |
US20050237699A1 (en) * | 2004-04-21 | 2005-10-27 | David Carroll | Multi-screen mobile computing system |
US7786980B2 (en) * | 2004-06-29 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Method and device for preventing staining of a display device |
US8381135B2 (en) * | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
JP4547622B2 (ja) | 2005-04-22 | 2010-09-22 | アルパイン株式会社 | タッチパネル入力装置及び操作入力判定方法 |
US7567240B2 (en) * | 2005-05-31 | 2009-07-28 | 3M Innovative Properties Company | Detection of and compensation for stray capacitance in capacitive touch sensors |
US7786975B2 (en) * | 2005-12-23 | 2010-08-31 | Apple Inc. | Continuous scrolling list with acceleration |
US20070262951A1 (en) * | 2006-05-09 | 2007-11-15 | Synaptics Incorporated | Proximity sensor device and method with improved indication of adjustment |
US7825797B2 (en) * | 2006-06-02 | 2010-11-02 | Synaptics Incorporated | Proximity sensor device and method with adjustment selection tabs |
WO2008007372A2 (en) * | 2006-07-12 | 2008-01-17 | N-Trig Ltd. | Hover and touch detection for a digitizer |
US20080018604A1 (en) * | 2006-07-19 | 2008-01-24 | Tyco Electronics Canada, Ltd. | Touch detection method and system for a touch sensor |
US7889184B2 (en) * | 2007-01-05 | 2011-02-15 | Apple Inc. | Method, system and graphical user interface for displaying hyperlink information |
US20080247128A1 (en) * | 2007-04-03 | 2008-10-09 | Soon Huat Khoo | Composite Two Screen Digital Device |
US8432365B2 (en) * | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
DE102008051757A1 (de) * | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
KR101505191B1 (ko) * | 2008-01-09 | 2015-03-20 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
EP2104024B1 (en) * | 2008-03-20 | 2018-05-02 | LG Electronics Inc. | Portable terminal capable of sensing proximity touch and method for controlling screen using the same |
US8723811B2 (en) * | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
US9274681B2 (en) * | 2008-03-26 | 2016-03-01 | Lg Electronics Inc. | Terminal and method of controlling the same |
US8259080B2 (en) * | 2008-03-31 | 2012-09-04 | Dell Products, Lp | Information handling system display device and methods thereof |
EP2131272A3 (en) * | 2008-06-02 | 2014-05-07 | LG Electronics Inc. | Mobile communication terminal having proximity sensor and display controlling method therein |
US8355003B2 (en) * | 2008-06-13 | 2013-01-15 | Microsoft Corporation | Controller lighting activation by proximity and motion |
KR20100010860A (ko) * | 2008-07-23 | 2010-02-02 | 엘지전자 주식회사 | 이동 단말기 및 그의 이벤트 제어방법 |
US9658765B2 (en) * | 2008-07-31 | 2017-05-23 | Northrop Grumman Systems Corporation | Image magnification system for computer interface |
US20100162128A1 (en) * | 2008-12-19 | 2010-06-24 | Nigel Richardson | User interfaces and associated apparatus and methods |
US8866840B2 (en) * | 2008-09-08 | 2014-10-21 | Qualcomm Incorporated | Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
US20100117970A1 (en) * | 2008-11-11 | 2010-05-13 | Sony Ericsson Mobile Communications Ab | Methods of Operating Electronic Devices Using Touch Sensitive Interfaces with Contact and Proximity Detection and Related Devices and Computer Program Products |
US8799806B2 (en) * | 2008-12-31 | 2014-08-05 | Verizon Patent And Licensing Inc. | Tabbed content view on a touch-screen device |
US20100251112A1 (en) * | 2009-03-24 | 2010-09-30 | Microsoft Corporation | Bimodal touch sensitive digital notebook |
US8619029B2 (en) * | 2009-05-22 | 2013-12-31 | Motorola Mobility Llc | Electronic device with sensing assembly and method for interpreting consecutive gestures |
KR101587211B1 (ko) * | 2009-05-25 | 2016-01-20 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
US20100321275A1 (en) * | 2009-06-18 | 2010-12-23 | Microsoft Corporation | Multiple display computing device with position-based operating modes |
US8373669B2 (en) * | 2009-07-21 | 2013-02-12 | Cisco Technology, Inc. | Gradual proximity touch screen |
JP2011053974A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 操作制御装置、操作制御方法およびコンピュータプログラム |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
JP2011150413A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力方法及び操作入力プログラム |
US20120054670A1 (en) * | 2010-08-27 | 2012-03-01 | Nokia Corporation | Apparatus and method for scrolling displayed information |
JP5614275B2 (ja) * | 2010-12-21 | 2014-10-29 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
-
2010
- 2010-01-19 JP JP2010009183A patent/JP2011150413A/ja active Pending
-
2011
- 2011-01-11 US US12/930,590 patent/US8581864B2/en active Active
- 2011-01-12 CN CN201110005283.5A patent/CN102129311B/zh active Active
-
2013
- 2013-09-23 US US14/033,997 patent/US9507469B2/en active Active
-
2016
- 2016-10-24 US US15/332,213 patent/US9841838B2/en active Active
-
2017
- 2017-11-08 US US15/806,631 patent/US10013110B2/en active Active
-
2018
- 2018-05-25 US US15/989,304 patent/US10386959B2/en active Active
-
2019
- 2019-07-03 US US16/502,540 patent/US10606405B2/en active Active
-
2020
- 2020-02-14 US US16/790,939 patent/US11169698B2/en active Active
-
2021
- 2021-10-04 US US17/493,330 patent/US11567656B2/en active Active
-
2022
- 2022-12-19 US US18/084,175 patent/US20230185447A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101097496A (zh) * | 2006-06-29 | 2008-01-02 | 株式会社Aki | 触摸面板的操纵方法和输入方法 |
CN101546245A (zh) * | 2008-03-26 | 2009-09-30 | Lg电子株式会社 | 终端及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US10013110B2 (en) | 2018-07-03 |
US20180067610A1 (en) | 2018-03-08 |
US20170038906A1 (en) | 2017-02-09 |
US9841838B2 (en) | 2017-12-12 |
CN102129311A (zh) | 2011-07-20 |
US20180275818A1 (en) | 2018-09-27 |
US20190324590A1 (en) | 2019-10-24 |
US20200183528A1 (en) | 2020-06-11 |
US20230185447A1 (en) | 2023-06-15 |
US9507469B2 (en) | 2016-11-29 |
US8581864B2 (en) | 2013-11-12 |
JP2011150413A (ja) | 2011-08-04 |
US20220027045A1 (en) | 2022-01-27 |
US10606405B2 (en) | 2020-03-31 |
US11169698B2 (en) | 2021-11-09 |
US20110175829A1 (en) | 2011-07-21 |
US20140022214A1 (en) | 2014-01-23 |
US10386959B2 (en) | 2019-08-20 |
US11567656B2 (en) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102129311B (zh) | 信息处理设备、操作输入方法和操作输入程序 | |
US11216158B2 (en) | Method and apparatus for multitasking | |
US10102010B2 (en) | Layer-based user interface | |
US10768804B2 (en) | Gesture language for a device with multiple touch surfaces | |
CN101609388B (zh) | 可解译多物件手势的触控板模块及其操作方法 | |
CN106909304B (zh) | 显示图形用户界面的方法和设备 | |
JP5485220B2 (ja) | 表示装置、ユーザインタフェース方法及びプログラム | |
US8739053B2 (en) | Electronic device capable of transferring object between two display units and controlling method thereof | |
WO2013094371A1 (ja) | 表示制御装置、表示制御方法およびコンピュータプログラム | |
US20080158170A1 (en) | Multi-event input system | |
CN108064368A (zh) | 柔性显示设备的控制方法及装置 | |
US20140085340A1 (en) | Method and electronic device for manipulating scale or rotation of graphic on display | |
CN105934738A (zh) | 信息处理设备、信息处理方法以及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |