CN102129311A - 信息处理设备、操作输入方法和操作输入程序 - Google Patents

信息处理设备、操作输入方法和操作输入程序 Download PDF

Info

Publication number
CN102129311A
CN102129311A CN2011100052835A CN201110005283A CN102129311A CN 102129311 A CN102129311 A CN 102129311A CN 2011100052835 A CN2011100052835 A CN 2011100052835A CN 201110005283 A CN201110005283 A CN 201110005283A CN 102129311 A CN102129311 A CN 102129311A
Authority
CN
China
Prior art keywords
operating
contacts
touch
cpu
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011100052835A
Other languages
English (en)
Other versions
CN102129311B (zh
Inventor
宫泽悠介
本间文规
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102129311A publication Critical patent/CN102129311A/zh
Application granted granted Critical
Publication of CN102129311B publication Critical patent/CN102129311B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

在此公开了信息处理设备、操作输入方法和操作输入程序。所述信息处理设备包括:接触检测单元,其配置为检测对于操作表面的接触操作;靠近检测单元,其配置为检测对于该操作表面的靠近操作;以及控制单元,其配置为在连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入。

Description

信息处理设备、操作输入方法和操作输入程序
技术领域
本发明涉及信息处理设备、操作输入方法和操作输入程序,并且例如可适当地应用于具有触摸板的信息处理设备。
背景技术
近年来,具有触摸板的信息处理设备已经开始广泛使用。在具有触摸板的信息处理设备中,检测指示器(手指、触摸笔等)与触摸板的接触,并作为操作输入进行接收以便执行各种处理。
近来,已经提出了除了指示器与触摸板接触之外还能够检测靠近的信息处理设备(例如,日本待审专利申请公开No.2006-302126)。在该信息处理设备中,即使与触摸板接触的手指离开触摸板时,如果手指靠近触摸板,也继续执行当手指与触摸板接触时所执行的处理。
例如,当长时间按下屏幕上显示的按钮时,尽管手指通过振动等中途离开触摸板,但是可以执行当长时间按下按钮时的相同处理(即,用户想要的处理)。
发明内容
然而,在现有技术的具有触摸板的信息处理设备中,基本上,通过使指示器与触摸板接触以执行操作输入。
如果除了指示器与触摸板的接触之外,还选择靠近作为操作输入的对象,则与现有技术相比,可以执行各种操作输入。
期望提供与现有技术相比能够执行各种操作输入的信息处理设备、操作输入方法和操作输入程序。
根据本发明的实施例,提供了一种信息处理设备,包括:接触检测单元,其配置为检测对于操作表面的接触操作;靠近检测单元,其配置为检测对于该操作表面的靠近操作;以及控制单元,其配置为在连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入。
通过将连续的接触操作和靠近操作识别为一系列操作输入,相比于仅选择接触操作作为操作输入的对象的情况,可以增加操作输入的种类。
根据本发明,通过将连续的接触操作和靠近操作识别为一系列操作输入,相比于仅选择接触操作作为操作输入的对象的情况,可以增加操作输入的种类。因此,可以实现相比于现有技术能够执行各种操作输入的信息处理设备、操作输入方法和操作输入程序。
附图说明
图1是示出根据本实施例的信息处理设备的功能配置的框图。
图2是示出本发明的详细示例的移动终端的外观配置的示意性简图。
图3是示出移动终端的硬件配置的框图。
图4是示出静电传感器的输出值的改变的示意性简图。
图5是用于描述接触部分、靠近部分和非靠近部分的确定的示意性简图。
图6是用于描述网页浏览器屏幕的显示的示意性简图。
图7是示出触摸操作和靠近操作的示例的示意性简图。
图8是用于描述在触摸操作后的预定时间T内执行靠近操作的示例(1)的示意性简图。
图9是用于描述在触摸操作后超过预定时间T时执行靠近操作的示例的示意性简图。
图10是用于描述在触摸操作后的预定时间T内执行靠近操作的示例(2)的示意性简图。
图11是图示操作输入接收处理的过程的流程图。
图12是示出根据另一实施例的操作输入示例(1)的示意性简图。
图13是示出根据另一实施例的操作输入示例(2)的示意性简图。
图14是示出根据另一实施例的操作输入示例(3)的示意性简图。
图15是示出根据另一实施例的操作输入示例(4)的示意性简图。
具体实施方式
下文描述本发明的最佳方式(下文称为实施例)。将以下列顺序给出描述。
1.实施例
2.其它实施例
1.实施例
1-1.实施例的概要
首先描述实施例的概要。在描述了实施例的概要之后,将给出本发明的详细示例。
在图1中,附图标记1表示信息处理设备。在该信息处理设备1中,提供了接触检测单元2,其用于检测相对于操作表面(例如,触摸板的操作表面)的触摸操作;以及靠近检测单元3,其用于检测相对于操作表面的靠近操作。在信息处理设备1中,提供了控制单元4,其用于在连续地检测到触摸操作和靠近操作时,将触摸操作和靠近操作识别为一系列操作输入。
信息处理设备1将连续的触摸操作和靠近操作识别为一系列操作输入,以便相比于仅选择接触操作作为操作输入的对象的情况,增大了操作输入的种类。
更详细地,在预定时间内连续地检测接触操作和靠近操作时,控制单元4将接触操作和靠近操作识别为一系列操作输入。当在超过预定时间之后连续地检测到接触操作和靠近操作时,将接触操作和靠近操作识别为单独的操作输入。
此时,控制单元4基于接触检测单元2检测到的预定接触操作来控制预定处理的执行,并且当靠近检测单元3在从检测到预定接触操作起的预定时间内检测到预定靠近操作时,控制单元4控制到预定处理执行之前的状态的恢复处理。
控制单元4可以基于接触检测单元2检测到的预定接触操作来控制预定处理的执行,并且在靠近检测单元3从预定接触操作检测起的预定时间内检测到另一靠近操作时,继续执行预定处理。此时,另一靠近操作例如是用于在该接触操作之后使指示器离开操作表面并停止指示器的操作。
控制单元4可以基于接触检测单元2检测到的接触操作的预定动作来控制预定处理的执行,并且当接触检测单元3在从检测到接触操作起的预定时间内检测到靠近操作的预定动作时,控制单元4执行使用与基于接触操作的执行时使用的参数不同的参数来执行预定处理。
当接触检测单元2在靠近检测单元3检测到在某一方向上移动指示器的靠近操作之后的预定时间内检测到接触操作时,控制单元4可以基于某一方向和接触操作来执行控制。
当靠近检测单元3在接触检测单元2检测到接触操作之后的预定时间内检测到距离接触位置预定范围内的靠近操作时,控制单元4可以将接触操作和靠近操作识别为一系列操作输入。
现在将详细描述具有以上配置的信息处理设备1的详细示例。
1-2.实施例的详细示例
1-2-1.移动终端的外观配置
接下来使用图2描述作为上述信息处理设备1的详细示例的移动终端100的外观配置。
通过经由折页部分103A和103B将平面矩形状的第一和第二外壳101和102可开可关地连接,将移动终端100形成为用一只手握持。
在第一外壳101的前表面101A的中心部分提供第一矩形触摸屏104。另外,在第二外壳102的前表面102A的中心部分提供具有与第一触摸屏幕104相同形状和尺寸的第二触摸屏105。
第一触摸屏104和第二触摸屏105中的每一个均包括液晶面板和覆盖液晶面板的显示表面的薄透明触摸板。该触摸板是电容型,且对应于多重触摸板。
移动终端100将第一触摸屏104和第二触摸屏105中的每一个上的手指(触摸笔等)的接触操作和靠近操作识别为操作输入。另外,接触操作是通过以手指触摸触摸屏而执行的操作(也称为触摸操作),而靠近操作是通过使手指能够在不触摸触摸屏的情况下靠近触摸屏的操作。
移动终端100用在第一外壳101位于上方而第二外壳102位于下方的状态下。一般而言,在第一触摸屏104是上部屏幕而第二触摸屏105是下部屏幕的状态下显示多种信息。
在第二触摸屏105的两侧,在移动终端100的第二外壳102的前表面102A上提供了多个操作按键106(如,电源按钮)。
1-2-2.移动终端的硬件配置
接下来使用图3描述移动终端100的硬件配置。在移动终端100中,CPU110将非易失性存储器111中存储的程序展开(develop)在RAM 112,读取该程序,根据该程序执行多种处理,并控制每一个单元。另外,CPU是中央处理单元的简称,RAM是随机存取存储器的简称。
当识别出对于第一触摸屏104和第二触摸屏105的触摸操作和靠近操作时,CPU 110将操作识别为操作输入,并根据该操作输入执行处理。
第一触摸屏104包括第一液晶面板104A和第一触摸板104B,而第二触摸屏105包括第二液晶面板105A和第二触摸板105B。
第一液晶面板104A和第二液晶面板105A分别将多种信息显示为上部屏幕和下部屏幕。
如上所述,第一触摸板104B和第二触摸板105B中的每一个均为电容触摸板。
第一触摸板104B具有在操作表面上以格子形状排列的多个静电传感器(未示出)。根据随着导体(如,手指)接近操作表面而改变的电容,多个静电传感器的每一个的输出值改变。
实际中,如图4所示,假设手指靠近第一触摸板104B的操作表面。此时,当操作表面与手指之间的距离为30mm时,正好位于手指下面的静电传感器的输出值例如改变到“10”,当距离为15mm时改变到“20”,当距离为5mm时改变到“40”,而当手指与操作表面接触时改变到作为最大的“80”。
CPU 110从第一触摸板104B获取每一个静电传感器的改变的输出值和每一个静电传感器的位置。基于每一个静电传感器的输出值和每一个静电传感器的位置,在第一触摸板104B的操作表面上,CPU 110在手指接触的部分、手指靠近的部分和手指没有接触或手指没有靠近的部分之中进行鉴别。另外,将手指接触的部分称为接触部分,将手指靠近的部分称为靠近部分,将手指没有接触或手指没有靠近的部分称为非靠近部分。
详细地,如图5所述,CPU 110将第一触摸板104B的操作表面上静电传感器的输出值等于或大于“50”的部分鉴别为接触部分。另外,CPU 110将输出值等于或大于“20”且小于“50”的部分鉴别为靠近部分,并将输出值小于“20”的部分鉴别为非靠近部分。
CPU 110鉴别第一触摸板104B的操作表面上的接触部分、靠近部分和非靠近部分,以便指定手指是接触操作表面还是靠近操作表面。另外,可以指定手指在哪里接触或靠近操作表面。此时,如果存在接触部分,则CPU 110例如将接触部分的重心或中心(接触操作表面的手指肚的重心或中心)识别为触摸位置。如果仅存在靠近部分,则CPU 110例如将重心或中心(靠近操作表面的手指肚的重心或中心)识别为靠近位置。
另外,CPU 110每隔固定时间段,从第一触摸板104B获取每一个静电传感器的输出值,并在接触部分、靠近部分和非靠近部分之中进行鉴别,以便基于接触部分、靠近部分和非靠近部分来检测触摸位置和靠近位置的转变。CPU 110基于该转变指定第一触摸板104B上手指的动作。
CPU 110基于第一触摸板104B上手指的指定移动,将对于第一触摸板104的触摸操作和靠近操作识别并接收为操作输入。
与第一触摸板104B类似,第二触摸板105B具有操作表面上以格子形状排列的多个静电传感器(未示出)。
CPU 110每隔固定时间,从第二触摸板105B获取每一个静电传感器的输出值,在第二触摸板105B的操作表面上的接触部分、靠近部分和非靠近部分之中进行鉴别,并检测触摸位置和靠近位置的转变。
CPU 110基于转变指定第二触摸板105B上手指的移动,并基于手指的动作,将第二触摸屏105的触摸操作和靠近操作识别并接收为操作输入。
CPU 110将对于第一触摸屏104和第二触摸屏105的触摸操作和靠近操作识别并接收为操作输入,并根据操作输入执行处理。
CPU 110将操作按键106的按下操作识别并接收为操作输入,并根据该操作输入执行处理。
例如,假设在第二触摸屏105上显示用于回放音乐数据的回放按钮的状态下,用户点击回放按钮。
如果检测到这种触摸操作,则CPU 110将该触摸操作识别并接收为用于回放音乐数据的操作输入,从非易失性存储器111读取音乐数据,并将音乐数据发送到回放单元113。
回放单元113在CPU 110的控制之下针对音乐数据执行回放处理(如,解码处理、数模转换处理和放大处理),获得声音信号,并将声音信号输出到耳机端(未示出)。
因此,用户可以使用连接到耳机端的耳机来聆听音乐。
此时,CPU 110从读取的音乐数据获取诸如歌曲名称或艺术家名称之类的信息,并且例如在第一触摸屏104的第一液晶面板104A上显示信息。因此,可以呈现与正向用户回放的音乐有关的信息。
例如,假设在第二触摸屏104上显示用于启动网页浏览器的浏览器图标的状态下,用户点击浏览器图标。
如果检测到这种触摸操作,则CPU 110将该触摸操作识别并接收为用于启动网页浏览器的操作输入,并启动网页浏览器。
CPU 110在第一液晶面板104A和第二液晶面板105A上显示网页浏览器屏幕,并经由网络接口114从网络上的服务器接收网页的页面数据。CPU 110将基于页面数据的页面图像显示在网页浏览器屏幕上。
因此,用户可以经由网页浏览器来浏览网页。
作为本实施例的概要所描述的信息处理设备1的接触检测单元2和靠近检测单元3的详细硬件示例是上述移动终端100的第一触摸板104B和第二触摸板105B。信息处理设备1的控制单元4的详细硬件示例是移动终端100的CPU 110。
移动终端100不仅将触摸操作和靠近操作识别并接收为单独的操作输入,而且当在预定时间内连续执行这种操作时还将这些操作识别并接收为一系列的操作输入。
下文详细描述连续执行触摸操作和靠近操作时的操作输入。
1-3.连续执行触摸操作和靠近操作时的操作输入
如图6所示,假设在第一触摸屏104上显示网页浏览器的上半部,而在第二触摸屏105上显示网页浏览器的下半部。
此时,作为接触操作和靠近操作,存在由CPU 110识别并接收为操作输入的向内收缩(pinch-in)、向外收缩(pinch-out)、滑移(shuffle)。
向内收缩是指用于缩小两个手指(例如,拇指和食指)之间的空间的操作。如图7的(A)中所示,向内收缩包括作为通过使得两个手指能够触摸触摸板而执行的触摸操作的接触向内收缩以及作为通过使得两个手指能够靠近触摸板而执行的靠近操作的靠近向内收缩。
向外收缩是指用于加宽两个手指之间的空间的操作。如图7的(B)所示,向外收缩包括作为通过使得两个手指能够触摸触摸板而执行的触摸操作的接触向外收缩以及作为通过使得两个手指能够靠近触摸板而执行的靠近操作的靠近向外收缩。
滑移是指用于以一个手指画出Z字形的操作。如图7的(C)所示,滑移仅包括作为通过使得一个手指能够靠近触摸板而执行的靠近操作的靠近滑移。另外,为了维持与仅执行作为操作输入的触摸操作的现有技术的一般操作的兼容性,当一个手指触摸触摸板以便执行滑移时,CPU 110不识别接触滑移,而是识别一般拖动。
作为连续执行触摸操作和靠近操作的示例,例如,可以在接触向内收缩之后执行靠近滑移。
实际中,如图8所示,假设在某一时间t1,针对第一触摸屏104执行作为触摸操作的接触向内收缩。
当检测到接触向内收缩时,CPU 110将接触向内收缩识别并接收为用于缩小网页浏览器屏幕的页面图像的操作输入,缩小页面图像,并在网页浏览器屏幕上显示缩小的页面图像。
此时,当执行接触向内收缩时,CPU 110例如以两个手指移动量的1/2到1/3范围设置页面图像的缩小率。CPU 110将通过把页面图像的当前显示缩放因子(例如,一倍)乘以设置的缩小率(例如,1/2)所获得的值(1/2)设置为新的显示缩放因子(1/2),并缩小页面图像。
此后,假设在某一时间t2,用户使手指离开第一触摸屏104以便执行作为靠近操作的靠近滑移。
当检测到靠近滑移时,CPU 110确定当前时间t2是否处于从执行前一触摸操作(接触向内收缩)的时间t1起的预定时间T(大约1秒)内。
如果执行靠近滑移时的当前时间t2处于从执行前一触摸操作的时间t1起的预定时间T内,则CPU 110确定当前靠近操作(靠近滑移)是与前一触摸操作相关联的操作。
此时,CPU 110将靠近滑移识别并接收为用于把页面图像的显示缩放因子返回到通过前一接触向内收缩的缩小之前的值的操作输入,并将页面图像的显示缩放因子返回到缩小之前的值(即,一倍)。
相比之下,如图9所示,假设执行靠近滑移的当前时间t2超过了从执行前一触摸操作的时间t1起的预定时间T。在这种情况下,CPU 110确定当前靠近操作(靠近滑移)独立于前一触摸操作。
此时,CPU 110将靠近滑移识别并接收为返回到前一页面图像的操作输入,并在网页浏览器屏幕上显示前一页面图像(而不是当前显示的页面图像)。
当在接触向内收缩之后的预定时间T内执行靠近滑移时,CPU 110将靠近滑移识别并接收为继续前一接触向内收缩的一系列操作输入。
当接触向内收缩之后的预定时间T之后执行靠近滑移时,将靠近滑移作识别并接收为独立于前一接触向内收缩的操作输入。
作为连续执行触摸操作和靠近操作的另一示例,例如,可以在接触向外收缩之后执行靠近滑移。
实际中,假设在某一时间t1,用户针对第一触摸屏104(未示出)执行作为触摸操作的接触向外收缩。
当检测到接触向外收缩时,CPU 110将接触向外收缩识别并接收为用于放大网页浏览器屏幕的页面图像的操作输入,放大页面图像,并在网页浏览器屏幕上显示放大的页面图像。
此时,当执行接触向外收缩时,CPU 110例如以两个手指移动量的两倍或三倍的范围设置放大率。CPU 110将通过把页面图像的当前显示缩放因子(例如,一倍)乘以设置的放大率(例如,两倍)所获得的值(两倍)设置为新的显示缩放因子(两倍),并放大页面图像。
此后,假设在某一时间t2,用户使手指离开第一触摸屏104以便执行作为靠近操作的靠近滑移。
当检测到靠近滑移时,CPU 110确定当前时间t2是否处于从执行前一触摸操作(接触向外收缩)的时间t1起的预定时间T(大约1秒)内。
如果执行靠近滑移的当前时间t2处于从执行前一触摸操作的时间t1起的预定时间T内,则CPU 110确定当前靠近操作(靠近滑移)是与前一触摸操作相关联的操作。
此时,CPU 110将靠近滑移识别并接收为用于将页面图像的显示缩放因子返回到通过前一接触向外收缩的放大之前的值的操作输入,并将页面图像的显示缩放因子返回到放大之前的值(即,一倍)。
相比之下,如果执行靠近滑移的当前时间t2超过了从执行前一触摸操作的时间t1起的预定时间T,则CPU 110确定当前靠近操作(靠近滑移)独立于前一触摸操作。
此时,CPU 110将靠近滑移识别并接收为返回到前一页面图像的操作输入,并在网页浏览器屏幕上显示前一页面图像(而不是当前显示的页面图像)。
当在接触向外收缩之后的预定时间T内执行靠近滑移时,CPU 110将靠近滑移识别并接收为继续前一接触向外收缩的一系列操作输入。
当在接触向外收缩后的预定时间T之后执行靠近滑移时,将靠近滑移识别并接收为独立于前一接触向外收缩的操作输入。
作为连续执行触摸操作和靠近操作的另一示例,例如,可以在接触向外收缩之后执行靠近向外收缩。
实际中,如图10所示,假设在某一时间t1,用户针对第一触摸屏104执行作为触摸操作的接触向外收缩。
当检测到接触向外收缩时,CPU 110如上所述那样,将接触向外收缩识别并接收为用于放大网页浏览器屏幕的页面图像的操作输入,放大页面图像,并在网页浏览器屏幕上显示放大的页面图像。
此时,当执行接触向外收缩时,CPU 110例如以两个手指移动量的两倍或三倍的范围设置放大率。CPU 110将通过把页面图像的当前显示缩放因子(例如,一倍)乘以设置的放大率(例如,两倍)所获得的值(两倍)设置为新的显示缩放因子(两倍),并放大页面图像。
此后,假设在某一时间t2,用户使手指离开第一触摸屏104以便执行作为靠近操作的靠近向外收缩。
当检测到靠近向外收缩时,CPU 110确定当前时间t2是否处于从执行前一触摸操作(接触向外收缩)的时间t1起的预定时间T内。
如果执行靠近向外收缩的当前时间t2处于从执行前一触摸操作的时间t1起的预定时间T内,则CPU 110确定当前靠近操作(靠近向外收缩)是与前一触摸操作相关联的操作。
此时,CPU 110将靠近向外收缩识别并接收为用于更加细微地设置前一接触向外收缩放大的页面图像的放大率的操作输入,并且更加细微地设置页面图像的放大率。
此时,当执行接触向外收缩时,CPU 110例如以两个手指移动量的+0.2倍到+0.3倍的范围设置放大率。CPU 110将通过把设置的放大率(例如,+0.3倍)加到页面图像的当前显示缩放因子(例如,两倍)所获得的值(2.3倍)设置为新的显示缩放因子(2.3倍),并放大页面图像。
相比之下,如果执行靠近向外收缩的当前时间t2超过了从执行前一触摸操作的时间t1起的预定时间T,则CPU 110确定当前靠近操作(靠近向外收缩)独立于前一触摸操作。此时,CPU 110不把该靠近向外收缩接收为操作输入。
当在接触向外收缩后的预定时间T内执行靠近向外收缩时,CPU 110将靠近向外收缩识别并接收为与前一接触向外收缩相关联的操作输入。
如至此所述的那样,移动终端100不仅把触摸操作而且把靠近操作识别并接收为关于第一触摸板104B和第二触摸板105B的操作输入。
据此,在移动终端100中,相比于仅把触摸操作识别并接收为操作输入的情况,可以执行各种操作输入。
在移动终端100中,除了触摸操作之外,还把靠近操作识别并接收为操作输入。另外,当在预定时间T内连续执行触摸操作和靠近操作时,将这些操作识别并接收为一系列操作输入。
因此,在移动终端100中,可以把触摸操作和靠近操作识别并接收为单独的操作输入,并可以执行通过组合这些操作所获得的操作输入。结果,可以执行各种操作输入。
如上所述,在移动终端100中,当在触摸操作之后的预定时间T内执行特定的靠近操作(例如,靠近滑移)时,执行返回到进行触摸操作的处理之前的状态的处理。
例如,即使在未触摸屏幕上显示的用于返回原始状态的按钮时,也可以通过一个靠近操作返回到正好在触摸操作之前的状态。
在移动终端100中,在用于放大/缩小图像等的触摸操作之后,当在预定时间T内执行与触摸操作相同动作的靠近操作时,通过与触摸操作不同的改变率来执行相同处理(放大/缩小)。
因此,例如,在通过触摸操作粗略地放大/缩小图像之后,可以通过靠近操作细调图像尺寸。
1-4.接收操作输入的过程
接下来使用图11所示的流程图,描述移动终端100识别并接收操作输入的详细过程(这也称为操作输入接收处理)。图11所示的操作输入接收过程RT1是移动终端100的CPU 110根据非易失性存储器111中存储的程序而执行的过程。
CPU 110例如在移动终端100接通电源时开始操作输入接收过程RT1,并转至步骤SP1。在步骤SP1,CPU 110确定是否检测到手指与第一触摸板104B或第二触摸板105B的接触。
例如,如果通过手指与第一触摸板104B的触摸检测在步骤SP1获得肯定结果,则CPU 110转至步骤SP2。
在步骤SP2,CPU 110检测触摸操作,并转至下一步骤SP3。在步骤SP3,CPU 110确定在前一阶段的步骤SP2中是否检测到与操作输入对应的触摸操作(例如,上述的接触向内收缩、接触向外收缩等)。
如果在前一阶段的步骤SP2中检测到对应于操作输入的触摸操作而由此在步骤SP3中获得肯定结果,则CPU 110设置用于测量上述预定时间T的计时器,并转至步骤SP4。
在步骤SP4,CPU 110将步骤SP2中检测到的触摸操作识别并接收为操作输入,并发出对应于操作输入的命令(例如,用于缩小页面图像的命令)。结果,执行对应于该命令的处理(例如,缩小页面图像的处理)。CPU 110再次返回到步骤SP1。如果在上述步骤SP3中获得否定结果(即,如果步骤SP2检测到的触摸操作不是对应于操作输入的触摸操作),则CPU 110再次返回到步骤SP1。
如果未检测到手指的接触而由此在上述步骤SP1中获得否定结果,则CPU 110转至步骤SP5。
在步骤SP5,CPU 110确定是否检测到手指对于第一触摸板104B或第二触摸板105B的靠近。
如果例如检测到手指对于第一触摸板104B的靠近并在步骤SP5中获得肯定结果,则CPU 110转至步骤SP6。
在步骤SP6,CPU 110检测靠近操作,并转至下一步骤SP7。在步骤SP7,CPU 110确定在前一阶段的步骤SP6中是否检测到对应于操作输入的靠近操作(例如,上述的靠近向外收缩、靠近滑移等)。
如果在前一阶段的步骤SP6中检测到对应于操作输入的靠近操作而由此在步骤SP7中获得肯定结果,则CPU 110转至步骤SP8。
在步骤SP8,CPU 110基于计时器的输出,确定当前时间是否处于从检测到对应于前一操作输入的触摸操作的时间起的预定时间T内。
如果当前时间处于从检测到对应于前一操作输入的触摸操作的时间起的预定时间T内而由此在步骤SP8中获得肯定结果,则CPU 110转至步骤SP9。
在步骤SP9,CPU 110将检测到的靠近操作识别并接收为继续前一触摸操作的一系列操作输入,并发出对应于该操作输入的命令(例如,用于将页面图像的显示缩放因子返回到缩小之前的值的命令)。结果,执行对应于该命令的处理(例如,将页面图像的显示缩放因子返回到缩小之前的值的处理)。然后,CPU 110将计时器复位,并再次返回到步骤SP1。
如果当前时间超过了从检测到对应于前一操作输入的触摸操作的时间起的预定时间T而由此在上述步骤SP8中获得否定结果,则CPU 110转至步骤SP10。
在步骤SP10,CPU 110将检测到的靠近操作识别并接收为独立的操作输入,并发出对应于该操作输入的命令(例如,用于返回到前一页面的命令)。结果,执行对应于该命令的处理(例如,返回到前一页面的处理)。然后,CPU110将计时器复位,然后再次返回到步骤SP1。如果在上述步骤SP7中获得否定结果(即,如果在步骤SP6中检测到的靠近操作不是对应于操作输入的靠近操作),则CPU 110再次返回到步骤SP1。
移动终端100的CPU 110通过操作输入接收过程RT1,将触摸操作和靠近操作接收为操作输入。
1-5.操作和效果
在上述配置中,移动终端100的CPU 110监控电容型第一触摸板104B和第二触摸板105B的输出值,以便识别其触摸操作和靠近操作。
如果检测到对于第一触摸板104B或第二触摸板105B的触摸操作,则CPU 110将触摸操作识别并接收为操作输入,并执行对应于该操作输入的处理。
如果在检测到触摸操作后的预定时间T内检测到对于第一触摸板104B或第二触摸板105B的靠近操作,则CPU 110将靠近操作识别并接收为继续前一触摸操作的一系列操作输入。
相比之下,如果在超过检测到触摸操作后的预定时间T时检测到靠近操作,则CPU 110将靠近操作识别并接收为独立于前一触摸操作的操作输入。
据此,在移动终端100中,通过除了触摸操作之外还将靠近操作识别并接收为操作输入,相比于用于仅执行作为操作输入的触摸操作的装置,可以增加操作输入的类型并执行各种操作输入。
在移动终端100中,除了触摸操作之外,还将靠近操作识别并接收为操作输入。另外,当在预定时间T内连续执行触摸操作和靠近操作时,将这些操作识别为一系列操作输入。
因此,在移动终端100中,可以将触摸操作和靠近操作识别并接收为单独的操作输入,并可以执行通过组合这些操作而获得的操作输入。结果,可以执行各种操作输入。
在移动终端100中,在把现有技术的一般触摸操作(向内收缩、向外收缩、拖动、点击等)不加以改变地添加到这种触摸操作的状态下,将靠近操作识别并接收为操作输入。
因此,即使通过熟悉现有技术的一般触摸操作的用户,也可以容易地操作移动终端100。结果,各种操作输入和简易操作是兼容的。
通过上述配置,由于移动终端100将预定时间T内连续执行的触摸操作和靠近操作识别为一系列操作输入,因此相比于仅将触摸操作执行为操作输入的情况,可以增加操作输入的类型。据此,相比于现有技术,移动终端100可以执行各种操作输入。
2.其它实施例
2-1.其它实施例1
在上述实施例中,在预定时间T内,当在接触向内收缩或接触向外收缩之后执行靠近滑移时或者当在接触向外收缩之后执行靠近向外收缩时,将这些操作接收为一系列操作输入。
本发明不限于此,而是可以将其它各种触摸操作和靠近操作的组合接收为一系列操作输入。
例如,如图12所示,将描述在接触拖动之后执行靠近保持的情况。接触拖动是指用于使一个手指触摸在触摸板上并在某一方向上移动(即,滑动)手指的触摸操作。靠近保持是用于以一个手指靠近触摸板并停止该手指的靠近操作。
例如,在第一触摸屏104上显示从音乐数据获取的艺术家名称列表的一部分的状态下,用户针对第一触摸屏104执行接触拖动。
当检测到接触拖动时,CPU 110将接触拖动识别并接收为用于滚动列表的操作输入,并根据接触拖动的速度、距离和方向来滚动列表。
此后,假设用户在预定时间T内使手指离开第一触摸屏104,并执行靠近保持。
当检测到靠近保持时,CPU 110将靠近保持识别并接收为用于继续通过前一接触拖动而滚动列表的操作输入,并继续滚动列表。
此时,在靠近保持期间,CPU 110以与前一接触拖动的列表滚动相同的速度和相同的方向继续滚动列表。
据此,例如,如果将列表滚动几个屏幕,则在现有技术中重复地执行几次拖动。然而,在移动终端100中,由于仅执行一个接触拖动和靠近保持,因此可以减小用户负担。
当在触摸操作之后执行用于离开和停止手指的靠近操作时,可以连续执行触摸操作所执行的处理(例如,滚动)。
2-2.其它实施例2
在上述实施例中,当在触摸操作后的预定时间内执行靠近操作时,将这些操作接收为一系列操作输入。本发明不限于此。当在靠近操作后的预定时间T内执行触摸操作时,可以将这些操作接收为一系列操作输入。
例如,如图13所示,描述将点击执行为作为靠近操作的靠近拖动之后的触摸操作的情况。靠近拖动是指用于以一个手指靠近触摸板并且在某一方向上移动手指的靠近操作。
假设在第一触摸屏104或第二触摸屏105上显示软键盘。在配置软键盘的按键中,包括用于显示多个可输入字符的按键。
例如,在主要用于输入“M”的按键(这也称为M按键)中,在其中心显示“M”,在其上端显示“?”,并在其左端显示“,”。
此时,假设例如用户在M按键上以屏幕的向上方向(附图的Y方向)将其手指移动预定量,执行用于返回到原始状态的靠近拖动,然后在预定时间内点击M按键。
当连续检测到靠近拖动和点击时,CPU 110将靠近拖动和点击识别并接收为用于输入M按键的上端显示的“?”的一系列操作输入,并发出用于输入字符“?”的命令。结果,将字符“?”输入到移动终端100。
相比之下,假设用户在M按键上以屏幕的左向(附图的X方向)将手指移动预定量,执行用于返回到原始状态的靠近拖动,并在预定时间T内点击M按键。
当连续检测到靠近拖动和点击时,CPU 110将靠近拖动和点击识别并接收为用于输入M按键的左端显示的“,”的一系列操作输入,并发出用于输入字符“,”的命令。结果,将字符“,”输入到移动终端100。
假设用户不对M按键执行靠近拖动,而是点击M按键。
在这种情况下,当检测到点击时,CPU 110将点击识别并接收为用于输入M按键中心显示的“M”的操作输入,并发出用于输入字符“M”的命令。结果,将字符“M”输入到移动终端100。
在移动终端100中,通过正好点击M按键之前在向上方向或向左方向上执行靠近拖动,可以选择性地输入分配给M按键的“M”以外的字符。
据此,在移动终端100中,通过靠近拖动的方向和点击的组合,可以使用一个按键输入多个字符。因此,可以减少屏幕上显示的按键数量,结果可以高效地使用屏幕。另外,相比于触摸转换(shift)按键等以便切换每个按键可输入的字符的情况,可以实现在直观上更简单的操作。
本发明不限于这种字符输入,靠近拖动和点击的连续操作可以是其它各种操作,并且例如可应用于网页浏览器操作。
实际中,例如,在第一触摸屏104上显示网页浏览器屏幕的上半部,而在第二触摸屏105上显示网页浏览器屏幕的下半部。
此时,如图14所示,假设用户在网页浏览器屏幕的下半部上显示的链接上以屏幕的右向(附图的X方向)将手指移动预定量,执行用于返回到原始状态的靠近拖动,并在预定时间T内点击该链接。
当连续地检测到靠近拖动和点击时,CPU 110将靠近拖动和点击识别为用于通过点击打开链接目的地的页面的一系列操作输入,并发出用于通过点击打开链接目的地的页面的命令。结果,通过点击在第一触摸屏104和第二触摸屏105上显示链接目的地的页面的页面图像。
相比之下,如图15所示,假设用户在网页浏览器屏幕的下半部上显示的链接上以屏幕的向上方向(附图的Y方向)将其手指移动预定量,执行用于返回到原始状态的靠近拖动,并在预定时间T内点击该链接。
当连续检测到靠近拖动和点击时,CPU 110将靠近拖动和点击识别为用于在上部屏幕上打开链接目的地的页面的一系列操作输入,并发出用于在上部屏幕上打开链接目的地的页面的命令。结果,第二触摸屏105的显示内容未改变,并且仅在第一触摸屏104上显示链接目的地的页面的页面图像。
在移动终端100中,通过正好点击链接之前在向上方向或向右方向上执行靠近拖动,可以通过使用某一打开方法打开链接目的地的页面(无论在上部屏幕上打开页面还是通过点击打开页面)。
在移动终端100中,登记作为一系列操作输入所接收到的触摸操作和靠近操作的组合,并且当通过登记的组合执行触摸操作和靠近操作时,将这些操作接收为一系列操作输入。
可以由用户登记这种组合以及对应于该组合的操作输入。因此,用户可以定制移动终端100的操作,以便方便移动终端的使用。
2-3.其它实施例3
在上述实施例中,当在触摸操作后的预定时间T内对第一触摸屏104或者第二触摸屏105执行靠近操作时,将这些操作接收为一系列操作输入。
本发明不限于此,而是例如,当在触摸操作后的预定时间T内执行对于经历了触摸操作的触摸屏的靠近操作时,可以将这些操作接收为一系列操作输入。
另外,例如,当在触摸操作之后,在以经历了触摸操作的触摸位置为中心的预定范围内执行靠近操作时,可以将这些操作识别并接收为一系列操作输入。
2-4.其它实施例4
在上述实施例中,当在预定时间T内连续执行触摸操作和靠近操作,不依赖于执行哪一操作,将这些操作接收为一系列操作输入。
预定时间T仅是示例性的,并且要点在于:当在设置的预定时间内连续执行触摸操作和靠近操作时,将操作接收为一系列操作输入。本发明不限于此,而是可以针对每个操作设置预定时间T。例如,可以将预定时间T设置为接触向外收缩之后的5秒,以及接触拖动之后的1秒。
本发明不限于此。例如,可以不设置预定时间T,在连续执行特定的触摸操作和靠近操作时,可以将这些操作识别并接收为一系列操作输入。
2-5.其它实施例5
在上述实施例中,将本发明应用于具有电容型第一触摸板104B和第二触摸板105B的移动终端100。
本发明不限于此。在其为能够检测手指(指示器)的接触和靠近的操作输入设备的情况下,本发明可应用于包括其它各种操作输入设备的装置(如,液晶面板中包括光传感器的光感测触摸屏)。
代之第一液晶面板104A和第二液晶面板105A,本发明可应用于包括其它各种显示设备的装置(如,有机电致发光(EL)面板)。
2-6.其它实施例6
在上述实施例中,将本发明应用于具有两个屏幕(即,第一触摸屏104和第二触摸屏105)的移动终端100。
本发明不限于此,而是本发明可应用于例如具有一个屏幕(即,一个触摸屏)的装置。
2-7.其它实施例7
在上述实施例中,在移动终端100中提供用作接触检测单元2和靠近检测单元3的第一触摸板104B和第二触摸板105B作为信息处理设备1。提供CPU 110作为信息处理设备1的控制单元4。
本发明不限于此。如果执行相同功能,则可以通过各种其它硬件或软件来配置上述移动终端100的每一个单元。
本发明不限于移动终端100,而是可应用于各种装置,如数码相机、固定个人计算机、游戏机、移动音频播放器或移动电话。
2-8.其它实施例8
在上述实施例中,在移动终端100的非易失性存储器111中写入用于执行各种处理的程序。
本发明不限于此。例如,可以在移动终端100中提供存储介质(如,存储卡)的槽,并且CPU 110可以从插入到槽中的存储介质读取并执行程序。另外,CPU 110可以在非易失性存储器111中安装从存储介质读取的程序。另外,CPU 110可以经由网络I/F 114从网络上的装置下载程序,并将程序安装在非易失性存储器111中。
2-9.其它实施例9
另外,本发明不限于上述实施例和其它实施例。即,本发明可应用于以下的任意组合:一部分或所有的上述实施例和其它实施例或者从上述实施例和其它实施例提取出的一部分。
本发明包含与2010年1月19日向日本专利局提交的日本优先权专利申请JP 2010-009183中公开的主题有关的主题,其全部内容通过引用的方式合并在此。
本领域的技术人员应当理解,依据设计要求或其它因素,可以出现各种修改、组合、部分组合和变更,只要它们落在所附权利要求及其等价物的范围内即可。

Claims (10)

1.一种信息处理设备,包括:
接触检测单元,其配置为检测对于操作表面的接触操作;
靠近检测单元,其配置为检测对于该操作表面的靠近操作;以及
控制单元,其配置为在连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入。
2.根据权利要求1所述的信息处理设备,其中,当在预定时间内连续检测到接触操作和靠近操作时,控制单元将该接触操作和靠近操作识别为一系列操作输入,而当在超过预定时间之后连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为单独的操作输入。
3.根据权利要求2所述的信息处理设备,其中,控制单元基于接触检测单元检测到的预定接触操作来控制预定处理的执行,并且当靠近检测单元在从检测到预定接触操作起的预定时间内检测到预定靠近操作时,控制单元控制恢复到该预定处理执行之前的状态的处理。
4.根据权利要求2所述的信息处理设备,其中,控制单元基于接触检测单元检测到的预定接触操作来控制预定处理的执行,并且当靠近检测单元在从检测到预定接触操作起的预定时间内检测到另一靠近操作时,控制单元继续执行该预定处理。
5.根据权利要求4所述的信息处理设备,其中,所述另一靠近操作是用于在接触操作之后使指示器离开操作表面并停止该指示器的操作。
6.根据权利要求2所述的信息处理设备,其中,控制单元基于接触检测单元检测到的接触操作的预定动作来控制预定处理的执行,并且当接触检测单元在从检测到预定接触操作起的预定时间内检测到靠近操作的预定动作时,控制单元通过使用与基于接触操作的执行时使用的参数不同的参数来执行该预定处理。
7.根据权利要求2所述的信息处理设备,其中,当接触检测单元在靠近检测单元检测到用于在特定方向上移动指示器的靠近操作之后的预定时间内检测到接触操作时,控制单元基于所述特定方向和接触操作来执行控制。
8.根据权利要求1所述的信息处理设备,其中,当靠近检测单元在接触检测单元检测到接触操作之后的预定时间内,在距离接触位置的预定范围内检测到靠近操作时,控制单元将该接触操作和该靠近操作识别为一系列操作输入。
9.一种操作输入方法,包括如下步骤:
通过接触检测单元检测对于操作表面的接触操作;
通过靠近检测单元检测对于该操作表面的靠近操作;以及
当连续检测到接触操作和靠近操作时,将该接触操作和该靠近操作识别为一系列操作输入。
10.一种操作输入程序,其在信息处理设备上执行如下步骤:
通过接触检测单元检测对于操作表面的接触操作,并且通过靠近检测单元检测对于该操作表面的靠近操作;以及
当在检测接触操作和检测靠近操作时连续检测到接触操作和靠近操作的时候,将该接触操作和该靠近操作识别为一系列操作输入。
CN201110005283.5A 2010-01-19 2011-01-12 信息处理设备、操作输入方法和操作输入程序 Active CN102129311B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP009183/10 2010-01-19
JP2010009183A JP2011150413A (ja) 2010-01-19 2010-01-19 情報処理装置、操作入力方法及び操作入力プログラム

Publications (2)

Publication Number Publication Date
CN102129311A true CN102129311A (zh) 2011-07-20
CN102129311B CN102129311B (zh) 2015-11-18

Family

ID=44267416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110005283.5A Active CN102129311B (zh) 2010-01-19 2011-01-12 信息处理设备、操作输入方法和操作输入程序

Country Status (3)

Country Link
US (9) US8581864B2 (zh)
JP (1) JP2011150413A (zh)
CN (1) CN102129311B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034359A (zh) * 2011-10-04 2013-04-10 索尼公司 信息处理装置、信息处理方法以及计算机程序
CN104937532A (zh) * 2013-03-22 2015-09-23 夏普株式会社 信息处理装置
CN109951691A (zh) * 2017-12-20 2019-06-28 深圳光峰科技股份有限公司 投影画面的校正方法、装置以及投影系统

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
USD612398S1 (en) * 2007-09-04 2010-03-23 Apple Inc. Icon for a portion of a display screen
JP2011150413A (ja) 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20120306930A1 (en) * 2011-06-05 2012-12-06 Apple Inc. Techniques for zooming in and out with dynamic content
JP5801177B2 (ja) * 2011-12-19 2015-10-28 シャープ株式会社 情報処理装置の入力方法、及び情報処理装置
JP5721662B2 (ja) * 2012-04-26 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力受付方法、入力受付プログラム、及び入力装置
US9652043B2 (en) * 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor
JP5961448B2 (ja) * 2012-05-28 2016-08-02 京セラ株式会社 情報処理装置、プログラムおよび情報処理装置の制御方法
JP5923395B2 (ja) 2012-06-26 2016-05-24 京セラ株式会社 電子機器
US9225810B2 (en) 2012-07-03 2015-12-29 Sony Corporation Terminal device, information processing method, program, and storage medium
JP5751233B2 (ja) * 2012-10-02 2015-07-22 株式会社デンソー 操作デバイス
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
JP2014109803A (ja) 2012-11-30 2014-06-12 Toshiba Corp 電子機器およびプログラム
JP5489379B1 (ja) 2013-01-18 2014-05-14 パナソニック株式会社 スクロール装置、スクロール方法及びプログラム
JP6004105B2 (ja) * 2013-07-02 2016-10-05 富士通株式会社 入力装置、入力制御方法、及び入力制御プログラム
KR102234400B1 (ko) * 2013-07-08 2021-03-31 삼성전자주식회사 컨텐츠의 순서 또는 위치를 변경하는 전자 장치 및 방법
JP5579914B2 (ja) * 2013-12-27 2014-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ スクロール装置、スクロール方法及びプログラム
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
JP2017090942A (ja) * 2014-03-19 2017-05-25 アルプス電気株式会社 入力装置
WO2016106541A1 (zh) * 2014-12-30 2016-07-07 深圳市柔宇科技有限公司 一种触控操作方法、触控操作组件及电子设备
US10564762B2 (en) * 2015-09-17 2020-02-18 Canon Kabushiki Kaisha Electronic apparatus and control method thereof
JP6205021B2 (ja) * 2016-06-27 2017-09-27 京セラ株式会社 情報処理装置、プログラムおよび情報処理装置の制御方法
CN108668083B (zh) * 2018-07-24 2020-09-01 维沃移动通信有限公司 一种拍照方法及终端
JP7302150B2 (ja) * 2018-09-20 2023-07-04 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム
CN111831157B (zh) * 2020-07-14 2024-03-19 京东方科技集团股份有限公司 一种触控显示面板及其驱动方法、触控显示装置
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101097496A (zh) * 2006-06-29 2008-01-02 株式会社Aki 触摸面板的操纵方法和输入方法
US20090058829A1 (en) * 2007-08-30 2009-03-05 Young Hwan Kim Apparatus and method for providing feedback for three-dimensional touchscreen
CN101546245A (zh) * 2008-03-26 2009-09-30 Lg电子株式会社 终端及其控制方法
US20090295715A1 (en) * 2008-06-02 2009-12-03 Lg Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6562929B2 (en) * 2000-08-30 2003-05-13 Jsr Corporation Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same
US7202857B2 (en) * 2001-08-29 2007-04-10 Microsoft Corporation Manual controlled scrolling
US6690365B2 (en) * 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
US6664744B2 (en) * 2002-04-03 2003-12-16 Mitsubishi Electric Research Laboratories, Inc. Automatic backlight for handheld devices
US20050237699A1 (en) * 2004-04-21 2005-10-27 David Carroll Multi-screen mobile computing system
EP1769326A2 (en) * 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. A method and device for preventing staining of a display device
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP4547622B2 (ja) 2005-04-22 2010-09-22 アルパイン株式会社 タッチパネル入力装置及び操作入力判定方法
US7567240B2 (en) * 2005-05-31 2009-07-28 3M Innovative Properties Company Detection of and compensation for stray capacitance in capacitive touch sensors
US7786975B2 (en) * 2005-12-23 2010-08-31 Apple Inc. Continuous scrolling list with acceleration
US20070262951A1 (en) * 2006-05-09 2007-11-15 Synaptics Incorporated Proximity sensor device and method with improved indication of adjustment
US7825797B2 (en) * 2006-06-02 2010-11-02 Synaptics Incorporated Proximity sensor device and method with adjustment selection tabs
WO2008007372A2 (en) * 2006-07-12 2008-01-17 N-Trig Ltd. Hover and touch detection for a digitizer
US20080018604A1 (en) * 2006-07-19 2008-01-24 Tyco Electronics Canada, Ltd. Touch detection method and system for a touch sensor
US7889184B2 (en) * 2007-01-05 2011-02-15 Apple Inc. Method, system and graphical user interface for displaying hyperlink information
US20080247128A1 (en) * 2007-04-03 2008-10-09 Soon Huat Khoo Composite Two Screen Digital Device
DE102008051756A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
KR101505191B1 (ko) * 2008-01-09 2015-03-20 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US9274681B2 (en) * 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
US8259080B2 (en) * 2008-03-31 2012-09-04 Dell Products, Lp Information handling system display device and methods thereof
US8355003B2 (en) * 2008-06-13 2013-01-15 Microsoft Corporation Controller lighting activation by proximity and motion
KR20100010860A (ko) * 2008-07-23 2010-02-02 엘지전자 주식회사 이동 단말기 및 그의 이벤트 제어방법
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
US20100162128A1 (en) * 2008-12-19 2010-06-24 Nigel Richardson User interfaces and associated apparatus and methods
US8866840B2 (en) * 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US20100117970A1 (en) * 2008-11-11 2010-05-13 Sony Ericsson Mobile Communications Ab Methods of Operating Electronic Devices Using Touch Sensitive Interfaces with Contact and Proximity Detection and Related Devices and Computer Program Products
US8799806B2 (en) * 2008-12-31 2014-08-05 Verizon Patent And Licensing Inc. Tabbed content view on a touch-screen device
US20100251112A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
US8619029B2 (en) * 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
KR101587211B1 (ko) * 2009-05-25 2016-01-20 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20100321275A1 (en) * 2009-06-18 2010-12-23 Microsoft Corporation Multiple display computing device with position-based operating modes
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
JP2011150413A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
US20120054670A1 (en) * 2010-08-27 2012-03-01 Nokia Corporation Apparatus and method for scrolling displayed information
JP5614275B2 (ja) * 2010-12-21 2014-10-29 ソニー株式会社 画像表示制御装置および画像表示制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101097496A (zh) * 2006-06-29 2008-01-02 株式会社Aki 触摸面板的操纵方法和输入方法
US20090058829A1 (en) * 2007-08-30 2009-03-05 Young Hwan Kim Apparatus and method for providing feedback for three-dimensional touchscreen
CN101546245A (zh) * 2008-03-26 2009-09-30 Lg电子株式会社 终端及其控制方法
US20090295715A1 (en) * 2008-06-02 2009-12-03 Lg Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034359A (zh) * 2011-10-04 2013-04-10 索尼公司 信息处理装置、信息处理方法以及计算机程序
CN103034359B (zh) * 2011-10-04 2017-11-21 索尼公司 信息处理装置、信息处理方法以及计算机程序
CN104937532A (zh) * 2013-03-22 2015-09-23 夏普株式会社 信息处理装置
CN109951691A (zh) * 2017-12-20 2019-06-28 深圳光峰科技股份有限公司 投影画面的校正方法、装置以及投影系统

Also Published As

Publication number Publication date
US20220027045A1 (en) 2022-01-27
US20110175829A1 (en) 2011-07-21
US20200183528A1 (en) 2020-06-11
US10386959B2 (en) 2019-08-20
US20170038906A1 (en) 2017-02-09
US10606405B2 (en) 2020-03-31
US20140022214A1 (en) 2014-01-23
US8581864B2 (en) 2013-11-12
US20190324590A1 (en) 2019-10-24
US20180275818A1 (en) 2018-09-27
US20230185447A1 (en) 2023-06-15
US9507469B2 (en) 2016-11-29
US9841838B2 (en) 2017-12-12
US20180067610A1 (en) 2018-03-08
CN102129311B (zh) 2015-11-18
JP2011150413A (ja) 2011-08-04
US11169698B2 (en) 2021-11-09
US10013110B2 (en) 2018-07-03
US11567656B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
CN102129311B (zh) 信息处理设备、操作输入方法和操作输入程序
CN103970474B (zh) 用于进行多任务的方法和装置
KR101152008B1 (ko) 개체들을 관련시키는 방법 및 장치
JP5485220B2 (ja) 表示装置、ユーザインタフェース方法及びプログラム
CN101609388B (zh) 可解译多物件手势的触控板模块及其操作方法
US9189500B2 (en) Graphical flash view of documents for data navigation on a touch-screen device
US7596761B2 (en) Application user interface with navigation bar showing current and prior application contexts
US8413075B2 (en) Gesture movies
KR101343479B1 (ko) 전자 디바이스 및 이의 제어 방법
CN105630327B (zh) 便携式电子设备和控制可选元素的显示的方法
US20120289290A1 (en) Transferring objects between application windows displayed on mobile terminal
CN104541239A (zh) 文本选择和录入
CN102129313A (zh) 信息处理设备、输入操作确定方法以及输入操作确定程序
CN106293351A (zh) 菜单布局方法及装置
KR101961907B1 (ko) 사용자 터치 유지 시간에 기초한 이동단말기의 컨텐츠 제공 방법
CN111625176A (zh) 设备控制方法、装置、存储介质及电子设备
CN105934738A (zh) 信息处理设备、信息处理方法以及程序
WO2016183940A1 (zh) 控制键盘显示的方法、装置、终端和计算机存储介质
KR20120105105A (ko) 제스쳐를 이용한 터치스크린 구비 사용자 단말 제어방법, 장치, 이를 위한 기록매체 및 이를 포함하는 사용자 단말
WO2007052958A1 (en) Device having display buttons and display method and medium for the device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant