CN103809875A - 人机交互方法及界面 - Google Patents

人机交互方法及界面 Download PDF

Info

Publication number
CN103809875A
CN103809875A CN201210455546.7A CN201210455546A CN103809875A CN 103809875 A CN103809875 A CN 103809875A CN 201210455546 A CN201210455546 A CN 201210455546A CN 103809875 A CN103809875 A CN 103809875A
Authority
CN
China
Prior art keywords
finger
user
icon
screen
page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201210455546.7A
Other languages
English (en)
Inventor
韩鼎楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201210455546.7A priority Critical patent/CN103809875A/zh
Priority to CN201380059426.8A priority patent/CN104813266A/zh
Priority to US14/442,792 priority patent/US20150293651A1/en
Priority to PCT/CN2013/087093 priority patent/WO2014075612A1/zh
Priority to CA2891909A priority patent/CA2891909A1/en
Publication of CN103809875A publication Critical patent/CN103809875A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

一种3D多点触摸环境下的人机交互方法,充分发挥3D多点触摸的优势,使使用者可以以极少的操作表达丰富的操作信息。一种使用了压力数据的页面浏览方式,通过使用压力数据,让使用者可以更快速精确的进行页面浏览。

Description

人机交互方法及界面
技术领域:
本发明涉及人机交互方法及界面,尤其是3D多点触摸环境下的人机交互方法及界面。
背景技术:
现有技术条件下,已经有了能够检测触摸屏表面上一定范围内的触摸物体的多点触摸设备。本发明据此提出相应的人机交互方法及界面,以充分利用设备的功能,实现更好的人机交互体验。
附图说明:
图1是手相对于屏幕呈4种不同姿态下,标识图标的姿态随手的姿态改变而改变的示意图。
图2是手指与标识图标的示意图。
图3是指引手指滑动操作的标识图标的一种样式。
图4标识图标在手接触屏幕后发生变化的示意图。
图5是标识图标与手可采取的不同的相对位置示意图。
图6是笼罩区域的示意图。
图7是根据手指姿态及位置确定的锥状区域示意图。
图8是位置图标示意图。
发明内容:
本发明通过将手视为一个整体,通过设计一套与之配套的人机交互方式、结构及图形引导界面,能够获取更丰富的操作信息,并充分利用利用这些信息,由此让使用者非常自然、简单、精确的表达自己的操作意图,并且有图形界面的实时引导,不需要记忆任何操作。例如,基于本发明的人机交互系统,通过一个简单的单点点击操作,系统能够根据获取的信息,产生4种不同的响应,并且包含一个精确的操作实施位置。使用者在手掌不移动的情况下,只需要摆动一下大拇指,再用另一个手指进行任意操作,就可以实现2×3×4=24种以上的不同效果,同时还能表达出一个精确的实施操作的位置。现有的多点触摸操作以多点触摸手势为主,使用者需要记忆复杂的触摸手势,同时控制一只手上的多个触摸点同时在屏幕上滑动,难以使用。而且多点触摸手势接近于键盘指令,同一个手势是不能实时变化功能的,使用者需要对照说明列表才能使用手势。实际上,目前常见的多点触摸手势仅有两指缩放这一种操作。而且现有的多点触摸手势无法在一次操作中同时表达出操作指令及一个精确的操作位置。
这套人机交互方法及结构构成了一个生物控制系统,在下文中以X代称。
现有的输入设备,尤其是基于光学传感的设备,已经能够提供3维空间内的多点触摸检测。在3维的多点触摸环境中,系统能检测到距离屏幕表面一定范围内的物体。
触摸面板能检测到距离屏幕表面一定距离内的手指。面板能够检测到使用者手指的方向,系统结合检测到的手指的方向和手指的相对位置判断哪几个手指是一只手上的手指。如果触摸面板的检测范围比较大,可以检测到距离面板更远的物体,例如距离面板9厘米处的手掌,系统还可以结合手掌的位置判断哪几个手指属于一只手。
系统判定一只手的位置之后,可以给不同手指赋予不同功能。不同手指对同一对象进行相同操作,可以产生不同效果。
可以在不同手指附近显示标识图标,引导使用者使用相应手指进行各种操作,执行图标所示的功能。标识图标一般位于用者易于看到的位置,例如沿手指所指方向,距离指尖一定距离。当手指距离面板一定距离范围内时,指尖距离屏幕越近,图标距离指尖的距离越近。如图2所示,图标彼此之间的相对位置和图标相对于屏幕的姿态会随着手指的位置进行调整,使操作者能够明确知道哪个图标所示的功能与哪个手指对应。图2是标识图标和手指的示意图,其中11、12、13、14是4根手指前段在触摸面板上的投影,手指前段位于距离屏幕表面3cm处,21、22、23、24是标识图标,标识对应手指相应操作的功能,21与11对应,22与12对应,23与13对应。标识图标25与大拇指15对应,使用者通过使用大拇指15在屏幕上滑动可以在标识图标25的两个子图标1和图标2间切换,标识图标25相当于图标21、22、23、24的上级目录,标识图标25不同的子图标对应不同的21、22、23、24。即大拇指的操作是整只手的内部操作。图1是手指不同姿态下标识图标不同的排列,其中黑色线条是使用者手指前段,空心框是标识图标。标识图标可以适当调整自身位置,避免遮挡其它图形对象。手指前段即使用者手指第一关节之前的手指,是手指通常用于触摸屏幕的部位。
一般情况下,标识图标21、22、23并不是一个需要通过触摸进行操作的快捷方式图标,它只是一个引导使用者进行操作,告知使用者相应手指可进行的各种操作的功能的标识性图标。一般情况下标识图标是引导使用者的相应手指触摸屏幕,执行图标对应的功能。
标识图标还可以用于引导使用者相应手指进行其它操作:在屏幕上滑动手指,将相应手指比其它手指更靠近屏幕,相应手指用力按压屏幕等操作。相应手指比其它手指更靠近屏幕是指:相应手指指尖与屏幕表面的距离比其它手指低,例如低2cm以上,且距离屏幕表面一定范围内,例如距离3cm以内,则执行与手指对应的图标提示的功能。
为了避免对使用者的一些常用操作产生影响,除了配合双手操作的情况外,一般情况下可以设定为手指的一般点击仍视为一般操作,只有双击、向特定方向滑动、用力按压屏幕等操作,才被捕获用于与X发生关联。
还可以设定为,只有当系统获知,例如检测到或者判断到使用者的多根手指在屏幕上方一定范围内伸展开时,才显标识图标。例如,如果使用者单手操作屏幕,使用者用来持握设备的手的大拇指位于屏幕上方时,系统不会为大拇指显示标识图标;又例如使用者的一只手位于屏幕上方,但是只伸出了一根手指,其它手指都是攥在手心里的,
应当理解,标志图标并不一定要实时的随相应手指移动而移动,手指小范围移动相应图标不必跟随移动,也并不一定要始终位于手指方向上的手指延长线上,例如图5,其中黑色线条是使用者手指前段,空心框是标识图标。图5左侧第1组中,标识图标位于手指的延长线上,右侧第2组中,标识图标则位于相应手指上侧,这样可以避免遮挡使用者指尖处的对象。标识图标们只要在整只手的姿态相对于屏幕发生较大幅度旋转时,随手旋转即可,只要让使用者能够直观的感知到标识图标与相应手指的对应关系即可。让使用者产生标志图标与手指对应感的并不仅仅是单个图标的位置,多个标识图标彼此之间的相对位置,或者说多个标识图标确定的线相对与屏幕的姿态,与使用者的手指确定的线与屏幕的姿态保持一致,便能让使用者感受到图标与手指的对应关系。
图标并不移动要完全按照手指指尖的梯度来进行排列,如果图标间的梯度过大,会让使用者感到凌乱。
如果图标要指引使用者可以使用一根手指进行滑动等多种操作,则图标在手指未接触屏幕时可以采用图3所示的样式,3个角231,232,233分别是表示手指接触屏幕后向相应方向滑动手指对应的功能,234则表示手指触碰屏幕不滑动就立刻离开屏幕将执行的功能,234也可以没有任何功能,使用者手指点击屏幕就是普通的点击操作,只有滑动才会触发标识图标的功能。当手指接触屏幕时,图标可以发生变化,变成图4所示的样式。图4所示图标,232与233离开234,分别靠近相应手指11的两侧,并变成箭头状,提示使用者向相应方向滑动以执行图标显示的功能。232和233所标识的滑动方向与相应手指所指方向指向的角度可以是固定的,例如如图4所示的情况,232,233分别引导使用者向手指两侧滑动手指执行图标标识的功能,这样使用者可以非常自然的摆动手指或手腕,使手指向手指左右两侧滑动,触发232,233标识的功能。可以进一步设定为手指沿232标识的方向滑动后,232将被高亮,提示使用者现在选取了这个功能,使用者需要再沿垂直于232标识的方向滑动手指,被选取的功能才会被执行,以避免误操作。
232和233所标识的滑动方向与相应手指的角度也可以是不固定的,232,233不管手指的姿态如何,总是指向窗口两侧,这样当使用者沿窗口竖直方向滑动手指时,不容易因为滑动的不够直,无意识的向手指两侧产生了滑动而触发误操作,由此沿窗口竖直方向滑动手指可以被赋予滚动窗口内容等常用手势,与232,233所标识的功能互不影响。
因为图标只是一个引导性图标,使用者并不需要触摸图标执行相应功能,因此当使用者的相应手指的手指接触屏幕时,图标并不需要移动到手指下方易于触摸的位置,而应当沿手指方向,位于指尖前一段距离,使使用者能够明确图标所示功能对应的手指。当系统检测到相应手指接触屏幕时,系统即执行相应功能。当图标的功能被执行时,图标应当发生变化,例如高亮图标,改变图标样式或颜色等,告知使用者图标对应的功能被执行了。
对于某些窗口级的功能型选单,例如浏览器中的打印,页面另存为,播放器中的亮度调节等对整个窗口起作用的选单,如果在手指未接触屏幕表面时就显示出来会使使用者感到碍事。为此,系统可以设定为只有检测到3根以上手指同时接触屏幕,才会显示出标识图标,标志出各个手指对应的功能。之后,使用者通过下列两种方法中的一个或多个确定要使用哪个手指对应的图标标志的功能:
(1)增加相应手指对屏幕的压力来表达要使用相应手指。例如,图2中,使用者增加手指11的压力来表示要使用手指11对应的图标上标志的功能;
(2)也可以设定为抬起其它手指来表示要使用哪个手指对应的功能。例如,图2中,使用者的同一只手上的11、12、13,3个手指同时触摸屏幕,系统由此显示出提示各个手指功能的标识图标。之后,使用者保持手指11不离开屏幕,在屏幕上滑动手指11的同时将手指12,13离开屏幕,表示要使用手指11。
进一步,为避免误操作,系统还可以设定为在使用者表示了要使用哪个手指之后,需要滑动相应手指以确认执行图标表示的功能,避免误操作。还可以使用图3、图4所示的图标,让手指向不同方向滑动执行不同功能。
系统优先选取使用者的中指、食指、无名指,赋予各种功能。
在某些情况下,系统有3个选项,但是只检测到了2个手指。此时,系统根据检测到图像,根据手指的位置关系,大小形状,判断检测到的是哪两个手指,例如,一般情况下,中指和食指会距离屏幕较近,容易检测到,中指总是会比食指突出一些。系统根据检测到的手指,判断未检测到的手指的位置,例如无名指的位置,并根据判断出的位置显示引导图标。当使用者希望使用无名指时,必然会将无名指靠近屏幕,系统就会检测到无名指。系统检测到无名指之后,根据检测到的位置调整和无名指对应的图标的位置。大拇指是一个特殊的手指,可以用来切换其它手指对应的功能,例如大拇指触摸屏幕,或者在屏幕上滑动,则其它手指的功能图标切换。
如果图标是一个需要通过触摸图标来使用图标的功能性图标,则图标应当具备以下特征中的一个或多个:
(1)图标应当能够调整自身位置,始终位于相应手指易于点击的位置,当图标所跟随的手指发生小幅位移时图标可以不实时跟随移动,但是当发生较大距离的移动,例如1cm以上时,图标应当跟随移动,调整自身位置以便于手指触摸;
(2)当手指接触或即将接触到面板时,图标应移动自身到相应手指下方便于手指触摸。
2.交互操作、交互对象以及交互位置。
使用者的不同手指被配置了不同的功能,每个手指都有相应的标识图标指引使用者进行操作。
执行操作,确定各个手指对应的功能,很多时候需要一个目标区域或位置。根据区域或位置内的对象,确定X的各种元素,例如各个手指对应的功能,图标的位置及内容等。或是作为被X实施操作的对象或位置或区域。
这些区域或位置或区域位置内的对象称为“交互对象”。
用以确定交互对象的位置称为交互位置。
交互操作对象是,被执行操作的对象,或者是会对X产生影响的对象。
系统会根据相应对象,确定X所包含的元素,例如显示相应的标识图标,确定相应手指的功能等。
X可以同时有多组不同用途的交互对象。
X可以提供很多个位置作为交互位置,用以确定交互对象。可以使用的位置包括但不限于:
1.X的各种图形元素的位置,例如标识图标的位置,在某些时候,还可以专门显示一个或多个图标,称为位置图标,专门用于提供交互位置;
2.手指的位置;
3.根据整只手多个部分,例如多根手指前段,还可以加上手掌,大拇指等,构成的轮廓,确定轮廓内的区域,或区域内的对象。例如图6中,15是右手大拇指,100是右手的4根手指,17是手掌,它们共同确定了区域61;图6中,16是左手大拇指,101是左手的4根手指,18是左手手掌,它们确定了区域61.当使用图形元素确定交互对象时,图形元素可以进行适当变形,例如产生尖端等帮助精确选取位置,或者半透明覆盖到交互对象上方,或者包围住交互对象等。例如当手指11位于屏幕上方3cm处时,手指11的标识图标21随着手指11一同移动,当标识图标21经过对象51上方时,标志图标21可以包围住对象51,提示使用者如果此时使用手指11触摸屏幕,对象51将被执行操作。
应当理解,交互位置并不只限于相应图形元素或者手指的下方,也可以是相应图形元素或者手指附近的特定范围内的区域。当使用可视元素:“如手指,图形元素等“,附近一定范围内的区域或对象作为交互对象时,相应区域或位置可以被高亮,以提示使用者。例如,如图“附近范围”所示,游戏中,手指12触摸屏幕后,要向区域63内喷火,因此当手指12比其它手指更靠近屏幕时,区域63或63内的对象会被高亮,提示使用者如果手指12触摸屏幕,高亮区域内的对象将被执行手指12对应的功能。区域63是沿手指12所指方向,从手指12指尖处发散出的一片锥形区域,使用者可以通过改变手指12的指向,转动区域63向不同方向发散。下面进行具体讲解几种常用设计。
1.每个手指单元使用各自独立的交互对象位置。
在这种情况下,每个手指单元使用各自手指单元内的交互对象位置。手指单元是:每个手指与它们的图标们,例如标识每个手指功的标识图标,以及其它各种图标,例如位置图标,组成的一个单元。各个手指单元使用独立的交互对象位置。交互对象位置根据单元中各个元素,例如手指、标识图标、或者其它图形元素的位置确定。一个单元可以有多个交互对象位置。由此,使用者得以使用同一个手指单元,同时确定执行何种操作以及对哪个对象执行操作。
一个典型例子是系统根据手指触摸的位置确定被X操作的对象的位置。使用同一个手指,同时确定执行何种操作以及对哪个对象执行操作
例如,如图2,系统检测到使用者同一只手上的3根距离屏幕表面5厘米的手指,图标21、22、23分别位于使用者手指11、12、13在屏幕上的投影位置的指尖方向上5mm处,提示使用者手指11、12、13对应的功能。
当手指11位于对象51上方时,系统将根据对象51,确定在对象51作为交互对象时,可以提供哪些交互操作,之后确定手指11对应的功能。例如对象51是一个文件夹,系统可以提供(1)“删除”、(2)“剪切”、(3)“复制”等3个选项,按照设置,编号为(1)的选项将被分配个手指11,则手指11将被分(1)“删除”功能,同时与手指11对应的标识图标21将变成表示一个删除功能的图标。与此同时,手指12的下方有一个对象52,对象52是一个图片,例如是一张黄昏时刻天空飘浮着云彩照片。系统根据对象52,提供一系列的当前可能执行的操作,例如(1)“识别照片中的人物”、(2)“拾取颜色”、(3)“分享照片”、并将编号为(2)“拾取颜色”的操作赋予手指12,同时手指12的标识图标22将变为一个提示拾取颜色的图标。拾取颜色需要精确操作,此时需要更进一步的设计。提供的解决方案是,当系统发现当前操作需要精确位置时,图标22与手指指尖在屏幕上的投影位置间的距离增加,从5mm增加到1.5cm,系统根据手指12的位置,在图标22与手指12指尖之间,再显示一个图标32,图标31有一个指针状尖端,便于精确选取位置。也可以采用另一种设计,不额外显示一个图标,而是标识图标22发生变形,变成一个取色笔的样式,同时,图标22的颜色也会随取色笔笔尖处图片的颜色发生变化。因为取色笔位于手指12的指尖前方,因此可能会出现使用者为了拾取图片边缘的颜色而出现取色笔位于图片上,但是手指12却超出了图片范围的情况。在这种情况下,可以考虑设置为仍然保持手指22的功能不变,直到取色笔的笔尖也离开图片。这也体现出了将图标作为确定交互对象的标志物的优点。专用的确定交互对象的图标可以根据各种需求进行变形。
如果手指12接触了屏幕,则对象52将成为当前被X操作的对象,此时,标识图标22变为为一个取色笔的样式,保持手指12与屏幕表面的接触,手指12的移动会导致图标22向相同方向移动,但是标识图标22移动的距离将小于手指12移动的距离,由此在小范围内实现更进一步的精确操作。此时使用者可以用另一只手拿着手写笔在屏幕其它位置绘画,系统将根据手指12作为取色笔拾取的颜色确定手写笔笔迹的颜色。
如果手指11触摸了对象51,则对象51将成为被X操作对象,此时,图标21可以发生变化,图标21从删除图标变为沿手指方向排列的两个图标一“删除”和“垃圾邮件”,并向使用者的手指靠近,图标21并不是要移动到使用者的手指下方,它和手指11是对应的,不需要触摸就可以操作,图标21向手指11靠近是为了引起使用者的注意,表示使用者现在要执行的是图标21上显示的操作。保持手指11不离开屏幕,手指11可以沿手指方向前后滑动,在“删除”和“垃圾邮件”这两个图标间切换,当前被选取的功能的图标将被高亮。在确定要使用“垃圾邮件”功能之后,保持“垃圾邮件”图标高亮,手指沿垂直于手指所指方向的方向滑动,则将确认执行当前被高亮的图标的功能。
可以设定,如果手指11接触屏幕并大范围滑动,则删除滑动范围内的多个对象。
应当理解,除了可以将手指作为使用者容易识别的标志物,引导使用者确定交互对象的位置外,还可以采用其它位置与手指关联的对象的位置确定交互对象的位置。交互对象的位置并不一定要设置为位于手指的下方。
2.整只手,或者一个或多个手指单元,共用一个交互对象位置。
例如,如图8所示,当系统检测到同一只手上的多根手指时,系统将在多根手指的前端,中间位置,显示一个“位置图标”。这个图标的位置用于确定整只手上手指的交互对象位置。位置图标37的形状是可以变化的,平时是一个点状,当位于一个对象上方时,则沿对象边缘包围住对象。
例如,当位置图标37位于对象51上方时,位置图标37消失,变成包围对象51的蓝色边缘。此时,系统根据对象51,可以提供(1)“删除”、(2)“剪切”、(3)“复制”等3个选项,分别依次分配给手指11、手指12、手指13三个手指,标识图标21、22、23也显示出提示相应功能的图标。此时,即使手指11位于对象52上方,手指13的标识图标23位于对象53上方,都不会对图标21、22、23显示的图标以及手指11、12、13的功能产生影响。如果手指11点击屏幕,则将对对象51执行(1)删除操作。
3.另一个提供位置的设计是笼罩选取。这种方式提供的位置可以给整只手多根手指共用,也可以只分配给特定手指使用。这种设计难以提供精确的“点状”位置,适用于选取/确定一大片区域或对象。例如在游戏中,使用者的左手选取了我方的一个武装单位,保持左手不离开屏幕,则使用者的右手的11、12、13,3根手指分别对应不同的攻击方式,其中12、13对应的攻击方式是对单个对象进行攻击,手指11对应的攻击方式适合对一片区域进行无差别攻击,如果使用者用手指12触摸一个敌方对象,则被触摸的地方对象将被左手选取的我方武装单位攻击,如果使用者用右手手指11触摸屏幕,则被左手选取的我方武装对象将对被右手笼罩的区域进行无差别饱和攻击。为了让使用者能够明确意识到手掌的笼罩区域被分配给了手指11的单元使用,可以将手指11的单元的标志图标,整个手指11的下方,都和手掌笼罩区域设定为同样的样式,例如,如果手指11对应的攻击方式是从天上砸下大量球状闪电,则手指11的标识图标也是一团蓝白相间的球状闪电,手指11下方一定范围内,以及整个手掌笼罩区域内,都有蓝白球状闪电滚动,而且随着手指11靠近屏幕,手掌笼罩区域61内的球状闪电的滚动,以及亮度会更加剧烈,并发出越来越大的声音;而手指12的单元的标识图标及手指12的下方显示与12对应的攻击方式相匹配的内容,例如手指12的手指前段下方燃烧着团团火焰,由此,使用者可以清楚的认识到右手手掌下方的区域是属于手指11的。当使用者的手指12位于已方单位上方时,手指12的功能会变为掩护,并显示相应标识图标,用手指12点击己方单位,被左手选取的我方武装单位会对被右手手指12触摸的对象进行掩护。手指11下方的光团,手掌笼罩区域61内的闪电,都可以视为标识图标。这个例子体现了标识图标的灵活应用。
确定交互位置的方法、分配方法有很多种。这些方法可以混合使用,以提供更好的使用体验的。例如,交互对象有多种用途,各种用途的交互对象根据不同的方法分配、确定。例如,确定用于确定手指功能的交互对象使用一种方法,确定操作被执行的对象使用另一种方法。例如标识图标显示的功能根据整只手共用的专门的“位置图标”确定,但是各个手指的功能以及操作执行的对象,每个手指单元则使用各自独立的位置确定。在下边的实例中会进行举例,展现这种方法的好处及使用思路。又例如手指11、12使用各自手指单元内提供的交互位置,手指13、14共用手掌笼罩确定的区域61作为交互位置。大拇指15不需要交互位置,大拇指15用于切换手指11、12、13、14的功能,由此可以在原有基础上多提供1倍以上数量的功能。
这种人机交互机制结合双手操作环境,会有良好的效果。
例如,在游戏中,屏幕上同时显示了多个单位,包括:我方火力舰,敌方火力舰,我方补给船,敌方补给船。操作者用一直手111的一根手指11触摸我方火力舰55,保持手指11不离开屏幕,此时,如果系统检测到使用者的另一只手110的手指靠近了屏幕一定范围,例如距离5cm以内,则将根据手指11触摸的我方火力舰55,对这只手110的手指显示标识图标,例如:食指对应炮击,中指对应导弹攻击,无名指对应迎头拦截。保持手指11不离开屏幕,则此时被手指11触摸的我方火力舰55将炮击被手110的食指点击的敌方火力舰,将导弹攻击被中指点击的对象,将迎头拦截被无名指点击的对象。
我方火力舰55可能会在屏幕上实时航行移动,因此可能离开手指11下方的位置,但是只要手指11触摸了我方火力舰55后不离开屏幕,系统将认为使用者要始终保持对55的选取。
如果使用者将对应炮击功能的手指在屏幕表面大范围滑动,则炮击滑动范围内的对象。
标识图标也可以根据附近一定范围内的对象进行改变。可以结合手指下方的对象确定图标内容和手指的功能,也可以根据手110笼罩的区域62内的对象确定图标内容和手指对应的功能。
例如,如果我方补给舰附近一定范围内没有敌舰时,保持手指儿对火力舰的触摸,另一只手110的手指如果位于我方补给舰上方,且手指下方没有敌方单位时,标识手指功能的图标将发生改变,改为显示各种友方互动的内容。
但是,当敌我混杂,我方补给舰紧挨着敌舰时,可能在3根手指的范围内,就会有敌我不同单位,由此难以确定手指对应的功能和应当显示的标识图标。
此时,可以各个手指根据各个手指下方的对象确定手指对应的功能,并显示标识图标引导使用者。例如,食指在位于敌方单位上方时对应炮击,在位于己方单位上方时,对应释放保护力场。则系统将根据食指自身的位置,例如位于食指下方或者指尖下方的对象,确定食指对应的功能并在沿食指手指方向,距离食指指尖2cmm的位置显示标识图标,距离2cm是为了防止遮挡食指附近的对象。
例如,食指位于敌方单位上方,则对应炮击,并显示炮击的图标。中指位于己方单位上方,则显示掩护,并显示掩护的图标。
但是,在某些特殊情况下,有很多不同属性的单位,使用者没有明确目的,需要浏览一下他对每一个单位都能采取什么操作,再决定操作哪一个单位时,采用上述设定就可能会有些不便,因为使用者需要将不同手指都经过对象上方才能知道功能。此时可以采用多个手指单元共用一个交互位置的设计。此时可以根据特定手指,例如中指的位置,来确定在整只手110的各个手指的标识图标。也可以专门显示一个多根手指共用的位置图标W1,专门用来确定手110上多根手指的标识图标。
一个手指单元包含多个元素,可以只有部分元素根据一个整只手110的共用位置确定。下边提供两种很有用的设计:
(1)除了110上各个手指的标识图标,110上的其它手指,例如无名指,食指,对应的功能也将根据中指或图标W1来的位置确定,即,当无名指,食指触摸屏幕时,将执行根据中指位置确定的标识图标的功能。操作执行的对象也根据中指或图标W1来的位置确定。
例如,中指位于已方补给舰上方,则食指对应“发射保护力场”的功能,并显示相应标识图标,当食指触摸屏幕时,即使食指触摸的位置是其它对象,仍将对中指下方的已方补给舰执行“发射保护力场”的功能。
(2)另一种设计是当系统判定使用者要用相应手指,例如食指,执行操作时,即根据食指的位置确定操作执行的对象及食指对应的功能,并显示相应标识图标。
在这种设计下,任何时候各个手指的功能都是根据它们所在的手指单元确定的对象,例如根据它们自身的位置确定的对象,确定的。只有各个单元内的标识图标根据手110上的一个共用位置,例如中指所在单元提供的位置,或者共用的标识图标W1的位置确定。
例如,当整只手110的手指都位置屏幕表面3cm以上时,根据中指的位置确定整只手110的各手指的标识图标,当系统检测到使用者的食指距离屏幕表面不超过2cm,且低于大拇指以外其它手指的高度1cm以上,或是距离屏幕表面不超过3.5cm,且低于大拇指以外其它手指3cm以上时,系统即切换为根据食指的位置确定食指对应的功能及显示相应的标志图标。
即,当所有手指距离屏幕较远,且近乎处于同一高度时,系统认为使用者在观察可以对各个对象执行哪些操作,此时根据整只手共用的位置,例如标识图标W1或者中指的位置确定根据哪个对象来显示各个手指的标识图标,但是当系统检测到使用者意图用特定手指执行操作时,例如特定手指触摸或者开始靠近屏幕时,仍根据特定手指的位置确定操作对象及特定手指对应的功能。
例如,使用者的3根手指各自与屏幕之间的距离相差不多,例如相差在1cm以内,且距离屏幕表面的高度都大于1cm时,系统根据整只手110的手指共用的一个位置显示各个手指的标识图标,但是当特定手指,例如食指距离屏幕的距离比其它手指低1cm以上,且食指距离屏幕不超过2cm时,食指的标识图标将改为根据食指的位置或者食指所处手指单元内的元素的位置确定。需要注意,自始至终,食指的功能始终没有改变,始终是根据食指自身手指单元内提供的位置确定的。
智能滑动。下边再提供几种根据压力实现更智能简洁的操作。
1.当使用者看电子书或者电子文档时,通过从屏幕边缘向屏幕中心滑动,来进行翻页。例如使用者从屏幕右侧向左滑动手指,则向后翻页。系统可以根据使用者的压力来确定翻页的多少。例如当使用者以很大的压力按住屏幕同时滑动手指时,系统将根据使用者手指滑动时的压力的大小来确定翻过多少页,压力越大翻过的页数越多。可以设定一个闸值,压力大小在闸值以下,则不管压力大小,都只翻过一页。当压力大小在闸值以上时,系统才根据压力的大小确定要翻过的页数。因为使用者难以极精确的控制自身的压力,这样的翻页是一个不精确的模糊的数值。为了增加使用者的翻页的精度,可以在使用者增加手指压力的同时,在屏幕上显示此压力下将翻过的页数或者翻过的页数占总页数的百分比等。也可以采取另一种设定,当使用者的手指的压力增加超过某一闸值时,系统将根据使用者的手指在屏幕上滑动的距离长短确定向后翻页的页数。
进一步,系统可以监控使用者的阅读习惯,筛选使用者最喜爱阅读的页面。使用者喜爱的页面包含使用者添加了批注,书签的页面,也包含系统可以监控使用者的阅读习惯,筛选使用者最喜爱阅读的页面。例如,使用者前后翻了很多页,有的也是直接翻过去的,其它停留过的页面每页停留的时间都不超过半分钟,最后使用者停留在了某一页面P1上,并在P1停留了超过1分钟以上的时间,并由此开始了一页一页顺序的向后翻页的阅读,可以判断为使用者是在寻找P1,则P1将被视为使用者喜爱的页面。例如使用者一次就往前翻过了100页,又向后翻了20页,之后一页一页快速的向后翻,最后停留在一个页面上并开始以正常的阅读速度翻页阅读,这一页就将被视为使用者喜爱的页面。所谓正常的阅读速度,是指系统根据页面中的内容量,例如字数,以及使用者的平均阅读速度,计算出的一个使用者读完这一页的时间。一个页面被使用者返回来阅读的次数阅读,则它的喜爱等级越高,模糊翻页时,将优先选取一定范围内,例如前后10页内,喜爱等级最高的页面。也可以给被添加了书签的页面分配一个默认的喜爱等级以便于系统计算出的喜爱页面的喜爱等级相比较,也可以允许使用者自己给页面添加喜爱等级。
当使用者的采用比较模糊的方式向后翻页时,如果可能翻到的页面范围内有使用者喜爱的页面,系统将优先翻到使用者喜爱的页面。例如,当使用者用力滑动手指,系统按照手指此时的压力将翻到570页,但是570页附近20页范围内存在第561页为使用者在这附近20页内最喜欢的一页,则系统将翻到561页而不是570页。
另一个例子是,当使用者用超过闸值大小的压力按住屏幕时,系统根据使用者的压力大小显示此时滑动手指会翻到的页码,561页是使用者喜欢的一页,当使用者的压力从会翻到560页增加到会翻到570页时,系统会增加在翻到561页的提示上停留的时间,并用特殊颜色显示,即使使用者的压力已经增加到可以翻到570页的压力,系统仍然会显示翻到第561页,直到使用者的压力增加到可以翻到571页的压力,系统将直接跳到571页。当使用者从571页的压力开始减小压力时,系统会顺序减小页码,依次显示571-561页的页码。但是使用者的压力需要减小到翻到551页的压力系统才会跳转到551页。这种方法同样适用于当使用者的手指的压力增加超过某一闸值时,系统将根据使用者的手指在屏幕上滑动的距离长短确定向后翻页的页数的情况。
2.在浏览网页或者电子文档时,使用者可以使用手指在屏幕上滑动,滚动页面。例如使用者在屏幕上向屏幕下方滑动手指,页面将向屏幕下方滚动。当页面很长时,使用者往往需要在屏幕上多次滑动手指,并等待一段时间才能看到想看的位置。有两种解决方法。
(1)随着使用者手指滑动时的压力增加,页面的滚动速度也将加快,手指离开页面之后页面继续滚动的时间也将增加;
(2)使用者的手指压力大小超过某一闸值时,手指在页面上滑动的效果将发生改变,页面的向后移动的方式,将从平滑的滚动,变为以整屏幕内容为单位向后翻页,同时随着手指压力的增加,手指移动单位距离向后翻的屏数将增加。例如,当压力值为2时,手指在屏幕上向下滑动5mm,将显示下1屏内容,当手指压力为3时,手指在屏幕上滑动2mm就会显示下一屏内容。在快速整屏翻页的同时,系统还可以进一步显示一个整个文档或者页面的缩略图之类的东西,帮助使用者定位现在显示的内容在整个页面上的位置。
采用电子纸的电子书为了省电,一般默认以整屏为单位向后翻页。有时使用者希望仅仅向后移动几行,让相邻的两段内容能同屏显示。对此,可以采用和前边相反的设定。当使用者的手指对屏幕的压力增加超过某一闸值时,手指在屏幕上滑动将导致平滑的滚动页面而不是整屏的向后翻页。
(3)手指在页面上水平滑动手指会拖动本页的页面内容左右滑动,但是当使用者手指的压力大小超过某一闸值时,手指在页面水平方向上滑动将对应前后翻页,在浏览器中将对应前进后退。例如,向左滑动手指是向左拖动页面,但是当使用者以超过闸值大小的压力向左滑动手指时,将对应后退到前一个页面。

Claims (2)

1.一种对文档进行翻页的方法,系统根据使用者手指对屏幕施加的压力大小,确定向后翻页的多少或滚动速度和距离,以及持续滚动的时间。
2.一种智能切换滑动页面操作的方法,其特征是系统根据使用者手指对屏幕施加的压力大小,切换不同的操作效果。
CN201210455546.7A 2012-11-14 2012-11-14 人机交互方法及界面 Pending CN103809875A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201210455546.7A CN103809875A (zh) 2012-11-14 2012-11-14 人机交互方法及界面
CN201380059426.8A CN104813266A (zh) 2012-11-14 2013-11-13 人机交互方法及界面
US14/442,792 US20150293651A1 (en) 2012-11-14 2013-11-13 Man-machine interaction method and interface
PCT/CN2013/087093 WO2014075612A1 (zh) 2012-11-14 2013-11-13 人机交互方法及界面
CA2891909A CA2891909A1 (en) 2012-11-14 2013-11-13 Human-computer interaction method and interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210455546.7A CN103809875A (zh) 2012-11-14 2012-11-14 人机交互方法及界面

Publications (1)

Publication Number Publication Date
CN103809875A true CN103809875A (zh) 2014-05-21

Family

ID=50706734

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201210455546.7A Pending CN103809875A (zh) 2012-11-14 2012-11-14 人机交互方法及界面
CN201380059426.8A Pending CN104813266A (zh) 2012-11-14 2013-11-13 人机交互方法及界面

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201380059426.8A Pending CN104813266A (zh) 2012-11-14 2013-11-13 人机交互方法及界面

Country Status (4)

Country Link
US (1) US20150293651A1 (zh)
CN (2) CN103809875A (zh)
CA (1) CA2891909A1 (zh)
WO (1) WO2014075612A1 (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159590A (zh) * 2015-08-27 2015-12-16 广东欧珀移动通信有限公司 一种控制用户终端的屏幕的方法及用户终端
CN105224198A (zh) * 2015-09-09 2016-01-06 魅族科技(中国)有限公司 一种页面控制方法、页面控制装置及终端
CN105426080A (zh) * 2015-11-26 2016-03-23 深圳市金立通信设备有限公司 一种图片切换方法及终端
CN105488057A (zh) * 2014-09-17 2016-04-13 腾讯科技(深圳)有限公司 页面元素的处理方法及装置
CN105511761A (zh) * 2015-11-27 2016-04-20 网易(杭州)网络有限公司 页面内容的显示方法与装置
CN105975189A (zh) * 2016-04-29 2016-09-28 乐视控股(北京)有限公司 一种移动设备触屏滑动方法及系统
CN106028160A (zh) * 2016-06-03 2016-10-12 腾讯科技(深圳)有限公司 一种图像数据处理方法及其设备
WO2016184139A1 (zh) * 2015-10-26 2016-11-24 中兴通讯股份有限公司 一种界面滚动的控制方法和装置
CN107527186A (zh) * 2017-08-14 2017-12-29 广州阿里巴巴文学信息技术有限公司 电子阅读管理方法、装置和终端设备
CN109815367A (zh) * 2019-01-24 2019-05-28 北京字节跳动网络技术有限公司 展示页面的交互控制方法及装置
CN111596831A (zh) * 2020-05-25 2020-08-28 李兆陵 一种基于触摸屏的快捷操作方法及装置、终端设备

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016217770A1 (de) * 2016-09-16 2018-03-22 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
US10140502B1 (en) 2018-02-13 2018-11-27 Conduit Ltd Selecting data items using biometric features
TWI666574B (zh) * 2018-05-22 2019-07-21 義隆電子股份有限公司 判斷觸控裝置上之觸控物件力道及觸控事件的方法
CN109491584A (zh) * 2018-10-17 2019-03-19 深圳传音制造有限公司 一种基于移动终端的屏幕控制方法及一种移动终端
US11451721B2 (en) * 2019-09-03 2022-09-20 Soul Vision Creations Private Limited Interactive augmented reality (AR) based video creation from existing video
CN111290691A (zh) * 2020-01-16 2020-06-16 北京京东振世信息技术有限公司 用于操作页面的方法、装置、计算机设备及可读存储介质
CN115938244B (zh) * 2023-02-20 2023-06-02 深圳市英唐数码科技有限公司 一种适配多笔形的电纸书显示方法、系统和存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8799821B1 (en) * 2008-04-24 2014-08-05 Pixar Method and apparatus for user inputs for three-dimensional animation
US8810522B2 (en) * 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US8438500B2 (en) * 2009-09-25 2013-05-07 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
KR20120062037A (ko) * 2010-10-25 2012-06-14 삼성전자주식회사 전자책 단말기에서 페이지를 전환하는 방법
US9104308B2 (en) * 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
US20120169671A1 (en) * 2011-01-03 2012-07-05 Primax Electronics Ltd. Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US20120179963A1 (en) * 2011-01-10 2012-07-12 Chiang Wen-Hsiang Multi-touch electronic device, graphic display interface thereof and object selection method of multi-touch display
TW201237725A (en) * 2011-03-04 2012-09-16 Novatek Microelectronics Corp Single-finger and multi-touch gesture determination method, touch control chip, touch control system and computer system
CN202267933U (zh) * 2011-09-11 2012-06-06 黄瑞平 仿鼠标式触摸板
US10423515B2 (en) * 2011-11-29 2019-09-24 Microsoft Technology Licensing, Llc Recording touch information

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488057A (zh) * 2014-09-17 2016-04-13 腾讯科技(深圳)有限公司 页面元素的处理方法及装置
CN105488057B (zh) * 2014-09-17 2020-04-03 腾讯科技(深圳)有限公司 页面元素的处理方法及装置
CN105159590A (zh) * 2015-08-27 2015-12-16 广东欧珀移动通信有限公司 一种控制用户终端的屏幕的方法及用户终端
US10613740B2 (en) 2015-08-27 2020-04-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for controlling screen of user terminal and user terminal
CN105224198A (zh) * 2015-09-09 2016-01-06 魅族科技(中国)有限公司 一种页面控制方法、页面控制装置及终端
WO2016184139A1 (zh) * 2015-10-26 2016-11-24 中兴通讯股份有限公司 一种界面滚动的控制方法和装置
CN106610775A (zh) * 2015-10-26 2017-05-03 中兴通讯股份有限公司 一种界面滚动的控制方法和装置
CN105426080B (zh) * 2015-11-26 2019-05-14 深圳市金立通信设备有限公司 一种图片切换方法及终端
CN105426080A (zh) * 2015-11-26 2016-03-23 深圳市金立通信设备有限公司 一种图片切换方法及终端
CN105511761A (zh) * 2015-11-27 2016-04-20 网易(杭州)网络有限公司 页面内容的显示方法与装置
CN105511761B (zh) * 2015-11-27 2019-02-19 网易(杭州)网络有限公司 页面内容的显示方法与装置
CN105975189A (zh) * 2016-04-29 2016-09-28 乐视控股(北京)有限公司 一种移动设备触屏滑动方法及系统
CN106028160A (zh) * 2016-06-03 2016-10-12 腾讯科技(深圳)有限公司 一种图像数据处理方法及其设备
CN107527186A (zh) * 2017-08-14 2017-12-29 广州阿里巴巴文学信息技术有限公司 电子阅读管理方法、装置和终端设备
CN107527186B (zh) * 2017-08-14 2021-11-26 阿里巴巴(中国)有限公司 电子阅读管理方法、装置和终端设备
CN109815367A (zh) * 2019-01-24 2019-05-28 北京字节跳动网络技术有限公司 展示页面的交互控制方法及装置
US11586345B2 (en) 2019-01-24 2023-02-21 Beijing Bytedance Network Technology Co., Ltd. Method and apparatus for interaction control of display page
CN111596831A (zh) * 2020-05-25 2020-08-28 李兆陵 一种基于触摸屏的快捷操作方法及装置、终端设备

Also Published As

Publication number Publication date
CN104813266A (zh) 2015-07-29
CA2891909A1 (en) 2014-05-22
WO2014075612A1 (zh) 2014-05-22
US20150293651A1 (en) 2015-10-15

Similar Documents

Publication Publication Date Title
CN103809875A (zh) 人机交互方法及界面
US10678351B2 (en) Devices and methods for providing an indication as to whether a message is typed or drawn on an electronic device with a touch-sensitive display
US10168827B2 (en) Sensor correlation for pen and touch-sensitive computing device interaction
KR102415851B1 (ko) 키보드 입력의 모호성 제거
EP2972669B1 (en) Depth-based user interface gesture control
EP3155502B1 (en) Multi-user sensor correlation for computing device interaction
US7849421B2 (en) Virtual mouse driving apparatus and method using two-handed gestures
EP2256614B1 (en) Display control apparatus, display control method, and computer program
JP4851821B2 (ja) 電子インクまたは手書きインターフェースを呼び出すためのシステム、方法およびコンピュータ読取り可能媒体
US20130181897A1 (en) Operation input apparatus, operation input method, and program
CN103324271B (zh) 一种基于手势的输入方法和电子设备
KR20120085783A (ko) 인간-컴퓨터의 상호작용을 위한 인터페이스 및 그 방법
EP1674976A3 (en) Improving touch screen accuracy
CN103218044B (zh) 一种基于物理回馈的触摸装置及其触摸处理方法
CN102023786A (zh) 一套人机交互方法及结构
CN104182079B (zh) 电子设备及位置指定方法
JP5374564B2 (ja) 描画装置、描画制御方法、及び描画制御プログラム
CN103823630A (zh) 一种虚拟鼠标
US11644973B2 (en) Multi-perspective input for computing devices
CN106484175A (zh) 电子设备的用户接口、输入的处理方法以及电子设备
KR20160071626A (ko) 인덱스 정보를 디스플레이하는 디지털 디바이스 및 그 제어 방법
KR101405344B1 (ko) 가상 터치 포인터를 이용한 화면 제어 방법 및 이를 수행하는 휴대용 단말기
CN105320424B (zh) 一种移动终端的控制方法及移动终端
Bial et al. A study of two-handed scrolling and selection on standard notebook computers
CN111566602A (zh) 具有改进的触摸界面的计算机设备及相应的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140521