CN103995638A - 数据处理设备、数据处理系统以及数据处理方法 - Google Patents
数据处理设备、数据处理系统以及数据处理方法 Download PDFInfo
- Publication number
- CN103995638A CN103995638A CN201310467689.4A CN201310467689A CN103995638A CN 103995638 A CN103995638 A CN 103995638A CN 201310467689 A CN201310467689 A CN 201310467689A CN 103995638 A CN103995638 A CN 103995638A
- Authority
- CN
- China
- Prior art keywords
- data
- focused
- browsing
- unit
- recognition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Abstract
提供了一种数据处理设备、数据处理系统以及数据处理方法。数据处理设备包括:显示控制单元,其控制由多个浏览对象数据项构成的浏览文档数据以被显示;获取位置信息的位置信息获取单元,该位置信息被指示单元指示并表示与该显示控制单元显示的浏览文档数据相对应的位置;方向识别单元,其根据指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及关注数据识别单元,其根据位置信息获取单元获取的位置信息以及方向识别单元识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
Description
技术领域
本发明涉及一种数据处理设备、数据处理系统以及数据处理方法。
背景技术
例如,日本专利No.4881457(专利文献1)公开了一种文档浏览系统。在该构造中,每个浏览者所属的组以及与各个浏览者相关的信息被记录下来。在浏览者的浏览路径被放大并显示时,浏览路径被放大并显示的位置被记录在浏览日志数据库中。根据时序在屏幕上的列表上以虚线绘制浏览路径,并对浏览路径进行分析。而且,例如,日本专利No.4347649(专利文献2)公开了一种内容浏览管理系统,其根据用于检测操作的装置所检测到的屏幕尺寸、滚动量(scrollamount)、布局信息来指定被显示的对象,并根据基于操作而计算出的浏览时间来指定和记录关注对象。并且,例如,JP-A-2010-282311公开了一种显示控制装置,其将以被指示的点为中心的预定半径的圆圈内包含的元素,作为指示对象。
[专利文献1]日本专利No.4881457
[专利文献2]日本专利No.4347649
[专利文献3]JP-A-2010-282311
发明内容
本发明的一个目的是提供一种数据处理设备,其能够根据指示单元的指示位置以及指示单元从浏览文档数据中的指示位置开始指示的方向,从构成浏览文档数据的多个浏览对象数据中识别出关注数据。
根据本发明的第一方面,提供了一种数据处理设备,包括:
显示控制单元,其控制浏览文档数据以被显示,该浏览文档数据由多个浏览对象数据项构成,该多个浏览对象数据项中的每个被布置在预定位置处;
位置信息获取单元,其获取位置信息,该位置信息被指示单元指示并表示与该显示控制单元显示的浏览文档数据相对应的位置;
方向识别单元,其根在据浏览文档数据被浏览时指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及
关注数据识别单元,其根据位置信息获取单元获取的位置信息以及方向识别单元识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
根据本发明的第二方面,提供了一种根据第一方面的数据处理设备,进一步包括:
区域识别单元,其根据位置信息获取单元获取的位置信息来识别出处于方向识别单元识别的方向上的浏览文档数据中的一个区域,
其中,关注数据识别单元在该多个浏览对象数据项中,从区域识别单元识别出的区域中所包括的浏览对象数据中识别出关注数据。
根据本发明的第三方面,提供了一种根据第一或第二方面的数据处理设备,
其中位置信息获取单元获取在显示浏览文档数据的显示屏幕中表示指示单元接触的位置的位置信息。
根据本发明的第四方面,提供了一种根据第一或第二方面的数据处理设备,进一步包括:
捕获单元,其捕获显示浏览文档数据的显示屏幕,
其中,位置信息获取单元根据捕获单元捕获的显示屏幕上的指示单元的图像来获取位置信息,以及
其中,方向识别单元根据捕获单元捕获的显示屏幕上的指示单元的图像来识别方向。
根据本发明的第五方面,提供了一种根据第一至第四方面之一的数据处理设备,进一步包括:
关注数据修改单元,其根据指示单元的指示,通过利用指示单元指示的位置处存在的浏览对象数据代替关注数据识别单元识别的关注数据作为关注数据,来修改关注数据。
根据本发明的第六方面,提供了一种根据第五方面的数据处理设备,进一步包括:
关注数据历史存储单元,其存储其中关注数据识别单元识别的关注数据以及关注数据修改单元修改的关注数据与对应于每个关注数据的指示位置相关联的历史,
其中,方向识别单元
从关注数据历史存储单元存储的关注数据与对应于关注数据的指示位置之间的位置关系,估计出指示该历史中的每个关注数据的方向,以及
根据每个估计出的方向,识别出从指示单元在所显示的浏览文档数据中的指示位置开始的指示单元指示的方向。
根据本发明的第七方面,提供了一种数据处理系统,包括:
文档存储装置,其存储由多个浏览对象数据项构成的浏览文档数据,该多个浏览对象数据项中的每个被布置在预定位置处;以及
数据处理设备,其处理文档存储装置中存储的浏览文档数据,
其中,数据处理设备包括:
显示控制单元,其控制文档存储装置中存储的浏览文档数据以被显示;
位置信息获取单元,其获取位置信息,该位置信息被指示单元指示并表示与该显示控制单元显示的浏览文档数据相对应的位置;
方向识别单元,其根据在浏览文档数据被浏览时指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及
关注数据识别单元,其根据位置信息获取单元获取的位置信息以及方向识别单元识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
根据本发明的第八方面,提供了一种数据处理方法,包括:
控制浏览文档数据以被显示,该浏览文档数据由多个浏览对象数据项构成,该多个浏览对象数据项中的每个被布置在预定位置处;
获取位置信息,该位置信息被指示单元指示并表示与通过控制步骤中的控制而显示的浏览文档数据相对应的位置;
根据在浏览文档数据被浏览时指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及
根据获取位置信息的步骤中获取的位置信息以及识别方向的步骤中识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
根据本发明的第一方面,可以提供一种数据处理设备,其能够根据指示单元的指示位置以及指示单元从浏览文档数据中的指示位置开始指示的方向,来从构成浏览文档数据的多个浏览对象数据中识别出关注数据。
根据本发明的第二方面,除了第一方面的效果之外,还可以提供一种数据处理设备,其能够从基于指示单元的指示位置和指示单元从指示位置开始指示的方向而限定的区域内所包含的浏览对象数据中识别出关注数据。
根据本发明的第三方面,除了第一或第二方面的效果之外,还可以提供一种数据处理设备,其能够获取显示屏幕中指示单元接触的位置作为指示位置。
根据本发明的第四方面,除了第一或第二方面的效果之外,还可以提供一种数据处理设备,其能够获取指示位置而无需指示单元与显示屏幕接触,并识别出指示单元指示的方向。
根据本发明的第五方面,除了第一至第四方面之一的效果之外,还可以提供一种数据处理设备,其在必要时将识别的关注数据修改为另一浏览对象数据。
根据本发明的第六方面,除了第五方面的效果之外,还可以提供一种数据处理设备,其从根据关注数据的历史和相应的指示位置估计出的方向,识别出指示单元从指示位置开始指示的方向。
根据本发明的第七方面,可以提供一种数据处理系统,其能够根据指示单元的指示位置以及指示单元从浏览文档数据中的指示位置开始指示的方向,从构成浏览文档数据的多个浏览对象数据中识别出关注数据。
根据本发明的第八方面,可以提供一种数据处理方法,其能够根据指示单元的指示位置以及指示单元从浏览文档数据中的指示位置开始指示的方向,从构成浏览文档数据的多个浏览对象数据中识别出关注数据。
附图说明
将根据下述附图详细描述本发明的示例性实施例,其中:
图1是图示出根据示例性实施例的数据处理系统的构造的示图;
图2是图示出图1所图示的数据处理设备的硬件构造的示图;
图3是例示出图1所图示的数据处理设备上显示的浏览文档数据的示图;
图4是例示出图1和图2所图示的数据处理设备上要被执行的第一程序的构造的示图;
图5A是例示出在图1所图示的数据处理设备的显示屏幕中利用右手指执行扫动动作的情况下手指的轨迹的示图;
图5B是例示出在图1所图示的数据处理设备的显示屏幕中利用左手指执行扫动动作的情况下手指的轨迹的示图;
图6A是例示出利用右手指执行敲击动作的情况下关注区域的示图;
图6B是例示出利用左手指执行敲击动作的情况下关注区域的示图;
图7A是例示出其中图4所示的关注数据识别单元识别出的关注数据所对应的方框被突出显示的显示屏幕的示图;
图7B是例示出其中被正在执行的双敲击动作所选择和修改的关注数据所对应的方框被突出显示的显示屏幕的示图;
图8是例示出图4所示的关注数据识别单元的关注数据识别处理的流程图;
图9是例示出其中在浏览文档数据的显示屏幕上利用右手指执行敲击动作的状态的示图;
图10是例示出其中在浏览文档数据的显示屏幕上利用左手指执行敲击动作的状态的示图;
图11是例示出其中在浏览文档数据的显示屏幕上利用右手指执行敲击动作的状态的示图;
图12是图示出图1所示的数据处理系统的动作示例的流程图;
图13是例示出将在图1和图2所示的数据处理设备上执行的第二程序的构造的示图;
图14是例示出图13所示的第二指示方向识别单元的指示方向识别处理的流程图;
图15A是例示出利用右手指执行拖曳动作的情况下一系列关注数据的突出显示的示图;以及
图15B是例示出利用左手指执行拖曳动作的情况下一系列关注数据的突出显示的示图。
具体实施方式
(第一示例性实施例)
下文将描述本发明的第一示例性实施例。
(数据处理系统)
图1是图示出实现本发明第一个示例性实施例所使用的数据处理系统1的构造的示图,数据处理系统1用于实现本发明的第一示例性实施例。
如图1所示,数据处理系统1由通过诸如局域网(LAN)之类的网络彼此连接的下述装置构成:诸如显示后面将要描述的用于浏览的文档数据(下文称为“浏览文档数据”)并根据浏览操作来对显示的浏览文档数据执行各种处理的平板终端之类的数据处理设备12、存储数据处理设备12下载的浏览文档数据的文档存储装置14、以及对通过利用数据处理设备12-1至12-n浏览文档而输出的历史信息进行存储的历史信息存储装置16。
数据处理系统1利用其构成组件,基于指示单元在所显示的浏览文档数据中指示的指示位置以及指示单元从指示位置开始指示的方向,从构成浏览文档数据的多个浏览对象数据项中识别出关注数据。数据处理系统1存储关注数据、关注数据被关注时的时刻等,作为历史信息。
例如,指示单元指的是用于操作平板终端的浏览者的手指、触碰笔、或激光指示器。
而且,关注数据指的是多个浏览对象数据项中被估计为将被浏览者利用指示单元关注的浏览对象数据。
此外,下文中,诸如数据处理设备12-1至12-n之类的多个构成组件中的任意一个可被简单地称为数据处理设备12。
而且,在每个附图中,相同的参考标记被附至基本相同的构成组件和处理。
(硬件构造)
图2是图示出图1所图示的数据处理设备12的硬件构造的示图。
如图2所示,数据处理设备12由如下部件构成:包括CPU122、存储器124等的主体120,诸如触摸屏之类的输入输出装置126,执行数据通信的通信装置128,以及向诸如硬盘(HD)、紧致盘(CD)、数字多功能盘(DVD)、软盘(FD)、非易失性存储器以及USB存储器之类的存储介质132写入数据并从中读取数据的记录装置130。
换言之,数据处理设备12具有作为可执行数据显示、诸如必要数据的识别之类的信息处理以及与另一设备进行数据通信的计算机的构成组件。
(浏览文档数据)
图3是例示了数据处理设备12(图1和2)上显示的浏览文档数据的示图。
下文中,将描述浏览文档数据。
例如,浏览文档数据指的是利用软件创建的电子文档以及通过扫描纸质文档以电脑化的电脑化文档。
如图3所示,例如,浏览文档数据由布置在预定位置处的虚线方框内存在的浏览对象数据项构成。
例如,浏览对象数据指的是诸如浏览文档的标题、作者名、句子、字符串、字符、图像、图形、表格等之类的内容(元素)。
例如,图3所示的浏览文档数据由九个内容(浏览对象数据项)构成,内容1指的是浏览文档的标题,内容2指的是浏览文档的作者名,内容3、4、6、7和9中的每个指的是具体句子,内容5和8中的每个指的是具体图像。
表示浏览对象数据在识别信息中所处的并且浏览文档数据被唯一地确定的位置的放置位置信息,被预先添加至每个浏览对象数据。
例如,放置位置信息包括与浏览对象数据相对应的方框的左上顶点以及右下顶点。
而且,如图3所示,在浏览方向上显示的浏览文档的左端被设置为0,横向上的x和纵向上的y处的位置被标记为坐标(x,y)。
例如,如图3所示,内容1的放置位置信息包括左上顶点(x1,y1)的位置和右下顶点(x2,y2)的位置。
此外,在当前的示例性实施例中,如上所述,虽然其中识别信息和放置位置信息被预先添加至每个浏览对象数据的情况被描述为具体示例,但是这并不是对其的限制,识别信息和放置位置信息可按照如下具体方式分配至每个浏览对象数据:其中数据处理设备12执行添加与浏览对象数据相对应的识别信息的处理和每次数据处理设备12下载浏览文档数据时提取放置位置信息的处理。
(第一数据处理程序)
图4是例示出图1和图2所图示的数据处理设备12上要被执行的第一程序20的构造的示图。
如图4所示,数据处理程序20由如下部件构成:文档数据获取单元200、浏览对象数据存储单元202、显示控制单元204、操作信息获取单元206、操作信息存储单元208、操作类型确定单元210、位置信息获取单元212、第一指示方向识别单元214、区域识别单元216、关注数据识别单元218、关注数据修改单元220和第一历史信息输出单元222。
例如,数据处理程序20通过存储介质132(图2)载入数据处理设备12的存储器124,并利用在数据处理设备12中运行的OS(未示出)上的数据处理设备12的硬件资源具体地执行数据处理程序20。
数据处理程序20在浏览文档数据中识别出指示单元指示的指示位置以及指示单元从指示位置开始指示的方向,根据识别出的方向从多个浏览对象数据项中识别出关注数据,并输出关注数据、关注数据被关注(即,被指示单元指示)时的时刻等作为历史信息。
此外,下文中,将描述其中指示单元是浏览者的手指的情况。
文档数据获取单元200获取文档存储装置14(图1)中存储的浏览文档数据(图3),并向显示控制单元204输出所获取的浏览文档数据。
而且,文档数据获取单元200向浏览对象数据存储单元202输出构成所获取的浏览文档数据的每个浏览对象数据。
浏览对象数据存储单元202以能被关注数据识别单元218和关注数据修改单元220参考的方式,存储从文档数据获取单元200输入的每个浏览对象数据。
显示控制单元204将从文档数据获取单元200输入的浏览文档数据控制为显示在输入输出装置126的输出装置上(图2)。
而且,显示控制单元204将从下面将要描述的关注数据识别单元218输入的关注数据控制为在输出装置上显示的浏览文档数据中突出显示(例如,关注数据所处的位置所对应的方框被显示为实线)。
而且,显示控制单元204接收下面将要描述的针对浏览对象数据的选择和修改动作,并将该选择并修改的浏览对象数据控制为被突出显示为关注数据。
只要利用指示单元在输入输出装置126(图2)的输出装置上显示的浏览文档数据上执行浏览操作,操作信息获取单元206就获取包括浏览操作的内容以及执行浏览操作的时刻在内的操作信息。
而且,操作信息获取单元206将获取的操作信息输出至操作信息存储单元208和操作类型确定单元210。
浏览操作的内容包括浏览操作的类型和浏览操作获取的位置信息。
例如,浏览操作的类型包括相对于输入输出装置126(图2)的扫动动作(页码移动)、划开动作(扩大)、合拢动作(缩小)、敲击动作(浏览对象数据的选择)和双敲击动作(浏览对象数据的选择和修改)。
例如,在扫动动作的情况下,位置信息包括扫动动作开始处的位置(坐标)、扫动动作结束处的位置(坐标)以及指示单元在扫动时的加速度,以及在敲击动作的情况下,位置信息包括敲击位置(坐标)。
浏览对象数据的选择并不限于选择处于浏览者敲击位置处的浏览对象数据的情况,而是包括选择处于从敲击位置指示的位置处的浏览对象数据的情况。
在下文将要描述的关注数据识别单元218识别的关注数据不同于被浏览者关注的浏览对象数据的情况下,浏览对象数据的选择和修改指的是处于浏览者双击的位置处的浏览对象数据被修改为关注数据。
操作信息存储单元208按照能够从浏览者对浏览文档数据的浏览开始至浏览终止被指示方向识别单元214参考的方式,存储从操作信息获取单元206输入的操作信息。
例如,浏览文档数据的浏览开始指的是被浏览者选择的浏览文档数据(即,被文档数据获取单元200获取的浏览文档数据)被显示控制单元204显示在显示屏幕上。浏览终止指的是显示浏览文档数据的屏幕关闭。
在浏览操作的类型指的是敲击动作的情况下,操作类型确定单元210确定从操作信息获取单元206输入的操作信息中包括的浏览操作的类型,并将操作信息输出至位置信息获取单元212。
而且,在确定浏览操作的类型是敲击动作时,操作类型确定单元210通知指示方向识别单元214以识别指示方向,这在下文将予以描述。
而且,在确定浏览操作的类型是双敲击动作时,操作类型确定单元210将操作信息输出至关注数据修改单元220。
位置信息获取单元212获取从操作类型确定单元210输入的操作信息中包含的位置信息(即,表示由指示单元敲击的位置的位置信息),并且将位置信息输出至区域识别单元216。
此外,下文中,指示单元敲击的位置被称为“指示位置”。
而且,位置信息获取单元212将操作信息输出至关注数据识别单元218。
第一指示方向识别单元214通过参考操作信息存储单元208中存储的操作信息识别出指示单元表示的从指示位置开始的方向(指示方向)。
具体地说,例如,如下文所要描述的那样,指示方向识别单元214识别出是左手指还是右手指执行浏览操作。当识别出右手指时,指示方向被识别为从指示位置开始的左上方向,而当识别出左手指时,指示方向被识别为从指示位置开始的右上方向。
图5A是例示出在数据处理设备12的显示屏幕(输入输出装置126(图2))中利用右手指执行扫动动作的情况下手指的轨迹的示图;图5B是例示出在数据处理设备12的显示屏幕中利用左手指执行扫动动作的情况下手指的轨迹的示图。
如图5A所示,其中手指在显示屏幕上从左下移动至右上或者从右上移动至左下的扫动动作主要由右手指执行。
而且,如图5B所示,其中手指在显示屏幕上从右下移动至左上或者从左上移动至右下的扫动动作主要由左手指执行。
根据上述趋势,指示方向识别单元214(图4)首先从操作信息存储单元208存储的操作信息中获取与邻近敲击动作执行的扫动动作相对应的操作信息。
接下来,指示方向识别单元214通过从所获取的操作信息的位置信息中包含的扫动动作的起始位置和结束位置识别出显示屏幕上手指移动的方向,并识别出是左手指还是右手指执行了该扫动动作,从而识别出指示方向。
而且,指示方向识别单元214将识别出的指示方向输出至区域识别单元216。
图6A是例示出利用右手指执行敲击动作的情况下包括由浏览者所选的浏览对象数据(关注数据)的浏览文档中的一个区域(下文中,称为“关注区域”)的示图,图6B是例示出利用左手指执行敲击动作的情况下包括关注数据的关注区域的示图。
区域识别单元216(图4)根据从位置信息获取单元212输入的位置信息所表示的位置,将指示方向识别单元214输入的指示方向上的预定范围识别为关注区域。
而且,区域识别单元216向关注数据识别单元218输出表示所识别的关注区域的位置的关注区域信息。
例如,如图6A所示,在利用右手指执行敲击动作的情况下,由于指示方向指的是左上方,所以预定范围指的是左上区域240,左上区域240是通过相对于显示屏幕在垂直方向和水平方向上将以指示位置为中心的预定半径的圆划分成四份而得到的。
而且,例如,如图6B所示,在利用左手指执行敲击动作的情况下,由于指示方向指的是右上方,所以预定范围指的是右上区域242,右上区域242是通过相对于显示屏幕在垂直方向和水平方向上将以指示位置为中心的预定半径的圆划分成四份而得到的。
而且,在当前的示例性实施例中,区域识别单元216将90度的扇形区域识别为关注区域,但是该区域的形状并不限于此。
关注数据识别单元218(图4)根据从位置信息获取单元212输入的操作信息、从区域识别单元216输入的关注区域信息以及存储在浏览对象数据存储单元202中的每个浏览对象数据识别出关注数据(下文将参考图8至11进行具体描述)。
而且,关注数据识别单元218将识别出的关注数据输出至显示控制单元204,并将识别出的关注数据和操作信息输出至第一历史信息输出单元222。
关注数据修改单元220获取与从操作类型确定单元210输入的双敲击动作(即,浏览对象数据的选择和修改)相对应的操作信息中包括的位置信息所表示的位置(双击位置)处的浏览对象数据。
具体地说,例如,关注数据修改单元220从浏览对象数据存储单元202中存储的每个浏览对象数据中获取其中双击位置被包括在放置位置信息所表示的范围内的浏览对象数据。
而且,关注数据修改单元220将所获取的浏览对象数据作为关注数据输出至第一历史信息输出单元222。
图7A是例示出其中关注数据识别单元218输入的关注数据所对应的方框被突出显示的显示屏幕的示图。
图7B是例示出其中被正在执行的双敲击动作所选择和修改的关注数据所对应的方框被突出显示的显示屏幕的示图。
如图7A所示,内容4被关注数据识别单元218识别为关注数据,但是如图7B所示,关注数据修改单元220通过利用双敲击动作选择内容3将关注数据从内容4修改为内容3。
第一历史信息输出单元222将从关注数据识别单元218输入的关注数据以及操作信息中包含的时刻作为历史信息输出至历史信息存储装置16(图1)。
而且,在从关注数据修改单元220输入关注数据时,历史信息输出单元222将历史信息(其中,从关注数据识别单元218输入的关注数据被从关注数据修改单元220输入的关注数据代替)输出至历史信息存储装置16。
而且,虽然指示方向识别单元214在当前示例性实施例中识别出是左手指还是右手指执行了扫动动作,但是指示方向识别单元214可通过识别出是左手指还是右手指执行了划开动作和合拢动作来识别出指示方向。
例如,在显示屏幕中,当在从起始位置开始的右上方向和左下方向上表示了划开动作的终止位置时,往往是利用右手指执行的。当在从起始位置开始的左上方向和右下方向上表示了划开动作的终止位置时,往往是利用左手指执行的。
指示方向识别单元214可根据划开动作中的这种趋势识别出指示方向。
而且,虽然在当前示例性实施例中,指示方向识别单元214根据与邻近敲击动作执行的扫动动作相对应的操作信息来识别出指示方向,但是指示方向识别单元214可根据与敲击动作之前执行的预定数量的扫动动作相对应的多个操作信息来识别出指示方向。
例如,指示方向识别单元214可通过从多个操作信息识别出是左手指还是右手指执行了每个扫动动作(当识别出右手指的次数大于识别出左手指的次数时识别扫动动作是利用右手指执行的,而在相反情况下识别扫动动作是利用左手指执行的),来识别出指示方向。
(关注数据识别处理)
图8是例示出图4所示的关注数据识别单元218的关注数据识别处理的流程图。
下文中,将进一步描述关注数据识别单元218的关注数据识别处理。
在步骤260(S260),关注数据识别单元218获取从位置信息获取单元212输入的操作信息中包含的位置信息所表示的位置(指示位置)。
在步骤262(S262),关注数据识别单元218获取从区域识别单元216输入的关注区域信息。
在步骤264(S264),关注数据识别单元218从浏览对象数据存储单元202(图4)中存储的浏览对象数据中,获取处于在S262获取的关注区域信息所表示的关注区域内的但是不处于在S260获取的指示位置处的浏览对象数据。
具体地说,例如,关注数据识别单元218获取这样的浏览对象数据,其中由放置位置信息表示的范围的至少一部分包含在关注区域内并且指示位置不包含在放置位置信息表示的范围内。
图9是例示出其中在浏览文档数据的显示屏幕上利用右手指执行敲击动作的状态的示图。
图10是例示出其中在浏览文档数据的显示屏幕上利用左手指执行敲击动作的状态的示图。
例如,如图9所示,关注数据识别单元218获取出现在由在S262获取的关注区域信息所表示的关注区域290内的内容(浏览对象数据)2、3、4。
而且,例如,如图10所示,关注数据识别单元218获取出现在由在S262获取的关注区域信息所表示的关注区域292内的内容(浏览对象数据)2、3、4、5。
在步骤266(S266;图8),关注数据识别单元218计算从在S260获取的指示位置至S264获取的每个浏览对象数据的距离。
例如,从指示位置至浏览对象数据的距离指的是从指示位置至其中存在通过浏览对象数据的放置位置信息获取的浏览对象数据的方框(图3)的边界的最短直线距离。
在步骤268(S268),关注数据识别单元218从其中在S266计算了其与指示位置的距离的浏览对象数据项中获取具有最小距离的浏览对象数据。
例如,如图9所示,关注数据识别单元218从在S264获取的内容2、3、4中获取与指示位置具有最小距离的内容4。
而且,例如,如图10所示,关注数据识别单元218从在S264获取的内容2、3、4、5中获取与指示位置具有最小距离的内容5。
在步骤270(S270;图8),关注数据识别单元218确定在S268获取的从指示位置至浏览对象数据的距离是否等于或小于预定距离。
当该距离等于或小于预定距离时,关注数据识别单元218进入S272的处理,但是在另一情况下,处理进入S274的处理。
在步骤272(S272),关注数据识别单元218将在S268获取的浏览对象数据识别为关注数据,并终止处理。
在步骤274(S274),关注数据识别单元218确定在浏览对象数据存储单元202(图4)中存储的浏览对象数据项中是否存在在S260获取的指示位置处的浏览对象数据。
在存在指示位置处的浏览对象数据时,关注数据识别单元218进入S276的处理,但是在相反情况下,处理进入S278的处理。
在步骤276(S276),关注数据识别单元218将指示位置处的浏览对象数据识别为关注数据,并终止处理。
图11是例示出其中在浏览文档数据的显示屏幕上利用右手指执行敲击动作的状态的示图。
例如,当在S268获取的从指示位置至浏览对象数据的距离指的是图9所示的距离(从指示位置至内容4的距离)时,内容4被识别为关注数据。
另一方面,当在S268获取的从指示位置至浏览对象数据的距离指的是图11所示的距离(从指示位置至内容4的距离)时,由于该距离大于预定距离,所以指示位置处存在的内容6被识别为关注数据。
在步骤278(S278;图8),关注数据识别单元218确定不存在与指示位置相对应的关注数据,并终止处理。
此外,在当前示例性实施例中,在S270确定最小距离是否等于或小于预定距离,但是,可以不考虑该距离而将与指示位置相距最小距离内的浏览对象数据识别为关注数据。
(数据处理系统1的动作示例)
图12是图示出数据处理系统1的动作示例的流程图(图1)。
下文中,将进一步描述数据处理系统1的动作示例。
在步骤300(S300),数据处理设备12从文档存储装置14获取浏览文档数据,并显示浏览文档数据(文档数据获取单元200和显示控制单元204(图4))。
在步骤302(S302),数据处理设备12确定是否对在S300图示的浏览文档数据执行浏览操作。
在确定执行浏览操作时,数据处理设备12进入S304的处理,但是在相反情况下,处理保持在S302。
在步骤304(S304),数据处理设备12获取与在S300显示的浏览文档数据有关的操作信息(操作信息获取单元206(图4))。
在步骤306(S306),数据处理设备12确定在S304获取的操作信息是否指的是敲击动作(即,指示单元的位置指示动作)(操作类型确定单元210(图4))。
在确定操作信息指的是敲击动作时,数据处理设备12进入S26的处理(图8),但是在相反情况下,处理进入S308的处理。
在步骤308(S308),数据处理设备12确定在S304获取的操作信息是否指的是浏览终止操作。
在确定了操作信息指的是浏览终止操作时,数据处理设备12终止处理,但是在相反情况下,处理进入S302的处理。
在步骤310(S310),数据处理设备12使得在S26识别的关注数据突出显示(显示控制单元204(图4))。
在步骤312(S312),数据处理设备12确定是否执行了双敲击动作(即,浏览对象数据的选择和修改动作)(操作信息获取单元206和操作类型确定单元210(图4))。
在确定执行了双敲击动作时,数据处理设备12进入S314的处理,但是在相反情况下,处理进入S316的处理。
在步骤314(S314),数据处理设备12将在S26获取的关注数据修改为处在与双敲击动作相对应的操作信息中包含的位置信息所表示的位置处的浏览对象数据(关注数据修改单元220(图4))。
在步骤316(S316),数据处理设备12将关注数据以及S304获取的操作信息中包含的时刻作为历史信息输出至历史信息存储装置16,并返回至S302的处理(历史信息输出单元222(图4))。
(第二示例性实施例)
下文中,将描述本发明的第二示例性实施例。
在本发明的第二示例性实施例中,根据在本发明的第一示例性实施例中识别的关注数据与相应的指示位置相关联的历史来识别指示方向。
(第二数据处理程序40)
图13是例示出在第二示例性实施例中将在图1和图2所示的数据处理设备12上执行的第二数据处理程序40的构造的示图。
如图13所示,第二数据处理程序40具有这样的构造,其中关注数据历史存储单元402被添加至第一数据处理程序20的构造(图4),第一数据处理程序20的第一指示方向识别单元214被第二指示方向识别单元404替代,并且第一历史信息输出单元222被第二历史信息输出单元400替代。
第二数据处理程序40根据其中识别出的关注数据和相应的指示位置关联的历史来识别指示方向,根据识别出的指示方向从多个浏览对象数据识别出关注数据,并将关注数据、关注数据被关注的时刻等输出为历史信息。
第二历史信息输出单元400将从关注数据识别单元218输入的关注数据以及操作信息中包含的时刻作为历史信息输出至历史信息存储装置16(图1)。
而且,当从关注数据修改单元220输入关注数据时,历史信息输出单元400向历史信息存储装置16输出如下历史信息:其中从关注数据识别单元218输入的关注数据被从关注数据修改单元220输入的关注数据替代。
而且,历史信息输出单元400将从关注数据识别单元218输入的关注数据或者包括被关注数据修改单元220修改的关注数据以及从关注数据识别单元218输入的操作信息中包括的位置信息(即,表示指示位置的位置信息)在内的关注数据信息作为关注数据历史输出至关注数据历史存储单元402。
关注数据历史存储单元402按照能够被第二指示方向识别单元404参考的方式存储从历史信息输出单元400输入的关注数据历史。
只有当在关注数据历史存储单元402中存储了预定数量的关注数据信息时,第二指示方向识别单元404才通过与第一示例性实施例中的第一指示方向识别单元214的处理相同的处理,根据操作信息存储单元208存储的操作信息来确定指示方向。
而且,在存储了预定数量的关注数据信息之后,指示方向识别单元404根据关注数据历史存储单元402所存储的关注数据历史识别出指示方向(将参考图14进行详细描述)。
(指示方向识别处理)
图14是例示出图13所示的指示方向识别单元404的指示方向识别处理的流程图。
下文中,将描述指示方向识别单元404的指示方向识别处理。
在步骤420(S420),指示方向识别单元404将指示方向被估计为左上方向的次数(左上方向的次数)以及指示方向被估计为右上方向的次数(右上方向的次数)进行初始化(例如,次数为0)。
在步骤422(S422),指示方向识别单元404从关注数据历史获取关注数据信息。
在步骤424(S424),指示方向识别单元404从在S422获取的关注数据信息估计出指示方向。
具体地说,例如,当关注数据信息中包含的关注数据存在于通过相对于显示屏幕在垂直方向和水平方向上将以关注数据信息中包含的指示位置为中心的圆划分成四份而得到的左上区域中时,指示方向识别单元404将指示方向估计为左上方向。
而且,例如,当关注数据存在于通过相对于显示屏幕在垂直方向和水平方向上将以该指示位置为中心的圆划分成四份而得到的右上区域时,指示方向识别单元404将指示方向估计为右上方向。
在步骤426(S426),指示方向识别单元404确定在S424估计出的指示方向是否是左上方向。
当确定指示方向是左上方向时,指示方向识别单元404进入S428的处理,但是在相反情况下,处理进入S430的处理。
在步骤428(S428),指示方向识别单元404将左上方向中的次数增多一次。
在步骤430(S430),指示方向识别单元404将右上方向中的次数增多一次。
在步骤432(S432),指示方向识别单元404确定是否针对关注数据历史的所有关注数据信息估计了指示方向。
在针对所有关注数据信息完成了指示方向的估计时,指示方向识别单元404进入S434的处理,但是在相反情况下,处理进入S422的处理。
在步骤434(S434),指示方向识别单元404确定左上方向中的次数是否等于或大于右上方向中的次数。
当左上方向中的次数等于或大于右上方向中的次数时,指示方向识别单元404进入S436的处理,但是在相反情况下,处理进入S438的处理。
在步骤436(S436),指示方向识别单元404将指示方向识别为左上方向,并结束处理。
在步骤438(S438),指示方向识别单元404将指示方向识别为右上方向,并结束处理。
而且,虽然在当前示例性实施例中关注数据历史存储单元402(图13)存储了针对从浏览开始时刻至当前时刻的浏览文档数据的关注数据信息,作为到浏览结束为止的关注数据历史,但是关注数据历史存储单元402可存储针对每个浏览者的既往浏览中的多个浏览文档数据的所有关注数据信息,作为关注数据历史。
在该情况下,关注数据历史存储单元402针对每个浏览者与浏览者的关注数据历史相关联地存储用于识别浏览者的识别信息(例如,对数据处理设备12(图1)的登录ID)。
(修改示例1)
在本发明的示例性实施例中,关注数据识别单元218(图4和图13)通过利用指示单元的敲击动作来识别关注数据,但是,例如当浏览对象数据的单位是字符时,通过利用指示单元在浏览文档数据的显示屏幕上的拖曳动作,多个相邻字符可被识别为一系列关注数据。
图15A是例示出利用右手指(指示单元)执行拖曳动作的情况下一系列关注数据的突出显示的示图;以及图15B是例示出利用左手指执行拖曳动作的情况下一系列关注数据的突出显示的示图。
在利用右手指从起始位置至结束位置执行拖曳动作的情况下,如图15A所示,关注数据识别单元218(图4和图13)将作为浏览对象数据的“do”、“k”、“yu”、“me”、“n”、“to”中的每一个字符识别为一系列关注数据。
在利用左手指从起始位置至结束位置执行拖曳动作的情况下,如图15B所示,关注数据识别单元218(图4和图13)将作为浏览对象数据的“k”、“yu”、“me”、“n”、“to”、“ga”中的每一个字符,识别为一系列关注数据。
(修改示例2)
在本发明的示例性实施例中,虽然区域识别单元216(图4和图13)将通过相对于显示屏幕在垂直方向和水平方向上将以指示位置为中心的预定半径的圆划分成四份而得到的左上区域240(图6A)或右上区域242(图6B)识别为关注区域,但是可利用关注数据信息的历史来校正关注区域,从而关注数据识别单元218可识别与浏览者的意图更匹配的关注数据。
例如,区域识别单元216根据关注数据信息的历史中包括的被关注数据修改单元220(图4)修改的关注数据的放置位置与对应于校正后的关注数据的指示位置之间的位置关系(例如,放置位置所表示的范围的中心相距指示位置的程度)来校正关注区域。
具体地说,例如,区域识别单元216求取由放置位置所表示的范围的中心相距各个关注数据信息项的指示位置的程度的平均,并识别出以平均程度为中心的预定程度的扇形的区域。
此外,区域识别单元216针对上述每个浏览者来校正关注区域,并且还可以校正每个浏览文档数据项的关注区域。
(修改示例3)
在本发明的示例性实施例中,位置信息获取单元212(图4和图13)通过利用指示单元对显示屏幕的敲击动作来获取位置信息,指示方向识别单元214(图4)根据操作信息来识别指示方向,并且指示方向识别单元404(图13)根据操作信息或关注数据历史来识别指示方向。
另一方面,作为本发明的示例性实施例的修改示例,在数据处理设备12(图1)中包含了能够捕获浏览文档数据的显示屏幕的摄像头的情况下,无需指示单元与显示屏幕接触,位置信息获取单元212就可以从由摄像头捕获的显示屏幕上的指示单元的位置来获取位置信息。
此外,第一指示方向识别单元214(图4)和第二指示方向识别单元404(图13)可根据由摄像头捕获的显示屏幕上的指示单元的方向来识别指示方向,而不使用操作信息或关注数据历史。
已经出于示例和解释的目的提供了对本发明示例性实施例的上述描述。并非旨在穷尽本发明或将本发明限制为所公开的精确形式。显然,对于本领域技术人员来说,多种改型和变形是显而易见的。实施例被选择并被描述来最好地解释本发明的原理及其应用,从而使得本领域技术人员能够利用适于具体应用的各种改型来理解针对各种实施例的本发明。本发明的范围由权利要求及其等价形式所限定。
Claims (8)
1.一种数据处理设备,包括:
显示控制单元,其控制浏览文档数据以被显示,该浏览文档数据由多个浏览对象数据项构成,该多个浏览对象数据项中的每个被布置在预定位置处;
位置信息获取单元,其获取位置信息,该位置信息被指示单元指示并表示与该显示控制单元显示的浏览文档数据相对应的位置;
方向识别单元,其根据在浏览文档数据被浏览时指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及
关注数据识别单元,其根据所述位置信息获取单元获取的位置信息以及所述方向识别单元识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
2.根据权利要求1所述的数据处理设备,进一步包括:
区域识别单元,其根据所述位置信息获取单元获取的位置信息来识别出处于所述方向识别单元识别的方向上的浏览文档数据中的一个区域,
其中,所述关注数据识别单元在该多个浏览对象数据项中,从所述区域识别单元识别出的区域中所包括的浏览对象数据中识别出关注数据。
3.根据权利要求1或2所述的数据处理设备,
其中所述位置信息获取单元获取在显示浏览文档数据的显示屏幕中表示指示单元接触的位置的位置信息。
4.根据权利要求1或2所述的数据处理设备,进一步包括:
捕获单元,其捕获显示浏览文档数据的显示屏幕,
其中,所述位置信息获取单元根据所述捕获单元捕获的显示屏幕上的指示单元的图像来获取位置信息,以及
其中,所述方向识别单元根据所述捕获单元捕获的显示屏幕上的指示单元的图像来识别方向。
5.根据权利要求1至4之一所述的数据处理设备,进一步包括:
关注数据修改单元,其根据指示单元的指示,通过利用指示单元指示的位置处存在的浏览对象数据代替所述关注数据识别单元识别的关注数据作为关注数据,来修改关注数据。
6.根据权利要求5所述的数据处理设备,进一步包括:
关注数据历史存储单元,其存储其中所述关注数据识别单元识别的关注数据以及所述关注数据修改单元修改的关注数据与对应于每个关注数据的指示位置相关联的历史,
其中,所述方向识别单元
从所述关注数据历史存储单元存储的关注数据与对应于关注数据的指示位置之间的位置关系,估计出指示该历史中的每个关注数据的方向,以及
根据每个估计出的方向,识别出从指示单元在所显示的浏览文档数据中的指示位置开始的由指示单元指示的方向。
7.一种数据处理系统,包括:
文档存储装置,其存储由多个浏览对象数据项构成的浏览文档数据,该多个浏览对象数据项中的每个被布置在预定位置处;以及
数据处理设备,其处理所述文档存储装置中存储的浏览文档数据,
其中,所述数据处理设备包括:
显示控制单元,其控制所述文档存储装置中存储的浏览文档数据以被显示;
位置信息获取单元,其获取位置信息,该位置信息被指示单元指示并表示与该显示控制单元显示的浏览文档数据相对应的位置;
方向识别单元,其根据在浏览文档数据被浏览时指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及
关注数据识别单元,其根据所述位置信息获取单元获取的位置信息以及所述方向识别单元识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
8.一种数据处理方法,包括:
控制浏览文档数据以被显示,该浏览文档数据由多个浏览对象数据项构成,该多个浏览对象数据项中的每个被布置在预定位置处;
获取位置信息,该位置信息被指示单元指示并表示与通过控制步骤中的控制而显示的浏览文档数据相对应的位置;
根据在浏览文档数据被浏览时指示单元的运动历史来识别指示单元从被指示位置开始指示的方向;以及
根据在获取位置信息的步骤中获取的位置信息以及在识别方向的步骤中识别的方向,从该多个浏览对象数据项中识别出表示被关注的浏览对象数据的关注数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-031322 | 2013-02-20 | ||
JP2013031322A JP5991538B2 (ja) | 2013-02-20 | 2013-02-20 | データ処理装置、データ処理システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103995638A true CN103995638A (zh) | 2014-08-20 |
Family
ID=51309823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310467689.4A Pending CN103995638A (zh) | 2013-02-20 | 2013-10-09 | 数据处理设备、数据处理系统以及数据处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9619101B2 (zh) |
JP (1) | JP5991538B2 (zh) |
CN (1) | CN103995638A (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6662082B2 (ja) * | 2016-02-17 | 2020-03-11 | カシオ計算機株式会社 | 出力装置、出力方法及びプログラム |
JP6728863B2 (ja) * | 2016-03-25 | 2020-07-22 | 富士ゼロックス株式会社 | 情報処理システム |
CN107862217B (zh) * | 2017-10-31 | 2021-09-07 | 努比亚技术有限公司 | 一种位置信息获取方法、移动终端以及计算机存储介质 |
JP7404943B2 (ja) * | 2020-03-10 | 2023-12-26 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1525355A (zh) * | 2003-02-21 | 2004-09-01 | ������������ʽ���� | 图像处理方法与图像处理系统 |
CN1604071A (zh) * | 2003-09-29 | 2005-04-06 | 施乐公司 | 成像系统形成用户界面以供用户处理所显示文档的方法 |
CN101271450A (zh) * | 2007-03-19 | 2008-09-24 | 株式会社东芝 | 裁剪语言模型的方法及装置 |
US20100169766A1 (en) * | 2008-12-31 | 2010-07-01 | Matias Duarte | Computing Device and Method for Selecting Display Regions Responsive to Non-Discrete Directional Input Actions and Intelligent Content Analysis |
US20110057907A1 (en) * | 2009-09-10 | 2011-03-10 | Samsung Electronics Co., Ltd. | Apparatus and method for determining user input pattern in portable terminal |
US20110083089A1 (en) * | 2009-10-01 | 2011-04-07 | Microsoft Corporation | Monitoring pointer trajectory and modifying display interface |
CN102375665A (zh) * | 2010-08-20 | 2012-03-14 | 中国移动通信集团公司 | 一种图标移动方法和装置 |
WO2012102159A1 (ja) * | 2011-01-27 | 2012-08-02 | シャープ株式会社 | 文字入力装置および文字入力方法 |
JP2012185323A (ja) * | 2011-03-04 | 2012-09-27 | Sharp Corp | 再生装置、再生方法、プログラムおよび記録媒体 |
CN102737224A (zh) * | 2011-04-15 | 2012-10-17 | 株式会社富士通商务系统 | 收据数据识别装置及其方法 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3511462B2 (ja) * | 1998-01-29 | 2004-03-29 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 操作画像表示装置およびその方法 |
US6643824B1 (en) * | 1999-01-15 | 2003-11-04 | International Business Machines Corporation | Touch screen region assist for hypertext links |
GB2348520B (en) * | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
JP2001265481A (ja) * | 2000-03-21 | 2001-09-28 | Nec Corp | ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体 |
GB2364226A (en) * | 2000-06-30 | 2002-01-16 | Nokia Corp | Method of selecting an object by controlling an on screen pointer |
US7240299B2 (en) * | 2001-04-26 | 2007-07-03 | International Business Machines Corporation | Method for improving usage of a graphic user interface pointing device |
US7134089B2 (en) * | 2002-11-13 | 2006-11-07 | Microsoft Corporation | Directional focus navigation |
WO2007022079A2 (en) * | 2005-08-11 | 2007-02-22 | Lane David M | System and method for the anticipation and execution of icon selection in graphical user interfaces |
US7777728B2 (en) * | 2006-03-17 | 2010-08-17 | Nokia Corporation | Mobile communication terminal |
US7889185B2 (en) * | 2007-01-05 | 2011-02-15 | Apple Inc. | Method, system, and graphical user interface for activating hyperlinks |
KR20090024541A (ko) * | 2007-09-04 | 2009-03-09 | 삼성전자주식회사 | 하이퍼링크 선택 방법 및 이를 이용하는 이동통신 단말기 |
WO2010029415A2 (en) * | 2008-09-10 | 2010-03-18 | Opera Software Asa | Method and apparatus for providing finger touch layers in a user agent |
TWI478038B (zh) * | 2008-09-24 | 2015-03-21 | Htc Corp | 輸入習慣判定及介面提供系統及方法,及其機器可讀取媒體 |
JP5589309B2 (ja) | 2009-06-03 | 2014-09-17 | 富士ゼロックス株式会社 | 表示制御装置、画像処理装置、及びプログラム |
EP2438504A1 (en) * | 2009-06-05 | 2012-04-11 | Dassault Systemes SolidWorks Corporation | Predictive target enlargement |
JP5201096B2 (ja) * | 2009-07-17 | 2013-06-05 | 大日本印刷株式会社 | 対話操作装置 |
JP5370144B2 (ja) * | 2009-12-28 | 2013-12-18 | ソニー株式会社 | 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム |
US8621395B2 (en) * | 2010-07-19 | 2013-12-31 | Google Inc. | Predictive hover triggering |
RU2587416C2 (ru) * | 2010-08-16 | 2016-06-20 | Конинклейке Филипс Электроникс Н.В. | Выделение объектов на устройстве отображения |
US9354804B2 (en) * | 2010-12-29 | 2016-05-31 | Microsoft Technology Licensing, Llc | Touch event anticipation in a computing device |
US8438473B2 (en) * | 2011-01-05 | 2013-05-07 | Research In Motion Limited | Handling of touch events in a browser environment |
KR20120082102A (ko) * | 2011-01-13 | 2012-07-23 | 삼성전자주식회사 | 터치 영역에서 타깃 선택 방법 |
JP5654932B2 (ja) * | 2011-04-01 | 2015-01-14 | 株式会社Nttドコモ | ユーザインタフェース装置、表示装置による操作受付方法及びプログラム |
KR101824388B1 (ko) * | 2011-06-10 | 2018-02-01 | 삼성전자주식회사 | 사용자의 신체특성을 고려한 동적 사용자 인터페이스 제공 장치 및 방법 |
JP5588931B2 (ja) * | 2011-06-29 | 2014-09-10 | 株式会社Nttドコモ | 移動情報端末、配置領域取得方法、プログラム |
US20130047100A1 (en) * | 2011-08-17 | 2013-02-21 | Google Inc. | Link Disambiguation For Touch Screens |
US10684768B2 (en) * | 2011-10-14 | 2020-06-16 | Autodesk, Inc. | Enhanced target selection for a touch-based input enabled user interface |
US20130125066A1 (en) * | 2011-11-14 | 2013-05-16 | Microsoft Corporation | Adaptive Area Cursor |
US8665238B1 (en) * | 2012-09-21 | 2014-03-04 | Google Inc. | Determining a dominant hand of a user of a computing device |
US9575653B2 (en) * | 2013-01-15 | 2017-02-21 | Blackberry Limited | Enhanced display of interactive elements in a browser |
JP2014203288A (ja) * | 2013-04-05 | 2014-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2013
- 2013-02-20 JP JP2013031322A patent/JP5991538B2/ja not_active Expired - Fee Related
- 2013-08-23 US US13/974,644 patent/US9619101B2/en active Active
- 2013-10-09 CN CN201310467689.4A patent/CN103995638A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1525355A (zh) * | 2003-02-21 | 2004-09-01 | ������������ʽ���� | 图像处理方法与图像处理系统 |
CN1604071A (zh) * | 2003-09-29 | 2005-04-06 | 施乐公司 | 成像系统形成用户界面以供用户处理所显示文档的方法 |
CN101271450A (zh) * | 2007-03-19 | 2008-09-24 | 株式会社东芝 | 裁剪语言模型的方法及装置 |
US20100169766A1 (en) * | 2008-12-31 | 2010-07-01 | Matias Duarte | Computing Device and Method for Selecting Display Regions Responsive to Non-Discrete Directional Input Actions and Intelligent Content Analysis |
US20110057907A1 (en) * | 2009-09-10 | 2011-03-10 | Samsung Electronics Co., Ltd. | Apparatus and method for determining user input pattern in portable terminal |
US20110083089A1 (en) * | 2009-10-01 | 2011-04-07 | Microsoft Corporation | Monitoring pointer trajectory and modifying display interface |
CN102375665A (zh) * | 2010-08-20 | 2012-03-14 | 中国移动通信集团公司 | 一种图标移动方法和装置 |
WO2012102159A1 (ja) * | 2011-01-27 | 2012-08-02 | シャープ株式会社 | 文字入力装置および文字入力方法 |
JP2012185323A (ja) * | 2011-03-04 | 2012-09-27 | Sharp Corp | 再生装置、再生方法、プログラムおよび記録媒体 |
CN102737224A (zh) * | 2011-04-15 | 2012-10-17 | 株式会社富士通商务系统 | 收据数据识别装置及其方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5991538B2 (ja) | 2016-09-14 |
US20140237423A1 (en) | 2014-08-21 |
US9619101B2 (en) | 2017-04-11 |
JP2014160413A (ja) | 2014-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101825154B1 (ko) | 중첩 쓰기 핸드라이팅 입력방법 | |
US20150154442A1 (en) | Handwriting drawing apparatus and method | |
CN111124888B (zh) | 录制脚本的生成方法和装置及电子装置 | |
CN103562822A (zh) | 信息处理设备、信息处理方法以及记录介质 | |
CN102947783A (zh) | 多点触控标记菜单和有方向性的和弦手势 | |
CN102693334B (zh) | 基于cad电子图纸的动态构件识别方法 | |
CN105631393A (zh) | 信息识别方法及装置 | |
CN103562821A (zh) | 信息处理装置、信息处理方法和记录介质 | |
CN103389873A (zh) | 电子装置和手写文档显示方法 | |
CN103995638A (zh) | 数据处理设备、数据处理系统以及数据处理方法 | |
US20150169134A1 (en) | Methods circuits apparatuses systems and associated computer executable code for providing projection based human machine interfaces | |
CN114327064A (zh) | 一种基于手势控制的标绘方法、系统、设备及存储介质 | |
CN108369486B (zh) | 通用涂墨支持 | |
US20160342831A1 (en) | Apparatus and method for neck and shoulder landmark detection | |
CN103809954A (zh) | 实现界面元素选定的方法和装置 | |
CN105242920A (zh) | 一种截图系统、截图方法以及电子设备 | |
CN115373534A (zh) | 书写笔迹的呈现方法、装置、交互平板及存储介质 | |
US20180189248A1 (en) | Automated data extraction from a chart | |
CN108446693A (zh) | 待识别目标的便捷标记方法、系统、设备及存储介质 | |
CN104199602A (zh) | 一种信息处理方法及电子设备 | |
JP6201838B2 (ja) | 情報処理装置及び情報処理プログラム | |
US10372297B2 (en) | Image control method and device | |
CN107015733B (zh) | 选项信息呈现系统及方法 | |
CN104238915A (zh) | 一种触控方法、装置及终端 | |
JP5666011B1 (ja) | 方法及び電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140820 |
|
RJ01 | Rejection of invention patent application after publication |