CN105190515A - 输入装置以及输入程序 - Google Patents

输入装置以及输入程序 Download PDF

Info

Publication number
CN105190515A
CN105190515A CN201380076326.6A CN201380076326A CN105190515A CN 105190515 A CN105190515 A CN 105190515A CN 201380076326 A CN201380076326 A CN 201380076326A CN 105190515 A CN105190515 A CN 105190515A
Authority
CN
China
Prior art keywords
eye position
cursor
input media
display control
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380076326.6A
Other languages
English (en)
Inventor
田口哲典
清水雅芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of CN105190515A publication Critical patent/CN105190515A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本实施例的输入装置(100)的视线位置检测部(171)检测触摸屏(130)上的视线位置。输入装置(100)的显示控制部(173)对当前的光标位置与视线位置进行比较。并且,直到当前的光标位置与视线位置的距离是阈值以上为止,输入装置(100)的显示控制部(173)固定光标位置。

Description

输入装置以及输入程序
技术领域
本发明涉及输入装置等。
背景技术
作为使画面上的光标位置移动的方法,除了键盘或鼠标等之外,还有视线输入、倾斜输入等。其中,视线输入与用鼠标使光标移动的情况或与倾斜输入相比较,能够更快地使光标向远的位置移动。
这里,由于在视线输入中视线的位置会发生摇晃,所以在细微位置的指定上,比用鼠标使光标移动的情况难。
因此,考虑将如下两种方法进行组合,一种方法是尽管在粗略位置的指定上与其他方法相比是有利的,但在细微位置的指定上与其他方法相比是不利的,另一种方法是尽管在粗略位置的指定上与其他方法相比是不利的,但在细微位置的指定上与其他方法相比是有利的。例如,粗略位置的指定考虑用视线输入来进行,细微位置的指定考虑用鼠标或键盘来进行。
现有技术文献
专利文献
专利文献1:日本特开2009-64395号公报
专利文献2:日本特开2009-251658号公报
专利文献3:日本特开2007-121489号公报
专利文献4:日本特开平11-95910号公报
发明内容
发明要解决的课题
然而,在上述的以往技术中,存在指定用户意愿之外的位置的问题。
例如,对通过视线输入进行粗略位置的指定、通过鼠标进行细微位置的指定的情况进行说明。在视线输入中,只要用户不进行特别的操作,始终会被判定为进行了指定位置的指示。因此,在组合了位置指定的多个方法的情况下,当在通过别的方法指定了细微位置之后切换为视线输入等方法时,有时即使没有想使通过别的方法所指定的位置移动的意愿,也会使其向别的位置移动。
本发明的一个方面的目的是提供一种能够防止指定用户意愿之外的位置的输入装置以及输入程序。
用于解决课题的手段
在第一方案中,输入装置具有视线位置检测部和显示控制部。视线位置检测部检测画面上的视线位置。显示控制部对当前的指定位置与视线位置检测部检测出的视线位置进行比较,直到指定位置与所述视线位置的距离是阈值以上为止,将光标位置固定在所述指定位置。
发明效果
根据本发明的一个实施方式,获得能够防止指定用户意愿之外位置这样的效果。
附图说明
图1是示出了本实施例1的输入装置的结构的图。
图2是用于说明本实施例1的显示控制部的处理的图。
图3是示出了本实施例1的输入装置的处理顺序的流程图。
图4是示出了本实施例2的输入装置的结构的图。
图5是用于说明本实施例2的显示控制部的处理的图。
图6是示出了本实施例2的输入装置的处理顺序的流程图。
图7是示出了执行输入程序的计算机的一例的图。
具体实施方式
以下,根据附图对本发明的输入装置以及输入程序的实施例进行详细说明。另外,该发明并不限定于该实施例。
实施例1
对本实施例1的输入装置的结构进行说明。图1是示出了本实施例1的输入装置的结构的图。如图1所示,该输入装置100具有照相机110、光源120、触摸屏130、传感器140、通信部150。另外,其他结构由于与公知的平板电脑终端相同,所以这里省略其说明。
照相机110是使用了CCD(ChargeCoupledDevice:电荷耦合器件)或CMOS(ComplementaryMetalOxideSemiconductor:互补金属氧化物半导体)等的摄像装置。照相机110对包含在摄像范围内的被摄体的图像进行拍摄,并将拍摄到的被摄体的图像数据输出到控制部170。
例如,照相机110在对图像进行拍摄的时机,对光源120进行控制,向被摄体照射红外线。在照相机110所拍摄的被摄体包含用户的眼球的情况下,视网膜上的光的反射被照相机110捕捉,从而会得到眼球的瞳孔部分比其他部分拍摄得明亮的图像。另外,上述的照相机110可以利用输入装置100在出厂时配备的照相机,也可以利用外部连接的数码照相机等。
光源120是响应照相机110的控制命令而照射红外线的装置。
触摸屏130是具有显示和输入这两种功能的接口。触摸屏130显示从控制部170输出的信息。例如,触摸屏130使光标显示在由控制部170指定的位置上。另外,触摸屏130在受理了触摸操作的情况下,将被触摸到的画面位置的信息输出到控制部170。
传感器140是通过捕捉由加速导致的质量的位置变化而对输入装置100的上下左右方向的加速度进行测定的传感器。传感器140将所测定的加速度的信息输出到控制部170。
通信部150是与网络连接而执行与其他装置的数据通信的处理部。例如,通信部150对应于无线通信装置。后述的控制部170经由通信部150执行与网络上的外部装置等的数据通信。
存储部160是存储各种信息的存储装置。例如,存储部160对应于RAM(RandomAccessMemory:随机存取存储器)、ROM(ReadOnlyMemory:只读存储器)、闪存(FlashMemory)等半导体存储器元件、或者硬盘、光盘等存储装置。
控制部170具有视线位置检测部171、倾斜检测部172、显示控制部173。例如,控制部170对应于ASIC(ApplicationSpecificIntegratedCircuit:专用集成电路)、FPGA(FieldProgrammableGateArray:现场可编程门阵列)等集成装置。并且,控制部170也对应于例如CPU或MPU(MicroProcessingUnit:微处理单元)等电子电路。
视线位置检测部171是检测触摸屏130上的视线位置的处理部。视线位置检测部171将视线位置的信息输出到显示控制部173。例如,视线位置检测部171在由照相机110输出的被摄体的图像上应用角膜反射法等算法,从眼球的瞳孔的中心位置检测由视线的方向所指的视点的位置。在本实施例中将该视点的位置作为视线位置。
另外,虽然这里对利用角膜反射法来检测视线位置的情况进行了说明,但也可以用其他的方法检测视线位置。例如,输入装置100事先将触摸屏130的画面进行分割,并学习对所分割的区域进行观看的眼睛的形状,通过对从照相机110所输入的图像中提取出的眼睛的形状和模板执行匹配,可以检测视线位置。另外,也可以使用户配戴用于检测视线位置的头戴式耳机,输入装置100取得根据头戴式耳机所检测的视线位置。
倾斜检测部172是从传感器140取得加速度的信息、并将所取得的加速度的信息转换为倾斜的处理部。例如,倾斜检测部172保持将加速度的值与倾斜的方向和大小对应起来的转换表,根据该转换表将加速度的值转换为倾斜的方向和大小。在下面的说明中,将倾斜的方向和大小适当地统一表述为倾斜信息。倾斜检测部172将倾斜信息输出到显示控制部173。
显示控制部173是根据视线位置以及倾斜信息来确定光标位置并使光标显示在与所确定的光标位置对应的触摸屏130上的位置的处理部。另外,显示控制部173与公知的平板电脑终端一样,在触摸屏130上显示各种图像。
首先,对显示控制部173按照视线位置使光标移动的处理的一例进行说明。显示控制部173对当前的光标位置与视线位置进行比较,直到当前的光标位置与视线位置的距离是阈值以上为止,执行固定光标位置的处理。
图2是用于说明本实施例1的显示控制部的处理的图。在图2中,为了便于说明,将当前的光标10a的位置设为位置1A。显示控制部173根据以位置1A为中心的半径为R的圆的区域20内是否存在视线位置来判定是否固定光标10a的位置。显示控制部173在视线位置包含在区域20内的情况下固定光标10a的位置,在视线位置未包含在区域20内的情况下使光标10a的位置移动到视线位置。
在图2中,在视线位置是1B的情况下,由于视线位置包含在区域20内,因此显示控制部173固定光标10a的位置。视线位置包含在区域20内的情况下,意味着用户的兴趣存在于光标10a的附近。这里,如果按照视线位置使光标10a移动,则由于视线位置的摇晃,很难使光标10a移动。因此,显示控制部173不会按照视线位置使光标10a移动。另外,如后面所述的那样,显示控制部173按照从倾斜检测部172取得的倾斜信息使光标10a移动。
在图2中,在视线位置是1C的情况下,由于视线位置未包含在区域20内,因此显示控制部173使光标10a的位置移动到视线位置1C。视线位置未包含在区域20内的情况下,意味着用户的兴趣不存在于光标10a附近,因此,即使按照视线位置使光标10a移动也没问题。
接着,对显示控制部173按照倾斜信息使光标移动的处理的一例进行说明。例如,显示控制部173在根据上述视线位置执行光标的移动处理的期间内,在接受到规定的切换指示的情况下,开始进行按照倾斜信息使光标移动的处理。例如,显示控制部173可以在选择了显示在触摸屏130上的开始按钮的情况下或在倾斜的大小是阈值以上的情况下,开始进行按照倾斜信息使光标移动的处理。
显示控制部173保持将倾斜的大小和光标的移动量对应起来的对应表,根据该对应表使光标移动。光标的移动方向按照倾斜信息所包含的倾斜的方向进行移动。
如上述图2所示,在视线位置是1B的情况下,由于视线位置包含在区域20内,因此显示控制部173固定光标10a的位置。然而,该固定意味着对光标相对于视线位置的移动进行固定。也就是说,显示控制部173在执行按照倾斜情报使光标移动的处理的期间内,即使在视线位置包含在区域20内的情况下,也按照倾斜信息使光标10a移动。
显示控制部173在选择了触摸屏130上的未图示的结束按钮的情况下结束处理。
另外,显示控制部173在执行根据视线位置使光标的位置移动的处理的期间内,可以暂时停止倾斜检测部172的处理。并且,显示控制部173在执行根据倾斜信息使光标的位置移动的处理的期间内,也可以暂时停止视线位置检测部171的处理。
接下来,对本实施例1的输入装置100的处理顺序进行说明。图3是示出了本实施例1的输入装置的处理顺序的流程图。例如,图3所示的处理以检测出用户的视线位置为契机来开始处理。
如图3所示,输入装置100检测视线位置(步骤S101),在视线位置上显示光标(步骤S102)。输入装置100判定是否选择了开始按钮(步骤S103)。输入装置100在未选择开始按钮的情况下(步骤S103,“否”),转移到步骤S101。
另一方面,输入装置100在选择了开始按钮的情况下(步骤S103,“是”),检测倾斜(步骤S104),根据倾斜信息使光标移动(步骤S105)。输入装置100检测视线位置(步骤S106),判定视线位置与光标位置的距离是否是阈值以内(步骤S107)。输入装置100在视线位置与光标位置不是阈值以内的情况下(步骤S107,“否”),转移到步骤S102。
另一方面,输入装置100在视线位置与光标位置的距离是阈值以内的情况下(步骤S107,“是”),固定光标位置(步骤S108)。输入装置100在未选择结束按钮的情况下(步骤S109,“否”),转移到步骤S104。另一方面,输入装置100在选择了结束按钮的情况下(步骤S109,“是”),结束处理。
接下来,对本实施例1的输入装置100的效果进行说明。输入装置100检测触摸屏130上的视线位置,并对当前的光标位置与视线位置进行比较。而且,输入装置100直到当前的光标位置与视线位置的距离是阈值以上为止,固定光标位置。因此,根据输入装置100能够防止指定用户意愿之外的位置。
并且,输入装置100直到光标位置与视线位置的距离是阈值以上为止,停止与视线位置对应的光标位置,根据倾斜检测部172检测出的倾斜信息使光标位置移动。因此,根据输入装置100,用户能够通过视线指定粗略的光标位置,根据倾斜对光标位置进行微调。
输入装置100在执行根据视线位置使光标的位置移动的处理的期间内,暂时停止倾斜检测部172的处理。另外,输入装置100在执行根据倾斜信息使光标的位置移动的处理的期间内,暂时停止视线位置检测部171的处理。因此,输入装置100可以实现省电化。
另外,显示控制部173也可以代替倾斜而根据输入装置100的移动方向使光标的位置移动。也就是说,显示控制部173从传感器140取得加速度的信息,根据将加速度与移动方向对应起来的对应表,使光标移动。显示控制部173直到光标位置和视线位置的距离是阈值以上为止,停止与视线位置对应的光标位置,根据来自传感器140的加速度,使光标位置移动。
实施例2
对本实施例2的输入装置的结构进行说明。图4是示出了本实施例2的输入装置的结构的图。如图4所示,该输入装置200具有照相机110、光源120、触摸屏130、传感器140、通信部150。另外,其他结构由于与公知的平板电脑终端相同,所以这里省略其说明。
关于照相机110、光源120、触摸屏130、传感器140、通信部150、存储部160的说明与图1所示的照相机110、光源120、触摸屏130、传感器140、通信部150、存储部160的说明相同。因此,省略关于各装置110~160的说明。
控制部270具有视线位置检测部171、倾斜检测部172、显示控制部273。关于视线位置检测部171、倾斜检测部172的说明,由于与图1所示的视线位置检测部171、倾斜检测部172相同,所以赋予相同的标号并省略其说明。
显示控制部273是根据视线位置和倾斜信息来确定光标位置并使光标显示在与所确定的光标位置对应的触摸屏130上的位置的处理部。
图5是用于说明本实施例2的显示控制部的处理的图。显示控制部273首先按照由视线位置检测部171检测出的视线位置使光标10a的位置移动。在图5中,在视线位置是1D的情况下,显示控制部273使光标10a移动到视线位置1D。
而且,显示控制部273在用户选择了开始按钮30a的情况下。根据从倾斜检测部172取得的倾斜信息使光标10a的位置移动。显示控制部273根据倾斜信息使光标10a的位置移动的处理与实施例1的显示控制部173相同。
并且,显示控制部273在执行根据倾斜信息使光标10a的位置移动的处理的期间内,在选择了开始按钮30a的情况下,切换为按照视线位置使光标10a的位置移动的处理。另外,显示控制部273在由用户选择了结束按钮30b的情况下,结束处理。
接下来,对本实施例2的输入装置200的处理顺序进行说明。图6是示出了本实施例2的输入装置的处理顺序的流程图。例如,图6所示的处理以检测出用户的视线位置为契机来开始处理。
如图6所示,输入装置200检测视线位置(步骤S201),在视线位置上显示光标(步骤S202)。输入装置200判定是否选择了开始按钮(步骤S203)。输入装置200在未选择开始按钮的情况下(步骤S203,“否”),转移到步骤S201。
另一方面,输入装置200在选择了开始按钮的情况下(步骤S203,“是”),检测倾斜(步骤S204),根据倾斜信息使光标移动(步骤S205)。输入装置200判定是否选择了开始按钮(步骤S206)。输入装置200在选择了开始按钮的情况下(步骤S206,“是”),转移到步骤S201。
另一方面,输入装置200在未选择开始按钮的情况下(步骤S206,“否”),判定是否选择了结束按钮(步骤S207)。输入装置200在未选择结束按钮的情况下(步骤S207,“否”),转移到步骤S204。另一方面,输入装置200在选择了结束按钮的情况下(步骤S207,“是”),固定光标位置(步骤S208)。输入装置200在固定了光标位置后,执行与光标位置对应的各种处理。
接下来,对本实施例2的输入装置200的效果进行说明。输入装置200受理是使光标位置移动到由视线位置检测部171检测出的视线位置、还是使光标位置根据由倾斜检测部172检测出的倾斜而移动,从而使光标位置移动。因此,用户能够选择根据视线指定位置还是根据倾斜指定位置,能够有效率地使光标移动到所期望的位置。
另外,输入装置200也可以组合显示控制部273的处理和显示控制部173的处理来执行。
接下来,对执行用于实现与上述实施例所示的输入装置同样的功能的支援程序的计算机的一例进行说明。图7是示出了用于执行输入程序的计算机的一例的图。
如图7所示,计算机300具有:CPU301,其执行各种运算处理;以及触摸屏302,其受理来自用户的数据输入,并且显示各种信息。计算机300具有:读取装置303,其从存储介质中读取程序等;以及接口装置304,其经由网络与其他计算机间进行数据的收发。计算机300具有:照相机305;以及传感器306,其检测加速度。计算机300具有:RAM307,其暂时存储各种信息;以及存储装置308。而且,各个装置301~308连接在总线309上。
存储装置308具有视线位置检测程序308a、倾斜检测程序308b、显示控制程序308c。CPU301读出各个程序308a、308b、308c并在RAM307中展开。
视线位置检测程序308a作为视线位置检测进程307a发挥功能。倾斜检测程序308b作为倾斜检测进程307b发挥功能。显示控制程序308c作为显示控制进程307c发挥功能。
例如,视线位置检测进程307a对应于视线位置检测部171。倾斜检测进程307b对应于倾斜检测部172。显示控制进程307c对应于显示控制部173、273。
另外,关于各个程序308a~308c,也可以不必从一开始就存储到存储装置308中。例如,也可以将各个程序预先存储到用于插入计算机300的软盘(FD)、CD-ROM、DVD盘、光磁盘、IC卡等“可移动的物理介质”中。并且计算机300也可以从这些物理介质中读取各个程序308a~308c来执行。
标号说明
100、200:输入装置;170、270:控制部;171:视线位置检测部;172:倾斜检测部;173:显示控制部。

Claims (5)

1.一种输入装置,其特征在于,该输入装置具有:
视线位置检测部,其检测画面上的视线位置;以及
显示控制部,其对当前的指定位置与视线位置检测部检测出的视线位置进行比较,直到所述指定位置与所述视线位置的距离是阈值以上为止,将光标位置固定在所述指定位置。
2.根据权利要求1所述的输入装置,其特征在于,
该输入装置还具有倾斜检测部,该倾斜检测部检测本输入装置的倾斜,
所述显示控制部直到所述指定位置与所述视线位置的距离是阈值以上为止,停止与所述视线位置对应的光标位置,根据所述倾斜检测部检测出的倾斜,使所述光标位置移动。
3.根据权利要求2所述的输入装置,其特征在于,
所述显示控制部在根据所述视线位置使所述光标位置移动的期间内,停止所述倾斜检测部的处理,在根据所述倾斜使所述光标位置移动的期间内,停止所述视线位置检测部的处理。
4.根据权利要求3所述的输入装置,其特征在于,
所述显示控制部取得控制信息,并根据所取得的控制信息,使所述光标位置移动,其中,所述控制信息表示使所述光标位置移动到视线位置检测部检测出的视线位置、还是使所述光标位置根据倾斜检测部检测出的倾斜而进行移动。
5.一种输入程序,其特征在于,
该输入程序使计算机执行如下的各处理:
检测图像上的视线位置:以及
对当前的指定位置与检测出的视线位置进行比较,直到所述指定位置与所述视线位置的距离是阈值以上为止,将光标位置固定在所述指定位置。
CN201380076326.6A 2013-05-08 2013-05-08 输入装置以及输入程序 Pending CN105190515A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/062949 WO2014181403A1 (ja) 2013-05-08 2013-05-08 入力装置及び入力プログラム

Publications (1)

Publication Number Publication Date
CN105190515A true CN105190515A (zh) 2015-12-23

Family

ID=51866907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380076326.6A Pending CN105190515A (zh) 2013-05-08 2013-05-08 输入装置以及输入程序

Country Status (6)

Country Link
US (1) US9804671B2 (zh)
EP (1) EP2996020A4 (zh)
JP (1) JP6070833B2 (zh)
KR (1) KR101780138B1 (zh)
CN (1) CN105190515A (zh)
WO (1) WO2014181403A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107132961A (zh) * 2016-02-29 2017-09-05 富士通株式会社 定点支持装置和定点支持方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105190515A (zh) * 2013-05-08 2015-12-23 富士通株式会社 输入装置以及输入程序
US10254844B2 (en) * 2013-06-20 2019-04-09 Uday Parshionikar Systems, methods, apparatuses, computer readable medium for controlling electronic devices
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US10558272B2 (en) * 2013-06-20 2020-02-11 Uday Parshionikar Gesture control via eye tracking, head tracking, facial expressions and other user actions
US20190265802A1 (en) * 2013-06-20 2019-08-29 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
WO2015183208A1 (en) * 2014-05-30 2015-12-03 Koç Üniversitesi Gaze based prediction device and method
JP6416598B2 (ja) * 2014-11-27 2018-10-31 京セラ株式会社 携帯端末及び制御方法
KR102325339B1 (ko) * 2014-12-24 2021-11-11 삼성전자주식회사 사용자의 움직임을 검출하여 사용자 입력을 수신하는 방법 및 이를 위한 장치
KR102471370B1 (ko) * 2015-02-23 2022-11-28 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US9983695B2 (en) 2015-03-19 2018-05-29 Lenovo (Singapore)Pte. Ltd. Apparatus, method, and program product for setting a cursor position
US10565446B2 (en) 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
WO2017053966A1 (en) 2015-09-24 2017-03-30 Tobii Ab Eye-tracking enabled wearable devices
CN109416572A (zh) 2016-04-29 2019-03-01 托比股份公司 启用眼睛跟踪的可穿戴设备
US11604517B2 (en) * 2016-09-02 2023-03-14 Rakuten Group, Inc. Information processing device, information processing method for a gesture control user interface
US10831265B2 (en) * 2018-04-20 2020-11-10 Microsoft Technology Licensing, Llc Systems and methods for gaze-informed target manipulation
US10871874B2 (en) * 2018-05-09 2020-12-22 Mirametrix Inc. System and methods for device interaction using a pointing device and attention sensing device
US20190361521A1 (en) * 2018-05-22 2019-11-28 Microsoft Technology Licensing, Llc Accelerated gaze-supported manual cursor control
US10890967B2 (en) * 2018-07-09 2021-01-12 Microsoft Technology Licensing, Llc Systems and methods for using eye gaze to bend and snap targeting rays for remote interaction
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
US11514602B2 (en) 2018-12-25 2022-11-29 Samsung Electronics Co., Ltd. Method and apparatus for gaze estimation
DE102021104127A1 (de) * 2021-02-22 2022-08-25 Christian-Albrechts-Universität zu Kiel, Körperschaft des öffentlichen Rechts Verfahren zum Betreiben eines mobilen Computergeräts, Computerprogramm und mobiles Computergerät
US12026366B2 (en) * 2022-10-25 2024-07-02 Robert Bosch Gmbh System and method for coarse and fine selection keyboard user interfaces

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259224A (ja) * 1998-03-10 1999-09-24 Nec Corp ポインティングデバイス
CN101943957A (zh) * 2010-07-23 2011-01-12 康佳集团股份有限公司 一种带加速度传感器的触摸屏手机和鼠标输入的方法
CN102279647A (zh) * 2011-06-20 2011-12-14 中兴通讯股份有限公司 一种移动终端及其实现光标移动的方法
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335135A (ja) * 1995-06-07 1996-12-17 Canon Inc 情報処理装置
JPH1195910A (ja) 1997-09-17 1999-04-09 Citizen Watch Co Ltd ポインティングデバイス
JP2001100903A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 視線検出機能搭載装置
JP2004287823A (ja) * 2003-03-20 2004-10-14 Seiko Epson Corp ポインティング操作支援システム
JP2006113859A (ja) * 2004-10-15 2006-04-27 Nec Corp 携帯情報端末及びその表示制御方法
JP4951751B2 (ja) * 2005-04-26 2012-06-13 国立大学法人静岡大学 瞳孔検出に基づくポインティング装置及び方法
JP4977995B2 (ja) 2005-10-26 2012-07-18 日本電気株式会社 携帯表示装置
JP2009064395A (ja) 2007-09-10 2009-03-26 Hiroshima Univ ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4884417B2 (ja) 2008-04-01 2012-02-29 富士フイルム株式会社 携帯型電子装置及びその制御方法
JP5446624B2 (ja) 2009-09-07 2014-03-19 ソニー株式会社 情報表示装置、情報表示方法及びプログラム
CN102473033B (zh) 2009-09-29 2015-05-27 阿尔卡特朗讯 一种注视点检测方法及其装置
US20120188148A1 (en) * 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
JP2013073330A (ja) 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 携帯型電子機器、タッチ領域設定方法およびプログラム
US20140009739A1 (en) * 2012-06-14 2014-01-09 Lindsay Greco Wearable apparatus and ir configuration for optimizing eye-tracking used for human computer interaction
TWI488070B (zh) * 2012-12-07 2015-06-11 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
CN105190515A (zh) * 2013-05-08 2015-12-23 富士通株式会社 输入装置以及输入程序
US9965062B2 (en) * 2013-06-06 2018-05-08 Microsoft Technology Licensing, Llc Visual enhancements based on eye tracking
WO2015040608A1 (en) * 2013-09-22 2015-03-26 Inuitive Ltd. A peripheral electronic device and method for using same
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
EP3123442A4 (en) * 2014-03-26 2017-10-04 Unanimous A.I., Inc. Methods and systems for real-time closed-loop collaborative intelligence
US9645641B2 (en) * 2014-08-01 2017-05-09 Microsoft Technology Licensing, Llc Reflection-based control activation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259224A (ja) * 1998-03-10 1999-09-24 Nec Corp ポインティングデバイス
CN101943957A (zh) * 2010-07-23 2011-01-12 康佳集团股份有限公司 一种带加速度传感器的触摸屏手机和鼠标输入的方法
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
CN102279647A (zh) * 2011-06-20 2011-12-14 中兴通讯股份有限公司 一种移动终端及其实现光标移动的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107132961A (zh) * 2016-02-29 2017-09-05 富士通株式会社 定点支持装置和定点支持方法
CN107132961B (zh) * 2016-02-29 2020-06-30 富士通株式会社 定点支持装置和定点支持方法

Also Published As

Publication number Publication date
JPWO2014181403A1 (ja) 2017-02-23
US9804671B2 (en) 2017-10-31
EP2996020A1 (en) 2016-03-16
WO2014181403A1 (ja) 2014-11-13
KR20150138360A (ko) 2015-12-09
EP2996020A4 (en) 2016-05-25
KR101780138B1 (ko) 2017-09-19
JP6070833B2 (ja) 2017-02-01
US20160048223A1 (en) 2016-02-18

Similar Documents

Publication Publication Date Title
CN105190515A (zh) 输入装置以及输入程序
US11042291B2 (en) Text input method in touch screen terminal and apparatus therefor
US9329776B2 (en) Display control device, method and computer program product
KR102559289B1 (ko) 적응형 깊이 감지 시스템
US10686971B1 (en) Electronic device including a camera capable of being a front camera and a rear camera and an operating method thereof
US9842571B2 (en) Context awareness-based screen scroll method, machine-readable storage medium and terminal therefor
US10915750B2 (en) Method and device for searching stripe set
RU2643661C2 (ru) Электронное устройство и способ управления таким устройством
EP2713242A2 (en) Smart screen rotation based on user orientation
US20090122007A1 (en) Input device, control method of input device, and program
CN105487797B (zh) 一种屏幕显示模式的控制方法及终端设备
US9846453B2 (en) Wearable terminal with touchpad interface and power-saving mode
US20140089847A1 (en) Method of displaying data in display device using mobile communication terminal, the display device, and the mobile communication terminal
US9535604B2 (en) Display device, method for controlling display, and recording medium
EP3130989B1 (en) Method and device for controlling touch screen
US11631190B2 (en) Electronic device and method for controlling auto focusing thereof
EP4018303B1 (en) Method for preloading application and electronic device supporting same
US20150234461A1 (en) Display control device, display control method and recording medium
CN107003730B (zh) 一种电子设备、拍照方法及拍照装置
CN110868533B (zh) 一种hdr模式确定方法、装置、存储介质及终端
US20210065399A1 (en) Electronic device, method, and storage medium for setting processing procedure for controlling apparatus
US10551960B2 (en) Input processing method and device
CN104427244A (zh) 摄像设备和摄像方法
KR102614026B1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
KR20140128251A (ko) 정보 처리 장치, 정보 처리 방법, 및 기록 매체

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20151223

WD01 Invention patent application deemed withdrawn after publication