CN102317892B - 控制信息输入装置的方法、信息输入装置、程序和信息存储介质 - Google Patents
控制信息输入装置的方法、信息输入装置、程序和信息存储介质 Download PDFInfo
- Publication number
- CN102317892B CN102317892B CN201080007775.1A CN201080007775A CN102317892B CN 102317892 B CN102317892 B CN 102317892B CN 201080007775 A CN201080007775 A CN 201080007775A CN 102317892 B CN102317892 B CN 102317892B
- Authority
- CN
- China
- Prior art keywords
- value
- displacement
- operator scheme
- user
- information input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
公开了一种用于控制信息输入装置的方法,其中,便利了用户执行的操作输入。在该方法中,当用户执行了相对于检测物体在检测表面上的位置的触摸传感器而在检测表面上移动物体的移动操作时,获取物体的移动距离;获取与该移动操作的操作模式有关的值;以及输出基于与所获取的移动距离以及操作模式有关的值而计算的值作为在由用户执行的移动操作的操作输入量。
Description
技术领域
本发明涉及一种用于接收由用户执行的操作输入的信息输入设备、用于其的控制方法、用于其的程序及用于其的信息存储介质。
背景技术
已知使用触摸传感器的信息输入设备作为用于接收由用户执行的操作输入以执行各种信息处理的信息输入设备之一。触摸传感器是用于在用户使物体(例如,用户手指或手写笔)接触或接近检测表面的情况下检测物体的位置的传感器。当用户执行用于例如将他/她自己的手指放置在触摸传感器的检测表面上并且沿着任意方向移动手指的操作时,信息输入设备可以接收移动方向以及沿上述方向的移动距离作为用户的操作输入的内容。
发明内容
本发明要解决的问题
利用仅接收触摸传感器上的移动距离作为用户操作输入的信息输入设备,用户可能发现由于有限种类的操作而难以执行操作输入。例如,为了使用这样的信息输入设备来沿固定方向连续地执行操作输入,用户需要通过一次又一次地使他/她的手指等接触触摸传感器的检测表面来重复相同的操作。替代地,为了执行大量的操作输入,用户需要将他/她的手指等移动达到一定程度的大距离,但是取决于触摸传感器的尺寸或者用户如何握持该触摸传感器位于其中的壳体,这样的操作可能难以执行。
考虑上述情况已经作出了本发明,并且本发明的目的是提供一种在用户使用触摸传感器执行操作输入的情况下能够便利进行操作输入的信息输入设备,并且提供用于其的控制方法、用于其的控制程序、以及存储该程序的信息存储介质。
解决问题的手段
根据本发明的信息输入设备的控制方法包括:移动距离获取步骤,当用户执行在用于检测物体在检测表面上的位置的触摸传感器的检测表面上移动该物体的移动操作时,获取在该移动操作中所展现的物体的移动距离;操作模式值获取步骤,获取与该移动操作的操作模式有关的值;以及操作输入量输出步骤,输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量。
此外,根据本发明的信息输入设备包括:用于从用来检测物体在检测表面上的位置的触摸传感器获取所检测的物体位置的部件;移动距离获取部件,其用于当用户执行在检测表面上移动该物体的移动操作时使用所检测的位置来获取在该移动操作中所展现的物体的移动距离;操作模式值获取部件,其用于获取与该移动操作的操作模式有关的值;以及操作输入量输出部件,其用于输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量。
此外,根据本发明的程序是使得计算机执行以下步骤的程序:移动距离获取步骤,当用户在用于检测物体在检测表面上的位置的触摸传感器的检测表面上执行移动该物体的移动操作时,获取在该移动操作中所展现的物体的移动距离;操作模式值获取步骤,获取与该移动操作的操作模式有关的值;以及操作输入量输出步骤,输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量。该程序可以被存储在计算机可读信息存储介质中。
附图说明
图1A是图示根据本发明实施例的信息输入设备的外观的透视图。
图1B是图示根据本发明实施例的信息输入设备的外观的透视图。
图2是图示根据该实施例的信息输入设备的内部配置的框图。
图3是图示根据该实施例的信息输入设备的功能的示例的功能型框图。
图4是图示设置参考位置的方法的示例的图。
图5A是图示设置参考位置的方法的另一示例的图。
图5B是图示设置参考位置的方法的又一示例的图。
具体实施方式
下文中,参考附图详细描述本发明的实施例。
图1A和图1B是根据本发明的一个实施例的信息输入设备1的外观的透视图。图1A示出了从其前表面(正表面)侧看上去的信息输入设备1的状态,图1B示出了从其后表面看上去的状态。注意,以下描述针对根据该实施例的信息输入设备1为便携式游戏机的情况。
如这些图中所示,信息输入设备1的壳体10具有整体上基本为矩形的平板形状,并且在其前表面上配备有触摸面板12。触摸面板12具有基本上矩形形状,并且包括显示器12a和前表面触摸传感器12b。显示器12a可以是任何类型的图像显示设备,诸如,液晶显示面板或有机EL显示面板。
该前表面触摸传感器12b被定位以便叠加在显示器12a上,并且配备有基本上矩形的检测表面,该检测表面具有与显示器12a的显示表面对应的形状和尺寸。当使诸如用户的手指或手写笔之类的物体接触检测表面时,前表面触摸传感器12b检测与其接触的物体的接触位置。注意,前表面触摸传感器12b不一定仅在使物体接触检测表面时检测物体的位置,而是还可以在使物体在可检测范围内接近检测表面时检测该物体相对于检测表面的位置。此外,前表面触摸传感器12b可以是任何系统,例如,电容式系统、压敏式系统、或光学系统,只要前表面触摸传感器12b是可以检测该物体在检测表面上的位置的设备即可。另外,前表面触摸传感器12b可以具有在物体接触检测表面时检测该物体按压检测表面所用的压力的压力感测功能。替代地,在前表面触摸传感器12b是可以感测多个地点(site)处的接触的多点感测触摸传感器的情况下,信息输入设备1可以基于物体的接触被感测到的位置范围,而感测相对于触摸传感器按压物体所用的力量。在使诸如用户的手指之类的软物体接触检测表面的情况下,当相对于检测表面按压物体所用的力量增大时,物体的接触面积通常变得更大。因此,通过以软件方式分析物体在检测表面上的接触位置的分布,信息输入设备1可以以模拟的方式获取与物体的压力有关的指标值,即使前表面触摸传感器12b不具有能够直接感测物体压力的功能。
此外,在该实施例中,后表面触摸传感器14位于壳体10的后表面侧上,从而面对触摸面板12。后表面触摸传感器14配备有基本上矩形的检测表面,该检测表面具有与显示器12a的显示表面对应的形状和尺寸。即,显示器12a的显示表面、前表面触摸传感器12b的检测表面、以及后表面触摸传感器14的检测表面每个具有基本上相同的形状和基本上相同的尺寸,并且沿着壳体10的厚度方向(Z轴方向)按照直线对齐。注意,后表面触摸传感器14可以以与前表面触摸传感器12b相同的方式是任何类型的系统,并且可以具有压力感测功能。用户可以通过使他/她自己的手指或手持的手写笔等接触或接近前表面触摸传感器12b或者后表面触摸传感器14的检测表面,而相对于信息输入设备1执行操作输入。
这里,后表面触摸传感器14的定位位置、尺寸和形状对应于显示器12a的定位位置、尺寸和形状,因此,替代前表面触摸传感器12b,用户还可以使用后表面触摸传感器14以对于在显示器12a上显示的图像执行操作输入。通过使用后表面触摸传感器14来对于在显示器12a上显示的图像执行操作输入,可以避免以下情况:由于接触该触摸传感器的手指或手写笔等所投射的阴影,变得难以观看在显示器12a上显示的图像。
注意,尽管在图1A或图1B中没有图示,除了前表面触摸传感器12b和后表面触摸传感器14之外,信息输入设备1还可以配备有在壳体10的前表面、后表面、侧表面等上的用于接收用户的操作输入的各种操作元件,诸如按键和开关。
此外,信息输入设备1包括位于壳体10内部以便检测壳体10的姿态的加速度传感器16和陀螺仪18。加速度传感器16是三轴加速度传感器,并且感测沿着为壳体10设置的三个参考轴(X轴、Y轴和Z轴)的方向造成的加速度。这里,三个参考轴基本上彼此垂直,X轴、Y轴和Z轴分别被设置为触摸面板12的长边方向、触摸面板12的短边方向、以及壳体10的厚度方向。当加速度传感器16感测由于重力而沿着相应参考轴造成的加速度时,信息输入设备1可以感测其自己的姿态(即,壳体10相对于重力作用所沿的垂直方向的倾角)。通过使得加速度传感器16感测由于加速度传感器16的移动速度的改变而造成的加速度,信息输入设备1还可以感测其自己的运动。
作为压电振动类型的陀螺仪等的陀螺仪18感测关于为壳体10设置的三个陀螺仪参考轴作出的旋转的角速度,并且输出与所感测的角速度对应的电信号。注意,陀螺仪参考轴的方向可以是加速度传感器16的上述三个参考轴的相同方向。通过将由陀螺仪18感测的角速度积分,信息输入设备1可以计算壳体10相对于X轴、Y轴和Z轴的旋转角度。
图2是图示信息输入设备1的内部配置的配置框图。如图中所示,信息输入设备1包括控制部分20、存储部分22、以及图像处理部分24。控制部分20是例如CPU,并且根据在存储部分22中存储的程序执行各种信息处理。存储部分22是例如诸如RAM或ROM之类的存储器元件或者盘设备,并且存储由控制部分20执行的程序和各种数据。此外,存储部分22还起作用为控制部分20的工作存储器。
图像处理部分24包括例如GPU和帧缓冲存储器,并且根据由控制部分20输出的指令使得图像在显示器12a上显示。作为特定示例,图像处理部分24包括与显示器12a的显示区对应的帧缓冲存储器,并且GPU根据来自控制部分20的指令每隔预定时间将图像写到帧缓冲存储器。然后,被写入到帧缓冲存储器的图像在预定定时被转换为视频信号,并且被显示在显示器12a上。
在该实施例中,控制部分20接收由前表面触摸传感器12b和后表面触摸传感器14获得的检测结果,并且使用所接收的检测结果来执行各种处理。具体地,控制部分20通过使用由前表面触摸传感器12b和后表面触摸传感器14中的至少一个获得的、对于诸如用户的手指或手写笔之类的物体的位置的检测结果来确定用户的操作输入的内容。然后,控制部分20执行与所确定的操作输入的内容对应的处理,并且通过在显示器12a上显示处理结果而向用户呈现处理结果。
下文中,描述在该实施例中由控制部分20执行的处理的特定示例。下面假设:控制部分20执行根据由后表面触摸传感器14检测到的用户手指的位置随着时间的改变,而更新在显示器12a上显示的图像的处理。为了执行这样的处理,如图3所示,信息输入设备1在功能上包括检测位置获取部分30、移动距离获取部分32、操作模式值获取部分34、操作输入量输出部分36、以及显示图像控制部分38。通过控制部分20执行在存储部分22中存储的程序来实现这些功能。通过将程序存储在任何种类的计算机可读信息存储介质(诸如,光盘或存储卡)中来提供该程序,或者经由诸如因特网之类的通信网络将程序提供至信息输入设备1。
检测位置获取部分30获取已经检测到物体(这里,用户手指)的位置的后表面触摸传感器14输出的坐标值。在此实施例中,当检测到物体的位置时,后表面触摸传感器14输出指示所检测的位置的坐标值。注意,假设后表面触摸传感器14输出的坐标值为:指示在具有矩形形状的检测区内的位置坐标的二维坐标值(px,py)。检测位置获取部分30每隔预定时间读取后表面触摸传感器14输出的坐标值,并且依序将坐标值存储在存储部分22中。这产生了指示用户手指的位置移动(随时间的改变)的坐标值串。
移动距离获取部分32使用检测位置获取部分30获取的坐标值串,来获取用户执行的移动操作的移动距离D。这里,移动操作表示用户执行的用于在后表面触摸传感器14的检测表面上移动他/她自己的手指的操作。例如,移动距离获取部分32每隔预定时间计算检测表面上从参考位置P1到当前位置P2的距离作为用户手指的移动距离D,其中,当前位置P2被设置为在该时间点检测的用户手指的位置,参考位置P1被设置为通过下述方法确定的位置。注意,在该实施例中,移动距离获取部分32获取移动距离D,并且还获取当前位置P2相对于参考位置P1的方向作为关于移动方向的信息。此外,移动距离获取部分32获取移动距离D的时间间隔可以与检测位置获取部分30获取指示所检测的位置的坐标值的时间间隔相同或不同。
这里,描述确定参考位置P1的方法的具体示例。参考位置P1可以是预先在检测表面内定义的位置(例如,检测表面的中心位置)。在此情况下,假设:用户总是在相同的参考位置处开始移动操作。
此外,当在后表面触摸传感器14至今尚未检测到物体的状态下首次开始物体检测时,移动距离获取部分32可以将在开始物体检测时的时间点(即,用户开始操作时的时间点)处检测的物体位置设置为参考位置P1。具体地,当在紧接在检测位置获取部分30不能获取指示后表面触摸传感器14所检测的位置的坐标值所处的给定时间点之后的定时,检测位置获取部分30获取到指示后表面触摸传感器14所检测的位置的坐标值时,所检测的位置被设置为参考位置P1。这允许用户与他/她的手指在检测表面上的位置无关地通过执行用于从该位置开始在检测表面上滑动他/她的手指的操作,来执行操作输入。图4是图示在如上所述地设置参考位置P1的情况下用户手指在检测表面上的轨迹(虚箭头)、参考位置P1、当前位置P2、以及移动距离D之间的关系的图。
在如此确定了参考位置P1之后,在后表面触摸传感器14持续地不断检测物体的情况下,移动距离获取部分32每隔预定时间重复地执行用于计算从参考位置P1到当前位置P2的移动距离D的处理,其中,当前位置P2被设置为在该时间点由检测位置获取部分30获取的所检测的物体位置。因此,移动距离获取部分32定期计算并输出移动距离D的值(其随着用户从参考位置P1开始移动他/她的手指而逐渐增加),由此描记(trace)后表面触摸传感器14的检测表面。
另外,当在后表面触摸传感器14连续地检测物体的状态下所检测的物体位置在移动方向方面改变时,移动距离获取部分32可以将在改变的时间点处检测的物体位置设置为参考位置P1。具体地,例如,移动距离获取部分32在用户手指的移动方向的X轴分量和Y轴分量中任一个在正和负之间翻转时确定用户手指的移动方向改变,并且将在翻转的时间点处检测的位置设置为新的参考位置P1。在此示例中,在至今不断增加的所检测的位置的X轴坐标值(或Y轴坐标值)转为减小时或者在至今不断减小的X轴坐标值(或Y轴坐标值)转为增加时,重置参考位置P1。图5A是图示在如上所述地设置参考位置P1的情况下用户手指在检测表面上的轨迹(虚箭头)、参考位置P1、当前位置P2、以及移动距离D之间的关系的图。注意,即使用户手指的移动方向改变至某一程度,但是如果沿着参考轴(X轴和Y轴)的移动方向没有改变,只要X轴分量和Y轴分量每个单调增加或单调减小、移动距离获取部分32就可以在移动方向没有改变的假设下继续计算移动距离D,而不改变至今使用的参考位置P1。
注意,当用户手指的沿着预定参考轴(X轴或Y轴)的移动方向改变时,替代将在改变的时间点处检测的用户手指的位置本身设置为新的参考位置P1,移动距离获取部分32可以将与所检测的位置对应的检测表面上的位置设置为新的参考位置P1。例如,如果所检测的位置的移动方向改变,则移动距离获取部分32可彼此独立地更新参考位置P1的X轴坐标值和Y轴坐标值。即,当用户手指的移动方向的X轴分量从正方向改变为负方向或者从负方向改变为正方向时,移动距离获取部分32将在改变的时间点处检测的位置的X轴坐标值设置为新的参考位置P1的X轴坐标值。同时,如果移动方向的Y轴分量没有改变,则至今设置的值被维持,而不改变参考位置P1的Y轴坐标值。图5B图示了在用户以与图5A中相同的方式移动他/她的手指时在该示例中设置的参考位置P1。在图5B的示例中,移动方向的Y轴分量从正方向改变为负方向,因此更新参考位置P1的Y轴坐标值,而移动方向在X轴方向方面总是为正方向而没有改变,因此不更新参考位置P1的X轴坐标值。结果,当从原始的参考位置P1o观看时要新设置的参考位置P1沿着Y轴方向移动,并且移动距离获取部分32获取距新的参考位置P1的距离作为移动距离D。
操作模式值获取部分34获取与用户执行的移动操作的操作模式有关的值(操作模式值)。在以下描述中,操作模式值获取部分34获取用户执行的移动操作的移动速度V的值作为操作模式值。注意,操作模式值获取部分34每隔预定时间获取操作模式值。在此情况下使用的时间间隔可以与移动距离获取部分32获取移动距离D的时间间隔相同或不同。
具体地,操作模式值获取部分34使用检测位置获取部分30所获取的坐标值串,来获取用户执行的移动操作的移动速度V。例如,每隔预定时间,操作模式值获取部分34计算紧接在该时间点之前的用户手指的移动速度V。在此情况下,操作模式值获取部分34计算在获取移动速度V时的时间点处用户手指的位置(即,当前位置P2)与在该时间点之前预定单位时间tu的过去的时间点处用户手指的位置之间的距离。然后,计算通过将所计算的距离除以单位时间tu所获得的值作为用户手指的最新的移动速度V。注意,假设单位时间tu为1,所计算的距离本身的数值表示移动速度V。
替代地,操作模式值获取部分34可以使用在移动距离获取部分32获取移动距离D时所使用的参考位置P1和当前位置P2来计算用户手指的移动速度V。在该示例中,操作模式值获取部分34通过使用上次在参考位置P1处检测到用户手指所处的时刻T1和自从时刻T1以来第一次在当前位置P2处检测到用户手指所处的时刻T2,来计算用户手指的移动速度V。即,通过将从参考位置P1到当前位置P2的距离除以时间(T2-T1)来计算在从参考位置P1到当前位置P2的范围内展现的用户手指的移动速度V。注意,在此情况下,时刻T2不限于获取移动速度V所在的当前时刻,并且如果用户手指在其之前的时间点已经到达当前位置P2,则将该到达的时间点用作时刻T2。
此外,如已经描述的,操作模式值获取部分34不仅可以获取移动速度V,而且还可以获取与另一操作模式有关的值。例如,如果后表面触摸传感器14具有压力感测功能,则操作模式值获取部分34可以获取指示用户相对于检测表面按压他/她自己的手指所用的压力(该压力由后表面触摸传感器14检测到)的值作为操作模式值。在此情况下,操作模式值获取部分34所获取的压力的值可以是在最接近获取该值时的时间点的过去所检测的压力的值,或者可以是在用户手指从参考位置P1移动到当前位置P2时所检测的压力的值的平均值。此外,如已经描述的,手指对于触摸传感器的检测表面的接触区域的尺寸被视为指示在移动操作期间用户相对于检测表面按压他/她的手指所用的力量。因此,操作模式值获取部分34可以获取接触区域的尺寸作为操作模式值。
操作输入量输出部分36输出基于移动距离获取部分32所获取的移动距离D和操作模式值获取部分34所获取的操作模式值(这里,用户手指的移动速度V)计算的值作为基于用户执行的操作的操作输入量I。即,将通过使用移动距离D和移动速度V两者计算的值输出为指示用户执行的移动操作的量的值。注意,除了操作输入量I的值之外,操作输入量输出部分36从移动距离获取部分32获取用户执行的移动操作的方向(即,当前位置P2相对于参考位置P1的方向),并且将该方向输出为用户指定的方向。
具体地,操作输入量输出部分36计算操作输入量I的值,使得操作输入量I的值随着运动距离D变得更大以及随着移动速度V变得更大而变得更大。例如,操作输入量输出部分36通过将基于移动距离D的值而计算的值与基于移动速度V的值而计算的值组合,来计算操作输入量I的值。利用此配置,例如,即使用户执行用于将他/她的手指移动相同移动距离D的移动操作,也可以使得在快速执行操作的情况下,与缓慢执行操作的情况相比,操作输入量I的值更大。相应地,与仅仅基于移动距离D计算操作输入量I的情况下相比,可以被接收作为来自用户的操作输入的操作输入量I的范围变得更大。此外,用户可以通过调节移动距离D和移动速度V中至少一个,来调节操作输入量I的水平(level)。即,为了输入操作输入量I的相对大的值,可以将手指移动大的距离,或者可以将手指快速移动。
这里,描述了操作输入量输出部分36计算操作输入量I的值所用的方法的具体示例。例如,操作输入量输出部分36通过将移动距离D和移动速度V分别乘以预定系数A1和A2,并且将结果相加,来计算操作输入量I的值。在此情况下,按照以下公式来计算操作输入量I的值。
I=A1·D+A2·V
此外,为了强调基于移动距离D和移动速度V的值的水平的效果(即,为了在移动距离D和移动速度V大量改变时增加施加于操作输入量I上的影响),操作输入量输出部分36可以通过使用移动距离D和移动速度V的幂来计算操作输入量I的值。具体地,例如,按照以下公式来计算操作输入量I的值。
I=A1·D2+A2·V2
利用该配置,当移动距离D和移动速度V的绝对值小时,取决于移动距离D和移动速度V的值的改变的操作输入量I的值的改变相对较小;但是当移动距离D和移动速度V的绝对值变大时,取决于移动距离D和移动速度V的值的改变的操作输入量I的值的改变变得相对较大。注意,这里对于移动距离D和移动速度V两者使用幂,但是可以仅对其中之一(要更多地强调其效果的一个)使用幂来执行求和,而不使用另一个的幂。
此外,如果移动距离获取部分32所获取的移动距离D的值超过预定上限值Dth,操作输入量输出部分36可以通过使用该上限值Dth作为移动距离D的值,计算操作输入量I的值。利用该配置,即使用户将他/她的手指移动该上限值Dth或更大以便以高移动速度V执行操作输入,用于计算操作输入量I的移动距离D的值也可以被抑制为该上限值Dth。
此外,替代将由移动距离获取部分32获取的移动距离D的数值和由操作模式值获取部分34获取的移动速度V的数值照原样用于算术运算,操作输入量输出部分36可以确定各个数值属于多个数值范围中的哪一个,并且可以基于其结果计算操作输入量I的值。例如,操作输入量输出部分36在移动速度V的值小于预定第一阈值Vth1时确定用户手指基本停止,在移动速度V的值等于或大于第一阈值Vth1并小于第二阈值Vth2时确定用户手指以低速移动,而在移动速度V的值等于或大于第二阈值Vth2时确定用户手指以高速移动。然后,基于确定结果,可以将根据该结果而不同的预定校正值加到移动距离D的数值上,由此计算操作输入量I的值。
显示图像控制部分38基于由操作输入量输出部分36输出的操作输入量I的值来更新在显示器12a上显示的图像。例如,显示图像控制部分38更新显示图像,以便将在显示器12a的显示屏幕上显示的显示图像内的图像元素移动与由操作输入量输出部分36输出的操作输入量I的值对应的量。图像元素可以是在菜单屏幕内的虚拟空间或图标中布置的各种对象等。在该实施例中,通过控制部分20执行游戏应用程序来实现显示图像控制部分38,并且显示图像控制部分38显示根据用户在显示器12a上的操作输入而改变的游戏图像。具体地,显示图像控制部分38在虚拟的三维空间内布置诸如游戏角色对象和背景对象之类的对象,并且指示图像处理部分24呈现指示该虚拟的三维空间内的状态的图像。图像处理部分24内的GPU根据该指令产生图像,并且将该图像写入到帧缓冲器,以由此在显示器12a上显示游戏图像。这里,假设:在虚拟的三维空间内设置视点位置和视线方向,并且呈现指示从该视点位置朝着视线方向看上去的该虚拟的三维空间的状态的图像。
另外,显示图像控制部分38基于由操作输入量输出部分36输出的操作输入量I的值和由用户指定的方向,来更新游戏图像的内容。具体地,显示图像控制部分38以与操作输入量I的值成比例的速度,将在该虚拟的三维空间中设置的视线方向改变为用户指定的方向。相应地,用户可以以与相对于后表面触摸传感器14执行的移动操作的移动距离和移动速度对应的速度,来改变所显示的游戏图像中的视线的方向,并且游戏图像中的各个对象在游戏图像中要移动与操作输入量I的值对应的量。
根据上述的这一实施例,可以增加用户执行的操作的种类,并且可以使操作输入便利。例如,通过将他/她的手指放置在后表面触摸传感器14的检测表面上的一点上、并且从该点向任意方向滑动他/她的手指,用户可以以与在倾斜模拟摇杆(analog stick)时相同的操作感觉来指定方向。根据这样的移动操作,例如,信息输入设备1执行用于将在该虚拟的三维空间中设置的视线方向改变为与移动操作的方向对应的方向的操作。此外,用户可以通过朝向一个给定方向快速移动他/她的手指,来大量地执行操作输入。相应地,信息输入设备1执行用于以高速在瞬间改变视线方向的处理或者其它这样的处理。
另外,在最近的过去的手指的移动速度被用作移动速度V的情况下,如果用户执行用于将他/她的手指在检测表面上朝着固定方向移动并且停止其移动而没有使他/她的手指离开检测表面的操作,则相对于参考位置P1的移动距离D保持固定值,而移动速度V变为零。相应地,可以继续朝向任意方向的操作输入,而无需一次又一次地重复相同操作。另外,在此情况下,在由于移动速度V的影响而暂时输出大操作输入量I之后输出相对小的操作输入量I,由此可以容易地执行从大值改变为小值的操作输入,而不涉及手指的复杂移动。此时,在移动距离D为上限值Dth的情况下执行操作输入量I的计算的假设下,在根据用户的快速操作输入而暂时输出具有大值的操作输入量I之后,输出具有与移动速度V=0和移动距离D=Dth对应的预定值的操作输入量I,由此可以将暂时增加的操作输入量I稳定(settle)到预定值或更小值。此外,在将从参考位置P1到当前位置P2的移动的移动速度用作移动速度V的值的情况下,如果用户类似地执行用于将他/她的手指在检测表面上朝着固定方向移动并停止其移动的操作,则继续输出对其加上了与移动速度V对应的值的操作输入量I的值。因此,在用户将他/她的手指快速地移动到当前位置P2的情况下,此时展现的操作输入量I的大值照原样被保持,并且例如可以继续允许以高速沿着视线方向移动。
注意,本发明的实施例不限于上面已经描述的实施例。例如,在上面描述中,通过使用后表面触摸传感器14的检测表面上的二维移动距离D和移动速度V的值,来计算操作输入量I,但是信息输入设备1可以假设通过将用户的移动操作的轨迹朝向参考轴(这里,X轴和Y轴)投影所获得的位置的改变是操作输入来执行上述处理。具体地,检测位置获取部分30获取所检测的用户手指的位置作为二维坐标值(px,py),并且由此获得两个坐标值串,即,X轴坐标值串{px1,px2,px3,...}和Y轴坐标值串{py1,py2,py3,...}。信息输入设备1可以对于相应的两个坐标值串彼此独立地执行上述的移动距离D和移动速度V的获取以及操作输入量I的计算。
在此情况下,例如,在首次检测到用户手指的位置时,移动距离获取部分32将所检测的位置的X轴坐标值设置为X轴参考位置P1x并且将Y轴坐标值设置为Y轴参考位置P1y。然后,移动距离获取部分32独立地获取沿着X轴方向相对于X轴参考位置P1x的移动距离Dx以及沿着Y轴方向相对于Y轴参考位置P1y的移动距离Dy。此外,操作模式值获取部分34独立地获取用户手指沿着X轴方向的移动速度Vx以及用户手指沿着Y轴方向的移动速度Vy。然后,操作输入量输出部分36独立地通过使用移动距离Dx和移动速度Vx来计算沿着X轴方向的操作输入量Ix,并且通过使用移动距离Dy和移动速度Vy来计算沿着X轴方向的操作输入量Iy。这允许以相对小量的算术运算来执行移动距离Dx和Dy以及移动速度Vx和Vy的计算。
此外,在上面描述中,显示图像控制部分38根据用户的操作输入来改变视线方向,但是本发明不限于此,可以使用操作输入量I来改变各种位置和方向。具体地,例如,显示图像控制部分38可以移动在虚拟的三维空间中设置的视点位置,并且可以基于用户指定的方向和操作输入量I的值来移动在虚拟的三维空间中的用户角色的位置。此外,操作输入量I可以不仅被用来更新指示虚拟的三维空间内的状态的图像,而且还可以被用作用于各种信息处理的参数,诸如用于滚动显示图像的处理的滚动量。
此外,在上面的描述中,相对于后表面触摸传感器14执行的移动操作的移动距离D和移动速度V被用于操作输入量I的计算,但是本发明不限于此,并且可以通过使用相对于前表面触摸传感器12b执行的移动操作的移动距离D和移动速度V来执行相同的处理。此外,根据本发明实施例的信息输入设备不需要包括允许用户直接执行操作的触摸传感器。例如,根据本发明实施例的信息输入设备可以是与包括触摸传感器的操作设备(诸如家庭用游戏机或个人计算机)连接的信息输入设备。在此情况下,信息输入设备基于从操作设备传送的关于所检测的物体位置的信息,来计算移动距离D和移动速度V。
Claims (14)
1.一种用于信息输入设备的控制方法,包括:
移动距离获取步骤,当用户执行在用于检测物体在检测表面上的位置的触摸传感器的检测表面上移动该物体的移动操作时,获取在该移动操作中所展现的物体的移动距离;
操作模式值获取步骤,获取与该移动操作的操作模式有关的值;以及
操作输入量输出步骤,输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量,
其中移动距离获取步骤包括:在所检测的物体的位置沿着预定参考轴的移动方向改变时,获取物体从参考位置到当前位置的移动距离,其中,参考位置被设置为与在该改变的时间点检测的物体的位置对应的位置,并且当前位置被设置为在获取移动距离时的时间点检测的物体的位置。
2.如权利要求1所述的用于信息输入设备的控制方法,其中,与该移动操作的操作模式有关的值包括:指示在该移动操作中所展现的物体的移动速度的值。
3.如权利要求2所述的用于信息输入设备的控制方法,其中,操作模式值获取步骤包括:获取指示紧接在获取与操作模式有关的值时的时间点之前所展现的物体的移动速度的值作为与操作模式有关的值。
4.如权利要求1所述的用于信息输入设备的控制方法,其中,与该移动操作的操作模式有关的值包括:指示在移动操作期间用户相对于检测表面按压物体所用的压力的值。
5.如权利要求1所述的用于信息输入设备的控制方法,其中,移动距离获取步骤包括:获取物体从参考位置到当前位置的移动距离,其中,参考位置被设置为在没有检测到物体的状态下首次开始物体检测时的时间点处检测的物体的位置,并且当前位置被设置为在获取移动距离时的时间点检测的物体的位置。
6.如权利要求5所述的用于信息输入设备的控制方法,其中,移动距离获取步骤还包括:通过确定参考位置使得在该改变的时间点检测的沿着预定参考轴的物体位置的位置坐标成为沿着该预定参考轴的参考位置的位置坐标,来获取物体从参考位置到当前位置的移动距离。
7.一种用于信息输入设备的控制方法,包括:
移动距离获取步骤,当用户执行在用于检测物体在检测表面上的位置的触摸传感器的检测表面上移动该物体的移动操作时,获取在该移动操作中所展现的物体的移动距离;
操作模式值获取步骤,获取与该移动操作的操作模式有关的值;以及
操作输入量输出步骤,输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量,
其中,移动距离获取步骤包括:在所检测的物体的位置的移动方向改变时,获取物体从参考位置到当前位置的移动距离,其中,参考位置被设置为在该改变的时间点检测的物体的位置,并且当前位置被设置为在获取移动距离时的时间点检测的物体的位置。
8.如权利要求7所述的用于信息输入设备的控制方法,其中,操作输入量输出步骤包括:在移动距离超过预定值的情况下,通过将该预定值用作移动距离的值来计算该操作输入量的值。
9.如权利要求7所述的用于信息输入设备的控制方法,还包括:显示图像控制步骤,其将在显示屏幕上显示的图像内的图像元素移动与所输出的操作输入量对应的量。
10.如权利要求7所述的用于信息输入设备的控制方法,其中该操作输入量的值是通过将基于移动距离的值计算出的值与基于移动速度的值计算出的值相加来计算的。
11.一种信息输入设备,包括:
用于从用来检测物体在检测表面上的位置的触摸传感器获取所检测的物体位置的部件;
移动距离获取部件,其用于当用户执行在检测表面上移动该物体的移动操作时使用所检测的位置来获取在该移动操作中所展现的物体的移动距离;
操作模式值获取部件,其用于获取与该移动操作的操作模式有关的值;以及
操作输入量输出部件,其用于输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量,
其中移动距离获取部件在所检测的物体的位置沿着预定参考轴的移动方向改变时,获取物体从参考位置到当前位置的移动距离,其中,参考位置被设置为与在该改变的时间点检测的物体的位置对应的位置,并且当前位置被设置为在获取移动距离时的时间点检测的物体的位置。
12.如权利要求11所述的信息输入设备,其中该操作输入量的值是通过将基于移动距离的值计算出的值与基于移动速度的值计算出的值相加来计算的。
13.一种用于信息输入设备的控制方法,包括:
从用来检测物体在检测表面上的位置的触摸传感器获取所检测的物体位置;
当用户执行在检测表面上移动该物体的移动操作时使用所检测的位置来获取在该移动操作中所展现的物体的移动距离;
用于获取与该移动操作的操作模式有关的值;以及
输出基于所获取的移动距离以及所获取的与操作模式有关的值而计算的值作为在由用户执行的移动操作中展现的操作输入量,
其中,所述获取在该移动操作中所展现的物体的移动距离包括:在所检测的物体的位置的移动方向改变时,获取物体从参考位置到当前位置的移动距离,其中,参考位置被设置为在该改变的时间点检测的物体的位置,并且当前位置被设置为在获取移动距离时的时间点检测的物体的位置。
14.如权利要求13所述的用于信息输入设备的控制方法,其中该操作输入量的值是通过将基于移动距离的值计算出的值与基于移动速度的值计算出的值相加来计算的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-257282 | 2009-11-10 | ||
JP2009257282A JP5535585B2 (ja) | 2009-11-10 | 2009-11-10 | プログラム、情報記憶媒体、情報入力装置、及びその制御方法 |
PCT/JP2010/061187 WO2011058783A1 (ja) | 2009-11-10 | 2010-06-30 | 情報入力装置の制御方法、情報入力装置、プログラム、及び情報記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102317892A CN102317892A (zh) | 2012-01-11 |
CN102317892B true CN102317892B (zh) | 2015-09-09 |
Family
ID=43991447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080007775.1A Active CN102317892B (zh) | 2009-11-10 | 2010-06-30 | 控制信息输入装置的方法、信息输入装置、程序和信息存储介质 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9250799B2 (zh) |
EP (1) | EP2500800A4 (zh) |
JP (1) | JP5535585B2 (zh) |
KR (1) | KR101366813B1 (zh) |
CN (1) | CN102317892B (zh) |
WO (1) | WO2011058783A1 (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2427879C2 (ru) * | 2009-10-05 | 2011-08-27 | Владимир Витальевич Мирошниченко | Управление виртуальными символами |
US8860672B2 (en) * | 2010-05-26 | 2014-10-14 | T-Mobile Usa, Inc. | User interface with z-axis interaction |
US9043732B2 (en) * | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
JP5091338B1 (ja) * | 2011-05-26 | 2012-12-05 | 株式会社コナミデジタルエンタテインメント | 情報表示装置、情報表示方法、ならびに、プログラム |
JP5894380B2 (ja) * | 2011-06-15 | 2016-03-30 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、およびビデオゲーム処理プログラム |
JP5740700B2 (ja) * | 2011-11-28 | 2015-06-24 | 株式会社セガゲームス | ゲーム装置及びゲームプログラム |
JP2013127683A (ja) * | 2011-12-16 | 2013-06-27 | Namco Bandai Games Inc | プログラム、情報記憶媒体、端末、サーバ及びネットワークシステム |
US10872454B2 (en) | 2012-01-06 | 2020-12-22 | Microsoft Technology Licensing, Llc | Panning animations |
US8884928B1 (en) | 2012-01-26 | 2014-11-11 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
JP5846053B2 (ja) * | 2012-06-14 | 2016-01-20 | ヤマハ株式会社 | パラメータ制御プログラム及びパラメータ制御装置 |
JP5783957B2 (ja) * | 2012-06-22 | 2015-09-24 | 株式会社Nttドコモ | 表示装置、表示方法及びプログラム |
KR20140039762A (ko) * | 2012-09-25 | 2014-04-02 | 삼성전자주식회사 | 영상처리장치 및 그 제어방법 |
KR101956073B1 (ko) * | 2012-12-20 | 2019-03-08 | 삼성전자주식회사 | 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법 |
JP6179412B2 (ja) * | 2013-01-31 | 2017-08-16 | 株式会社Jvcケンウッド | 入力表示装置 |
KR102210633B1 (ko) * | 2014-07-09 | 2021-02-02 | 엘지전자 주식회사 | 가상 오브젝트의 뎁스와 연계된 인정범위를 가진 디스플레이 디바이스 및 그 제어 방법 |
JP6643776B2 (ja) * | 2015-06-11 | 2020-02-12 | 株式会社バンダイナムコエンターテインメント | 端末装置及びプログラム |
JP6217701B2 (ja) | 2015-07-21 | 2017-10-25 | トヨタ自動車株式会社 | 入力装置 |
JP6532393B2 (ja) | 2015-12-02 | 2019-06-19 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置及び表示制御方法 |
CN107335218B (zh) * | 2017-07-07 | 2021-02-19 | 网易(杭州)网络有限公司 | 游戏场景移动方法及装置、存储介质、处理器和终端 |
CN107930105A (zh) * | 2017-10-23 | 2018-04-20 | 网易(杭州)网络有限公司 | 信息处理方法及装置、存储介质、电子设备 |
WO2019187619A1 (ja) * | 2018-03-29 | 2019-10-03 | 株式会社コナミデジタルエンタテインメント | 情報処理装置およびそのプログラムを記録した記録媒体 |
WO2020044692A1 (ja) | 2018-08-27 | 2020-03-05 | テルモ株式会社 | 医療機器 |
US20220308693A1 (en) * | 2021-03-29 | 2022-09-29 | Innolux Corporation | Image system |
CN115909342B (zh) * | 2023-01-03 | 2023-05-23 | 湖北瑞云智联科技有限公司 | 基于触点运动轨迹的图像标记识别系统及方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5956019A (en) * | 1993-09-28 | 1999-09-21 | The Boeing Company | Touch-pad cursor control device |
JPH07121698A (ja) * | 1993-10-26 | 1995-05-12 | Glory Ltd | 手書きデータの曲線近似方法 |
US6424338B1 (en) * | 1999-09-30 | 2002-07-23 | Gateway, Inc. | Speed zone touchpad |
US8059099B2 (en) * | 2006-06-02 | 2011-11-15 | Apple Inc. | Techniques for interactive input to portable electronic devices |
JP4045550B2 (ja) | 2004-06-28 | 2008-02-13 | 富士フイルム株式会社 | 画像表示制御装置及び画像表示制御プログラム |
JP4887788B2 (ja) | 2006-01-11 | 2012-02-29 | 大日本印刷株式会社 | 処理装置、プログラム及び電子ペン用帳票 |
EP1882902A1 (en) * | 2006-07-27 | 2008-01-30 | Aisin AW Co., Ltd. | Navigation apparatus and method for providing guidance to a vehicle user using a touch screen |
US8373655B2 (en) * | 2007-01-05 | 2013-02-12 | Apple Inc. | Adaptive acceleration of mouse cursor |
US9141202B2 (en) | 2007-06-08 | 2015-09-22 | Sony Corporation | Information processing apparatus, input apparatus, information processing system, information processing method, and program |
JP2009140368A (ja) * | 2007-12-07 | 2009-06-25 | Sony Corp | 入力装置、表示装置、入力方法、表示方法及びプログラム |
JP4605214B2 (ja) * | 2007-12-19 | 2011-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR101016221B1 (ko) * | 2008-11-14 | 2011-02-25 | 한국표준과학연구원 | 힘 센서를 구비한 입력모듈에 터치 입력을 처리하기 위한 알고리즘 구현방법 |
-
2009
- 2009-11-10 JP JP2009257282A patent/JP5535585B2/ja active Active
-
2010
- 2010-06-30 KR KR1020117018552A patent/KR101366813B1/ko active IP Right Grant
- 2010-06-30 WO PCT/JP2010/061187 patent/WO2011058783A1/ja active Application Filing
- 2010-06-30 EP EP10829743.3A patent/EP2500800A4/en not_active Ceased
- 2010-06-30 US US13/140,942 patent/US9250799B2/en active Active
- 2010-06-30 CN CN201080007775.1A patent/CN102317892B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20120212429A1 (en) | 2012-08-23 |
WO2011058783A1 (ja) | 2011-05-19 |
EP2500800A4 (en) | 2016-08-03 |
CN102317892A (zh) | 2012-01-11 |
US9250799B2 (en) | 2016-02-02 |
JP2011103044A (ja) | 2011-05-26 |
KR20110102511A (ko) | 2011-09-16 |
JP5535585B2 (ja) | 2014-07-02 |
KR101366813B1 (ko) | 2014-02-25 |
EP2500800A1 (en) | 2012-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102317892B (zh) | 控制信息输入装置的方法、信息输入装置、程序和信息存储介质 | |
US20220129060A1 (en) | Three-dimensional object tracking to augment display area | |
US11907448B2 (en) | Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment | |
KR101809636B1 (ko) | 컴퓨터 장치의 원격 제어 | |
KR101302138B1 (ko) | 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법 | |
US9007299B2 (en) | Motion control used as controlling device | |
JP5930618B2 (ja) | 空間手書きシステム及び電子ペン | |
EP2538309A2 (en) | Remote control with motion sensitive devices | |
CN102955568A (zh) | 输入装置 | |
CN104246682A (zh) | 增强的虚拟触摸板和触摸屏 | |
CN102870069A (zh) | 信息存储介质、信息输入装置及其控制方法 | |
US11397478B1 (en) | Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment | |
EP2590060A1 (en) | 3D user interaction system and method | |
US20170371432A1 (en) | Integrated free space and surface input device | |
CN117348743A (zh) | 计算机、渲染方法以及位置指示装置 | |
JP6386897B2 (ja) | 電子黒板、情報処理プログラムおよび情報処理方法 | |
US11995252B2 (en) | Input system and input method for setting instruction target area including reference position of instruction device | |
EP2538308A2 (en) | Motion-based control of a controllled device | |
US20120182231A1 (en) | Virtual Multi-Touch Control Apparatus and Method Thereof | |
WO2019032014A1 (en) | TACTILE INTERACTION SYSTEM IN VIRTUAL REALITY | |
KR20240091509A (ko) | 자동 모드 변환이 가능한 비광학식 펜 마우스 | |
KR20180007569A (ko) | 회전 센서를 이용한 3차원 공간 좌표 인식 마우스 | |
CN114489315A (zh) | 图像处理系统以及图像处理装置 | |
CN117666816A (zh) | 触控笔和触控笔的操作方法 | |
CN104169844A (zh) | 提供三维输入的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |