CN106796462A - 确定输入对象的位置 - Google Patents
确定输入对象的位置 Download PDFInfo
- Publication number
- CN106796462A CN106796462A CN201480082501.7A CN201480082501A CN106796462A CN 106796462 A CN106796462 A CN 106796462A CN 201480082501 A CN201480082501 A CN 201480082501A CN 106796462 A CN106796462 A CN 106796462A
- Authority
- CN
- China
- Prior art keywords
- stylus
- input object
- retroeflection
- input
- piston
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 241001422033 Thestylus Species 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 19
- 239000000463 material Substances 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 5
- 239000012190 activator Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 8
- 230000002776 aggregation Effects 0.000 description 7
- 238000004220 aggregation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0308—Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
数据由输入对象的图像捕获设备捕获,所述输入对象具有输入对象的表面上的第一回射图案和不同的第二回射图案。基于所接收的数据而确定输入对象在三个维度中的位置。
Description
背景技术
用户输入设备可以由用户用于向电子设备提供输入,诸如使得任务在电子设备处执行。用户输入设备的示例包括鼠标设备、键盘、触摸垫、触摸屏显示器、游戏控制器等等。触摸垫或触摸屏显示器检测通过用户在触敏表面上的触摸。该触摸输入可以被解释为发送至电子设备的输入事件。
附图说明
关于以下附图来描述一些实现方式。
图1是根据一些实现方式的包括与电子设备相关联的用户输入系统的示例布置的示意图。
图2是根据一些实现方式的过程的流程图。
图3是根据一些实现方式的触笔的侧视图。
图3A是根据另外的实现方式的触笔的侧视图。
图4是根据一些实现方式的图3的触笔的内部部件的示意性视图。
图5是根据一些实现方式的如由图像捕获设备捕获的触笔图像的图像处理的示意图。
图6是根据另外的实现方式的如由图像捕获设备捕获的触笔图像的图像处理的示意图。
图7是根据一些实现方式的示例电子设备的框图。
具体实施方式
用户可以使用基于触摸的输入设备来向电子设备提供输入。基于触摸的输入设备可以包括触摸垫、触摸屏显示器或包括触敏表面的任何其它输入设备。触敏表面能够检测触敏表面上的用户触摸或划刷,其被解释为传送至电子设备的输入事件。触敏表面可以依赖于触摸或划刷的电容性感测的使用。
在一些情况下,具有触敏表面的输入设备可能不可容易地供电子设备使用。例如,电子设备可以是台式计算机,其具有一般竖直取向的显示器,这使得显示器上的基于触摸的输入对于用户而言是不方便的。而且,触敏表面依赖于用户实际触摸触敏表面(使用手指或触笔)以得到要识别的输入。因此,触敏表面可能不能够识别悬停在触敏表面上方的输入对象(例如触笔或用户手指)。
依照一些实现方式,为了增加灵活性,提供一种输入系统,其使用图像捕获设备来识别使用输入对象做出的输入手势。作为示例,输入对象可以包括触笔,其可以是可以由用户握持的任何物项。例如,触笔可以是读出笔、数字笔等等。作为其它示例,输入对象可以包括用户的(多个)手指。
图1图示了包括与用户输入系统相关联的电子设备102的示例布置,所述用户输入系统允许用户向电子设备102提供输入。用户输入系统包括可以包括相机或相机的布置的图像捕获设备104,图像捕获设备104可以捕获由用户操纵的输入对象106的图像。在图1的示例中,输入对象106是触笔。在其它示例中,输入对象106可以包括用户的手指。
在随后的讨论中,参照其中输入对象106是触笔的示例。要指出的是,根据一些实现方式的技术或机制可以应用于其它类型的输入对象。
依照一些实现方式,触笔106提供有提供在触笔106的外表面上的回射材料111。回射材料沿与入射光的路径平行的路径反射入射光。在其它示例中,回射材料可以是大体上回射的材料,其中光沿与入射光的路径近似平行的路径被反射回来。如果反射光的路径在与入射光的路径平行的20°内,则反射光的路径近似平行于入射光的路径。
入射光可以由光源组件108产生,光源组件108可以包括一个或多个光源。由光源组件108产生的光可以在指定的波长范围中。例如,由光源组件108产生的光的波长范围可以是825毫米到875毫米。在其它示例中,由光源组件108产生的光可以在另一波长范围中。
在其中输入对象106包括用户的手指的示例中,回射材料可以提供为用户的手指周围的套筒(或多个套筒)。
在图1的示例中,回射材料111包括触笔106的两个端部上的第一和第二回射图案。第一和第二回射图案可以不同于彼此以允许触笔106的上部部分与触笔106的底部部分之间的区分。
在图1的示例中,触笔106可以使用在表面结构110之上。触笔106可以保持在表面结构110上方的悬停位置中,其中触笔106在不触碰表面结构110的上表面112的情况下悬停在表面结构110上方。在一些示例中,表面结构110可以是垫子。在其它示例中,表面结构110可以是桌子或书桌或用户可以在其上工作的任何其它结构的顶部。
在一些实现方式中,表面结构110不具有电容性触敏元件。因此,触笔106的移动基于由图像捕获设备104捕获的触笔106的图像来检测。
在一些实现方式中,触笔106可以提供有可以与表面结构110的上表面112交互的元件。例如,触笔106的尖端部分107可以是可移动部分,其可以以例如弹簧加载的活塞的形式。当抵靠表面结构110的上表面112挤压时,活塞在触笔106中移动。活塞的移动可以由触笔106传送至电子设备102。作为示例,如图1中所示,电子设备102可以包括无线接口118,其能够与触笔106中的对应无线接口(在图1中未示出)无线通信。无线接口118可以是射频(RF)接口、IR接口等等。作为示例,无线接口118可以是蓝牙接口、近场通信(NFC)接口或任何其它类型的无线接口。
在其它示例中,要指出的是,触笔106可以省略可移动尖端部分107。
触笔106还可以包括用户可激活元件,诸如按钮或触敏区。用户可激活元件的致动可以从触笔106无线传送至电子设备102。
用户输入可以是基于由图像捕获设备104捕获的触笔106的图像和可移动尖端部分107的致动和/或用户可激活元件的致动。在一些示例中,当用户可激活元件在移动触笔106的时候被按下时,触笔106可以用于执行向所显示的图像上的喷涂绘图。更具体地,可以接收用户可激活元件的激活指示。基于所接收的指示,执行利用对应于时间间隔的特定颜色(或多个颜色)对所显示的图像区的绘图,输入对象的用户可激活元件在所述时间间隔期间保持激活。
由图像捕获设备104捕获的触笔106的图像可以由相机传送至电子设备102中的输入处理引擎114。输入处理引擎114连同图像捕获设备104、光源组件108和触笔106一起可以是用户输入系统的部分。
如本公开中所讨论的“引擎”可以包括硬件或硬件和编程的组合以实现相应引擎的功能。硬件和编程的这样的组合可以以数个不同方式实现。例如,用于引擎的编程可以包括存储在非暂时性机器可读存储介质上的可执行指令,并且用于引擎的硬件可以包括执行那些指令的(多个)处理器。在这样的示例中,机器可读存储介质可以存储指令,所述指令在由(多个)处理器执行时,实现引擎的功能。处理器可以包括微处理器、微控制器、可编程集成电路、可编程门阵列或前述的任何组合。
输入处理引擎114可以向由输入捕获设备104捕获的触笔106的图像应用图像处理。由输入处理引擎114应用的输入处理可以检测触笔106在三个维度中的位置。三个维度可以包括x、y和z轴,其中x和y轴可以例如处于水平平面中,而z轴在例如竖直平面中延伸。更一般地,x和y轴处于第一平面中,并且z轴垂直于x和y轴二者。z轴对应于触笔106关于表面结构110的上表面112的深度。图1示出(在109处)沿z轴移动的触笔106。
在一些示例中,图像捕获设备104可以包括相机,其可以捕获对象(包括触笔106)的深度信息。例如,相机可以是红外(IR)相机,其包括深度传感器。在由IR相机捕获的图像中可以包括IR图像以及由IR相机捕获的对象的深度信息二者。
以此方式,触笔106在x、y和z轴上的位置可以由输入处理引擎114确定。基于所确定的触笔106的(多个)位置,输入处理引擎114可以产生相应的(多个)输入事件116。(多个)输入事件116可以由电子设备102中的其它逻辑使用,所述其它逻辑诸如机器可读指令(例如软件或固件)、处理器等。
要指出的是,输入处理引擎114可以甚至在触笔106悬停在表面结构110之上时确定触笔106在三个维度中的位置。该确定可以在没有触笔106与表面结构110之间的物理交互的情况下做出,而同时触笔106悬停在表面结构110之上。
图2是根据一些实现方式的过程的流程图。图2的过程可以由系统执行,所述系统可以包括电子设备、电子设备的布置、处理器或处理器的布置。在一些示例中,可以执行图2的过程的系统是图1的电子设备102。更具体地,在一些示例中,图2的过程可以由输入处理引擎114执行。
系统接收(在202处)由输入对象(例如触笔106)的图像捕获设备104捕获的数据,所述输入对象具有触笔106的表面上的回射材料。如以上所指出的,触笔106的外表面上的回射材料可以包括第一回射图案和不同的第二回射图案。不同图案可以具有不同形状、不同大小,或者可以具有可以将一个回射图案从另一回射图案区分开的任何其它特性。在一些示例中,第一回射图案可以提供在触笔106的上部部分处,而第二回射图案可以提供在触笔106的底部部分处,诸如靠近尖端部分107或在尖端部分107上。不同回射图案的使用允许在触笔106的顶部和底部部分之间做出区分。
系统基于所接收的数据而确定(在204处)输入对象在三个维度中的位置。基于输入对象的位置或基于可以基于如由系统确定的输入对象的多个位置而导出的手势,一个或多个输入事件(例如图1中的116)可以由系统生成。
在可替换的实现方式中,要指出的是,触笔106还可以结合触敏表面(诸如触摸垫或触摸屏显示器)使用。在这样的实现方式中,所确定的触笔106的位置,并且更具体地,所确定的触笔106的尖端部分的位置,可以用于执行非故意触摸拒绝。非故意触摸拒绝用于拒绝不是有意为之的触摸的任何触摸。例如,握持触笔106的用户可能诸如利用用户的手掌或关节无心触摸到触敏表面。
在一些实现方式中,基于所确定的触笔106的位置,可以标识具有关于触笔106的空间关系的区,诸如触笔106的尖端部分。例如,所确定的区可以是触笔106的尖端部分周围的区。作为其它示例,所确定的区可以是离开触笔106的尖端部分的距离。所确定的区可以是非活跃区,其中要无视非活跃区中的任何触摸。因而关于所确定的区执行非故意触摸拒绝。
图3是根据一些示例的触笔106的侧视图。图4是触笔106的内部部件的示意性视图(其中移除了触笔106的外壳301)。在图3的示例中,触笔106一般地被成形为读出笔。它们这些触笔106具存总体主体302。回射材料可以涂覆于大体沿主体302的整个长度的主体302的外表面。输入对象的主体的“大体沿整个长度”可以是指大于输入对象的主体的整个长度的50%。在其它示例中,回射材料不是大体涂覆于触笔106的整个长度,而是替代地可以涂覆于触笔106的上部部分304和底部部分306。要指出的是,上部部分304和底部部分306可以具有比在图3的示例中所描绘的更长的长度或更短的长度。上部部分304和下部部分306可以具有不同于彼此的相应回射图案。
触笔106的底部部分可以提供有可移动活塞308(其为图1的尖端部分107的示例)。可移动活塞308可以是弹簧加载的活塞,其在活塞308接触表面结构110的上表面112时可沿触笔106的长度纵向移动。活塞308的移动可以由活塞传感器311检测,活塞传感器311可以是电气开关传感器、光学传感器或任何其它类型的传感器。
压力抵靠上表面112在触笔106上的应用可以使得活塞308纵向移动。由用户应用的不同压力可以对应于活塞308的不同移动,所述移动可以由触笔106检测。触笔308的不同位置可以在从触笔106传输至电子设备102的数据中传送。作为示例,由用户应用的导致活塞308的不同纵向移动的不同压力可以对应于在所显示的图像中绘制的不同线宽度。
在根据图3和4的示例中,可以提供用户可激活按钮310,其可以由用户按下。按下按钮310的部分312导致按钮310的第一致动。按压按钮310的第二部分314导致按钮310的第二致动。按压按钮310的中间部分316导致按钮310的第三致动。不同致动可以对应于三个不同的按钮输入。在其它示例中,可以提供其它类型的用户可激活元件。
触笔106还包括发光二极管(LED)指示器318。图4还示出包括在触笔106中以向触笔106中的各种部件提供电力的电池324。
触笔106还可以包括取向传感器322,诸如加速度计,其可以检测触笔106的取向(例如竖直取向、水平取向或竖直与水平之间的另一取向)。
此外,触笔106包括无线接口320,其可以与图1的电子设备102中的无线接口118无线通信。对应于活塞308的激活的信号、对应于按钮310的激活的信号和取向传感器322的所测量的数据可以通过无线接口320无线传送至电子设备102。
前文参照其中活塞308在触笔的底部部分处的触笔106的取向。在其它示例中,如果触笔106要供基于电容性的触敏表面(取代于或附加于如以上所讨论的基于图像的输入系统)使用,则触笔106的电容性笔尖326可以被视为在触笔106的底部部分处。电容性笔尖326可以由基于电容性的触敏表面检测。
要指出的是,在其它示例中可以省略如图3和4中所示的触笔106的一些元件。例如,图3A示出没有图3的触笔的各种元件的根据另外的实现方式的触笔106。
图5是根据一些实现方式的可以由输入处理引擎114执行的图像处理的示意图。输入处理引擎114接收由图像捕获设备104提供的数据502,图像捕获设备104可以包括例如IR相机。IR相机提供原始IR图像504,其描绘如由用户在表面结构110上方握持的触笔106。输入数据502还包括深度信息506,如由IR相机的深度传感器所捕获到的。深度信息506提供在原始图像504中捕获的元素深度的指示。
输入处理元件114向输入数据502应用图像处理508以标识触笔106的位置。图像处理508产生突显触笔106而同时移除原始图像504中的元素的剩余部分的经处理的图像510,所述元素的剩余部分包括用户的手部和支撑结构110。深度信息506还通过图像处理508转换成突显触笔106的深度图像512。
由于触笔106的外表面上的回射材料的使用,使得突显触笔106的图像处理508更加精确。
组合图像510和512产生包括3D信息的触笔106的输出图像514,所述3D信息可以用于确定触笔106的3D位置。
图6是示出可以由输入处理引擎114执行的根据一些实现方式的进一步处理的示意图。对图6的过程的输入(称为位置数据601)可以从图5的输出图像514导出。在图6的示例中,输入处理引擎114包括聚合模块602和硬件处理电路604。聚合模块602可以包括机器可读指令。在其它示例中,取代于使用图6中所描绘的布置,可以提供不同的处理布置。
位置数据601(其提供触笔106在三个维度中的位置)由聚合模块602接收。来自触笔106的其它触笔信息606也由聚合模块602接收。其它触笔信息606可以包括涉及活塞308的激活的信息、涉及按钮310的激活的信息和来自取向传感器322的测量数据(图3)。
聚合模块602聚合位置数据601和其它触笔信息606以产生经聚合的数据608,经聚合的数据608可以被提供给硬件处理电路604。在一些示例中,经聚合的数据608可以以通用串行总线(USB)格式提供给硬件处理电路604。
响应于经聚合的数据608,硬件处理电路604处理事件数据610以表示相应的(多个)输入事件,诸如人机接口设计(HID)事件数据。将HID事件数据610提供给聚合模块602,聚合模块602然后可以处理(多个)输入事件。
图7是根据一些实现方式的示例电子设备102的框图。处理器可以包括微处理器、微控制器、处理器模块或子系统、可编程集成电路、可编程门阵列或另一控制或计算设备。电子设备102包括一个或多个处理器702,其耦合到一个非暂时性机器可读存储介质(或多个存储介质)704。
存储介质(或多个存储介质)704可以存储机器可读指令706,其可以包括输入处理引擎指令708(输入处理引擎114的指令)。
存储介质(或多个存储介质)704可以包括不同形式的存储器,包括半导体存储器器件,诸如动态或静态随机存取存储器(DRAM或SRAM)、可擦除和可编程只读存储器(EPROM)、电可擦除和可编程只读存储器(EEPROM)和闪速存储器;磁盘,诸如固定盘、软盘和可移除盘;多个其它磁性介质,包括磁带;多个光学介质,诸如致密盘(CD)或数字视频盘(DVD);或其它类型的存储设备。要指出的是,以上讨论的指令可以提供在一个计算机可读或机器可读存储介质上,或者可以提供在分布于可能具有复数个节点的大型系统中的多个计算机可读或机器可读存储介质上。这样的一个或多个计算机可读或机器可读存储介质被视为制品(或制造品)的部分。制品或制造品可以是指任何经制造的单个部件或多个组件。一个或多个存储介质可以位于运行机器可读指令的机器中,或者位于远程站点处,可以通过网络从所述远程站点下载机器可读指令以供执行。
在前述描述中,阐述众多细节以提供本文所公开的主题的理解。然而,实现方式可以在没有这些细节中的一些的情况下实践。其它实现方式可以包括来自以上讨论的细节的修改和变型。意图在于随附权利要求覆盖这样的修改和变型。
Claims (15)
1.一种方法,包括:
通过包括处理器的系统接收由输入对象的图像捕获设备捕获的数据,所述输入对象具有所述输入对象的表面上的第一回射图案和不同的第二回射图案;以及
通过所述系统基于所接收的数据而确定所述输入对象在三个维度中的位置。
2.权利要求1所述的方法,还包括当所述输入对象悬停在表面上方而不接触所述表面时确定所述输入对象的位置。
3.权利要求2所述的方法,其中当所述输入对象悬停在所述表面上方时确定所述输入对象的位置是在没有所述输入对象与所述表面之间的任何物理交互的情况下执行的。
4.权利要求1所述的方法,还包括:
基于所确定的所述输入对象的位置,确定具有关于所述输入对象的部分的空间关系的区;以及
基于所确定的区,执行关于与触敏表面做出的触摸的非故意触摸拒绝。
5.权利要求4所述的方法,其中执行非故意触摸拒绝包括无视与所述触敏表面做出的触摸。
6.权利要求1所述的方法,其中大体沿触笔的整个长度提供回射材料,其中所述回射材料包括所述第一回射图案和所述第二回射图案。
7.权利要求1所述的方法,还包括:
通过所述系统接收所述输入对象上的用户可激活元件的激活的指示;以及
通过所述系统基于所接收的指示而导致利用对应于时间间隔的特定颜色对所显示的图像的区的绘图,所述输入对象的所述用户可激活元件在所述时间间隔期间保持激活。
8.权利要求1所述的方法,还包括:
通过所述系统接收所述输入对象的活塞的移动的指示,其中所述活塞的移动是响应于所述活塞与所述表面之间的交互的。
9.权利要求1所述的方法,其中接收由所述输入对象的所述图像捕获设备捕获的数据包括接收由所述输入对象的红外相机捕获的数据。
10.一种触笔,包括:
主体;以及
所述主体的外表面,其中第一回射图案和不同的第二回射图案提供在所述外表面上以供由图像捕获设备检测来确定所述触笔的三维位置。
11.权利要求10所述的触笔,其中所述主体具有底部部分和顶部部分,其中所述第一回射图案接近所述底部部分,并且所述第二回射图案接近所述顶部部分。
12.权利要求10所述的触笔,还包括:
用户可激活按钮;以及
无线通信接口,用于向电子设备传送所述用户可激活按钮的激活的指示。
13.权利要求10所述的触笔,还包括:
传感器,用于检测所述触笔的取向;以及
无线通信接口,用于向电子设备传送所述传感器的测量结果。
14.权利要求10所述的触笔,还包括:
可响应于所述活塞与表面的交互而移动的活塞;以及
无线通信接口,用于向电子设备传送所述活塞的移动的指示。
15.一种系统,包括:
输入捕获设备,用于捕获输入对象的图像,所述输入对象具有所述输入对象的表面上的第一回射图案和不同的第二回射图案;以及
引擎,用于:
接收由所述输入对象的所述图像捕获设备捕获的数据;
基于所接收的数据而确定所述输入对象在三个维度中的位置,所接收的数据包括涉及所述第一回射图案和所述第二回射图案的数据。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2014/049657 WO2016022097A1 (en) | 2014-08-05 | 2014-08-05 | Determining a position of an input object |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106796462A true CN106796462A (zh) | 2017-05-31 |
CN106796462B CN106796462B (zh) | 2020-09-04 |
Family
ID=55264232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480082501.7A Expired - Fee Related CN106796462B (zh) | 2014-08-05 | 2014-08-05 | 确定输入对象的位置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10318023B2 (zh) |
EP (1) | EP3177983B1 (zh) |
CN (1) | CN106796462B (zh) |
TW (1) | TWI560583B (zh) |
WO (1) | WO2016022097A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6271395B2 (ja) * | 2014-10-31 | 2018-01-31 | 富士フイルム株式会社 | 情報処理装置および情報入力方法 |
CN110032323B (zh) * | 2018-01-12 | 2021-12-28 | 荷兰移动驱动器公司 | 电子设备及手势导航方法 |
US11460961B2 (en) | 2019-08-23 | 2022-10-04 | Samsung Electronics Co., Ltd. | Method for determining proximity of at least one object using electronic device |
US20230089734A1 (en) * | 2021-09-21 | 2023-03-23 | Microsoft Technology Licensing, Llc | Rf retroreflector based controller tracking for vr headsets |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103003778A (zh) * | 2010-04-01 | 2013-03-27 | 智能技术无限责任公司 | 交互式输入系统和用于其的笔工具 |
US20130100022A1 (en) * | 2011-09-22 | 2013-04-25 | Smart Technologies Ulc | Interactive input system and pen tool therefor |
CN202976035U (zh) * | 2012-12-12 | 2013-06-05 | 锐达互动科技股份有限公司 | 一种支持手写笔和反光笔的影像电子白板装置 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
JP2001209487A (ja) | 2000-01-25 | 2001-08-03 | Uw:Kk | 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置 |
JP3851763B2 (ja) | 2000-08-04 | 2006-11-29 | 株式会社シロク | 位置検出装置、位置指示器、位置検出方法及びペンダウン検出方法 |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US6917033B2 (en) | 2002-10-15 | 2005-07-12 | International Business Machines Corporation | Passive touch-sensitive optical marker |
US20050078092A1 (en) | 2003-10-08 | 2005-04-14 | Clapper Edward O. | Whiteboard desk projection display |
US7184022B2 (en) * | 2004-01-16 | 2007-02-27 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Position determination and motion tracking |
US20060084039A1 (en) | 2004-10-19 | 2006-04-20 | Massachusetts Institute Of Technology | Drawing tool for capturing and rendering colors, surface images and movement |
JP4609054B2 (ja) * | 2004-12-07 | 2011-01-12 | ブラザー工業株式会社 | 入力支援装置 |
US7599561B2 (en) | 2006-02-28 | 2009-10-06 | Microsoft Corporation | Compact interactive tabletop with projection-vision |
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
US7839394B2 (en) * | 2007-01-08 | 2010-11-23 | Pegasus Technologies Ltd. | Electronic pen device |
US8199117B2 (en) | 2007-05-09 | 2012-06-12 | Microsoft Corporation | Archive for physical and digital objects |
US7874681B2 (en) | 2007-10-05 | 2011-01-25 | Huebner Kenneth J | Interactive projector system and method |
WO2009090789A1 (ja) | 2008-01-15 | 2009-07-23 | Sharp Kabushiki Kaisha | タッチパネル用入力ペン、および、タッチパネル入力システム |
WO2010039663A2 (en) * | 2008-10-02 | 2010-04-08 | Next Holdings, Inc. | Stereo optical sensors for resolving multi-touch in a touch detection system |
IT1396229B1 (it) * | 2009-01-14 | 2012-11-16 | Mode | Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel |
US8121640B2 (en) | 2009-03-19 | 2012-02-21 | Microsoft Corporation | Dual module portable devices |
JP2010277122A (ja) * | 2009-05-26 | 2010-12-09 | Xiroku:Kk | 光学式位置検出装置 |
US20110128218A1 (en) * | 2009-12-01 | 2011-06-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
US20110234542A1 (en) * | 2010-03-26 | 2011-09-29 | Paul Marson | Methods and Systems Utilizing Multiple Wavelengths for Position Detection |
TWI423096B (zh) | 2010-04-01 | 2014-01-11 | Compal Communication Inc | 具可觸控投影畫面之投影系統 |
TWI409679B (zh) * | 2010-06-04 | 2013-09-21 | Au Optronics Corp | 光學式觸控面板及觸控顯示裝置及其觸控輸入方法 |
JP2012022639A (ja) | 2010-07-16 | 2012-02-02 | Ntt Docomo Inc | 表示装置、映像表示システムおよび映像表示方法 |
EP3584682B1 (en) | 2010-12-22 | 2021-06-30 | zSpace, Inc. | Three-dimensional tracking of a user control device in a volume |
US9201520B2 (en) * | 2011-02-11 | 2015-12-01 | Microsoft Technology Licensing, Llc | Motion and context sharing for pen-based computing inputs |
US8736583B2 (en) | 2011-03-29 | 2014-05-27 | Intel Corporation | Virtual links between different displays to present a single virtual object |
JP5754216B2 (ja) * | 2011-04-04 | 2015-07-29 | セイコーエプソン株式会社 | 入力システム及びペン型入力機器 |
US8669431B2 (en) * | 2011-07-23 | 2014-03-11 | Monsanto Technology Llc | Soybean variety D2011907 |
US8842057B2 (en) | 2011-09-27 | 2014-09-23 | Z124 | Detail on triggers: transitional states |
US9195351B1 (en) * | 2011-09-28 | 2015-11-24 | Amazon Technologies, Inc. | Capacitive stylus |
WO2013108031A2 (en) | 2012-01-20 | 2013-07-25 | Light Blue Optics Limited | Touch sensitive image display devices |
US9720506B2 (en) * | 2014-01-14 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D silhouette sensing system |
TWI499944B (zh) * | 2014-01-17 | 2015-09-11 | Egalax Empia Technology Inc | Active stylus with switching function |
US9727161B2 (en) * | 2014-06-12 | 2017-08-08 | Microsoft Technology Licensing, Llc | Sensor correlation for pen and touch-sensitive computing device interaction |
-
2014
- 2014-08-05 WO PCT/US2014/049657 patent/WO2016022097A1/en active Application Filing
- 2014-08-05 CN CN201480082501.7A patent/CN106796462B/zh not_active Expired - Fee Related
- 2014-08-05 EP EP14899325.6A patent/EP3177983B1/en not_active Not-in-force
- 2014-08-05 US US15/501,274 patent/US10318023B2/en active Active
-
2015
- 2015-08-04 TW TW104125246A patent/TWI560583B/zh not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103003778A (zh) * | 2010-04-01 | 2013-03-27 | 智能技术无限责任公司 | 交互式输入系统和用于其的笔工具 |
US20130100022A1 (en) * | 2011-09-22 | 2013-04-25 | Smart Technologies Ulc | Interactive input system and pen tool therefor |
CN202976035U (zh) * | 2012-12-12 | 2013-06-05 | 锐达互动科技股份有限公司 | 一种支持手写笔和反光笔的影像电子白板装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2016022097A1 (en) | 2016-02-11 |
TWI560583B (en) | 2016-12-01 |
EP3177983A1 (en) | 2017-06-14 |
US20170220141A1 (en) | 2017-08-03 |
EP3177983A4 (en) | 2018-06-27 |
CN106796462B (zh) | 2020-09-04 |
US10318023B2 (en) | 2019-06-11 |
EP3177983B1 (en) | 2020-09-30 |
TW201617801A (zh) | 2016-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5991041B2 (ja) | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 | |
US8593398B2 (en) | Apparatus and method for proximity based input | |
US10126824B2 (en) | Generating a screenshot | |
CN104969148B (zh) | 基于深度的用户界面手势控制 | |
US20130241832A1 (en) | Method and device for controlling the behavior of virtual objects on a display | |
CN102662462A (zh) | 电子装置、手势识别方法及手势应用方法 | |
WO2012054060A1 (en) | Evaluating an input relative to a display | |
KR20140114913A (ko) | 사용자 기기의 센서 운용 방법 및 장치 | |
TW201333780A (zh) | 包含具有兩種以上自由度之使用者介面之電子設備,該使用者介面包含一觸碰敏感表面及非接觸式偵測構件 | |
US20160054831A1 (en) | Capacitive touch device and method identifying touch object on the same | |
US20130257809A1 (en) | Optical touch sensing apparatus | |
US20150286313A1 (en) | Large feature biometrics using capacitive touchscreens | |
GB2479458A (en) | Correlating the mode or identification of an input prosthetic with a function | |
CN106681636A (zh) | 一种防误触的方法、装置及移动终端 | |
CN106796462A (zh) | 确定输入对象的位置 | |
TWI533181B (zh) | 光學式觸控感測裝置及其觸控信號判斷方法 | |
CN108874284A (zh) | 手势触发方法 | |
WO2014146516A1 (zh) | 一种左右手交互装置及方法 | |
KR101519225B1 (ko) | 휴대용 디바이스 센서를 이용한 디바이스 간 컨텐츠 이동 방법 및 시스템 | |
TWI620097B (zh) | 輸入方法及使用該輸入方法的觸控裝置、手勢偵測裝置、電腦可讀取紀錄媒體、及電腦程式產品 | |
CN104345905A (zh) | 触控式空中鼠标的控制方法 | |
TWI592848B (zh) | 輸入裝置 | |
US11460956B2 (en) | Determining the location of a user input device | |
US9727236B2 (en) | Computer input device | |
US20170139545A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200904 |
|
CF01 | Termination of patent right due to non-payment of annual fee |