CN107003717A - 变换所接收到的触摸输入 - Google Patents

变换所接收到的触摸输入 Download PDF

Info

Publication number
CN107003717A
CN107003717A CN201480083641.6A CN201480083641A CN107003717A CN 107003717 A CN107003717 A CN 107003717A CN 201480083641 A CN201480083641 A CN 201480083641A CN 107003717 A CN107003717 A CN 107003717A
Authority
CN
China
Prior art keywords
event type
touch input
touch
pad
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480083641.6A
Other languages
English (en)
Other versions
CN107003717B (zh
Inventor
A·阿利米安
D·S·德利马
B·N·苏格斯
I·阿莫
N·P·里昂
E·威尔逊
R·A·林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of CN107003717A publication Critical patent/CN107003717A/zh
Application granted granted Critical
Publication of CN107003717B publication Critical patent/CN107003717B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1605Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

在根据本公开的各方面的示例实现中,一种方法可以包括,在计算系统的触敏垫上接收与第一事件类型相关联的触摸输入。所述方法还包括确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型,以及向应用发送与基于根据所述确定的事件类型相关联的触摸输入。

Description

变换所接收到的触摸输入
背景技术
许多计算系统包括至少一个显示器和至少一个输入设备。显示器可以包括例如监视器、屏幕等。示例输入设备包括鼠标、键盘、触摸垫等。一些计算系统包括触敏显示器以既显示计算系统的输出又接收物理(例如触摸)输入。
附图说明
以下详细描述参考附图,其中:
图1是示例计算系统的示意性透视图;
图2是图1的示例计算系统的另一示意性透视图;
图3是图1的示例计算系统的示意性侧视图;
图4是图1的示例计算系统的示意性正视图;
图5是在示例操作期间的图1的示例计算系统的示意性侧视图;
图6是在示例操作期间的图1的示例计算系统的示意性正视图;
图7是图示作为示例的用于智能地处理在支持触摸的设备上接收到的触摸输入的系统的流水线;
图8是图1的计算系统的示例部分的框图;以及
图9是描绘实现示例的步骤的流程图。
具体实施方式
现在参照附图,图1-6是包括分段引擎170的示例计算系统100的示意性视图。在一些示例中,分段引擎170可以基于所捕获的图像而确定表示对象的至少一个外边缘的分段边界,如将进一步描述的。在图1-6的示例中,系统100一般包括支撑结构110、计算设备150、投影仪单元180和投影屏幕200。
计算设备150可以包括遵照本文所公开的原理的任何合适的计算设备。如本文所使用的,“计算设备”可以包括电子显示设备、智能电话、平板电脑、芯片集、多合一计算机(例如包括还容纳计算机的(一个或多个)处理资源的显示设备的设备)、台式计算机、笔记本计算机、工作站、服务器、任何其它处理设备或装备或其组合。在该示例中,设备150是多合一计算机,其具有中心轴或中心线155、第一侧或顶侧150A、与顶侧150A轴向相对的第二侧或底侧150B、在侧部150A和150B之间轴向延伸的前侧150C、同样在侧部150A和150B之间轴向延伸并且一般与前侧150C径向相对的后侧150D。显示器152沿前侧150C布置并且定义计算系统100的观看表面以显示图像以供系统100的用户观看。在本文所描述的示例中,显示器可以包括适合用于显示图像、视频等的任何技术的部件。
在一些示例中,显示器152可以是触敏显示器。在本文所描述的示例中,触敏显示器可以包括例如用于显示图像、视频等的任何合适的技术(例如部件),并且可以包括用于检测物理接触(例如触摸输入)的任何合适的技术(例如部件),诸如例如电阻式、电容式、表面声波、红外(IR)、应变仪、光学成像、声学脉冲识别、分散信号感测或单元内系统等。在本文所描述的示例中,显示器152可以称为触敏显示器152。设备150还可以包括摄像机154,其可以是例如Web(网络)摄像机。在一些示例中,摄像机154可以捕获位于显示器152前方的用户的图像。在一些示例中,设备150还可以包括接收声音输入(例如来自用户的语音输入)的麦克风或其它设备。
在图1-6的示例中,支撑结构110包括底座120、直立构件140和顶部160。底座120包括第一端或前端120A以及第二端或后端120B。底座120可以与支撑表面15接合以支撑系统100的部件(例如构件140、单元180、设备150、顶部160等)的至少部分的重量。在一些示例中,底座120可以在系统100被配置用于操作时以该方式与支撑表面15接合。在图1-6的示例中,底座120的前端120A包括升高部分122,该升高部分122可以在底座120布置在支撑表面15上时被布置在支撑表面15上方并且与支撑表面15分离(从而创建部分122与表面156之间的空间或空隙),例如如图2中所图示的。在这样的示例中,投影屏幕200的侧部的部分可以被布置在形成于部分122与表面15之间的空间中(例如被接收在其内)。在这样的示例中,将屏幕200的部分放置在由部分122和表面15创建的空间内可以帮助屏幕200的恰当对准。在其它示例中,其它合适的方法或设备可以用于帮助屏幕200的对准。
直立构件140包括第一端或上端140A、与上端140A相对的第二端或下端140B、在端部140A和140B之间延伸的第一侧或前侧140C,以及与前侧140C相对并且也在端部140A和140B之间延伸的第二侧或后侧140D。构件140的下端140B耦合到底座120的后端120B,使得构件140从支撑表面15大体向上延伸。
顶部160包括第一端或近端160A、与近端160A相对的第二端或远端160B、在端部160A和160B之间延伸的顶表面160C,以及与顶表面160C相对并且也在端部160A和160B之间延伸的底表面160D。顶部160的近端160A耦合到直立构件140的上端140A,使得远端160B从直立构件140的上端140A向外延伸。照此,在图2中所示的示例中,顶部160在端部160A处(而非在端部160B处)被支撑,并且可以在本文中称为悬臂式顶部。在一些示例中,底座120、构件140和顶部160可以单片形成。在其它示例中,底座120、构件140和顶部160中的两个或更多个可以由分离的件形成(即不是单片形成)。
投影屏幕200可以包括中心轴或中心线205、第一侧或前侧200A以及与前侧200A轴向相对的第二侧或后侧200B。在图1-6的示例中,屏幕200可以包括与轴205大体对准的触敏区202。区202可以包括用于检测物理接触(例如触摸输入)的任何合适的技术,如以上所描述的(例如电容式触摸垫)。例如,触敏区202可以包括用于检测(并且在一些示例中跟踪)通过用户的一个或多个触摸输入以使得用户能够经由这样的触摸输入与由设备150或另一计算设备执行的软件交互的任何合适的技术。在图1-6的示例中,区202在小于屏幕200的全部上延伸。在其它示例中,区202可以在屏幕200的大体全部上延伸(例如可以大体与屏幕200有共同边界(coterminous))。在本文所描述的示例中,投影屏幕200可以是任何合适的平面对象,诸如垫(例如触敏垫)、桌面、片等。在一些示例中,投影屏幕200可以被水平(或者近似或大体水平)布置。例如,屏幕200可以被布置在支撑表面15上,支撑表面15可以是水平的(或者近似或大体水平的)。
如以上所描述的,屏幕200可以与结构110的底座120对准以帮助屏幕200的恰当对准(例如至少在系统100的操作期间)。在图1-6的示例中,屏幕200的后侧200B可以布置在底座120的升高部分122和支撑表面15之间,使得后端200B与底座120的前侧120A对准以帮助屏幕200与系统100的其它部件的恰当总体对准(并且特别地,区202的恰当对准)。在一些示例中,屏幕200可以与设备150对准,使得设备150的中心线155与屏幕200的中心线205大体对准。在其它示例中,屏幕200可以不同地与设备150对准。
在一些示例中,屏幕200的区202和设备150可以通信连接(例如电气耦合)到彼此,使得由区202接收的用户输入可以被传送至设备150。区202和设备150可以经由任何合适的有线或无线通信技术或机制(诸如例如WI-FI、BLUETOOTH、超声技术、电气线缆、电气引线、电气导体、具有磁性保持力的电气弹簧加载的弹簧针(pogo pin)等或其组合)与彼此通信。在图1-6的示例中,布置在屏幕200的后侧200B上的暴露的电气接触件可以与底座120的部分122内的对应电气弹簧针引线接合以在系统100的操作期间在设备150和区202之间传送信息(例如传递信号)。在这样的示例中,电气接触件可以通过相邻磁体(位于底座120的部分122和表面15之间的空隙中)保持在一起以磁性吸引和(例如机械地)保持沿屏幕200的后侧200B布置的对应含铁和/或磁性材料。
参照图3,投影仪单元180包括外部壳体182以及布置在壳体182内的投影仪组件184。壳体182包括第一端或上端182A、与上端182A相对的第二端或下端182B以及内部腔体183。在图3的示例中,壳体182还包括耦合或安装构件186以与设备150接合并且支撑设备150(例如至少在系统100的操作期间)。构件186可以是用于悬挂和支撑任何合适的计算设备150的任何合适的机构或设备,如本文所描述的。例如,构件186可以包括铰链,所述铰链包括旋转轴,使得设备150可以关于旋转轴旋转(例如通过用户)以获得对于观看显示器152期望的角度。在一些示例中,设备150可以永久或半永久地附连到单元180的壳体182。在一些示例中,壳体180和设备150可以整体或单片地形成为单个单元。
参照图4,在一些示例中,当设备150经由壳体182上的安装构件186从结构110悬挂时,投影仪单元180(即壳体182和组件184二者)可以在从前方观看系统100(即大体面对布置在设备150的前侧150C上的显示器152)时大体隐藏在设备150背后。此外,如图4中所示,当设备150从结构110悬挂时,如以上所描述的,投影仪单元180(即壳体182和组件184二者)和由此投影的任何图像可以关于设备150的中心线155大体对准或居中(center)。
再次参照图3,投影仪组件184被布置在壳体182的腔体183内,并且包括第一端或上端184A、与上端184A相对的第二端或下端184B。上端184A接近壳体182的上端182A,而下端184B接近壳体182的下端182B。投影仪组件184可以包括用于从计算设备(例如设备150)接收数据和投影与该输入数据对应的(一个或多个)图像(例如离开上端184A)的任何合适的数字光投影仪组件。例如,在一些实现中,投影仪组件184可以包括数字光处理(DLP)投影仪或硅上液晶(LCoS)投影仪,其有利地是具有多个显示分辨率和尺寸能力的紧凑且功率高效的投影引擎,诸如例如具有4∶3纵横比的标准XGA分辨率(1024×768像素)或具有16∶10纵横比的标准WXGA分辨率(1280×800像素)。投影仪组件184还通信连接(例如电气耦合)到设备150以便从其接收数据并且基于所接收的数据而从端部184A产生(例如投影)光和(一个或多个)图像。投影仪组件184可以经由例如任何合适类型的电气耦合或本文所描述的任何其它合适的通信技术或机制而通信连接到设备150。在一些示例中,组件184可以经由(一个或多个)电气导体、WI-FI、BLUETOOTH、光学连接、超声连接或其组合而通信连接到设备150。在图1-6的示例中,设备150通过布置在安装构件186内的电气引线或导体(例如,如以上关于屏幕200和底座120所描述的)而通信连接到组件184,使得当设备150通过构件186从结构110悬挂时,布置在构件186内的电气引线接触布置在设备150上的对应引线或导体。
仍旧参照图3,顶部160还包括折叠反射镜162和传感器束164。反射镜162包括高度反射表面162A,其沿顶部160的底表面160D布置并且被定位成在操作期间朝向屏幕200反射从投影仪组件184的上端184A投影的光、(一个或多个)图像等。反射镜162可以包括任何合适类型的反射镜或反射表面。在图1-6的示例中,折叠反射镜162可以包括标准前表面真空金属化铝涂覆玻璃反射镜,其起作用以将从组件184发射的光向下折叠到屏幕200。在其它示例中,反射镜162可以具有复杂的非球面曲率以充当反射透镜元件以提供附加的聚焦能力或光学校正。
传感器束164包括多个传感器(例如摄像机或其它类型的传感器)以检测、测量或以其它方式获取基于传感器束164和屏幕200之间的区(例如发生在该区中的活动)的状态的数据。传感器束164和屏幕200之间的区的状态可以包括屏幕200上或屏幕200上方的(一个或多个)对象或发生在屏幕200上或附近的(一个或多个)活动。在图3的示例中,束164包括RGB摄像机164A(或另一类型的彩色摄像机164A)、IR摄像机164B、深度摄像机(或深度传感器)164C和环境光传感器164D。
在一些示例中,RGB摄像机164A可以是捕获彩色图像(例如静止图像和视频中的至少一个)的摄像机。在一些示例中,RGB摄像机164A可以是根据RGB颜色模型捕获图像的摄像机,该图像在本文中可以称为“RGB图像”。在一些示例中,RGB摄像机164A可以捕获具有相对高的分辨率(诸如例如在多兆像素(MP)的量级上的分辨率)的图像。作为示例,RGB摄像机164A可以捕获具有14MP的分辨率的彩色(例如RGB)图像。在其它示例中,RBG摄像机164A可以捕获具有不同的分辨率的图像。在一些示例中,RGB摄像机164A可以指向屏幕200,并且可以捕获屏幕200、布置在屏幕200和RGB摄像机164A之间(例如在屏幕200上或上方)的(一个或多个)对象或其组合的(一个或多个)图像。
IR摄像机164B可以是检测摄像机164B的视场中的多个点处的IR光的强度的摄像机。在本文所描述的示例中,IR摄像机164B可以结合系统100的IR光投影仪来操作以捕获IR图像。在这样的示例中,每一个IR图像可以包括多个像素,每一个表示在由像素表示的点处检测到的IR光的强度。在一些示例中,系统100的顶部160可以包括朝向屏幕200投影IR光的IR光投影仪,并且IR摄像机164B可以指向屏幕200。在这样的示例中,IR摄像机164B可以检测由屏幕200、布置在屏幕200和IR摄像机164B之间(例如在屏幕200上或上方)的(一个或多个)对象或其组合所反射的IR光的强度。在一些示例中,IR摄像机164B可以排他性地检测由IR光投影仪投影的IR光(例如如从屏幕200、(一个或多个)对象等反射的,或直接被接收的)。
深度摄像机164C可以是检测深度摄像机164C的视场中的(一个或多个)对象的部分的(一个或多个)相应距离(或深度)的摄像机((一个或多个)传感器等)。如本文所使用的,由深度摄像机检测的数据可以在本文中称为“距离”或“深度”数据。在本文所描述的示例中,深度摄像机164C可以捕获多像素深度图像(例如深度图),其中每一个像素的数据表示由像素表示的点处的对象的部分的(从摄像机164C测量的)距离或深度。深度摄像机164C可以使用任何合适的技术来实现,诸如(一个或多个)立体视觉摄像机、具有均匀大量的IR光的单个IR摄像机传感器、具有均匀大量的IR光的双IR摄像机传感器、结构光深度传感器技术、飞行时间(TOF)深度传感器技术或其组合。在一些示例中,深度传感器164C可以指示何时对象(例如三维对象)在屏幕200上。在一些示例中,深度传感器164C可以检测放置在屏幕200上的对象(或其部分)的存在、形状、轮廓、运动和(一个或多个)相应距离中的至少一个。
环境光传感器164D可以被布置成测量在系统100周围的环境中的光的强度。在一些示例中,系统100可以使用传感器164D的测量来调节系统100的其它部件,诸如例如系统100的传感器或摄像机(例如摄像机164A-164C)的曝光设定、从系统100的光源(例如投影仪组件184、显示器152等)发射的光的强度等。
在一些示例中,传感器束164可以省略传感器164A-164D中的至少一个。在其它示例中,传感器束164可以包括附加于传感器164A-164D或替代于传感器164A-164D中的至少一个的其它(一个或多个)摄像机、(一个或多个)传感器等。例如,传感器束164可以包括用户接口传感器,其包括用于跟踪用户输入设备(诸如例如手部、触笔(stylus)、定点设备等)的(一个或多个)任何合适的设备(例如(一个或多个)传感器、(一个或多个)摄像机)。在一些示例中,用户接口传感器可以包括摄像机对,其布置成在用户输入设备被用户关于屏幕200(例如关于屏幕200的区202)移动时对用户输入设备(例如触笔)的位置进行立体跟踪。在其它示例中,用户接口传感器可以此外或可替换地包括(一个或多个)IR摄像机或(一个或多个)传感器,其被布置成检测由用户输入设备发射或反射的红外光。
在本文所描述的示例中,束164的传感器164A-164D中的每一个通信连接(例如耦合)到设备150,使得在束164内生成的数据(例如由摄像机捕获的图像)可以被提供给设备150,并且设备150可以向传感器束164的(一个或多个)传感器和(一个或多个)摄像机提供命令。束164的传感器164A-164D可以经由任何合适的有线或无线通信技术或机制(其示例在以上描述)而通信连接到设备150。在图1-6的示例中,电气导体可以从束164按路线(route)通过顶部160、直立构件140和投影仪单元180并且通过布置在安装构件186(如以上描述的)内的引线到设备150中。
参照图5和6,在系统100的操作期间,投影仪组件184可以投影可见光187以反射离开反射镜162朝向屏幕200以从而在屏幕200的投影仪显示空间188上显示(一个或多个)可见图像。在图5-6的示例中,空间188可以是大体矩形的,具有长度188L和宽度188W。在一些示例中,长度188L可以为近似16英寸,而宽度188W可以为近似12英寸。在其它示例中,长度188L和宽度188W可以具有不同的值。
在一些示例中,传感器束164的摄像机164A-164C被布置在系统100内,使得摄像机164A-164C中的每一个的视场包括屏幕200的空间168,空间168可以与显示空间188的部分或全部重叠,或者可以与显示空间188有共同边界。在本文所描述的示例中,摄像机164A-164C的视场可以说成是包括空间168,尽管有时屏幕200可能至少部分被屏幕200上或上方的(一个或多个)对象遮挡。在这样的示例中,屏幕200上或上方的(一个或多个)对象可以在摄像机164A-164C中的至少一个的视场中。在这样的示例中,传感器束164的传感器可以获取基于传感器束164和屏幕200的空间168之间的区(例如发生在该区中的活动、布置在该区中的(一个或多个)对象)的状态的数据。在一些示例中,空间188和空间168二者与屏幕200的区202重合或对应,使得触敏区202、投影仪组件184和传感器束164的功能全部关于相同的定义区域执行。
现在参照图5-6,设备150可以引导投影仪组件184以将(一个或多个)图像投影到屏幕200的区202上。设备150还可以在显示器152上显示(一个或多个)图像(其可以与由投影仪组件184投影到区202上的(一个或多个)图像相同或不同)。由组件184投影的(一个或多个)图像可以包括由被设备150执行的软件产生的信息和/或图像。在一些示例中,用户可以通过以任何合适的方式(诸如利用用户的手部35(例如经由触摸、敲击、手势或其它触摸输入)、利用触笔25或经由(一个或多个)任何其它合适的用户输入设备)物理接合屏幕200的触敏区202来与投影在区202上和显示在显示器152上的(一个或多个)图像交互。触敏区202可以检测经由与区202的物理接合的这样的交互。而且,在一些示例中,组件184还可以在布置于屏幕200上方的对象(例如手部35,如图5中所示)上(至少部分地)投影(一个或多个)图像。
作为示例,当用户与屏幕200的区202交互(例如利用手部35,如图5中所示)时,触敏区202可以生成触摸输入信息并且通过任何合适的连接(其示例在以上描述)将其提供给设备150。在一些示例中,触摸输入信息可以被提供给在设备150上执行的操作系统(OS),并且还可以由OS传递到在设备150上执行的另一应用(例如程序等)。作为响应,执行OS或应用可以更改由投影仪组件184投影的(一个或多个)图像、显示在显示器152上的(一个或多个)图像或其组合。如本文所使用的,“应用”(或“计算机应用”)是可由处理资源执行的机器可读指令的集合。在一些示例中,用户可以类似地与显示在显示器152(其可以是触敏显示器)上的(一个或多个)图像或设备150的任何其它输入设备(例如键盘、鼠标等)交互。在一些示例中,区202(具有通过组件184投影在其上的(一个或多个)图像)可以充当系统100内的第二或可替换触敏显示器。
在一些示例中,传感器束164的传感器还可以生成系统输入,该系统输入可以被提供给设备150以供进一步处理。例如,系统100可以至少利用束164的(一个或多个)传感器(或摄像机),并且分段引擎170检测对象(例如用户的手部35或触笔25,如图5中所示)的存在和位置中的至少一个,并且向设备150提供表示检测到的信息的系统输入信息。所提供的系统输入信息可以被传递至由设备150执行的OS和应用中的至少一个,并且可以更改由系统100显示的(一个或多个)图像,如以上关于触摸输入所描述的。例如,束164可以包括布置成执行(例如触笔25的)立体触笔跟踪的摄像机或传感器对。在其它示例中,触笔25包括涂覆有红外回射涂层(例如涂料)的尖端26,使得尖端26可以充当红外回射器。在这样的示例中,束164可以包括(一个或多个)IR摄像机(或(一个或多个)传感器),如以上所描述的,其检测反射离开尖端26的IR光以使得设备150能够在尖端26跨区202移动时跟踪尖端26的位置。
在一些示例中,系统100可以捕获(一个或多个)二维(2D)图像或创建物理对象的三维(3D)扫描,使得对象的图像或与对象有关的其它信息然后可以投影到区202上以供其进一步使用及操纵。例如,如图6中所示,对象40可以被放置在区202上,使得束164的传感器(例如摄像机164A-164C中的至少一个)可以捕获对象40的图像。在这样的示例中,由束164的传感器捕获的图像可以被提供给设备150(例如OS、应用等),如以上所描述的。对象40可以是例如书籍、文档、照片或任何其它物理对象。
在一些示例中,一旦(一个或多个)对象由束164的传感器扫描,表示对象的图像的背景就可以被移除(例如经由分段过程),并且前景对象的所得到的图像或与对象有关的信息可以被投影到区202上(或在显示器152上示出)。在这样的示例中,物理对象(例如对象40)的图像可以被捕获、处理和显示在区202上以快速且容易地创建物理对象的数字版本以允许其进一步操纵,如将进一步描述的。表示被移除的对象40的图像的背景可以对应于屏幕200的至少部分。在一些示例中,分段过程可以包括确定针对在由束164的传感器捕获的图像中表示的对象的分段边界。如本文所使用的,针对在图像中表示的对象的“分段边界”可以是表示图像的哪个(哪些)部分表示对象以及图像的哪个(哪些)部分表示除对象之外的特征(诸如投影屏幕200)的估计的信息。在一些示例中,针对在图像中表示的对象的分段边界可以包括表示如在图像中表示的对象的至少一个外边缘的信息。当执行分段过程时,系统100可以使用分段边界来从较大的所捕获的图像(其至少包括投影屏幕200的部分)提取对象的图像。
支持触摸的设备倾向于向OS传递所有检测到的触摸输入,并且还可以由OS传递到另一应用(例如程序或执行应用)。例如,触摸输入可以在系统中的较低级别(例如硬件、固件、驱动器)处被感知和处理,并且在系统上的执行应用可以从OS接收触摸用户输入信息。然而,检测到的触摸输入可以包括有效和无效触摸输入二者。作为示例,无效触摸输入可以包括用户错误地擦过触摸表面,或者当用户将其手掌放在触摸设备上以使用触笔或在触摸表面上绘图。
本文所公开的示例提供一种智能地处理在支持触摸的设备上接收到的触摸输入的系统。作为示例,系统可以区分有效和无效触摸输入,并且仅向OS或执行应用传递有效触摸输入。除了区分有效和无效触摸输入之外,系统还可以组合支持触摸的设备上所检测到的触摸输入与来自系统的其它输入事件和/或信息,可能地在向OS或应用传递经变换的输入之前将检测到的触摸输入变换成不同类的输入,如将进一步描述的。随着支持触摸的设备的涌现和流行,本文所公开的创新触摸处理能力可以增强用户体验。
图7是图示了作为示例的用于智能地处理在支持触摸的设备上接收到的触摸输入的系统700的流水线。系统700可以是图1的计算系统100的部分。作为示例,硬件702和固件704可以至少对应于投影屏幕200的触敏区202(例如垫202)和可由系统100中的处理器执行的对应固件。硬件702还可以包括系统100的其它输入设备,诸如传感器束164。除了向操作系统(OS)708传递所有检测到的触摸输入,其可能包括无效输入,触摸处理控制器(TPC)706可以拦截来自固件704的检测到的触摸输入。
如将进一步描述的,TPC 706可以允许由硬件702生成的触摸输入在OS预定义行为之外被路由,OS预定义行为可能未计及无效的触摸输入和其它输出事件。例如,TPC 706可以被利用以便区分有效和无效触摸输入,由此,拒绝无效触摸输入。此外,TPC 706可以组合来自垫202的检测到的触摸输入与其它输入事件,例如来自传感器束164,和/或来自系统的信息,可能地在向OS或应用传递经变换的输入之前将检测到的触摸输入变换成不同类的输入。然而,TPC 706还可以从固件704向OS 708传递被拦截的触摸输入,例如,如果TPC 706不能处理触摸输入的话。
参照图7,系统700上的执行应用710然后可以具有从OS 708或TPC 706接收触摸输入的选项。TPC 706可以实现在硬件中,实现为可在(一个或多个)处理器上执行的机器可读指令,或者实现为硬件和机器可读指令的组合。在其中TPC 706至少部分地利用机器可读指令实现的示例中,这些机器可读指令可以以可在(一个或多个)处理器上执行的软件或者可由计算设备150中的处理器(例如图8中的处理资源810)执行的软件或固件的形式。
为了智能地处理在支持触摸的设备(例如垫202)上接收到的触摸输入,系统700的较高级组件(诸如OS 708或应用710)可以在程序上修改有效触摸筛选(filter)过程以更好地匹配系统700的需要。作为示例,为了从TPC 706接收触摸输入,针对应用710的应用开发者可以利用应用编程接口(API)以定制系统700的触摸输入并且向最终用户提供各种体验。例如,API可以用于提供垫202上的虚拟部件或层,诸如键盘和/或跟踪板。TPC 706然后可以拦截用于与投影到垫202上的虚拟部件交互的任何触摸,并且在较高级软件(例如OS 708或应用710)的控制之下对触摸进行筛选。
取决于垫202上的触摸位置,在拦截触摸之后,TPC 706可以拒绝该触摸(例如虚拟部件的几何区之外的无效输入),将触摸注入到OS708或应用710中,或者基于所选层和可能地系统中的其它部件的要求而执行其它动作。作为示例,其它动作可以涉及但不限于组合被拦截的触摸与来自其它输入设备(诸如传感器束164)的数据,并且确定对它做什么。关于对触摸做什么的决定可以基于在TPC 706中定义的层而做出。作为示例,如果API提供垫202上的虚拟跟踪板,则TPC 706可以在将经变换的输入注入到OS 708或应用710中之前将在跟踪板上接收到的任何触摸输入变换成鼠标输入或鼠标事件。API可以用于访问、创建、移除和编辑由TPC 706管理的所有层。
图8是包括分段引擎170的图1的计算系统100的部分的框图。特别地,图8图示了计算设备150的示例,其包括分段引擎170并且通信连接到投影仪组件184、传感器束164和投影屏幕200的触敏区202(触敏垫202)。尽管图8中未示出,但是计算设备150还可以通信连接到系统100的其它部件,如以上所描述的。
计算设备150(或实现分段引擎170的任何其它计算设备)可以包括至少一个处理资源。在本文所描述的示例中,处理资源可以包括例如一个处理器或多个处理器,其被包括在单个计算设备中或者跨多个计算设备分布。如本文所使用的,“处理器”可以是中央处理单元(CPU)、基于半导体的微处理器、图形处理单元(GPU)、配置成检索和执行指令的现场可编程门阵列(FPGA)、适合于检索和执行存储在机器可读存储介质上的指令的其它电子电路或其组合中的至少一个。
参照图8,计算设备150包括处理资源810,以及包括(例如编码有)指令822、824和826的机器可读存储介质820。在一些示例中,存储介质820可以包括附加指令。在其它示例中,本文关于存储介质820描述的指令822、824和826和任何其它指令可以被存储在远离计算设备150和处理资源810但是对其可访问的机器可读存储介质上。处理资源810可以取出、解码和执行存储在存储介质820上的指令以实现以下所描述的功能。在其它示例中,存储介质820的任何指令的功能可以以电子电路的形式、以编码在机器可读存储介质上的可执行指令的形式或其组合而实现。机器可读存储介质820可以是非暂时性机器可读存储介质。
在一些示例中,指令可以是安装包的部分,所述安装包当被安装时可以由处理资源810执行。在这样的示例中,机器可读存储介质可以是便携式介质,诸如压缩盘、DVD或闪速驱动器,或者是由可以从其下载和安装安装包的服务器维护的存储器。在其它示例中,指令可以是已经安装在包括处理资源的计算设备(例如设备150)上的一个或多个应用的部分。在这样的示例中,机器可读存储介质可以包括诸如硬驱动器、固态驱动器等之类的存储器。
如本文所使用的,“机器可读存储介质”可以是包含或存储诸如可执行指令、数据等之类的信息的任何电子、磁性、光学或其它物理存储装置。例如,本文所描述的任何机器可读存储介质可以是存储驱动器(例如硬驱动器)、闪速存储器、随机存取存储器(RAM)、任何类型的存储盘(例如压缩盘、DVD等)等中的任何一个或其组合。另外,本文所描述的任何机器可读存储介质可以是非暂时性的。
在图8的示例中,计算系统(诸如以上关于图1所描述的计算系统100)可以包括计算设备150、投影仪组件184、传感器束164和触敏垫202。在一些示例中,指令822可以包括用于在触敏垫202上接收与第一事件类型相关联的触摸输入的指令。垫202可以包括用于检测物理接触(例如触摸输入)的任何合适的技术。参照回图7,TPC 706可以拦截从垫202接收的触摸输入。如将进一步描述的,TPC 706可以在向OS或应用注入或呈现经变换的输入之前将被拦截的触摸输入重目的化或者变换成不同类的输入或事件类型。作为示例,TPC 706可以从垫202接收触摸输入,并且在向OS或应用中注入鼠标事件之前将其改变成鼠标事件。尽管触摸和鼠标输入可能对用户而言看起来类似,但是OS可以分别地或不同地处理触摸和鼠标输入。
指令824可以包括用于确定是否将与第一事件类型相关联的触摸输入变换成不同事件类型的指令。作为示例,API可以用于提供垫202上的虚拟部件或层,诸如键盘和/或跟踪板(例如经由投影仪组件184投影到垫202上的虚拟部件的图像)。投影到垫202上的每一个虚拟部件图像可以具有几何区以用于确定在垫202上接收到的触摸输入是否落在几何区内。如以上所描述的,TPC 706可以拦截垫202上的触摸输入,并且基于触摸输入是否落在任何几何区中而将它们变换成不同的事件类型。作为示例,如果任何触摸输入落在虚拟部件的所投影的图像的几何区之外,则TPC 706可以将这样的触摸输入视为无效(例如通过用户在垫202上的非故意触摸)。然而,如果TPC 706确定触摸输入发生在几何区之一上,则TPC706可以将这样的触摸输入变换成与对应于几何区的事件类型相关联的触摸输入。作为示例,如果TPC706检测到垫202上的触摸输入落在虚拟跟踪板的几何区内,则TPC706可以将触摸输入变换成对应于跟踪板的事件类型,诸如鼠标事件。
由于可能存在投影到垫202上的各种虚拟部件,具有对应的几何区,因此几个几何区可能重叠。例如,对应于键盘事件的虚拟键盘可以具有与对应于鼠标事件的虚拟跟踪板的几何区至少部分重叠的几何区。作为示例,提供虚拟部件的API可以使一个虚拟部件优先于另一个。用于确定优先化的步骤可以变化。例如,虚拟跟踪板可以具有超过键盘的预指派的优先化,使得在具有重叠的几何区的垫202的区域上接收到的触摸输入可以被变换成鼠标事件。
作为示例,除了优先化虚拟部件之外,虚拟部件可以被动态地启用或禁用。例如,尽管虚拟部件可以被投影到垫202上,但是如果组件被禁用,可能未检测到组件的几何区中的任何触摸输入。作为示例,当用户正在使用虚拟键盘进行打字的同时,可以禁用虚拟跟踪板。一旦用户完成打字,可以再次启用虚拟跟踪板以用于检测触摸输入。除了启用或禁用虚拟部件之外,还可以动态地重配置虚拟部件。例如,可以修改虚拟部件的几何区,诸如垫202上的几何区的尺寸或位置。这样的重配置可以由系统100自身或由系统100的用户发起。例如,用户可以移动投影到垫202上的虚拟部件的几何区或对其重定尺寸。
如以上所描述的,系统的TPC 706可以组合在垫202上检测到的触摸输入与来自系统的其它输入事件和/或信息,可能地在向OS或应用传递经变换的输入之前将检测到的触摸输入变换成不同类的输入。作为示例,TPC 706可以从系统的其它输入设备接收关于垫202上的触摸输入的信息,并且作为结果,潜在地根据从所述其它输入设备接收到的信息而变换触摸输入。参照图5,TPC可以从传感器束164接收关于垫202上的触摸输入(例如经由手部35)的信息,并且确定是否拒绝触摸输入的部分。例如,传感器束164可以检测伪输入,诸如手掌触摸,其中传感器束164看到垫202上的触摸输入的位置处的手部。手掌区域中的输入触摸可以被TPC 706拒绝,因为传感器束164知晓手掌的位置。
作为组合垫202上的检测到的触摸输入与来自系统的信息的示例,TPC 706可以使用触摸输入和位置的历史来拒绝不可能的事件,诸如用户以快速的速度在垫202之上移动其手指。之前触摸的状态信息可以用于计算时间间隔和距离以给出手指速度。
指令826可以包括用于例如向执行应用传输或发送与基于根据以上描述的确定的事件类型相关联的触摸输入。作为示例,触摸输入还可以被发送至OS,如图7中所图示的。应用可以决定其是想要从OS还是从TPC接收触摸输入。通过具有接收OS预定义行为之外的触摸输入的能力,所描述的创新触摸处理能力可以增强用户体验。
图9是用于确定是否变换所接收到的触摸输入的示例方法900的流程图。尽管以下参照图1的计算系统100来描述方法900的执行,但是可以利用用于方法900的执行的其它合适的系统。此外,方法900的实现不限于这样的示例。
在方法900的905处,系统100可以在系统100的触敏垫202上接收与第一事件类型相关联的触摸输入。参照回图7,TPC 706可以拦截从垫202接收的触摸输入。
在910处,系统100可以确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型(例如鼠标事件或键盘事件)。作为示例,API可以用于提供垫202上的虚拟部件或层,诸如键盘和/或跟踪板。每一个虚拟部件可以被指派垫202上的几何区。作为示例,系统100可以确定与第一事件类型相关联的触摸输入是否发生在以上描述的几何区之一上。如果触摸输入发生在几何区之一上,则系统100可以将与第一事件类型相关联的触摸输入变换成与对应于该几何区的事件类型相关联的触摸输入。作为示例,如果系统100确定触摸输入落在虚拟跟踪板的几何区内,则系统100可以将触摸输入变换成对应于跟踪板的事件类型,诸如鼠标事件。
作为示例,系统100可以从系统100的其它输入设备(例如传感器束164)接收关于与第一事件类型相关联的触摸输入的信息。系统100可以根据从所述其它输入设备接收的信息而变换与第一事件类型相关联的触摸输入。作为示例,如果传感器束164用于提供关于触摸输入的信息,则系统100可以确定拒绝触摸输入的部分(例如手掌拒绝)。在915处,系统100可以向应用发送与基于根据以上所描述的确定的事件类型相关联的触摸输入。
尽管图9的流程图示出某些功能的执行的特定次序,但是方法900不限于该次序。例如,在流程图中接连示出的功能可以以不同的次序执行,可以同时或部分同时地执行,或者其组合。在一些示例中,本文关于图9描述的特征和功能可以与本文关于图1-8中的任何一个所描述的特征和功能组合地提供。
权利要求书(按照条约第19条的修改)
1.一种方法,包括:
从计算系统的触敏垫接收与第一事件类型相关联的触摸输入的信息,触敏垫响应于通过物理对象与触敏垫的物理交互而生成触摸输入的信息;
确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型;以及
向应用发送与根据所述确定的事件类型相关联的触摸输入。
2.根据权利要求1所述的方法,还包括:
从计算系统的其它输入设备接收关于与第一事件类型相关联的触摸输入的信息;以及
根据从所述其它输入设备接收的信息来变换与第一事件类型相关联的触摸输入。
3.根据权利要求1所述的方法,其中所述确定包括:
从布置在触敏垫上方并且指向触敏垫的多个传感器接收关于与第一事件类型相关联的触摸输入的信息;以及
基于从所述多个传感器接收的信息而确定是否拒绝与第一事件类型相关联的触摸输入的部分。
4.根据权利要求1所述的方法,包括:
向不同事件类型指派触敏垫的几何区。
5.根据权利要求4所述的方法,其中所述确定包括:
确定与第一事件类型相关联的触摸输入是否发生在几何区之一上;以及
如果与第一事件类型相关联的触摸输入发生在几何区之一上,则将与第一事件类型相关联的触摸输入变换成与对应于所述几何区的事件类型相关联的触摸输入。
6.根据权利要求5所述的方法,其中优先化对应于不同事件类型的垫的几何区,其中确定与第一事件类型相关联的触摸输入是否发生在几何区之一上是根据所述优先化来确定的。
7.根据权利要求4所述的方法,包括:
在通过用户输入或计算系统发起时动态地重配置几何区。
8.根据权利要求1所述的方法,其中第一事件类型是第一输入设备类型,并且第二事件类型是不同于第一输入设备类型的第二输出设备类型,所述方法还包括:
将与第一输入设备类型相关联的触摸输入变换成第二输入设备类型,
其中与第二输入设备类型相关联的触摸输入被发送至应用。
9.一种系统,包括:
支撑结构,其包括底座,以及从底座向上延伸的直立构件;
可附连到直立构件的投影仪组件;
可附连到投影仪组件的计算设备;以及
通信耦合到计算设备、投影仪要在其上投影图像的触敏垫,其中计算设备:
从触敏垫接收与第一事件类型相关联的触摸输入的信息,触敏垫响应于通过物理对象与触敏垫的物理交互而生成触摸输入的信息;
确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型;以及
向在计算设备上执行的应用发送与根据所述确定的事件类型相关联的触摸输入。
10.根据权利要求9所述的系统,其中计算设备:
从计算系统的其它输入设备接收关于与第一事件类型相关联的触摸输入的信息;以及
根据从所述其它输入设备接收的信息来变换与第一事件类型相关联的触摸输入。
11.根据权利要求9所述的系统,其中计算设备通过以下来确定:
从所述多个传感器接收关于与第一事件类型相关联的触摸输入的信息;以及
基于从所述多个传感器接收的信息而确定是否拒绝与第一事件类型相关联的触摸输入的部分。
12.根据权利要求9所述的系统,其中计算设备:
向不同事件类型指派触敏垫的几何区;以及
使投影仪组件向触敏垫上投影对应于不同事件类型的图像,其中所投影的图像中的每一个图像在其所指派的几何区内。
13.根据权利要求12所述的系统,其中计算设备通过以下来确定:
确定与第一事件类型相关联的触摸输入是否发生在所述几何区中的几何区内;以及
如果与第一事件类型相关联的触摸输入发生在所述几何区中的几何区内,则将与第一事件类型相关联的触摸输入变换成与对应于所述几何区的事件类型相关联的触摸输入。
14.一种非暂时性机器可读存储介质,其包括可由计算系统的处理资源执行的指令,所述计算系统包括触敏垫、在触敏垫上投影图像的投影仪组件以及布置在触敏垫上方并且指向垫的多个传感器,所述指令可执行以:
从触敏垫接收与第一事件类型相关联的触摸输入的信息,触敏垫响应于通过物理对象与触敏垫的物理交互而生成触摸输入的信息;
确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型;以及
向可在处理资源上执行的应用发送与根据所述确定的事件类型相关联的触摸输入。
15.根据权利要求14所述的存储介质,其中所述确定包括:
从所述多个传感器接收关于与第一事件类型相关联的触摸输入的信息;以及
基于从所述多个传感器接收的信息而确定是否拒绝与第一事件类型相关联的触摸输入的部分。
说明或声明(按照条约第19条的修改)
申请人根据“专利合作条约第19条”的有关规定,对本国际申请的权利要求书作了如下修改:
修改了权利要求1-4。
删除了权利要求15。
添加了新的权利要求8。
权利要求8-14被修改并重新编号为相应的权利要求9-15。
随函附上原权利要求书全文替换页。

Claims (15)

1.一种方法,包括:
在计算系统的触敏垫上接收与第一事件类型相关联的触摸输入;
确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型;以及
向应用发送与基于根据所述确定的事件类型相关联的触摸输入。
2.根据权利要求1所述的方法,其中所述确定包括:
从计算系统的其它输入设备接收关于与第一事件类型相关联的触摸输入的信息;以及
根据从所述其它输入设备接收的信息来变换与第一事件类型相关联的触摸输入。
3.根据权利要求1所述的方法,其中所述确定包括:
从布置在垫上方并且指向垫的多个传感器接收关于与第一事件类型相关联的触摸输入的信息;以及
基于根据从所述多个传感器接收的信息而确定是否拒绝与第一事件类型相关联的触摸输入的部分。
4.根据权利要求1所述的方法,包括:
向不同事件类型指派垫的几何区。
5.根据权利要求4所述的方法,其中所述确定包括:
确定与第一事件类型相关联的触摸输入是否发生在几何区之一上;以及
如果与第一事件类型相关联的触摸输入发生在几何区之一上,则将与第一事件类型相关联的触摸输入变换成与对应于所述几何区的事件类型相关联的触摸输入。
6.根据权利要求5所述的方法,其中优先化对应于不同事件类型的垫的几何区,其中确定与第一事件类型相关联的触摸输入是否发生在几何区之一上是根据所述优先化来确定的。
7.根据权利要求4所述的方法,包括:
在通过用户输入或计算系统发起时动态地重配置几何区。
8.一种系统,包括:
支撑结构,其包括底座、从底座向上延伸的直立构件以及从直立构件向外延伸并且包括折叠反射镜和多个传感器的悬臂式顶部;
可附连到直立构件的投影仪组件;
可附连到投影仪组件的计算设备;以及
通信耦合到计算设备、投影仪要在其上投影图像的触敏垫,其中投影仪向上投影图像以反射离开反射镜并且到垫上,并且其中计算设备使得:
垫接收与第一事件类型相关联的触摸输入;
计算设备确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型;以及
计算设备向在计算设备上执行的应用发送与基于根据所述确定的事件类型相关联的触摸输入。
9.根据权利要求8所述的系统,其中计算设备通过以下来确定:
从计算系统的其它输入设备接收关于与第一事件类型相关联的触摸输入的信息;以及
根据从所述其它输入设备接收的信息来变换与第一事件类型相关联的触摸输入。
10.根据权利要求8所述的系统,其中计算设备通过以下来确定:
从所述多个传感器接收关于与第一事件类型相关联的触摸输入的信息;以及
基于根据从所述多个传感器接收的信息而确定是否拒绝与第一事件类型相关联的触摸输入的部分。
11.根据权利要求8所述的系统,其中计算设备使得:
计算设备向不同事件类型指派垫的几何区;以及
投影仪组件向垫上投影对应于不同事件类型的图像,其中每一个图像在其所指派的几何区内。
12.根据权利要求11所述的系统,其中计算设备通过以下来确定:
确定与第一事件类型相关联的触摸输入是否发生在投影到垫上的图像之一上的几何区内;以及
如果与第一事件类型相关联的触摸输入发生在图像之一上,则将与第一事件类型相关联的触摸输入变换成与对应于所述图像的事件类型相关联的触摸输入。
13.一种非暂时性机器可读存储介质,其包括可由计算系统的处理资源执行的指令,所述计算系统包括触敏垫、在垫上投影图像的投影仪组件以及布置在垫上方并且指向垫的多个传感器,所述指令可执行以:
在垫上接收与第一事件类型相关联的触摸输入;
确定是否将与第一事件类型相关联的触摸输入变换成不同的事件类型;以及
向可在处理资源上执行的应用发送与基于根据所述确定的事件类型相关联的触摸输入。
14.根据权利要求13所述的存储介质,其中所述指令可执行以进行确定包括:
从所述多个传感器接收关于与第一事件类型相关联的触摸输入的信息;以及
基于根据从所述多个传感器接收的信息而确定是否拒绝与第一事件类型相关联的触摸输入的部分。
15.根据权利要求13所述的存储介质,包括指令,所述指令可执行以:
向不同事件类型指派垫的几何区;以及
经由投影仪组件向垫上投影对应于不同事件类型的图像,其中每一个图像在其所指派的几何区内。
CN201480083641.6A 2014-09-24 2014-09-24 变换所接收到的触摸输入 Expired - Fee Related CN107003717B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/057312 WO2016048313A1 (en) 2014-09-24 2014-09-24 Transforming received touch input

Publications (2)

Publication Number Publication Date
CN107003717A true CN107003717A (zh) 2017-08-01
CN107003717B CN107003717B (zh) 2020-04-10

Family

ID=55581635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480083641.6A Expired - Fee Related CN107003717B (zh) 2014-09-24 2014-09-24 变换所接收到的触摸输入

Country Status (5)

Country Link
US (2) US10275092B2 (zh)
EP (1) EP3198366B1 (zh)
CN (1) CN107003717B (zh)
TW (1) TWI567588B (zh)
WO (1) WO2016048313A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109696985A (zh) * 2017-10-20 2019-04-30 夏普株式会社 输入装置及程序

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
US10712832B2 (en) * 2018-11-15 2020-07-14 Dell Products, L.P. On-screen keyboard detection for multi-form factor information handling systems (IHSs)
US11637153B2 (en) * 2019-09-26 2023-04-25 Apple Inc. Displays with optical edge sensors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103154867A (zh) * 2010-10-12 2013-06-12 纽约大学 用于传感利用瓷片、具有一组板的传感器和多点触摸表面目标识别的装置和方法
CN103294260A (zh) * 2012-04-02 2013-09-11 微软公司 触敏用户界面
WO2013144807A1 (en) * 2012-03-26 2013-10-03 Primesense Ltd. Enhanced virtual touchpad and touchscreen
WO2013175389A2 (en) * 2012-05-20 2013-11-28 Extreme Reality Ltd. Methods circuits apparatuses systems and associated computer executable code for providing projection based human machine interfaces
CN104024936A (zh) * 2011-07-29 2014-09-03 惠普发展公司,有限责任合伙企业 投影捕获系统,程序和方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261781B1 (en) 2000-10-27 2012-10-17 Elo Touch Solutions, Inc. Dual sensor touchscreen with projective capacitive sensors and force sensors
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050078092A1 (en) 2003-10-08 2005-04-14 Clapper Edward O. Whiteboard desk projection display
US7561146B1 (en) 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US7599561B2 (en) 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US7749479B2 (en) * 2006-11-22 2010-07-06 Hexcel Corporation Carbon fibers having improved strength and modulus and an associated method and apparatus for preparing same
JP2010521022A (ja) 2007-02-23 2010-06-17 ティーピーアイ カンパニー リミテッド デジタル機器に使われるポインティング装置を利用した仮想キーボード入力システム
US8199117B2 (en) 2007-05-09 2012-06-12 Microsoft Corporation Archive for physical and digital objects
WO2009049331A2 (en) * 2007-10-08 2009-04-16 Van Der Westhuizen Willem Mork User interface
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US20100302190A1 (en) 2009-06-02 2010-12-02 Elan Microelectronics Corporation Multi-functional touchpad remote controller
US20110069021A1 (en) 2009-06-12 2011-03-24 Hill Jared C Reducing false touchpad data by ignoring input when area gesture does not behave as predicted
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
CN201590517U (zh) 2009-11-30 2010-09-22 美国莫列斯股份有限公司 电连接器及电连接器组合
TWI423096B (zh) 2010-04-01 2014-01-11 Compal Communication Inc 具可觸控投影畫面之投影系統
US8384683B2 (en) 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US8648809B2 (en) * 2010-06-16 2014-02-11 International Business Machines Corporation Reconfiguration of virtual keyboard
KR101855250B1 (ko) 2010-11-03 2018-05-09 삼성전자 주식회사 터치 제어 방법 및 이를 지원하는 휴대 단말기
KR101242620B1 (ko) * 2011-01-18 2013-03-19 주식회사 애트랩 터치 센서 제어기에서의 터치 신호 처리 방법 및 그 장치
US8736583B2 (en) 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object
US8842057B2 (en) 2011-09-27 2014-09-23 Z124 Detail on triggers: transitional states
US8672262B2 (en) * 2012-01-10 2014-03-18 Textron Innovations Inc. Mechanically optimized liquid inertia vibration eliminator and aircraft pylon system
KR20130139432A (ko) 2012-05-24 2013-12-23 백형종 컴퓨터·스마트폰·전자사전 키보드 영어 알파벳 자모 및 각종 키의 배열
US9423871B2 (en) 2012-08-07 2016-08-23 Honeywell International Inc. System and method for reducing the effects of inadvertent touch on a touch screen controller
JP2014109876A (ja) 2012-11-30 2014-06-12 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
US20140160085A1 (en) 2012-12-07 2014-06-12 Qualcomm Incorporated Adaptive analog-front-end to optimize touch processing
AU2014232432A1 (en) * 2013-03-15 2015-09-24 Tactual Labs Co. Fast multi-touch noise reduction
US20150242009A1 (en) * 2014-02-26 2015-08-27 Qeexo, Co. Using Capacitive Images for Touch Type Classification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103154867A (zh) * 2010-10-12 2013-06-12 纽约大学 用于传感利用瓷片、具有一组板的传感器和多点触摸表面目标识别的装置和方法
CN104024936A (zh) * 2011-07-29 2014-09-03 惠普发展公司,有限责任合伙企业 投影捕获系统,程序和方法
WO2013144807A1 (en) * 2012-03-26 2013-10-03 Primesense Ltd. Enhanced virtual touchpad and touchscreen
CN103294260A (zh) * 2012-04-02 2013-09-11 微软公司 触敏用户界面
WO2013175389A2 (en) * 2012-05-20 2013-11-28 Extreme Reality Ltd. Methods circuits apparatuses systems and associated computer executable code for providing projection based human machine interfaces

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109696985A (zh) * 2017-10-20 2019-04-30 夏普株式会社 输入装置及程序
CN109696985B (zh) * 2017-10-20 2022-03-29 夏普株式会社 输入装置及程序

Also Published As

Publication number Publication date
CN107003717B (zh) 2020-04-10
EP3198366A1 (en) 2017-08-02
EP3198366A4 (en) 2018-05-09
US10275092B2 (en) 2019-04-30
EP3198366B1 (en) 2021-01-06
US20190220146A1 (en) 2019-07-18
US10481733B2 (en) 2019-11-19
TWI567588B (zh) 2017-01-21
WO2016048313A1 (en) 2016-03-31
TW201633064A (zh) 2016-09-16
US20170300174A1 (en) 2017-10-19

Similar Documents

Publication Publication Date Title
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
CN105723300A (zh) 基于表示对象的图像确定分割边界
US10379680B2 (en) Displaying an object indicator
CN105745606A (zh) 基于图像识别触摸敏感表面的目标触摸区域
CN106415439B (zh) 用于镜面反射红外光的投影屏幕
US10481733B2 (en) Transforming received touch input
US10114512B2 (en) Projection system manager
TW201512760A (zh) 具有投影機單元和電腦之系統
US10664090B2 (en) Touch region projection onto touch-sensitive surface
TWI608737B (zh) 影像投影技術
EP3338446B1 (en) Image projections
US10649584B2 (en) Process image according to mat characteristic
CN107111354B (zh) 非故意触摸拒绝
US20170285874A1 (en) Capture and projection of an object image
CN107003714A (zh) 从图像开发上下文信息

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200410