CN105589607B - 触控系统、触控显示系统和触控交互方法 - Google Patents

触控系统、触控显示系统和触控交互方法 Download PDF

Info

Publication number
CN105589607B
CN105589607B CN201610084809.6A CN201610084809A CN105589607B CN 105589607 B CN105589607 B CN 105589607B CN 201610084809 A CN201610084809 A CN 201610084809A CN 105589607 B CN105589607 B CN 105589607B
Authority
CN
China
Prior art keywords
touch
pattern
predeterminable area
light beam
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610084809.6A
Other languages
English (en)
Other versions
CN105589607A (zh
Inventor
武延兵
张兴
王漪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
BOE Technology Group Co Ltd
Original Assignee
Peking University
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University, BOE Technology Group Co Ltd filed Critical Peking University
Priority to CN201610084809.6A priority Critical patent/CN105589607B/zh
Priority to EP16847616.6A priority patent/EP3416032A4/en
Priority to US15/515,848 priority patent/US10303276B2/en
Priority to PCT/CN2016/082219 priority patent/WO2017136980A1/zh
Publication of CN105589607A publication Critical patent/CN105589607A/zh
Application granted granted Critical
Publication of CN105589607B publication Critical patent/CN105589607B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

一种触控系统、触控显示系统以及触控交互方法,该触控系统包括触摸检测装置、触控区定位装置、以及与触摸检测装置和触控区定位装置信号连接的处理装置;触摸检测装置配置为检测预设区域内触摸事件的发生位置并向处理装置发送关于触摸事件的发生位置的信息;触控区定位装置配置为发射第一光束和第二光束,以在第一位置以形成第一图案并且在第二位置形成第二图案;处理装置配置为对所述信息进行处理以获取触摸事件的发生位置并获取第一位置和第二位置。本发明实施例可避免触控操作遮挡显示屏幕。

Description

触控系统、触控显示系统和触控交互方法
技术领域
本发明的至少一个实施例涉及一种触控系统、触控显示系统和触控交互方法。
背景技术
触控技术提供了一种高效、便利的人机交互方式,其基本原理是以捕捉触摸物(例如人体手指)的触摸位置、动作信息为出发点,将获取的触摸位置、动作信息转化为电信号并加以判断识别,以实现控制功能。
另一方面,随着科技的发展,智能手表以及智能手环等可穿戴电子设备成为电子行业的焦点。这些可穿戴电子设备普遍具有触控功能。
发明内容
本发明的至少一个实施例提供一种触控系统、触控显示系统以及触控交互方法,以避免用户的触摸操作遮挡显示屏幕。
本发明至少一实施例提供一种触控系统,其包括触摸检测装置、触控区定位装置、以及与所述触摸检测装置以及所述触控区定位装置信号连接的处理装置。所述触摸检测装置配置为检测预设区域内触摸事件的发生并向所述处理装置发送关于所述触摸事件的发生位置的信息;所述触控区定位装置配置为向所述预设区域内发射第一光束和第二光束,所述第一光束照射到所述预设区域中的第一位置以形成第一图案,所述第二光束照射到所述预设区域中的第二位置以形成第二图案;所述处理装置配置为对所述信息进行处理以获取所述触摸事件的发生位置、并获取所述第一位置和所述第二位置。
例如,在本发明一实施例提供的触控系统中,所述触控区定位装置包括第一发射装置和第二发射装置,所述第一发射装置配置为发射所述第一光束,所述第二发射装置配置为发射所述第二光束;或者所述触控区定位装置包括发光装置和分光装置,所述分光装置配置为将所述发光装置发出的光束分成所述第一光束和所述第二光束。
例如,在本发明一实施例提供的触控系统中,所述第一发射装置、所述第二发射装置和所述发光装置中的至少一个包括激光发射装置;或者所述第一发射装置、所述第二发射装置和所述发光装置中的至少一个包括可见光发射装置。
例如,在本发明一实施例提供的触控系统中,所述触控区定位装置还包括图像获取装置;所述图像获取装置配置为获取包括所述第一图案和所述第二图案的所述预设区域的图像,并将所述图像发送至所述处理装置。
例如,在本发明一实施例提供的触控系统中,所述触摸检测装置被配置为向所述预设区域内发射触摸检测信号,接收从所述预设区域反馈回来的触摸感应信号。
例如,在本发明一实施例提供的触控系统中,所述触摸检测装置为反射式红外传感器或超声波传感器。
例如,在本发明一实施例提供的触控系统中,所述触摸检测装置包括多个子传感器,所述多个子传感器沿从所述触摸检测装置到所述触控区定位装置的方向依次排列。
本发明至少一实施例提供一种触控显示系统,其包括具有显示区的显示装置以及上述任一项所述的触控系统;所述触控系统的处理装置还与所述显示装置信号连接,并且配置为向所述显示装置输出与所述触控系统所获取的所述触摸事件的发生位置、所述第一位置和所述第二位置相对应的信号。
例如,在本发明一实施例提供的触控显示系统中,所述显示装置与所述触控系统的所述预设区域沿平行于所述显示区的方向依次设置。
例如,在本发明一实施例提供的触控显示系统中,在平行于所述显示区的所述方向上,所述触摸检测装置和所述触控区定位装置设置于所述显示装置的所述显示区与所述触控系统的所述预设区域之间。
例如,在本发明一实施例提供的触控显示系统中,所述处理装置或者显示装置还配置为根据所述第一图案和所述第二图案在所述预设区域内形成虚拟触控区,并且根据所述第二信息以及关于所述显示区的第三信息建立所述虚拟触控区与所述显示装置的所述显示区之间的对应关系。
例如,在本发明一实施例提供的触控显示系统中,在所述触控显示系统工作时,所述显示装置的所述显示区内显示与所述触摸位置对应的符号。
例如,本发明一实施例提供的触控显示系统还包括:投影仪,其配置为将所述显示装置的所述显示区显示的内容投射到所述触控系统的所述预设区域中。
本发明至少一实施例提供一种触控交互方法,其包括:向预设区域中发射第一光束和第二光束,使所述第一光束照射到所述预设区域中的第一位置以形成第一图案,并且使所述第二光束照射到所述预设区域中的第二位置以形成第二图案;确定所述第一位置和所述第二位置;利用所述第一图案和所述第二图案在所述预设区域中确定虚拟触控区;检测所述虚拟触控区中是否发生触摸事件,当所述虚拟触控区中发生触摸事件时,确定所述触摸事件的发生位置;以及将所述触摸事件的发生位置、所述第一位置和所述第二位置发送到预设电子设备。
例如,在本发明一实施例提供的触控交互方法中,所述预设电子设备包括显示装置,所述方法还包括:根据所述第一位置和所述第二位置确定所述虚拟触控区与所述显示装置的显示区的对应关系。
例如,在本发明一实施例提供的触控交互方法中,所述显示装置与所述预设区域沿平行于所述显示区的方向依次设置。
例如,本发明一实施例提供的触控交互方法还包括:使所述显示装置的所述显示区内显示与所述触摸位置对应的符号。
例如,本发明一实施例提供的触控交互方法还包括:将所述显示装置的所述显示区显示的内容投射到所述虚拟触控区中。
例如,在本发明一实施例提供的触控交互方法中,获取包括所述第一图案和所述第二图案的所述预设区域的图像,对所述图像进行处理以获取所述第一位置和所述第二位置;或者利用激光发射装置发射所述第一光束和所述第二光束,并利用所述激光发射装置的位置参数获取所述第一位置和所述第二位置。
例如,在本发明一实施例提供的触控交互方法中,所述位置参数包括所述激光发射装置到所述预设区域所在面的距离、以及所述激光发射装置相对于所述预设区域所在面的旋转角度;或者所述位置参数包括所述激光发射装置到所述预设区域所在面的距离以及所述激光发射装置到所述第一图案或所述第二图案的距离。
例如,在本发明一实施例提供的触控交互方法中,向所述虚拟触控区中发射触摸检测信号,接收到从所述虚拟触控区反馈回来的触摸感应信号,由此确定所述虚拟触控区中发生的触摸事件。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1为一种智能手表的触控交互方式示意图;
图2为本发明一实施例提供的一种触控系统的示意图;
图3a和图3b分别为本发明一实施例提供的用于计算触摸事件的发生位置、第一位置以及第二位置的相对关系的坐标系;
图4为本发明一实施例提供的触控系统中的触摸检测装置包括多个子传感器的示意图;
图5为本发明实施例一提供的计算触摸事件的发生位置的横坐标的方法示意图;
图6a为本发明一实施例提供的一种触控区定位装置的示意图;
图6b为本发明一实施例提供的一种获取第一位置的横坐标的方法示意图;
图6c为本发明一实施例提供的另一种获取第二位置的方法示意图;
图7为本发明一实施例提供的触控系统中的触控区定位装置包括图像获取装置的示意图;
图8为本发明一实施例提供的另一种触控区定位装置的示意图;
图9为本发明一实施例提供的触控显示系统的示意图;
图10为本发明一实施例提供的触控显示系统中虚拟触控区的坐标系的示意图;
图11为本发明一实施例提供的包括投影仪的触控显示系统的示意图;以及
图12为本发明一实施例提供的一种智能手表与用户的手臂的位置关系示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外定义,本公开使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“一个”、“一”或者“该”等类似词语也不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
在研究中,本申请的发明人注意到,由于智能手表以及智能手环等可穿戴设备的屏幕面积相对较小,如果采用通常的类似手机触控屏的触控交互方式,就意味着手指将可能会遮挡大部分屏幕,从而影响用户的交互体验。例如,图1为一种智能手表的触控交互方式示意图,如图1所示,当用户的手臂佩戴智能手表且另一只手的手指进行触控操作时,由于该智能手表的屏幕面积有限,手指会遮挡一部分屏幕,从而影响用户的触控和使用体验。
本发明实施例通过提供一种触控系统、触控显示系统和触控交互方法,通过将进行触摸操作的区域转移到位于电子设备的显示区之外的预设区域中以形成虚拟触控区,可解决在进行触摸操作时显示屏幕被遮挡的问题。
下面结合附图,对本发明实施例提供的触控系统、触控显示系统以及触控交互方法进行说明。
实施例一
本实施例提供了一种触控系统。图2示出了一种触控系统100,其包括触摸检测装置110、触控区定位装置120、以及与触摸检测装置110以及触控区定位装置120信号连接的处理装置130。该信号连接可以为无线的方式或者有线的方式,可以为电信号或光信号等方式,本发明实施例在此不作限制。
例如,触控系统100还可以包括用于放置触摸检测装置110和触控区定位装置120的承载装置101,例如,触摸检测装置110和触控区定位装置120可以设置于承载装置101的边缘101a处。
触摸检测装置110用于检测预设区域140内触摸事件的发生,即检测预设区域140内是否发生触摸事件,也即预设区域140为触摸检测装置110能够识别触摸事件的范围,并且触摸检测装置110还用于向处理装置130发送关于触摸事件的发生位置的信息。
触控区定位装置120用于向预设区域140内发射第一光束151和第二光束152,第一光束151照射到预设区域140中的第一位置以形成第一图案161,第二光束152照射到预设区域140中的第二位置以形成第二图案162。
第一图案161和第二图案162可以为可视图案,使得用户通过观察这两个图案的位置可估计出进行触摸操作的区域,以便进行有效的触摸操作。当然,触控区定位装置120还可配置为向预设区域140内发射更多的光束以在预设区域140内形成更多的可视图案,从而更有利于用户通过这些图案的位置估计出虚拟触控区的范围。
例如,第一图案和第二图案可以分别为通过第一光束和第二光束形成的光斑。例如,第一图案和第二图案的颜色或形状可以不同,以便于用户进行区分。
处理装置130用于对上述关于触摸事件的发生位置的信息进行处理以获取触摸事件的发生位置,并获取第一位置和第二位置。处理装置130获取的第一位置和第二位置可以是预先存储在处理装置中的信息,也可以是利用触控区定位装置120发送到处理装置130的信息通过处理装置130处理得到的。
例如,处理装置可以使用通用计算装置(例如CPU)、专用计算装置(例如DSP)等来实现。
在本实施例提供的触控系统中,触控区定位装置120在预设区域140内形成第一图案161和第二图案162,使得用户可以根据第一、二图案估计出进行触控操作的区域(即虚拟触控区);在该虚拟触控区内,用户的触摸可以被触摸检测装置110检测到,并且用户所触摸的位置可以通过处理装置130计算出;当该触控系统应用于电子设备中时,用户在虚拟触控区内所触摸的位置可与用于控制该电子设备的某种控制功能对应,以实现人机交互。由此,通过在电子设备的显示区外设置上述触控系统的预设区域,则可以解决用户在进行触摸操作时显示屏幕被遮挡的问题。
例如,本实施例提供的触控系统100可应用于智能手表、智能手环、智能指环等可穿戴电子设备。
在一些示例中,处理装置130可以利用触控区定位装置(例如利用触控区定位装置发射的光束照射到的第一位置和第二位置)在预设区域内建立坐标系并且计算出触摸事件的发生位置在该坐标系内的坐标,以计算出触摸事件的发生位置、第一位置和第二位置之间的相对关系。本发明实施例不做限定。
例如,如图3a所示,可以以触控区定位装置120发出第一光束151和第二光束152的位置在预设区域140所在面上的正投影为原点(0,0)、以触摸检测装置110和触控区定位装置120的排列方向为y轴、并且以垂直于该y轴的方向为x轴建立坐标系。在这种情况下,第一图案161所在的第一位置、第二图案162所在的第二位置和触摸事件的发生位置T的坐标分别为(X1,Y1),(X2,Y2)和(Xt,Yt)。
例如,如图3b所示,也可以以第一图案161所在的第一位置为原点(0,0)、以触摸检测装置110和触控区定位装置120的排列方向为y轴、并且以垂直于该y轴的方向为x轴建立位于预设区域140所在面内的坐标系。在这种情况下,第一图案161所在的第一位置、第二图案162所在的第二位置和触摸事件的发生位置T的坐标分别为(0,0),(x2,y2)和(xt,yt)。
当然,坐标系的建立方式不局限于图3a和图3b所示的示例。
下面以图3a所示的坐标系为例,详细介绍第一位置、第二位置和触摸事件的发生位置的坐标(X1,Y1),(X2,Y2)和(Xt,Yt)的获取方式。
如图3a所示,例如,触摸检测装置110可以向预设区域140内发射触摸检测信号(如图3a中的从左向右的箭头所示),当预设区域140内存在例如手指或触控笔等障碍物时,即发生触摸事件时,该触摸检测信号会被障碍物反射回来,触摸检测装置110可以接收从预设区域140反馈回来的触摸感应信号(如图3a中的从右到左的箭头所示)。
例如,触摸检测装置110可以为反射式红外传感器或超声波传感器等测距传感器。
关于确定触摸事件的发生位置T的纵坐标Yt,如图3a所示,可以根据触摸检测装置110发射该位置T对应的触摸检测信号的位置A到触控区定位装置120发射第一、二光束的位置(即坐标系的原点)的距离(该距离可以是设计人员在设计触控系统的过程中确定的)确定该纵坐标Yt。
在图3a中,触摸检测装置110可以采用阵列式传感器;或者,例如,如图4所示,触摸检测装置110也可以包括多个子传感器119,该多个子传感器119沿从触摸检测装置110到触控区定位装置120的方向依次排列。阵列式传感器包括的多个发射点或者触摸检测装置包括的上述多个子传感器119,可以同时向预设区域140中分别发射触摸检测信号;当某一触摸检测信号被障碍物190(如图4所示)反射后形成的触摸感应信号被触摸检测装置110接收时,通过发射该触摸检测信号的发射点或子传感器的位置可以确定触摸事件的发生位置的上述纵坐标Yt。
关于确定触摸事件的发生位置T的横坐标Xt,例如,如图5所示,可以通过测量从触摸检测装置110到触摸事件的发生位置T之间的距离Lt,并根据触摸检测装置110到预设区域所在面之间的距离Ht(例如,该距离Ht可以在设计人员设计触控系统时确定),通过处理装置计算出横坐标Xt。
为了测量上述距离Lt,例如,触摸检测装置110可以采用时间差测距原理。以触摸检测装置110为超声波传感器为例,例如,超声波传感器可以向预设区域中发射超声波并且在发射该超声波的同时开始计时,超声波在空气中传播,途中碰到障碍物被反射,超声波传感器在接收反射波的同时停止计时。之后超声波传感器可将超声波的发射时刻T1和接收的时刻T2发送给触控系统100的处理装置,处理装置根据超声波传播的时间(T2-T1)及超声波的传播速度v可以计算出超声波传感器到障碍物的距离。因此,当采用时间差测距原理时,上述触摸检测装置发送的关于触摸事件的发生位置的信息可以包括触摸检测信号的发射时刻、触摸感应信号的接收时刻以及触摸检测信号的传播速度。
例如,为了测量上述距离Lt,触摸检测装置110也可以采用触摸感应信号的强度随障碍物的距离远近而变化的原理。例如,触摸检测装置110可以为反射式红外传感器,由于反射式红外传感器距离障碍物越远,接收的被障碍物反射的触摸感应信号的强度越小,因此,也可以通过触控系统的处理装置分析反射式红外传感器接收的红外线的强度变化情况来计算触摸检测装置110到触摸事件的发生位置之间的距离,在这种情况下,上述关于触摸事件的发生位置的信息可以包括触摸检测信号与触摸感应信号的强度。
需要说明的是,上述的触摸检测装置110检测触摸事件的方式以及触摸事件发生位置的计算方式仅仅作为示例来说明本实施例,本发明实施例包括并不限于这些实施方式。此外,通过判断接收触摸感应信号的位置的连续性以及接受信号的时间差的大小可判断是否触摸操作为滑动操作。这里不再赘述。
下面继续以图3a所示的坐标系为例,并结合图6a至图7对第一位置的坐标(X1,Y1)和第二位置(X2,Y2)的坐标的获取方式进行说明。
例如,如图6a所示,触控区定位装置120可以包括第一发射装置121和第二发射装置122;第一发射装置121配置为发射第一光束151,第二发射装置122配置为发射第二光束152。图6a以第一发射装置121沿水平方向发射第一光束且第二发射装置122沿倾斜方向发射第二光束为例进行说明。当然,也可以是这两个发射装置都沿倾斜方向发射光束。
例如,第一发射装置121和第二发射装置122中的至少一个可以包括激光发射装置;或者,第一发射装置121和第二发射装置122中的至少一个可以包括可见光发射装置。当然,本实施例也可以采用其它发射装置,以形成两个可视图案。
在一些示例中,利用第一发射装置121/第二发射装置122形成的第一图案/第二图案的位置可以是设计人员在设计触控系统时预先确定的;这时,例如,处理装置可根据第一发射装置121或第二发射装置122的位置参数获取第一图案161的第一位置或第二图案162的第二位置。
以图6a所示的第一发射装置121为激光发射装置为例,如图6b所示,上述位置参数可以包括激光发射装置到预设区域所在面(即第一图案161、第二图案和触摸位置所在面)的距离h、以及激光发射装置相对于预设区域所在面的旋转角度(180°-θ),处理装置根据旋转角度(180°-θ)和距离h可计算出第一图案161所在的第一位置的横坐标X1;或者,如图6b所示,上述位置参数也可以包括激光发射装置到预设区域所在面的距离h以及激光发射装置到第一图案161的距离L1。处理装置根据h和L1可计算出第一图案161所在的第一位置的横坐标X1。例如,可以采用时间差测距原理,激光发射装置可以将发射第一光束151的时刻、接受反射信号的时刻以及第一光束的传播速度发送给处理装置以计算L1。
例如,上述位置参数还可以包括激光发射装置的其它旋转角度。以图6a所示的第二发射装置122为激光发射装置为例,如图6c所示,激光发射装置的位置参数可以包括激光发射装置相对于预设区域所在面的距离h以及激光发射装置的旋转角度β、η、θ。这三个旋转角度β、η、θ分别为在以激光发射装置的发射点为原点建立空间坐标系时发射的光束(参见第二光束152)与x'轴(x'轴与图3a中x轴的方向一致)、y'轴(y'轴与图3a中y轴的方向相反)、z轴之间的夹角。处理装置可根据距离h和旋转角度β、θ、η计算出第二图案162所在的第二位置的横坐标X2。
例如,上述激光发射装置的各旋转角度可以是设计人员在设计触控系统时预先确定的;例如,上述激光发射装置到预设区域所在面的距离也可以是预先确定的。这些预先确定的位置信息可以例如预先存储到处理装置中或单独的存储器中。
以上以获取第一位置和第二位置的横坐标X1、X2为例进行说明,也可以采用类似方式获取第一位置和第二位置的纵坐标,这里不再赘述。
当采用如图3b所示的坐标系或者其它坐标系时,在按照以上所述的方式计算出触摸事件的发生位置T、第一位置以及第二位置的坐标之后通过处理装置进行坐标系的平移转换即可。
在一些示例中,利用第一发射装置121/第二发射装置122形成的第一图案/第二图案的位置也是可以调整的,这使得用户可以根据实际需要或者自身喜好调整预设区中的触控操作区的大小。在这种情况下,例如可以通过在触控区定位装置中设置图像获取装置的方式确定上述第一位置和第二位置。
例如,如图7所示,在本实施例的至少一个示例提供的触控系统100中,触控区定位装置120还可以包括图像获取装置125,该图像获取装置125可获取包括第一图案161和第二图案162的预设区域140的图像,并将该图像发送给处理装置130以通过处理装置130获取第一图案161所在的第一位置和第二图案162所在的第二位置。
例如,图像获取装置125可以为CCD(Charge-coupled Device)图像传感器、CMOS图像传感器、红外图像传感器或类似摄像装置。
例如,处理装置130可对获取的图像进行处理,并结合图像获取装置125(例如CCD图像传感器)到预设区域140所在面之间的距离(例如,该距离可以是设计人员在设计触控系统时预先确定的)以及图像获取装置125的旋转角度计算出第一位置和第二位置的坐标。在这种情况下,例如,触控区定位装置可以向处理装置发送图像获取装置的旋转角度和获取的图像等关于第一位置和第二位置的信息。本发明实施例包括但不限于此。
值得注意的是,图7所示的示例并不限定图像获取装置125的物理位置,例如,当触摸检测装置也设置有例如上述CCD等摄像装置时,也可以将该摄像装置作为上述触控区定位装置中的图像获取装置。
在以上示例中,触控区定位装置120包括第一发射装置和第二发射装置。当然,触控区定位装置也可以包括一个发射装置。例如,如图8所示,触控区定位装置120可以包括发光装置123和分光装置124,分光装置124配置为将发光装置123发出的光束分成第一光束151和第二光束152,以用于形成第一图案161和第二图案162。
例如,发光装置123可以为激光发射装置或可见光发射装置,本发明实施例包括但不限于这些方式。
对于图8所示的示例,例如,发光装置123和分光装置124的位置参数可以在设计触控系统时被设定,在这种情况下,第一位置和第二位置可根据该位置参数以及分光装置的类型等信息计算得出;或者,发光装置123或分光装置124的位置也是可调整的,在这种情况下,可以通过采用上述图像获取装置的方式获取第一位置和第二位置。可参见以上描述,这里不再赘述。
如上所述,根据触摸检测装置和触控区定位装置的设置方式,处理装置130可相应地获取触摸事件的发生位置、第一图案所在的第一位置和第二图案所在的第二位置。当本实施例提供的触控系统应用于例如智能手表等电子设备中时,触控系统包括的处理装置可将获取的关于这些位置的信号发送到电子设备中,电子设备可根据该信号实现对应的控制功能。
实施例二
本实施例提供一种触控显示系统10,如图9所示,该触控显示系统10包括具有显示区210的显示装置200以及本发明实施例(例如上述实施例一)所述的触控系统100,即该触控系统100包括触摸检测装置110、触控区定位装置120以及与触摸检测装置110和触控区定位装置120信号连接的处理装置130;触控系统100的处理装置130还与显示装置200信号连接,并且配置为向显示装置200输出与触控系统100所获取的触摸事件的发生位置、第一位置和第二位置相对应的信号。
上述的信号连接可以为无线的方式或者有线的方式,可以通过电信号或光信号等方式,本发明实施例在此不作限制。
例如,显示区210可显示用于交互的用户界面(UI),其例如包括图片、文字或符号等,可以显示其他应用界面,例如视频等。
上述触控系统100的各部件的位置关系、协作关系以及功能可参见实施例一的相关描述,在此不再赘述。
本实施例提供的触控显示系统可通过触控系统将触摸操作区移到位于显示区210之外的预设区域140内,从而可以实现在进行触摸时避免影响显示。
例如,处理装置130或者显示装置200还可以配置为根据触控系统100的触控区定位装置110生成的第一图案161和第二图案162在预设区域140内形成虚拟触控区170(即实施例一中所述的触控操作区),并且根据关于第一位置和第二位置的第二信息以及关于显示区的第三信息建立虚拟触控区170与显示装置200的显示区210之间的对应关系,即显示区中的各位置在虚拟触控区中都有对应的位置,也即显示区与虚拟触控区之间具有映射关系。
下面举例说明虚拟触控区与显示区之间的对应关系。
例如,当显示装置200具有正方形的显示区时,如图9所示,可以以第一图案161所在的第一位置为中心并以第一图案161和第二图案162所在的位置的连线为半径,定义出圆形的内接正方形,该正方形的区域可作为虚拟触控区170。
又例如,当显示装置200具有圆形的显示区时,也可以以如图9所示的第一图案161为圆心并以第一图案161的第一位置到第二图案162的第二位置的连线为半径,定义出一个圆形区域,该圆形区域可作为虚拟触控区170。
在显示装置200的显示区与虚拟触控区具有相同的轮廓(例如以上所述的正方形或圆形)的情况下,所形成的虚拟触控区170的大小可以与该屏幕的显示区的大小一致。当然,也可以根据实际情况,对虚拟触控区170的大小进行缩放处理,使其与显示装置200的显示区的大小不一致。
此外,显示装置200的显示区210与虚拟触控区170也可以具有不同的轮廓。例如,当显示装置200具有矩形的显示区时,可以以第一图案161所在的第一位置为中心并以第一图案161和第二图案162所在的位置的连线为半径,定义出圆形的内接正方形,该正方形的区域可作为虚拟触控区170。在这种情况下,例如,可以通过对正方形虚拟触控区170的分别对应矩形显示区的长和宽的边缘进行不同程度的缩放处理,以建立虚拟触控区与显示区的对应关系。
需要说明的是,以上利用第一图案161的第一位置和第二图案162的第二位置定义虚拟触控区的方式仅仅作为示例。本发明实施例对于虚拟触控区与显示区的轮廓和大小之间的关系不做限定,只要可以实现显示装置200的显示区210中的各位置在虚拟触控区170中都有对应的位置(即显示区与虚拟触控区之间具有映射关系)即可。
例如,在建立虚拟触控区170与显示区210之间的映射关系时,可以以显示区210的中心点O和第一图案161所在的第一位置的连线为坐标系的x轴,以通过第二图案162所在的第二位置且垂直于该连线的直线为y轴,如图10所示。
在建立虚拟触控区170与显示区210之间的映射关系后,当用户在虚拟触控区170内进行触摸操作时,就相当于触碰了图1所示装置的触控交互方式中显示区的对应位置。
例如,在触控显示系统工作时,显示装置200的显示区210内可显示与触摸位置对应的符号。例如,该符号可以为鼠标或光标等。这样可以将触控操作产生的信息反馈给用户,以便用户进行下一步的操作。本发明实施例包括但不限于此。
例如,如图11所示,在本实施例的至少一个示例提供的触控显示系统10还可以包括投影仪180,投影仪180配置为将显示装置200的显示区210显示的内容投射到触控系统的预设区域140中。通过将显示区210显示的内容投影到预设区域140中,用户可以更加准确地进行触摸操作。在一些示例中,当形成在触控系统的预设区域中的虚拟触控区可调整时,例如,投影仪的投影方向也可以相应地调整,以便与虚拟触控区的位置和大小相匹配。
例如,如图12所示,本实施例提供的触控显示系统可应用于智能手表中,该智能手表包括智能手表本体250以及用于将智能手表本体250固定在手臂240上的表带230。本发明实施例包括但不限于此,触控显示系统还可用于其他电子设备,例如,智能手环、智能指环、智能眼镜等可穿戴电子设备。
例如,如图12所示,显示装置200与触控系统的预设区域140沿平行于显示区210的方向可以依次设置。这样便于用户对该触控显示系统进行触控操作,也可以在一定程度上简化触控系统的结构。以将该触控显示系统应用于如图12所示的智能手表等电子设备中为例,触控系统的预设区域140所在面与电子设备的底面(例如图12中智能手表的靠近用户手臂240的底面)可以大致在同一面上,因此,可以将触控区定位装置120到电子设备的底面的距离作为实施例一中触控区定位装置(例如激光发射装置、图像获取装置等)到预设区域140所在面的距离,以省去单独设置的测距装置。
例如,如图12所示,在平行于显示区210的方向上,触摸检测装置110和触控区定位装置120可以设置于显示装置200的显示区210与触控系统的预设区域140之间。例如,可以设置于显示装置200的靠近预设区域140的边框(例如,实施例一中所述的承载装置101可以作为该边框)上。这样,可以通过触摸检测装置110和触控区定位装置120在该边框上的物理位置获取触摸事件的发生位置的纵坐标,以简化触控显示系统的结构。
实施例三
本实施例提供一种触控交互方法,其可应用于各种触控设备中,如图2所示,该方法包括以下步骤S301至步骤S305。
步骤301:向预设区域140中发射第一光束151和第二光束152,使第一光束151照射到预设区域140中的第一位置以形成第一图案161,第二光束152照射到预设区域140中的第二位置以形成第二图案162。
例如,可采用激光发射装置或可见光发射装置向预设区域140发射第一光束151和第二光束152。例如,当采用激光发射装置时,可采用低能量激光发射装置,以避免对投射面(例如用户的皮肤)造成灼伤。
在一些示例中,第一光束151和第二光束152的发射方向和角度可以调整。在另一些示例中,第一图案161和第二图案162还可采用不同的颜色或者不同的图案进行区分,从而使用户容易分辨。当然,也可以向预设区域140内发射更多的光束以在预设区域140内形成更多的图案。
步骤302:确定第一位置和第二位置。
例如,可通过获取包括第一图案161和第二图案162的预设区域140的图像,并对图像进行处理以获取第一位置和第二位置;其具体的方法可参见图7以及实施例一中关于图7的说明。
例如,当利用激光发射装置发射第一光束151和第二光束152时,可利用激光发射装置的位置参数获取第一位置和第二位置;其具体的方法可参见图6a-图6c以及实施例一中关于图6a-图6c的说明。
例如,上述位置参数可以包括激光发射装置到预设区域140所在面的距离、以及激光发射装置相对于预设区域140所在面的旋转角度;或者,上述位置参数可以包括激光发射装置到预设区域所在面的距离以及激光发射装置到第一图案161或第二图案162的距离。
步骤303:利用第一图案161和第二图案162在预设区域140中确定虚拟触控区170。
例如,可以以第一图案161为虚拟触控区170的中心、以第二图案162为虚拟触控区170的一角,定义出一个正方形区域作为虚拟触控区170。又例如,也可以第一图案161为圆心,第一图案161到第二图案162的距离为半径,定义出一个圆形区域作为虚拟触控区170。本发明实施例不限于此。
步骤304:检测虚拟触控区170中是否发生触摸事件,当虚拟触控区170中发生触摸事件时,确定触摸事件的发生位置。
例如,可以向虚拟触控区170中发射触摸检测信号,并接收到从170虚拟触控区反馈回来的触摸感应信号,由此确定虚拟触控区170中发生的触摸事件。
例如,可采用反射式红外传感器或超声波传感器的触摸检测装置对触摸事件进行检测,当发生触摸事件时,触摸检测装置向虚拟触控区170内发射的触摸检测信号会被手指、触控笔等障碍物反射回来,由此便可判断有无触摸事件发生。例如,可以利用时间差测距法,或根据触摸感应信号的强度与触摸检测信号的发出位置到障碍物之间的距离关系,或采用其它方式计算出触摸事件的发生位置。参见实施例一中的相关描述,这里不再赘述。
步骤305:将触摸事件的发生位置、第一位置和第二位置发送到预设电子设备。
例如,预设电子设备可根据关于触摸事件的发生位置、第一位置和第二位置的信号确定该信号对应的指令,以实现触摸操作对应的控制功能。
本实施例提供的触控交互方法,可以应用于智能手表、智能手环等可穿戴电子设备中,通过在例如显示区外的预设区域外设置虚拟触控区,可以解决用户在进行触摸操作时造成的显示区被遮挡的问题。
例如,如图9所示,上述预设电子设备可以包括显示装置200,该方法还可以包括:根据第一位置和第二位置确定虚拟触控区170与显示装置200的显示区的对应关系,也就是,确定虚拟触控区170与显示区210之间的映射关系,以将在虚拟触控区内某位置的触摸操作转化为对显示区210内相应位置的触摸。
例如,显示装置200可以与预设区域140沿平行于显示区的方向依次设置。参见实施例二中的相关描述,这里不再赘述。
例如,本实施例的至少一个示例提供的触控交互方法还可以包括:使显示装置200的显示区内显示与触摸位置对应的符号。由此,可以将关于触控操作的信息反馈给用户,以便用户进行下一步的操作。
例如,本实施例的至少一个示例提供的触控交互方法还可以包括:将显示装置200的显示区210显示的内容投射到虚拟触控区中170,以便于用户在虚拟触控区170内进行触摸操作。
本实施例提供的方法,可参照实施例一和实施例二中的相关描述,重复之处不再赘述。
综上所述,本发明实施例提供的触控系统、触控显示系统以及触控交互方法可提供一种新的虚拟触控交互方式,通过使触控交互操作发生在电子设备的屏幕显示区之外,可免于在进行触控操作时造成的对屏幕的遮挡。
有以下几点需要说明:
(1)本发明实施例附图中,只涉及到与本发明实施例涉及到的结构,其他结构可参考通常设计。
(2)附图中为了清楚示意说明本发明实施例的相关内容,省去了其他与相关内容无关的部件。
(3)在不冲突的情况下,本发明的不同实施例中的特征可以相互组合。
以上所述仅是本发明的示范性实施方式,而非用于限制本发明的保护范围,本发明的保护范围由所附的权利要求确定。

Claims (21)

1.一种触控系统,包括触摸检测装置、触控区定位装置以及与所述触摸检测装置以及所述触控区定位装置信号连接的处理装置,其中,
所述触摸检测装置配置为检测预设区域内触摸事件的发生并向所述处理装置发送关于所述触摸事件的发生位置的信息,其中,所述触控系统用于电子设备,所述预设区域位于所述电子设备的显示区之外;
所述触控区定位装置配置为向所述预设区域内发射第一光束和第二光束,所述第一光束照射到所述预设区域中的第一位置以形成第一图案,所述第二光束照射到所述预设区域中的第二位置以形成第二图案;
所述处理装置配置为对所述信息进行处理以获取所述触摸事件的发生位置,并且获取所述第一位置和所述第二位置。
2.根据权利要求1所述的触控系统,其中,所述触控区定位装置包括第一发射装置和第二发射装置,所述第一发射装置配置为发射所述第一光束,所述第二发射装置配置为发射所述第二光束;或者
所述触控区定位装置包括发光装置和分光装置,所述分光装置配置为将所述发光装置发出的光束分成所述第一光束和所述第二光束。
3.根据权利要求2所述的触控系统,其中,所述第一发射装置、所述第二发射装置和所述发光装置中的至少一个包括激光发射装置;或者
所述第一发射装置、所述第二发射装置和所述发光装置中的至少一个包括可见光发射装置。
4.根据权利要求1-3任一所述的触控系统,其中,所述触控区定位装置还包括图像获取装置,
所述图像获取装置配置为获取包括所述第一图案和所述第二图案的所述预设区域的图像,并将所述图像发送至所述处理装置。
5.根据权利要求1所述的触控系统,其中,
所述触摸检测装置被配置为向所述预设区域内发射触摸检测信号,并接收从所述预设区域反馈回来的触摸感应信号。
6.根据权利要求1-3和5中任一项所述的触控系统,其中,所述触摸检测装置为反射式红外传感器或超声波传感器。
7.根据权利要求1-3和5中任一项所述的触控系统,其中,所述触摸检测装置包括多个子传感器,所述多个子传感器沿从所述触摸检测装置到所述触控区定位装置的方向依次排列。
8.一种触控显示系统,包括具有显示区的显示装置以及权利要求1-7中任一项所述的触控系统,其中,
所述触控系统的处理装置还与所述显示装置信号连接,并且配置为向所述显示装置输出与所述触控系统所获取的所述触摸事件的发生位置、所述第一位置和所述第二位置相对应的信号。
9.根据权利要求8所述的触控显示系统,其中,所述显示装置与所述触控系统的所述预设区域沿平行于所述显示区的方向依次设置。
10.根据权利要求9所述的触控显示系统,其中,在平行于所述显示区的所述方向上,所述触摸检测装置和所述触控区定位装置设置于所述显示装置的所述显示区与所述触控系统的所述预设区域之间。
11.根据权利要求8-10中任一项所述的触控显示系统,其中,所述处理装置或者显示装置还配置为根据所述第一图案和所述第二图案在所述预设区域内形成虚拟触控区,并且根据关于所述第一位置和所述第二位置的第二信息以及关于所述显示区的第三信息建立所述虚拟触控区与所述显示装置的所述显示区之间的对应关系。
12.根据权利要求8-10中任一项所述的触控显示系统,其中,在所述触控显示系统工作时,所述显示装置的所述显示区内显示与所述触摸事件的发生位置对应的符号。
13.根据权利要求8-10中任一项所述的触控显示系统,还包括:
投影仪,配置为将所述显示装置的所述显示区显示的内容投射到所述触控系统的所述预设区域中。
14.一种触控交互方法,包括:
向预设区域中发射第一光束和第二光束,其中,所述第一光束照射到所述预设区域中的第一位置以形成第一图案,所述第二光束照射到所述预设区域中的第二位置以形成第二图案;
确定所述第一位置和所述第二位置;
利用所述第一图案和所述第二图案在所述预设区域中确定虚拟触控区;
检测所述虚拟触控区中是否发生触摸事件,其中,当所述虚拟触控区中发生触摸事件时,确定所述触摸事件的发生位置;以及
将所述触摸事件的发生位置、所述第一位置和所述第二位置发送到预设电子设备,其中,所述预设区域位于所述预设电子设备的显示区之外。
15.根据权利要求14所述的方法,其中,所述预设电子设备包括显示装置,所述方法还包括:
根据所述第一位置和所述第二位置确定所述虚拟触控区与所述显示装置的显示区的对应关系。
16.根据权利要求15所述的方法,其中,所述显示装置与所述预设区域沿平行于所述显示区的方向依次设置。
17.根据权利要求15所述的方法,还包括:使所述显示装置的所述显示区内显示与所述触摸事件的发生位置对应的符号。
18.根据权利要求15所述的方法,还包括:将所述显示装置的所述显示区显示的内容投射到所述虚拟触控区中。
19.根据权利要求14-18中任一项所述的方法,其中,
获取包括所述第一图案和所述第二图案的所述预设区域的图像,对所述图像进行处理以获取所述第一位置和所述第二位置;或者
利用激光发射装置发射所述第一光束和所述第二光束,并利用所述激光发射装置的位置参数获取所述第一位置和所述第二位置。
20.根据权利要求19所述的方法,其中,
所述位置参数包括所述激光发射装置到所述预设区域所在面的距离、以及所述激光发射装置相对于所述预设区域所在面的旋转角度;或者
所述位置参数包括所述激光发射装置到所述预设区域所在面的距离以及所述激光发射装置到所述第一图案或所述第二图案的距离。
21.根据权利要求14-18中任一项所述的方法,其中,
向所述虚拟触控区中发射触摸检测信号,接收到从所述虚拟触控区反馈回来的触摸感应信号,由此确定所述虚拟触控区中发生的触摸事件。
CN201610084809.6A 2016-02-14 2016-02-14 触控系统、触控显示系统和触控交互方法 Active CN105589607B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201610084809.6A CN105589607B (zh) 2016-02-14 2016-02-14 触控系统、触控显示系统和触控交互方法
EP16847616.6A EP3416032A4 (en) 2016-02-14 2016-05-16 TACTILE CONTROL SYSTEM, TOUCH CONTROL DISPLAY SYSTEM, AND TOUCH CONTROL INTERACTION METHOD
US15/515,848 US10303276B2 (en) 2016-02-14 2016-05-16 Touch control system, touch control display system and touch control interaction method
PCT/CN2016/082219 WO2017136980A1 (zh) 2016-02-14 2016-05-16 触控系统、触控显示系统和触控交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610084809.6A CN105589607B (zh) 2016-02-14 2016-02-14 触控系统、触控显示系统和触控交互方法

Publications (2)

Publication Number Publication Date
CN105589607A CN105589607A (zh) 2016-05-18
CN105589607B true CN105589607B (zh) 2018-09-07

Family

ID=55929235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610084809.6A Active CN105589607B (zh) 2016-02-14 2016-02-14 触控系统、触控显示系统和触控交互方法

Country Status (4)

Country Link
US (1) US10303276B2 (zh)
EP (1) EP3416032A4 (zh)
CN (1) CN105589607B (zh)
WO (1) WO2017136980A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106610757B (zh) * 2016-08-26 2019-08-02 北京一数科技有限公司 一种投影触控方法、装置及设备
KR20180029178A (ko) * 2016-09-09 2018-03-20 삼성디스플레이 주식회사 전자 장치
CN106557185B (zh) * 2016-11-23 2019-11-05 广州视源电子科技股份有限公司 触摸显示屏、交互设备、模式切换方法和装置
CN107562288B (zh) * 2017-08-31 2020-03-06 广东美的制冷设备有限公司 基于红外触控装置的响应方法、红外触控装置和介质
TWI631437B (zh) * 2017-11-06 2018-08-01 許家維 雷射投射鐘
CN108089772B (zh) * 2018-01-15 2021-04-20 潍坊歌尔电子有限公司 一种投影触控方法和装置
CN109375554B (zh) * 2018-12-04 2024-04-09 深圳和而泰智能控制股份有限公司 金属触控模组及电器
CN112716117B (zh) * 2020-12-28 2023-07-14 维沃移动通信有限公司 智能手环及其控制方法
CN113706768A (zh) * 2021-09-29 2021-11-26 安徽省东超科技有限公司 密码输入装置和终端设备及密码输入方法
CN114442851A (zh) * 2022-01-28 2022-05-06 深圳Tcl新技术有限公司 激光处理方法、装置、存储介质、显示设备及激光设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103995621A (zh) * 2014-04-28 2014-08-20 京东方科技集团股份有限公司 一种穿戴式触控装置和穿戴式触控方法
CN104583921A (zh) * 2012-08-27 2015-04-29 西铁城控股株式会社 信息输入装置
CN104850275A (zh) * 2015-05-15 2015-08-19 深圳欧菲光科技股份有限公司 投影终端及其投影触控实现方法
CN105094675A (zh) * 2015-07-28 2015-11-25 中国联合网络通信集团有限公司 一种人机交互方法及触屏可穿戴设备
CN105159539A (zh) * 2015-09-10 2015-12-16 京东方科技集团股份有限公司 可穿戴设备的触控响应方法、装置及可穿戴设备
CN205375438U (zh) * 2016-02-14 2016-07-06 京东方科技集团股份有限公司 触控系统和触控显示系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090061179A (ko) * 2007-12-11 2009-06-16 한국전자통신연구원 데이터 입력 장치 및 이를 이용한 데이터 처리 방법
JP5277703B2 (ja) * 2008-04-21 2013-08-28 株式会社リコー 電子機器
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
JP5510155B2 (ja) * 2010-07-29 2014-06-04 船井電機株式会社 プロジェクタ
US10061387B2 (en) * 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
KR101446902B1 (ko) * 2011-08-19 2014-10-07 한국전자통신연구원 사용자 인터랙션 장치 및 방법
JP2015079169A (ja) * 2013-10-18 2015-04-23 増田 麻言 投影装置
JP2015121979A (ja) * 2013-12-24 2015-07-02 株式会社東芝 装着型情報入力装置、情報入力システム、及び情報入力方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104583921A (zh) * 2012-08-27 2015-04-29 西铁城控股株式会社 信息输入装置
CN103995621A (zh) * 2014-04-28 2014-08-20 京东方科技集团股份有限公司 一种穿戴式触控装置和穿戴式触控方法
CN104850275A (zh) * 2015-05-15 2015-08-19 深圳欧菲光科技股份有限公司 投影终端及其投影触控实现方法
CN105094675A (zh) * 2015-07-28 2015-11-25 中国联合网络通信集团有限公司 一种人机交互方法及触屏可穿戴设备
CN105159539A (zh) * 2015-09-10 2015-12-16 京东方科技集团股份有限公司 可穿戴设备的触控响应方法、装置及可穿戴设备
CN205375438U (zh) * 2016-02-14 2016-07-06 京东方科技集团股份有限公司 触控系统和触控显示系统

Also Published As

Publication number Publication date
US20180232087A1 (en) 2018-08-16
CN105589607A (zh) 2016-05-18
US10303276B2 (en) 2019-05-28
EP3416032A4 (en) 2019-10-09
EP3416032A1 (en) 2018-12-19
WO2017136980A1 (zh) 2017-08-17

Similar Documents

Publication Publication Date Title
CN105589607B (zh) 触控系统、触控显示系统和触控交互方法
US10481237B2 (en) Method and apparatus for using gestures to control a measurement device
US20200201436A1 (en) Method and device for providing haptic feedback in virtual reality system
EP0686935A1 (en) Pointing interface
KR20140016987A (ko) 가상 필기 입력을 위한 방법 및 전자 장치
JP2017509955A (ja) タッチセンサにおける可能なチャネルの動的割当
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
WO2013067232A1 (en) Optical tablet stylus and indoor navigation system
CN106919294A (zh) 一种3d触控交互装置、其触控交互方法及显示装置
WO2018176773A1 (zh) 三维空间的交互系统及其操作方法
KR20110138975A (ko) 좌표 인식 장치 및 이를 포함하는 디스플레이 장치, 시큐리티 장치 및 전자 칠판
CN205375438U (zh) 触控系统和触控显示系统
JP2014115733A (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体
US20150097775A1 (en) Method and apparatus for determining the pose of a light source using an optical sensing array
KR101105872B1 (ko) 적외선 카메라와 모니터를 이용한 손 인식 방법 및 장치
JP2006047134A (ja) 歩行者位置検出装置
CN105718121B (zh) 光学式触控装置
CN204066012U (zh) 一种投影装置
Matsubara et al. Touch detection method for non-display surface using multiple shadows of finger
Wang et al. Fingertip-based interactive projector-camera system
US10372268B2 (en) Spatial image display apparatus and spatial image display method
KR101112640B1 (ko) 포인팅 장치와 함께 사용하는 디스플레이 장치 및 그 방법
CN102221941A (zh) 框架式基于光学传感多点定位触摸监测控制系统及方法
JP2013191005A (ja) デジタイザ装置
Cheng et al. Interaction Paradigms for Bare-Hand Interaction with Large Displays at a Distance

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant