CN109976636B - Ar触控方法、装置、系统及ar设备 - Google Patents

Ar触控方法、装置、系统及ar设备 Download PDF

Info

Publication number
CN109976636B
CN109976636B CN201910208730.3A CN201910208730A CN109976636B CN 109976636 B CN109976636 B CN 109976636B CN 201910208730 A CN201910208730 A CN 201910208730A CN 109976636 B CN109976636 B CN 109976636B
Authority
CN
China
Prior art keywords
determining
platform
touch object
operating platform
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910208730.3A
Other languages
English (en)
Other versions
CN109976636A (zh
Inventor
李江
王行
李骊
周晓军
盛赞
李朔
杨淼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing HJIMI Technology Co Ltd
Original Assignee
Beijing HJIMI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing HJIMI Technology Co Ltd filed Critical Beijing HJIMI Technology Co Ltd
Priority to CN201910208730.3A priority Critical patent/CN109976636B/zh
Publication of CN109976636A publication Critical patent/CN109976636A/zh
Application granted granted Critical
Publication of CN109976636B publication Critical patent/CN109976636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本说明书提供一种AR触控方法、装置、系统及AR设备,该方法包括:获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与操作平台;确定触控物体与操作平台接触;基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。应用本申请提供的AR触控实施例,基于深度信息识别触控物体与操作平台的接触,并确定触控物体所进行的操作,相应地实现触控物体对带有显示屏的电子设备的操控,提高了触控识别的准确率,并且实现了系统的低功耗。

Description

AR触控方法、装置、系统及AR设备
技术领域
本说明书涉及AR技术领域,尤其涉及一种AR触控方法、装置、系统及AR设备。
背景技术
AR(增强现实,Augmented Reality)技术是将计算机生成的虚拟场景呈现在现实场景上,实现虚拟场景与现实场景的融合。
目前,相关AR技术多数采用激光或红外光进行投影和遮挡判断,或者采用彩色图手部分割技术进行接触识别,计算用户所触发的位置,执行相应的指令。
激光或红外光投影不仅功耗大,且支持设备昂贵,不方便携带;而彩色图手部分割技术分割易出错,准确率低。
发明内容
为克服相关技术中存在的问题,本说明书提供了一种AR触控方法、装置、系统及AR设备。
具体地,本申请是通过如下技术方案实现的:
根据本说明书实施例的第一方面,提供一种AR触控方法,包括:
获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与所述操作平台;
确定所述触控物体与所述操作平台接触;
基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
根据本说明书实施例的第二方面,提供一种AR触控装置,包括:
建立单元,用于获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与所述操作平台;
接触确定单元,用于确定所述触控物体与所述操作平台接触;
操作确定单元,用于基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
执行单元,用于基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
根据本说明书实施例的第三方面,提供一种AR设备,包括:内部总线,以及通过内部总线连接的存储器、处理器和外部接口;其中,
所述外部接口,用于获取包括操作平台的深度图像;
所述存储器,用于存储AR触控对应的机器可读指令;
所述处理器,用于读取所述存储器上的所述机器可读指令,并执行所述指令以实现如下操作:
利用深度图像中的深度信息分割出触控物体与所述操作平台;
确定所述触控物体与所述操作平台接触;
基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
根据本说明书实施例的第四方面,提供一种AR触控系统,操作平台、带有显示屏的电子设备、深度摄像头、AR设备,其中,
所述操作平台,用于通过触控物体进行操作;
所述带有显示屏的电子设备,用于通过所述操作平台的操作实现操控并显示所述操作;
所述深度摄像头,用于拍摄包括操作平台的深度图像;
所述AR设备,用于获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与所述操作平台;确定所述触控物体与所述操作平台接触;基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
应用本申请提供的AR触控实施例,基于深度信息识别触控物体与操作平台的接触,并确定触控物体所进行的操作,相应地实现触控物体对带有显示屏的电子设备的操控,提高了触控识别的准确率,并且实现了系统的低功耗。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本说明书。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本说明书的实施例,并与说明书一起用于解释本说明书的原理。
图1是本申请根据一示例性实施例示出的一种AR触控方法的流程图。
图2是本申请根据一示例性实施例示出的一种确定操作平台的像素坐标的方法的流程图。
图3是本申请根据一示例性实施例示出的AR触控装置的结构示意图。
图4是本申请根据一示例性实施例示出的AR设备的结构图。
图5是本申请根据一示例性实施例示出的AR触控系统的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书的一些方面相一致的装置和方法的例子。
参见图1,为本申请一个例子中的AR触控方法的流程图,该方法可以包括以下步骤:
在步骤101中,获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与操作平台。
其中,操作平台可以是任意实体平台,例如,其可以是整个实体桌面,也可以是实体桌面的一部分。本领域技术人员应当理解,操作平台不限于实体桌面,任何适当物体的表面,可以形成平台则可以作为操作平台。
在一个示例中,可以通过以下方法分割出触控物体与操作平台:
在该深度图像中,确定操作平台的像素坐标;
将与该操作平台的像素坐标相同、深度值不同的部分确定为触控物体。
在包括操作平台的深度图像中,操作平台的像素坐标可以表示为(u,v),并且能够获得各个像素坐标点的深度值D(u,v)。由于深度值直接反映了物体距离摄像头的远近,又因为操作平台是一个连续的平面,因此操作平台所包括的所有像素点的深度值是相同或相近的。
在包括操作平台的深度图像中,如果在操作平台的像素坐标范围内,出现了与操作平台的深度值不相同的像素点,那么这些不相同的像素点则为触控物体的像素点。例如,当人手与操作平台接触,那么此时所拍摄的深度图像中必然包括了人手的部分。因为人手处于操作平台上方,其与摄像头的距离相较于操作平台与摄像头的距离是不同的,因此人手部分的深度值与操作平台是不同的。又因为人手处于操作平台区域内,因此人手的像素坐标是与操作平台的一部分像素点的像素坐标重合,从而可以确定在深度图像中,在操作平台的区域内出现了触控物体。
基于以上的方式,利用深度图像中的深度信息则能够确定出在操作平台区域内出现了触控物体,也即实现了触控物体与操作平台的分割。
在一个示例中,可以通过以下方法确定操作平台的像素坐标。如图2所示,该方法包括:
在步骤201中,基于包括操作平台的深度图像获得点云。
点云是物体表面采样点的空间坐标的集合。
在一个示例中,可以根据拍摄深度图像的深度摄像头的内部参数将深度图像中的像素点转换为点云。例如,利用深度摄像头的内部参数将所有像素点转换为空间坐标系下的坐标点,所有坐标点的集合形成了点云。
在步骤202中,基于点云及空间坐标确定操作平台所在平面。
在点云中,每个表面采样点的空间坐标可以表示为(x,y,z)。
在一个示例中,当点云中设定数量的表面采样点的z向坐标相同时,可以确定这些表面采样点所形成的平面即为操作平台所在平面,该平面的z向坐标即为上述表面采样点的z向坐标。上述设定数量可以根据操作平台的大小进行设定。
在步骤203中,将设定范围内的平面区域确定为操作平台,并确定操作平台的空间坐标。
基于上述z向坐标相同的表面采样点(坐标是连续的),可以确定能够形成的最大平面,也即操作平台的最大范围。在该范围内,可以根据实际需要设定操作平台的范围,在确定了操作平台的范围后,即能够确定操作平台的空间坐标。
在步骤204中,将操作平台的空间坐标转换为像素坐标,以确定操作平台的像素坐标。
与步骤201相似,同样根据拍摄深度图像的深度摄像头的内部参数,即能够实现将操作平台的空间坐标转换为深度图像中的像素坐标。
在步骤102中,确定触控物体与操作平台接触。
在步骤101中分割出触控物体与操作平台后,可以确定触控物体出现在操作平台的范围内,但并不能确定该触控物体与操作平台之间是否接触。因此,接下来需要确定触控物体与操作平台接触。
在一个示例中,可以通过以下方法确定触控物体与操作平台接触:确定触控物体的尖端的像素位置,若尖端像素位置的深度值与操作平台的深度值之差在设定范围内,则确定触控物体与操作平台接触。
例如,利用轮廓检测算法、凸包算法中的一种检测出触控物体的尖端,则能够确定尖端所在的像素位置。获取尖端所在的像素位置的深度值,将其与操作平台的深度值进行比较。
由于深度值代表实体与摄像头之间的距离,因此将尖端所在的像素位置的深度值与操作平台的深度值进行比较,获得两者的差值,即是获取触控物体的尖端与操作平台之间的距离。
如果尖端像素位置的深度值与操作平台的深度值之差在设定范围内,则表示触控物体的尖端与操作平台之间的距离符合利用尖端接触操作平台的要求,则判定触控物体与操作平台接触;相反,如果尖端像素位置的深度值与操作平台的深度值之差不在设定范围内,则表示触控物体的尖端与操作平台之间的距离过远,此时触控物体没有与操作平台接触。
在步骤103中,基于触控物体与操作平台的接触确定触控物体在操作平台上进行的操作。
在确定了触控物体与操作平台接触后,经过持续的判断,能够获得触控物体与操作平台接触的时长,以及接触区域的变化趋势。依据接触时长和接触区域位置的变化速度、变化方向和变化大小,能够确定在操作平台上进行的操作。
上述操作可以包括拖动操作、点击操作、左右翻页操作、放大缩小操作中的至少一种。
以下以人手作为触控物体进行操作为例,对各个操作的判定进行详细说明。本领域技术人员应当理解,触控物体不限于人手,也可以是触屏笔等其他工具。
点击操作是指用户单手一只手指按下,并快速抬起,实现对按下位置所在的图标的点击操作。针对拖动操作,可以进行以下判断:首,在确定触控物体与图标(或按键)所在的像素区域接触之后,判断在设定时间内接触是否消失。如果接触消失则表示触控物体按下图标(或按键)之后,迅速抬起,也即进行了图标(或按键)的点击操作。
对于其他操作也是通过类似的方式进行判断。
拖动操作是指用户单手一只手指按下,并较慢速度移动到指定位置时,抬起手指,实现图标拖动操作;左右翻页是指用户单手一只手指按下,并较快速度左右移动,实现左右翻页操作;放大缩小操作是指用户单手双指按下,通过双指指尖开合移动,实现所在位置的放大缩小操作,当双指远离即为放大,靠近为缩小。
本领域技术人员应当理解,触控物体对操作平台的操作不限于上述操作,可以根据实际情况对其他操作进行判断。
在步骤104中,基于触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
基于操作平台的深度图像与电子设备的显示屏之间像素点的对应关系,通过所判断出的触控物体在操作平台上进行的操作,将操作映射至电子设备端以实现对电子实备的操控,并在显示屏上显示该操作。该映射是实时的映射,也即在设定时间间隔则进行操作的判断以及映射,以便能够实现地将在操作平台上进行的操作体现在电子设备端,不会产生延迟从而影响用户体验。
在一个示例中,用户在实现AR触控的过程中,通过手指指尖与操作平台接触并迅速抬起,实现对电子设备的操控。在该过程中,在摄像头所捕获的包含了用户的手指和操作平台的深度图像上,利用深度信息能够分割出手指与操作平台,并且能够确定手指与操作平台接触。通过判断出手指与操作平台接触的迅速消失,能够确定出手指进行了点击操作。则通过在深度图像中确定的接触像素位置,能够确定在显示屏上对哪一个区域进行了操作,则能够实现对相应的图标(或按键)的点击操作,从而实现了对电子设备的操控。
在本实施例中,通过对操作平台进行操作实现了对显示屏所在电子设备的操控,实现了虚拟场景与现实场景的融合。
与前述方法的实施例相对应,本说明书还提供了装置、系统以及计算设备的实施例。
参见图3,为本申请AR触控装置的一个实施例框图。该装置包括:建立单元310、接触确定单元320、操作确定单元330和执行单元340。
其中,建立单元310,用于获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与操作平台;
接触确定单元320,用于确定触控物体与操作平台接触;
操作确定单元330,用于基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
执行单元340,用于基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
参见图4,为本申请AR设备的一个实施例框图。该计算设备可以包括:内部总线410,以及通过内部总线连接的存储器420、处理器430和外部接口440。
其中,外部接口440,用于获取包括操作平台的深度图像;
存储器420,用于存储AR触控对应的机器可读指令;
处理器430,用于读取存储器上的机器可读指令,并执行指令以实现如下操作:
利用深度图像中的深度信息分割出触控物体与操作平台;
确定触控物体与操作平台接触;
基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
参考图5,为本申请AR触控系统的一个实施例框图。该系统可以包括:操作平台510、带有显示屏的电子设备520、深度摄像头530以及AR设备540。
其中,操作平台510,用于通过触控物体进行操作;
带有显示屏的电子设备520,用于通过操作平台510的操作实现操控并显示该操作;
深度摄像头530,用于拍摄包括操作平台的深度图像;
AR设备540,用于获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与操作平台;确定触控物体与操作平台接触;基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作。
在本申请实施例中,计算机可读存储介质可以是多种形式,比如,在不同的例子中,所述机器可读存储介质可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。特殊的,所述的计算机可读介质还可以是纸张或者其他合适的能够打印程序的介质。使用这些介质,这些程序可以被通过电学的方式获取到(例如,光学扫描)、可以被以合适的方式编译、解释和处理,然后可以被存储到计算机介质中。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (8)

1.一种AR触控方法,其特征在于,包括:
获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与所述操作平台;
确定所述触控物体与所述操作平台接触;
基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作;
所述利用深度图像中的深度信息分割出触控物体与所述操作平台包括:
在所述深度图像中,确定所述操作平台的像素坐标;
将与所述操作平台的像素坐标相同、深度值不同的部分确定为触控物体;
通过以下方式确定操作平台的像素坐标:
基于所述深度图像获得点云;
基于点云及空间坐标确定操作平台所在平面;
将设定范围内的平面区域确定为操作平台,并确定所述操作平台的空间坐标;
将所述操作平台的空间坐标转换为像素坐标,以确定所述操作平台的像素坐标。
2.根据权利要求1所述的方法,其特征在于,所述确定触控物体与操作平台接触包括:确定触控物体的尖端的像素位置,若尖端像素位置的深度值与操作平台的深度值之差在设定范围内,则确定触控物体与操作平台接触。
3.根据权利要求2所述的方法,其特征在于,所述确定触控物体的尖端的像素位置包括:
利用轮廓检测算法、凸包算法中的一种检测出触控物体的尖端,并确定所述尖端所在的像素位置。
4.根据权利要求1所述的方法,其特征在于,所述基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作包括:
依据接触时长和接触区域位置的变化速度、变化方向和变化大小确定在所述操作平台上进行的操作。
5.根据权利要求1所述的方法,其特征在于,所述操作包括拖动操作、点击操作、左右翻页操作、放大缩小操作中的至少一种。
6.一种AR触控装置,其特征在于,包括:
建立单元,用于获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与所述操作平台;
接触确定单元,用于确定所述触控物体与所述操作平台接触;
操作确定单元,用于基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
执行单元,用于基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作;
所述建立单元还用于:
在所述深度图像中,确定所述操作平台的像素坐标;
将与所述操作平台的像素坐标相同、深度值不同的部分确定为触控物体;
通过以下方式确定操作平台的像素坐标:
基于所述深度图像获得点云;
基于点云及空间坐标确定操作平台所在平面;
将设定范围内的平面区域确定为操作平台,并确定所述操作平台的空间坐标;
将所述操作平台的空间坐标转换为像素坐标,以确定所述操作平台的像素坐标。
7.一种AR设备,其特征在于,包括:内部总线,以及通过内部总线连接的存储器、处理器和外部接口;其中,
所述外部接口,用于获取包括操作平台的深度图像;
所述存储器,用于存储AR触控对应的机器可读指令;
所述处理器,用于读取所述存储器上的所述机器可读指令,并执行所述指令以实现如下操作:
利用深度图像中的深度信息分割出触控物体与所述操作平台;
确定所述触控物体与所述操作平台接触;
基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;
基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作;
所述利用深度图像中的深度信息分割出触控物体与所述操作平台包括:
在所述深度图像中,确定所述操作平台的像素坐标;
将与所述操作平台的像素坐标相同、深度值不同的部分确定为触控物体;
通过以下方式确定操作平台的像素坐标:
基于所述深度图像获得点云;
基于点云及空间坐标确定操作平台所在平面;
将设定范围内的平面区域确定为操作平台,并确定所述操作平台的空间坐标;
将所述操作平台的空间坐标转换为像素坐标,以确定所述操作平台的像素坐标。
8.一种AR触控系统,其特征在于,包括:操作平台、带有显示屏的电子设备、深度摄像头、AR设备,其中,
所述操作平台,用于通过触控物体进行操作;
所述带有显示屏的电子设备,用于通过所述操作平台的操作实现操控并显示所述操作;
所述深度摄像头,用于拍摄包括操作平台的深度图像;
所述AR设备,用于获取包括操作平台的深度图像,利用深度图像中的深度信息分割出触控物体与所述操作平台;确定所述触控物体与所述操作平台接触;基于所述触控物体与所述操作平台的接触确定所述触控物体在操作平台上进行的操作;基于所述触控物体在操作平台上进行的操作,实现对带有显示屏的电子设备的操控,并在所述显示屏上显示所述操作;
所述利用深度图像中的深度信息分割出触控物体与所述操作平台包括:
在所述深度图像中,确定所述操作平台的像素坐标;
将与所述操作平台的像素坐标相同、深度值不同的部分确定为触控物体;
通过以下方式确定操作平台的像素坐标:
基于所述深度图像获得点云;
基于点云及空间坐标确定操作平台所在平面;
将设定范围内的平面区域确定为操作平台,并确定所述操作平台的空间坐标;
将所述操作平台的空间坐标转换为像素坐标,以确定所述操作平台的像素坐标。
CN201910208730.3A 2019-03-19 2019-03-19 Ar触控方法、装置、系统及ar设备 Active CN109976636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910208730.3A CN109976636B (zh) 2019-03-19 2019-03-19 Ar触控方法、装置、系统及ar设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910208730.3A CN109976636B (zh) 2019-03-19 2019-03-19 Ar触控方法、装置、系统及ar设备

Publications (2)

Publication Number Publication Date
CN109976636A CN109976636A (zh) 2019-07-05
CN109976636B true CN109976636B (zh) 2021-04-16

Family

ID=67079569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910208730.3A Active CN109976636B (zh) 2019-03-19 2019-03-19 Ar触控方法、装置、系统及ar设备

Country Status (1)

Country Link
CN (1) CN109976636B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104423578A (zh) * 2013-08-25 2015-03-18 何安莉 交互式输入系统和方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060181519A1 (en) * 2005-02-14 2006-08-17 Vernier Frederic D Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups
WO2014014461A1 (en) * 2012-07-19 2014-01-23 Intel Corporation System and method for controlling an external system using a remote device with a depth sensor
CN103713737B (zh) * 2013-12-12 2017-01-11 中国科学院深圳先进技术研究院 用于智能眼镜的虚拟键盘系统
CN104268935A (zh) * 2014-09-18 2015-01-07 华南理工大学 一种基于特征的机载激光点云与影像数据融合系统及方法
CN104991684A (zh) * 2015-07-23 2015-10-21 京东方科技集团股份有限公司 触控设备及其工作方法
JP6903935B2 (ja) * 2017-02-17 2021-07-14 ソニーグループ株式会社 情報処理システム、情報処理方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104423578A (zh) * 2013-08-25 2015-03-18 何安莉 交互式输入系统和方法

Also Published As

Publication number Publication date
CN109976636A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
US11048333B2 (en) System and method for close-range movement tracking
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9910498B2 (en) System and method for close-range movement tracking
CA3058821C (en) Touchless input
JP5709227B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20200111617A (ko) 제스처 인식 방법, 장치, 전자 기기 및 저장 매체
TW201303788A (zh) 圖像分割方法以及圖像分割系統
US20120319945A1 (en) System and method for reporting data in a computer vision system
US20150058782A1 (en) System and method for creating and interacting with a surface display
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6524589B2 (ja) クリック動作検出装置,方法およびプログラム
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
TW201322058A (zh) 手勢辨識系統及方法
TWI485600B (zh) 圖樣互換方法與相關多點觸控裝置
TW201407420A (zh) 改善之視訊追蹤
JP5962249B2 (ja) 文字入力プログラム、情報処理装置および文字入力方法
CN105912101B (zh) 一种投影控制方法和电子设备
JP2024508566A (ja) 動的ジェスチャー認識方法、装置、可読記憶媒体及びコンピュータ機器
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
JP2016167268A (ja) ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム
KR101281461B1 (ko) 영상분석을 이용한 멀티 터치 입력 방법 및 시스템
CN109976636B (zh) Ar触控方法、装置、系统及ar设备
CN110310336B (zh) 一种触控投影系统及图像处理方法
KR101211178B1 (ko) 증강 현실 컨텐츠 재생 시스템 및 방법
JP2018185563A (ja) 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant