CN109445620A - 一种交互笔自动识别方法 - Google Patents

一种交互笔自动识别方法 Download PDF

Info

Publication number
CN109445620A
CN109445620A CN201811347711.0A CN201811347711A CN109445620A CN 109445620 A CN109445620 A CN 109445620A CN 201811347711 A CN201811347711 A CN 201811347711A CN 109445620 A CN109445620 A CN 109445620A
Authority
CN
China
Prior art keywords
interaction pen
pen
interaction
tail
nib
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811347711.0A
Other languages
English (en)
Other versions
CN109445620B (zh
Inventor
赵飞
宋康康
曾鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Shiruidi Photoelectric Co ltd
Ningbo Thredim Optoelectronics Co ltd
Original Assignee
Ningbo Vision Optoelectronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Vision Optoelectronics Co Ltd filed Critical Ningbo Vision Optoelectronics Co Ltd
Priority to CN201811347711.0A priority Critical patent/CN109445620B/zh
Publication of CN109445620A publication Critical patent/CN109445620A/zh
Application granted granted Critical
Publication of CN109445620B publication Critical patent/CN109445620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Abstract

本发明实施例提出一种交互笔自动识别方法,涉及3D交互笔领域,包括:从陀螺仪获取交互笔的姿态信息,获取待计算值,待计算值为交互笔的笔头和笔尾任一点的坐标,或者为交互笔的历史轨迹点,依据姿态信息和待计算值确定交互笔的位置。由于,当交互笔的笔头和笔尾任意一点的坐标为未知时,可以依据交互笔的姿态信息以及其中一点的坐标来确定交互笔的位置;又由于,当交互笔的笔头和笔尾的坐标均为未知时,可以依据交互笔的姿态信息以及交互笔的历史轨迹点来确定交互笔的位置,因此保证了交互笔定位、跟踪的精确性、连续性及可靠性。

Description

一种交互笔自动识别方法
技术领域
本发明涉及3D交互笔领域,具体而言,涉及一种交互笔自动识别方法。
背景技术
交互笔是实现3D虚拟场景操控的核心部件,其中交互笔空间坐标、姿态及交互笔笔头指向是实现虚拟场景精确控制关键数据。
采用双目视觉原理的光学定位方法可以实现交互笔的空间坐标测量,在交互笔中添加陀螺仪模块可以实现交互笔翻滚角测量,但无法可靠的检测交互笔笔头指向,而且交互笔在运动过程中,由于运动位置关系(手与交互笔标记点、双目摄像机,以及交互笔两个标记点与双目摄像机)的变化,在光学检测中会出现只有一个标记点可见的情况,同时光学相机在拍摄过程中可能会存在掉帧的问题,导致交互笔两个标记点都不可见,从而导致交互笔姿态数据不够准确,进而不能保证交互笔定位、跟踪的精确性、连续性及可靠性。
发明内容
本发明实施例的目的在于提供一种交互笔自动识别方法,以解决交互笔标记点被遮挡的问题。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提出一种交互笔自动识别方法,应用于判断交互笔的位置,所述交互笔内置陀螺仪,所述交互笔自动识别方法包括:
从所述陀螺仪获取所述交互笔的姿态信息;
获取待计算值,其中,所述待计算值为所述交互笔的笔头和笔尾任一点的坐标,或者为所述交互笔的历史轨迹点;
依据所述姿态信息和所述待计算值确定所述交互笔的位置。
第二方面,本发明实施例还提出一种交互笔自动识别装置,所述交互笔自动识别装置包括姿态信息获取模块、待计算值获取模块和交互笔的位置确定模块。其中姿态信息获取模块用于从所述陀螺仪获取所述交互笔的姿态信息;待计算值获取模块用于获取待计算值,其中,所述待计算值为所述交互笔的笔头和笔尾任意一点的坐标,或者为所述交互笔的历史轨迹点;交互笔的位置确定模块用于依据所述姿态信息和所述待计算值确定所述交互笔的位置。
第三方面,本发明实施例还提出一种电子设备,所述电子设备包括处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述处理器执行所述机器可读指令,以执行时执行上述的交互笔自动识别方法的步骤。
本发明实施例所提供的一种交互笔自动识别方法,包括:从陀螺仪获取交互笔的姿态信息,获取待计算值,其中,待计算值为交互笔的笔头和笔尾任一点的坐标,或者为交互笔的历史轨迹点,依据姿态信息和待计算值确定交互笔的位置。由于,当交互笔的笔头和笔尾任意一点的坐标为未知时,本发明所提供的交互笔自动识别方法可以依据交互笔的姿态信息以及其中一点的坐标来确定交互笔的位置;又由于,当交互笔的笔头和笔尾的坐标均为未知时,本发明所提供的交互笔自动识别方法可以依据交互笔的姿态信息以及交互笔的历史轨迹点来确定交互笔的位置,因此保证了交互笔定位、跟踪的精确性、连续性及可靠性。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的交互笔自动识别方法应用环境示意图。
图2示出了本发明实施例所提供交互笔的示意图。
图3示出了本发明实施例所提供的一种交互笔自动识别方法的流程图。
图4示出了本发明实施例提供的一种交互笔自动识别装置的功能模块图。
图5示出了本发明实施例所提供的电子设备的示意图。
图标:100-交互笔自动识别装置;110-姿态信息获取模块;120-待计算值获取模块;130-交互笔的位置确定模块;140-检测模块;110-交互笔的空间坐标计算模块;160-交互笔的中心坐标计算模块;170-交互笔的历史轨迹点检测模块;180-交互笔的中心坐标预测模块;200-电子设备;210-处理器;220-存储器;100-交互笔自动识别装置;240-总线。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参照图1,为本发明实施例所提供的交互笔自动识别方法应用环境示意图。该应用环境包括显示屏以及交互笔,交互笔作用于显示屏上。
显示屏包括两组双目视觉定位摄像机,一组为两个,该双目视觉定位摄像机分别布置在显示屏的左上角和右上角。四个相机分别以X、Y、Z为轴旋转φ、ψ、θ角度或旋转-φ、-ψ、-θ角度,并沿着X、Y坐标方向平移,固定到指定位置。相机坐标相对系统坐标为固定关系,满足如下关系式:
其中,R为3*3的旋转矩阵,T为三维平移矩阵。四个双目视觉定位摄像机平移是为了捕捉到双目视觉定位摄像机的可视范围内的交互笔。四个双目视觉定位摄像机的坐标分别为Pcl1、Pcl2、Pcr1、Pcr2。
在一种可能的实现方式中,该显示屏可以是但不限于游戏机的显示屏、电视的显示屏以及平板电脑的显示屏。
需要说明的是,选定显示屏朝向观看者的方向且与显示屏正交的射线为显示屏的正交射线方向。
请参照图2,为本发明实施例所提供交互笔的示意图。
交互笔包括电子罗盘芯片、陀螺仪芯片、加速度计、笔头标记点以及笔尾标记点。其中电子罗盘芯片用于测量交互笔笔头的方向相对地磁场的三维坐标的夹角。陀螺仪芯片用于测量交互笔的姿态信息,该姿态信息包括俯仰角ψ、偏航角φ以及翻滚角θ。加速度计用于测量交互笔的移动速度以及加速度。笔头标记点即为安装在笔头的红外LED,笔尾标记点即安装在笔尾的红外LED,该红外LED为发光LED,以使双目视觉定位摄像机捕捉到笔头标记点以及笔尾标记点的坐标。
请结合参阅图1及图2,如果交互笔首次由双目视觉定位摄像机的可视范围外进入到双目视觉定位摄像机的可视范围内,控制笔头LED以及笔尾LED灯,分别检测两者都亮、两者全灭以及笔头或笔尾单独亮时,以检测并区分笔头标记点与笔尾标记点。
依据双目视觉定位原理,可实现交互笔笔头标记点以及笔尾标记点任意时刻在双目视觉定位摄像机视距范围内的空间坐标定位,得到笔头标记点、笔尾标记点的坐标Ph和Pt。并通过几何关系可以计算出交互笔的中心坐标Po和交互笔笔头标记点以及笔尾标记点之间的距离L。根据交互笔笔头标记点以及笔尾标记点的坐标可以计算得到交互笔的俯仰角ψ以及偏航角φ。
需要说明的是,可以依据双目视觉定位原理得到的坐标Ph和Pt计算交互笔的俯仰角ψ和偏航角φ,并对陀螺仪的俯仰角ψ和偏航角φ进行校正。
需要说明的是,双目视觉定位原理器是基于双目视觉定位摄像机视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。融合两个定位摄像机获得的图像并观察它们之间的差别,可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来。
请参照图3,为本发明实施例所提供的一种交互笔自动识别方法的流程图。
步骤301,从陀螺仪获取交互笔的姿态信息。
需要说明的是,该姿态信息包括交互笔的俯仰角ψ、偏航角φ以及翻滚角θ。
步骤302,获取待计算值,其中,待计算值为交互笔的笔头和笔尾任意一点的坐标,或者为交互笔的历史轨迹点。
需要说明的是,当交互笔笔头标记点以及笔尾标记点中只有一点被遮挡时,则待计算值为交互笔的笔头标记点与笔尾标记点任意一点的坐标。计算交互笔的笔头标记点与笔尾标记点任意一点的坐标的步骤为:
首先,依据双目视觉定位原理,检测交互笔的笔头和笔尾中未被遮挡的标记点Px空间坐标。
然后,依据交互笔的俯仰角ψ、偏航角φ和交互笔的笔头和笔尾中未被遮挡的空间坐标,通过数学运算计算出交互笔的笔头和笔尾中被遮挡的空间坐标,计算出交互笔笔头标记点Ph及笔尾标记点Pt的坐标,并计算交互笔中心点坐标Po,并记录Po的坐标。
需要说明的是,当交互笔笔头标记点以及笔尾标记点两点都被遮挡时,则待计算值为交互笔的历史轨迹点。并通过历史轨迹点获取交互笔笔头标记点Ph及笔尾标记点Pt的坐标。
获取交互笔的笔头标记点Ph及笔尾标记点Pt坐标的步骤包括:
首先,检测交互笔的历史轨迹点,其中历史轨迹点包括交互笔的历史中心坐标,根据交互笔中心点Po点移动历史记录,计算交互笔的移动方向、移动速度及加速度,预测交互笔中心点Po可能的坐标。
然后,根据陀螺仪测量的交互笔俯仰角ψ和偏航角φ、中心点Po的坐标以及测量的交互笔笔头标记点与笔尾标记点之间的距离L,计算出交互笔笔头标记点Ph及笔尾标记点Pt的坐标。
步骤303,依据姿态信息和待计算值确定交互笔的位置。
根据步骤302中得到的交互笔笔头标记点Ph及笔尾标记点Pt的坐标、交互笔内置的电子罗盘芯片测量的交互笔笔头的方向相对地磁场的三维坐标的夹角以及显示屏正交射线方向与地磁场的三维坐标夹角,通过几何运算,可以判断出笔头相对显示屏的相对方向。
需要说明的是,为减小陀螺仪、加速度累计误差对交互笔姿态估计造成的偏差,本方法还采用了四元数算法来矫正笔的瞬时姿态。采用方法如下:首先获得交互笔在空间坐标系下的空间坐标;然后依据姿态信息测出交互笔的空间坐标系与四元数坐标系之间的转换关系t;最后获取当前交互笔的四元数值s,计算交互笔前一个姿态的三维空间向量v,则当前交互笔的瞬间姿态为:q0≈t*q0*v*q0-1t-1(1)。
当交互笔丢失一个标记点后,可以根据式(1)获得的姿态,得到另一个标记点的坐标。
当交互笔的笔头标记点以及笔尾标记点初始已知的情况下,根据式(1)中向量v方向,即可以得到当前交互笔的笔头标记点以及笔尾标记点。
在交互笔的笔头标记点以及笔尾标记点同时丢失或遮挡情况下,根据式(1)和丢失前的交互笔的方向,按四元数算法提供的姿态,仍然可以得到交互笔的瞬时姿。
综上,本发明实施例所提供的一种交互笔自动识别方法,包括:从陀螺仪获取交互笔的姿态信息,获取待计算值,其中,待计算值为交互笔的笔头和笔尾任一点的坐标,或者为交互笔的历史轨迹点,依据姿态信息和待计算值确定交互笔的位置。由于,当交互笔的笔头和笔尾任意一点的坐标为未知时,本发明所提供的交互笔自动识别方法可以依据交互笔的姿态信息以及其中一点的坐标来确定交互笔的位置;又由于,当交互笔的笔头和笔尾的坐标均为未知时,本发明所提供的交互笔自动识别方法可以依据交互笔的姿态信息以及交互笔的历史轨迹点来确定交互笔的位置,因此保证了交互笔定位、跟踪的精确性、连续性及可靠性。
请参阅图4,图4为本发明实施例提供的一种交互笔自动识别装置的功能模块图。需要说明的是,本实施例所提供的交互笔自动识别装置,其基本原理及产生的技术效果和上述相同,为简要描述,本部分未提及之处,可参考上述中相应内容。
交互笔自动识别装置包括:姿态信息获取模块110、待计算值获取模块120、交互笔的位置确定模块130、检测模块140、交互笔的空间坐标计算模块110、交互笔的中心坐标计算模块160、交互笔的历史轨迹点检测模块170以及交互笔的中心坐标预测模块180。
其中,姿态信息获取模块110用于从陀螺仪获取交互笔的姿态信息。
可以理解地,在一种优选的实施例中,姿态信息获取模块110可用于执行步骤301。
其中,待计算值获取模块120用于获取待计算值,其中,待计算值为交互笔的笔头和笔尾任意一点的坐标,或者为交互笔的历史轨迹点。
可以理解地,在一种优选的实施例中,待计算值获取模块120可用于执行步骤302。
其中,交互笔的位置确定模块130用于依据姿态信息和待计算值确定交互笔的位置。。
可以理解地,在一种优选的实施例中,交互笔的位置确定模块130可用于执行步骤303。
其中,检测模块140用于检测交互笔的笔头和笔尾中未被遮挡的空间坐标
其中,交互笔的空间坐标计算模块110用于依据姿态信息和交互笔的笔头和笔尾中未被遮挡的空间坐标计算交互笔的笔头和笔尾中被遮挡的空间坐标。
交互笔的空间坐标计算模块110还用于依据姿态信息、当前中心坐标、预存的交互笔的笔头至笔尾之间的距离计算交互笔的笔头和笔尾的空间坐标。
其中,交互笔的中心坐标计算模块160用于依据姿态信息和交互笔的笔头和笔尾中未被遮挡的空间坐标计算交互笔的中心坐标。
其中,交互笔的历史轨迹点检测模块170用于检测交互笔的历史轨迹点,其中历史轨迹点包括交互笔的历史中心坐标
其中,以及交互笔的中心坐标预测模块180用于依据交互笔的历史中心坐标预测交互笔的当前中心坐标。
本发明实施例还提供了一种电子设备200。请参照图5,图5为本发明实施例所提供的电子设备200的示意图,该电子设备包含处理器210、存储器220、交互笔自动识别装置100以及总线240。
该处理器210及存储器220可以通过一条或多条总线240进行连接;
该处理器210,用于读/写存储器220中存储的数据或程序,执行相应地功能。
该存储器220,用于存储的数据或程序。
需要说明的是,该电子设备还可以包含用以实现其他功能的器件,例如,射频电路、电源电路等,该电子设备可以为:桌面电脑、平板电脑、笔记本、智能手机、服务器等设备,此处不予限定。
本领域内的技术人员应明白,本发明实施例可提供为方法、装置、设备或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、装置、设备和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在本发明实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的可选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

Claims (10)

1.一种交互笔自动识别方法,用于判断交互笔的位置,所述交互笔内置陀螺仪,其特征在于,所述交互笔自动识别方法包括:
从所述陀螺仪获取所述交互笔的姿态信息;
获取待计算值,其中,所述待计算值为所述交互笔的笔头和笔尾任意一点的坐标,或者为所述交互笔的历史轨迹点;
依据所述姿态信息和所述待计算值确定所述交互笔的位置。
2.如权利要求1所述的交互笔自动识别方法,其特征在于,当所述交互笔的笔头和笔尾的任意之一被遮挡时,所述获取待计算值的步骤包括:
检测所述交互笔的笔头和笔尾中未被遮挡的空间坐标;
所述依据所述姿态信息和所述待计算值确定所述交互笔的位置的步骤包括:
所述依据所述姿态信息和所述交互笔的笔头和笔尾中未被遮挡的空间坐标计算所述交互笔的笔头和笔尾中被遮挡的空间坐标。
3.如权利要求2所述的交互笔自动识别方法,其特征在于,所述依据所述姿态信息和所述交互笔的笔头和笔尾中未被遮挡的空间坐标计算所述交互笔的笔头和笔尾中被遮挡的空间坐标的步骤还包括:
所述依据所述姿态信息和所述交互笔的笔头和笔尾中未被遮挡的空间坐标计算所述交互笔的中心坐标。
4.如权利要求1所述的交互笔自动识别方法,其特征在于,当所述交互笔的笔头和笔尾均被遮挡时,所述获取待计算值的步骤包括:
检测所述交互笔的历史轨迹点,其中所述历史轨迹点包括所述交互笔的历史中心坐标;
所述依据所述姿态信息和所述待计算值确定所述交互笔的位置的步骤包括:
依据所述交互笔的历史中心坐标预测所述交互笔的当前中心坐标;
依据所述姿态信息、所述当前中心坐标、预存的所述交互笔的笔头至笔尾之间的距离计算所述交互笔的笔头和笔尾的空间坐标。
5.如权利要求1所述的交互笔自动识别方法,其特征在于,包括:
获得所述交互笔在空间坐标系下的空间坐标;
依据所述姿态信息测出所述交互笔的空间坐标系与四元数坐标系之间的转换关系t;
获取当前所述交互笔的四元数值s,计算所述交互笔前一个姿态的三维空间向量v,则当前所述交互笔的瞬间姿态为q0≈t*q0*v*q0-1t-1
6.一种交互笔自动识别装置,用于判断交互笔的位置,所述交互笔内置陀螺仪,其特征在于,所述交互笔自动识别装置包括:
姿态信息获取模块,用于从所述陀螺仪获取所述交互笔的姿态信息;
待计算值获取模块,用于获取待计算值,其中,所述待计算值为所述交互笔的笔头和笔尾任意一点的坐标,或者为所述交互笔的历史轨迹点;
交互笔的位置确定模块,用于依据所述姿态信息和所述待计算值确定所述交互笔的位置。
7.如权利要求6所述的交互笔自动识别装置,其特征在于,所述交互笔自动识别装置还包括:
检测模块,用于检测所述交互笔的笔头和笔尾中未被遮挡的空间坐标;
交互笔的空间坐标计算模块,用于所述依据所述姿态信息和所述交互笔的笔头和笔尾中未被遮挡的空间坐标计算所述交互笔的笔头和笔尾中被遮挡的空间坐标。
8.如权利要求7所述的交互笔自动识别装置,其特征在于,所述交互笔自动识别装置还包括:
交互笔的中心坐标计算模块,用于所述依据所述姿态信息和所述交互笔的笔头和笔尾中未被遮挡的空间坐标计算所述交互笔的中心坐标。
9.如权利要求8所述的交互笔自动识别装置,其特征在于,所述交互笔自动识别装置还包括:
交互笔的历史轨迹点检测模块,用于检测所述交互笔的历史轨迹点,其中所述历史轨迹点包括所述交互笔的历史中心坐标;
交互笔的中心坐标预测模块,用于依据所述交互笔的历史中心坐标预测所述交互笔的当前中心坐标;
所述交互笔的空间坐标计算模块,还用于依据所述姿态信息、所述当前中心坐标、预存的所述交互笔的笔头至笔尾之间的距离计算所述交互笔的笔头和笔尾的空间坐标。
10.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述处理器执行所述机器可读指令,以执行时执行如权利要求1至5任一所述的交互笔自动识别方法的步骤。
CN201811347711.0A 2018-11-13 2018-11-13 一种交互笔自动识别方法 Active CN109445620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811347711.0A CN109445620B (zh) 2018-11-13 2018-11-13 一种交互笔自动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811347711.0A CN109445620B (zh) 2018-11-13 2018-11-13 一种交互笔自动识别方法

Publications (2)

Publication Number Publication Date
CN109445620A true CN109445620A (zh) 2019-03-08
CN109445620B CN109445620B (zh) 2021-10-01

Family

ID=65551007

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811347711.0A Active CN109445620B (zh) 2018-11-13 2018-11-13 一种交互笔自动识别方法

Country Status (1)

Country Link
CN (1) CN109445620B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268149A (zh) * 2021-01-28 2021-08-17 深圳市瑞立视多媒体科技有限公司 双光球交互笔的刚体位姿确定方法、装置和计算机设备
CN113364985A (zh) * 2021-06-11 2021-09-07 广州逅艺文化科技有限公司 一种现场直播的镜头跟踪方法、装置及介质
CN114170407A (zh) * 2022-02-15 2022-03-11 北京所思信息科技有限责任公司 输入设备的模型映射方法、装置、设备和存储介质
WO2023155672A1 (en) * 2022-02-15 2023-08-24 Beijing Source Technology Co., Ltd. Input device model projecting method, apparatus and system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120162214A1 (en) * 2010-12-22 2012-06-28 Chavez David A Three-Dimensional Tracking of a User Control Device in a Volume
CN102981646A (zh) * 2012-12-10 2013-03-20 江苏惠通集团有限责任公司 姿态感知设备输出控制方法、显示控制方法及装置、系统
US20130271363A1 (en) * 2012-04-16 2013-10-17 Amir POZNANSKY Electronic Remote Control Thimble
CN104965609A (zh) * 2015-07-14 2015-10-07 武汉精测电子技术股份有限公司 一种主动式电容笔
CN105446503A (zh) * 2016-01-06 2016-03-30 吴振华 一种将手写(绘)信息实时数字化的智能笔
CN106980393A (zh) * 2017-05-09 2017-07-25 深圳未来立体教育科技有限公司 智能位置追踪操控笔及姿态原始数据处理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120162214A1 (en) * 2010-12-22 2012-06-28 Chavez David A Three-Dimensional Tracking of a User Control Device in a Volume
CN103443746A (zh) * 2010-12-22 2013-12-11 Z空间股份有限公司 用户控制装置的在空间中的三维跟踪
US20150169173A1 (en) * 2010-12-22 2015-06-18 Zspace, Inc. Three-Dimensional Tracking of a User Control Device in a Volume
CN106774880A (zh) * 2010-12-22 2017-05-31 Z空间股份有限公司 用户控制装置的在空间中的三维跟踪
US20130271363A1 (en) * 2012-04-16 2013-10-17 Amir POZNANSKY Electronic Remote Control Thimble
CN102981646A (zh) * 2012-12-10 2013-03-20 江苏惠通集团有限责任公司 姿态感知设备输出控制方法、显示控制方法及装置、系统
CN104965609A (zh) * 2015-07-14 2015-10-07 武汉精测电子技术股份有限公司 一种主动式电容笔
CN105446503A (zh) * 2016-01-06 2016-03-30 吴振华 一种将手写(绘)信息实时数字化的智能笔
CN106980393A (zh) * 2017-05-09 2017-07-25 深圳未来立体教育科技有限公司 智能位置追踪操控笔及姿态原始数据处理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268149A (zh) * 2021-01-28 2021-08-17 深圳市瑞立视多媒体科技有限公司 双光球交互笔的刚体位姿确定方法、装置和计算机设备
CN113268149B (zh) * 2021-01-28 2024-04-16 深圳市瑞立视多媒体科技有限公司 双光球交互笔的刚体位姿确定方法、装置和计算机设备
CN113364985A (zh) * 2021-06-11 2021-09-07 广州逅艺文化科技有限公司 一种现场直播的镜头跟踪方法、装置及介质
CN113364985B (zh) * 2021-06-11 2022-07-29 广州逅艺文化科技有限公司 一种现场直播的镜头跟踪方法、装置及介质
CN114170407A (zh) * 2022-02-15 2022-03-11 北京所思信息科技有限责任公司 输入设备的模型映射方法、装置、设备和存储介质
WO2023155672A1 (en) * 2022-02-15 2023-08-24 Beijing Source Technology Co., Ltd. Input device model projecting method, apparatus and system
US11869145B2 (en) 2022-02-15 2024-01-09 Beijing Source Technology Co., Ltd. Input device model projecting method, apparatus and system

Also Published As

Publication number Publication date
CN109445620B (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN108062776B (zh) 相机姿态跟踪方法和装置
CN109445620A (zh) 一种交互笔自动识别方法
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
CN109752003B (zh) 一种机器人视觉惯性点线特征定位方法及装置
CN106525074B (zh) 一种云台漂移的补偿方法、装置、云台和无人机
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
US9648297B1 (en) Systems and methods for assisting a user in capturing images for three-dimensional reconstruction
CN106980368A (zh) 一种基于视觉计算及惯性测量单元的虚拟现实交互设备
CN109782901A (zh) 增强现实交互方法、装置、计算机设备及存储介质
KR20120015564A (ko) 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
CN103443746A (zh) 用户控制装置的在空间中的三维跟踪
KR101592798B1 (ko) 배향 센서들에 기초한 호모그래피 분해 모호성의 해결
CN110530356B (zh) 位姿信息的处理方法、装置、设备及存储介质
CN206990800U (zh) 一种定位系统
CN109255749A (zh) 自主和非自主平台中的地图构建优化
CN109445599A (zh) 交互笔检测方法及3d交互系统
CN104913775B (zh) 无人机对地高度的测量方法、无人机定位方法及装置
US11373329B2 (en) Method of generating 3-dimensional model data
CN108933902A (zh) 全景图像采集装置、建图方法及移动机器人
US10388069B2 (en) Methods and systems for light field augmented reality/virtual reality on mobile devices
JP5726024B2 (ja) 情報処理方法および装置
CN103632627A (zh) 信息显示方法、装置及移动导览电子设备
JP6109213B2 (ja) 情報処理装置および方法、プログラム
CN108733211A (zh) 追踪系统、其操作方法、控制器、及电脑可读取记录媒体
CN112964255A (zh) 一种标记场景用来定位的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221124

Address after: 212310 Workshop 7 #, Dezi Industrial Park, south of Liyao Road, Danyang Development Zone, Zhenjiang City, Jiangsu Province

Patentee after: Jiangsu shiruidi photoelectric Co.,Ltd.

Patentee after: NINGBO THREDIM OPTOELECTRONICS Co.,Ltd.

Address before: 315000 No.58, Jingu Middle Road (West), Yinzhou District, Ningbo City, Zhejiang Province

Patentee before: NINGBO THREDIM OPTOELECTRONICS Co.,Ltd.