CN115601824B - 一种二维图像中人眼凝视方向的标注装置、系统和方法 - Google Patents
一种二维图像中人眼凝视方向的标注装置、系统和方法 Download PDFInfo
- Publication number
- CN115601824B CN115601824B CN202211280251.0A CN202211280251A CN115601824B CN 115601824 B CN115601824 B CN 115601824B CN 202211280251 A CN202211280251 A CN 202211280251A CN 115601824 B CN115601824 B CN 115601824B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- human eye
- dimensional image
- labeling
- gaze direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种二维图像中人眼凝视方向的标注装置、系统和方法,属于计算机视觉与机器学习技术领域,装置包括:手持支架和装载在其中的数字倾角仪;标注者操作手持支架使标注装置的指示方向与二维图像中目标人眼的凝视方向保持一致,此时标注者输入采集启动指令;数字倾角仪,根据标注者输入的采集启动指令采集标注装置的三维姿态从而获取目标人眼的三维方向信息。本申请在标注者操作下使标注装置的指示方向与二维图像中目标人眼的凝视方向保持一致,根据标注者输入的采集启动指令采集标注装置的三维姿态,从而获取目标人眼的三维方向信息,由此解决当前图像人眼凝视标注昂贵、适用性窄的技术问题。
Description
技术领域
本发明属于计算机视觉与机器学习技术领域,更具体地,涉及一种二维图像中人眼凝视方向的标注装置、系统和方法。
背景技术
人眼凝视方向是理解人类意图、思想的重要渠道,可通过非言语、动作的交流来分析人类在社交交互中的兴趣和注意力。基于图像的人眼凝视方向估计是计算机视觉与机器学习领域的重要分支,引来近年来众多学者的关注,其借助深度神经网络的表达能力,对大量标注人眼凝视方向的数据集进行学习,取得很大的进展。然而,在无约束的日常场景(非实验室)中,收集准确的人眼凝视方向标注较为困难,致使数据集的尺度与多样性受限。当前的图像人眼凝视方向标注与数据收集主要存在三种方法:(1)使用眼动仪来记录视线的位置,再利用图像生成的算法消除图像中的眼镜;(2)预先定义现实场景中的物理坐标,引导人员注视并记录图像;(3)利用人体交互数据集,采集2D图像凝视交互关系,补充弱监督数据。
这些方法存在以下几个问题:(1)眼动仪使用限制较多,需在实验室环境下佩戴并采集图像,无法使用已有图像数据,难以提供多样性的人员与场景,且图像生成去除眼镜的算法易带来噪声和误差;(2)预定义的物理坐标标注成本高昂,未考虑交互下人眼相互凝视的场景;(3)人体交互数据集虽考虑到社交交互场景,但其标注的为三维凝视方向投影到二维平面的方向数据,未捕获到准确的3D凝视方向。
综上,昂贵的标注成本与受限的采集环境,增大了人眼凝视方向数据集的收集的难度,制约图像人眼凝视估计任务的发展,亟需一种适用性广、经济的图像人眼凝视方向标注方法与装置。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种二维图像中人眼凝视方向的标注装置、系统和方法,其目的在于在标注者操作下使所述标注装置的指示方向与所述二维图像中目标人眼的凝视方向保持一致,用于根据所述标注者输入的采集启动指令采集所述标注装置的三维姿态,从而获取所述目标人眼的三维方向信息,由此解决当前图像人眼凝视标注昂贵、适用性窄的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种二维图像中人眼凝视方向的标注装置,包括:
手持支架,在标注者操作下使所述标注装置的指示方向与所述二维图像中目标人眼的凝视方向保持一致;其中,当所述指示方向与所述目标人眼的凝视方向一致时所述标注者输入采集启动指令;
数字倾角仪,装载在所述手持支架中,用于根据所述标注者输入的采集启动指令采集所述标注装置的三维姿态,从而获取所述目标人眼的三维方向信息,所述三维方向信息包括X、Y和Z三个方向的角度信息。
在其中一个实施例中,所述手持支架设有:
装载模块,为中部凹槽结构,所述中部凹槽用于装载所述数字倾角仪;
手持模块,设置在所述装载模块的第一端,便于所述标注者依据视觉观测操作所述标注装置。
在其中一个实施例中,所述手持支架还设有:
图像接触模块,设置在所述装载模块的第二端,用于接触所述二维图像中目标人眼区域,以便于确定所述三维方向信息对应的凝视方向箭头的起点。
在其中一个实施例中,所述图像接触模块接触所述二维图像的一端呈平滑的半球状,以便于在所述二维图像滚动搜寻所述目标人眼区域。
在其中一个实施例中,所述手持模块的尾端为半球状,所述手持模块与所述图像接触模块呈对称性设计。
在其中一个实施例中,所述手持支架采用3D打印技术制作的一体注塑成型结构。
在其中一个实施例中,所述装载模块通过过盈配合的中部凹槽结构将所述数字倾角仪固定在外框内部,以使所述数字倾角仪与所述手持支架相对静止从而确保所述三维方向信息的采集精度。
在其中一个实施例中,所述装载模块设有两处镂空,一侧镂空用于引出所述数字倾角仪的数据线,以便于与外部处理设备连接;另一侧镂空用于放置所述数字倾角仪的拨动开关以接收所述采集启动指令。
按照本发明的另一方面,提供了一种二维图像中人眼凝视方向的标注系统,包括:
上述标注装置;
计算机设备,与所述数字倾角仪连接,用于显示所述二维图像,以便于所述标注者依据视觉观测控制所述标注装置的指示方向与所述二维图像中目标人眼的凝视方向保持一致;还用于采集所述目标人眼的坐标位置和接收所述数字倾角仪发送的所述三维方向信息,以在所述目标人眼的坐标位置上标记对应的三维凝视方向。
按照本发明的另一方面,提供了一种二维图像中人眼凝视方向的标注方法,应用于上述二维图像中人眼凝视方向的标注系统,包括:
S1:利用计算机设备显示二维待标记图像,所述二维待标记图像包括至少一个人眼;获取所述二维待标记图像中目标人眼的坐标位置;
S2:控制标注装置的指示方向与所述目标人眼的凝视方向保持一致;
S3:利用所述标注装置中的数字倾角仪获取所述目标人眼的三维方向信息,并通过数据链路传输给所述计算机设备;所述三维方向信息包括X、Y和Z三个方向的角度信息;
S4:利用所述计算机设备根据所述三维方向信息在所述坐标位置为所述目标人眼标记对应的凝视方向。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
第一、本发明提供的二维图像中人眼凝视方向的标注装置,直接在二维图像上标注三维信息,可适用于任何场景的图像,不必受到实验室环境或设备的约束,具有更广泛的适用性;由于标注图像选择性广,构建的数据集中存在更为多样的人类与场景;所述装置的手持支架与数字倾角仪成本低廉,极大降低了图像人眼凝视方向标注的经济成本;同时由于不受设备约束,标注简单,也降低了图像人眼凝视方向标注的时间成本;可用于人眼凝视估计的图像理解任务,能够快速、广泛地标注各式图像中人眼凝视方向。
第二、本发明提供的二维图像中人眼凝视方向的标注装置能够快速便捷地构建大量多样的图像人眼凝视方向估计的数据集,推动计算机视觉与机器学习中人类意图状态理解的发展。
附图说明
图1为本发明一实施例中二维图像中人眼凝视方向的标注装置的结构示意图;
图2为本发明一实施例中手持支架的三视图;
图3为本发明一实施例中数字倾角仪的尺寸参数示意图;
图4为本发明一实施例中数字倾角仪的三维方向记录界面;
图5为本发明一实施例中二维图像中人眼凝视方向的标注方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1提供了一种二维图像中人眼凝视方向的标注装置,其包括:
手持支架,在标注者操作下使所述标注装置的指示方向与所述二维图像中目标人眼的凝视方向保持一致;其中,当所述指示方向与所述目标人眼的凝视方向一致时所述标注者输入采集启动指令;
数字倾角仪,装载在所述手持支架中,用于根据所述标注者输入的采集启动指令采集所述标注装置的三维姿态,从而获取所述目标人眼的三维方向信息,所述三维方向信息包括X、Y和Z三个方向的角度信息。
在其中一个实施例中,本发明中人眼凝视方向的标注装置具备以下特征:该标注装置外观呈中部膨大的笔状结构,由3D打印的手持支架和数字倾角仪组成。3D打印的手持支架的前端对应人眼凝视的方向的起点,用于确定待标注的二维图像中各个人眼位置,其半球形的前端便于装置可以应对180°的方向标注范围;手持支架的中部用于安放数字倾角仪,其凹槽的两侧为放置数字倾角仪的卡槽,一体化数字倾角仪和手持3D打印支架;手持支架的后侧为便于标注者手持,标注出目标人眼的凝视方向。数字倾角仪记录当前的三维姿态,并将信息通过USB传输到计算机设备中,进行记录,通过手持设备和数字倾角仪可记录二维图像中的人眼凝视方向,便捷快速地构造图像人眼凝视方向估计的数据集。
使用时,将设备中的数字倾角仪通过USB连入计算机设备,然后选取一张二维图像,将手持支架通过标注者估计放置在图像上待标记的人眼上,通过视觉观察,将设备维持在人眼凝视方向上,通过姿态记录软件记录当前的凝视方向,再将图像人眼位置和凝视方向同时用CSV文件记录在计算机设备中,完成标注。这种标注方法打破了实验室及人员多种的环境约束,降低了标注成本,保持了数据多样性。
如图2所示,在其中一个实施例中,手持支架采用3D打印技术,从左到右依次是:图像接触模块,圆柱状,长为50mm,直径为19mm,用于接触待标记的人眼的图像部位,前端为半球状,后端与装载模块相连;装载模块,中部凹槽的立方体结构,长58mm,宽43mm,高19mm,用于稳固地装载数字倾角仪,并维持精度,方便记录当前设备的三维姿态、倾角信息。前端与图像接触模块相连,后端与手持模块相连;手持模块,圆柱状,用以标注者方便手持拿取,前端与装载模块相连。
如图3所示,在其中一个实施例中,数字倾角仪选自维特智能产品标准精度姿态传感器-倾角仪BWT61CL型号,其尺寸可无缝卡扣在3D打印的手持支架中,用以记录三维姿态方向的设备,可输出X、Y、Z三个方向相对于立体的角度。
具体的,选取合适的数字倾角仪,根据所选的数字倾角仪尺寸,利用Inventor软件绘制承载数字倾角仪的手持支架,加载打印出3D成品模具。将数字倾角仪装载在3D打印的手持支架上,完成装置制备。根据二维图像,将装置的图像接触模块放置在图像人眼位置,装置姿态与二维图像中人眼凝视方向一致,通过软件进行记录人眼凝视方向。图4为本发明提供的所选的数字倾角仪三维方向记录界面。
如图5所示,本发明提供了一种二维图像中人眼凝视方向的标注方法,应用于上述二维图像中人眼凝视方向的标注系统,包括:
S1:利用计算机设备显示二维待标记图像,二维待标记图像包括至少一个人眼;获取二维待标记图像中目标人眼的坐标位置;
S2:控制标注装置的指示方向与目标人眼的凝视方向保持一致;
S3:利用标注装置中的数字倾角仪获取目标人眼的三维方向信息,并通过数据链路传输给计算机设备;三维方向信息包括X、Y和Z三个方向的角度信息;
S4:利用计算机设备根据三维方向信息在坐标位置为目标人眼标记对应的凝视方向。
具体的,包括以下几个步骤:(1)给定一张待标记的图像,使用计算机设备记录图像中的人眼坐标位置;(2)利用标注装置,依据标注者的视觉观测,标记出当前人眼的三维凝视方向;(3)通过数据链路将数字倾角仪的三维方向信息传入计算机设备,记录X、Y、Z三个方向的角度信息;(4)记录每张图像的人眼位置,及对应的三维角度信息。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种二维图像中人眼凝视方向的标注装置,其特征在于,包括:
手持支架,在标注者操作下使所述标注装置的指示方向与所述二维图像中目标人眼的凝视方向保持一致;其中,当所述指示方向与所述目标人眼的凝视方向一致时所述标注者输入采集启动指令;
数字倾角仪,装载在所述手持支架中,用于根据所述标注者输入的采集启动指令采集所述标注装置的三维姿态,从而获取所述目标人眼的三维方向信息,所述三维方向信息包括X、Y和Z三个方向的角度信息;
所述手持支架设有:
装载模块,为中部凹槽结构,所述中部凹槽用于装载所述数字倾角仪;
手持模块,设置在所述装载模块的第一端,便于所述标注者依据视觉观测操作所述标注装置;
所述手持支架还设有:图像接触模块,设置在所述装载模块的第二端,用于接触所述二维图像中目标人眼区域,以便于确定所述三维方向信息对应的凝视方向箭头的起点;
所述图像接触模块接触所述二维图像的一端呈平滑的半球状,以便于在所述二维图像滚动搜寻所述目标人眼区域。
2.如权利要求1所述的二维图像中人眼凝视方向的标注装置,其特征在于,所述手持模块的尾端为半球状,所述手持模块与所述图像接触模块呈对称性设计。
3.如权利要求2所述的二维图像中人眼凝视方向的标注装置,其特征在于,所述手持支架采用3D打印技术制作的一体注塑成型结构。
4.如权利要求1所述的二维图像中人眼凝视方向的标注装置,其特征在于,所述装载模块通过过盈配合的中部凹槽结构将所述数字倾角仪固定在外框内部,以使所述数字倾角仪与所述手持支架相对静止从而确保所述三维方向信息的采集精度。
5.如权利要求4所述的二维图像中人眼凝视方向的标注装置,其特征在于,所述装载模块设有两处镂空,一侧镂空用于引出所述数字倾角仪的数据线,以便于与外部处理设备连接;另一侧镂空用于放置所述数字倾角仪的拨动开关以接收所述采集启动指令。
6.一种二维图像中人眼凝视方向的标注系统,其特征在于,包括:
权利要求1-5任一项所述的标注装置;
计算机设备,与所述数字倾角仪连接,用于显示所述二维图像,以便于所述标注者依据视觉观测控制所述标注装置的指示方向与所述二维图像中目标人眼的凝视方向保持一致;还用于采集所述目标人眼的坐标位置和接收所述数字倾角仪发送的所述三维方向信息,以在所述目标人眼的坐标位置上标记对应的三维凝视方向。
7.一种二维图像中人眼凝视方向的标注方法,其特征在于,应用于权利要求6所述的二维图像中人眼凝视方向的标注系统,包括:
S1:利用计算机设备显示二维待标记图像,所述二维待标记图像包括至少一个人眼;获取所述二维待标记图像中目标人眼的坐标位置;
S2:控制标注装置的指示方向与所述目标人眼的凝视方向保持一致;
S3:利用所述标注装置中的数字倾角仪获取所述目标人眼的三维方向信息,并通过数据链路传输给所述计算机设备;所述三维方向信息包括X、Y和Z三个方向的角度信息;
S4:利用所述计算机设备根据所述三维方向信息在所述坐标位置为所述目标人眼标记对应的凝视方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211280251.0A CN115601824B (zh) | 2022-10-19 | 2022-10-19 | 一种二维图像中人眼凝视方向的标注装置、系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211280251.0A CN115601824B (zh) | 2022-10-19 | 2022-10-19 | 一种二维图像中人眼凝视方向的标注装置、系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115601824A CN115601824A (zh) | 2023-01-13 |
CN115601824B true CN115601824B (zh) | 2023-05-26 |
Family
ID=84848882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211280251.0A Active CN115601824B (zh) | 2022-10-19 | 2022-10-19 | 一种二维图像中人眼凝视方向的标注装置、系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601824B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116797612B (zh) * | 2023-08-24 | 2024-03-29 | 天津医科大学第二医院 | 基于弱监督深度活动轮廓模型的超声图像分割方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104251696A (zh) * | 2011-03-14 | 2014-12-31 | 法罗技术股份有限公司 | 通过激光跟踪仪对维度数据的自动测量 |
WO2020042345A1 (zh) * | 2018-08-28 | 2020-03-05 | 初速度(苏州)科技有限公司 | 一种单相机采集人眼视线方向的方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001221636A (ja) * | 2000-02-10 | 2001-08-17 | Nkk Corp | 3次元座標計測方法及び計測装置 |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
CN101419672B (zh) * | 2008-12-03 | 2010-09-08 | 中国科学院计算技术研究所 | 一种同步采集人脸图像和注视视角的装置及方法 |
WO2012107892A2 (en) * | 2011-02-09 | 2012-08-16 | Primesense Ltd. | Gaze detection in a 3d mapping environment |
FR2980592B1 (fr) * | 2011-09-28 | 2014-05-16 | Essilor Int | Procede de mesure de parametres morpho-geometriques d'un individu porteur de lunettes |
CN106504188B (zh) * | 2016-11-23 | 2018-10-23 | 北京清影机器视觉技术有限公司 | 用于立体视觉呈现的人眼观察图像的生成方法和装置 |
CN106840112B (zh) * | 2017-01-09 | 2019-03-22 | 天津大学 | 一种利用自由空间视线凝视点测量的空间几何量测量方法 |
CN107123340B (zh) * | 2017-06-30 | 2020-06-05 | 无锡合壮智慧交通有限公司 | 一种自动检测驾驶人观察状态的方法 |
CN112257696B (zh) * | 2020-12-23 | 2021-05-28 | 北京万里红科技股份有限公司 | 视线估计方法及计算设备 |
CN113241156B (zh) * | 2021-06-04 | 2024-04-23 | 华中科技大学 | 一种基于检测指导的骨科病灶计数网络的标注方法及系统 |
-
2022
- 2022-10-19 CN CN202211280251.0A patent/CN115601824B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104251696A (zh) * | 2011-03-14 | 2014-12-31 | 法罗技术股份有限公司 | 通过激光跟踪仪对维度数据的自动测量 |
WO2020042345A1 (zh) * | 2018-08-28 | 2020-03-05 | 初速度(苏州)科技有限公司 | 一种单相机采集人眼视线方向的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115601824A (zh) | 2023-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
US9424461B1 (en) | Object recognition for three-dimensional bodies | |
Pintaric et al. | Affordable infrared-optical pose-tracking for virtual and augmented reality | |
CN112926423B (zh) | 捏合手势检测识别方法、装置及系统 | |
CN102902355B (zh) | 移动设备的空间交互方法 | |
CN113874870A (zh) | 基于图像的定位 | |
KR20160068830A (ko) | 아이 트래킹 | |
US10262207B2 (en) | Method for tracking keypoints in a scene | |
CN112927363B (zh) | 体素地图构建方法及装置、计算机可读介质和电子设备 | |
CN104364733A (zh) | 注视位置检测装置、注视位置检测方法和注视位置检测程序 | |
CN111821025B (zh) | 空间定位方法、装置、设备、存储介质以及导航棒 | |
CN115601824B (zh) | 一种二维图像中人眼凝视方向的标注装置、系统和方法 | |
JP2020525958A (ja) | 画像処理システム及び画像処理方法 | |
US20200380723A1 (en) | Online learning for 3d pose estimation | |
JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN115715405A (zh) | 手部姿态估计方法、移动设备、头戴式显示器及系统 | |
Vagvolgyi et al. | Wide-angle, monocular head tracking using passive markers | |
CN112561952B (zh) | 用于为目标设置可呈现的虚拟对象的方法和系统 | |
CN112416134A (zh) | 一种快速生成手部关键点数据集的装置及方法 | |
US20200042821A1 (en) | Interactive method and interactive system | |
CN108364034B (zh) | 一种多模式耦合的动作捕捉方法及装置 | |
CN116128981A (zh) | 光学系统标定方法、装置和标定系统 | |
CN117011929A (zh) | 一种头部姿态估计方法、装置、设备以及存储介质 | |
Huang et al. | A neuromorphic dataset for tabletop object segmentation in indoor cluttered environment | |
Steinicke et al. | Generating optimized marker-based rigid bodies for optical tracking systems. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |