CN109688291B - 物体追踪方法及系统 - Google Patents

物体追踪方法及系统 Download PDF

Info

Publication number
CN109688291B
CN109688291B CN201710976276.7A CN201710976276A CN109688291B CN 109688291 B CN109688291 B CN 109688291B CN 201710976276 A CN201710976276 A CN 201710976276A CN 109688291 B CN109688291 B CN 109688291B
Authority
CN
China
Prior art keywords
image
light
object tracking
interval
assembly pads
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710976276.7A
Other languages
English (en)
Other versions
CN109688291A (zh
Inventor
柯杰斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acer Inc
Original Assignee
Acer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acer Inc filed Critical Acer Inc
Priority to CN201710976276.7A priority Critical patent/CN109688291B/zh
Publication of CN109688291A publication Critical patent/CN109688291A/zh
Application granted granted Critical
Publication of CN109688291B publication Critical patent/CN109688291B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供一种物体追踪方法及系统。通过多个组装垫各自的光发射器发射光束。通过摄像装置持续朝向所述组装垫来获取多张图像,其中每一个图像中包括通过所述光束而形成的多个光区。解析第一图像以及第二图像,以计算所述光区的移动变化,其中第一图像以及第二图像为相邻的两张图像。之后,基于移动变化来判定摄像装置的运动状态。

Description

物体追踪方法及系统
技术领域
本发明涉及一种物体追踪方法及系统,尤其涉及一种结合发光组合垫的物体追踪方法及系统。
背景技术
随着科技的进步,虚拟实境(Virtual Reality,VR)、扩增实境(AugmentedReality,AR)、混合实境(Mixed Reality,MR)等技术越来越成熟,越来越多民众对于AR/VR/MR也日渐熟悉,使用者对于实体与虚拟空间的输入需求日增。据此,对应的头盔、手杖等输入装置日渐增多,用于沉浸式体验的空间定位技术更显重要。
目前的VR技术是以实体框架或虚拟光学框架来界定使用者的移动,却也限制使用者的所在位置。例如,利用雷射对空间进行编码,而对头盔、手杖等待测物体进行追踪;或者,扫描快速响应矩阵图码(Quick Response(QR) Code)进行识别来获取信息,以将虚拟信息于现实空间展现。据此,如何提供一个简单且可适用于各种场地的互动技术是当前重要的课题。
发明内容
本发明提供一种物体追踪方法及系统,结合发光的组装垫来进行空间定位,可在各种场地来实现物体追踪技术。
本发明的物体追踪方法,包括底下步骤。通过多个组装垫各自的光发射器发射光束,其中这些组装垫拼装出光发射区域。通过摄像装置持续在光发射区域内朝向所述组装垫来获取多张图像,其中每一个图像中包括通过所述光束而形成的多个光区。解析第一图像以及第二图像,以计算所述光区的移动变化,其中第一图像以及第二图像为所述图像中相邻的两张图像。之后,基于移动变化来判定摄像装置的运动状态。
在本发明的一实施例中,上述解析第一图像以及第二图像,以计算所述光区的移动变化的步骤包括:在第一图像以及第二图像分别锁定一指定光区;以及基于第一图像的指定光区的坐标位置以及第二图像的光区的坐标位置,计算在水平面上的位移方向以及位移量。
在本发明的一实施例中,上述解析第一图像以及第二图像,以计算所述光区的移动变化的步骤包括:在第一图像以及第二图像分别锁定一成像位置;记录在第一图像的成像位置的第一光区;记录在第二图像的成像位置的第二光区;基于第一光区与第二光区两者的位置关系来获得在水平面上的位移方向;以及基于第一光区与第二光区之间包括的光区数量来获得在水平面上的位移量。
在本发明的一实施例中,上述解析第一图像以及第二图像,以计算所述光区的移动变化的步骤包括:在第一图像以及第二图像分别锁定一指定光区;在第一图像中,在指定光区分别与其相邻的光区之间相距的间隔皆相等时,记录第一间隔;在第二图像中,在指定光区分别与其相邻的光区之间相距的间隔皆相等时,记录第二间隔;在第一间隔与第二间隔不同的情况下,基于第一间隔与第二间隔的变化关系,获得在垂直轴上的位移方向以及位移量。
在本发明的一实施例中,在第一间隔与第二间隔相同的情况下,判定移动变化为水平移动。
在本发明的一实施例中,上述解析第一图像以及第二图像,以计算所述光区的移动变化的步骤包括:判断在第一图像与第二图像中,位于外侧的光区所形成的直线之间的斜率是否改变。而基于移动变化来判定摄像装置的运动状态的步骤包括:基于该斜率的变化来计算摄像装置的旋转角度。
在本发明的一实施例中,上述物体追踪方法还包括:取得各组装垫的识别码;驱使所述组装垫逐一发出光束;基于接收到的光信号及获取图像,获得各组装垫所配置的真实空间位置;以及将识别码与其对应的真实空间位置进行对应而获得对应地图。
在本发明的一实施例中,上述物体追踪方法还包括:通过摄像装置在光发射区域内朝向所述组装垫来获取一校正图像,并显示校正图像于屏幕;在屏幕中,在校正图像的上方显示理想光区域;以及通过理想光区域与校正图像中的光区来进行校正程序。
在本发明的一实施例中,上述各组装垫在其边缘具有公母机构接合点,各组装垫通过公母机构接合点来进行组装。
在本发明的一实施例中,上述摄像装置安装在一物件上,所述物件为头盔、手杖、遥控器、手套、鞋套以及衣服其中一个。
在本发明的一实施例中,上述各组装垫还包括力量传感器。
本发明的物体追踪系统,包括:多个组装垫,拼装出光发射区域,其中每一个组装垫包括用以发射光束的光发射器;以及摄像装置。摄像装置包括:图像获取器,持续在光发射区域内朝向所述组装垫来获取多张图像,其中每一个图像中包括通过所述光束而形成的多个光区;以及图像分析单元,耦接至图像获取器,接收图像以进行解析。图像分析单元解析第一图像以及第二图像,以计算所述光区的移动变化,其中第一图像以及第二图像为所述图像中相邻的两张图像;并且,图像分析单元基于移动变化来判定摄像装置的运动状态。
基于上述,本发明结合多个发光的组装垫,利用组装垫来界定出活动范围,以在活动范围内来追踪特定的物体。据此,可视情况来增减组合垫的数量,在扩充上更为弹性不受场地限制,不仅组装方便,也便于拆卸。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合附图作详细说明如下。
附图说明
图1是依照本发明一实施例的物体追踪系统的示意图。
图2是依照本发明一实施例的物体追踪系统的方块图。
图3是依照本发明一实施例的物体追踪方法的流程图。
图4是依照本发明一实施例的三角测量的示意图。
图5是依照本发明一实施例在水平移动下图像的光区呈现的示意图。
图6是依照本发明一实施例在垂直移动下图像的光区呈现的示意图。
图7是依照本发明一实施例在转动情况下图像的光区呈现的示意图。
图8A及图8B是依照本发明一实施例的校正画面的示意图。
图9是依照本发明另一实施例的物体追踪系统的方块图。
图10A~图10C是依照本发明一实施例的组装垫构成的示意图。
图11A~图11C是依照本发明另一实施例的组装垫构成的示意图。
附图标号说明
100、900:物体追踪系统
110:摄像装置
210:供电单元
220:图像分析单元
230:图像获取器
240:光发射器
250:微控制器
300:图像
510、610、710:第一图像
520、620、720:第二图像
910:电子装置
a~d:长度
A、A11~A14、A21~A24、A31~A34:组装垫
CD:获取距离
CL:获取焦长
F:力量传感器
IO:电性接合点
IR:红外光源
M、N、P:指定光区
MD:实际距离
R:屏幕
t1、t2:直线
U:抬头状态
V:平视状态
VH:实际高度
VP:间距像素
WP:总像素
Z:理想光区域
S305~S320:物体追踪方法各步骤
具体实施方式
有关本发明之前述及其他技术内容、特点与功效,在以下配合参考附图的各实施例的详细说明中,将可清楚的呈现。以下实施例中所提到的方向用语,例如:“上”、“下”、“前”、“后”、“左”、“右”等,仅是参考附加附图的方向。因此,使用的方向用语是用来说明,而并非用来限制本发明。并且,在下列各实施例中,相同或相似的元件将采用相同或相似的标号。
图1是依照本发明一实施例的物体追踪系统的示意图。图2是依照本发明一实施例的物体追踪系统的方块图。请参照图1及图2,物体追踪系统100包括摄像装置110以及组装垫A11~A14、A21~A24、A31~A34(底下统称为组装垫A)。在本实施例中,以4×3个组装垫A为例来进行说明,然,在其他实施例中并不以此为限。
而在每一个组装垫A中设置有光发射器240以及微控制器250。微控制器250耦接至光发射器240。通过微控制器250来控制光发射器240发射特定频率的光束,例如红外光。所述红外光的波长可设计为850nm或940nm。所述光发射器240例如为红外光发射器,用以发射红外光。微控制器(Micro Control Unit,MCU)250为一种积体电路芯片,可视为是一个微型电脑。在本实施例中,各组装垫A为正方形状,且光发射器240设置在各组装垫A的中心位置,且每一个组装垫A的尺寸相同。通过这些组装垫A拼装出一个光发射区域,并且以摄像装置110来作为定位设备,利用摄像装置110来进行空间定位的设定。然,在其他实施例中,也可以使用三角形、长方形、六角形或其他多边形的组装垫,在此并不限制。
摄像装置110可以安装在各种物件上,例如,头盔、手杖、遥控器、手套、鞋套、衣服等。摄像装置110包括供电单元210、图像分析单元220以及图像获取器230。供电单元210耦接至图像分析单元220以及图像获取器230,以进行供电。图像分析单元220耦接至图像获取器230。
在此,供电单元210例如为电池。图像获取器230例如为采用电荷耦合元件(Chargecoupled device,CCD)镜头、互补式金氧半电晶体(Complementary metal oxidesemiconductor transistors,CMOS)镜头的摄影机、照相机等,用以获取图像。另外,图像获取器230也可以是用于立体检测的三维摄影镜头,如双摄像头、结构光(光编码)镜头、时差测距(Time-of-Flight,TOF)技术镜头或是高速摄影镜头(>60Hz,如120Hz、240Hz、960Hz)。图像分析单元220例如为中央处理单元(Central Processing Unit,CPU)、图像处理单元(Graphic Processing Unit,GPU)、物理处理单元(Physics Processing Unit,PPU)、可程式化的微处理器(Microprocessor)、嵌入式控制芯片、数字信号处理器(Digital SignalProcessor,DSP)、特殊应用积体电路(Application Specific Integrated Circuits,ASIC)或其他类似装置。
摄像装置110会持续在光发射区域内朝向组装垫A来获取多张图像。即,当摄像装置110在三度空间中沿三个坐标轴的移动和绕三个坐标轴的转动时(例如上下移动、水平移动、垂直移动、对应三个坐标轴的旋转等六个自由度),摄像装置110会接收到具有不同的光区区域的图像,之后,通过图像分析单元220来分析所述图像借此来追踪摄像装置110的运动状态。
图3是依照本发明一实施例的物体追踪方法的流程图。请参照图3,在步骤S305中,通过各组装垫A的光发射器240发射光束。例如,可由摄像装置110来发出一控制信号给组装垫A,以使得微控制器250驱动光发射器240发射光束;或者,组装垫A以有线或无线的方式连接至外部的一电子装置(具有运算能力的设备),而由所述电子装置来发出控制信号给组装垫A,使得微控制器250驱动光发射器240发射光束。
接着,在步骤S310中,通过摄像装置110持续在光发射区域内朝向组装垫A来获取多张图像,其中每一张图像中包括通过所述光束而形成的多个光区。摄像装置110会接收到各组装垫A的光发射器240所发出的各光束,因而在成像的图像中形成多个光区。在此,光区可由一个或多个光点构成,多个光点可视为光点的集合且复数光点为相邻的光点。
之后,在步骤S315中,通过图像分析单元220来解析第一图像以及第二图像,以计算光区的移动变化。在此,为了方便说明,将相邻的两张图像称为第一图像及第二图像。最后,在步骤S320中,基于移动变化来判定摄像装置110的运动状态。摄像装置110所接收到的图像,其光区的呈现方式会不同,而通过分析具有不同光区区域的第一图像及第二图像,借此来判断摄像装置110在六个自由度上的运动状态。
将摄像装置110安装在各种不同的目标物上,通过上述步骤S305~S320,便能够以摄像装置110的运动状态来代表目标物的运动状态。
底下举例来说明分析光区的移动变化的方式。
图4是依照本发明一实施例的三角测量的示意图。请参照图4,VH表示摄像装置110与组装垫A之间的实际高度,CL表示摄像装置110的获取焦长,MD表示相邻的两个组装垫A的两个中心点在指定方向上相距的实际距离,CD为图像获取器230内部获取到的获取距离。
图像300为摄像装置110所接收的图像。在此,图像300中包括9个光区。WP为图像300在纵轴上的总像素,VP为相邻的两个光区的两个中心点在纵轴上相距的间距像素。
计算公式如下:
Figure GDA0002718834270000071
其中,
Figure GDA0002718834270000072
CC为画面转换常数。
故,
Figure GDA0002718834270000073
图像分析单元220可利用所述公式(1)来获得在纵轴上移动的位移量。另外,图像分析单元220也可利用所述公式(1)来获得在横轴上移动的位移量。即,将WP设定为图像300在横轴上的总像素,将VP设定为相邻的两个光区的两个中心点在横轴上相距的间距像素。
在此,可由使用者输入自己的身高来决定实际高度VH。例如,使用者输入其身高为160cm,图像分析单元220便能够根据一般眼睛与头顶之间的距离来决定实际高度VH。而获取焦长CL、总像素WP、画面转换常数CC为已知的定值。据此,分析第一图像与第二图像之间的位移量(像素数目),以获得间距像素VP,之后,利用公式(1)来求出实际距离MD,以实际距离MD代表摄像装置110在真实空间中所移动的距离。
图5是依照本发明一实施例在水平移动下图像的光区呈现的示意图。在本实施例中,使用锁定光区计算像素法。即,通过图像检测锁定一指定光区,将指定光区移动的像素数目带入公式(1)即可得到移动距离。
请参照图5,在第一图像510以及第二图像520分别锁定指定光区M,进而基于第一图像510的指定光区M的坐标位置以及第二图像520的指定光区M的坐标位置,计算在水平面上的位移方向以及位移量。以图5为例,位移方向为向前移动,并且位移量例如为1024个像素。
在此,以1600万(5312×2988)像素来举例,在纵轴上的总像素WP为定值2988。并且,假设画面转换常数CC为定值7cm、获取焦长CL定值为12cm、实际高度VH为定值150cm。
将指定光区移动的像素数目,例如1024个像素,带入公式(1),则获得对应的实际距离MD为30cm。以此类推,倘若指定光区移动了2048个像素,则对应的实际距离为60cm。而在其他实施例中,也可以同样方式来检测左右移动的位移量。
另外,也可使用记点方式,即,在第一图像510以及第二图像520分别锁定一成像位置;记录在第一图像510的成像位置的第一光区;记录在第二图像520的成像位置的第二光区;基于第一光区与第二光区两者的位置关系来获得在水平面上的位移方向;以及基于第一光区与第二光区之间包括的光区数量来获得在水平面上的位移量。
例如,假设在第一图像510中将指定光区M所在的位置指定锁定的成像位置,在前后方向上移动后,在第二图像520中的锁定的成像位置中位相邻于指定光区M的另一光区移动至此,则利用上述公式(1)(假设两个光区之间的间距像素VP为1024个像素)可以得知往前移动了30cm。而倘若移动过程中经过两个光区最后落在第三光区上,则表示移动了90cm。倘若介于光区与光区之间,也可按比例计算。以此类推,也可判断左右方向的移动。光区锁定与存储方式并不限制于上述说明。
图6是依照本发明一实施例在垂直移动下图像的光区呈现的示意图。本实施例是在光区的间距为一定的情况下来检测垂直移动。在第一图像610以及第二图像620分别锁定一指定光区N。在第一图像610中,在指定光区N分别与其相邻的4个光区之间相距的间隔皆相等时,记录第一间隔。在第二图像620中,在指定光区N分别与其相邻的4个光区之间相距的间隔皆相等时,记录第二间隔。在第一间隔与第二间隔不同的情况下,基于第一间隔与第二间隔的变化关系,获得在垂直轴上的位移方向以及位移量。
在第一间隔与第二间隔相同的情况下,判定移动变化为水平移动。即,通过检测指定光区N与其相邻的四个光区,检测指定光区N与其相邻四个光区之间的间距是否相同,相同代表保持水平状态。而当摄像装置110上下移动,譬如使用者配戴着具有摄像装置110的头盔进行蹲下起立动作时,相邻两张图像的光区间的间距虽相同但是其大小关系会改变。
如图6所示,假设第一图像610的第一间隔为1024个像素,第二图像620的第二间隔为615个像素,通过所述公式(1)的计算可以得知摄像装置110在实际空间中从150cm垂直移动至90cm。
图7是依照本发明一实施例在转动情况下图像的光区呈现的示意图。本实施例是在光区的间距为一定的情况下来检测转动。在此,使用者配戴着具有摄像装置110的头盔。在使用者为抬头状态U时,摄像装置110获得第一图像710;在使用者为平视状态V时,摄像装置110获得第二图像720。图像分析单元220判断在第一图像710与第二图像720中,位于外侧的光区所形成的直线t1、t2之间的斜率是否改变,基于斜率的变化来计算摄像装置110的旋转角度。例如,可利用正切函数来计算当下的抬头角度,即摄像装置110的旋转角度。
另外,也可以在第一图像710与第二图像720中锁定一指定光区P,检测指定光区P与其相邻4个光区的间隔,通过第一图像710与第二图像720的指定光区P与其相邻光区的间距变化,也可以得知摄像装置110的旋转角度改变。在此,第一图像710的指定光区P与其在横轴上相邻的光区之间的间距,小于第二图像720的指定光区P与其在横轴上相邻的光区之间的间距。由此可知,摄像装置110在垂直方向上产生了转动变化。
图8A及图8B是依照本发明一实施例的校正画面的示意图。在开始使用之前,可先进行校准的动作。即,组装多个组装垫A而获得光发射区域。接着,开启摄像装置110。之后,将摄像装置110移动至光发射区域。在此,使用者例如是戴着安装有摄像装置110的头盔进入光发射区域,或是手持着安装有摄像装置110的手杖进入光发射区域。接着,在摄像装置110的屏幕R中显示一理想光区域Z,如图8A所示。摄像装置110进入光发射区域,并且在固定位置时图像的偏差极小时,便可判定定位不动。
之后,检测中心的光区与其在纵向上相邻光区之间的长度a、b以及中心的光区与其在横向上相邻光区的长度c、d。判断纵向长度比a/b以及横向长度比c/d是否小于预设值。例如,长度a与长度b两者的比值应小于5%;长度c与长度d的比值应小于5%。
图9是依照本发明另一实施例的物体追踪系统的方块图。在本实施例中,物体追踪系统900还包括电子装置910,电子装置910利用有线或无线的方式连结至多个组装垫A。例如,利用通用串行高级技术附件(Universal Serial Bus,USB)、蓝牙(Bluetooth)、Wi-Fi等来连接电子装置910与多个组装垫A。电子装置910例如为一般台式电脑、笔记本电脑、平板电脑、智能手机、或其他具有运算功能的各类电子装置。
在进行物体追踪之前,可先通过电子装置910来建立出虚拟空间与真实空间之间的对应地图。电子装置910利用有线或无线的方式检测所有组装垫A的光束,取得所有组装垫A的光发射器240的识别码。并且,要求各组装垫A根据特定时序或特定强度等闪烁方式来发出光束,摄像装置110的图像获取器230接收到光信号与获取图像之后,进而可获得各组装垫所配置的一真实空间位置,并且将识别码与对应的真实空间位置进行对应,最后产生最终的对应地图。另外,在其他实施例中,也可在摄像装置110中来建立对应地图,在此并不限制。
图10A~图10C是依照本发明一实施例的组装垫构成的示意图。在此,以红外光源IR做为光发射器,红外光源IR可为单区、多区于单一组装垫上,其一区至少为一颗IRLED构成。图10A的组装垫A包括1个红外光源IR;图10B的组装垫A包括3个红外光源IR;图10C的组装垫A包括4个红外光源IR。每一个组装垫A为方形,并于边缘具有公母机构接合点,可单可双,公母位置可相邻相对皆可。而电性接合点IO位于机构接合点上,且可单边全公、全母、或公母混行搭配电性接合点IO进行电性对应。
图11A~图11C是依照本发明另一实施例的组装垫构成的示意图。在本实施例中,组装垫A更与力量传感器(force sensor)F结合。图11A的组装垫A中设置1个力量传感器F,并且在力量传感器F的中央设置红外光源IR。图11B的组装垫A中设置1个力量传感器F,而红外光源IR则设置在不与力量传感器F重叠的位置。图11C的组装垫A中红外光源IR设置中央,而力量传感器F以红外光源IR为中心并与红外光源IR不重叠地设置为4个。红外光源IR的摆设位置与数目可随系统需求的精准度与图像获取器230的摄像头的成熟程度而演进,在此并不限定为设置于中央也不限定为4个。
综上所述,本发明结合多个发光的组装垫,利用组装垫来界定出活动范围,以在活动范围内来追踪特定的物体。而组装垫结构简单,可手动组装,不仅组装方便,也便于拆卸。并且,可视情况来增减组合垫的数量,在扩充上更为弹性,另外可符合任何场地域形状,也可用于桌面、墙壁等需要户动的平面。在应用上更为广泛。不仅可用于虚拟实境或扩增实境的互动,也可用于居家照顾、人体或宠物位置追踪等。
虽然本发明已以实施例揭示如上,然其并非用以限定本发明,任何所属技术领域中技术人员,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视权利要求所界定者为准。

Claims (20)

1.一种物体追踪方法,包括:
通过多个组装垫各自的光发射器发射光束,其中所述多个组装垫拼装出光发射区域;
通过摄像装置持续在所述光发射区域内朝向所述多个组装垫来获取多个图像,其中每一所述多个图像中包括通过所述光束而形成的多个光区;
解析第一图像以及第二图像,以计算所述多个光区的移动变化,其中所述第一图像以及所述第二图像为所述多个图像中相邻的两张图像;以及
基于所述移动变化来判定所述摄像装置的运动状态,
其中在进行物体追踪之前,还包括:
取得各所述多个组装垫的识别码;
驱使所述多个组装垫逐一发出光束;
基于接收到的光信号及获取图像,获得各所述多个组装垫所配置的真实空间位置;以及
将所述识别码与其对应的所述真实空间位置进行对应而获得对应地图。
2.根据权利要求1所述的物体追踪方法,其中解析所述第一图像以及所述第二图像,以计算所述多个光区的移动变化的步骤包括:
在所述第一图像以及所述第二图像分别锁定指定光区;以及
基于所述第一图像的所述指定光区的坐标位置以及所述第二图像的所述指定光区的坐标位置,计算在水平面上的位移方向以及位移量。
3.根据权利要求1所述的物体追踪方法,其中解析所述第一图像以及所述第二图像,以计算所述多个光区的移动变化的步骤包括:
在所述第一图像以及所述第二图像分别锁定成像位置;
记录在所述第一图像的所述成像位置的第一光区;
记录在所述第二图像的所述成像位置的第二光区;
基于所述第一光区与所述第二光区两者的位置关系来获得在水平面上的位移方向;以及
基于所述第一光区与所述第二光区之间包括的光区数量来获得在所述水平面上的位移量。
4.根据权利要求1所述的物体追踪方法,其中解析所述第一图像以及所述第二图像,以计算所述多个光区的移动变化的步骤包括:
在所述第一图像以及所述第二图像分别锁定指定光区;
在所述第一图像中,在所述指定光区分别与其相邻的所述多个光区之间相距的间隔皆相等时,记录第一间隔;
在所述第二图像中,在所述指定光区分别与其相邻的所述多个光区之间相距的间隔皆相等时,记录第二间隔;
在所述第一间隔与所述第二间隔不同的情况下,基于所述第一间隔与所述第二间隔的变化关系,获得在垂直轴上的位移方向以及位移量。
5.根据权利要求4所述的物体追踪方法,还包括:
在所述第一间隔与所述第二间隔相同的情况下,判定所述移动变化为水平移动。
6.根据权利要求1所述的物体追踪方法,其中解析所述第一图像以及所述第二图像,以计算所述多个光区的移动变化的步骤包括:
判断在所述第一图像与所述第二图像中,位于外侧的所述光区形成的直线之间的斜率是否改变;
其中,基于所述移动变化来判定所述摄像装置的运动状态的步骤包括:
基于所述斜率的变化来计算所述摄像装置的旋转角度。
7.根据权利要求1项所述的物体追踪方法,还包括:
通过所述摄像装置在所述光发射区域内朝向所述多个组装垫来获取校正图像,并显示所述校正图像于屏幕;
在所述屏幕中,在所述校正图像的上方显示理想光区域;以及
通过所述理想光区域与所述校正图像中的所述多个光区来进行校正程序。
8.根据权利要求1所述的物体追踪方法,其中每一所述多个组装垫在其边缘具有公母机构接合点,每一所述多个组装垫通过所述公母机构接合点来进行组装。
9.根据权利要求1所述的物体追踪方法,其中所述摄像装置安装在物件上,其中所述物件为头盔、手杖、遥控器、手套、鞋套以及衣服其中一个。
10.根据权利要求1所述的物体追踪方法,其中每一所述多个组装垫还包括力量传感器。
11.一种物体追踪系统,包括:
多个组装垫,拼装出光发射区域,其中每一所述多个组装垫包括用以发射光束的光发射器;以及
摄像装置,包括:
图像获取器,持续在所述光发射区域内朝向所述多个组装垫来获取多个图像,其中每一所述多个图像中包括通过所述光束而形成的多个光区;以及
图像分析单元,耦接至所述图像获取器,接收所述多个图像以解析所述多个图像,其中,所述图像分析单元解析第一图像以及第二图像,以计算所述多个光区的移动变化,其中所述第一图像以及所述第二图像为所述多个图像中相邻的两张图像;并且,所述图像分析单元基于所述移动变化来判定所述摄像装置的运动状态,
其中所述图像分析单元取得各所述多个组装垫的识别码,驱使所述多个组装垫逐一发出光束,基于接收到的光信号及获取图像,获得各所述多个组装垫所配置的真实空间位置,并且将所述识别码与其对应的所述真实空间位置进行对应而获得对应地图。
12.根据权利要求11所述的物体追踪系统,其中所述图像分析单元在所述第一图像以及所述第二图像分别锁定指定光区,并且基于所述第一图像的所述指定光区的坐标位置以及所述第二图像的所述指定光区的坐标位置,计算在水平面上的位移方向以及位移量。
13.根据权利要求11所述的物体追踪系统,其中所述图像分析单元在所述第一图像以及所述第二图像分别锁定成像位置;记录在所述第一图像的所述成像位置的第一光区;记录在所述第二图像的所述成像位置的第二光区;基于所述第一光区与所述第二光区两者的位置关系来获得在水平面上的位移方向;以及基于所述第一光区与所述第二光区之间包括的光区数量来获得在所述水平面上的位移量。
14.根据权利要求11所述的物体追踪系统,其中所述图像分析单元在所述第一图像以及所述第二图像分别锁定指定光区;在所述第一图像中,在所述指定光区分别与其相邻的所述多个光区之间相距的间隔皆相等时,记录第一间隔;在所述第二图像中,在所述指定光区分别与其相邻的所述多个光区之间相距的间隔皆相等时,记录第二间隔;在所述第一间隔与所述第二间隔不同的情况下,基于所述第一间隔与所述第二间隔的变化关系,获得在垂直轴上的位移方向以及位移量。
15.根据权利要求14所述的物体追踪系统,其中所述图像分析单元在所述第一间隔与所述第二间隔相同的情况下,判定所述移动变化为水平移动。
16.根据权利要求11所述的物体追踪系统,其中所述图像分析单元判断在所述第一图像与所述第二图像中,位于外侧的所述光区形成的直线之间的斜率是否改变,并且基于所述斜率的变化来计算所述摄像装置的旋转角度。
17.根据权利要求11所述的物体追踪系统,其中所述图像获取器在所述光发射区域内朝向所述多个组装垫来获取校正图像,并显示所述校正图像于屏幕;所述图像分析单元于所述屏幕中,在所述校正图像的上方显示理想光区域,并且通过所述理想光区域与所述校正图像中的所述多个光区来进行校正程序。
18.根据权利要求11所述的物体追踪系统,其中每一所述多个组装垫在其边缘具有公母机构接合点,每一所述多个组装垫通过所述公母机构接合点来进行组装。
19.根据权利要求11所述的物体追踪系统,其中所述摄像装置安装在物件上,其中所述物件为头盔、手杖、遥控器、手套、鞋套以及衣服其中一个。
20.根据权利要求11所述的物体追踪系统,其中每一所述多个组装垫还包括力量传感器。
CN201710976276.7A 2017-10-19 2017-10-19 物体追踪方法及系统 Active CN109688291B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710976276.7A CN109688291B (zh) 2017-10-19 2017-10-19 物体追踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710976276.7A CN109688291B (zh) 2017-10-19 2017-10-19 物体追踪方法及系统

Publications (2)

Publication Number Publication Date
CN109688291A CN109688291A (zh) 2019-04-26
CN109688291B true CN109688291B (zh) 2021-01-26

Family

ID=66183518

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710976276.7A Active CN109688291B (zh) 2017-10-19 2017-10-19 物体追踪方法及系统

Country Status (1)

Country Link
CN (1) CN109688291B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014432A (ja) * 2001-07-04 2003-01-15 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 3次元物体復元方法とその装置
CN101115154A (zh) * 2006-07-26 2008-01-30 船井电机株式会社 运动检测成像设备
CN101430196A (zh) * 2008-11-28 2009-05-13 中国科学技术大学 基于点阵的高精度视觉测角装置
CN103322928A (zh) * 2013-06-20 2013-09-25 中国矿业大学(北京) 基于网格点阵的相似模型位移场测量系统及方法
CN105635783A (zh) * 2015-12-31 2016-06-01 田雪松 多媒体文件制作方法
CN105737820A (zh) * 2016-04-05 2016-07-06 芜湖哈特机器人产业技术研究院有限公司 一种室内机器人定位导航方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014432A (ja) * 2001-07-04 2003-01-15 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 3次元物体復元方法とその装置
CN101115154A (zh) * 2006-07-26 2008-01-30 船井电机株式会社 运动检测成像设备
CN101430196A (zh) * 2008-11-28 2009-05-13 中国科学技术大学 基于点阵的高精度视觉测角装置
CN103322928A (zh) * 2013-06-20 2013-09-25 中国矿业大学(北京) 基于网格点阵的相似模型位移场测量系统及方法
CN105635783A (zh) * 2015-12-31 2016-06-01 田雪松 多媒体文件制作方法
CN105737820A (zh) * 2016-04-05 2016-07-06 芜湖哈特机器人产业技术研究院有限公司 一种室内机器人定位导航方法

Also Published As

Publication number Publication date
CN109688291A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
US10488659B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
US11768383B2 (en) Display control apparatus and display control method
JP5049228B2 (ja) 対話画像システム、対話装置及びその運転制御方法
US20160266644A1 (en) Head mounted display, motion detector, motion detection method, image presentation system and program
US20110210970A1 (en) Digital mirror apparatus
US10427033B2 (en) Display control apparatus and display control method
EP2779113A1 (en) Information processing device, display control method, and program
US20180373349A1 (en) Display control apparatus and display control method
JP2000172431A (ja) 情報入力装置及びゲーム装置
US8952956B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US20160191797A1 (en) Image Processing Device and Image Playback Device Which Control Display Of Wide-Range Image
JP2005021458A (ja) 指示位置特定装置とその方法ならびに画像表示システム
Tsun et al. A human orientation tracking system using Template Matching and active Infrared marker
US20040001074A1 (en) Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
CN109688291B (zh) 物体追踪方法及系统
TWI635255B (zh) 物體追蹤方法及系統
CN111279410B (zh) 显示设备和显示设备控制方法
JPWO2016185634A1 (ja) 情報処理装置
WO2017163647A1 (ja) 頭部装着装置
JP2003076488A (ja) 指示位置判断装置及び方法
JP7462591B2 (ja) 表示制御装置及び表示制御方法
JP2013000182A (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
Plopski et al. Tracking systems: Calibration, hardware, and peripherals
Bhowmik 35‐1: Invited Paper: Real‐Time 3D‐Sensing Technologies and Applications in Interactive and Immersive Devices
JPH1185385A (ja) 座標検出システム及び発光体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant