CN108303698B - 追踪系统、追踪装置及追踪方法 - Google Patents

追踪系统、追踪装置及追踪方法 Download PDF

Info

Publication number
CN108303698B
CN108303698B CN201711481584.9A CN201711481584A CN108303698B CN 108303698 B CN108303698 B CN 108303698B CN 201711481584 A CN201711481584 A CN 201711481584A CN 108303698 B CN108303698 B CN 108303698B
Authority
CN
China
Prior art keywords
detection area
ultrasonic
optical
processor
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711481584.9A
Other languages
English (en)
Other versions
CN108303698A (zh
Inventor
陈远东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of CN108303698A publication Critical patent/CN108303698A/zh
Application granted granted Critical
Publication of CN108303698B publication Critical patent/CN108303698B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/26Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

一种追踪系统,包含第一装置及第二装置。第二装置包含光学模块、超声波模块及处理器。光学模块用以撷取第一检测区域中的影像信息。超声波模块用以获取第二检测区域中的超声波信息,第二检测区域不同于第一检测区域。处理器用以根据影像信息以及超声波信息中的至少一者判断第一装置相对于第二装置在第三检测区域中的相对位置。第三检测区域广于第一检测区域亦广于第二检测区域。本发明通过光学感测器或超声波收发器的结合,可以提升追踪系统的准确率。

Description

追踪系统、追踪装置及追踪方法
技术领域
本发明涉及一种追踪系统、追踪装置以及追踪方法,尤为一种利用超声波的追踪系统、追踪装置以及追踪方法。
背景技术
现今,已有越来越多的电子装置可利用摄影镜头来进行相对距离的测量。然而,利用摄影镜头来进行检测将受到摄影镜头的视角(FOV)限制,尤其,当接近摄影镜头的视角边缘时,检测的精确度将会降低。另外,利用摄影镜头来进行检测也会产生较高的电量耗损。
显然地,仅利用摄影镜头来进行长时间的距离检测并非十分理想的技术方案,其亟待加以改良。
发明内容
为了解决上述问题,本发明提供了一种追踪系统、一种追踪装置以及一种追踪方法。
本发明的一实施方式是涉及一种追踪系统,包含一第一装置以及一第二装置。该第二装置包含一光学模块、一超声波模块以及一处理器。该光学模块用以撷取一第一检测区域中的一影像信息。该超声波模块用以获取一第二检测区域中的一超声波信息,该第二检测区域不同于该第一检测区域。该处理器用以根据该影像信息以及该超声波信息判断该第一装置相对于该第二装置在一第三检测区域中的一相对位置。该第三检测区域广于该第一检测区域亦广于该第二检测区域。该光学模块用以撷取一第一检测区域中的一影像信息。该超声波模块用以撷取一第二检测区域中的一超声波信息,该第二检测区域不同于该第一检测区域。该处理器用以根据该影像信息以及该超声波信息中的至少一者判断一目标装置相对于该追踪装置于一第三检测区域中的一相对位置,其中该第三检测区域广于该第一检测区域亦广于该第二检测区域。
在一实施例中,该第一装置为一控制器,而该第二装置为一头戴显示器,该第二装置用以显示一模拟环境。
在另一实施例中,该第一装置包含一惯性检测单元,用以检测该第一装置的一指向,其中该第一装置的该指向将被传送至该处理器,该处理器根据该第一装置的该相对位置以及该指向于该模拟环境当中显示对应该第一装置的一虚拟物件。
在又一实施例中,该处理器根据该影像信息计算一第一加权位置,并根据该超声波信息计算一第二加权位置,当该第一装置同时于该第一检测区域以及该第二检测区域当中被检测时,该处理器根据该第一加权位置以及该第二加权位置计算该第一装置的该相对位置。
在再一实施例中,该光学模块包含至少二光学感测器,而该处理器包含一光学位置解算器,该光学位置解算器根据该至少二光学感测器所撷取的该影像信息产生该第一装置的一光学解算位置,该处理器更通过一第一权重值计算该光学解算位置以产生该第一加权位置。
在一实施例中,该处理器更计算该至少二光学感测器的一法线轴与该至少二光学感测器延伸至该第一装置的一假想线之间的一夹角,该第一权重值与该夹角成反比。
在另一实施例中,该超声波模块包含至少三超声波收发器,该处理器根据该超声波信息计算该至少三超声波收发器各自与该第一装置之间的至少三距离,而该处理器还包含一声学位置解算器,该声学位置解算器根据该至少三距离产生该第一装置的一声学解算位置,该处理器更通过一第二权重值计算该声学解算位置以产生该第二加权位置。
在又一实施例中,该第二权重值与该至少三距离成反比。
在再一实施例中,该第一检测区域与该第二检测区域部分重叠,当该第一装置的该第二加权位置进入该重叠区域时,该光学位置解算器基于一解算范围以产生该光学解算位置,其中该解算范围是根据该第二加权位置所生成。
本发明的另一实施方式是涉及一种追踪装置。该追踪装置包含一光学模块、一超声波模块以及一处理器。该光学模块用以撷取一第一检测区域中的一影像信息。该超声波模块用以撷取一第二检测区域中的一超声波信息,该第二检测区域不同于该第一检测区域。该处理器用以根据该影像信息以及该超声波信息中的至少一者判断一目标装置相对于该追踪装置于一第三检测区域中的一相对位置,其中该第三检测区域广于该第一检测区域亦广于该第二检测区域。
在一实施例中,该处理器根据该影像信息计算一第一加权位置,并根据该超声波信息计算一第二加权位置,当该目标装置同时于该第一检测区域以及该第二检测区域当中被检测时,该处理器根据该第一加权位置以及该第二加权位置计算该目标装置的该相对位置。
在另一实施例中,该第一检测区域与该第二检测区域部分重叠,当该目标装置的该声学解算位置进入重叠区域时,该处理器基于一解算范围以产生该光学解算位置,其中该解算范围是根据该声学解算位置所生成。
本发明的另一实施方式是涉及一种追踪方法,用于追踪一第一装置,且由一第二装置所执行。所述追踪方法包含下列步骤:通过该第二装置的一光学模块撷取一第一检测区域中的一影像信息;通过该第二装置的一超声波模块获取一第二检测区域中的一超声波信息,该第二检测区域不同于该第一检测区域;以及通过该第二装置的一处理器,根据该影像信息以及该超声波信息中的至少一者判断该第一装置相对于该第二装置在一第三检测区域中的一相对位置,其中该第三检测区域广于该第一检测区域亦广于该第二检测区域。
在一实施例中,追踪方法还包含:通过该第二装置的一显示屏幕显示一模拟环境;通过该处理器接收该第一装置的一指向;以及通过该处理器根据该第一装置的该相对位置以及该指向于该模拟环境当中显示对应该第一装置的一虚拟物件。
在另一实施例中,追踪方法还包含:通过该处理器根据该影像信息计算一第一加权位置并根据该超声波信息计算一第二加权位置;以及当该第一装置同时于该第一检测区域以及该第二检测区域当中被检测时,通过该处理器根据该第一加权位置以及该第二加权位置计算该第一装置的该相对位置。
在又一实施例中,追踪方法还包含:通过该处理器的一光学位置解算器,根据该光学模块中的至少二光学感测器所撷取的该影像信息产生该第一装置的一光学解算位置;以及通过该处理器以一第一权重值计算该光学解算位置进而产生该第一加权位置。
在再一实施例中,追踪方法还包含:通过该处理器计算该至少二光学感测器的一法线轴与该至少二光学感测器延伸至该第一装置的一假想线之间的一夹角,其中该第一权重值与该夹角成反比。
在一实施例中,追踪方法还包含:通过该处理器根据该超声波信息计算该超声波模块中的至少三超声波收发器各自与该第一装置之间的至少三距离;通过该处理器的一声学位置解算器,根据该至少三距离产生该第一装置的一声学解算位置;以及通过该处理器以一第二权重值计算该声学解算位置进而产生该第二加权位置。
在另一实施例中,该第二权重值与该至少三距离成反比。
在又一实施例中,追踪方法还包含:当该第一装置的该第二加权位置进入该第一检测区域与该第二检测区域两者的重叠区域时,通过该光学位置解算器基于一解算范围以产生该光学解算位置,其中该解算范围是根据该第二加权位置所生成。
附图说明
图1为根据本发明一实施例绘示的追踪系统的示意图;
图2A为根据本发明一实施例绘示的追踪系统中的一第二装置的示意图;
图2B为根据本发明一实施例绘示的追踪系统中的一第二装置及其检测区域的示意图;
图3为根据本发明一实施例绘示的追踪方法的步骤流程图;
图4为根据本发明一实施例绘示的追踪系统中的一处理器的示意图;
图5A为根据本发明一实施例绘示的追踪系统运作以检测某些检测区域的示意图;
图5B为根据本发明一实施例绘示的追踪系统运作以检测某些检测区域的示意图;
图6A为根据本发明图5A的实施例绘示的追踪系统运作以检测某些检测区域的示意图;
图6B为根据本发明图5B的实施例绘示的追踪系统运作以检测某些检测区域的示意图;以及
图7为根据本发明一实施例绘示的追踪系统运作以检测某些检测区域的示意图。
附图标记说明
TRS:追踪系统
100:第一装置
110:惯性检测单元
200:第二装置
210:光学模块
211:第一光学感测器
212:第二光学感测器
220:超声波模块
221:第一超声波收发器
222:第二超声波收发器
223:第三超声波收发器
224:第四超声波收发器
225:第五超声波收发器
226:第六超声波收发器
230:处理器
231:光学位置解算器
232:声学位置解算器
233:角度权重计算器
234:距离权重计算器
235:指向计算器
236:融合状态机
240:显示屏幕
ODF:光学检测区域
UDF 1:第一声学检测区域
UDF 2:第二声学检测区域
OLF:重叠区域
θ1:第一夹角
θ2:第二夹角
D1:第一距离
D2:第二距离
D3:第三距离
D4:第四距离
D5:第五距离
D6:第六距离
S301~S302:步骤流程
具体实施方式
以下将以附图及详细叙述清楚说明本发明的精神,任何所属技术领域技术人员在了解本发明的实施例后,当可由本发明所教示的技术,加以改变及修饰,其并不脱离本发明的精神与区域。
本文的用语只为描述特定实施例,而无意为本发明的限制。单数形式如“一”、“这”、“此”、“本”以及“该”,如本文所用,同样也包含多个种形式。
关于本文中所使用的『第一』、『第二』、…等,并非特别指称次序或顺位的意思,亦非用以限定本发明,其仅为了区别以相同技术用语描述的元件或操作。
关于本文中所使用的『耦接』或『连接』,均可指二或多个元件或装置相互直接作实体接触,或是相互间接作实体接触,亦可指二或多个元件或装置相互操作或动作。
关于本文中所使用的『包含』、『包括』、『具有』、『含有』等等,均为开放性的用语,即意指包含但不限于。
关于本文中所使用的『及/或』,包括所述事物的任一或全部组合。
关于本文中所使用的方向用语,例如:上、下、左、右、前或后等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明。
关于本文中所使用的用词(terms),除有特别注明外,通常具有每个用词使用在此领域中、在本发明的内容中与特殊内容中的平常意义。某些用以描述本发明的用词将于下或在此说明书的别处讨论,以提供本领域技术人员在有关本发明的描述上额外的引导。
图1为根据本发明一实施例绘示的追踪系统的示意图。在本实施例中绘示一追踪系统TRS,该追踪系统TRS包含一第一装置100以及一第二装置200。该第一装置100可为该追踪系统TRS中的一手持控制器。该第二装置200可为一头戴显示器,当追踪系统TRS运作时,该第二装置200是用以追踪该第一装置100相对于该第二装置200的位置。应注意的是,在某些实施例中,该第二装置200是穿戴于使用者的头部,而该第一装置100则握持于使用者的手中。在此配置下,当使用者移动手中的该第一装置100时,该第二装置200则可追踪该第一装置100的动向,并根据该第一装置100的动向执行某些程序。
如图1所示,在本实施例中,该第一装置100包含一惯性检测单元110,该惯性检测单元110为包含陀螺仪以及加速计的一装置,当其运作时,可用以检测该第一装置100沿六轴方向的加速度以及角加速度。当该第一装置100被使用者移动时,该惯性检测单元110可用以检测该第一装置100沿六轴方向的加速度以及角加速度,而被检测到的加速度以及角加速度可用于产生该第一装置100的一指向。
如图1所示,在本实施例中,该第二装置200包含一光学模块210、一超声波模块220、一处理器230以及一显示屏幕240,其中该光学模块210、该超声波模块220以及该显示屏幕240皆电性耦接于该处理器230。该光学模块210可为多个光学感测器以及微处理器构成的单元,其是用以于一第一检测区域中撷取一影像信息。当该第一装置100位于该第一检测区域当中时,由该光学模块210撷取的该影像信息中将包含关于该第一装置100的信息。该超声波模块220可为多个超声波收发器以及微处理器构成的单元,该超声波模块220是用以向一第二检测区域发送超声波,并对应地接收于该第二检测区域中发生的超声波反射,进而产生该超声波信息。当该第一装置100位于该第二检测区域当中时,由该超声波模块220收集的该超声波信息中将包含关于该第一装置100的信息。
在本实施例中,举例而言,该处理器230可为由单一处理器构成的单元或由多个微处理器集成的单元,该处理器230通过总线等媒介电性耦接于内部或外部的存储器。前述的内部存储器或外部存储器可为易失性或非易失性的存储器。处理器230是用以自前述内部存储器或外部存储器获取多个指令集并执行该些指令集,进而根据该些指令集执行特定既定程序,该些特定既定程序将于后面段落中详述。
在本实施例中,该光学模块210可将该影像信息传送至该处理器230,而该超声波模块220亦可将该超声波信息传送至该处理器230。当该处理器230接收到该影像信息以及该超声波信息后,该处理器230可对该影像信息以及该超声波信息进行处理。应注意的是,无论该第一装置100可于该第一检测区域或该第二检测区域中被检测到,该处理器230皆可根据该影像信息以及该超声波信息判断该第一装置100相对于该第二装置200的一相对位置。应注意的是,由于该影像信息当中包含对应该第一检测区域的信息,而该超声波信息当中包含对应该第二检测区域的信息,是故,由该影像信息以及该超声波信息形成的集合能够涵盖一第三检测区域,该第三检测区域广于该第一检测区域,该第三检测区域亦广于该第二检测区域。
在本实施例中,该显示屏幕240耦接于该处理器230,该处理器230更用以发送对应一模拟环境的信息至该显示屏幕240,根据该信息,该显示屏幕240可向使用者显示该模拟环境当中的部分景象。应注意的是,所述的模拟环境为一种用于产生拟真影像、音频或其他感官刺激的电脑技术,可用以向使用者提供如同身历其境于一虚拟或幻想的环境当中的体验。所述的模拟环境可包含虚拟实境环境、扩增实境环境以及混合实境环境。在本实施例中,当该使用者穿戴该第二装置200时,该显示屏幕240可向使用者显示该模拟环境当中的部分景象。通过该显示屏幕240,该使用者可观赏该模拟环境当中的部分景象以获得游历于该模拟环境当中的沈浸式体验。
在某些实施例中,该第一装置100的该惯性检测单元110可通过设置于该第一装置100上的一信号收发器(图中未示)与该处理器230通信耦接,其中该信号收发器可为无线射频收发器或红外线收发器,因此,该惯性检测单元110可将该第一装置100的该指向传送至该处理器230。在此状况下,根据该相对位置以及该指向,该处理器230可于该模拟环境当中显示对应该第一装置100的一虚拟物件。例如,若该使用者是游玩于冒险类型的虚拟实境游戏时,被显示于游戏环境当中的该虚拟物件可为由一虚拟手掌握持的一虚拟长剑,而该虚拟物件是根据该第一装置100的该相对位置以及该指向所绘示的。据此,通过追踪该第一装置100的该相对位置以及该第一装置100的该指向,该处理器230可将该虚拟手掌显示显示于该第一装置100所在的位置,并显示该虚拟长剑指向于该第一装置100所指向的方向。
图2A为根据本发明一实施例绘示的追踪系统中的一第二装置的示意图。在该实施例中,图1实施例中所述的该追踪系统TRS当中的该第二装置200的细节配置绘示于该2图中。图中所绘示的为该第二装置200的上视图,其为一头戴式显示装置。如图2A所示,图1当中叙述的该光学模块210包含两个光学感测器,分别为一第一光学感测器211以及一第二光学感测器212,由图中可见,该第一光学感测器211以及该第二光学感测器212是大致平行地设置于该第二装置200的前侧表面。如图2A所示,图1当中叙述的该超声波模块220包含六个超声波收发器,该些超声波收发器分别被设置于两个超声波阵列中,六个超声波收发器当中的三个超声波收发器221-223是构成一第一超声波阵列,该第一超声波阵列设置于该第二装置200的左侧表面,另外的三个超声波收发器224-226是构成一第二超声波阵列,该第二超声波阵列设置于该第二装置200的右侧表面。
应注意的是,该第一超声波阵列或该第二超声波阵列当中的该些超声波收发器的数量并不限于如图2A中所示的数量。在其他实施例中,该第一超声波阵列或该第二超声波阵列各自具有三个以上的超声波收发器,如此将可能提高超声波检测的准确率。
图2B为根据本发明一实施例绘示的追踪系统中的一第二装置及其检测区域的示意图。在本实施例中,该第一光学感测器211以及该第二光学感测器212整体具有一光学检测区域ODF。意即,该第一光学感测器211以及该第二光学感测器212皆可用以撷取该光学检测区域ODF中的该影像信息,无论如图1所示的该第一装置100由该第一光学感测器211所检测或由该第二光学感测器212所检测,由该光学模块210所获取的该影像信息当中包含关于该第一装置100位置的信息。
在上述实施例中当中,该光学模块210包含该第一光学感测器211以及该第二光学感测器212,如图中所示,该第一光学感测器211以及该第二光学感测器212两者的组合可于该光学检测区域ODF当中检测该第一装置100。然而,该光学模块210的配置并不限于此。在一些实施例中,该光学模块210可包含单一光学感测器,该单一光学感测器设置于该第二装置的前侧中央,而该单一光学感测器具有一检测区域。当如图1所示的该第一装置100位于该检测区域当中时,由该光学模块210获取的该影像信息当中将包含关于该第一装置100位置的信息。
在本实施例中,于图中可见,该第一超声波收发器221、该第二超声波收发器222以及该第三超声波收发器223三者的组合是用以获取一第一声学检测区域UDF1当中的该超声波信息,另一方面,该第四超声波收发器224、该第五超声波收发器225以及该第六超声波收发器226三者的组合是用以获取一第二声学检测区域UDF2当中的该超声波信息。在本实施例中,该些声学检测区域UDF1-UDF2整体构成了如图1的实施例中所述的该第二检测范围,无论如图1所述的该第一装置100可于该些声学检测区域UDF1-UDF2当中的哪个被检测到,由该超声波模块220收集的该超声波信息当中将包含关于该第一装置100位置的信息。
应注意的是,如图1的实施例所述,该第二装置200的该处理器230可接收由该超声波模块220获取的该超声波信息以及由该光学模块210获取的该影像信息。如此一来,如图2B所示,当该第一装置100位于该光学检测区域ODF当中时,是由该光学模块210追踪该第一装置100的位置。当该第一装置100位于该些声学检测区域UDF1-UDF2当中时,是由该超声波模块220追踪该第一装置100的位置。当该第一装置100位于该些声学检测区域UDF1-UDF2与该光学检测区域ODF的重叠区域时,该光学模块210以及该超声波模块220皆可追踪该第一装置100的位置。亦即,该光学模块210以及该超声波模块220的组合提供了一种可行技术方案,使该处理器230可于更广于该光学检测区域ODF以及该些声学检测区域UDF1-UDF2的范围当中追踪该第一装置100的位置。
应注意的是,即使光学感测器的检测准确率以及检测效率较佳,然而其同时会造成巨大的电量消耗以及运算量负担。此外,光学感测器的可视域(field of view)限制亦为另一问题。因此,通过本发明的方式结合光学感测器以及超声波收发器,将可以在电量消耗以及运算量较低的前提下获得更大的检测区域。况且,一般来说,若将该第二装置200作为提供模拟环境的头戴式显示装置,当该第一装置100位于光学检测范围当中时,对应该第一装置100的该虚拟物件将会出现于使用者可见的模拟环境当中。众所周知地,当系统于光学检测范围中获取的影像信息产生变化时,即便变化细微,使用者仍容易注意到差异,是故,当该第一装置100位于光学检测范围当中时,对于准确率的要求较高。相对地,在使用者所无法直接看见的区域当中,本发明的系统提供了一种可利用超声波进行检测的技术方案。如此一来,整体系统的检测准确率以及效率皆可获得提升。
图3为根据本发明一实施例绘示的追踪方法的步骤流程图。在本实施例中,该追踪方法300是由前述实施例中的该追踪系统TRS所执行的,故请一并参照前述实施例当中的解释。在本实施例中,该追踪方法300的细节步骤将在下列段中当中详述。
步骤S301:通过一装置的一光学模块撷取一第一检测区域中的一影像信息。如图1、图2A以及图2B的实施例所示,该第二装置200的该光学模块210包含两个光学感测器,而该些光学感测器211-212皆用以撷取该光学检测区域ODF当中的该影像信息,随后,由该光学模块210撷取的该影像信息将被传送至该第二装置200的该处理器230。
步骤S302:通过该装置的一超声波模块获取一第二检测区域中的一超声波信息。如图1、图2A以及图2B的实施例所示,该第二装置200的超声波模块220包含六个超声波收发器221-226,其中的该些超声波收发器221-223是用以于该第一声学检测区域UDF1当中收集该超声波信息,其中的该些超声波收发器224-226用以于该第二声学检测区域UDF2当中收集该超声波信息,随后,由该超声波模块220收集的该超声波信息将被传送至该第二装置200的该处理器230。
步骤S303:通过该装置的一处理器,根据该影像信息以及该超声波信息判断另一装置相对于该装置在一第三检测区域中的一相对位置,其中该第三检测区域广于该第一检测区域亦广于该第二检测区域。如图1、图2A以及图2B的实施例所示,当该处理器230接收该影像信息以及该超声波信息后,根据该影像信息以及该超声波信息,该处理器230可判断该第一装置100相对于该第二装置200的该相对位置。亦即,通过该光学模块210以及该超声波模块220的结合,本发明提供了一种有效的技术方案,可于全向的范围当中追踪该第一装置100。其中,该处理器230判断该相对位置的程序将叙述于下面段落当中。
图4为根据本发明一实施例绘示的追踪系统中的一处理器的示意图。本图中绘示了前述实施例当中所叙述的该处理器230当中的配置,是故,请一并参照前述实施例中的解释。该处理器230包含一光学位置解算器231、一声学位置解算器232、一角度权重计算器233、一距离权重计算器234、一指向计算器235以及一融合状态机236,上述的这些解算器、计算器以及状态机皆为该处理器230当中的运算单元,当该处理器230执行由存储器中获取的该些指令集时,这些运算单元将实施下列所述的既定程序。在另一些实施例中,这些解算器、计算器以及状态机是由该处理器230所执行的应用程序,当该处理器230执行由存储器中获取的该些指令集时,这些应用程序将实施下列所述的既定程序。
如前所述,当该第一装置100于该光学检测区域ODF中被检测到时,由该第一光学感测器211或该第二光学感测器212撷取的该影像信息包含有关于该第一装置100的信息。应注意的是,在一些实施例中,该第一光学感测器211以及该第二光学感测器212是用以辨认该第一装置100上所设置的一光学识别区块,当该第一装置100上的该光学识别区块被检测到位于该光学检测区域ODF当中时,由该些光学感测器211-212所获取的该影像信息当中将包含该第一装置100的位置信息。
在本实施例中,该光学位置解算器231是用以接收由该第一光学感测器211或该第二光学感测器212撷取的该影像信息,随后,该光学位置解算器231可根据该影像信息产生对应该第一装置100的一光学解算位置。
在本实施例中(filed),该角度权重计算器233是用以对该光学位置解算器231所产生的该光学解算位置实施一权重计算。如前所述,该第一光学感测器211以及该第二光学感测器212涵盖该光学检测区域ODF,当该第一装置100位于该光学检测区域ODF当中时,该第一装置100可为该第一光学感测器211或该第二光学感测器212所感知。然而,应注意的是,光学感测器仍具有其限制。一般来说,若该第一装置100是位于该光学检测区域ODF的中央时,该第一光学感测器211或该第二光学感测器212检测该第一装置100的位置的准确率较高。然而,若该第一装置100是位于该光学检测区域ODF的边缘时,该第一光学感测器211或该第二光学感测器212检测该第一装置100的位置的准确率相对地较低。因此,通过对该光学位置解算器231所产生的该光学解算位置实施该权重计算,可以提升所获取的该光学解算位置的准确率。在本实施例中,于该权重计算中,该角度权重计算器233可为该光学解算位置指派一光学权重值。
图5A为根据本发明一实施例绘示的追踪系统运作以检测某些检测区域的示意图。如图5A所示,在本实施例中,该第一装置100于一第一位置被检测到,该第一位置位于该光学检测区域ODF以及该第一声学检测区域UDF1之间的一重叠区域OLF当中。在本实施例中,该第一光学感测器211以及该第二光学感测器212可撷取一第一影像信息,而该光学位置解算器231可根据该第一影像信息产生该第一装置100的一第一光学解算位置。而该角度权重计算器233则可计算该光学模块210(包含该第一光学感测器211以及该第二光学感测器212)的一法线轴以及由该光学模块210延伸至该第一装置100的一假想线之间的一第一夹角θ1。在此状况下,该角度权重计算器233可根据该第一夹角θ1为该第一光学解算位置指派一第一光学权重值。
图5B为根据本发明一实施例绘示的追踪系统运作以检测某些检测区域的示意图。如图5B所示,在本实施例中,该第一装置100于一第二位置被检测到,该第二位置位于该光学检测区域ODF以及该第一声学检测区域UDF之间的该重叠区域OLF当中。在本实施例中,该第一光学感测器211以及该第二光学感测器212可撷取一第二影像信息,而该光学位置解算器231可根据该第二影像信息产生该第一装置100的一第二光学解算位置。而该角度权重计算器233则可计算该光学模块210(包含该第一光学感测器211以及该第二光学感测器212)的该法线轴以及由该光学模块210延伸至该第一装置100的另一假想线之间的一第二夹角θ2。在此状况下,该角度权重计算器233可根据该第二夹角θ2为该第二光学解算位置指派一第二光学权重值。
若对图5A以及图5B进行比较,由两图中明显的可见,该第一夹角θ1小于该第二夹角θ2,意即,于图5B的实施例中,该第一装置100较邻近于该光学检测区域ODF的边缘部分。在此状况下,当实施该权重计算时,该角度权重计算器233于图5A的实施例中所指派的该第一光学权重值将大于该角度权重计算器233于图5B的实施例中所指派的该第二光学权重值。举例而言,被指派予该第一光学解算位置的该第一光学权重值可为0.70,而被指派予该第二光学解算位置的该第二光学权重值可为0.30。在图5A的实施例中,当实施该权重计算时,该角度权重计算器233可将该第一光学解算位置乘以该第一光学权重值以产生对应该第一装置100的一加权后的光学解算位置。在图5B的实施例中,当实施该权重计算时,该角度权重计算器233可将该第二光学解算位置乘以该第二光学权重值以产生对应该第一装置100的另一加权后的光学解算位置。显然地,由于该第一光学权重值大于该第二光学权重值,在图5A的实施例中所产生的该加权后的光学解算位置将大于在图5B的实施例中所产生的该另一加权后的光学解算位置。意即,若第一装置100的位置相对于该光学模块210的该法线轴具有较大偏移时,该角度权重计算器233为该第一装置100的光学解算位置所指派的光学权重值将相对地较小。
然而,应注意的是,上述实施例中指派予该些光学解算位置的光学权重值仅是范例,应理解,因应不同的系统状况,该些光学权重值应可对应调整。
请再参照图4,在图4的实施例当中,当该第一装置100可于该些声学检测区域UDF1-UDF2当中被检测到时,由该些超声波收发器221-226所获取的该超声波信息当中将包含对应该第一装置100的位置的信息。在本实施例中,该声学位置解算器232是用以接收由该些超声波收发器221-226所获取的该超声波信息。类似于该光学位置解算器231,该声学位置解算器232是用以根据该些超声波收发器221-226所获取的该超声波信息产生该第一装置100的一声学解算位置。举举例而言,当该第一装置100位于该第二装置200左侧的该第一超声波阵列的检测区域内,该声学位置解算器232可对应地根据该些超声波收发器221-223所获取的该超声波信息产生一声学解算位置。
在本实施例中,该距离权重计算器234是用以对该声学位置解算器232所产生的该声学解算位置实施一权重计算。由于该些超声波收发器221-223涵盖了该第一声学检测区域UDF1,当该第一装置100位于该第一声学检测区域UDF1当中,该些超声波收发器221-223皆可检测该第一装置100。通过该距离权重计算器234对该声学解算位置实施该权重计算,可以提升所获取的该声学解算位置的准确率。在本实施例中,于该权重计算中,该距离权重计算器234可为该声学解算位置指派一声学权重值。
图6A为根据本发明图5A的实施例绘示的追踪系统运作以检测某些检测区域的示意图。本图是用以解释由该距离权重计算器234所实施的该权重计算的内容。如图6A所示,该第一装置100于该第一位置(同于图5A中的该第一位置)被超声波检测到,该第一位置位于该光学检测区域ODF以及该第一声学检测区域UDF1之间的该重叠区域OLF当中。在本实施例中,该些超声波收发器221-223可收集该第一声学检测区域UDF1当中的一第一超声波信息,而该第一超声波信息将被传送至该声学位置解算器232。根据该第一超声波信息,该声学位置解算器232可计算该第一装置100与该第一超声波收发器221之间的一第一距离D1,并计算该第一装置100与该第二超声波收发器222之间的一第二距离D2,再计算该第一装置100与该第三超声波收发器223之间的一第三距离D3。根据该些距离D1-D3,该声学位置解算器232可获取该第一装置100的一第一声学解算位置。然而,超声波收发器亦具有其限制。一般来说,若该第一装置100是位于距离该些超声波收发器221-223较近的位置,由该声学位置解算器232检测的该声学解算位置的准确率较高。然而,若该第一装置100是位于距离该些超声波收发器221-223较远的位置,由该声学位置解算器232检测的该声学解算位置的准确率相对地较低。因此,通过对该声学位置解算器232所产生的该第一声学解算位置实施该权重计算,可以提升所获取的该声学解算位置的准确率。
如图6A所示,该第一距离D1短于该第二距离D2,而该第二距离D2又短于该第三距离D3。而在本实施例中,当实施该权重计算时,该距离权重计算器234将根据该第一装置100距离该些超声波收发器221-223之间的平均距离为该第一声学解算位指派一第一声学权重值。
图6B为根据本发明图5B的实施例绘示的追踪系统运作以检测某些检测区域的示意图。本图是用以解释由该距离权重计算器234所实施的该权重计算的内容。如第6B所示,该第一装置100于该第二位置(同于图5B中的该第二位置)被超声波检测到,该第二位置位于该光学检测区域ODF以及该第一声学检测区域UDF1之间的该重叠区域OLF当中。在本实施例中,该些超声波收发器221-223可收集该第一声学检测区域UDF1当中的一第二超声波信息,而该第二超声波信息将被传送至该声学位置解算器232。根据该第二超声波信息,该声学位置解算器232可计算该第一装置100与该第一超声波收发器221之间的一第四距离D4,并计算该第一装置100与该第二超声波收发器222之间的一第五距离D5,再计算该第一装置100与该第三超声波收发器223之间的一第六距离D6。根据该些距离D4-D6,该声学位置解算器232可获取该第一装置100的一第二声学解算位置。如前所述,超声波收发器具有其限制。因此,通过对该声学位置解算器232所产生的该第二声学解算位置实施该权重计算,可以提升所获取的该声学解算位置的准确率。
如图6B所示,该第四距离D4短于该第五距离D5,而该第五距离D5又短于该第六距离D6。而在本实施例中,当实施该权重计算时,该距离权重计算器234亦将根据该第一装置100距离该些超声波收发器221-223之间的平均距离为该第二声学解算位指派一第二声学权重值。
若对图6A以及图6B进行比较,由两图中明显的可见,该些第一至第三距离D1-D3三者的平均距离将大于该些第四至第六距离D4-D6的平均距离,意即,相较于图6A,图6B中所示的该第一装置100较邻近于该些超声波收发器221-223。在此状况下,当实施该权重计算时,该距离权重计算器234于图6A的实施例中所指派的该第一声学权重值将小于该角度权重计算器233于图6B的实施例中所指派的该第二声学权重值。举例而言,被指派予该第一声学解算位置的该第一声学权重值可为0.30,而被指派予该第二声学解算位置的该第二声学权重值可为0.70。在图6A的实施例中,当实施该权重计算时,该距离权重计算器234可将该第一声学解算位置乘以该第一声学权重值以产生对应该第一装置100的一加权后的声学解算位置。在图5B的实施例中,当实施该权重计算时,该距离权重计算器234可将该第声光学解算位置乘以该第二声学权重值以产生对应该第一装置100的另一加权后的声学解算位置。显然地,由于该第一声学权重值小于该第二声学权重值,在图6A的实施例中所产生的该加权后的声学解算位置将小于在图6B的实施例中所产生的该另一加权后的声学解算位置。意即,若第一装置100的位置较远离该超声波模块220,该距离权重计算器234为该第一装置100的声学解算位置所指派的声学权重值将相对地较小。
应注意的是,上述实施例中指派予该些声学解算位置的声学权重值仅是范例,应理解,因应不同的系统状况,该些光学权重值应可对应调整。
如图1的实施例所示,该惯性检测单元110可用以检测该第一装置100的该指向。在图4的实施例当中,该处理器230的该指向计算器235可用以获取由该惯性检测单元110所检测的该第一装置100的该指向,当获取该第一装置100的该指向后,该指向计算器235可将该指向传送至该融合状态机236。因此,当该角度权重计算器233产生加权后的该光学解算位置后,加权后的该光学解算位置将被传送至该融合状态机236,而当该距离权重计算器234产生加权后的该声学解算位置后,加权后的该声学解算位置将被传送至该融合状态机236。
在图4的实施例当中,该融合状态机236是用以计算加权后的该光学解算位置以及加权后的该声学解算位置以产生一融合位置。由于该光学模块210以及该超声波模块220是基于相同的时间线获取该影像信息以及该超声波信息,是故,由该角度权重计算器233产生的加权后的该光学解算位置以及由该距离权重计算器234产生的加权后的该声学解算位置可被正确地结合以产生该融合位置。
应注意的是,无论该第一装置100是位于该光学检测区域ODF当中或是该些声学检测区域UDF1-UDF2当中,只要该些光学感测器211-212或是该些超声波收发器221-226当中的若干者可检测到该第一装置100,该融合状态机236及可对应地产生对应该第一装置100的该融合位置。详细地说,在一实施例中,若该第一装置100仅能于该光学检测区域ODF中被检测,由该光学位置解算器231产生的该光学解算位置将直接地被传送至该融合状态机236,而不需经加权计算,而该融合状态机236可根据该光学解算位置以及该第一装置100的指向产生该融合位置。在另一实施例中,若该第一装置100仅能于该第一声学检测区域UDF1中被检测,由该声学位置解算器232产生的该声学解算位置将直接地被传送至该融合状态机236,而不需经加权计算,而该融合状态机236可根据该声学解算位置以及该第一装置100的指向产生该融合位置。此外,若该第一装置100可于该重叠区域OLF当中被检测,该融合状态机236即可根据上述实施例中所述的技术方案产生该融合位置。
在一些实施例中,对应该第一装置100的该融合位置可被回授至该光学位置解算器231、该声学位置解算器232、该角度权重计算器233以及该距离权重计算器234。如此一来,由于该光学位置解算器231以及该声学位置解算器232可获取该融合位置,而该融合位置指涉了该第一装置100先前的位置,是故,根据该融合位置,该光学位置解算器231以及该声学位置解算器232可接续地产生准确率较高的该光学解算位置以及该声学解算位置。
图7为根据本发明一实施例绘示的追踪系统运作以检测某些检测区域的示意图。本图是用以详细解释一种产生上述实施例中所述的该光学解算位置的技术方案。在本实施例中,该距离权重计算器234可将加权后的该声学解算位置回授至该光学位置解算器231。举例而言,如图7所示,当该第一装置100将自该第一声学检测区域UDF1进入该第一声学检测区域UDF1与该光学检测区域ODF之间的该重叠区域OLF时,加权后的该声学解算位置将被回授至该光学位置解算器231,当该光学位置解算器231将根据由该第一光学感测器211以及该第二光学感测器212所获取的该影像信息产生该光学解算位置时,该光学位置解算器231可基于一解算范围以产生该光学解算位置,其中,该解算范围为根据该第二加权位置所生成的一可行范围。应当理解,同理地,若该第一装置100将自另一声学检测区域进入该声学检测区域与其他光学检测区域的重叠区域时,加权后的该声学解算位置将被回授至该光学位置解算器231,而该光学位置解算器231亦可基于另一解算范围以产生该光学解算位置。意即,当该第一装置100将自该些声学检测区域UDF1-UDF2进入该光学检测区域ODF当中时,通过回授加权后的该声学解算位置,该第一装置100的该光学解算位置的可能性将被缩小至特定范围。
应注意的是,在该些声学检测区域UDF1-UDF2与该光学检测区域ODF的重叠区域当中,该光学解算位置以及该声学解算位置的准确率应较低落,因此,本发明提供了一种将该光学解算位置以及该声学解算位置结合以产生更佳解的技术方案。一般来说,当该第一装置100自该些声学检测区域UDF1-UDF2移入该光学检测区域ODF当中时,该第一装置100将可能自许多可能的方向进入该光学检测区域ODF当中,因此,该第二装置200的该光学模块210将很难快速地于该光学检测区域ODF当中撷取该第一装置100的位置,有时,将导致使用者可能注意到此种追踪丢失的状况。是故,本发明提供了一种可行的技术方案,使该光学模块210可基于已获取的该声学解算位置缩小该光学解算位置可能出现的位置的范围,如此一来,当该第一装置100自该些声学检测区域UDF1-UDF2进入该光学检测区域ODF当中时,通过该声学解算位置,该光学模块210可迅速地计算出该第一装置100的该光学解算位置。
如前所述,该追踪系统以及该追踪方法结合了光学感测器以及超声波收发器以涵盖全向性的检测区域,当欲检测的目标被光学感测器或超声波收发器所检测时,该处理器可实施加权计算以增加所获取的该光学解算位置以及该声学解算位置的准确率。此外,当欲检测的目标自该声学检测区域移入该光学检测区域当中时,本发明可通过回授该声学解算位置以加速该光学解算位置的产生。
虽然本发明以实施例公开如上,然其并非用以限定本发明,任何本领域技术人员,在不脱离本发明的精神和范围内,当可作各种的变动与润饰,因此本发明的保护范围当视所附的权利要求所界定者为准。

Claims (9)

1.一种追踪系统,其特征在于,包含:
一第一装置;以及
一第二装置,包含:
一光学模块,用以撷取一第一检测区域中的一影像信息;
一超声波模块,用以获取一第二检测区域中的一超声波信息,其中该第二检测区域不同于该第一检测区域;以及
一处理器,用以根据该影像信息与一第一权重值计算一第一加权位置,并根据该超声波信息与一第二权重值计算一第二加权位置,当该第一装置同时于该第一检测区域以及该第二检测区域当中被检测时,该处理器根据该第一加权位置以及该第二加权位置计算该第一装置相对于该第二装置于一第三检测区域中的一相对位置,其中该第三检测区域广于该第一检测区域亦广于该第二检测区域,
其中该超声波模块包括多个超声波收发器,该处理器用以根据该超声波信息计算该第一装置与该多个超声波收发器之间的多个距离,并根据该多个距离的平均距离指派该第二权重值,
其中当该第一装置较远离该超声波模组,该处理器所指派的该第二权重值较小。
2.如权利要求1所述的追踪系统,其特征在于,该第一装置为一控制器,而该第二装置为一头戴显示器,该第二装置用以显示一模拟环境。
3.如权利要求2所述的追踪系统,其特征在于,该第一装置包含:
一惯性检测单元,用以检测该第一装置的一指向,其中该第一装置的该指向将被传送至该处理器,该处理器根据该第一装置的该相对位置以及该指向于该模拟环境当中显示对应该第一装置的一虚拟物件。
4.如权利要求1所述的追踪系统,其特征在于,该光学模块包含至少二光学感测器,而该处理器包含一光学位置解算器,该光学位置解算器根据该至少二光学感测器所撷取的该影像信息产生该第一装置的一光学解算位置,该处理器更通过该第一权重值计算该光学解算位置以产生该第一加权位置。
5.如权利要求4所述的追踪系统,其特征在于,该处理器更计算该至少二光学感测器的一法线轴与该至少二光学感测器延伸至该第一装置的一假想线之间的一夹角,该第一权重值与该夹角成反比。
6.如权利要求1所述的追踪系统,其特征在于,该处理器还包含一声学位置解算器,该声学位置解算器根据该多个距离产生该第一装置的一声学解算位置,该处理器更通过该第二权重值计算该声学解算位置以产生该第二加权位置。
7.如权利要求1所述的追踪系统,其特征在于,当该第一装置的该第二加权位置进入该第一检测区域与该第二检测区域的一重叠区域时,该处理器基于一解算范围以产生该第一加权位置,其中该解算范围是根据该第二加权位置所生成。
8.一种追踪装置,其特征在于,包含:
一光学模块,用以撷取一第一检测区域中的一影像信息;
一超声波模块,用以获取一第二检测区域中的一超声波信息,其中该第二检测区域不同于该第一检测区域;以及
一处理器,用以根据该影像信息与一第一权重值计算一第一加权位置,并根据该超声波信息与一第二权重值计算一第二加权位置,当第一装置同时于该第一检测区域以及该第二检测区域当中被检测时,该处理器根据该第一加权位置以及该第二加权位置计算一目标装置相对于该追踪装置于一第三检测区域中的一相对位置,
其中该第三检测区域广于该第一检测区域亦广于该第二检测区域,
其中该超声波模块包括多个超声波收发器,该处理器用以根据该超声波信息计算该第一装置与该多个超声波收发器之间的多个距离,并根据该多个距离的平均距离指派该第二权重值,
其中当该第一装置较远离该超声波模组,该处理器所指派的该第二权重值较小。
9.一种追踪方法,用于追踪一第一装置,且由一第二装置所执行,其特征在于,该追踪方法包含:
通过一光学模块撷取一第一检测区域中的一影像信息;
通过一超声波模块获取一第二检测区域中的一超声波信息,其中该第二检测区域不同于该第一检测区域,该超声波模块包括多个超声波收发器;
通过该第二装置的一处理器,根据该影像信息与一第一权重值计算一第一加权位置;
通过该第二装置的该处理器,根据该超声波信息计算该第一装置与该多个超声波收发器之间的多个距离,并根据该多个距离的平均距离指派一第二权重值,其中当该第一装置较远离该超声波模组,所指派的该第二权重值较小;
通过该第二装置的该处理器,根据该超声波信息与该第二权重值计算一第二加权位置;以及
通过该第二装置的该处理器,当该第一装置同时于该第一检测区域以及该第二检测区域当中被检测时,根据该第一加权位置以及该第二加权位置计算该第一装置相对于该第二装置于一第三检测区域中的一相对位置,
其中该第三检测区域广于该第一检测区域亦广于该第二检测区域。
CN201711481584.9A 2016-12-29 2017-12-29 追踪系统、追踪装置及追踪方法 Active CN108303698B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662439902P 2016-12-29 2016-12-29
US62/439,902 2016-12-29

Publications (2)

Publication Number Publication Date
CN108303698A CN108303698A (zh) 2018-07-20
CN108303698B true CN108303698B (zh) 2021-05-04

Family

ID=60937582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711481584.9A Active CN108303698B (zh) 2016-12-29 2017-12-29 追踪系统、追踪装置及追踪方法

Country Status (4)

Country Link
US (1) US10895628B2 (zh)
EP (1) EP3343242B1 (zh)
CN (1) CN108303698B (zh)
TW (1) TWI659221B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572024B1 (en) * 2016-09-28 2020-02-25 Facebook Technologies, Llc Hand tracking using an ultrasound sensor on a head-mounted display
EP3602098B1 (de) * 2017-11-29 2021-04-28 Cae Software Und Systems Gmbh Schallquellen-visualisierungssystem
US20200004489A1 (en) * 2018-06-29 2020-01-02 Microsoft Technology Licensing, Llc Ultrasonic discovery protocol for display devices
US11486961B2 (en) * 2019-06-14 2022-11-01 Chirp Microsystems Object-localization and tracking using ultrasonic pulses with reflection rejection
US11054923B2 (en) * 2019-10-11 2021-07-06 Finch Technologies Ltd. Automatic switching between different modes of tracking user motions to control computer applications
US20210157394A1 (en) 2019-11-24 2021-05-27 XRSpace CO., LTD. Motion tracking system and method
DE102020105217B3 (de) * 2020-02-27 2021-02-25 Deutsche Post Ag Verfahren zum Verfolgen von Packstücken auf einer Förderstrecke

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015048890A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for augmented reality and virtual reality applications
CN205809569U (zh) * 2016-06-21 2016-12-14 武汉方格信息技术有限公司 一种基于vr技术的智能家居系统

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992009904A1 (en) * 1990-11-29 1992-06-11 Vpl Research, Inc. Absolute position tracker
ES2171395T3 (es) * 1990-11-30 2002-09-16 Sun Microsystems Inc Dispositivo para efectuar el seguimiento de la posicion de una cabeza compacta para un sistema de realidad virtual de bajo coste.
US5645077A (en) * 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
WO1997011386A1 (en) * 1995-09-21 1997-03-27 Omniplanar, Inc. Method and apparatus for determining position and orientation
TW395121B (en) * 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
JP3363837B2 (ja) * 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
EP1417008A1 (en) * 2001-06-19 2004-05-12 Jan G. Fäger A device and a method for creating an environment for a creature
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US8313380B2 (en) * 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7034779B2 (en) * 2002-08-06 2006-04-25 Information Decision Technologeis, Llc Advanced ruggedized augmented reality instrumented self contained breathing apparatus
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US7746321B2 (en) * 2004-05-28 2010-06-29 Erik Jan Banning Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
US7978081B2 (en) * 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
US7839417B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US8320992B2 (en) * 2006-10-05 2012-11-27 Visionsense Ltd. Method and system for superimposing three dimensional medical information on a three dimensional image
JP5127242B2 (ja) * 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
GB2456773A (en) 2008-01-22 2009-07-29 In2Games Ltd Sensing the position of a mobile object relative to a fixed object via ultrasound and infrared
TWI506565B (zh) * 2008-03-03 2015-11-01 Avo Usa Holding 2 Corp 動態物件分類
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
CN102293709B (zh) * 2011-06-10 2013-02-27 深圳典邦科技有限公司 一种智能导盲装置
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
JP6313432B2 (ja) * 2013-06-09 2018-04-18 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイ
CN106233227B (zh) * 2014-03-14 2020-04-28 索尼互动娱乐股份有限公司 具有体积感测的游戏装置
US10073516B2 (en) * 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US10291847B2 (en) * 2015-02-26 2019-05-14 Htc Corporation Portable device and manipulation method
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
SE539097C2 (en) * 2015-08-20 2017-04-11 Scania Cv Ab Method, control unit and system for avoiding collision with vulnerable road users
CN105785373A (zh) * 2016-04-26 2016-07-20 上海与德通讯技术有限公司 一种虚拟现实位置识别系统及方法
CN109247945A (zh) * 2017-07-12 2019-01-22 松下知识产权经营株式会社 计测装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015048890A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for augmented reality and virtual reality applications
CN205809569U (zh) * 2016-06-21 2016-12-14 武汉方格信息技术有限公司 一种基于vr技术的智能家居系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"虚拟现实工具";胡忠东 等;《计算机仿真》;19970730;第14卷(第3期);第61-64页 *

Also Published As

Publication number Publication date
US10895628B2 (en) 2021-01-19
EP3343242B1 (en) 2019-09-04
TW201830050A (zh) 2018-08-16
EP3343242A1 (en) 2018-07-04
US20180188353A1 (en) 2018-07-05
TWI659221B (zh) 2019-05-11
CN108303698A (zh) 2018-07-20

Similar Documents

Publication Publication Date Title
CN108303698B (zh) 追踪系统、追踪装置及追踪方法
WO2019216491A1 (en) A method of analyzing objects in images recorded by a camera of a head mounted device
US8971565B2 (en) Human interface electronic device
US10554886B2 (en) Power management for optical position tracking devices
US8537134B2 (en) Size/scale and orientation determination of a pointer in a camera-based touch system
US6198485B1 (en) Method and apparatus for three-dimensional input entry
US10948994B2 (en) Gesture control method for wearable system and wearable system
EP2932358A1 (en) Direct interaction system for mixed reality environments
CN103797446A (zh) 输入体的动作检测方法以及使用了该方法的输入设备
CN103977539A (zh) 颈椎康复保健辅助训练系统
EP4105766A1 (en) Image display method and apparatus, and computer device and storage medium
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
CN109669530A (zh) 用于触觉设备的振动触觉驱动器电路
US11537196B2 (en) Drift cancelation for portable object detection and tracking
CN112204503A (zh) 用于基于外部电子装置的位置和移动来显示与外部电子装置相关联的对象的电子装置和方法
WO2018161564A1 (zh) 手势识别系统、方法及显示设备
JPH10198506A (ja) 座標検出システム
WO2015064991A2 (ko) 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법
CN112449166B (zh) 全息投影设备、投影控制方法、装置、计算机设备和介质
US11402900B2 (en) Augmented reality system comprising an aircraft and control method therefor
CN113557492A (zh) 利用二维摄像头来辅助对象控制的方法、系统和非暂时性计算机可读记录介质
WO2022246795A1 (zh) 虚拟现实体验安全区域更新方法及装置
KR101695727B1 (ko) 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법
JP2019113881A (ja) 頭部装着装置
KR20230101324A (ko) 골프 시뮬레이션 방법 및 이를 제공하는 전자 장치 및 서버

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant