CN106443651A - 虚拟现实设备、空间定位系统及方法 - Google Patents
虚拟现实设备、空间定位系统及方法 Download PDFInfo
- Publication number
- CN106443651A CN106443651A CN201610875916.0A CN201610875916A CN106443651A CN 106443651 A CN106443651 A CN 106443651A CN 201610875916 A CN201610875916 A CN 201610875916A CN 106443651 A CN106443651 A CN 106443651A
- Authority
- CN
- China
- Prior art keywords
- infrared
- infrared camera
- image
- illuminator
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明实施例涉及虚拟现实技术领域,公开了一种虚拟现实设备、空间定位系统及方法。该空间定位系统包括红外发光器、处理器与N个红外摄像头;N为大于1的自然数;N个红外摄像头呈环状布置,且其视角范围相互叠加后覆盖360度的视角范围;红外发光器位于N个红外摄像头所围区域之外,且位于N个红外摄像头的摄像范围内;N个红外摄像头用于采集图像;至少两个红外摄像头同时采集到红外发光点的图像;处理器从采集的图像中找出至少两幅包括红外发光点的图像,并计算得出采集包括红外发光点的图像的红外摄像头与红外发光器的位置关系。本发明实施方式还提供一种虚拟现实设备及空间定位方法。这样降低了对用户的技术要求,便于推广,同时降低了成本。
Description
技术领域
本发明实施例涉及虚拟现实技术领域,特别涉及一种虚拟现实设备、空间定位系统及方法。
背景技术
虚拟现实技术就是以电脑或其他智能计算设备为核心结合光电传感技术生成逼真的视、听、触一体化的特定范围内虚拟的环境。
VR(虚拟现实)设备的空间定位或者位置跟踪一直是痛点,除了HTC(宏达国际电子股份有限公司)的双光塔方案外,尚无更有效的技术方案。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:对于HTC的双光塔方案,需要安装两个激光塔,成本高;而且,激光塔只对一定的定位空间发射激光并扫描此定位空间,因此,在安装激光塔后还需要根据实际空间的大小来校准激光塔的定位空间,用户需要具备较高的技术素养,提高了对用户的技术要求,不便于推广。
发明内容
本发明实施例的目的在于提供一种虚拟现实设备、空间定位系统及方法,降低了对用户的技术要求,便于推广,同时降低了成本。
为解决上述技术问题,本发明的实施方式提供了一种空间定位系统,包括:红外发光器、处理器与N个红外摄像头;其中,N为大于1的自然数;N个红外摄像头呈环状布置;N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;红外发光器位于N个红外摄像头所围区域之外,且位于N个红外摄像头的摄像范围内;N个红外摄像头均与上述处理器连接;N个红外摄像头,用于在红外发光器发射红外光时采集图像;其中,至少两个红外摄像头同时采集到红外发光点的图像;处理器,用于从采集的图像中找出至少两幅包括红外发光点的图像,并计算得出采集包括红外发光点的图像的红外摄像头与红外发光器的位置关系。
本发明的实施方式还提供了一种虚拟现实设备,包括:红外发光器、处理器与N个红外摄像头;其中,N为大于1的自然数;N个红外摄像头呈环状布置;N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;红外发光器位于N个红外摄像头所围区域之外,且位于N个红外摄像头的摄像范围内;所围区域的中心位于虚拟现实设备的中心轴上,N个红外摄像头均与处理器连接;N个红外摄像头,用于在红外发光器发射红外光时采集图像;处理器,用于从采集的图像中找出至少两幅包括红外发光点的图像,并根据双目视觉原理,计算得出采集包括红外发光点的图像的红外摄像头与红外发光器的位置关系。
本发明的实施方式还提供了一种空间定位方法,包括:N个呈环状布置的红外摄像头在红外发光器发射红外光时采集图像;其中,N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;红外发光器位于N个红外摄像头所围区域之外,且位于N个红外摄像头的摄像范围内,至少两个红外摄像头同时采集到红外发光点的图像;其中,N为大于1的自然数;处理器从采集的图像中找出至少两幅包括红外发光点的图像,并计算得出采集包括红外发光点的图像的红外摄像头与红外发光器的位置关系。
本发明实施例提供的虚拟现实设备、空间定位系统及方法,将N个红外摄像头呈环状布置在待定位的物体上,并且N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围,同时确保红外发光器在N个红外摄像头所围区域之外,并位于其摄像范围之内即可,不需要用户进行校准设置,降低了对用户的技术要求。而且,红外发光器以及红外摄像头的成本较低,采用红外发光器以及红外摄像头进行定位,降低了定位成本。当红外发光器发射红外光时,N个红外摄像头采集摄像范围内的图像,并且,至少两个红外摄像头同时采集到红外发光点的图像。进而,处理器依据采集到的包含红外发光点的至少两幅图像,计算出采集到红外发光点的红外摄像头与发光器的位置关系,最终定位出待测物所处的位置。本发明实施方式不但降低了对用户的技术要求,便于推广,同时还降低了成本。
另外,在一个实施方式中,N等于6,并且每个红外摄像头的视角至少为60度,6个红外摄像头均匀分布。这样,6个红外摄像头的视角范围相互叠加后可以覆盖360度的视角范围。
另外,在一个实施方式中,还包括,每个上述红外摄像头的视角可以为120度。这样,即使部分红外摄像头的位置存在一定偏差,也可以确保红外摄像头的视角范围相互叠加后可以覆盖360度的视角范围,可以有效避免采集的图像数据遗漏。
另外,在一个实施方式中,N个红外摄像头包括第一红外摄像头、第二红外摄像头与第三红外摄像头;第一红外摄像头、第二红外摄像头与第三红外摄像头依次相邻;第一红外摄像头的视角范围与第二红外摄像头视角范围的交集为第一角度范围;第二红外摄像头的视角范围与第三红外摄像头视角范围的交集为第二角度范围;第一角度范围与第二角度范围存在交集。这样,当红外发光器与红外摄像头之间的距离比较小时,可以避免只有一个红外摄像头采集到图像,即可以确保即使在红外摄像头的近距离范围内,仍有至少两个红外摄像头采集到图像,缩小了定位盲区的范围。
另外,在一个实施方式中,在N个红外摄像头同时转动时,处理器还用于根据采集包括红外发光点的图像的红外摄像头相对于预置原始位置的转动角度,得出N个红外摄像头的转动角度。本发明实施方式中,依据红外摄像头相对于原始位置的转动角度,通过处理器可以得到红外摄像头的转动角度,进而得出待定位物的转动角度。
附图说明
图1是根据本发明第一实施例的空间定位系统的结构示意图;
图2是根据本发明第一实施例中的双目视觉成像原理图;
图3是根据本发明第二实施例的空间定位系统的红外摄像头的布置结构图;
图4是根据本发明第三实施例的空间定位系统的结构示意图;
图5是根据本发明第三实施例的空间定位系统的结构示意图;
图6是根据本发明第四实施例的虚拟现实设备的结构示意图;
图7是根据本发明第五实施例的虚拟现实设备的结构示意图;
图8是根据本发明第六实施例的空间定位方法的示例流程图;
图9是根据本发明第七实施例的空间定位方法的示例流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种空间定位系统,具体如图1所示,包括:红外发光器100、处理器107与N个红外摄像头101、102、103、104、......、105等,其中,N为大于1的自然数。如图1所示,N个红外摄像头呈环状布置在待定位物106上,这N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围。定位系统中的红外发光器100位于N个红外摄像头所围区域之外,同时需位于N个红外摄像头的摄像范围内。上述N个红外摄像头均与处理器107连接,其中,N个红外摄像头可以通过数据线等有线方式与处理器107连接,也可以通过无线方式与处理器107连接,处理器107可以是计算机的处理器,也可以是移动终端的处理器。待定位物106可以是VR头盔。
在此空间定位系统中,红外发光器100需要预先固定于待定位物体106所处实际空间中的某一点,当红外发光器100发射出红外光时,图1中的N个摄像头采集其摄像范围内的图像,由于N个红外摄像头呈环状布置,因此所采集到的N个图像中不会全部包含红外发光点,其中,至少两个红外摄像头可以同时采集到红外发光点(红外发光器发光即形成红外发光点)的图像。
在本实施方式中,处理器107用于从采集的图像中找出至少两幅包含红外发光点的图像,优选地,可以找出两幅包括红外发光点的图像,并且根据双目视觉原理,计算得出采集到包括红外发光点的图像的两个红外摄像头与红外发光器的位置关系。例如,如图2所示,红外发光器100预先固定于实际空间中的某一点,该点在空间中的位置可以表示为A(x、y、z),第一红外摄像头101与第二红外摄像头102可以分别采集到红外图像,上述采集到的红外图像可以分别表示为A1与A2。其中,第一红外摄像头101与第二红外摄像头102之间的距离可以用基线距B表示,第一红外摄像头101与第二红外摄像头102的焦距可以分别表示为f1与f2。根据双目视觉原理,由红外发光器100在实际空间中的位置A(x、y、z)、第一红外摄像头101的焦距f1、第二红外摄像头102的焦距f2以及第一红外摄像头101与第二红外摄像头102之间的基线距B,处理器107可以计算得出第一红外摄像头101在空间中的位置O1(x1、y1、z1)与第二红外摄像头102在空间中的位置O2(x2、y2、z2)。进而,可以计算得出待定位物在实际空间的位置。
本发明实施方式相对于现有技术而言,将N个红外摄像头呈环状布置在待定位的物体上,并且N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围,同时确保红外发光器在N个红外摄像头所围区域之外,并位于其摄像范围之内即可,不需要用户进行校准设置,降低了对用户的技术要求。而且,红外发光器以及红外摄像头的成本较低,采用红外发光器以及红外摄像头进行定位,降低了定位成本。当红外发光器发射红外光时,N个红外摄像头采集摄像范围内的图像,并且,至少两个红外摄像头同时采集到红外发光点的图像。进而,处理器依据采集到的包含红外发光点的至少两幅图像,计算出采集到红外发光点的红外摄像头与发光器的位置关系,最终定位出待测物所处的位置。本发明实施方式不但降低了对用户的技术要求,便于推广,同时还降低了成本。
本发明的第二实施方式涉及一种空间定位系统,如图3所示,此空间定位系统中包含6个红外摄像头,6个红外摄像头均匀分布,分别是:第一红外摄像头101、第二红外摄像头102、第三红外摄像头103、第四红外摄像头104、第五红外摄像头201以及第六红外摄像头202,其中,每个红外摄像头的视角范围至少为60度。当每个红外摄像头的视角范围均为60度时,6个红外摄像头等间隔设置,视角范围相互叠加后刚好可以覆盖360度的视角范围。
当红外摄像头与红外发光器的距离较近时,红外发光器发射的红外光有可能只被一个红外摄像头采集到图像,而处于其他红外摄像头的盲区,这种情况不利于定位待定位物体的位置。为了确保N个红外摄像头的视角范围相互叠加后可以覆盖360度的视角范围,此处以三个相邻红外摄像头之间的位置关系为例来说明各个摄像头之间的关系,其中,第一红外摄像头、第二红外摄像头与第三红外摄像头依次相邻,第一红外摄像头的视角范围与第二红外摄像头视角范围的交集为第一角度范围,第二红外摄像头的视角范围与第三红外摄像头视角范围的交集为第二角度范围,其中,第一角度范围与第二角度范围存在交集,例如,第一角度范围与第二角度范围的交集为1度时,红外发光器处于上述交集的区域内,其所发射的红外光就可以同时被3个红外摄像头采集到图像,这样,进一步确保了红外发光器发射的红外光不只被1个红外摄像头采集到图像,即可以确保即使在红外摄像头的近距离范围内,仍有两个红外摄像头采集到图像,缩小了定位盲区的范围。
本发明实施方式中,每个红外摄像头的视角范围可以均设置为120度,这样,6个红外摄像头的视角范围相互叠加后可以覆盖360度的视角范围,同时,任意两个相邻的红外摄像头的视角范围之间存在交叠的角度范围,并且任意上述相邻交叠的角度范围之间又存在交集。这样,可以确保即使在红外摄像头的近距离范围内,仍有至少两个红外摄像头采集到图像,缩小了定位盲区的范围。
本发明实施方式中,将上述6个红外摄像头呈环状布置在待定位物106上,预先将红外发光器固定在待定位物所处实际空间中的一点,并且固定点位于6个红外摄像头所围区域之外,同时位于6个红外摄像头的摄像范围内。当红外发光器发射红外光时,6个红外摄像头同时采集图像,之后,处理器通过检测采集到的图像,找出至少两幅包括红外发光点的图像,进一步,处理器通过采集到的图像,依据双目视觉原理,可以计算得出采集到包括红外发光点的图像的任意两个红外摄像头的连接中点与红外发光器之间的距离,进而确定待定位物106相对红外发光器所处的位置。在实际应用中,也可以计算得6个红外摄像头所围区域的中心与红外发光器之间的距离,进而确定待定位物相对红外发光器所处的位置。
本发明实施方式不但降低了对用户的技术要求,便于推广,降低了成本,同时,还缩小了定位盲区的范围。
本发明第三实施方式涉及一种空间定位系统,第三实施方式在第二实施方式的基础上做了进一步改进,主要改进之处在于:在本实施方式中,处理器计算得出红外摄像头的转动角度,进而得出用户的转动角度,计算简单,容易实现。
如图4所示6个红外摄像头均对应有编号,其编号可以分别为:1、2、3、4、5以及6,处理器根据编号识别上述采集到包括红外发光点的图像的红外摄像头。当此空间定位系统用于定位用户的位置时,上述6个摄像头可以呈环状布置在头盔类的装置上。预先通过处理器记录用户的初始位置与姿态,即,如图4所示,用户处于初始位置时,1号摄像头和2号摄像头可采集到红外发光器发射红外光的图像,同时处理器识别到这两个红外摄像头的编号,并将1号摄像头或2号摄像头的位置记为初始位置。
当用户转动一定的角度时,头盔上的摄像头随之同时转动相同角度,此时,如图5所示,3号摄像头和4号摄像头可采集到红外发光器发射红外光的图像,进而,处理器识别出这两个红外摄像头的编号,同时依据其中一个编号的摄像头相对于初始位置转动的角度,就可以得出6个摄像头转动的角度,进而得出用户在此过程中转动的角度。比如,转动前,处理器将1号摄像头的位置作为预置初始位置,在转动后,根据3号摄像头相对于1号摄像头的转动角度,计算得出N个红外摄像头的转动角度,进而得出用户的转动角度,计算简单,容易实现。
在上述过程中,6个红外摄像头均以60帧每秒的速度采集红外发光器发射的红外光图像。
本发明实施方式通过记录红外摄像头转动的角度,可以得出用户相对于初始位置转动的角度,可以提供更多用户姿态信息,增强了用户在VR系统中的体验感。
在本实施方式中,处理器可以通过计算红外摄像头的转动角度,进而得出用户的转动角度,计算简单,容易实现。
本发明第四实施方式涉及一种虚拟现实设备,如图6所示,包括:红外发光器100、处理器107与N个红外摄像头101、102...105等,其中N为大于1的自然数。
具体地说,N个红外摄像头呈环状布置,并且N各红外摄像头的视角范围相互叠加后覆盖360度的视角范围,同时,红外发光器100位于N个红外摄像头所围区域之外,并且位于其摄像范围内。N个红外摄像头所围区域的中心位于虚拟现实设备的中心轴上,例如,虚拟现实设备为头盔,上述所围区域的中心位于头盔的中心轴上。N个红外摄像头均与处理器107连接,其中,N个红外摄像头可以通过数据线等有线方式与处理器107连接,也可以通过无线方式与处理器107连接。
具体地说,N个红外摄像头,用于在红外发光器100发射红外光时采集图像。
具体地说,处理器107,用于从采集的图像中找出至少两幅包括红外发光点的图像,优选地,可以找出两幅包括红外发光点的图像,并根据双目视觉原理,计算得出采集包括红外发光点的图像的任意两个红外摄像头与红外发光器100的位置关系。
本发明实施方式相对于现有技术而言,将N个红外摄像头呈环状布置在待定位的物体上,并且N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围,同时确保红外发光器在N个红外摄像头所围区域之外,并位于其摄像范围之内即可,不需要用户进行校准设置,降低了对用户的技术要求。而且,红外发光器以及红外摄像头的成本较低,采用红外发光器以及红外摄像头进行定位,降低了定位成本。当红外发光器发射红外光时,N个红外摄像头采集摄像范围内的图像,并且,至少两个红外摄像头同时采集到红外发光点的图像。进而,处理器依据采集到的包含红外发光点的至少两幅图像,计算出采集到红外发光点的红外摄像头与发光器的位置关系,最终定位出待测物所处的位置。本发明实施方式不但降低了对用户的技术要求,便于推广,同时还降低了成本。
不难发现,本实施方式为与第一实施方式相对应的设备实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本发明第五实施方式涉及一种虚拟现实设备,第五实施方式在第四实施方式的基础上做了进一步改进,主要改进之处在于:在本实施方式中,处理器还可以计算得出红外摄像头的转动角度,进而得出用户的转动角度,计算简单,容易实现。如图7所示,包括:红外发光器100、第一红外摄像头101、第二红外摄像头102、第三红外摄像头103、第四红外摄像头104、第五红外摄像头201、第六红外摄像头202以及处理器107。
如图7所示,6个红外摄像头均对应有编号,其编号可以分别为:1、2、3、4、5以及6,处理器可以根据编号识别上述采集到包括红外发光点的图像的红外摄像头。当此空间定位系统用于定位用户的位置时,上述6个摄像头可以呈环状布置在头盔类的装置上。
本实施方式中,处理器可以预先记录用户的初始位置与姿态,例如,用户处于初始位置时,1号摄像头和2号摄像头可采集到红外发光器发射红外光的图像,同时处理器识别到这两个红外摄像头的编号,并将1号摄像头或2号摄像头的位置记为初始位置。
本实施方式中,当6红外摄像头同时转动时,处理器还可用于根据两个红外摄像头相对于预置原始位置的转动角度,得出6个红外摄像头的转动角度。例如,当用户转动一定的角度时,头盔上的摄像头随之同时转动相同角度,此时,3号摄像头和4号摄像头可采集到红外发光器发射红外光的图像,进而,处理器识别出这两个红外摄像头的编号,同时依据其中一个编号的摄像头相对于初始位置转动的角度,就可以得出6个摄像头转动的角度,进而得出用户在此过程中转动的角度。
本实施方式中,处理器可以通过计算红外摄像头的转动角度,进而得出用户的转动角度,计算简单,容易实现。
不难发现,本实施方式为与第三实施方式相对应的设备实施例,本实施方式可与第三实施方式互相配合实施。第三实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第三实施方式中。
本发明第六实施方式涉及一种空间定位方法,包括:N个呈环状布置的红外摄像头在红外发光器发射红外光时采集图像;其中,N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;红外发光器位于N个红外摄像头所围区域之外,且位于N个红外摄像头的摄像范围内;至少两个红外摄像头同时采集到红外发光点的图像;其中,N为大于1的自然数;处理器从采集的图像中找出至少两幅包括红外发光点的图像,并计算得出采集包括所述红外发光点的图像的两个红外摄像头与所述红外发光器的位置关系。如图8所示,具体可以包括:
步骤601:红外发光器发射红外光,即,预先在待定位物所处实际空间中设置一发光点,并将红外发光器固定到此发光点处,同时红外发光器开始发射红外光。
步骤602:N个呈环状布置的红外摄像头采集图像。
步骤603:处理器检测红外摄像头采集到的图像。
步骤604:判断所检测到的图像中是否包含红外发光点,若检测结果为不包含红外发光点,则返回步骤603,若检测到包含红外发光点的图像,则继续下一步。
步骤605:保存包含红外发光点的图像。本步骤中仅保存一张包含红外发光点的图像。
步骤606:检测所采集的图像。
步骤607:判断所检测的图像中是否包含红外发光点,若检测结果为不包含红外发光点,则返回步骤606,若检测到包含红外发光点的图像,则继续下一步。
步骤608:保存包含红外发光点的图像。即,当检测到包含红外发光点的图像时,保存该图像。需要注意的是,步骤608中保存的图像和步骤605中保存的图像不应当是同一张图像。
步骤609:计算采集到包括红外发光点的图像的两个红外摄像头与红外发光器的位置关系。具体地,处理器通过采集的图像,并依据双目视觉原理,可以计算出采集到包含红外发光点图像的两个红外摄像头与红外发光器的位置关系,例如,头盔中心与红外发光器之间的距离,进而定位到用户相对于红外发光器所处的位置。本领域技术人员应当可以理解,步骤604-步骤608可以进行合并,也就是说处理器可以同时保存两张包含红外发光点的图像。
需要说明的是,本实施方式中,步骤604-步骤608还可以重复三次或者三次以上,同时,处理器可以同时保存三张或者三张以上包含红外发光点的图像,进而,优选地,可以找出两幅包括红外发光点的图像。找出两幅包括红外发光点的图像的方法如下:处理器可以将所保存的图像按灰度值进行从高到低的排序,找出灰度值最高的两幅包含红外发光点的图像;还可以找出距离红外发光点最远的两个红外摄像头采集的包含红外发光点的图像。
本发明实施方式相对于现有技术而言,将N个红外摄像头呈环状布置在待定位的物体上,并且N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围,同时确保红外发光器在N个红外摄像头所围区域之外,并位于其摄像范围之内即可,不需要用户进行校准设置,降低了对用户的技术要求。而且,红外发光器以及红外摄像头的成本较低,采用红外发光器以及红外摄像头进行定位,降低了定位成本。当红外发光器发射红外光时,N个红外摄像头采集摄像范围内的图像,并且,至少两个红外摄像头同时采集到红外发光点的图像。进而,处理器依据采集到的包含红外发光点的至少两幅图像,计算出采集到红外发光点的红外摄像头与发光器的位置关系,最终定位出待测物所处的位置。本发明实施方式不但降低了对用户的技术要求,便于推广,同时还降低了成本。
不难发现,本实施方式为与第一实施方式相对应的方法实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本发明第七实施方式涉及一种空间定位方法,第七实施方式在第六实施方式的基础上做了进一步改进,主要改进之处在于:在本实施方式中,处理器还可以保存三张包含红外发光点的图像,并将上述三张包含红外发光点的图像两两分组,进而,根据双目视觉原理,可以得出三个待定位物相对于红外发光器的距离值,进一步,对上述求得的三个距离取平均值,并且,将上述平均值作为待定位物相对于红外发光器的距离,这样,可以减小误差,得出的计算结果更准确。如图9所示,包括:
步骤701:N个呈环状布置的红外摄像头在红外发光器发射红外光时采集图像。其中,N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围,红外发光器位于N个红外摄像头所围区域之外,且位于N个红外摄像头的摄像范围内,至少两个红外摄像头同时采集到红外发光点的图像,其中,N为大于1的自然数。本实施方式中,三个红外摄像头同时采集到红外发光点的图像。
步骤702:处理器保存三张包含红外发光点的图像。需要说明的是,上述三张包含红外发光点的图像分别由不同的红外摄像头所采集。
步骤703:处理器将三张包含红外发光点的图像两两分为三组。
步骤704:计算采集包括红外发光点的图像的红外摄像头与红外发光器的位置关系。具体地说,根据双目视觉原理,步骤703中的每一组包含红外发光点的图像均可以计算得出待定位物相对于红外发光器的距离。对上述得出的三个距离值取平均值,可以作为待定位物相对于红外发光器的距离。
此外,本实施方式中,处理器还可以保存三张以上包含红外发光点的图像。
本发明实施方式中,处理器通过保存三张或者三张以上包含红外发光点的图像,并对多次求得的待定位物相对于红外发光器的距离取平均值,进而,将上述平均值作为待定位物相对于红外发光器的距离。本实施方式得出的计算结果更准确。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包含相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种空间定位系统,其特征在于,包括:红外发光器、处理器与N个红外摄像头;其中,N为大于1的自然数;
所述N个红外摄像头呈环状布置;所述N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;所述N个红外摄像头均与所述处理器连接;
所述红外发光器位于所述N个红外摄像头所围区域之外,且位于所述N个红外摄像头的摄像范围内;
所述N个红外摄像头,用于在所述红外发光器发射红外光时采集图像;其中,至少两个所述红外摄像头同时采集到红外发光点的图像;
所述处理器,用于从采集的图像中找出至少两幅包括所述红外发光点的图像,并计算得出采集包括所述红外发光点的图像的红外摄像头与所述红外发光器的位置关系。
2.根据权利要求1所述的空间定位系统,其特征在于,N等于6;每个所述红外摄像头的视角至少为60度,所述6个红外摄像头均匀分布。
3.根据权利要求1所述的空间定位系统,其特征在于,N等于6;每个所述所述每个所述红外摄像头的视角为120度,所述6个红外摄像头均匀分布。
4.根据权利要求1所述的空间定位系统,其特征在于,所述N个红外摄像头包括第一红外摄像头、第二红外摄像头与第三红外摄像头;
所述第一红外摄像头、所述第二红外摄像头与所述第三红外摄像头依次相邻;
所述第一红外摄像头的视角范围与所述第二红外摄像头视角范围的交集为第一角度范围;所述第二红外摄像头的视角范围与所述第三红外摄像头视角范围的交集为第二角度范围;
所述第一角度范围与所述第二角度范围存在交集。
5.根据权利要求4所述的空间定位系统,其特征在于,所述第一角度范围与所述第二角度范围的交集为1度。
6.根据权利要求1所述的空间定位系统,其特征在于,在所述N个红外摄像头同时转动时,所述处理器,还用于根据采集包括所述红外发光点的图像的红外摄像头相对于预置原始位置的转动角度,得出所述N个红外摄像头的转动角度。
7.根据权利要求6所述的空间定位系统,其特征在于,所述N个红外摄像头均对应有编号;
所述处理器根据所述编号识别所述红外摄像头。
8.根据权利要求1所述的空间定位系统,其特征在于,所述N个红外摄像头,还用于以60帧每秒的速度采集图像。
9.一种虚拟现实设备,其特征在于,包括:红外发光器、处理器与N个红外摄像头;其中,N为大于1的自然数;
所述N个红外摄像头呈环状布置;所述N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;所述红外发光器位于所述N个红外摄像头所围区域之外,且位于所述N个红外摄像头的摄像范围内;所述所围区域的中心位于所述虚拟现实设备的中心轴上,所述N个红外摄像头均与所述处理器连接;
所述N个红外摄像头,用于在所述红外发光器发射红外光时采集图像;
所述处理器,用于从采集的图像中找出至少两幅包括红外发光点的图像,并根据双目视觉原理,计算得出采集包括所述红外发光点的图像的红外摄像头与所述红外发光器的位置关系。
10.一种空间定位方法,其特征在于,包括:
N个呈环状布置的红外摄像头在红外发光器发射红外光时采集图像;其中,所述N个红外摄像头的视角范围相互叠加后覆盖360度的视角范围;所述红外发光器位于所述N个红外摄像头所围区域之外,且位于所述N个红外摄像头的摄像范围内,至少两个所述红外摄像头同时采集到红外发光点的图像;其中,N为大于1的自然数;
处理器从采集的图像中找出至少两幅包括红外发光点的图像,并计算得出采集包括所述红外发光点的图像的红外摄像头与所述红外发光器的位置关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610875916.0A CN106443651A (zh) | 2016-09-30 | 2016-09-30 | 虚拟现实设备、空间定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610875916.0A CN106443651A (zh) | 2016-09-30 | 2016-09-30 | 虚拟现实设备、空间定位系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106443651A true CN106443651A (zh) | 2017-02-22 |
Family
ID=58172031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610875916.0A Pending CN106443651A (zh) | 2016-09-30 | 2016-09-30 | 虚拟现实设备、空间定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106443651A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106772402A (zh) * | 2017-03-16 | 2017-05-31 | 小派科技(上海)有限责任公司 | 一种空间定位系统以及区域级联空间定位方法 |
CN107329593A (zh) * | 2017-06-28 | 2017-11-07 | 歌尔科技有限公司 | 一种vr手柄定位方法及装置 |
CN107422857A (zh) * | 2017-07-21 | 2017-12-01 | 成都沃赢创投科技有限公司 | 一种基于多方位运动点捕捉的光学定位系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103048995A (zh) * | 2011-10-13 | 2013-04-17 | 中国科学院合肥物质科学研究院 | 服务机器人广角式双目视觉识别与定位装置 |
CN103278139A (zh) * | 2013-05-06 | 2013-09-04 | 北京航空航天大学 | 一种可变焦单双目视觉传感装置 |
CN103514437A (zh) * | 2012-12-24 | 2014-01-15 | Tcl集团股份有限公司 | 一种三维手势识别装置及三维手势识别方法 |
CN104867140A (zh) * | 2015-05-13 | 2015-08-26 | 中国科学院光电技术研究所 | 一种基于仿生复眼的大视场定位系统 |
CN105222758A (zh) * | 2015-10-20 | 2016-01-06 | 西安交通大学 | 基于鸟类视觉特征的多运动目标搜索与定位装置及方法 |
-
2016
- 2016-09-30 CN CN201610875916.0A patent/CN106443651A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103048995A (zh) * | 2011-10-13 | 2013-04-17 | 中国科学院合肥物质科学研究院 | 服务机器人广角式双目视觉识别与定位装置 |
CN103514437A (zh) * | 2012-12-24 | 2014-01-15 | Tcl集团股份有限公司 | 一种三维手势识别装置及三维手势识别方法 |
CN103278139A (zh) * | 2013-05-06 | 2013-09-04 | 北京航空航天大学 | 一种可变焦单双目视觉传感装置 |
CN104867140A (zh) * | 2015-05-13 | 2015-08-26 | 中国科学院光电技术研究所 | 一种基于仿生复眼的大视场定位系统 |
CN105222758A (zh) * | 2015-10-20 | 2016-01-06 | 西安交通大学 | 基于鸟类视觉特征的多运动目标搜索与定位装置及方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106772402A (zh) * | 2017-03-16 | 2017-05-31 | 小派科技(上海)有限责任公司 | 一种空间定位系统以及区域级联空间定位方法 |
CN107329593A (zh) * | 2017-06-28 | 2017-11-07 | 歌尔科技有限公司 | 一种vr手柄定位方法及装置 |
CN107422857A (zh) * | 2017-07-21 | 2017-12-01 | 成都沃赢创投科技有限公司 | 一种基于多方位运动点捕捉的光学定位系统 |
CN107422857B (zh) * | 2017-07-21 | 2020-07-07 | 成都沃赢创投科技有限公司 | 一种基于多方位运动点捕捉的光学定位系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210166495A1 (en) | Capturing and aligning three-dimensional scenes | |
Xue et al. | Learning to calibrate straight lines for fisheye image rectification | |
CN109003311B (zh) | 一种鱼眼镜头的标定方法 | |
CN103582893B (zh) | 用于增强现实表示的二维图像获取 | |
CN108053473A (zh) | 一种室内三维模型数据的处理方法 | |
CN111754552A (zh) | 一种基于深度学习的多摄像头协同目标跟踪方法 | |
EP3477543A1 (en) | System and method using augmented reality for efficient collection of training data for machine learning | |
US20130259304A1 (en) | Target and method of detecting, identifying, and determining 3-d pose of the target | |
CN106774844A (zh) | 一种用于虚拟定位的方法及设备 | |
JP5421624B2 (ja) | 三次元計測用画像撮影装置 | |
CN107945112A (zh) | 一种全景图像拼接方法及装置 | |
CN106443651A (zh) | 虚拟现实设备、空间定位系统及方法 | |
CN107833181A (zh) | 一种基于变焦立体视觉的三维全景图像生成方法及系统 | |
CN104781849A (zh) | 单眼视觉同时定位与建图(slam)的快速初始化 | |
WO2013169332A1 (en) | Camera scene fitting of real world scenes for camera pose determination | |
CN111583386B (zh) | 基于标签传播算法的多视角人体姿态重建方法 | |
CN110472460A (zh) | 人脸图像处理方法及装置 | |
CN107577451A (zh) | 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质 | |
CN108195472A (zh) | 一种基于轨道移动机器人的热传导全景成像方法 | |
CN107146200A (zh) | 一种基于图像拼接质量评价的无人机遥感图像拼接方法 | |
CN112085790A (zh) | 点线结合的多相机视觉slam方法、设备及存储介质 | |
CN115376109B (zh) | 障碍物检测方法、障碍物检测装置以及存储介质 | |
CN111105351B (zh) | 一种视频序列影像拼接方法及装置 | |
CN109859104A (zh) | 一种视频生成图片的方法、计算机可读介质及转换系统 | |
US20090245579A1 (en) | Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170222 |