CN105867611A - 虚拟现实系统中的空间定位方法、装置及系统 - Google Patents
虚拟现实系统中的空间定位方法、装置及系统 Download PDFInfo
- Publication number
- CN105867611A CN105867611A CN201511014777.4A CN201511014777A CN105867611A CN 105867611 A CN105867611 A CN 105867611A CN 201511014777 A CN201511014777 A CN 201511014777A CN 105867611 A CN105867611 A CN 105867611A
- Authority
- CN
- China
- Prior art keywords
- camera head
- demarcation
- reflective spot
- head group
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种虚拟现实系统中的空间定位方法、装置及系统,该方法包括:控制包括多个摄像装置的摄像装置组采集标定反光点的图像,获取相邻的两个摄像装置采集的跟标定反光点的图像,建立跟标定反光点与跟摄像装置组的空间位置关系模型,当摄像装置组随用户同步运动时,再次获取相邻的两个摄像装置采集的标定反光点的图像,再次建立跟标定反光点与跟摄像装置组的空间位置关系模型,比较此两个空间位置关系模型,得出跟用户的运动前后的位置变化信息。本发明降低了定位过程中的计算量,降低定位技术难度,可在VR移动系统中实现定位产品量化,提高产品生产率。
Description
技术领域
本发明属于虚拟现实技术领域,尤其涉及一种虚拟现实系统中的空间定位方法、装置及系统。
背景技术
虚拟现实(VR,Virtual Reality)技术就是利用电脑或其他智能计算设为核心结合光电传感技术生成逼真的视、听、触一体化的特定范围内虚拟的环境。在VR系统中主要包括输入设备和输出设备。
在VR系统中,基于2D或者3D摄像装置,理论上都能实现空间定位。但是现有技术中,基于2D摄像装置的空间定位方案技术难度和运算量大,难以在移动端实现。而基于3D摄像装置的空间定位方法,面临着无法在移动端产品化或者与移动端通信的瓶颈,同样难以在VR移动系统中产品化。
发明内容
本发明提供一种虚拟现实系统中的空间定位方法、装置及系统,用以通过根据摄像装置采集的标定反光点的图像,为标定反光点和用户之间建立空间关系模型,当用户运动时,通过空间关系模型的变化计算出用户的位置变化,可简化定位用户位置的计算量,降低定位技术难度,提高VR系统中将定位设备移动化的可行性,从而提高定位相关产品的生产量化。
本发明提供的一种虚拟现实系统中的空间定位方法,包括:
控制摄像装置组采集标定反光点的图像,所述摄像装置组中包括多个摄像装置,所述标定反光点用于标定所述标定反光点所在的位置,所述摄像装置组佩戴在用户身上;获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像,并通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离;以所述摄像装置组的位置为原点,根据所述第一空间距离,建立所述标定反光点与所述摄像装置组的第一空间位置关系模型,所述第一空间位置关系模型表示在当前空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;当所述摄像装置组随所述用户同步运动时,获取相邻的两个所述摄像装置采集的所述标定反光点的第二图像,并通过所述预置的双目测距算法,根据所述第二图像获得所述标定反光点与所述摄像装置组的第二空间距离;以所述摄像装置组运动后所在的位置为原点,根据所述第二空间距离,建立所述标定反光点与所述摄像装置组的第二空间位置关系模型,所述第二空间位置关系模型表示在所述摄像装置组运动后新建的空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;比较所述第一空间位置关系模型以及所述第二空间位置关系模型,根据比较结果得出所述用户的运动前后的位置变化信息。
本发明提供的一种虚拟现实系统中的空间定位装置,包括:
控制模块,用于控制摄像装置组采集标定反光点的图像,所述摄像装置组中包括多个摄像装置,所述标定反光点用于标定所述标定反光点所在的位置,所述摄像装置组佩戴在用户身上;获取模块,用于获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像;计算模块,用于通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离;建模模块,用于以所述摄像装置组的位置为原点,根据所述第一空间距离,建立所述标定反光点与所述摄像装置组的第一空间位置关系模型,所述第一空间位置关系模型表示在当前空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;所述获取模块,还用于当所述摄像装置组随所述用户同步运动时,获取相邻的两个所述摄像装置采集的所述标定反光点的第二图像;所述计算模块,用于通过所述预置的双目测距算法,根据所述第二图像获得所述标定反光点与所述摄像装置组的第二空间距离;所述建模模块,还用于以所述摄像装置组运动后所在的位置为原点,根据所述第二空间距离,建立所述标定反光点与所述摄像装置组的第二空间位置关系模型,所述第二空间位置关系模型表示在所述摄像装置组运动后新建的空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;比较模块,用于比较所述第一空间位置关系模型以及所述第二空间位置关系模型;所述计算模块,还用于根据所述比较模块的比较结果得出所述用户的运动前后的位置变化信息。
本发明提供的一种虚拟现实系统中的空间定位系统,包括:
头戴式显示器以及摄像装置组;其中,所述头戴式显示器,用于控制所述摄像装置组采集标定反光点的图像,所述摄像装置组中包括多个摄像装置,所述标定反光点用于标定所述标定反光点所在的位置,所述摄像装置组佩戴在用户身上;获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像,并通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离;以所述摄像装置组的位置为原点,根据所述第一空间距离,建立所述标定反光点与所述摄像装置组的第一空间位置关系模型,所述第一空间位置关系模型表示在当前空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;当所述摄像装置组随所述用户同步运动时,获取相邻的两个所述摄像装置采集的所述标定反光点的第二图像,并通过所述预置的双目测距算法,根据所述第二图像获得所述标定反光点与所述摄像装置组的第二空间距离;以所述摄像装置组运动后所在的位置为原点,根据所述第二空间距离,建立所述标定反光点与所述摄像装置组的第二空间位置关系模型,所述第二空间位置关系模型表示在所述摄像装置组运动后新建的空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;比较所述第一空间位置关系模型以及所述第二空间位置关系模型,根据比较结果得出所述用户的运动前后的位置变化信息;所述摄像装置组,用于在所述头戴式显示器的控制下,启动各所述摄像装置采集所述定位反光点的图像。
从上述本发明实施例可知,本发明提供的虚拟现实系统中的空间定位方法、装置及系统,设置固定的标定反光点,获取该标定发光点的图像,以确定用户与该标定反光点的距离,从而构建用户当前位置与该标定反光点之间的第一空间位置关系模型,当用户运动时,佩戴在用户身上的摄像装置组同步运动,获取该标定反光点的图像,再次构建用户在运动后的位置与该标定反光点之间的第二空间位置关系模型,通过对比第一空间位置关系模型和第二空间位置关系模型的差异,反推出用户运动前后的位置变化,相较于现有技术,降低了定位用户位置过程中的计算量,降低定位技术难度,可在VR移动系统中实现定位相关产品的量化,提高产品生产率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中虚拟现实系统中的空间定位系统结构示意图;
图2是本发明第一实施例提供的虚拟现实系统中的空间定位方法的实现流程示意图;
图3是本发明第二实施例提供的虚拟现实系统中的空间定位方法的实现流程示意图;
图4是本发明第三实施例中虚拟现实系统中的空间定位装置的结构示意图;
图5是本发明第四实施例提供的虚拟现实系统中的空间定位装置的结构示意图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的虚拟现实系统中的空间定位方法,可应用于包括摄像装置组和头戴式显示器的虚拟现实系统的空间定位系统中,请参阅图1,摄像装置组10和头戴式显示器20通过通用串行总线(USB,Universal Serial Bus)方式、WIFI方式,或者其他有线、无线的方式相连接,可进行数据交换。
其中,摄像装置组10包括多个互相呈预置夹角的单个摄像装置101构成,该预置夹角与各摄像装置101的摄像角度有关,摄像装置101的设置规则是以多个摄像装置101组成摄像装置组10后,能够达到对周围空间进行360度全方位拍摄。例如,当摄像装置101的摄像视角均为60度,那么摄像装置组10需要的摄像装置101的个数为360/60=6。当摄像装置101的摄像视角均为60度时,相邻两个摄像装置的共同摄像视角为45度。摄像装置101的摄像视角不必然相同,也可以设置多个摄像视角不同的摄像装置101,但须满足这些摄像装置组成摄像装置组10后,能够达到对周围空间进行360度全方位拍摄。摄像装置组10,用于
头戴式显示器20形如眼镜,通过感应人的眼部活动,接受指令,通过一组光学系统放大超微显示屏上的图像,将影像投射于视网膜上,进而呈现于观看者眼中大屏幕图像。
头戴式显示器20,用于控制摄像装置组10采集标定反光点的图像,该标定反光点用于标定该标定反光点所在的位置,摄像装置组10佩戴在用户身上。头戴式显示器20,还用于获取相邻的两个该摄像装置采集的该标定反光点的第一图像,并通过预置的双目测距算法,根据该第一图像获得该标定反光点与该摄像装置组的第一空间距离,以摄像装置组10的位置为原点,根据该第一空间距离,建立该标定反光点与摄像装置组10的第一空间位置关系模型,该第一空间位置关系模型表示在当前空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。当摄像装置组10随该用户同步运动时,头戴式显示器20,还用于获取相邻的两个该摄像装置采集的该标定反光点的第二图像,并通过该预置的双目测距算法,根据该第二图像获得该标定反光点与摄像装置组10的第二空间距离,以摄像装置组10运动后所在的位置为原点,根据该第二空间距离,建立该标定反光点与摄像装置组10的第二空间位置关系模型,该第二空间位置关系模型表示在摄像装置组10运动后新建的空间坐标系下,该标定反光点与摄像装置组10的空间位置关系,比较该第一空间位置关系模型以及该第二空间位置关系模型,根据比较结果得出该用户的运动前后的位置变化信息。
上述摄像装置组10和头戴式显示器20上述功能的具体实现过程,请参见下述各实施例的描述。
请参阅图2,图2为本发明第一实施例提供的虚拟现实系统中的空间定位方法的实现流程示意图,可应用于图1所示的头戴式显示器20中,主要包括以下步骤:
S201、控制摄像装置组采集标定反光点的图像;
头戴式显示器中可设置数据处理芯片,可作为本实施例的执行主体,需要说明的是,本实施例中实现虚拟现实系统中的空间定位方法的执行主体也可以设置在VR系统的其它设备中,例如,可以设置在摄像装置组中,也可以设置在已连接在VR系统的移动终端中。为便于描述,本发明实施例以头戴显示器作为执行主体进行描述,但不作为对技术方案的限制。
头戴式显示器控制摄像装置组采集标定反光点的图像。其中,该摄像装置组佩戴在用户身上,具体可以与头戴式显示器相连接,该摄像装置组中包括多个摄像装置。
该标定反光点,用于标定该标定反光点所在的位置。该标定反光点由反光材料制成,可以反射投射在其上的光,使得该标定反光点在图像中较醒目,容易分辨、定位。该标定反光点设置在指定的空间位置,它是可以反射指定光的一个物体或一个物体群,便于摄像装置组采集,通过在该摄像装置组采集的图像中的该标反光点,可标定该标定反光点与该摄像装置组的距离。
该标定反光点的设置,须能够使得在作图像分析时可以通过采集的图像区分出该标定反光点的空间位置,例如,在四面不同的墙壁上设置不同形状的标定反光点,不同形状可以是横线、竖线、圆形、三角形、梯形、五角形等形状。也可以在四面不同的墙壁上设置尺寸大小不同的标定反光点。
S202、获取相邻的两个摄像装置采集的该标定反光点的第一图像,并通过预置的双目测距算法,根据该第一图像获得该标定反光点与该摄像装置组的第一空间距离;
在该摄像组的各摄像装置中采集的图像中,获取相邻的两个摄像装置采集的该标定反光点的多个第一图像。两个相邻的摄像装置采集的第一图像中的标定反光点,常常是同一个标定反光点,可以通过双目测距算法,获得该图像中的标定反光点与该摄像装置组的第一空间距离。
需要说明的是,双目测距算法有很多种,常用的一种双目测距算法是利用了目标点在左右两幅视图上成像的横向坐标直接存在的差异,即视差与目标点到成像平面的距离存在着反比例的关系。为了精确地求得一个点在三维空间里与摄像装置的距离,需获得的参数有焦距、视差、中心距。其中,摄像装置的焦距和中心距可以通过标定获得初始值。
进一步地,如果需要获得该一个点的具体坐标,那么还需要额外获知左右像平面的坐标系与立体坐标系中原点在横纵坐标轴上的偏移值。其中,焦距、摄像装置中心距、偏移值可以通过立体标定获得初始值,并通过立体校准优化,使得采集图像的两个相邻摄像装置在数学上完全平行放置,并且左右摄像头的参数值相同。在此基础上,求取视差。从而获取最终获得一个点的三维坐标所需要的所有参数。
根据上述双目测距算法的原理,根据该两个相邻摄像装置的焦距和中心距,以及,该两个相邻摄像装置采集的第一图像中的该标定反光点求得视差,则通过该预置的双目测距算法,获得该标定反光点与该摄像装置组的第一空间距离。
由于该摄像装置组佩戴在该用户身上,与该用户同步运动,则该摄像装置组相对于地面的距离,可以近似认为是该用户的身高,是可以通过测高工具测量得到。因此,获得该标定反光点相对于该摄像装置组的该第一空间距离,即获得了该标定反光点与该用户之间的当前空间距离。
S203、以该摄像装置组的位置为原点,根据该第一空间距离,建立该标定反光点与该摄像装置组的第一空间位置关系模型;
该第一空间位置关系模型,用于表示在当前空间坐标系下,该标定反光点与该摄像装置组的空间位置关系,该空间位置关系,是一种相对的关系,当该标定反光点固定不动时,随着该摄像装置组的运动,该空间位置关系发生改变。
将当前该摄像装置组的位置设为该第一空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第一空间距离,得到该标定反光点相对于该原点的坐标(x1,y1,z1)。
因此,该第一空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
S204、当该摄像装置组随用户同步运动时,获取相邻的两个摄像装置采集的该标定反光点的第二图像,并通过该预置的双目测距算法,根据该第二图像获得该标定反光点与该摄像装置组的第二空间距离;
当用户运动时,该摄像装置组会随该用户同步运动,即,该摄像装置组的运动方向和运动距离,都与该用户的运动方向和运动距离保持一致。
在该用户运动到下一个位置时,控制该摄像装置组继续采集该标定反光点的图像,在该摄像装置组中所有摄像装置所采集的多个图像中,获取两个相邻的摄像装置采集的该标定反光点的多个第二图像。
具体地,如果该用户在没运动之前,是面对西墙上的标定反光点的,若该用户进行了转体运动,从面向西墙转向了面向东墙,则之前能够采集到该西墙上的标定反光点的摄像装置可能会因为摄像视角的限制,无法采集到该标定反光点,这时,需要从该摄像装置组中,确定能够采集到该西墙上的标定反光点图像的两个相邻的摄像装置,获取这两个相邻的摄像装置所采集的该标定反光点的多个第二图像。
进一步地,在所采集的该标定反光点的图像中,筛选出清晰、完整地拍摄到该标定反光点的那些图像。仍然通过预置的双目测距算法,获得该标定反光点与该摄像装置组的第二空间距离,即,此处获得的是该用户运动后,该标定反光点与该摄像装置组的新的空间距离,也即获得了该标定反光点与该用户在运动后之间的新的当前空间距离。获得该第二空间距离的过程与步骤S202中获得该第一空间距离的过程相近似,请参见步骤S202中的相关描述,此处不再赘述。若该用户发生了运动,而该标定反光点固定不动,因此,该第二空间距离与该第一空间距离必然不相同。
S205、以该摄像装置组运动后所在的位置为原点,根据该第二空间距离,建立该标定反光点与该摄像装置组的第二空间位置关系模型;
该第二空间位置关系模型表示在该摄像装置组运动后新建的空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。
以该摄像装置组运动后所在的位置为原点,根据该第二空间距离,再次建立该标定反光点与该摄像装置组的空间位置关系模型,即在新的原点下建立第二空间位置关系模型。
具体地,将当前该摄像装置组所在的位置设为该第二空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第二空间距离,得到该标定反光点相对于该原点的坐标(x2,y2,z2)。由于该第一空间距离和该第二空间距离不同,因此该标定反光点的位置相对于该摄像装置组在运动前后的两个位置的坐标也不相同。
该第二空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
S206、比较该第一空间位置关系模型以及该第二空间位置关系模型,根据比较结果得出该用户的运动前后的位置变化信息。
在该第一空间位置关系模型以及该第二空间位置关系模型中,该摄像装置组位置的坐标,也即该用户位置的坐标都被当作原点构建了空间坐标系,而该标定反光点自身的绝对空间位置是固定不变的,那么,可能发生变化的就是它和该用户的相对空间位置,而这种相对空间位置变化是因该用户运动前后位置发生变化引起的。对应于该用户运动前后位置的变化,该标定反光点在此两个空间位置关系模型中的相对坐标也发生了变化,即从坐标(x1,y1,z1)变化为坐标(x2,y2,z2)。
那么,比较该第一空间位置关系模型以及该第二空间位置关系模型,通过对比二者的变化,可得出该用户的运动前和运动后的位置变化信息,例如得到该用户运动后和运动前的位置的数值变化和方向的变化。
本发明实施例中,设置固定的标定反光点,获取该标定发光点的图像,以确定用户与该标定反光点的距离,从而构建用户当前位置与该标定反光点之间的第一空间位置关系模型,当用户运动时,佩戴在用户身上的摄像装置组同步运动,获取该标定反光点的图像,再次构建用户在运动后的位置与该标定反光点之间的第二空间位置关系模型,通过对比第一空间位置关系模型和第二空间位置关系模型的差异,反推出用户运动前后的位置变化,相较于现有技术,降低了定位用户位置过程中的计算量,降低定位技术难度,可在VR移动系统中实现定位相关产品的量化,提高产品生产率。
请参阅图3,图3为本发明第二实施例提供的虚拟现实系统中的空间定位方法的实现流程示意图,主要包括以下步骤:
S301、控制摄像装置组采集标定反光点的图像;
在头戴式显示器的控制下,摄像装置组采集标定反光点的图像,该摄像装置组佩戴在用户身上。该摄像装置组中包括多个摄像装置。这些摄像装置的数量可以根据各摄像装置的摄像视角而做不同的设置,设置的目的是以各摄像装置拍摄的图像能够覆盖整个空间,具体地,摄像装置的数量为360°除以摄像装置的摄像视角角度的商值。例如,若各摄像装置的摄像视角均为45度,那么为了组成该摄像装置组所需要设置的摄像装置的数量为360/45=8(个)。
该摄像装置组设置有摄像发光器件,可以发出指定波长的光,当该摄像发光器件照射在该标定反光点上,该标定反光点可以反光,增强该标定反光点在被采集的图像中的分辨度。优选地,该摄像发光器件为红外发光器件,该摄像装置中设置有红外滤光片,该红外滤光片过滤掉了该标定反光点发出的除红外光之外的其它波长的光线。头戴式显示器控制该红外发光器件照射该标定反光点,使得该标定反光点发出红外反射光,控制该摄像装置组中的各摄像装置采集经过该红外滤光片过滤后的该标定反光点的图像。在夜视场景下采集图像,红外光是最为理想的反射光线。
该标定反光点用于标定该标定反光点所在的位置。该标定反光点的设置,须能够使得在作图像分析时可以通过采集的图像区分出该标定反光点的空间位置。
S302、获取相邻的两个摄像装置采集的该标定反光点的第一图像,并通过预置的双目测距算法,根据该第一图像获得该标定反光点与该摄像装置组的第一空间距离;
在该摄像组的各摄像装置中采集的图像中,获取相邻的两个摄像装置采集的该标定反光点的多个第一图像。
根据预置的双目测距算法,根据该两个相邻摄像装置的焦距和中心距,以及,该两个相邻摄像装置采集的多个第一图像中的该标定反光点求得视差,则通过该预置的双目测距算法,获得该标定反光点与该摄像装置组的第一空间距离,即获得了该标定反光点与该用户之间的当前空间距离。
需要说明的是,为了提高测距的准确度,在获取相邻的两个摄像装置采集的标定反光点的多个第一图像之后,在此多个第一图像中筛选出标定反光点的分辨率最大的两个图像作为该标定反光点的左右视图,进一步地,通过该预置的双目测距算法,根据筛选出的该两个图像获得该标定反光点与该摄像装置组的第一空间距离。
S303、以该摄像装置组的位置为原点,根据该第一空间距离,建立该标定反光点与该摄像装置组的第一空间位置关系模型;
该第一空间位置关系模型,用于表示在当前空间坐标系下,该标定反光点与该摄像装置组的空间位置关系,该空间位置关系,是一种相对的关系,当该标定反光点固定不动时,随着该摄像装置组的运动,该空间位置关系发生改变。
将当前该摄像装置组的位置设为该第一空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第一空间距离,得到该标定反光点相对于该原点的坐标(x1,y1,z1)。
因此,该第一空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
S304、当该摄像装置组随用户同步运动时,获取相邻的两个摄像装置采集的该标定反光点的第二图像,并通过该预置的双目测距算法,根据该第二图像获得该标定反光点与该摄像装置组的第二空间距离;
在该用户运动时,控制该摄像装置组继续采集该标定反光点的图像,在该摄像装置组中所有摄像装置所采集的多个图像中,获取两个相邻的摄像装置采集的该标定反光点的多个第二图像。
具体地,如果该用户在没运动之前,是面对西墙上的标定反光点的,若该用户进行了转体运动,从面向西墙转向了面向东墙,则之前能够采集到该西墙上的标定反光点的摄像装置可能会因为摄像视角的限制,无法采集到该标定反光点,这时,需要从该摄像装置组中,确定能够采集到该西墙上的标定反光点图像的两个相邻的摄像装置,获取这两个相邻的摄像装置所采集的该标定反光点的图像。通过预置的双目测距算法,获得该标定反光点与该摄像装置组的第二空间距离,即,此处获得的是该用户运动后,该标定反光点与该摄像装置组的新的空间距离,也即获得了该标定反光点与该用户在运动后之间的新的当前空间距离。获得该第二空间距离的过程与步骤S202中获得该第一空间距离的过程相近似,请参见步骤S202中的相关描述,此处不再赘述。若该用户发生了运动,而该标定反光点固定不动,因此,该第二空间距离与该第一空间距离必然不相同。
需要说明的是,为了提高测距的准确度,在获取相邻的两个摄像装置采集的标定反光点的多个第二图像,并通过预置的双目测距算法,根据多个第二图像获得该标定反光点与该摄像装置组的第二空间距离之后,在此多个第二图像中筛选出该标定反光点的分辨率最高的两个图像作为该预置的双目测距算法中对应的左右视图,通过该预置的双目测距算法,获得该标定反光点与该摄像装置组的第二空间距离。
S305、以该摄像装置组运动后所在的位置为原点,根据该第二空间距离,建立该标定反光点与该摄像装置组的第二空间位置关系模型;
该第二空间位置关系模型表示在该摄像装置组运动后新建的空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。
以该摄像装置组运动后所在的位置为原点,根据该第二空间距离,再次建立该标定反光点与该摄像装置组的空间位置关系模型,即在新的原点下建立第二空间位置关系模型。
具体地,将当前该摄像装置组所在的位置设为该第二空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第二空间距离,得到该标定反光点相对于该原点的坐标(x2,y2,z2)。由于该第一空间距离和该第二空间距离不同,因此该标定反光点的位置相对于该摄像装置组在运动前后的两个位置的坐标也不相同。
该第二空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
S306、比较该第一空间位置关系模型中该标定反光点的第一坐标和在该第二空间关系模型中的第二坐标是否相同;
即比较(x1,y1,z1)和(x2,y2,z2)中,x1是否与x2相同,y1是否与y2相同,z1是否与z2相同。
S307、若相同,则确定该用户的运动前后位置没有变化,若不相同,则根据该第一坐标与该第二坐标的差值计算出该用户在运动后与运动前的位置差。
若比较结果同时满足x1与x2相同,y1与y2相同,z1与z2相同,则用户可能走出去又退回了原处,因此,确定该用户的运动前后位置没有变化。
若比较结果不是同时满足x1与x2相同,y1与y2相同,z1与z2相同,即,其中一对坐标值比较的结果是并不相同,则根据该第一坐标与该第二坐标的差值计算出该用户在运动后与运动前的位置差。包括该用户运动后和运动前的位置的数值变化和方向的变化。
本发明实施例中,通过设置固定的标定反光点,及采集该标定发光点的图像,以确定用户与该标定反光点的距离,从而构建用户当前位置与该标定反光点之间的第一空间位置关系模型,当用户运动时,佩戴在用户身上的摄像装置组同步运动,根据此时采集的该标定反光点的图像,再次构建用户在运动后的位置与该标定反光点之间的第二空间位置关系模型,通过对比第一空间位置关系模型和第二空间位置关系模型的差异,反推出用户运动前后的位置变化,相较于现有技术,降低了定位过程中的计算量,降低定位技术难度,可在VR移动系统中实现定位产品量化,提高产品生产率。
参阅图4,图4是本发明第四实施例提供的虚拟现实系统中的空间定位装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分。图4示例的虚拟现实系统中的空间定位装置可以是前述图2和图3所示实施例提供的虚拟现实系统中的空间定位方法的执行主体,如头戴式显示器20或其中的一个控制模块。图4示例的虚拟现实系统中的空间定位装置,主要包括:控制模块401、获取模块402、计算模块403、建模模块404以及比较模块405。
以上各功能模块详细说明如下:
其中,控制模块401,用于控制摄像装置组采集标定反光点的图像,该摄像装置组中包括多个摄像装置,该标定反光点用于标定该标定反光点所在的位置,该摄像装置组佩戴在用户身上。
获取模块402,用于获取相邻的两个摄像装置采集的该标定反光点的第一图像。
两个相邻的摄像装置采集的第一图像中的标定反光点,常常是同一个标定反光点,可以通过双目测距算法,获得该图像中的标定反光点与该摄像装置组的第一空间距离。
计算模块403,用于通过预置的双目测距算法,根据该第一图像获得该标定反光点与该摄像装置组的第一空间距离。
根据该两个相邻摄像装置的焦距和中心距,以及,该两个相邻摄像装置采集的第一图像中的该标定反光点求得视差,则通过该预置的双目测距算法,获得该标定反光点与该摄像装置组的第一空间距离。即,获取该标定反光点与该用户之间的当前空间距离。
建模模块404,用于以该摄像装置组的位置为原点,根据该第一空间距离,建立该标定反光点与该摄像装置组的第一空间位置关系模型,该第一空间位置关系模型表示在当前空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。
该第一空间位置关系模型,用于表示在当前空间坐标系下,该标定反光点与该摄像装置组的空间位置关系,该空间位置关系,是一种相对的关系,当该标定反光点固定不动时,随着该摄像装置组的运动,该空间位置关系发生改变。
将当前该摄像装置组的位置设为该第一空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第一空间距离,得到该标定反光点相对于该原点的坐标(x1,y1,z1)。
因此,该第一空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
获取模块402,还用于当该摄像装置组随该用户同步运动时,获取相邻的两个该摄像装置采集的该标定反光点的第二图像。
在该用户运动到下一个位置时,控制该摄像装置组继续采集该标定反光点的图像,在该摄像装置组中所有摄像装置所采集的多个图像中,获取两个相邻的摄像装置采集的该标定反光点的多个第二图像。
计算模块403,用于通过该预置的双目测距算法,根据该第二图像获得该标定反光点与该摄像装置组的第二空间距离。
在所采集的该标定反光点的图像中,仍然通过该预置的双目测距算法,获得该标定反光点与该摄像装置组的第二空间距离,即,此处获得的是该用户运动后,该标定反光点与该摄像装置组的新的空间距离,也即获得了该标定反光点与该用户在运动后之间的新的当前空间距离。
建模模块404,还用于以该摄像装置组运动后所在的位置为原点,根据该第二空间距离,建立该标定反光点与该摄像装置组的第二空间位置关系模型,该第二空间位置关系模型表示在该摄像装置组运动后新建的空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。
具体地,将当前该摄像装置组所在的位置设为该第二空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第二空间距离,得到该标定反光点相对于该原点的坐标(x2,y2,z2)。由于该第一空间距离和该第二空间距离不同,因此该标定反光点的位置相对于该摄像装置组在运动前后的两个位置的坐标也不相同。
该第二空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
比较模块405,用于比较该第一空间位置关系模型以及该第二空间位置关系模型。
计算模块403,还用于根据比较模块405的比较结果得出该用户的运动前后的位置变化信息。
比较该第一空间位置关系模型以及该第二空间位置关系模型,通过对比二者的变化,可得出该用户的运动前和运动后的位置变化信息,例如得到该用户运动后和运动前的位置的数值变化和方向的变化。
本实施例未尽之细节,请参阅前述图1至图3所示实施例的描述,此处不再赘述。
需要说明的是,以上图4示例的虚拟现实系统中的空间定位装置的实施方式中,各功能模块的划分仅是举例说明,实际应用中可以根据需要,例如相应硬件的配置要求或者软件的实现的便利考虑,而将上述功能分配由不同的功能模块完成,即将虚拟现实系统中的空间定位装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。而且,实际应用中,本实施例中的相应的功能模块可以是由相应的硬件实现,也可以由相应的硬件执行相应的软件完成。本说明书提供的各个实施例都可应用上述描述原则,以下不再赘述。
本发明实施例中,设置固定的标定反光点,获取该标定发光点的图像,以确定用户与该标定反光点的距离,从而构建用户当前位置与该标定反光点之间的第一空间位置关系模型,当用户运动时,佩戴在用户身上的摄像装置组同步运动,获取该标定反光点的图像,再次构建用户在运动后的位置与该标定反光点之间的第二空间位置关系模型,通过对比第一空间位置关系模型和第二空间位置关系模型的差异,反推出用户运动前后的位置变化,相较于现有技术,降低了定位过程中的计算量,降低技术难度,可在VR移动系统中实现产品量化,提高产品生产率。
请参阅图5,本发明第五实施例提供的虚拟现实系统中的空间定位装置的结构示意图,该装置主要包括:控制模块501、获取模块502、计算模块503、建模模块504、比较模块505以及筛选模块506。以上各功能模块详细说明如下:
其中,控制模块501,用于控制摄像装置组采集标定反光点的图像,该摄像装置组中包括多个摄像装置,该标定反光点用于标定该标定反光点所在的位置,该摄像装置组佩戴在用户身上,具体可以与头戴式显示器相连接。
这些摄像装置的数量可以根据各摄像装置的摄像视角而做不同的设置,设置的目的是以各摄像装置拍摄的图像能够覆盖整个空间,具体地,摄像装置的数量为360°除以摄像装置的摄像视角角度的商值。
该摄像装置组设置有摄像发光器件,可以发出指定波长的光,当该摄像发光器件照射在该标定反光点上,该标定反光点可以反光,增强该标定反光点在被采集的图像中的分辨度。优选地,该摄像发光器件为红外发光器件,该摄像装置中设置有红外滤光片,该红外滤光片过滤掉了该标定反光点发出的除红外光之外的其它波长的光线。
控制模块501,还用于控制该红外发光器件照射该标定反光点,使得该标定反光点发出红外反射光,以及控制该摄像装置组中的摄像装置采集经过该红外滤光片过滤后的该标定反光点的图像。
获取模块502,用于获取相邻的两个摄像装置采集的跟标定反光点的第一图像。
计算模块503,用于通过预置的双目测距算法,根据该第一图像获得该标定反光点与该摄像装置组的第一空间距离。
建模模块504,用于以该摄像装置组的位置为原点,根据该第一空间距离,建立该标定反光点与该摄像装置组的第一空间位置关系模型,该第一空间位置关系模型表示在当前空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。
将当前该摄像装置组的位置设为该第一空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第一空间距离,得到该标定反光点相对于该原点的坐标(x1,y1,z1)。
因此,该第一空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
获取模块502,还用于当该摄像装置组随该用户同步运动时,获取相邻的两个该摄像装置采集的该标定反光点的第二图像。
在该用户运动时,控制该摄像装置组继续采集该标定反光点的图像,在该摄像装置组中所有摄像装置所采集的多个图像中,获取两个相邻的摄像装置采集的该标定反光点的多个第二图像。
计算模块503,用于通过该预置的双目测距算法,根据该第二图像获得该标定反光点与该摄像装置组的第二空间距离。
建模模块504,还用于以该摄像装置组运动后所在的位置为原点,根据该第二空间距离,建立该标定反光点与该摄像装置组的第二空间位置关系模型,该第二空间位置关系模型表示在该摄像装置组运动后新建的空间坐标系下,该标定反光点与该摄像装置组的空间位置关系。
具体地,将当前该摄像装置组所在的位置设为该第二空间位置关系模型中的坐标系原点,该原点的空间坐标为(0,0,0),根据该标定反光点与该摄像装置组之间的第二空间距离,得到该标定反光点相对于该原点的坐标(x2,y2,z2)。由于该第一空间距离和该第二空间距离不同,因此该标定反光点的位置相对于该摄像装置组在运动前后的两个位置的坐标也不相同。
该第二空间位置关系模型中可包含当前空间坐标系的原点、该标定反光点相对于当前该原点的坐标,以及,该标定反光点与该摄像装置组的空间距离等信息。
比较模块505,用于比较该第一空间位置关系模型以及该第二空间位置关系模型。
计算模块503,还用于根据该比较模块的比较结果得出该用户的运动前后的位置变化信息。
进一步地,比较模块505,还用于比较该第一空间位置关系模型中该标定反光点的第一坐标和在该第二空间关系模型中的第二坐标是否相同。即比较(x1,y1,z1)和(x2,y2,z2)中,x1是否与x2相同,y1是否与y2相同,z1是否与z2相同。
计算模块503,还用于若比较模块505的比较结果是相同,则确定该用户的运动前后位置没有变化,若比较结果是不相同,则根据该第一坐标与该第二坐标的差值计算出该用户在运动后与运动前的位置差。
若比较结果同时满足x1与x2相同,y1与y2相同,z1与z2相同,则用户可能走出去又退回了原处,因此,确定该用户的运动前后位置没有变化。
若比较结果不是同时满足x1与x2相同,y1与y2相同,z1与z2相同,即,其中一对坐标值比较的结果是并不相同,则根据该第一坐标与该第二坐标的差值计算出该用户在运动后与运动前的位置差。包括该用户运动后和运动前的位置的数值变化和方向的变化。
进一步地,该装置还包括:
筛选模块506,用于在该第一图像中筛选出该标定反光点的分辨率最大的两个图像。
计算模块503,还用于通过该预置的双目测距算法,根据筛选出的两个图像获得该标定反光点与该摄像装置组的第一空间距离。
本实施例未尽之细节,请参阅前述图1至图4所示实施例的描述,此处不再赘述。
本发明实施例中,设置固定的标定反光点,获取该标定发光点的图像,以确定用户与该标定反光点的距离,从而构建用户当前位置与该标定反光点之间的第一空间位置关系模型,当用户运动时,佩戴在用户身上的摄像装置组同步运动,获取该标定反光点的图像,再次构建用户在运动后的位置与该标定反光点之间的第二空间位置关系模型,通过对比第一空间位置关系模型和第二空间位置关系模型的差异,反推出用户运动前后的位置变化,相较于现有技术,降低了定位过程中的计算量,降低技术难度,可在VR移动系统中实现产品量化,提高产品生产率。
在本申请所提供的多个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信链接可以是通过一些接口,装置或模块的间接耦合或通信链接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本发明所提供的虚拟现实系统中的空间定位方法、装置及系统的描述,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (11)
1.一种虚拟现实系统中的空间定位方法,其特征在于,所述方法包括:
控制摄像装置组采集标定反光点的图像,所述摄像装置组中包括多个摄像装置,所述标定反光点用于标定所述标定反光点所在的位置,所述摄像装置组佩戴在用户身上;
获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像,并通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离;
以所述摄像装置组的位置为原点,根据所述第一空间距离,建立所述标定反光点与所述摄像装置组的第一空间位置关系模型,所述第一空间位置关系模型表示在当前空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;
当所述摄像装置组随所述用户同步运动时,获取相邻的两个所述摄像装置采集的所述标定反光点的第二图像,并通过所述预置的双目测距算法,根据所述第二图像获得所述标定反光点与所述摄像装置组的第二空间距离;
以所述摄像装置组运动后所在的位置为原点,根据所述第二空间距离,建立所述标定反光点与所述摄像装置组的第二空间位置关系模型,所述第二空间位置关系模型表示在所述摄像装置组运动后新建的空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;
比较所述第一空间位置关系模型以及所述第二空间位置关系模型,根据比较结果得出所述用户的运动前后的位置变化信息。
2.根据权利要求1所述的方法,其特征在于,所述比较所述第一空间位置关系模型以及所述第二空间位置关系模型,得出所述用户的运动前后的位置变化信息包括:
比较所述第一空间位置关系模型中所述标定反光点的第一坐标,和在所述第二空间关系模型中的第二坐标是否相同;
若相同,则确定所述用户的运动前后位置没有变化,若不相同,则根据所述第一坐标与所述第二坐标的差值计算出所述用户在运动后与运动前的位置差。
3.根据权利要求1所述的方法,其特征在于,所述摄像装置组中包括的所述摄像装置的数量为360°除以摄像装置的摄像视角角度的商值。
4.根据权利要求3所述的方法,其特征在于,所述摄像装置组的摄像发光器件为红外发光器件,所述摄像装置中设置有红外滤光片,则所述控制摄像装置组采集标定反光点的图像包括:
控制所述红外发光器件照射所述标定反光点,使得所述标定反光点发出红外反射光;
控制所述摄像装置组中的摄像装置采集经过所述红外滤光片过滤后的所述标定反光点的图像。
5.根据权利要求4所述的方法,其特征在于,所述获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像之后包括:
在所述第一图像中筛选出所述标定反光点的分辨率最大的两个图像;
则所述通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离包括:
通过所述预置的双目测距算法,根据筛选出的两个图像获得所述标定反光点与所述摄像装置组的第一空间距离。
6.一种虚拟现实系统中的空间定位装置,其特征在于,所述装置包括:
控制模块,用于控制摄像装置组采集标定反光点的图像,所述摄像装置组中包括多个摄像装置,所述标定反光点用于标定所述标定反光点所在的位置,所述摄像装置组佩戴在用户身上;
获取模块,用于获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像;
计算模块,用于通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离;
建模模块,用于以所述摄像装置组的位置为原点,根据所述第一空间距离,建立所述标定反光点与所述摄像装置组的第一空间位置关系模型,所述第一空间位置关系模型表示在当前空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;
所述获取模块,还用于当所述摄像装置组随所述用户同步运动时,获取相邻的两个所述摄像装置采集的所述标定反光点的第二图像;
所述计算模块,用于通过所述预置的双目测距算法,根据所述第二图像获得所述标定反光点与所述摄像装置组的第二空间距离;
所述建模模块,还用于以所述摄像装置组运动后所在的位置为原点,根据所述第二空间距离,建立所述标定反光点与所述摄像装置组的第二空间位置关系模型,所述第二空间位置关系模型表示在所述摄像装置组运动后新建的空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;
比较模块,用于比较所述第一空间位置关系模型以及所述第二空间位置关系模型;
所述计算模块,还用于根据所述比较模块的比较结果得出所述用户的运动前后的位置变化信息。
7.根据权利要求6所述的装置,其特征在于,
所述比较模块,还用于比较所述第一空间位置关系模型中所述标定反光点的第一坐标,和在所述第二空间关系模型中的第二坐标是否相同;
所述计算模块,还用于若所述比较子模块的比较结果是相同,则确定所述用户的运动前后位置没有变化,若比较结果是不相同,则根据所述第一坐标与所述第二坐标的差值计算出所述用户在运动后与运动前的位置差。
8.根据权利要求6或7所述的装置,其特征在于,所述摄像装置组中包括的所述摄像装置的数量为360°除以摄像装置的摄像视角角度的商值。
9.根据权利要求8所述的装置,其特征在于,所述摄像装置组的摄像发光器件为红外发光器件,所述摄像装置中设置有红外滤光片,则所述控制模块,还用于控制所述红外发光器件照射所述标定反光点,使得所述标定反光点发出红外反射光,以及控制所述摄像装置组中的摄像装置采集经过所述红外滤光片过滤后的所述标定反光点的图像。
10.根据权利要求9所述的装置,其特征在于,所述装置还包括:
筛选模块,用于在所述第一图像中筛选出所述标定反光点的分辨率最大的两个图像;
所述计算模块,还用于通过所述预置的双目测距算法,根据筛选出的两个图像获得所述标定反光点与所述摄像装置组的第一空间距离。
11.一种虚拟现实系统中的空间定位系统,其特征在于,所述系统包括:
头戴式显示器以及摄像装置组;
其中,所述头戴式显示器,用于控制所述摄像装置组采集标定反光点的图像,所述摄像装置组中包括多个摄像装置,所述标定反光点用于标定所述标定反光点所在的位置,所述摄像装置组佩戴在用户身上;获取相邻的两个所述摄像装置采集的所述标定反光点的第一图像,并通过预置的双目测距算法,根据所述第一图像获得所述标定反光点与所述摄像装置组的第一空间距离;以所述摄像装置组的位置为原点,根据所述第一空间距离,建立所述标定反光点与所述摄像装置组的第一空间位置关系模型,所述第一空间位置关系模型表示在当前空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;当所述摄像装置组随所述用户同步运动时,获取相邻的两个所述摄像装置采集的所述标定反光点的第二图像,并通过所述预置的双目测距算法,根据所述第二图像获得所述标定反光点与所述摄像装置组的第二空间距离;以所述摄像装置组运动后所在的位置为原点,根据所述第二空间距离,建立所述标定反光点与所述摄像装置组的第二空间位置关系模型,所述第二空间位置关系模型表示在所述摄像装置组运动后新建的空间坐标系下,所述标定反光点与所述摄像装置组的空间位置关系;比较所述第一空间位置关系模型以及所述第二空间位置关系模型,根据比较结果得出所述用户的运动前后的位置变化信息;
所述摄像装置组,用于在所述头戴式显示器的控制下,启动各所述摄像装置采集所述定位反光点的图像。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511014777.4A CN105867611A (zh) | 2015-12-29 | 2015-12-29 | 虚拟现实系统中的空间定位方法、装置及系统 |
PCT/CN2016/088579 WO2017113689A1 (zh) | 2015-12-29 | 2016-07-05 | 虚拟现实系统中的空间定位方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511014777.4A CN105867611A (zh) | 2015-12-29 | 2015-12-29 | 虚拟现实系统中的空间定位方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105867611A true CN105867611A (zh) | 2016-08-17 |
Family
ID=56624477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511014777.4A Pending CN105867611A (zh) | 2015-12-29 | 2015-12-29 | 虚拟现实系统中的空间定位方法、装置及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105867611A (zh) |
WO (1) | WO2017113689A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106326930A (zh) * | 2016-08-24 | 2017-01-11 | 王忠民 | 一种确定虚拟现实中被跟踪物体位置的方法、装置及系统 |
CN106340043A (zh) * | 2016-08-24 | 2017-01-18 | 深圳市虚拟现实技术有限公司 | 图像识别空间定位方法及系统 |
CN106569337A (zh) * | 2016-10-21 | 2017-04-19 | 北京小鸟看看科技有限公司 | 一种虚拟现实系统及其定位方法 |
CN106568434A (zh) * | 2016-11-08 | 2017-04-19 | 深圳市虚拟现实科技有限公司 | 虚拟现实空间定位方法及系统 |
CN106791399A (zh) * | 2016-12-22 | 2017-05-31 | 深圳市虚拟现实技术有限公司 | 虚拟现实变焦空间定位方法与系统 |
CN106774844A (zh) * | 2016-11-23 | 2017-05-31 | 上海创米科技有限公司 | 一种用于虚拟定位的方法及设备 |
CN107423720A (zh) * | 2017-08-07 | 2017-12-01 | 广州明医医疗科技有限公司 | 目标跟踪系统和立体显示设备 |
WO2018107923A1 (zh) * | 2016-12-16 | 2018-06-21 | 深圳市虚拟现实技术有限公司 | 虚拟现实空间定位特征点识别方法 |
CN108519215A (zh) * | 2018-03-28 | 2018-09-11 | 华勤通讯技术有限公司 | 瞳距适应性测试系统及方法、测试主机 |
WO2018188055A1 (zh) * | 2017-04-14 | 2018-10-18 | 深圳市方鹏科技有限公司 | 一种虚拟现实技术的建模空间定位装置 |
TWI642903B (zh) * | 2017-10-13 | 2018-12-01 | 緯創資通股份有限公司 | 用於頭戴式顯示裝置的定位方法、定位器以及定位系統 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673161A (zh) * | 2009-10-15 | 2010-03-17 | 复旦大学 | 一种可视可操作无实体的触摸屏系统 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN104436634A (zh) * | 2014-11-19 | 2015-03-25 | 重庆邮电大学 | 一种采用沉浸式虚拟现实技术的真人射击游戏系统及实现方法 |
JP2015060071A (ja) * | 2013-09-18 | 2015-03-30 | コニカミノルタ株式会社 | 画像表示装置、画像表示方法、および画像表示プログラム |
US20150346816A1 (en) * | 2014-05-30 | 2015-12-03 | Moriahtown Co., Ltd. | Display device using wearable eyeglasses and method of operating the same |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072130A (ja) * | 2000-08-29 | 2002-03-12 | Shimadzu Corp | 頭部装着型情報表示装置 |
CN103245322B (zh) * | 2013-04-10 | 2015-11-11 | 南京航空航天大学 | 一种基于双目立体视觉的测距方法及系统 |
CN103345064B (zh) * | 2013-07-16 | 2015-08-26 | 深圳市智帽科技开发有限公司 | 一种集成3d识别的帽子及帽子的3d识别方法 |
CN103744184A (zh) * | 2014-01-24 | 2014-04-23 | 成都理想境界科技有限公司 | 帽型头戴显示设备 |
-
2015
- 2015-12-29 CN CN201511014777.4A patent/CN105867611A/zh active Pending
-
2016
- 2016-07-05 WO PCT/CN2016/088579 patent/WO2017113689A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673161A (zh) * | 2009-10-15 | 2010-03-17 | 复旦大学 | 一种可视可操作无实体的触摸屏系统 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
JP2015060071A (ja) * | 2013-09-18 | 2015-03-30 | コニカミノルタ株式会社 | 画像表示装置、画像表示方法、および画像表示プログラム |
US20150346816A1 (en) * | 2014-05-30 | 2015-12-03 | Moriahtown Co., Ltd. | Display device using wearable eyeglasses and method of operating the same |
CN104436634A (zh) * | 2014-11-19 | 2015-03-25 | 重庆邮电大学 | 一种采用沉浸式虚拟现实技术的真人射击游戏系统及实现方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106326930A (zh) * | 2016-08-24 | 2017-01-11 | 王忠民 | 一种确定虚拟现实中被跟踪物体位置的方法、装置及系统 |
CN106340043A (zh) * | 2016-08-24 | 2017-01-18 | 深圳市虚拟现实技术有限公司 | 图像识别空间定位方法及系统 |
CN106569337A (zh) * | 2016-10-21 | 2017-04-19 | 北京小鸟看看科技有限公司 | 一种虚拟现实系统及其定位方法 |
CN106569337B (zh) * | 2016-10-21 | 2019-11-08 | 北京小鸟看看科技有限公司 | 一种虚拟现实系统及其定位方法 |
CN106568434A (zh) * | 2016-11-08 | 2017-04-19 | 深圳市虚拟现实科技有限公司 | 虚拟现实空间定位方法及系统 |
CN106774844A (zh) * | 2016-11-23 | 2017-05-31 | 上海创米科技有限公司 | 一种用于虚拟定位的方法及设备 |
WO2018107923A1 (zh) * | 2016-12-16 | 2018-06-21 | 深圳市虚拟现实技术有限公司 | 虚拟现实空间定位特征点识别方法 |
CN106791399A (zh) * | 2016-12-22 | 2017-05-31 | 深圳市虚拟现实技术有限公司 | 虚拟现实变焦空间定位方法与系统 |
WO2018188055A1 (zh) * | 2017-04-14 | 2018-10-18 | 深圳市方鹏科技有限公司 | 一种虚拟现实技术的建模空间定位装置 |
CN107423720A (zh) * | 2017-08-07 | 2017-12-01 | 广州明医医疗科技有限公司 | 目标跟踪系统和立体显示设备 |
TWI642903B (zh) * | 2017-10-13 | 2018-12-01 | 緯創資通股份有限公司 | 用於頭戴式顯示裝置的定位方法、定位器以及定位系統 |
CN108519215A (zh) * | 2018-03-28 | 2018-09-11 | 华勤通讯技术有限公司 | 瞳距适应性测试系统及方法、测试主机 |
Also Published As
Publication number | Publication date |
---|---|
WO2017113689A1 (zh) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105867611A (zh) | 虚拟现实系统中的空间定位方法、装置及系统 | |
US10872467B2 (en) | Method for data collection and model generation of house | |
CN110580732B (zh) | 一种3d信息获取装置 | |
EP3099056B1 (en) | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product | |
CN106101689B (zh) | 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法 | |
CN103339651B (zh) | 图像处理装置、摄像装置以及图像处理方法 | |
TWI564840B (zh) | 立體試衣方法及裝置 | |
CN101072366B (zh) | 基于光场和双目视觉技术的自由立体显示系统和方法 | |
CN106027962B (zh) | 视频监控的覆盖率计算方法及装置、布点方法及系统 | |
CN107274400A (zh) | 空间定位装置、定位处理方法及装置、虚拟现实系统 | |
CN107767424A (zh) | 多相机系统的标定方法、多相机系统及终端设备 | |
CN111028341B (zh) | 一种三维模型生成方法 | |
CN110176032A (zh) | 一种三维重建方法及装置 | |
US11238651B2 (en) | Fast hand meshing for dynamic occlusion | |
CN105222717B (zh) | 一种标的物长度测量方法及装置 | |
CN110276774B (zh) | 物体的绘图方法、装置、终端和计算机可读存储介质 | |
CN112304222B (zh) | 一种背景板同步旋转的3d信息采集设备 | |
CN106683163B (zh) | 一种视频监控的成像方法及系统 | |
CN106210474A (zh) | 一种图像采集设备、虚拟现实设备 | |
CN103634588A (zh) | 一种影像构成方法及电子设备 | |
CN107808402A (zh) | 多相机系统的标定方法、多相机系统及终端设备 | |
CN107864372B (zh) | 立体拍照方法、装置及终端 | |
CN110349269A (zh) | 一种目标穿戴物试戴方法及系统 | |
CN106604016A (zh) | 立体视频采集系统 | |
CN107507249B (zh) | 一种智能车立体视觉系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160817 |