CN102166414B - 一种真人对抗模拟射击系统、对战平台及其操作方法 - Google Patents
一种真人对抗模拟射击系统、对战平台及其操作方法 Download PDFInfo
- Publication number
- CN102166414B CN102166414B CN 201110031141 CN201110031141A CN102166414B CN 102166414 B CN102166414 B CN 102166414B CN 201110031141 CN201110031141 CN 201110031141 CN 201110031141 A CN201110031141 A CN 201110031141A CN 102166414 B CN102166414 B CN 102166414B
- Authority
- CN
- China
- Prior art keywords
- ejaculator
- true
- shooting scene
- scene
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明涉及模拟射击技术,针对现有模拟射击系统无法呈现射击者所处的真实环境、操作复杂的缺陷,提供一种真人对抗模拟射击系统、对战平台及其操作方法。真人对抗模拟射击系统包括:图像拍摄装置,用于实时拍摄包含射击者图像的真实射击场景;定位装置,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;发送装置,用于发送与所述真实射击场景对应的出站的场景数据;显示装置,用于接收进站的场景数据,显示与所述进站的场景数据对应的真实射击场景。本发明还提供一种模拟射击对战平台及其操作方法。本发明可真实呈现射击者所处的真实环境,无需对拍摄图像进行复杂处理,降低了真人对抗模拟射击中的图像处理的复杂度。
Description
技术领域
本发明涉及模拟射击技术,更具体地说,涉及一种真人对抗模拟射击系统、模拟射击对战平台及其操作方法。
背景技术
在军事训练和娱乐仿真等领域,模拟射击技术得到了广泛的应用。这项技术的基本原理是,通过计算机生成模拟射击场景并通过显示设备(如大屏幕或者通过投影仪投影在银幕上)显示,该场景中包含按照预先设定的规则依次出现的模拟射击目标(如虚拟敌人、虚拟军事设施、装备如飞机、坦克等)。在模拟射击过程中,射击者使用模拟枪(如红外枪、激光枪等)或真枪(射击实体靶)射击场景中的模拟射击目标,位置检测系统计算弹着点位置并将其与所显示射击目标的位置进行匹配,在匹配成功时认定射击者击中目标。由于射击目标的出现情况是由计算机控制的,因此现有模拟射击系统是一种“人机对抗”系统。
近年来,在传统模拟射击系统的基础上,技术人员又开发出一种更为真实的模拟射击系统。这种系统使用真实的射击场景(例如电影中的射击场景等)来制作场景文件,然后通过计算机来控制该文件的播放。由于显示的场景取自真实的射击场景,因此射击者如同亲临现场一般,颇具真实感。
然而,尽管模拟效果越来越逼真,但现有模拟射击系统却始终存在一个至今仍然未能克服的缺陷,这就是“人机对抗”系统中射击目标的各种参数一经设定便无法轻易更改。这一缺陷导致射击目标只能在预先设定的时间出现在预先设定的位置,再以预先设定的移动轨迹移动。因此,随着使用次数的不断增多,用户很容易记住射击目标的出现情况,射击难度由此降低,模拟效果不断下降。尽管这一问题可通过对射击场景不断更新来解决,然而场景制作成本往往是一个不小的数字。
此外,在现有的模拟射击系统中,由于射击目标不可能对射击者造成伤害,因此射击者在参与过程中可以心态平和、全神贯注的打击射击目标而不用担心射击目标的还击。由此可见,现有模拟射击系统无法营造出真实射击环境中的紧张气氛。
为了从本质上克服上述传统模拟射击以及模拟真人对抗射击系统存在的缺陷,申请号为200810068017.5的专利申请提供了一种真人对抗模拟射击系统、对战平台及其操作方法,其涉及的原理如下:模拟射击系统中设置有蓝箱、场景生成装置,场景生成装置包含有图像拍摄单元、抠像处理单元以及场景渲染装置,用于实时拍摄相关联射击者的图像,生成模拟射击场景,将对应的场景数据发往其他模拟射击系统,。同时,模拟射击系统内还设置有场景显示装置,用于接收其他模拟射击系统发来的场景数据,显示对应的模拟射击场景。这样一来,借助相关联的模拟射击系统,射击者彼此之间均可观察到对方,如此便可将对方作为射击目标,实现射击者之间的相互对战。
然而,在申请号为200810068017.5的专利申请中,其技术方案的实现需要将射击者所处位置设置为蓝背景,随后通过抠像技术将射击者的图像从拍摄到的蓝箱图像中提取出来。该技术不能够真正地呈现射击者所处的真实环境,而且需要对拍摄到的图像做复杂的抠像和渲染处理,操作复杂,因此需要一种模拟射击方案,能够克服现有模式射击系统存在的缺陷。
发明内容
本发明要解决的技术问题在于,针对现有“人机对抗”模拟射击系统无法呈现射击者所处的真实环境、操作复杂的缺陷,提供一种真人对抗模拟射击系统、对战平台及其操作方法。
本发明解决其技术问题所采用的技术方案是:
一种真人对抗模拟射击系统,其特征在于,包括:
图像拍摄装置,用于实时拍摄包含射击者图像的真实射击场景;
定位装置,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
发送装置,用于发送与所述真实射击场景对应的出站的场景数据,所述场景数据包含所述射击者位置信息;
显示装置,用于接收进站的场景数据,显示与所述进站的场景数据对应的真实射击场景。
在本发明所述的真人对抗模拟射击系统中,还包括:
场景渲染装置,用于对所述图像拍摄装置拍摄的所述真实射击场景进行场景渲染,生成经渲染后的真实射击场景,经发送单元发送出去。
在本发明所述的真人对抗模拟射击系统中,所述定位装置通过对当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
在本发明所述的真人对抗模拟射击系统中,所述定位装置通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
在本发明所述的真人对抗模拟射击系统中,所述定位装置为深度图像传感器,通过获取所述真实射击场景的图像深度和色彩数据来计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
本发明还提供一种真人对抗模拟射击对战平台,包括通信连接的至少两个真人对抗模拟射击系统,每个真人对抗模拟射击系统包括:
图像拍摄装置,用于实时拍摄与该真人对抗模拟射击系统相关联的包含射击者图像的真实射击场景;
定位装置,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
发送装置,用于将与所述真实射击场景对应的出站的场景数据发送至至少另一真人对抗模拟射击系统,所述场景数据包含所述射击者位置信息;
显示装置,用于接收来自所述至少另一真人对抗模拟射击系统的场景数据,显示与收到的场景数据对应的真实射击场景。
在本发明所述的真人对抗模拟射击对战平台中,每个真人对抗模拟射击系统还包括:
场景渲染装置,用于对所述图像拍摄装置拍摄的与该系统相关联的所述真实射击场景进行场景渲染,生成该系统对应的经渲染后的真实射击场景,经该系统的发送单元发送至至少另一真人对抗模拟射击系统。
在本发明所述的真人对抗模拟射击对战平台中,每个真人对抗模拟射击系统的定位装置通过对与该系统相关联的当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成该系统的射击者位置信息。
在本发明所述的真人对抗模拟射击对战平台中,每个真人对抗模拟射击系统的定位装置通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成该系统的射击者位置信息。
在本发明所述的真人对抗模拟射击对战平台中,每个真人对抗模拟射击系统的定位装置为深度图像传感器,通过获取所述真实射击场景的图像深度和色彩数据来计算所述射击者图像在所述真实射击场景中的位置,生成该系统的射击者位置信息。
本发明还提供一种真人对抗模拟射击方法,包括以下步骤:
实时拍摄包含射击者图像的真实射击场景;
计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
发送与所述真实射击场景对应的出站的场景数据,所述场景数据包含所述射击者位置信息;
接收进站的场景数据,显示与所述进站的场景数据对应的真实射击场景。
在本发明所述的真人对抗模拟射击方法中,还包括:
对所述图像拍摄装置拍摄的所述真实射击场景进行场景渲染,生成经渲染后的真实射击场景。
在本发明所述的真人对抗模拟射击方法中,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息具体包括:
通过对当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
在本发明所述的真人对抗模拟射击方法中,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息具体包括:
通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
在本发明所述的真人对抗模拟射击方法中,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息具体包括:
通过深度图像传感器获取所述真实射击场景的图像深度和色彩数据,以计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
本发明还提供一种真人对抗模拟射击对战方法,由至少两个真人对抗模拟射击系统分别执行:
实时拍摄各自相关联的包含射击者图像的真实射击场景;
计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息;
将各自真实射击场景对应的场景数据彼此发送至对方,所述场景数据包含射击者位置信息;
接收来自对方的场景数据,显示对应的真实射击场景。
在本发明所述的真人对抗模拟射击对战方法中,还包括:
对各自的图像拍摄装置拍摄的真实射击场景进行场景渲染,生成经渲染后的真实射击场景。
在本发明所述的真人对抗模拟射击对战方法中,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息具体包括:
通过对当前真实射击场景和前一真实射击场景进行比较,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息。
在本发明所述的真人对抗模拟射击对战方法中,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息具体包括:
通过色彩识别计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息。
在本发明所述的真人对抗模拟射击对战方法中,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息具体包括:
通过深度图像传感器获取各自真实射击场景的图像深度和色彩数据,以计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息。
实施本发明的技术方案,具有以下有益效果,通过实时拍摄射击者所处的真实射击场景,并通过图像定位技术实现射击者真人及所处真实环境的融合,获取射击者在真实射击场景中的位置,直接将拍摄到的图像呈现给另一射击者,从而实现射击者之间基于真枪或仿真枪的真人实时对战射击,真实呈现射击者所处的真实环境,无需对拍摄图像进行复杂处理,降低了真人对抗模拟射击中的图像处理的复杂度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是依据本发明一较佳实施例的模拟射击系统的结构示意图;
图2是依据本发明一较佳实施例的模拟射击对战平台的结构示意图;
图3A是依据本发明一较佳实施例的模拟射击对战平台的结构示意图;
图3B是依据本发明另一较佳实施例的模拟射击对战平台的结构示意图;
图4A是依据本发明一较佳实施例的场景数据生成方法的流程图;
图4B是依据本发明另一较佳实施例的场景数据生成方法的流程图;
图5是依据本发明一较佳实施例的场景数据显示方法的流程图;
图6A是依据本发明一较佳实施例的场景数据生成方法的流程图;
图6B是依据本发明一较佳实施例的场景数据生成方法的流程图;
图7是依据本发明一较佳实施例的场景数据显示方法的流程图。
具体实施方式
本发明提供了一种“真人对抗”模拟射击对战平台,实时拍摄真实射击场景,可实现参与者之间的“真人对抗”。另外,该“真人对抗”模拟射击对战平台还可借助3D渲染技术来对拍摄到的真实射击场景进行渲染。以下就结合附图和具体实施例对本发明的技术方案进行描述。
本发明提供的模拟射击对战平台由多个模拟射击系统组合而成,每一模拟射击系统与一个或一组射击者相关联。模拟射击系统内设置有图像拍摄装置,用于实时拍摄包含射击者图像的真实射击场景;定位装置,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;发送装置,用于发送与所述真实射击场景对应的出站的场景数据至其他模拟射击系统,所述场景数据包含所述射击者位置信息。同时,模拟射击系统内还设置有显示装置,用于接收其他模拟射击系统发来的场景数据,显示对应的真实射击场景。这样一来,借助相关联的模拟射击系统,射击者彼此之间均可观察到对方,如此便可将对方作为射击目标,实现射击者之间的相互对战。
为便于描述,下文将模拟射击系统自身生成并需要发往其他模拟射击系统的场景数据称为出站的场景数据,将模拟射击系统收到的来自其他模拟射击系统的场景数据称为进站的场景数据。下面首先对模拟射击系统进行描述。
图1是依据本发明一较佳实施例的模拟射击系统100的结构示意图。模拟射击系统100包括,设置在模拟射击室101内的图像拍摄装置102、定位装置103、发送装置104、显示装置。
如图1所示,图像拍摄装置102可以为例如摄像机,用于实时拍摄包含射击者图像的真实射击场景。应注意,在具体实现过程中,可在多个位置设置多台摄像机从多个不同的角度拍摄真实射击场景,来生成三维效果的真实射击场景。
定位装置103,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
发送装置104,用于发送与所述真实射击场景对应的出站的场景数据至其他模拟射击系统,所述场景数据包含所述射击者位置信息。
显示装置包括设置在模拟射击室101内的投影仪105和投影幕106,用于接收其他模拟射击系统发来的场景数据,显示对应的真实射击场景。
进站的场景数据和出站的场景数据基于TCP/IP协议或串口协议进行传送,或者通过视频线以及其它适于传送视频数据的媒介来传送。
在本发明一实施例中,还包括场景渲染装置(未示出),用于对所述图像拍摄装置拍摄的真实射击场景进行场景渲染,生成经渲染后的真实射击场景,经发送单元发送出去。场景渲染装置可以是例如但不限于3D渲染引擎,用于对拍摄的真实射击场景进行场景渲染。例如,场景渲染装置可将拍摄的真实射击场景作为前景图像来与预先设置的背景图像进行叠加,以此构建更加丰富的模拟射击场景。经过场景渲染,射击场景中除了参与其中的射击者外,还可包括渲染过程中添加的其他射击目标,例如由场景渲染装置生成的与射击者同组的虚拟射击目标等。此外,射击场景中还可包含各种遮挡物,便于参与者躲避对方的射击。此外,还可通过增加各种特殊效果来使射击场景更加丰富,例如击中目标时的流血场面等。
投影幕106显示的既可以是摄像机拍摄的“射击者+真实环境”的视频图像也可以是“射击者+真实环境+虚拟物体”的视频图像,三维虚拟物体可以沿任意轨迹运动、旋转、缩放预先编辑并实时播出,可以让虚拟汽车、虚拟飞机、虚拟动物等沿预定轨迹按预定模式运动,三维虚拟物体也可以是播出的动画效果,可以真实再现有着潺潺流水的小溪、一边飞行一边振动翅膀的蝴蝶等。三维虚拟物体可以实现各种三维特技效果——可以在真实环境的基础上加入雨雪云雾,虚拟雪花不仅可以落到射击者107的身前身后,也可以落到射击者107的身上,实现虚拟物体和真人真实场景的完美结合;可以实现雾化效果,雾的颜色、浓度、范围等参数实时可调,使得合成后的叠加场景看上去更加丰富刺激;不仅可以实现虚拟物体中弹后爆炸的效果,还可以实现射击者中弹后身体流血的效果。有关场景渲染方面的内容已经在现有技术中做了清楚的描述,本文不再赘述。
投影仪105用于接收进站的场景数据(即其他模拟射击系统发来的场景数据),依据其中的图像数据在投影幕106上显示对应的真实射击场景。由于进站的场景数据中包含射击者位置信息,因此,可依据该射击者位置信息得到射击者(与其他模拟射击系统相关联)在投影幕106上显示的真实射击场景中的位置。在具体实现过程,真实射击场景可根据预先设定的射击距离(例如设定射击者彼此之间相隔50米、75米、100米等进行射击)来调整,例如根据预先设定的射击者之间的相互距离对模拟射击场景中各物体的大小进行缩放等,此时,需要对进站场景数据中的射击者位置信息按缩放程度进行转换。在显示对应的真实射击场景后,射击者107便可使用其真枪或仿真枪108对真实射击场景进行射击。当弹着点落入真实射击场景中的特定区域(可通过射击者位置信息计算得到)内时,即可认定命中目标。有关弹着点确认方面的内容已经在现有技术中做了清楚的描述,本文不再赘述。
定位装置103可以通过以下方式来得到射击者位置信息:
1)通过对当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
2)通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
3)定位装置可选为深度图像传感器,通过获取所述真实射击场景的图像深度和色彩数据来计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
应注意,还可设置多个投影仪从不同角度显示真实射击场景,使得显示的真实射击场景既可以是平面的射击场景,也可以是立体的射击场景。有关不同维度射击场景的显示方面的内容已经在现有技术中做了清楚的描述,本文不再赘述。此外,显示装置并非仅限于图1中描述的投影方式(即投影仪105和投影幕106),也可采用其他显示方式(如显示屏等)。
在具体实现过程中,定位装置103、发送装置104可以设置在图像拍摄装置102中,或者定位装置103和发送装置104两者之一设置在图像拍摄装置102中。图像拍摄装置102、定位装置103、发送装置104三者的具体设置并不局限于图1所示。
本发明的模拟射击系统原理简单来讲如下所述:两组射击者分别位于两个房间里,每个房间可以根据需要装饰成任意色彩组合的环境。采用摄像机按场频实时对射击者进行拍摄,然后将拍摄到的“射击者+真实环境”的视频图像(还可以此视频流图像的基础上叠加由图形工作站生成的三维虚拟物体最终生成“射击者+真实环境+虚拟物体”的视频图像),通过视频线或网络等方式传输到另一房间里,由高清晰度投影系统投射到另一房间中射击者的对面墙上,射击者定位系统同时计算出射击者在投影图像内的平面区域,这样,每个房间的射击者就可以看到另一组射击者,双方可以使用真枪或仿真枪(激光枪、红外枪等)实时进行对战射击,射击定位系统可以实时捕获枪弹的落点,结合射击者定位系统计算出的射击者在投影图像内的平面区域就可实时判断参战人员是否被子弹击中并给出身体中弹的位置。
对射击者的定位可以采用多种方法实现,例如:
方法一、采用图像对比方法实现,即将摄像机拍摄的“射击者+真人”的当前帧的视频图像和前一帧的视频图像做图像分析和图像比对,来分析射击者在投影视频图像中的区域;
方法二、采用图像识别的方法实现,利用图像的颜色特征、形状特征、纹理特征等对图像进行比较,例如在特定环境中要求射击者穿上单色衣服(例如蓝色、红色),根据色彩的图像识别即可判断射击者在投影视频图像中的区域;
方法三、直接采用色列公司3DV的ToF(time of flight)摄像头探测深度技术或者以色列PrimeSense公司的产品组合(PrimeSensor Reference Design、PrimeSense SoC、3D数据生成单元、光学元件及NITE处理中间件)即可得到射击环境中包括射击者在内的图像深度、色彩数据,由此可以判断射击者在投影视频图像中的区域。Time of Flight是计算光线飞行的时间。首先让装置发出脉冲光,并且在发射处接收目标物的反射光,藉由测量时间差算出目标物的距离。可以采用深度图像感应器、深度摄像头来实现深度数据的获取。
射击者之间不受物理空间和虚拟空间的限制:射击者之间的物理距离可以是相邻的两间房子,也可以是千里之遥的两个城市;射击者之间的虚拟距离可以任意设定,可以是25米、100米或是1000米,射击者和所处真实环境呈现的图像大小会根据他们之间的虚拟距离由三维渲染引擎自动保持正确的透视关系,子弹的弹道轨迹完全依据射击者之间的虚拟距离按照真实子弹的弹道轨迹进行仿真计算。
每个房间并不仅限制为一名射击者,可以是每组多人协同作战;另外也不仅限两个房间之间对战,可以实现多个房间之间同时作战。
摄像机可以为各种级别的专业或广播级摄像机,信号格式支持复合、YC、模拟分量YUV、DV、标清SDI和高清SDI,摄像机越好,射击者图像越清晰;视频图像采集卡为普通的图像采集卡或视频I/O卡,高清虚拟射击系统要求采用高清图像采集卡或高清视频I/O卡,能够按帧速率采集即可,按场频采集更好。
如上文所述,本发明提供的模拟射击对战平台由多个模拟射击系统组合而成,下面就对模拟射击对战平台进行描述。
图2是依据本发明一较佳实施例的模拟射击对战平台200的结构示意图。如图2所示,模拟射击对战平台200包括模拟射击系统202和222,为便于描述,模拟射击系统202和222内并未显示各自的定位装置和发送装置。模拟射击系统202内设置有摄像机206、投影仪208和投影幕210。模拟射击系统222内设置有摄像机226、投影仪228和投影幕230。模拟射击系统202的摄像机206与模拟射击系统222的投影仪228通信连接(应视为模拟射击系统202的发送装置与模拟射击系统222的显示装置通信连接),模拟射击系统222的摄像机226与模拟射击系统202的投影仪208通信连接(应视为模拟射击系统222的发送装置与模拟射击系统202的显示装置通信连接)。
在工作过程中,射击者204处于模拟射击系统202内。模拟射击系统202的摄像机206实时拍摄射击者204所处的真实射击场景,经处理后生成场景数据,发往模拟射击系统222的投影仪228,在模拟射击系统222的投影幕230上显示包含射击者204的真实射击场景232。同理,射击者224处于模拟射击系统222内。模拟射击系统222的摄像机226实时拍摄射击者224所处的真实射击场景,经处理后生成场景数据,发往模拟射击系统202的投影仪208,在模拟射击系统202的投影幕210上显示包含射击者224的真实射击场景212。
在具体实现过程中,构成模拟射击对战平台的模拟射击系统的数量并非仅限于图2中描述的两个,同时各个模拟射击系统之间还可采用各种连接方式进行连接,且每个模拟射击系统可关联多个射击者,下面就结合图3A和图3B来描述模拟射击对战平台的其他实施例。
图3A是依据本发明一较佳实施例的模拟射击对战平台300的结构示意图。如图3A所示,模拟射击对战平台300包括模拟射击系统302、304、306和308。各个模拟射击系统302~308通过互联网实现彼此之间通信连接,使用例如但不限于TCP/IP协议或串口协议来传送场景数据。这样一来,各个模拟射击系统302~308可不再局限于同一地理位置,彼此之间可能相隔千里。
图3B是依据本发明另一较佳实施例的模拟射击对战平台310的结构示意图。如图3所示,模拟射击对战平台310包括模拟射击系统312和322。模拟射击系统312关联射击者314和316,模拟射击系统322关联射击者324和326。如此一来,模拟射击系统312内显示的真实射击环境中将同时包含射击者324和326的图像,模拟射击系统322内显示的真实射击环境中将同时包含射击者314和316的图像,如图3B所示。
本发明还提供了模拟射击系统的工作方法,该方法包括场景数据的生成和显示两个部分,下面分别结合图4A~4B和图5进行描述。
图4A是依据本发明一较佳实施例的场景数据生成方法400的流程图。如图4所示,方法400开始于步骤402。
随后,在下一步骤404,实时拍摄包含射击者图像的真实射击场景。
随后,在下一步骤406,计算射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
随后,在下一步骤408,发送与真实射击场景对应的出站的场景数据,所述场景数据包含所述射击者位置信息。
最后,方法400结束于步骤410。
如上文所述,还可对射击者图像进行场景渲染,下面就结合图4B对这种情况进行描述。
图4B是依据本发明另一较佳实施例的场景数据生成方法400’的流程图。如图4B所示,方法400’开始于步骤402’。
随后,在下一步骤404’,实时拍摄包含射击者图像的真实射击场景。
随后,在下一步骤406’,对图像拍摄装置拍摄的真实射击场景进行场景渲染,生成经渲染后的真实射击场景。
随后,在下一步骤408’,计算射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
随后,在下一步骤410’,发送与经渲染后的真实射击场景对应的出站的场景数据,所述场景数据包含射击者位置信息。
最后,方法400’结束于步骤412’。
图5是依据本发明一较佳实施例的场景数据显示方法500的流程图。如图5所示,方法500开始于步骤502。
随后,在下一步骤504,接收进站场景数据。
随后,在下一步骤506,依据收到的进站场景数据(其中的真实射击场景对应的图像数据),显示与进站的场景数据对应的真实射击场景。
最后,方法500结束于步骤508。
本发明还提供了模拟射击对战平台的工作方法,该方法包括场景数据的生成和显示两个部分,下面分别结合图6和图7进行描述。
图6A是依据本发明一较佳实施例的场景数据生成方法600的流程图。如图6所示,方法600开始于步骤602。
随后,在下一步骤604,实时拍摄本模拟射击系统的包含射击者图像的真实射击场景;
随后,在下一步骤606,计算相关联的射击者图像在真实射击场景中的位置,生成射击者位置信息;
随后,在下一步骤608,将真实射击场景对应的场景数据彼此发往其他模拟射击系统,场景数据包含射击者位置信息;
最后,方法600结束于步骤610。
如上文所述,还可对射击者图像进行场景渲染,下面就结合图6B对这种情况进行描述。
图6B是依据本发明另一较佳实施例的场景数据生成方法600’的流程图。如图6B所示,方法600’开始于步骤602’。
随后,在下一步骤604’,实时拍摄本模拟射击系统的包含射击者图像的真实射击场景;
随后,在下一步骤606’,对拍摄的真实射击场景进行场景渲染,生成经渲染后的真实射击场景;
随后,在下一步骤608’,计算相关联的射击者图像在真实射击场景中的位置,生成射击者位置信息。
随后,在下一步骤610’,发送与经渲染后的真实射击场景对应的出站的场景数据,所述场景数据包含射击者位置信息。
最后,方法600’结束于步骤612’。
图7是依据本发明一较佳实施例的场景数据显示方法700的流程图。如图7所示,方法700开始于步骤702。
随后,在下一步骤704,接收来自其他模拟射击系统的场景数据。
随后,在下一步骤706,依据收到的场景数据(其中的真实射击场景对应的图像数据),显示对应的真实射击场景。
最后,方法700结束于步骤708。
本发明采用摄像机拍摄真实射击场景,并将拍摄到的视频图像直接输出到对方所在房间的视频显示装置(或者计算机采集所拍摄的射击者图像,通过图像技术实现射击者真人及所处真实环境和虚拟物体的融合,再显示在对方所在房间的视频显示装置),并实现进行各种计算后获取射击者在视频显示装置上的平面区域位置来和弹着点在视频显示装置上的位置进行比对,从而实现射击者之间基于真枪或仿真枪进行真人实时对战射击的三维虚拟射击系统(或称为模拟射击系统、模拟对搏系统、模拟对战系统等)。能够真实呈现射击者所处的真实环境,无需对拍摄图像进行复杂处理,降低了真人对抗模拟射击中的图像处理的复杂度。
Claims (20)
1.一种真人对抗模拟射击系统,其特征在于,包括:
图像拍摄装置,用于实时拍摄包含射击者图像的真实射击场景;
定位装置,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
发送装置,用于发送与所述真实射击场景对应的出站的场景数据,其中所述场景数据包含与该真实射击场景相对应的图像数据和射击者在该真实射击场景中的位置信息;
显示装置,用于接收进站的场景数据,显示与所述进站的场景数据中的图像数据对应的真实射击场景,并依据所述进站的场景数据中包含的射击者位置信息得到对方射击者在显示的真实射击场景中的位置。
2.根据权利要求1所述的真人对抗模拟射击系统,其特征在于,还包括:
场景渲染装置,用于对所述图像拍摄装置拍摄的所述真实射击场景进行场景渲染,生成经渲染后的真实射击场景,经发送单元发送出去。
3.根据权利要求1或2所述的真人对抗模拟射击系统,其特征在于,所述定位装置通过对当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
4.根据权利要求1或2所述的真人对抗模拟射击系统,其特征在于,所述定位装置通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
5.根据权利要求1或2所述的真人对抗模拟射击系统,其特征在于,所述定位装置为深度图像传感器,通过获取所述真实射击场景的图像深度和色彩数据来计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
6.一种真人对抗模拟射击对战平台,其特征在于,包括通信连接的至少两个真人对抗模拟射击系统,每个真人对抗模拟射击系统包括:
图像拍摄装置,用于实时拍摄与该真人对抗模拟射击系统相关联的包含射击者图像的真实射击场景;
定位装置,用于计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
发送装置,用于将与所述真实射击场景对应的出站的场景数据发送至至少另一真人对抗模拟射击系统,其中所述场景数据包含与该真实射击场景相对应的图像数据和射击者在该真实射击场景中的位置信息;
显示装置,用于接收来自所述至少另一真人对抗模拟射击系统的场景数据,显示与收到的场景数据中的图像数据对应的真实射击场景,并依据所述进站的场景数据中包含的射击者位置信息得到对方射击者在显示的真实射击场景中的位置。
7.根据权利要求6所述的真人对抗模拟射击对战平台,其特征在于,每个真人对抗模拟射击系统还包括:
场景渲染装置,用于对所述图像拍摄装置拍摄的与该系统相关联的所述真实射击场景进行场景渲染,生成该系统对应的经渲染后的真实射击场景,经该系统的发送单元发送至至少另一真人对抗模拟射击系统。
8.根据权利要求6或7所述的真人对抗模拟射击平台,其特征在于,每个真人对抗模拟射击系统的定位装置通过对与该系统相关联的当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成该系统的射击者位置信息。
9.根据权利要求6或7所述的真人对抗模拟射击平台,其特征在于,每个真人对抗模拟射击系统的定位装置通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成该系统的射击者位置信息。
10.根据权利要求6或7所述的真人对抗模拟射击平台,其特征在于,每个真人对抗模拟射击系统的定位装置为深度图像传感器,通过获取所述真实射击场景的图像深度和色彩数据来计算所述射击者图像在所述真实射击场景中的位置,生成该系统的射击者位置信息。
11.一种真人对抗模拟射击方法,其特征在于,包括以下步骤:
实时拍摄包含射击者图像的真实射击场景;
计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息;
发送与所述真实射击场景对应的出站的场景数据,其中所述场景数据包含与该真实射击场景相对应的图像数据和射击者在该真实射击场景中的位置信息;
接收进站的场景数据,显示与所述进站的场景数据中的图像数据对应的真实射击场景,并依据所述进站的场景数据中包含的射击者位置信息得到对方射击者在显示的真实射击场景中的位置。
12.根据权利要求11所述的真人对抗模拟射击方法,其特征在于,还包括:
对所述图像拍摄装置拍摄的所述真实射击场景进行场景渲染,生成经渲染后的真实射击场景。
13.根据权利要求11或12所述的真人对抗模拟射击方法,其特征在于,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息具体包括:
通过对当前真实射击场景和前一真实射击场景进行比较,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
14.根据权利要求11或12所述的真人对抗模拟射击方法,其特征在于,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息具体包括:
通过色彩识别计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
15.根据权利要求11或12所述的真人对抗模拟射击方法,其特征在于,计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息具体包括:
通过深度图像传感器获取所述真实射击场景的图像深度和色彩数据,以计算所述射击者图像在所述真实射击场景中的位置,生成射击者位置信息。
16.一种真人对抗模拟射击对战方法,其特征在于,由至少两个真人对抗模拟射击系统分别执行:
实时拍摄各自相关联的包含射击者图像的真实射击场景;
计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息;
将各自真实射击场景对应的场景数据彼此发送至对方,其中所述场景数据包含与该真实射击场景相对应的图像数据和射击者在该真实射击场景中的位置信息;
接收来自对方的场景数据,显示对应的真实射击场景,并依据所述场景数据中包含的射击者位置信息得到对方射击者在显示的真实射击场景中的位置。
17.根据权利要求16所述的真人对抗模拟射击对战方法,其特征在于,还包括:
对各自的图像拍摄装置拍摄的真实射击场景进行场景渲染,生成经渲染后的真实射击场景。
18.根据权利要求16或17所述的真人对抗模拟射击对战方法,其特征在于,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息具体包括:
通过对当前真实射击场景和前一真实射击场景进行比较,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息。
19.根据权利要求16或17所述的真人对抗模拟射击对战方法,其特征在于,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息具体包括:
通过色彩识别计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息。
20.根据权利要求16或17所述的真人对抗模拟射击对战方法,其特征在于,计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息具体包括:
通过深度图像传感器获取各自真实射击场景的图像深度和色彩数据,以计算各自相关联的射击者图像在各自真实射击场景中的位置,生成射击者位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110031141 CN102166414B (zh) | 2011-01-28 | 2011-01-28 | 一种真人对抗模拟射击系统、对战平台及其操作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110031141 CN102166414B (zh) | 2011-01-28 | 2011-01-28 | 一种真人对抗模拟射击系统、对战平台及其操作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102166414A CN102166414A (zh) | 2011-08-31 |
CN102166414B true CN102166414B (zh) | 2013-10-09 |
Family
ID=44487851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110031141 Expired - Fee Related CN102166414B (zh) | 2011-01-28 | 2011-01-28 | 一种真人对抗模拟射击系统、对战平台及其操作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102166414B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111025935A (zh) * | 2019-12-23 | 2020-04-17 | 北京世纪联信科技有限公司 | 一种基于机器视觉的抛射物落点实景仿真系统及方法 |
CN111589101A (zh) * | 2020-05-22 | 2020-08-28 | 福建启森科技有限公司 | 一种无线体感模拟对抗系统及其对抗方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101614504A (zh) * | 2008-06-24 | 2009-12-30 | 刘林运 | 一种真人对抗模拟射击系统、对战平台及其操作方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1157206A (ja) * | 1997-08-25 | 1999-03-02 | Nippon Telegr & Teleph Corp <Ntt> | 景観ラベル利用型射撃ゲームシステム |
JP2939231B1 (ja) * | 1998-03-05 | 1999-08-25 | 株式会社ナムコ | 画像生成装置及び情報記憶媒体 |
JP3611807B2 (ja) * | 2001-07-19 | 2005-01-19 | コナミ株式会社 | ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム |
-
2011
- 2011-01-28 CN CN 201110031141 patent/CN102166414B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101614504A (zh) * | 2008-06-24 | 2009-12-30 | 刘林运 | 一种真人对抗模拟射击系统、对战平台及其操作方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102166414A (zh) | 2011-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN205537314U (zh) | 一种3d虚拟现实实战训练系统 | |
JP6715441B2 (ja) | 拡張現実表示システム、端末装置および拡張現実表示方法 | |
CN207503485U (zh) | 军警影像射击训练系统 | |
CN102735100B (zh) | 一种采用增强现实技术的单兵轻武器射击训练的方法和系统 | |
KR102077108B1 (ko) | 콘텐츠 체험 서비스 제공 장치 및 그 방법 | |
CN107016704A (zh) | 一种基于增强现实的虚拟现实实现方法 | |
CN201819618U (zh) | 虚拟影像型对抗射击训练系统 | |
CN107469343B (zh) | 虚拟现实交互方法、装置及系统 | |
US20160298930A1 (en) | Target practice system | |
CN110969905A (zh) | 混合现实的远程教学互动、教具互动系统及其互动方法 | |
CN107341832A (zh) | 一种基于红外定位系统的多视角切换拍摄系统和方法 | |
WO2013111146A2 (en) | System and method of providing virtual human on human combat training operations | |
CN103543827A (zh) | 基于单个摄像机的沉浸式户外活动交互平台的实现方法 | |
JP2022501748A (ja) | 立体ストライクゾーンの表示方法及び装置 | |
CN103599631A (zh) | 基于机器视觉的飞碟模拟训练系统及方法 | |
WO2016204617A2 (en) | Game controller | |
CN201263884Y (zh) | 一种室内模拟射击系统 | |
CN102166414B (zh) | 一种真人对抗模拟射击系统、对战平台及其操作方法 | |
CN116850602A (zh) | 一种混合现实碰碰车游乐系统 | |
CN209541534U (zh) | 一种兼容模拟弹和实弹的影像对抗训练系统 | |
CN113992974B (zh) | 模拟参赛的方法、装置、计算设备及计算机可读存储介质 | |
US20150050622A1 (en) | 3d scenario recording with weapon effect simulation | |
CN101614504B (zh) | 一种真人对抗模拟射击系统、对战平台及其操作方法 | |
CN201251405Y (zh) | 一种真人对抗模拟射击系统和真人对抗模拟射击对战平台 | |
KR101586651B1 (ko) | 증강현실을 이용한 멀티플레이 로봇게임 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131009 Termination date: 20200128 |