CN110360877B - 一种射击训练智能辅助系统及方法 - Google Patents
一种射击训练智能辅助系统及方法 Download PDFInfo
- Publication number
- CN110360877B CN110360877B CN201910505484.8A CN201910505484A CN110360877B CN 110360877 B CN110360877 B CN 110360877B CN 201910505484 A CN201910505484 A CN 201910505484A CN 110360877 B CN110360877 B CN 110360877B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- shooting
- impact point
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41A—FUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
- F41A33/00—Adaptations for training; Gun simulators
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J5/00—Target indicating systems; Target-hit or score detecting systems
- F41J5/14—Apparatus for signalling hits or scores to the shooter, e.g. manually operated, or for communication between target and shooter; Apparatus for recording hits or scores
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
本发明公开一种射击训练智能辅助系统及方法,包括智能触发,识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测;智能视觉,由热相机拍摄打靶图片采集数据,并将采集数据发送;打靶智能判定,对传送来的采集数据处理分析,并结合声音触发,通过逻辑判定算法最终确认打靶位置;智能存储显示,存储并显示训练结果。系统能够矫正射击姿势,加速提高射击水平;利用热能成像的原理,对子弹的着弹点进行定位;再通过打靶智能判定,对采集打靶数据处理分析并且结合声音触发,实现对射击成绩具有一个准确的识别和判定,训练结果实现智能存储统计管理并显示,整个系统给射击训练带来极有效的辅助作用,能够有效提高射击训练的成果。
Description
技术领域
本发明涉及智能处理装置及技术领域,具体是指一种射击训练智能辅助系统及方法。
背景技术
目前,国内外现有的射击训练系统的报靶方法有实际弹着点的光电定位方法或者纸屏的人工报靶方法。这两种方法一种要在靶的内部或周边安装有光电定位探头,既增加了靶纸自身加工的难度,又使日常的维护比较复杂。现有的靶纸有可多次使用的橡胶材质的靶纸,可多次重复使用,实弹直接穿透,人工报靶根本无法实现。目前具有自闭性能的橡胶靶纸(因有自闭性能,子弹穿过后仅留下一个很小的弹着点,直径约1mm左右),当训练次数增多时,密集的弹着点常规的方法分辨很是困难,对子弹的弹着点很难进行定位,大大限制了射击训练成效。
发明内容
本发明的目的在于提供一种射击训练智能辅助系统及方法,给射击训练带来极有效的辅助作用,能够有效提高射击训练的成果。
为了达成上述目的,本发明的解决方案是:
一种射击训练智能辅助系统,包括:
智能触发模块,识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测;
智能视觉模块,由热相机拍摄打靶图片采集数据,并将采集数据发送;
打靶智能判定模块,对传送来的采集数据处理分析,并结合声音触发,通过逻辑判定算法最终确认打靶位置;
智能存储显示模块,存储并显示训练结果。
所述打靶智能判定模块包括图像采集处理单元、着弹点检测单元及着弹点映射单元;
图像采集处理单元,对热相机获取的原始数据处理,生成方便检测和观察的图像;
着弹点检测单元,根据生成的图像,识别出着弹点在图像中的位置;
着弹点映射单元,将着弹点在图像位置与着弹点在靶上位置作映射处理,最终计算还原得到子弹打到靶上的实际位置。
所述图像采集处理单元,使用原始数据进行处理,通过图像映射算法,最终生成方便检测观察且着弹点突出显示的图像;所述图像映射算法是通过设置温度阈值定义映射关系,图像中大于Y℃的温度点就当Y℃处理,相应地低于X℃的温度点当X℃处理,把X℃-Y℃的温度范围分若干个范围映射到0-255数值中,所述Y取值范围100-110,X取值范围10-20。
所述图像采集处理单元,使用原始数据进行处理,根据实际数据动态调节映射关系,对获得的原始数据进行统计或者对原始数据中感兴趣区域进行数据统计,根据统计结果找到区域中温度集中的范围;映射数值设置中将该温度范围对应的图像色阶区域作拓广设置。
所述着弹点检测单元,对生成的图像先采用图像掩码算法对靶之外的图像作屏蔽处理,再进行着弹点检测;着弹点检测完后,对所有的检测结果再进行温度对比过滤排除靶内可能出现的噪点,最终准确地识别出着弹点在图像中的位置。
所述着弹点映射单元的映射处理算法如下:
获取数据,获取靶设计模型正向图像的对应设计图轮廓的信息数据;获取实际拍摄的侧向图像中对应实拍图轮廓的信息数据;
映射关系建立,实拍图轮廓与设计图轮廓间建立X方向缩放映射关系;设计图轮廓与靶设计模型间一一对应映射关系;
靶上着弹点计算,基于识别出的着弹点在图像中的位置信息,根据映射计算得到着弹点在靶上的实际位置,并于对应靶设计模型上标记出着弹点。
所述着弹点映射单元的映射处理算法如下:
获取数据,获取靶的三维模型数据;
获取映射表,在靶上做标记点,通过着弹点检测算法识别出此标记点在图像上的位置,记录下靶上一点P(Px,Py,Pz)与图像上一点P(Pu,Pv)的对应关系;对所有位置进行标记完成之后,得到一个P(Px,Py,Pz)P(Pu,Pv)的映射表,把映射表存入系统;
着弹点位置计算,基于识别出的着弹点在图像中的位置P(Pu,Pv),通过查找表找到相应的点P(Px,Py,Pz),即得出子弹打到靶上的实际位置为P(Px,Py,Pz)。
着弹点显示,根据靶的三维数据使用正交投影矩阵计算出靶在二维图像上的点数据,于对应二维靶设计模型上标记出着弹点。
所述着弹点映射单元的映射处理算法如下:
获取数据,获取靶的三维模型数据,热相机的参数,热相机与靶的相对位置关系,以此得出虚拟拍摄图像;
着弹点位置计算,基于识别出的着弹点在图像中的位置信息,以此位置作为着弹点在虚拟图像中的位置,进而计算出相应的靶的三维数据上的该点;
着弹点显示,根据靶的三维数据计算出靶正面的正交投影及着弹点在靶正面的正交投影,于对应二维靶设计模型上标记出着弹点。
所述打靶智能判定模块还包括评分单元,根据射击训练需求定义评分成绩,并统计总成绩,最后保存数据。
所述智能触发模块包括对象识别单元和声音触发单元;
对象识别单元,人脸识别训练人员基本信息,以及判断训练人员的射击姿势;
声音触发单元,收集声音的波形分贝,识别训练人员开枪声音,并基于开枪声音触发视觉采集及检测。
所述智能存储显示模块,包括云存贮单元和终端显示单元;
云存贮单元,用于将打靶数据进行统计,通过系统传送到总台服务器云端,进行数据记录;
终端显示单元:对训练结果进行显示。
系统还包括环境信息监测模块,用于采集监测射击环境的常规环境因素,并将采集数据发送给存储显示模块。
一种射击训练智能辅助方法,主要包括以下步骤:
智能触发,识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测;
智能视觉采集,由热相机拍摄打靶图片采集数据,并将采集数据发送;
打靶智能判定,对传送来的采集数据处理分析,并结合声音触发,通过逻辑判定算法最终确认打靶实际位置;
智能存储显示,存储并显示训练结果。
所述打靶智能判定步骤,包括以下步骤:
图像采集处理,对热相机获取的原始数据处理,生成方便检测和观察的图像;
着弹点检测,根据生成的图像,识别出着弹点在图像中的位置;
着弹点映射,将着弹点在图像位置与着弹点在靶上实际位置作映射处理,最终计算还原得到子弹打到靶上的实际位置。
所述图像采集处理步骤,使用原始数据进行处理,通过图像映射算法,最终生成方便检测观察且着弹点突出显示的图像;所述图像映射算法是通过设置温度阈值定义映射关系,图像中大于Y℃的温度点就当Y℃处理,相应地低于X℃的温度点当X℃处理,把X℃-Y℃的温度范围分若干个范围映射到0-255数值中,所述Y取值范围100-110,X取值范围10-20。
所述图像采集处理步骤,使用原始数据进行处理,根据实际数据动态调节映射关系,对获得的原始数据进行统计或者对原始数据中感兴趣区域进行数据统计,根据统计结果找到区域中温度集中的范围;映射数值设置中将该温度范围对应的图像色阶区域作拓广设置。
所述着弹点检测步骤,对生成的图像先采用图像掩码算法对靶之外的图像作屏蔽处理,再进行着弹点检测;着弹点检测完后,对所有的检测结果再进行温度对比过滤排除靶内可能出现的噪点,最终准确地识别出着弹点在图像中的位置。
所述着弹点映射,其处理算法如下:
获取数据,获取靶设计模型正向图像的对应设计图轮廓的信息数据;获取实际拍摄的侧向图像中对应实拍图轮廓的信息数据;
映射关系建立,实拍图轮廓与设计图轮廓间建立X方向缩放映射关系;设计图轮廓与靶设计模型间一一对应映射关系;
靶上着弹点计算,基于识别出的着弹点在图像中的位置信息,根据映射计算得到着弹点在靶上的实际位置,并于对应靶设计模型上标记出着弹点。
所述着弹点映射,其处理算法如下:
获取数据,获取靶的三维模型数据;
获取映射表,在靶上做标记点,通过着弹点检测算法识别出此标记点在图像上的位置,记录下靶上一点P(Px,Py,Pz)与图像上一点P(Pu,Pv)的对应关系;对所有位置进行标记完成之后,得到一个P(Px,Py,Pz)P(Pu,Pv)的映射表,把映射表存入系统;
着弹点位置计算,基于识别出的着弹点在图像中的位置P(Pu,Pv),通过查找表找到相应的点P(Px,Py,Pz),即得出子弹打到靶上的实际位置为P(Px,Py,Pz)。
着弹点显示,根据靶的三维数据使用正交投影矩阵计算出靶在二维图像上的点数据,于对应二维靶设计模型上标记出着弹点。
所述着弹点映射,其处理算法如下:
获取数据,获取靶的三维模型数据,热相机的参数,热相机与靶的相对位置关系,以此得出虚拟拍摄图像;
着弹点位置计算,基于识别出的着弹点在图像中的位置信息,以此位置作为着弹点在虚拟图像中的位置,进而计算出相应的靶的三维数据上的该点。
着弹点显示,根据靶的三维数据计算出靶正面的正交投影及着弹点在靶正面的正交投影,于对应二维靶设计模型上标记出着弹点。
所述打靶智能判定步骤,还包括评分步骤,根据射击训练需求定义评分成绩,并统计总成绩,最后保存数据。
所述智能触发步骤,包括:
对象识别,人脸识别训练人员基本信息,以及判断训练人员的射击姿势;
声音触发,收集声音的波形分贝,识别训练人员开枪声音,并基于开枪声音触发视觉采集及检测。
所述智能存储显示步骤,包括:
云存贮,将打靶数据进行统计,通过系统传送到总台服务器云端,进行数据记录;
终端显示,对训练结果进行显示。
所述智能辅助方法,还包括步骤:环境信息监测,采集监测射击环境的常规环境因素,并将采集数据发送至存储显示。
采用上述方案后,本发明一种射击训练智能辅助系统及方法,相对于现有技术的有益效果在于:本发明射击训练智能辅助系统及方法,首先系统智能触发是基于开枪声音来判定是否开始激发系统运行,于此同时还通过识别训练人员的信息数据,以此来判别训练人员及判断其射击姿势,利于射击姿势矫正,加速提高射击水平;智能视觉采用热相机来采集打靶数据,利用热能成像的原理,对子弹的着弹点进行定位;再通过打靶智能判定,对采集打靶数据处理分析并且结合声音触发,通过逻辑判定实现对射击成绩具有一个准确的识别和判定,训练结果实现智能存储统计管理并显示,整个系统给射击训练带来极有效的辅助作用,能够有效提高射击训练的成果。
附图说明
图1本发明射击训练智能辅助系统的原理示意图;
图2本发明射击训练智能辅助方法的原理流程图;
图3本发明打靶智能判定方法的原理流程图;
图4-1是着弹点在拍摄靶图像中的位置显示的示意图;
图4-2是着弹点在实际靶中的位置显示的示意图;
图5-1是靶的正面图像的示意图;
图5-2是靶正面图像的整体轮廓处理图;
图5-3是拍摄到的靶侧向图像的示意图;
图5-4是拍摄到的靶侧向图像的轮廓处理图;
图5-5是轮廓重合调整示意图;
图5-6是生成对应左轮廓、中线数据的示意图;
图5-7是生成对应右轮廓、中线数据的示意图;
图5-8是X方向缩放计算得示意图;
图5-9是靶图像映射示意图;
图6-1是图像A和图像B示意图;
图6-2是图像A和图像C示意图;
图7-1是本系统设备设计布置第一实施例示意图;
图7-2是本系统设备设计布置第二实施例示意图。
标号说明
智能触发模块100,对象识别单元101,声音触发单元102,
智能视觉模块200,打靶智能判定模块300,图像采集处理单元301,
着弹点检测单元302,着弹点映射单元303,评分单元304,
智能存储显示模块400,云存贮单元401,终端显示单元402。
具体实施方式
下面结合具体实施方式对本案作进一步详细的说明。
本案涉及一种射击训练智能辅助系统,如图1所示,系统主要包括智能触发模块100、智能视觉模块200、打靶智能判定模块300及智能存储显示模块400。
所述智能触发模块100,用于识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测。具体设计中,智能触发模块100包括对象识别单元101和声音触发单元102,;对象识别单元101用于人脸识别训练人员基本信息,以及判断训练人员的射击姿势,并实现矫正射击姿势效果;对象识别单元101具体可采用高速相机或高清相机来实现。声音触发单元102用于收集声音的波形分贝,识别训练人员开枪声音,并基于开枪声音触发系统运行,包括视觉采集及检测(触发智能视觉模块200)。声音触发单元102具体可以采用手环的形式佩戴在训练人员上,或者其他可以简易稳固定位在射击训练枪支上的形式。
声音触发会对应到每一次射击时看子弹的射击位置(包括是否脱靶以及是否会有其他人打错靶等情况),会和智能视觉模块(IR采集模块)进行配合操作,摒弃之前的射击数据,只保留当前射击的数据,以便对射击做出精确的判定。为了实现一对一的数据判定,采用对现场的声音会进行滤波处理,射击时的声音分贝在60-100之间,同时声音的衰减与距离有关,对此进行算法的处理,滤掉杂音,可以有效地排除其他射击者的干扰。
智能视觉模块200,由热相机拍摄打靶图片采集数据,并将采集数据发送。即智能视觉模块200采用热相机(具体可以为红外热相机),负责拍摄子弹击中靶位置。因在实弹操作过程中采集图像的热相机无法正向面对靶面,因此具体设计中,热相机进行拍摄可以采用单侧向单相机拍摄(作为本案具体实施例)、双侧向双相机拍摄,以及室内顶部悬吊相机拍摄模式、野外底部仰角拍摄模式。因无法正面拍摄其拍摄图片,故而在与实体的位置坐标对应上会采用新颖的映射软件算法(具体参见后续阐述)进行一一匹配。热相机距离橡胶靶纸有一定的距离(常规距离一般小于2m)和角度(一般在45-70度之间)。每款相机都会选择合适的分辨率和匹配的镜头,但必须保证弹着点的成像大小至少含有2-3个像素单元,这样可以避免数据跳动可能造成假阳性的结果,很好的保证成像位置的判别,不会引起误差。在本案中调用热相机本身的Y16的数据对图像进行在处理,可以很好地呈现出弹着点的位置。
本设计方案把子弹的热能分析作为打靶开启以及靶标识别的重要参考因素。子弹的温度来源于两个方面,一是火药燃烧作用,二是与空气高速磨擦产生热能;子弹出膛的温度取决于两个因素,一个是发射药的爆燃温度,再一个是子弹与枪膛内壁的摩擦。弹头出膛时会有几十度,步枪子弹弹头温度会有100多度。子弹在有效射程内击中物体时的温度会因与物体本身摩擦产生温度,从而在击中物体的局部产生温度升高。某个物体发出的能量通过光学镜头聚焦在探测器上。探测器向传感器电子元件发送信息,进行图像处理。热成像是一种热辐射图像的技术,该技术可从图像中读取温度值。因此,热辐射图像中的各个像素实际上都是一个温度测量点。热能相机内置了复杂的算法来完成温度测量工作,对于这种具有自闭性能的橡胶靶纸而降,子弹穿过后留下的热能是一个很好的判定凭借,而且随着时间变化,温度也发生变化,这对于射击顺序的判定有很好的辅助左右,因此本案采用热相机来精准判定弹着点,起到很好的辅助射击训练。
打靶智能判定模块300,对智能视觉模块200传送来的采集数据处理分析,并结合声音触发(即同时配合高速相机以便进行视频分析),通过逻辑判定算法最终确认得真实有效的打靶位置,很好地避免误报漏报等问题,大大提升报靶准确率。当然同时还进行批量统计实际有效分数。所述智能判定逻辑简单示意如下:
声音 | Y | N | Y |
图像(IR) | Y | Y | N |
判定结果 | Y(有效) | N(无效) | N(脱靶) |
所述智能存储显示模块400,用于存储并显示训练结果。具体设计中,智能存储显示模块400包括云存贮单元401和终端显示单元402。云存贮单元401,用于将打靶数据进行统计,通过系统传送到总台服务器云端,进行数据记录。终端显示单元402用于对训练结果进行显示。具体设计中,精简版的射击可以将所有的数据同时传输到云存贮空间进行数据处理,然后分发到各个终端显示单元进行显示,也可以将打靶智能判定模块与终端显示单元公用,数据分析后一面进行终端显示一面数据发送云存贮单元进行分析对比。
优选的,系统还包括环境信息监测模块,用于采集监测射击环境的常规环境因素(比如射击环境风向,风力大小,温度,湿度等),并将采集数据发送给存储显示模块400。
打靶智能判定模块300是本案辅助系统最关键的模块,其是决定训练结果精准性、直接影响训练效果的关键所在。作为打靶智能判定模块300优选实施方式,包括图像采集处理单元301、着弹点检测单元302及着弹点映射单元303。
所述图像采集处理单元301用于对热相机获取的原始数据处理,生成方便检测和观察的图像。对本案基于热能图像识别着弹点的技术,图像数据采集是最关键的。而现在的摄像头接口中一般会给两种类型的数据,一种是原始数据,其数据形式有raw数据或转换后的温度数据等。这类数据一般比较大,无法用图像直观显示;另外一种是伪彩图,其数据是转换成一般的图像数据,可以直观地显示出来。由于打靶训练的环境温度是不确定的,伪彩图像呈现的数据中,不能把着弹点和靶很好区分开,这时数据压缩的过程中导致的一些信息丢失,无法适用于复杂环境下靶场打靶的情景。为了避免这一现象,采用使用原始数据进行处理,通过一系列算法处理,使之能适应于复杂环境下靶场打靶的图像信息获取,使之成为既能不丢失重要信息,又能直观显示出来的图像。
所述图像采集处理单元301,其数据处理的具体方法一,使用原始数据进行处理,通过图像映射算法,最终生成方便检测观察且着弹点突出显示的图像。所述图像映射算法是通过设置温度阈值定义映射关系,图像中大于Y℃的温度点就当Y℃处理,相应地低于X℃的温度点当X℃处理,把X℃-Y℃的温度范围分若干个范围映射到0-255数值中,所述Y取值范围100-110,X取值范围10-20。具体优选实施例中,Y取值105,X取值15。
具体来讲,所述数据处理的具体方法一,将原始数据看成是一个二维数组,数组中每个元素对应图像中一个像素,一个数组元素的数据长度是216,把这个长度数据转换成一般可见的图像数据就需要一定的映射关系。以原始数据转为一般格式灰度图为例:一般灰度图像的像素大小为28。而原始数据对应的每个像素的数据长度是216,要把216数据映射到28中,就要丢弃一些数据。这里就针对本系统的特点设置合理阈值作映射。经过实际测量,子弹打到温度在15℃左右的硅胶靶上时,能产生105℃以上的温度。而一般打靶训练的温度在15℃以上(即靶的温度大概是15℃)。因此,图像中大于105℃的温度点就当105℃处理,相应地低于15℃的温度点当15℃处理。对于人的肉眼而言,在灰度图中,像素值低于一定大小时(如120),肉眼基本会认为是黑色,因此实际处理的时候会把15℃-105℃的温度范围分几个范围映射到0-255数值中。例如:温度在15℃-35℃的像素点映射到灰度图中,其值为0-120之间,而温度在35-65℃的像素点映射到灰度图中的值为120-150之间,如此类推;具体分几个范围及范围阈值可以自行设定调整。
所述图像采集处理单元301,其数据处理的具体方法二,使用原始数据进行处理,根据实际数据动态调节映射关系,对获得的原始数据进行统计或者对原始数据中感兴趣区域进行数据统计(类似图像处理中的颜色直方图统计),根据统计结果找到区域中温度集中的范围;映射数值设置中将该温度范围对应的图像色阶区域作拓广设置,即设置广一些,这样处理就能丰富图像中的色彩层次关系,相应的细节保留的更多,对应着弹点会非常突出地显示出来。
所述着弹点检测单元302用于根据图像采集处理单元301采集并生成的图像,识别出着弹点在图像中的位置。具体来说,对生成的图像先采用图像掩码算法对靶之外的图像作屏蔽处理,再进行着弹点检测;着弹点检测完后,对所有的检测结果再进行温度对比过滤排除靶内可能出现的噪点,最终准确地识别出着弹点在图像中的位置。
由于子弹在穿透硅胶靶的时候会产生大量的热,把击中的点的硅胶温度加热到105℃以上。利用摄像头拍摄硅胶靶的图像中,着弹点的在图像中为一个异常的亮点。检测中,使用传统的斑点检测算法(或者霍夫圆检测等)可以检测出来,但是同时也会存在一些噪点被误检测为着弹点的现象。这些误检测出来的噪点中,大部分是在靶外面的坏境因素造成的。故在检测之前加上图像掩码算法,对靶之外的图像不予运行斑点检测。具体做法是固定摄像头拍摄位置(相对靶的位置)之后,先对拍摄出图像对靶进行检测,检测完成之后记录下靶在图像中的成像位置,之后在对着弹点进行检测的时候就按检测好的靶的位置对图像进行相应的操作。在检测完着弹点后,对所有的检测结果再进行温度对比过滤,这样就很好地排除了一些靶内可能出现的噪点。检测完成后,对检测结果进行保存即可。
所述着弹点映射单元303用于将着弹点在图像位置(着弹点检测单元302识别得到的)与着弹点在靶上位置作映射处理,最终计算还原得到子弹打到靶上的实际位置。为了使整个系统设备小型化便于运输搬运使用等,本系统热相机与靶间采用超近距(比如500mm)高仰角设置,于此为了利于有效拍摄,热相机的放置位置是靶的侧边,所拍摄出来的硅胶靶的图像是“侧脸照”,而统计成绩和显示结果的时候是用“正面照”(靶的设计三维数据的正面的正交投影)。拍摄的图像经过着弹点检测步骤后,确定着弹点在图像(侧向)中的位置,然后通过映射处理算法计算得到子弹打在靶(正向)上的位置。如图4-1为热相机直接拍摄的图像,图像上对应的点为着弹点检测算法检测出位置后在原图上做的标记。图4-2为经过映射处理最终检测到的着弹点在硅胶靶的“正面照”的位置。所述映射处理算法是决定着弹点位置定位精准性的关键所在,下面通过三个映射处理算法来进一步阐述。
实施例一,所述着弹点映射单元303的映射处理算法如下:
S311获取数据,获取靶设计模型正向图像的对应设计图轮廓的信息数据;获取实际拍摄的侧向图像中对应实拍图轮廓的信息数据;
所述靶设计模型正向图像的对应设计图轮廓的信息数据获取,具体为,根据厂商对靶的设计,得到靶的正面图像(如图5-1);之后对该图像进行处理,算出图像的整体轮廓及轮廓图在设计图中的起始位置(如图5-2)。
所述实际拍摄的侧向图像中对应实拍图轮廓的信息数据获取,具体为,获取热相机拍摄到的图像,该图像包含实际靶中的左边轮廓,中线,右边轮廓的标记线(参见图5-3)。由于遮挡关系,靶远离热相机一端的标记线会无法拍摄到,而离热相机近的一端会拍摄到标记线以外的东西(靶的背面,对于靶正面投影是看不到的)。对于左边的标记线,以拍到图像的边缘近似看做是标记线。通过算法获取左、中、右轮廓线数据(参见图5-4),保存好数据。
在热相机拍摄到的图像中画上轮廓图,通过调整轮廓图的大小,起始位置,最大限度使之与热相机拍摄到的图像的轮廓重合(参见图5-5)。位置大小调整好以后,记录下此时轮廓图的缩放比例及在热相机拍摄到的图中的起始位置,并生成左轮廓、中线、右轮廓的数据(参见图5-6、5-7)。生成图5-6、5-7的数据算法,就是计算的轮廓的点数据,每一行保留两个点,最左边的点和最右边的点,再根据两个点算出中间的点。
S312映射关系建立,实拍图轮廓与设计图轮廓间建立X方向缩放映射关系;设计图轮廓与靶设计模型间一一对应映射关系。即,S311获取数据中,得到实拍图轮廓的信息数据(图5-4)和设计图轮廓的信息数据(图5-5),把实拍图轮廓近似看成是设计图轮廓在X方向进行缩放所得。
映射关系计算时,把实拍图轮廓的左轮廓点映射到设计图轮廓中相应Y值大小的左轮廓点,把实拍图轮廓的中轮廓点映射到设计图轮廓中相应Y值大小的中轮廓点,它们之间的点也使用一定的方法进行映射(图5-8)。为了简化计算,在实施的时候采用线性插值方法进行插值映射。对于轮廓的右半部分采用同样的方法映射。
S313靶上实际着弹点计算并显示,基于识别出的着弹点在图像中的位置信息,根据所述映射计算得到着弹点在靶上的实际位置,然后再通过映射到设计图轮廓后的点再次映射到设计模型图像中,并于对应靶设计模型图上标记出着弹点(图5-9)。为了方便观察,标记时尽量使用反差比较大的颜色。
本实施例一着弹点映射单元303映射处理算法,其采用的是一幅图像到另一幅图像的映射关系,实施上可以大大简化操作和计算问题,是一个非常实用的方法之一。具体原理为,有图像A和图像B,两幅图像中存在一相同的物像,且两物像的宽高比例是相同的。故有物像A上任意一点PA(XA,YA)与物像B中对应的点PB(XB,YB)存在关系PA(XA,YA)=PB(XB,YB)*Sab+(Xoffset,Yoffset);如图6-1所示,图像A和图像B两幅图大小不同,背景不同,两幅图中都有同样的物像(笑脸),两幅图中的物像大小不同,物像A对应到物像B的关系遵从:PA(XA,YA)=PB(XB,YB)*Sab+(Xoffset,Yoffset)。
有大小相同的图像A和图像C,两图像中存在一相同物体的投影,但物体在A中的投影和在B中的投影在Y方向上没有差别,在X方向上C图像存在一定的压缩关系。故有物像A上任意一点PA(XA,YA)与物像C中对应的点PC(XC,YC)存在关系 如图6-2所示,图像A和图像C两幅图大小不同,背景不同,两幅图中都有同样的物像(笑脸),两幅图中的物像大小在Y方向上相同,X方向上存在一定比例关系。即物像A的高度等于物像C的高度,物像A的宽度是物像C宽度的Sac倍。因此物像A上的点跟物像C中的点的关系是: 其中是物像A在图像A中的起始位置。是物像C在图像C中的起始位置。
实施例二,所述着弹点映射单元303的映射处理算法如下:
S321获取数据,获取靶的三维模型数据;
获取靶在三维模型数据,靶在制作时有相应的设计图,可以使用设计的模型数据直接使用(这个数据可以根据靶的生产商直接获取)。
S322获取映射表,在靶上做标记点,通过着弹点检测算法识别出此标记点在图像上的位置,记录下靶上一点P(Px,Py,Pz)与图像上一点P(Pu,Pv)的对应关系;对所有位置进行标记完成之后,得到一个P(Px,Py,Pz)P(Pu,Pv)的映射表,把映射表存入系统;
在靶上做标记点具体操作,可以使用高温物体在靶上做标记,如烧红的铁丝插入靶,靶上就留下一个点。实施中可以根据摄像头分辨率的大小、靶的大小及靶和摄像头(热相机)的相对距离调整标记点的间隔。如目前使用的摄像头只能识别到靶上半径为5mm的大小(一个像素点对应的物体实际大小为半径5mm),故实施的时候可以通过10mm去标记一个点。对所有位置进行标记完成之后,得到一个P(Px,Py,Pz)P(Pu,Pv)的映射表。
S323实际着弹点位置计算,基于识别出的着弹点在图像中的位置P(Pu,Pv),通过查找表找到相应的点P(Px,Py,Pz),即得出子弹打到靶上的实际位置为P(Px,Py,Pz)。
S324着弹点显示,根据靶的三维数据使用正交投影矩阵计算出靶在二维图像上的点数据,于对应二维靶设计模型上标记出着弹点。
最后在系统中显示该着弹点,显示方法跟显示靶像一样,根据靶的三维数据使用正交投影矩阵计算出靶在二维图像上的点数据。可以简单地理解为,以靶的三维数据中最左边点的X值和最上边点的Y值为图像坐标原点P(0,0),图像大小为靶的三维数据中最右边点的X值最下方点的Y值靶上任意点P(Px,Py,Pz)在图像上的投影则为P(Px,Py)。把着弹点在图像中的成像标记成特殊的颜色(如靶的成像使用灰色,着弹点标记为红色),这样方便使用者观察使用。
本实施例二着弹点映射单元303映射处理算法,相当于创建一个实际位置与图像像素点的映射关系表,检测到图像中的着弹点后,根据映射表查找到相对应于图像该点的实际靶上的位置。具体原理为,在靶的位置跟摄像头相对位置固定时,拍摄到的靶在图像上的位置同样是固定的。故有靶的表面上一点P(Px,Py,Pz)在图像上的成像位置P(Pu,Pv)是固定的。反过来,在图像上一点P(Pu,Pv)必能在实际物体中找到一个以上的点Pi(Px,Py,Pz)使之相对应。对应摄像头坐标系而言,Pi集合中(P1,P2,……Pi)中的值是相同的,不同的值是 其中最小值(离摄像头最近的点)决定成像P(Pu,Pv)。其它点即为盲点(摄像头无法拍摄的点)。盲点是本系统中无法识别的点(不作讨论),对于非盲点,系统先做预处理。使用中,根据预处理的数据进行实际处理计算。
实施例三、所述着弹点映射单元300的映射处理算法如下:
S331获取数据,获取靶的三维模型数据,热相机的参数,热相机与靶的相对位置关系,以此得出虚拟拍摄图像;
1.1先获取靶在三维模型数据,靶在制作时有相应的设计数据,可以使用设计的模型数据直接使用(这个数据可以根据靶的生产商直接获取),也可以通过三维重建等方式重建出靶的三维数据;
1.2获取热相机(摄像头)的参数,摄像头在出厂的时候是经过标定的。因此可以直接使用厂商提供的摄像头内参。另外一种获取方式是自己进行标定,从而获取摄像头内参(这种标定已经有现有的技术,摄像头的标定跟普通摄像头标定原理是一样的,一般都是使用张氏标定法或张氏标定法的变种);
1.3获取摄像头跟靶的相对位置关系,以摄像头坐标系为参考,测量出摄像头离靶的距离,靶相对于摄像头的旋转角度,水平方向上平移的距离,垂直方向上平移的距离等。相当于摄像头外参也知道。
1.4用摄像头拍摄一张靶的图像。
1.5根据1.1、1.2和1.3获取的数据,计算出靶在摄像头的成像。根据1.1、1.2和1.3的数据,相当于虚拟出一个场景(靶),一个虚拟摄像头,可以得出一个虚拟的拍摄图像。对比1.4拍摄的图像,理论上虚拟的场景中使用的参数跟实际上的完全一模一样的话,虚拟图像跟实际图像是完全可以重合在一起的,如果对比发现图像不能重合,可以根据理论值对内参、外参距离等参数进行微调,使之两图像能完全重合。此时的参数认为是准确的参数,记录并保存在程序中。
S332实际着弹点位置计算,基于识别出的着弹点在图像中的位置信息,以此位置作为着弹点在虚拟图像中的位置,进而计算出相应的靶的三维数据上的该点。
S333着弹点显示,根据靶的三维数据计算出靶正面的正交投影及着弹点在靶正面的正交投影,于对应二维靶设计模型上标记出(使用特殊颜色标记)着弹点。
本实施例三着弹点映射单元303映射处理算法,直接根据摄像头成像原理进行计算,通过调节虚拟场景、虚拟摄像头的参数,使虚拟计算出来的图像接近于真实的图像,从而找到图像点与实际靶上的点的关系。具体原理为,摄像头在拍摄物体时,实际上是把物体上位置信息转化为摄像头传感器相应位置上的数据。对于物体上任意一点Pw[Xw Yw Zw]T,转换为摄像头坐标系一点Pc[Xc Yc Zc]T中有其中为物体相对于摄像头坐标系的正交旋转矩阵,T=[tx ty tz]T是平移矩阵。R跟T是摄像头外参。拍不同的物体因为相对位置不一样,外参也不一样。
物体的物理投影转换为图像的像素就是投影平面坐标系的点Pp(Xp,Yp)转换为像素坐标系的一点Ppix(Xpix,Ypix)。设sx表示Xpix方向上单位mm的像素数;sy表示Ypix方向上单位mm的像素数;x0,y0表示投影平面中心在像素坐标系中的坐标。
根据上述的公式,可以推导出:
其中fx、fy、x0和y0为摄像头内参。这个公式为摄像头成像原理。在摄像头内参、外参确定的情况下,知道一个与摄像头位置关系确定的物体的三维数据,可以推算出真实环境下摄像头拍摄出来的图像。即确定,Zc、已知,可以求解出同样地,在摄像头内参、外参确定的情况下,由一幅图像的一个点,可以反算出一系列相对于相机位置确定的模型的点。这些点中,相对于摄像头坐标系而言,Xc、Yc是一样的,Zc的值不同,取Zc值最小的一个点,这个点就是摄像头真正能拍摄到的点。即
上述已有的一些原理和公式中可以得出,在一定条件下,图像上一点Ppix(Xpix,Ypix)跟物体模型数据中一点Pw(Xw,Yw,Zw)(这里指Zw总是取值为离摄像头最近的解)是可以相互计算得出的。由此可知,在实际图像中检测到着弹点的位置可以计算得知它在靶中的位置,进而可以映射到靶的正面正交投影的位置。
优选的,所述打靶智能判定模块300还包括评分单元304,根据射击训练需求定义评分成绩,并统计总成绩,最后保存数据。根据训练要求不同,可以选择多种评分方式。下面给出两种实施方式。
方式一:粗略统计子弹打中靶的次数,该系统中,除了图像处理流程外,还有一些触发控制,如根据开枪时的声音作为一次打枪的触发;如果训练员开枪了,且图像上检测出着弹点,则判定为是打中靶了,成绩统计为该枪打中目标;如果脱靶了,则图像上无法检测出着弹点,则判定为未命中;最后保存显示的图像做为该训练人的成绩档案。
方式二:动态选择评分标准;与传统环形靶训练统计成绩类似,不过可以根据实际训练要求选择靶心位置;如训练射击心脏位置,则以靶的心脏部位定为10环,然后根据离定义位置的距离远近关系分别定义环数大小,然后计算着弹点位置跟目标位置的距离来确定得分;确定得分后,根据训练人的信息,实时把得分数据传输到服务器,存储到数据库中,使用者可以通过网络随时访问到训练的情况。这种方式的好处是对训练人要求更高,训练与实战更加相似,教练可以随意在电脑上定义一个点作为靶心,而训练人在真实的靶上无法看到明显的标记物;在改变射击目标时,只需要简单地在运行软件上点一个点,无需复杂的操作即可统计出相应的成绩。
本申请辅助射击训练系统是一款多功能射击训练设备,特别地适用于具有自闭性能的橡胶靶纸(因有自闭性能,子弹穿过后仅留下一个很小的弹着点,当训练次数增多时,密集的弹着点常规的方法分辨很是困难),利用热能成像的原理,并设计相适应的打靶智能判定算法,对子弹的着弹点进行准确、高精度定位。可适用于单人射击实弹弹着点定位、多人射击弹着点定位及识别,射击姿势的识别等,可以进行静态射击也可以进行运动目标的射击。同时通过姿势判定(对象识别模块)对训练者的射击姿势进行识别,加速提高射击水平,并对训练过程进行实时跟踪,对训练成绩进行管理,适合单元或小组进行战术射击训练,实现对多人参训过程中每一位成员的射击成绩进行准确的识别和判定,有效提高射击训练的成果。
进一步,本申请主要强调单相机大仰角近距离的射击报靶系统,该设备具有小型化易操作等性能。同时采用热能相机原始数据对其进行数据重建,进而实现高像素,高对比度的画面还原,适应晴天,阴天等不同的环境状况。尤其是晴天由于阳光直射的原因,人像靶会呈现出局部的温度不均,进而对弹着点判定会有一定的动态调整,本案算法会根据弹着点的位置进行图像的动态调整,进而使报靶的位置更加的精确。
本系统设备具体布局可以有两种方式,第一种方式如图7-1所示,依据各模块功能分别独立合理布置。第二种方式如图7-2所示,为了进一步的避免流弹的袭击以及提高拍摄精度,采用长焦的热像镜头进行拍摄取像,智能视觉模块含有热相机,姿势判别相机及终端处理器,都处于射击者一端。
下面列举本案系统的几个应用场景实施例。
实施例1单边的人像野外打靶(训练)
选用半身人像,选用388*288的红外相机,相机距人像中心线的水平距离约为47cm,垂直距离约为100cm,角度与垂直中心线的夹角为65度,IR相机配有一定的防弹设计,这种侧边放置的方式(考虑到被流弹击中的情况)配合图形软件算法,将侧边图像与正面图像建立起对应的映射关系,该方法适用于对射击位置的判定。具体流程:1打开并运行设备;2佩戴声音手环并打开;3打开软件;4开枪射击;5输出训练结果。
实施例2双边的人像室内打靶(综合)
针对室内的人像靶,本实施例采用双边相机的方式进行拍摄,可以进一步的提升精度,对射击的位置进行更精准的判定和输出,左右两边各一个防流弹射击的图像采集装置,同样配合声音采集模块,结合软件图像处理算法和逻辑判定原理对射击的结果进行判定,最终输出实验结果。
实施例3悬挂式人像环形打靶(单人数据)
同样针对室内的环形靶,采用了悬挂式的拍摄方式,结合机械臂的装置,开枪一次进行一次正面的数据拍摄,该装置适合更为精准的数据采集装置(例如体育训练),机械手臂与软件配合,精准测试每一次的设计成绩。
实施例4野外人像打靶
采用仰角拍摄方法(单摄像头),仰角拍摄模式有效的避免流弹,该图像拍摄装置不用采用防流弹设计的装置。同样结合仰角拍摄的图形图像算法,将拍摄图像与正面图像建立对应的映射关系。
基于同一发明构思,本案还涉及一种射击训练智能辅助方法(以下作简要阐述,每个步骤的具体技术参见上述系统对应部分的描述),如图2所示,主要包括以下步骤:
S100智能触发,识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测;
S200智能视觉采集,由热相机拍摄打靶图片采集数据,并将采集数据发送;
S300打靶智能判定,对传送来的采集数据处理分析,并结合声音触发,通过逻辑判定算法最终确认打靶实际位置;
S400智能存储显示,存储并显示训练结果。
优选的,所述S300打靶智能判定步骤,如图3所示,包括以下步骤:
S301图像采集处理,对热相机获取的原始数据处理,生成方便检测和观察的图像;
S302着弹点检测,根据生成的图像,识别出着弹点在图像中的位置;
S303着弹点映射,将着弹点在图像位置与着弹点在靶上实际位置作映射处理,最终计算还原得到子弹打到靶上的实际位置。
所述S301图像采集处理步骤,实施例一,使用原始数据进行处理,通过图像映射算法,最终生成方便检测观察且着弹点突出显示的图像;所述图像映射算法是通过设置温度阈值定义映射关系,图像中大于Y℃的温度点就当Y℃处理,相应地低于X℃的温度点当X℃处理,把X℃-Y℃的温度范围分若干个范围映射到0-255数值中,所述Y取值范围100-110,X取值范围10-20。
所述S301图像采集处理步骤,实施例二,使用原始数据进行处理,根据实际数据动态调节映射关系,对获得的原始数据进行统计或者对原始数据中感兴趣区域进行数据统计,根据统计结果找到区域中温度集中的范围;映射数值设置中将该温度范围对应的图像色阶区域作拓广设置。
所述S302着弹点检测步骤,对生成的图像先采用图像掩码算法对靶之外的图像作屏蔽处理,再进行着弹点检测;着弹点检测完后,对所有的检测结果再进行温度对比过滤排除靶内可能出现的噪点,最终准确地识别出着弹点在图像中的位置。
所述S303着弹点映射,其处理算法实施例一如下:
S311获取数据,获取靶设计模型正向图像的对应设计图轮廓的信息数据;获取实际拍摄的侧向图像中对应实拍图轮廓的信息数据;
S312映射关系建立,实拍图轮廓与设计图轮廓间建立X方向缩放映射关系;设计图轮廓与靶设计模型间一一对应映射关系;
S313靶上实际着弹点计算,基于识别出的着弹点在图像中的位置信息,根据映射计算得到着弹点在靶上的实际位置,并于对应靶设计模型上标记出着弹点。
所述S303着弹点映射,其处理算法实施例二如下:
S321获取数据,获取靶的三维模型数据;
S322获取映射表,在靶上做标记点,通过着弹点检测算法识别出此标记点在图像上的位置,记录下靶上一点P(Px,Py,Pz)与图像上一点P(Pu,Pv)的对应关系;对所有位置进行标记完成之后,得到一个P(Px,Py,Pz)P(Pu,Pv)的映射表,把映射表存入系统;
S323实际着弹点位置计算,基于识别出的着弹点在图像中的位置P(Pu,Pv),通过查找表找到相应的点P(Px,Py,Pz),即得出子弹打到靶上的实际位置为P(Px,Py,Pz)。
S324着弹点显示,根据靶的三维数据使用正交投影矩阵计算出靶在二维图像上的点数据,于对应二维靶设计模型上标记出着弹点。
所述S303着弹点映射,其处理算法实施例三如下:
S331获取数据,获取靶的三维模型数据,热相机的参数,热相机与靶的相对位置关系,以此得出虚拟拍摄图像;
S332实际着弹点位置计算,基于识别出的着弹点在图像中的位置信息,以此位置作为着弹点在虚拟图像中的位置,进而计算出相应的靶的三维数据上的该点。
S333着弹点显示,根据靶的三维数据计算出靶正面的正交投影及着弹点在靶正面的正交投影,于对应二维靶设计模型上标记出着弹点。
所述S300打靶智能判定步骤,还包括S304评分步骤,根据射击训练需求定义评分成绩,并统计总成绩,最后保存数据。
所述S301智能触发步骤,包括:
对象识别,人脸识别训练人员基本信息,以及判断训练人员的射击姿势;
声音触发,收集声音的波形分贝,识别训练人员开枪声音,并基于开枪声音触发视觉采集及检测。
所述S400智能存储显示步骤,包括:
云存贮,将打靶数据进行统计,通过系统传送到总台服务器云端,进行数据记录;
终端显示,对训练结果进行显示。
所述智能辅助方法,还包括步骤:环境信息监测,采集监测射击环境的常规环境因素,并将采集数据发送至存储显示。
以上所述仅为本发明的优选实施例,凡跟本发明权利要求范围所做的均等变化和修饰,均应属于本发明权利要求的范围。
Claims (6)
1.一种射击训练智能辅助系统,其特征在于,包括:
智能触发模块,识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测;
智能视觉模块,由热相机拍摄打靶图片采集数据,并将采集数据发送;
打靶智能判定模块,对传送来的采集数据处理分析,并结合声音触发,通过逻辑判定算法最终确认打靶位置;
智能存储显示模块,存储并显示训练结果;
所述打靶智能判定模块包括图像采集处理单元、着弹点检测单元及着弹点映射单元;
图像采集处理单元,对热相机获取的原始数据处理,生成方便检测和观察的图像;
着弹点检测单元,根据生成的图像,识别出着弹点在图像中的位置;
着弹点映射单元,将着弹点在图像位置与着弹点在靶上位置作映射处理,最终计算还原得到子弹打到靶上的实际位置;
所述着弹点映射单元的映射处理算法如下:
获取数据,获取靶设计模型正向图像的对应设计图轮廓的信息数据;获取实际拍摄的侧向图像中对应实拍图轮廓的信息数据;
映射关系建立,实拍图轮廓与设计图轮廓间建立X方向缩放映射关系;设计图轮廓与靶设计模型间建立一一对应映射关系;
靶上着弹点计算,基于识别出的着弹点在图像中的位置信息,根据映射计算得到着弹点在靶上的实际位置,并于对应靶设计模型上标记出着弹点。
2.如权利要求1所述的一种射击训练智能辅助系统,其特征在于:所述图像采集处理单元,使用原始数据进行处理,通过图像映射算法,最终生成方便检测观察且着弹点突出显示的图像;所述图像映射算法是通过设置温度阈值定义映射关系,图像中大于Y℃的温度点就当Y℃处理,相应地低于X℃的温度点当X℃处理,把X℃-Y℃的温度范围分若干个范围映射到0-255数值中,所述Y取值范围100-110,X取值范围10-20。
3.如权利要求1所述的一种射击训练智能辅助系统,其特征在于:所述着弹点检测单元,对生成的图像先采用图像掩码算法对靶之外的图像作屏蔽处理,再进行着弹点检测;着弹点检测完后,对所有的检测结果再进行温度对比过滤排除靶内可能出现的噪点,最终准确地识别出着弹点在图像中的位置。
4.一种射击训练智能辅助方法,其特征在于,主要包括以下步骤:
智能触发,识别训练人员的信息数据以及开枪声音,并基于开枪声音触发视觉采集及检测;
智能视觉采集,由热相机拍摄打靶图片采集数据,并将采集数据发送;
打靶智能判定,对传送来的采集数据处理分析,并结合声音触发,通过逻辑判定算法最终确认打靶实际位置;
智能存储显示,存储并显示训练结果;
所述打靶智能判定步骤,包括以下步骤:
图像采集处理,对热相机获取的原始数据处理,生成方便检测和观察的图像;
着弹点检测,根据生成的图像,识别出着弹点在图像中的位置;
着弹点映射,将着弹点在图像位置与着弹点在靶上实际位置作映射处理,最终计算还原得到子弹打到靶上的实际位置;
所述着弹点映射,其处理算法如下:
获取数据,获取靶设计模型正向图像的对应设计图轮廓的信息数据;获取实际拍摄的侧向图像中对应实拍图轮廓的信息数据;
映射关系建立,实拍图轮廓与设计图轮廓间建立X方向缩放映射关系;设计图轮廓与靶设计模型间建立一一对应映射关系;
靶上着弹点计算,基于识别出的着弹点在图像中的位置信息,根据映射计算得到着弹点在靶上的实际位置,并于对应靶设计模型上标记出着弹点。
5.如权利要求4所述的一种射击训练智能辅助方法,其特征在于,所述图像采集处理步骤,使用原始数据进行处理,通过图像映射算法,最终生成方便检测观察且着弹点突出显示的图像;所述图像映射算法是通过设置温度阈值定义映射关系,图像中大于Y℃的温度点就当Y℃处理,相应地低于X℃的温度点当X℃处理,把X℃-Y℃的温度范围分若干个范围映射到0-255数值中,所述Y取值范围100-110,X取值范围10-20。
6.如权利要求4所述的一种射击训练智能辅助方法,其特征在于,所述着弹点检测步骤,对生成的图像先采用图像掩码算法对靶之外的图像作屏蔽处理,再进行着弹点检测;着弹点检测完后,对所有的检测结果再进行温度对比过滤排除靶内可能出现的噪点,最终准确地识别出着弹点在图像中的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910505484.8A CN110360877B (zh) | 2019-06-12 | 2019-06-12 | 一种射击训练智能辅助系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910505484.8A CN110360877B (zh) | 2019-06-12 | 2019-06-12 | 一种射击训练智能辅助系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110360877A CN110360877A (zh) | 2019-10-22 |
CN110360877B true CN110360877B (zh) | 2021-08-31 |
Family
ID=68215718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910505484.8A Active CN110360877B (zh) | 2019-06-12 | 2019-06-12 | 一种射击训练智能辅助系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110360877B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445769B (zh) * | 2020-05-14 | 2022-04-19 | 上海深至信息科技有限公司 | 一种基于小程序的超声教学系统 |
CN113819795A (zh) * | 2020-06-20 | 2021-12-21 | 深圳安锐科技有限公司 | 一种基于机器视觉和枪声定位的实弹射击辅助训练系统 |
CN111879183B (zh) * | 2020-07-31 | 2022-10-11 | 广东兵界智能科技有限公司 | 一种靶板命中环数识别系统 |
CN112665454A (zh) * | 2021-01-18 | 2021-04-16 | 河北砺兵科技有限责任公司 | 人机对抗训练中的目标分配方法 |
CN113048844B (zh) * | 2021-03-09 | 2022-03-08 | 山东大学 | 基于音频信号控制的低功耗智能打靶识别方法及系统 |
CN114413686B (zh) * | 2021-12-29 | 2024-05-17 | 杭州晨鹰军泰科技有限公司 | 一种射击成绩分析方法、装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2264358A (en) * | 1992-02-20 | 1993-08-25 | Sector Limited | System for detecting position of impact of a projectile |
US6217027B1 (en) * | 1998-03-02 | 2001-04-17 | United States Of America | Computerized portable pneumatic target apparatus |
CN1702423A (zh) * | 2005-05-23 | 2005-11-30 | 中国人民解放军总参谋部第六十研究所 | 热成像型互动射击训练系统 |
WO2008033839A2 (en) * | 2006-09-11 | 2008-03-20 | Bruce Hodge | Thermally gradient target |
CN105953659A (zh) * | 2016-05-05 | 2016-09-21 | 长春长光众和科技有限公司 | 实时射击报靶装置及报靶方法 |
CN106802113A (zh) * | 2016-12-23 | 2017-06-06 | 西安交通大学 | 基于多弹孔模式识别算法的智能报靶系统和方法 |
-
2019
- 2019-06-12 CN CN201910505484.8A patent/CN110360877B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2264358A (en) * | 1992-02-20 | 1993-08-25 | Sector Limited | System for detecting position of impact of a projectile |
US6217027B1 (en) * | 1998-03-02 | 2001-04-17 | United States Of America | Computerized portable pneumatic target apparatus |
CN1702423A (zh) * | 2005-05-23 | 2005-11-30 | 中国人民解放军总参谋部第六十研究所 | 热成像型互动射击训练系统 |
WO2008033839A2 (en) * | 2006-09-11 | 2008-03-20 | Bruce Hodge | Thermally gradient target |
CN105953659A (zh) * | 2016-05-05 | 2016-09-21 | 长春长光众和科技有限公司 | 实时射击报靶装置及报靶方法 |
CN106802113A (zh) * | 2016-12-23 | 2017-06-06 | 西安交通大学 | 基于多弹孔模式识别算法的智能报靶系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110360877A (zh) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110360877B (zh) | 一种射击训练智能辅助系统及方法 | |
DK1509781T3 (en) | The flight parameter measurement system | |
US7292711B2 (en) | Flight parameter measurement system | |
US20040032970A1 (en) | Flight parameter measurement system | |
CN104809424B (zh) | 一种基于虹膜特征实现视线追踪的方法 | |
CN107741175B (zh) | 一种人工智能精确瞄准方法 | |
CN109034156B (zh) | 一种基于图像识别的弹点定位方法 | |
CN109839035B (zh) | 一种报靶系统的精确定位方法及报靶系统 | |
CN109827502A (zh) | 一种标定点图像补偿的线结构光视觉传感器高精度标定方法 | |
Ellmauthaler et al. | A novel iterative calibration approach for thermal infrared cameras | |
CN109341427A (zh) | 一种激光枪靶系统 | |
CN101598520A (zh) | 一种射击辅助训练系统及基于图像定位靶心方法 | |
KR20150067924A (ko) | 레이저 사격 훈련 시스템 및 방법 | |
KR20170133730A (ko) | 물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치 | |
CN110087049A (zh) | 自动调焦系统、方法以及投影仪 | |
CN111028271A (zh) | 基于人体骨架检测的多摄像机人员三维定位跟踪系统 | |
CN109685033A (zh) | 虹膜识别设备和方法 | |
CN108369744A (zh) | 通过双目单应性映射的3d注视点检测 | |
CN110779395A (zh) | 一种打靶校正系统及方法 | |
CN109711290A (zh) | 一种基于双摄像头的虹膜识别方法和设备 | |
CN110375588B (zh) | 一种射击打靶智能评分系统及方法 | |
CN110298864B (zh) | 一种高尔夫推杆设备的视觉感测方法及装置 | |
CN113762161A (zh) | 一种障碍物智能监测方法及系统 | |
CN116757999A (zh) | 一种基于红外摄像机的射击计数与炸点识别方法 | |
CN109840514A (zh) | 一种活体检测的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |