CN112232172B - 一种电子战装备多人协作配合模拟系统 - Google Patents

一种电子战装备多人协作配合模拟系统 Download PDF

Info

Publication number
CN112232172B
CN112232172B CN202011085146.2A CN202011085146A CN112232172B CN 112232172 B CN112232172 B CN 112232172B CN 202011085146 A CN202011085146 A CN 202011085146A CN 112232172 B CN112232172 B CN 112232172B
Authority
CN
China
Prior art keywords
data
palm
wrist
signal
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011085146.2A
Other languages
English (en)
Other versions
CN112232172A (zh
Inventor
毛方赛
何晶晶
彭艳
李孝伟
蒲华燕
谢少荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202011085146.2A priority Critical patent/CN112232172B/zh
Publication of CN112232172A publication Critical patent/CN112232172A/zh
Application granted granted Critical
Publication of CN112232172B publication Critical patent/CN112232172B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种电子战装备多人协作配合模拟系统,包括采集单元、分配单元、摄像头、识别单元、模拟分析单元、判定单元、警报单元和语音控制单元;所述采集单元用于采集作战相关的模拟信息,将模拟信息传输至分配单元,所述分配单元用于对模拟信息进行分配操作,得到部署位置数据,以及姓名数据和图片数据,并将其传输至识别单元;本发明通过模拟分析单元的设置,对核对后的影像进行分析,从而判定人员影像的运动状态及相关数据,判定单元对分析后的运动状态及相关数据进行数据判定,从而判定人员的动作指令,实现了影像的快速识别,增加计算和判断的准确性,节省数据分析所消耗的时间,提高工作效率。

Description

一种电子战装备多人协作配合模拟系统
技术领域
本发明涉及电子战模拟技术领域,具体为一种电子战装备多人协作配合模拟系统。
背景技术
电子战技术是研究利用电子装备或器材进行电磁斗争的技术。它涉及雷达对抗、通信对抗、C3I对抗、敌我识别与导航对抗等领域。电子技术的飞速发展,使电子战由作战保障一跃成为重要的作战形式,并正在开启信息战的大门。
一般电子战的运用和配合均是通过一个模拟系统进行试验,对于一些玩家来说,无法清楚的知道对用的一些动作,导致在整体的协作配合上无法达到完美,且无法通过数据分析,来判定命令的下达,为此,我们提出一种电子战装备多人协作配合模拟系统。
发明内容
本发明的目的在于提供一种电子战装备多人协作配合模拟系统,通过分配单元的设置,对采集到的相关信息进行作战分配,识别单元依据摄像头获取的影像信息进行部署识别,对识别后的数据进行部署判定,从而确保战术的完美展示,节省人为观察调节所消耗的时间,提高工作效率,通过模拟分析单元的设置,对核对后的影像进行分析,从而判定人员影像的运动状态及相关数据,判定单元对分析后的运动状态及相关数据进行数据判定,从而判定人员的动作指令,实现了影像的快速识别,增加计算和判断的准确性,节省数据分析所消耗的时间,提高工作效率,通过语音控制单元的设置,快速将判定的命令进行语音转化,从而快速传输至参与人员,警报单元对接收的信号进行处理,并将转化为语音后的数据传输至参与人员,节省人为传输数据的时间,提高作战效率。
本发明的目的可以通过以下技术方案实现:一种电子战装备多人协作配合模拟系统,包括采集单元、分配单元、摄像头、识别单元、模拟分析单元、判定单元、警报单元和语音控制单元;
所述采集单元用于采集作战相关的模拟信息,将模拟信息传输至分配单元,所述分配单元用于对模拟信息进行分配操作,得到部署位置数据,以及姓名数据和图片数据,并将其传输至识别单元;
所述摄像头用于对部署位置数据进行人物监测,从而得到影像信息,并将影像信息传输至识别单元;
所述识别单元用于对部署位置数据、姓名数据、图片数据和影像信息进行识别操作,得到部署位置有误信号、部署影像数据和姓名数据,将部署影像数据和姓名数据一同传输至模拟分析单元,将部署位置有误信号传输至警报单元;
所述数据库内存储有部位关节影像信息以及对应的部位关节名称数据,所述模拟分析单元从数据库内获取部位关节影像信息以及对应的部位关节名称数据,并将其与部署影像数据进行模拟分析操作,得到腕肩距离、掌腕距离和掌指距离,并将其一同传输至判定单元;
数据库内还存储有指令数据,判定单元从数据库内获取指令数据,并将其与腕肩距离、掌腕距离和掌指距离一同进行指令判定操作,得到指令名数据,并将其传输至语音控制单元;
所述语音控制单元对指令名数据进行转换操作,具体为:获取指令名数据,并将其转化为语音,并将其标定为语音命令,并将语音命令通过对讲机传输至用户端;
所述警报单元用于对部署位置有误信号进行警报提醒,具体为:当接收到部署位置有误信号后,将其转换为错位信号,并将错位信号传输至语音控制单元进行语音转化,从而得到错位语音,将其传输至警报单元,警报单元获取姓名数据,并将其与错位语音一同传输至用户端。
作为本发明的进一步改进方案:分配操作的具体操作过程为:
K1:获取模拟信息,将其内模拟作战的战场标定为地图数据,并将地图数据标记为DTi,i=1,2,3......n1,将其内参与模拟作战人员的影像标定为图片数据,并将图片数据标记为TPi,i=1,2,3......n1,将其内参与模拟作战人员的身份标定为姓名数据,并将姓名数据标记为XMi,i=1,2,3......n1;
K2:设定一个作战部署,依据作战部署提取对应的防守或进攻的位置,并将该位置标定为部署位置数据,并提取姓名数据,按照部署位置数据进行人员分配,且姓名数据与部署位置数据一一对应。
作为本发明的进一步改进方案:识别操作的具体操作过程为:
H1:获取影像信息,将其内对应部署位置数据的参与人员影像标定为图像数据,并将图像数据标记为TXi,i=1,2,3......n1;
H2:提取图像数据,并将其与图片数据进行匹配,当图像数据与图片数据的匹配结果一致时,则判定该部署位置数据的参与人员正确,生成正确信号,当图像数据与图片数据的匹配结果不一致时,则判定该部署位置数据的参与人员不正确,生成错误信号;
H3:提取正确信号和错误信号,对其进行识别,当识别到正确信号时,自动获取部署位置数据对应的影像信息和姓名数据,将部署位置数据对应的影像信息标记为部署影像数据,当识别到错误信号时,则提取对应的姓名数据,发出部署位置有误信号。
作为本发明的进一步改进方案:模拟分析操作的具体操作过程为:
G1:获取部署影像数据,建立一个虚拟空间直角坐标系,将部署影像数据在虚拟空间直角坐标系中进行标记,从而得到若干个部署坐标,并将其标记为BBl(Xl,Yl,Zl),l=1,2,3......n2;
G2:获取部位关节名称数据,将其内手臂与身体连接的部位标定为肩膀数据,将其内手臂中段标定为手肘数据,将其内手臂与手掌连接处标定为手腕数据,将其内手的掌心部位标定为手掌数据,将手指长有手指甲的一端标定为指尖数据;
G3:依据部位关节名数据,选取出对应的部位关节影像信息,并依据其进行关节坐标标记,具体为:将肩膀数据对应的坐标标记为JBl(aXl,aYl,aZl),l=1,2,3......n2,将手肘数据对应的坐标标记为SZl(bXl,bYl,bZl),l=1,2,3......n2,将手腕数据对应的坐标标记为SWl(cXl,cYl,cZl),l=1,2,3......n2,将手掌数据对应的坐标标记为ZGl(dXl,dYl,dZl),l=1,2,3......n2,将指尖数据对应的坐标标记为ZJl(eXl,eYl,eZl),l=1,2,3......n2;
G4:获取两个不同时间段时,部署影像数据的关节影像信息,将两个不同时间段的肩膀数据对应的坐标分别标记为JB1和JB2,将两个不同时间段的手肘数据对应的坐标分别标记为SZ1和SZ2,将两个不同时间段的手腕数据对应的坐标分别标记为SW1和SW2,将两个不同时间段的手掌数据对应的坐标分别标记为ZG1和ZG2,将两个不同时间段的指尖数据对应的坐标分别标记为ZJ1和ZJ2,并将其进行两两匹配,当两个不同时间段的肩膀数据对应的坐标JB1和JB2相同时,则判定该肩膀没有移动,生成肩膀不动信号,反之则判定肩膀移动,生成肩膀移动信号,同理对手肘、手腕、手掌和指尖进行不同时间段的比对,从而生成对应的手肘不动信号、手肘移动信号、手腕不动信号、手腕移动信号、手掌不动信号、手掌移动信号、指尖不动信号和指尖移动信号;
G5:获取肩膀不动信号、肩膀移动信号、手肘不动信号、手肘移动信号、手腕不动信号、手腕移动信号、手掌不动信号、手掌移动信号、指尖不动信号和指尖移动信号,并依据其进行手势发动判断,具体为:当肩膀移动信号、手肘移动信号、手腕移动信号、手掌移动信号和指尖移动信号中同时出现三者或三者以上时,判定该影像处于运动状态,生成运动信号,反之则判定处于静止状态,生成静止信号;
G6:获取同一时间内,肩膀数据对应的坐标和手腕数据对应的坐标,并将其带入到计算式:
Figure BDA0002720093370000051
其中,Ll腕肩表示为同一时间内手腕和肩膀之间的距离,即腕肩距离,获取同一时间内,手掌数据对应的坐标和手腕数据对应的坐标,并将其一同带入到差值计算式:
Figure BDA0002720093370000052
其中,Ll腕掌表示为同一时间内手腕和手掌之间的距离,即掌腕距离,获取同一时间内,手掌数据对应的坐标和指尖数据对应的坐标,并将其一同带入到差值计算式:
Figure BDA0002720093370000053
其中,Ll掌指表示为同一时间内指尖和手掌之间的距离,即掌指距离;
G7:获取运动信号和静止信号,并对其进行识别,当识别到静止信号时,则判定影像无变化,不进行指令判定,当识别到运动信号时,则判定影像变化,进行指令判定。
作为本发明的进一步改进方案:指令判定操作的具体操作过程为:
F1:获取指令数据,将其内指令的动作要求标定为规范动作数据,将其内动作指令所代表的指令名称标定为指令名数据;
F2:获取腕肩距离、掌腕距离和掌指距离,并提取同一时间点的腕肩距离、掌腕距离和掌指距离,并将其与规范动作数据进行匹配,从而选取出与腕肩距离、掌腕距离和掌指距离相同的规范动作数据,将其标定为执行动作,并依据执行动作提取对应的指令名数据。
本发明的有益效果:
(1)通过采集单元采集作战相关的模拟信息,将模拟信息传输至分配单元,分配单元对模拟信息进行分配操作,得到部署位置数据,以及姓名数据和图片数据,并将其传输至识别单元;摄像头对部署位置数据进行人物监测,从而得到影像信息,并将影像信息传输至识别单元;识别单元对部署位置数据、姓名数据、图片数据和影像信息进行识别操作,得到部署位置有误信号、部署影像数据和姓名数据,通过分配单元的设置,对采集到的相关信息进行作战分配,识别单元依据摄像头获取的影像信息进行部署识别,对识别后的数据进行部署判定,从而确保战术的完美展示,节省人为观察调节所消耗的时间,提高工作效率。
(2)通过模拟分析单元从数据库内获取部位关节影像信息以及对应的部位关节名称数据,并将其与部署影像数据进行模拟分析操作,得到腕肩距离、掌腕距离和掌指距离,并将其一同传输至判定单元;数据库内还存储有指令数据,判定单元从数据库内获取指令数据,并将其与腕肩距离、掌腕距离和掌指距离一同进行指令判定操作,得到指令名数据,通过模拟分析单元的设置,对核对后的影像进行分析,从而判定人员影像的运动状态及相关数据,判定单元对分析后的运动状态及相关数据进行数据判定,从而判定人员的动作指令,实现了影像的快速识别,增加计算和判断的准确性,节省数据分析所消耗的时间,提高工作效率。
(3)通过语音控制单元对指令名数据进行转换操作,具体为:获取指令名数据,并将其转化为语音,并将其标定为语音命令,并将语音命令通过对讲机传输至用户端;警报单元对部署位置有误信号进行警报提醒,具体为:当接收到部署位置有误信号后,将其转换为错位信号,并将错位信号传输至语音控制单元进行语音转化,从而得到错位语音,将其传输至警报单元,警报单元获取姓名数据,并将其与错位语音一同传输至用户端;通过语音控制单元的设置,快速将判定的命令进行语音转化,从而快速传输至参与人员,警报单元对接收的信号进行处理,并将转化为语音后的数据传输至参与人员,节省人为传输数据的时间,提高作战效率。
附图说明
下面结合附图对本发明作进一步的说明。
图1是本发明的系统框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1所示,本发明为一种电子战装备多人协作配合模拟系统,包括采集单元、分配单元、摄像头、识别单元、模拟分析单元、判定单元、警报单元和语音控制单元;
所述采集单元用于采集作战相关的模拟信息,将模拟信息传输至分配单元,所述分配单元用于对模拟信息进行分配操作,分配操作的具体操作过程为:
K1:获取模拟信息,将其内模拟作战的战场标定为地图数据,并将地图数据标记为DTi,i=1,2,3......n1,将其内参与模拟作战人员的影像标定为图片数据,并将图片数据标记为TPi,i=1,2,3......n1,将其内参与模拟作战人员的身份标定为姓名数据,并将姓名数据标记为XMi,i=1,2,3......n1;
K2:设定一个作战部署,依据作战部署提取对应的防守或进攻的位置,并将该位置标定为部署位置数据,并提取姓名数据,按照部署位置数据进行人员分配,且姓名数据与部署位置数据一一对应;
K3:提取部署位置数据,以及姓名数据和图片数据,并将其传输至识别单元;
所述摄像头用于对部署位置数据进行人物监测,从而得到影像信息,并将影像信息传输至识别单元;
所述识别单元用于对部署位置数据、姓名数据、图片数据和影像信息进行识别操作,识别操作的具体操作过程为:
H1:获取影像信息,将其内对应部署位置数据的参与人员影像标定为图像数据,并将图像数据标记为TXi,i=1,2,3......n1;
H2:提取图像数据,并将其与图片数据进行匹配,当图像数据与图片数据的匹配结果一致时,则判定该部署位置数据的参与人员正确,生成正确信号,当图像数据与图片数据的匹配结果不一致时,则判定该部署位置数据的参与人员不正确,生成错误信号;
H3:提取正确信号和错误信号,对其进行识别,当识别到正确信号时,自动获取部署位置数据对应的影像信息和姓名数据,将部署位置数据对应的影像信息标记为部署影像数据,当识别到错误信号时,则提取对应的姓名数据,发出部署位置有误信号;
H4:提取部署影像数据和姓名数据,并将其一同传输至模拟分析单元,提取部署位置有误信号,并将部署位置有误信号传输至警报单元;
所述数据库内存储有部位关节影像信息以及对应的部位关节名称数据,所述模拟分析单元从数据库内获取部位关节影像信息以及对应的部位关节名称数据,并将其与部署影像数据进行模拟分析操作,模拟分析操作的具体操作过程为:
G1:获取部署影像数据,建立一个虚拟空间直角坐标系,将部署影像数据在虚拟空间直角坐标系中进行标记,从而得到若干个部署坐标,并将其标记为BBl(Xl,Yl,Zl),l=1,2,3......n2;
G2:获取部位关节名称数据,将其内手臂与身体连接的部位标定为肩膀数据,将其内手臂中段标定为手肘数据,将其内手臂与手掌连接处标定为手腕数据,将其内手的掌心部位标定为手掌数据,将手指长有手指甲的一端标定为指尖数据;
G3:依据部位关节名数据,选取出对应的部位关节影像信息,并依据其进行关节坐标标记,具体为:将肩膀数据对应的坐标标记为JBl(aXl,aYl,aZ l),l=1,2,3......n2,将手肘数据对应的坐标标记为SZl(bXl,bYl,bZl),l=1,2,3......n2,将手腕数据对应的坐标标记为SWl(cXl,cYl,cZl),l=1,2,3......n2,将手掌数据对应的坐标标记为ZGl(dXl,dYl,dZl),l=1,2,3......n2,将指尖数据对应的坐标标记为ZJl(eXl,eYl,eZl),l=1,2,3......n2;
G4:获取两个不同时间段时,部署影像数据的关节影像信息,将两个不同时间段的肩膀数据对应的坐标分别标记为JB1和JB2,将两个不同时间段的手肘数据对应的坐标分别标记为SZ1和SZ2,将两个不同时间段的手腕数据对应的坐标分别标记为SW1和SW2,将两个不同时间段的手掌数据对应的坐标分别标记为ZG1和ZG2,将两个不同时间段的指尖数据对应的坐标分别标记为ZJ1和ZJ2,并将其进行两两匹配,当两个不同时间段的肩膀数据对应的坐标JB1和JB2相同时,则判定该肩膀没有移动,生成肩膀不动信号,反之则判定肩膀移动,生成肩膀移动信号,同理对手肘、手腕、手掌和指尖进行不同时间段的比对,从而生成对应的手肘不动信号、手肘移动信号、手腕不动信号、手腕移动信号、手掌不动信号、手掌移动信号、指尖不动信号和指尖移动信号;
G5:获取肩膀不动信号、肩膀移动信号、手肘不动信号、手肘移动信号、手腕不动信号、手腕移动信号、手掌不动信号、手掌移动信号、指尖不动信号和指尖移动信号,并依据其进行手势发动判断,具体为:当肩膀移动信号、手肘移动信号、手腕移动信号、手掌移动信号和指尖移动信号中同时出现三者或三者以上时,判定该影像处于运动状态,生成运动信号,反之则判定处于静止状态,生成静止信号;
G6:获取同一时间内,肩膀数据对应的坐标和手腕数据对应的坐标,并将其带入到计算式:
Figure BDA0002720093370000101
其中,Ll腕肩表示为同一时间内手腕和肩膀之间的距离,即腕肩距离,获取同一时间内,手掌数据对应的坐标和手腕数据对应的坐标,并将其一同带入到差值计算式:
Figure BDA0002720093370000102
其中,Ll腕掌表示为同一时间内手腕和手掌之间的距离,即掌腕距离,获取同一时间内,手掌数据对应的坐标和指尖数据对应的坐标,并将其一同带入到差值计算式:
Figure BDA0002720093370000103
其中,Ll掌指表示为同一时间内指尖和手掌之间的距离,即掌指距离;
G7:获取运动信号和静止信号,并对其进行识别,当识别到静止信号时,则判定影像无变化,不进行指令判定,当识别到运动信号时,则判定影像变化,进行指令判定,提取对应的腕肩距离、掌腕距离和掌指距离,并将其一同传输至判定单元;
数据库内还存储有指令数据,判定单元从数据库内获取指令数据,并将其与腕肩距离、掌腕距离和掌指距离一同进行指令判定操作,指令判定操作的具体操作过程为:
F1:获取指令数据,将其内指令的动作要求标定为规范动作数据,将其内动作指令所代表的指令名称标定为指令名数据;
F2:获取腕肩距离、掌腕距离和掌指距离,并提取同一时间点的腕肩距离、掌腕距离和掌指距离,并将其与规范动作数据进行匹配,从而选取出与腕肩距离、掌腕距离和掌指距离相同的规范动作数据,将其标定为执行动作,并依据执行动作提取对应的指令名数据,其中,规范动作数据指代系统录入的指令标准数据,具体包括每个手指与手掌的距离、手指与肩膀的距离、手掌与肩膀的距离和手腕与肩膀的距离等,事先录入的评判标准;
F3:提取指令名数据,并将其传输至语音控制单元;
所述语音控制单元对指令名数据进行转换操作,具体为:获取指令名数据,并将其转化为语音,并将其标定为语音命令,并将语音命令通过对讲机传输至用户端;
所述警报单元用于对部署位置有误信号进行警报提醒,具体为:当接收到部署位置有误信号后,将其转换为错位信号,并将错位信号传输至语音控制单元进行语音转化,从而得到错位语音,将其传输至警报单元,警报单元获取姓名数据,并将其与错位语音一同传输至用户端。
本发明在工作时,采集单元采集作战相关的模拟信息,将模拟信息传输至分配单元,分配单元对模拟信息进行分配操作,得到部署位置数据,以及姓名数据和图片数据,并将其传输至识别单元;摄像头对部署位置数据进行人物监测,从而得到影像信息,并将影像信息传输至识别单元;识别单元对部署位置数据、姓名数据、图片数据和影像信息进行识别操作,得到部署位置有误信号、部署影像数据和姓名数据,将部署影像数据和姓名数据一同传输至模拟分析单元,将部署位置有误信号传输至警报单元;数据库内存储有部位关节影像信息以及对应的部位关节名称数据,模拟分析单元从数据库内获取部位关节影像信息以及对应的部位关节名称数据,并将其与部署影像数据进行模拟分析操作,得到腕肩距离、掌腕距离和掌指距离,并将其一同传输至判定单元;数据库内还存储有指令数据,判定单元从数据库内获取指令数据,并将其与腕肩距离、掌腕距离和掌指距离一同进行指令判定操作,得到指令名数据,并将其传输至语音控制单元;语音控制单元对指令名数据进行转换操作,具体为:获取指令名数据,并将其转化为语音,并将其标定为语音命令,并将语音命令通过对讲机传输至用户端;警报单元对部署位置有误信号进行警报提醒,具体为:当接收到部署位置有误信号后,将其转换为错位信号,并将错位信号传输至语音控制单元进行语音转化,从而得到错位语音,将其传输至警报单元,警报单元获取姓名数据,并将其与错位语音一同传输至用户端。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (1)

1.一种电子战装备多人协作配合模拟系统,其特征在于,包括采集单元、分配单元、摄像头、识别单元、数据库、模拟分析单元、判定单元、警报单元和语音控制单元;
所述采集单元用于采集作战相关的模拟信息,将模拟信息传输至分配单元,所述分配单元用于对模拟信息进行分配操作,得到部署位置数据,以及姓名数据和图片数据,并将其传输至识别单元;
所述摄像头用于对部署位置数据进行人物监测,从而得到影像信息,并将影像信息传输至识别单元;
所述识别单元用于对部署位置数据、姓名数据、图片数据和影像信息进行识别操作,得到部署位置有误信号、部署影像数据和姓名数据,将部署影像数据和姓名数据一同传输至模拟分析单元,将部署位置有误信号传输至警报单元;
所述数据库内存储有部位关节影像信息以及对应的部位关节名称数据,所述模拟分析单元从数据库内获取部位关节影像信息以及对应的部位关节名称数据,并将其与部署影像数据进行模拟分析操作,得到腕肩距离、掌腕距离和掌指距离,并将其一同传输至判定单元;
数据库内还存储有指令数据,判定单元从数据库内获取指令数据,并将其与腕肩距离、掌腕距离和掌指距离一同进行指令判定操作,得到指令名数据,并将其传输至语音控制单元;
所述语音控制单元对指令名数据进行转换操作,具体为:获取指令名数据,并将其转化为语音,并将其标定为语音命令,并将语音命令通过对讲机传输至用户端;
所述警报单元用于对部署位置有误信号进行警报提醒,具体为:当接收到部署位置有误信号后,将其转换为错位信号,并将错位信号传输至语音控制单元进行语音转化,从而得到错位语音,将其传输至警报单元,警报单元获取姓名数据,并将其与错位语音一同传输至用户端;
分配操作的具体操作过程为:
K1:获取模拟信息,将其内模拟作战的战场标定为地图数据,并将地图数据标记为DTi,i=1,2,3......n1,将其内参与模拟作战人员的影像标定为图片数据,并将图片数据标记为TPi,i=1,2,3......n1,将其内参与模拟作战人员的身份标定为姓名数据,并将姓名数据标记为XMi,i=1,2,3......n1;
K2:设定一个作战部署,依据作战部署提取对应的防守或进攻的位置,并将该位置标定为部署位置数据,并提取姓名数据,按照部署位置数据进行人员分配,且姓名数据与部署位置数据一一对应;
识别操作的具体操作过程为:
H1:获取影像信息,将其内对应部署位置数据的参与人员影像标定为图像数据,并将图像数据标记为TXi,i=1,2,3......n1;
H2:提取图像数据,并将其与图片数据进行匹配,当图像数据与图片数据的匹配结果一致时,则判定该部署位置数据的参与人员正确,生成正确信号,当图像数据与图片数据的匹配结果不一致时,则判定该部署位置数据的参与人员不正确,生成错误信号;
H3:提取正确信号和错误信号,对其进行识别,当识别到正确信号时,自动获取部署位置数据对应的影像信息和姓名数据,将部署位置数据对应的影像信息标记为部署影像数据,当识别到错误信号时,则提取对应的姓名数据,发出部署位置有误信号;
模拟分析操作的具体操作过程为:
G1:获取部署影像数据,建立一个虚拟空间直角坐标系,将部署影像数据在虚拟空间直角坐标系中进行标记,从而得到若干个部署坐标,并将其标记为BBl(Xl,Yl,Zl),l=1,2,3......n2;
G2:获取部位关节名称数据,将其内手臂与身体连接的部位标定为肩膀数据,将其内手臂中段标定为手肘数据,将其内手臂与手掌连接处标定为手腕数据,将其内手的掌心部位标定为手掌数据,将手指长有手指甲的一端标定为指尖数据;
G3:依据部位关节名数据,选取出对应的部位关节影像信息,并依据其进行关节坐标标记,具体为:将肩膀数据对应的坐标标记为JBl(aXl,aYl,aZl),l=1,2,3......n2,将手肘数据对应的坐标标记为SZl(bXl,bYl,bZl),l=1,2,3......n2,将手腕数据对应的坐标标记为SWl(cXl,cYl,cZl),l=1,2,3......n2,将手掌数据对应的坐标标记为ZGl(dXl,dYl,dZl),l=1,2,3......n2,将指尖数据对应的坐标标记为ZJl(eXl,eYl,eZl),l=1,2,3......n2;
G4:获取两个不同时间段时,部署影像数据的关节影像信息,将两个不同时间段的肩膀数据对应的坐标分别标记为JB1和JB2,将两个不同时间段的手肘数据对应的坐标分别标记为SZ1和SZ2,将两个不同时间段的手腕数据对应的坐标分别标记为SW1和SW2,将两个不同时间段的手掌数据对应的坐标分别标记为ZG1和ZG2,将两个不同时间段的指尖数据对应的坐标分别标记为ZJ1和ZJ2,并将其进行两两匹配,当两个不同时间段的肩膀数据对应的坐标JB1和JB2相同时,则判定该肩膀没有移动,生成肩膀不动信号,反之则判定肩膀移动,生成肩膀移动信号,同理对手肘、手腕、手掌和指尖进行不同时间段的比对,从而生成对应的手肘不动信号、手肘移动信号、手腕不动信号、手腕移动信号、手掌不动信号、手掌移动信号、指尖不动信号和指尖移动信号;
G5:获取肩膀不动信号、肩膀移动信号、手肘不动信号、手肘移动信号、手腕不动信号、手腕移动信号、手掌不动信号、手掌移动信号、指尖不动信号和指尖移动信号,并依据其进行手势发动判断,具体为:当肩膀移动信号、手肘移动信号、手腕移动信号、手掌移动信号和指尖移动信号中同时出现三者或三者以上时,判定该影像处于运动状态,生成运动信号,反之则判定处于静止状态,生成静止信号;
G6:获取同一时间内,肩膀数据对应的坐标和手腕数据对应的坐标,并将其带入到计算式:
Figure DEST_PATH_IMAGE002
,其中,
Figure DEST_PATH_IMAGE004
表示为同一时间内手腕和肩膀之间的距离,即腕肩距离,获取同一时间内,手掌数据对应的坐标和手腕数据对应的坐标,并将其一同带入到差值计算式:
Figure DEST_PATH_IMAGE006
,其中,
Figure DEST_PATH_IMAGE008
表示为同一时间内手腕和手掌之间的距离,即掌腕距离,获取同一时间内,手掌数据对应的坐标和指尖数据对应的坐标,并将其一同带入到差值计算式:
Figure DEST_PATH_IMAGE010
,其中,
Figure DEST_PATH_IMAGE012
表示为同一时间内指尖和手掌之间的距离,即掌指距离;
G7:获取运动信号和静止信号,并对其进行识别,当识别到静止信号时,则判定影像无变化,不进行指令判定,当识别到运动信号时,则判定影像变化,进行指令判定;
指令判定操作的具体操作过程为:
F1:获取指令数据,将其内指令的动作要求标定为规范动作数据,将其内动作指令所代表的指令名称标定为指令名数据;
F2:获取腕肩距离、掌腕距离和掌指距离,并提取同一时间点的腕肩距离、掌腕距离和掌指距离,并将其与规范动作数据进行匹配,从而选取出与腕肩距离、掌腕距离和掌指距离相同的规范动作数据,将其标定为执行动作,并依据执行动作提取对应的指令名数据。
CN202011085146.2A 2020-10-12 2020-10-12 一种电子战装备多人协作配合模拟系统 Active CN112232172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011085146.2A CN112232172B (zh) 2020-10-12 2020-10-12 一种电子战装备多人协作配合模拟系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011085146.2A CN112232172B (zh) 2020-10-12 2020-10-12 一种电子战装备多人协作配合模拟系统

Publications (2)

Publication Number Publication Date
CN112232172A CN112232172A (zh) 2021-01-15
CN112232172B true CN112232172B (zh) 2021-12-21

Family

ID=74112068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011085146.2A Active CN112232172B (zh) 2020-10-12 2020-10-12 一种电子战装备多人协作配合模拟系统

Country Status (1)

Country Link
CN (1) CN112232172B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408993B (zh) * 2021-07-02 2022-05-06 汕头市优必选高德乐科技有限公司 一种用于机械自动化的智能装配系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8488578B1 (en) * 2010-09-27 2013-07-16 Rockwell Collins, Inc. Identifying a CDMA scrambling code
CN103995747A (zh) * 2014-05-12 2014-08-20 上海大学 基于移动机器人平台的分布式行人检测系统和方法
CN109816232A (zh) * 2019-01-16 2019-05-28 山西汇永青峰选煤工程技术有限公司 一种智能生产管理系统
US10447383B1 (en) * 2018-11-07 2019-10-15 Bae Systems Information And Electronic Systems Integration Inc. Collaborative small satellites
CN110365666A (zh) * 2019-07-01 2019-10-22 中国电子科技集团公司第十五研究所 军事领域基于增强现实的多端融合协同指挥系统
CN111613314A (zh) * 2020-05-28 2020-09-01 班俊超 一种基于大数据的学生视力检测系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8488578B1 (en) * 2010-09-27 2013-07-16 Rockwell Collins, Inc. Identifying a CDMA scrambling code
CN103995747A (zh) * 2014-05-12 2014-08-20 上海大学 基于移动机器人平台的分布式行人检测系统和方法
US10447383B1 (en) * 2018-11-07 2019-10-15 Bae Systems Information And Electronic Systems Integration Inc. Collaborative small satellites
CN109816232A (zh) * 2019-01-16 2019-05-28 山西汇永青峰选煤工程技术有限公司 一种智能生产管理系统
CN110365666A (zh) * 2019-07-01 2019-10-22 中国电子科技集团公司第十五研究所 军事领域基于增强现实的多端融合协同指挥系统
CN111613314A (zh) * 2020-05-28 2020-09-01 班俊超 一种基于大数据的学生视力检测系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
认知电子战概念及关键技术;贾鑫 等;《装备学院学报》;20150831;第26卷(第4期);第96-100页 *

Also Published As

Publication number Publication date
CN112232172A (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN105868715B (zh) 一种手势识别方法、装置及手势学习系统
Alrubayi et al. A pattern recognition model for static gestures in malaysian sign language based on machine learning techniques
CN103529944B (zh) 一种基于Kinect的人体动作识别方法
CN104933734B (zh) 一种基于多kinect的人体姿态数据融合方法
CN109902659A (zh) 用于处理人体图像的方法和装置
CN112198959A (zh) 虚拟现实交互方法、装置及系统
CN107281710A (zh) 一种矫正动作误差的方法
CN109079794B (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN111857334A (zh) 人体手势字母的识别方法、装置、计算机设备及存储介质
CN113221745B (zh) 举手识别方法、装置、电子设备及存储介质
CN112232172B (zh) 一种电子战装备多人协作配合模拟系统
CN112330730A (zh) 图像处理方法、装置、设备及存储介质
CN110333776A (zh) 一种基于穿戴设备的军事装备操作训练系统及方法
CN107728788A (zh) 一种基于红外超声三维定位体感交互装置
CN113703574A (zh) 一种基于5g的vr医疗学习方法及系统
CN112748800B (zh) 一种基于智能手套的实验场景感知交互方法
CN107914273A (zh) 基于手势控制的机械臂示教系统
CN115762772B (zh) 目标对象的情绪特征确定方法、装置、设备及存储介质
CN108364034B (zh) 一种多模式耦合的动作捕捉方法及装置
CN116524783A (zh) 一种虚实临境飞行训练系统
CN110362190B (zh) 基于myo的文本输入系统及方法
CN116129467A (zh) 一种变电运维人员姿态与行为以及工器具姿态的识别方法
CN112099330B (zh) 基于外部相机和穿戴式显控设备的全息人体重建方法
CN109558006A (zh) 无线分布式肢体动作捕捉设备
CN114764580A (zh) 一种基于无穿戴设备的实时人体手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant