CN114724348A - 基于深度学习的救援报警方法 - Google Patents
基于深度学习的救援报警方法 Download PDFInfo
- Publication number
- CN114724348A CN114724348A CN202210297401.2A CN202210297401A CN114724348A CN 114724348 A CN114724348 A CN 114724348A CN 202210297401 A CN202210297401 A CN 202210297401A CN 114724348 A CN114724348 A CN 114724348A
- Authority
- CN
- China
- Prior art keywords
- sub
- video stream
- accident
- personnel
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/002—Generating a prealarm to the central station
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Abstract
本发明提供了基于深度学习的救援报警方法,其采集目标区域的实况视频流,并分割得到关于不同位置的子视频流,对子视频流进行人员实时动作状态进行分析,确定人员是否发生意外事故和对人员进行定位;根据上述定位结果,对发生意外事故的人员进行伤情与身份识别和区分标定;最后根据发生意外事故的人员在目标区域所处的真实位置信息、伤情与身份识别和区分标定的结果,向救援平台中心发送报警消息,这样能够对目标区域内每个人员的情况进行实时的监测分析,准确确定区域内不同人员的意外事故状态,从而有针对性地和及时地派送救援,确保对目标区域进行安全监控的可靠性和救援的及时性与效率。
Description
技术领域
本发明涉及救援监控管理的技术领域,特别涉及基于深度学习的救援报警方法。
背景技术
目前,在公共区域通常会设置摄像头来进行监测,摄像头在工作过程中会采集公共区域的影像,并通过人工识别分析的方式,对采集得到的公共区域影像中存在的异常情况进行甄别,从而确定公共区域是否发送突发事件。但是,上述监测方式存在一定的滞后性,其并不能实时地对公共区域进行全方位的监测分析,同时也无法及时地对发生异常情况的公共区域准确地派送救援,这样降低了公共区域的安全监控可靠性和救援的及时性与效率。
发明内容
针对现有技术存在的缺陷,本发明提供基于深度学习的救援报警方法,其采集目标区域的实况视频流,并分割得到关于不同位置的子视频流,对子视频流进行人员实时动作状态进行分析,确定人员是否发生意外事故和对人员进行定位;根据上述定位结果,对发生意外事故的人员进行伤情与身份识别和区分标定;最后根据发生意外事故的人员在目标区域所处的真实位置信息、伤情与身份识别和区分标定的结果,向救援平台中心发送报警消息,这样能够对目标区域内每个人员的情况进行实时的监测分析,准确确定区域内不同人员的意外事故状态,从而有针对性地和及时地派送救援,确保对目标区域进行安全监控的可靠性和救援的及时性与效率。
本发明提供基于深度学习的救援报警方法,其包括如下步骤:
步骤S1,采集目标区域的实况视频流,对所述实况视频流进行分割处理,得到关于目标区域不同位置处的若干子视频流,并将所有子视频流分组存储在区块链中;
步骤S2,从所述子视频流中识别得到目标区域存在人员的实时动作状态,对所述实时动作状态进行分析处理,判断人员当前是否发生意外事故;再对发生意外事故的人员在所述子视频流中进行定位;
步骤S3,根据上述定位结果,在所述子视频流中对发生意外事故的人员进行伤情与身份识别;并在所述子视频流中对发生意外事故的人员进行区分标定;
步骤S4,根据所述定位的结果,确定发生意外事故的人员在目标区域所处的真实位置信息;根据所述伤情与身份识别和所述区分标定的结果,向救援平台中心发送报警消息。
进一步,在所述步骤S1中,采集目标区域的实况视频流,对所述实况视频流进行分割处理,得到关于目标区域不同位置处的若干子视频流具体包括:
对目标区域进行全景扫描拍摄,得到关于目标区域的全景实况视频流;
对所述全景实况视频流进行背景识别,得到所述全景实况视频流的每一帧图片包含的环境背景内容;
根据所述环境背景内容,将所述全景实况视频流分割为关于不同环境背景的若干子视频流。
进一步,在所述步骤S1中,将所有子视频流分组存储在区块链中具体包括:
按照所有子视频流的拍摄时间由早到晚的顺序,将每个子视频流进行压缩后依次存储在区块链中。
进一步,在所述步骤S2中,从所述子视频流中识别得到目标区域存在人员的实时动作状态,对所述实时动作状态进行分析处理,判断人员当前是否发生意外事故具体包括:
从所述子视频流中提取若干帧连续的图片,并从每个图片中识别得到目标区域存在人员的头部实时动作姿态和四肢实时动作姿态;
若所述头部实时动作姿态和所述四肢实时动作姿态均满足预设动作姿态分布条件,则确定人员当前发生意外事故;否则,确定人员当前未发生意外事故。
进一步,在所述步骤S2中,对发生意外事故的人员在所述子视频流中进行定位具体包括:
利用下面公式(1),确定发生意外事故的人员在所述子视频流中对应的图片的定位坐标点,
在上述公式(1)中,[x(i,a),y(i,a)]表示所述子视频流中对应的图片的第i个区域框选出的第a个人员的定位坐标点;E(i,a)表示所述子视频流中对应的图片的第i个区域框选出的第a个人员是否发生意外事故的判定值,若发生意外事故,则E(i,a)=1,若未发生意外事故,则E(i,a)=0;[Xe(i,a),Ye(i,a)]表示所述子视频流中对应的图片的第i个区域中对第a个人员进行框选对应的边框中距离预设原点最远的边框坐标点;[Xv(i,a),Yv(i,a)]表示所述子视频流中对应的图片的第i个区域中对第a个人员进行框选对应的边框中距离预设原点最近的边框坐标点;
若[x(i,a),y(i,a)]=(0,0),则表示不需要对所述子视频流中对应的图片的第i个区域框选出的第a个人员进行定位;
若[x(i,a),y(i,a)]≠(0,0),则表示需要对所述子视频流中对应的图片的第i个区域框选出的第a个人员进行定位,并且将所述子视频流中对应的图片的第i个区域框选出的第a个人员对应的边框进行移动,直到坐标点[x(i,a),y(i,a)]移动到所述子视频流中对应的图片的几何中心位置点为止,从而完成对发生意外事故的人员在所述子视频流中对应的图片的定位。
进一步,在所述步骤S3中,根据上述定位结果,在所述子视频流中对发生意外事故的人员进行伤情与身份识别具体包括:
根据上述定位结果,并利用下面公式(2),对所述子视频流中对应的图片的第i个区域框选出发生意外事故的第a个人员进行放大处理,
在上述公式(2)中,K(i,a)表示对所述子视频流中对应的图片的第i个区域框选出发生意外事故的第a个人员进行放大处理的放大倍数;||表示求取绝对值运算;[Xmax(i),Ymax(i)]表示所述子视频流中对应的图片的第i个区域中距离预设原点最远的边框坐标点;
根据上述放大倍数,对所述子视频流中对应的图片的发生意外事故的第a个人员进行放大处理;
对放大处理后的图片进行发生意外事故的人员的伤情与身份识别,从而得到发生意外事故的人员的受伤身体区域分布信息和人员身份信息。
进一步,在所述步骤S3中,在所述子视频流中对发生意外事故的人员进行区分标定具体包括:
利用下面公式(3),调整所述子视频流中对应的图片的第i个区域的框选边框的颜色,
在上述公式(3)中,C(i)表示所述子视频流中对应的图片的第i个区域的框选边框的颜色的控制值;N(i)表示所述子视频流中对应的图片的第i个区域中被框选出的人员总数量;
若C(i)=0,则将所述子视频流中对应的图片的第i个区域的框选边框的颜色设定为白色,即第i个区域内部不存在发生意外事故的人员;
若C(i)=1,则将所述子视频流中对应的图片的第i个区域的框选边框的颜色设定为蓝色,即第i个区域内部存在发生意外事故的人员的人数小于或等于预设人数阈值;
若C(i)=2,则将所述子视频流中对应的图片的第i个区域的框选边框的颜色设定为红色,即第i个区域内部存在发生意外事故的人员的人数大于预设人数阈值。
进一步,在所述步骤S4中,根据所述定位的结果,确定发生意外事故的人员在目标区域所处的真实位置信息;根据所述伤情与身份识别和所述区分标定的结果,向救援平台中心发送报警消息具体包括:
根据发生意外事故的人员在所述子视频流中进行定位的结果以及所述子视频流对应的环境背景,确定发生意外事故的人员在目标区域所处的真实位置坐标;
根据所述伤情与身份识别和所述区分标定的结果,确定派送救援人员的数量;
将所述真实位置坐标和所述派送救援人员的数量打包形成报警消息,并发送至救援平台中心。
相比于现有技术,该基于深度学习的救援报警方法采集目标区域的实况视频流,并分割得到关于不同位置的子视频流,对子视频流进行人员实时动作状态进行分析,确定人员是否发生意外事故和对人员进行定位;根据上述定位结果,对发生意外事故的人员进行伤情与身份识别和区分标定;最后根据发生意外事故的人员在目标区域所处的真实位置信息、伤情与身份识别和区分标定的结果,向救援平台中心发送报警消息,这样能够对目标区域内每个人员的情况进行实时的监测分析,准确确定区域内不同人员的意外事故状态,从而有针对性地和及时地派送救援,确保对目标区域进行安全监控的可靠性和救援的及时性与效率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的基于深度学习的救援报警方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,为本发明实施例提供的基于深度学习的救援报警方法的流程示意图。该基于深度学习的救援报警方法包括如下步骤:
步骤S1,采集目标区域的实况视频流,对该实况视频流进行分割处理,得到关于目标区域不同位置处的若干子视频流,并将所有子视频流分组存储在区块链中;
步骤S2,从该子视频流中识别得到目标区域存在人员的实时动作状态,对该实时动作状态进行分析处理,判断人员当前是否发生意外事故;再对发生意外事故的人员在该子视频流中进行定位;
步骤S3,根据上述定位结果,在该子视频流中对发生意外事故的人员进行伤情与身份识别;并在该子视频流中对发生意外事故的人员进行区分标定;
步骤S4,根据该定位的结果,确定发生意外事故的人员在目标区域所处的真实位置信息;根据该伤情与身份识别和该区分标定的结果,向救援平台中心发送报警消息。
上述技术方案的有益效果为:该基于深度学习的救援报警方法采集目标区域的实况视频流,并分割得到关于不同位置的子视频流,对子视频流进行人员实时动作状态进行分析,确定人员是否发生意外事故和对人员进行定位;根据上述定位结果,对发生意外事故的人员进行伤情与身份识别和区分标定;最后根据发生意外事故的人员在目标区域所处的真实位置信息、伤情与身份识别和区分标定的结果,向救援平台中心发送报警消息,这样能够对目标区域内每个人员的情况进行实时的监测分析,准确确定区域内不同人员的意外事故状态,从而有针对性地和及时地派送救援,确保对目标区域进行安全监控的可靠性和救援的及时性与效率。
优选地,在该步骤S1中,采集目标区域的实况视频流,对该实况视频流进行分割处理,得到关于目标区域不同位置处的若干子视频流具体包括:
对目标区域进行全景扫描拍摄,得到关于目标区域的全景实况视频流;
对该全景实况视频流进行背景识别,得到该全景实况视频流的每一帧图片包含的环境背景内容;
根据该环境背景内容,将该全景实况视频流分割为关于不同环境背景的若干子视频流。
上述技术方案的有益效果为:通过对目标区域进行全景扫描拍摄,能够获得关于目标区域360度范围内的全景实况视频流。目标区域不同区域部分对应的真实环境背景并不相同,通过对全景实况视频流包含的每一帧图片进行真实环境背景内容的识别区分,能够将全景实况视频流分割为对应不同真实环境背景的若干子视频流,从而便于后续对不同真实环境背景的子视频流进行有针对的分析处理和定位。
优选地,在该步骤S1中,将所有子视频流分组存储在区块链中具体包括:
按照所有子视频流的拍摄时间由早到晚的顺序,将每个子视频流进行压缩后依次存储在区块链中。
上述技术方案的有益效果为:按照所有子视频流的拍摄时间由早到晚的顺序,将每个子视频流进行压缩后依次存储在区块链中,这样能够以拍摄时间顺序为基准,从区块链中准确定位查找出对应的子视频流。
优选地,在该步骤S2中,从该子视频流中识别得到目标区域存在人员的实时动作状态,对该实时动作状态进行分析处理,判断人员当前是否发生意外事故具体包括:
从该子视频流中提取若干帧连续的图片,并从每个图片中识别得到目标区域存在人员的头部实时动作姿态和四肢实时动作姿态;
若该头部实时动作姿态和该四肢实时动作姿态均满足预设动作姿态分布条件,则确定人员当前发生意外事故;否则,确定人员当前未发生意外事故。
上述技术方案的有益效果为:每个子视频流包含目标区域存在人员的头部动作姿态和四肢动作姿态,若人员发生摔倒等意外事故时,人员的头部和四肢会发生横向倾倒等动作姿态。通过将人员的头部实时动作姿态和四肢实时动作姿态与预设动作姿态分布条件(比如部和四肢是否发生横向倾倒)进行对比匹配,若两者相匹配,则确定人员当前发生意外事故;若两者不匹配,则确定人员当前发生意外事故,从而准确量化判断人员是否发生意外事故。
优选地,在该步骤S2中,对发生意外事故的人员在该子视频流中进行定位具体包括:
利用下面公式(1),确定发生意外事故的人员在该子视频流中对应的图片的定位坐标点,
在上述公式(1)中,[x(i,a),y(i,a)]表示该子视频流中对应的图片的第i个区域框选出的第a个人员的定位坐标点;E(i,a)表示该子视频流中对应的图片的第i个区域框选出的第a个人员是否发生意外事故的判定值,若发生意外事故,则E(i,a)=1,若未发生意外事故,则E(i,a)=0;[Xe(i,a),Ye(i,a)]表示该子视频流中对应的图片的第i个区域中对第a个人员进行框选对应的边框中距离预设原点最远的边框坐标点;[Xv(i,a),Yv(i,a)]表示该子视频流中对应的图片的第i个区域中对第a个人员进行框选对应的边框中距离预设原点最近的边框坐标点;
若[x(i,a),y(i,a)]=(0,0),则表示不需要对该子视频流中对应的图片的第i个区域框选出的第a个人员进行定位;
若[x(i,a),y(i,a)]≠(0,0),则表示需要对该子视频流中对应的图片的第i个区域框选出的第a个人员进行定位,并且将该子视频流中对应的图片的第i个区域框选出的第a个人员对应的边框进行移动,直到坐标点[x(i,a),y(i,a)]移动到该子视频流中对应的图片的几何中心位置点为止,从而完成对发生意外事故的人员在该子视频流中对应的图片的定位。
上述技术方案的有益效果为:利用上述公式(1)根据人员在子视频流中的动作分析结果和是否发生意外事故的判断结果,对发生意外事故的人员进行定位,进而将发生意外事故的人员都定位并且移动值区域中心位置,便于监测人员后续的查看,进而提高效率。
优选地,在该步骤S3中,根据上述定位结果,在该子视频流中对发生意外事故的人员进行伤情与身份识别具体包括:
根据上述定位结果,并利用下面公式(2),对该子视频流中对应的图片的第i个区域框选出发生意外事故的第a个人员进行放大处理,
在上述公式(2)中,K(i,a)表示对该子视频流中对应的图片的第i个区域框选出发生意外事故的第a个人员进行放大处理的放大倍数;||表示求取绝对值运算;[Xmax(i),Ymax(i)]表示该子视频流中对应的图片的第i个区域中距离预设原点最远的边框坐标点;
根据上述放大倍数,对该子视频流中对应的图片的发生意外事故的第a个人员进行放大处理;
对放大处理后的图片进行发生意外事故的人员的伤情与身份识别,从而得到发生意外事故的人员的受伤身体区域分布信息和人员身份信息。
上述技术方案的有益效果为:利用上述公式(2)根据对定位的发生意外事故的人员通过框出的人员所在位置以及单个区域的子视频流内发生意外事故的人员数量,对发生意外事故的人员对应的图片部分进行放大,从而将发生意外事故人员的框选图像等比例放大至最大,进而便于监控人员后续对意外情况的应急处理和判断。
优选地,在该步骤S3中,在该子视频流中对发生意外事故的人员进行区分标定具体包括:
利用下面公式(3),调整该子视频流中对应的图片的第i个区域的框选边框的颜色,
在上述公式(3)中,C(i)表示该子视频流中对应的图片的第i个区域的框选边框的颜色的控制值;N(i)表示该子视频流中对应的图片的第i个区域中被框选出的人员总数量;
若C(i)=0,则将该子视频流中对应的图片的第i个区域的框选边框的颜色设定为白色,即第i个区域内部不存在发生意外事故的人员;
若C(i)=1,则将该子视频流中对应的图片的第i个区域的框选边框的颜色设定为蓝色,即第i个区域内部存在发生意外事故的人员的人数小于或等于预设人数阈值;
若C(i)=2,则将该子视频流中对应的图片的第i个区域的框选边框的颜色设定为红色,即第i个区域内部存在发生意外事故的人员的人数大于预设人数阈值。
上述技术方案的有益效果为:利用上述公式(3)根据单个区域的子视频流内发生意外事故的人员数量,调整图像放大后的人员图像的边框颜色,进而对单个区域内发生意外事故的人员数量进行统计,以确定每个区域内部发生意外事故的人员数量多寡,从而便于后续对相应区域进行有针对的救援处理。
优选地,在该步骤S4中,根据该定位的结果,确定发生意外事故的人员在目标区域所处的真实位置信息;根据该伤情与身份识别和该区分标定的结果,向救援平台中心发送报警消息具体包括:
根据发生意外事故的人员在该子视频流中进行定位的结果以及该子视频流对应的环境背景,确定发生意外事故的人员在目标区域所处的真实位置坐标;
根据该伤情与身份识别和该区分标定的结果,确定派送救援人员的数量;
将该真实位置坐标和该派送救援人员的数量打包形成报警消息,并发送至救援平台中心。
上述技术方案的有益效果为:不同子视频流对应不同真实环境背景,这样每个子视频流于目标区域所对应的位置是唯一确定,通过对发生意外事故的人员在该子视频流中进行定位的结果以及该子视频流对应的环境背景,能够确定发生意外事故的人员在目标区域所处的真实位置坐标。接着,根据伤情与身份识别和该区分标定的结果,确定派送救援人员的数量,当人员的伤情较为严重,则需要派送较多数量的救援人员。最后将该真实位置坐标和该派送救援人员的数量打包形成报警消息,并发送至救援平台中心,这样能够便于救援平台中心进行适应性的响应。
从上述实施例的内容可知,该基于深度学习的救援报警方法采集目标区域的实况视频流,并分割得到关于不同位置的子视频流,对子视频流进行人员实时动作状态进行分析,确定人员是否发生意外事故和对人员进行定位;根据上述定位结果,对发生意外事故的人员进行伤情与身份识别和区分标定;最后根据发生意外事故的人员在目标区域所处的真实位置信息、伤情与身份识别和区分标定的结果,向救援平台中心发送报警消息,这样能够对目标区域内每个人员的情况进行实时的监测分析,准确确定区域内不同人员的意外事故状态,从而有针对性地和及时地派送救援,确保对目标区域进行安全监控的可靠性和救援的及时性与效率。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.基于深度学习的救援报警方法,其特征在于,其包括如下步骤:
步骤S1,采集目标区域的实况视频流,对所述实况视频流进行分割处理,得到关于目标区域不同位置处的若干子视频流,并将所有子视频流分组存储在区块链中;
步骤S2,从所述子视频流中识别得到目标区域存在人员的实时动作状态,对所述实时动作状态进行分析处理,判断人员当前是否发生意外事故;再对发生意外事故的人员在所述子视频流中进行定位;
步骤S3,根据上述定位结果,在所述子视频流中对发生意外事故的人员进行伤情与身份识别;并在所述子视频流中对发生意外事故的人员进行区分标定;
步骤S4,根据所述定位的结果,确定发生意外事故的人员在目标区域所处的真实位置信息;根据所述伤情与身份识别和所述区分标定的结果,向救援平台中心发送报警消息。
2.如权利要求1所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S1中,采集目标区域的实况视频流,对所述实况视频流进行分割处理,得到关于目标区域不同位置处的若干子视频流具体包括:
对目标区域进行全景扫描拍摄,得到关于目标区域的全景实况视频流;对所述全景实况视频流进行背景识别,得到所述全景实况视频流的每一帧图片包含的环境背景内容;
根据所述环境背景内容,将所述全景实况视频流分割为关于不同环境背景的若干子视频流。
3.如权利要求2所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S1中,将所有子视频流分组存储在区块链中具体包括:
按照所有子视频流的拍摄时间由早到晚的顺序,将每个子视频流进行压缩后依次存储在区块链中。
4.如权利要求3所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S2中,从所述子视频流中识别得到目标区域存在人员的实时动作状态,对所述实时动作状态进行分析处理,判断人员当前是否发生意外事故具体包括:
从所述子视频流中提取若干帧连续的图片,并从每个图片中识别得到目标区域存在人员的头部实时动作姿态和四肢实时动作姿态;
若所述头部实时动作姿态和所述四肢实时动作姿态均满足预设动作姿态分布条件,则确定人员当前发生意外事故;否则,确定人员当前未发生意外事故。
5.如权利要求4所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S2中,对发生意外事故的人员在所述子视频流中进行定位具体包括:
利用下面公式(1),确定发生意外事故的人员在所述子视频流中对应的图片的定位坐标点,
在上述公式(1)中,[x(i,a),y(i,a)]表示所述子视频流中对应的图片的第i个区域框选出的第a个人员的定位坐标点;E(i,a)表示所述子视频流中对应的图片的第i个区域框选出的第a个人员是否发生意外事故的判定值,若发生意外事故,则E(i,a)=1,若未发生意外事故,则E(i,a)=0;[Xe(i,a),Ye(i,a)]表示所述子视频流中对应的图片的第i个区域中对第a个人员进行框选对应的边框中距离预设原点最远的边框坐标点;[Xv(i,a),Yv(i,a)]表示所述子视频流中对应的图片的第i个区域中对第a个人员进行框选对应的边框中距离预设原点最近的边框坐标点;
若[x(i,a),y(i,a)]=(0,0),则表示不需要对所述子视频流中对应的图片的第i个区域框选出的第a个人员进行定位;
若[x(i,a),y(i,a)]≠(0,0),则表示需要对所述子视频流中对应的图片的第i个区域框选出的第a个人员进行定位,并且将所述子视频流中对应的图片的第i个区域框选出的第a个人员对应的边框进行移动,直到坐标点[x(i,a),y(i,a)]移动到所述子视频流中对应的图片的几何中心位置点为止,从而完成对发生意外事故的人员在所述子视频流中对应的图片的定位。
6.如权利要求5所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S3中,根据上述定位结果,在所述子视频流中对发生意外事故的人员进行伤情与身份识别具体包括:
根据上述定位结果,并利用下面公式(2),对所述子视频流中对应的图片的第i个区域框选出发生意外事故的第a个人员进行放大处理,
在上述公式(2)中,K(i,a)表示对所述子视频流中对应的图片的第i个区域框选出发生意外事故的第a个人员进行放大处理的放大倍数;
||表示求取绝对值运算;[Xmax(i),Ymax(i)]表示所述子视频流中对应的图片的第i个区域中距离预设原点最远的边框坐标点;
根据上述放大倍数,对所述子视频流中对应的图片的发生意外事故的第a个人员进行放大处理;
对放大处理后的图片进行发生意外事故的人员的伤情与身份识别,从而得到发生意外事故的人员的受伤身体区域分布信息和人员身份信息。
7.如权利要求6所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S3中,在所述子视频流中对发生意外事故的人员进行区分标定具体包括:
利用下面公式(3),调整所述子视频流中对应的图片的第i个区域的框选边框的颜色,
在上述公式(3)中,C(i)表示所述子视频流中对应的图片的第i个区域的框选边框的颜色的控制值;N(i)表示所述子视频流中对应的图片的第i个区域中被框选出的人员总数量;
若C(i)=0,则将所述子视频流中对应的图片的第i个区域的框选边框的颜色设定为白色,即第i个区域内部不存在发生意外事故的人员;
若C(i)=1,则将所述子视频流中对应的图片的第i个区域的框选边框的颜色设定为蓝色,即第i个区域内部存在发生意外事故的人员的人数小于或等于预设人数阈值;
若C(i)=2,则将所述子视频流中对应的图片的第i个区域的框选边框的颜色设定为红色,即第i个区域内部存在发生意外事故的人员的人数大于预设人数阈值。
8.如权利要求7所述的基于深度学习的救援报警方法,其特征在于:
在所述步骤S4中,根据所述定位的结果,确定发生意外事故的人员在目标区域所处的真实位置信息;根据所述伤情与身份识别和所述区分标定的结果,向救援平台中心发送报警消息具体包括:
根据发生意外事故的人员在所述子视频流中进行定位的结果以及所述子视频流对应的环境背景,确定发生意外事故的人员在目标区域所处的真实位置坐标;
根据所述伤情与身份识别和所述区分标定的结果,确定派送救援人员的数量;
将所述真实位置坐标和所述派送救援人员的数量打包形成报警消息,并发送至救援平台中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210297401.2A CN114724348B (zh) | 2022-03-24 | 2022-03-24 | 基于深度学习的救援报警方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210297401.2A CN114724348B (zh) | 2022-03-24 | 2022-03-24 | 基于深度学习的救援报警方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114724348A true CN114724348A (zh) | 2022-07-08 |
CN114724348B CN114724348B (zh) | 2022-11-15 |
Family
ID=82238961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210297401.2A Active CN114724348B (zh) | 2022-03-24 | 2022-03-24 | 基于深度学习的救援报警方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114724348B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116313018A (zh) * | 2023-05-18 | 2023-06-23 | 北京大学第三医院(北京大学第三临床医学院) | 提高滑雪场与近地医院的急救效率的系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107589758A (zh) * | 2017-08-30 | 2018-01-16 | 武汉大学 | 一种基于双源视频分析的智能化野外无人机搜救方法与系统 |
CN112016409A (zh) * | 2020-08-11 | 2020-12-01 | 艾普工华科技(武汉)有限公司 | 一种基于深度学习的工步规范视觉识别判定方法及系统 |
CN112634561A (zh) * | 2020-12-15 | 2021-04-09 | 中标慧安信息技术股份有限公司 | 基于图像识别的安全报警方法和系统 |
CN113112754A (zh) * | 2021-03-02 | 2021-07-13 | 深圳市哈威飞行科技有限公司 | 溺水报警方法、装置、平台、系统及计算机可读存储介质 |
CN113223046A (zh) * | 2020-07-10 | 2021-08-06 | 浙江大华技术股份有限公司 | 一种监狱人员行为识别的方法和系统 |
US20220083789A1 (en) * | 2020-09-16 | 2022-03-17 | Chongqing University | Real-Time Target Detection And 3d Localization Method Based On Single Frame Image |
-
2022
- 2022-03-24 CN CN202210297401.2A patent/CN114724348B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107589758A (zh) * | 2017-08-30 | 2018-01-16 | 武汉大学 | 一种基于双源视频分析的智能化野外无人机搜救方法与系统 |
CN113223046A (zh) * | 2020-07-10 | 2021-08-06 | 浙江大华技术股份有限公司 | 一种监狱人员行为识别的方法和系统 |
CN112016409A (zh) * | 2020-08-11 | 2020-12-01 | 艾普工华科技(武汉)有限公司 | 一种基于深度学习的工步规范视觉识别判定方法及系统 |
US20220083789A1 (en) * | 2020-09-16 | 2022-03-17 | Chongqing University | Real-Time Target Detection And 3d Localization Method Based On Single Frame Image |
CN112634561A (zh) * | 2020-12-15 | 2021-04-09 | 中标慧安信息技术股份有限公司 | 基于图像识别的安全报警方法和系统 |
CN113112754A (zh) * | 2021-03-02 | 2021-07-13 | 深圳市哈威飞行科技有限公司 | 溺水报警方法、装置、平台、系统及计算机可读存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116313018A (zh) * | 2023-05-18 | 2023-06-23 | 北京大学第三医院(北京大学第三临床医学院) | 提高滑雪场与近地医院的急救效率的系统及方法 |
CN116313018B (zh) * | 2023-05-18 | 2023-09-15 | 北京大学第三医院(北京大学第三临床医学院) | 用于滑雪场与近地医院的急救系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114724348B (zh) | 2022-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110263686A (zh) | 一种基于深度学习的施工工地图像安全帽检测方法 | |
CN110348312A (zh) | 一种区域视频人体动作行为实时识别方法 | |
CN111881730A (zh) | 一种火电厂现场安全帽佩戴检测方法 | |
CN112396658A (zh) | 一种基于视频的室内人员定位方法及定位系统 | |
CN111062303A (zh) | 图像处理方法、系统及计算机存储介质 | |
CN111428617A (zh) | 一种基于视频图像的配网违规检修行为的识别方法和系统 | |
KR20190046351A (ko) | 침입 탐지방법 및 그 장치 | |
CN114724348B (zh) | 基于深度学习的救援报警方法 | |
CN111325133A (zh) | 一种基于人工智能识别的影像处理系统 | |
CN110096945B (zh) | 基于机器学习的室内监控视频关键帧实时提取方法 | |
CN112634561A (zh) | 基于图像识别的安全报警方法和系统 | |
CN113111771A (zh) | 一种发电厂工作人员不安全行为的识别方法 | |
CN116310943B (zh) | 一种感知工人安全状况的方法 | |
CN111339901A (zh) | 基于图像的入侵检测方法、装置、电子设备及存储介质 | |
CN111401310B (zh) | 基于人工智能的厨房卫生安全监督管理方法 | |
CN113807240A (zh) | 基于非配合式人脸识别的变电站人员着装智能监控方法 | |
CN113989711A (zh) | 一种配电施工安全工器具使用识别方法及系统 | |
CN113822151A (zh) | 用于监测市场内部人员聚集密度的方法和系统 | |
CN114913323B (zh) | 一种充电桩区域夜间明火检测方法 | |
CN114973080A (zh) | 一种安全帽佩戴检测方法、装置、设备及存储介质 | |
CN111832451A (zh) | 基于视频数据处理的适航监察流程监管系统及方法 | |
CN114973398B (zh) | 视图库摄像机分等级报警方法 | |
CN114783000B (zh) | 一种明厨亮灶场景下工作人员着装规范检测方法及装置 | |
CN115215177B (zh) | 一种电梯升降智能识别系统和方法 | |
CN117116499A (zh) | 传染病检测现场的安全监控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |