CN113838266B - 溺水报警方法、装置、电子设备和计算机可读介质 - Google Patents

溺水报警方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN113838266B
CN113838266B CN202111117453.9A CN202111117453A CN113838266B CN 113838266 B CN113838266 B CN 113838266B CN 202111117453 A CN202111117453 A CN 202111117453A CN 113838266 B CN113838266 B CN 113838266B
Authority
CN
China
Prior art keywords
video frame
target
line segment
pixel
drowning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111117453.9A
Other languages
English (en)
Other versions
CN113838266A (zh
Inventor
马伟
马南骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Zhongxing Electronics Co ltd
Original Assignee
Guangdong Zhongxing Electronics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Zhongxing Electronics Co ltd filed Critical Guangdong Zhongxing Electronics Co ltd
Priority to CN202111117453.9A priority Critical patent/CN113838266B/zh
Publication of CN113838266A publication Critical patent/CN113838266A/zh
Application granted granted Critical
Publication of CN113838266B publication Critical patent/CN113838266B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/08Alarms for ensuring the safety of persons responsive to the presence of persons in a body of water, e.g. a swimming pool; responsive to an abnormal condition of a body of water

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了溺水报警方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:获取目标水域在目标时间段内的水域视频;对水域视频进行主动视觉信息识别,得到识别结果,其中,识别结果包括至少一个溺水标识,溺水标识表征水域视频中是否存在主动视觉信息;响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。该实施方式提高了溺水事件的检测效率,降低了溺水事件的误检率和漏检率。

Description

溺水报警方法、装置、电子设备和计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及溺水报警方法、装置、电子设备和计算机可读介质。
背景技术
游泳是一种非常常用且有效的锻炼方式,颇受人们的喜爱,然而,游泳属于高危运动项目,由游泳带来的溺水事件频繁发生,需要及时发现溺水事件。目前,在对溺水事件进行检测时,通常采用的方式为:救生员通过监控器采集的实时影像确定是否存在溺水事件;或通过相关算法检测影像中人的肢体位置或骨骼姿态以确定是否存在溺水事件。
然而,当采用上述方式进行溺水事件检测时,经常会存在如下技术问题:
第一,采用人工检测的方式时,救生员长时间通过监控器进行监控时,易产生疲劳,对溺水事件检测的误检率和漏检率较高,且泳池深处存在视野盲区,进一步导致对溺水事件检测的漏检率较高,此外,人工检测的方式效率较低;采用相关算法检测时,游泳者身体遮挡或摄像机视角不佳会造成相关算法对溺水事件检测的误检率和漏检率较高;
第二,相关算法运算量大,造成内存资源浪费。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了溺水报警方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种溺水报警方法,该方法包括:获取目标水域在目标时间段内的水域视频;对水域视频进行主动视觉信息识别,得到识别结果,其中,识别结果包括至少一个溺水标识,溺水标识表征水域视频中是否存在主动视觉信息;响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
第二方面,本公开的一些实施例提供了一种溺水报警装置,装置包括:获取单元,被配置成获取目标水域在目标时间段内的水域视频;主动视觉信息识别单元,被配置成对水域视频进行主动视觉信息识别,得到识别结果,其中,识别结果包括至少一个溺水标识,溺水标识表征水域视频中是否存在主动视觉信息;位置检测单元,被配置成响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;控制单元,被配置成控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例中具有如下有益效果:通过本公开的一些实施例的溺水报警方法,提高了溺水事件的检测效率,降低了溺水事件的误检率和漏检率。具体来说,造成溺水事件的检测效率低,误检率和漏检率较高的原因在于:采用人工检测的方式时,救生员长时间通过监控器进行监控时,易产生疲劳,对溺水事件检测的误检率和漏检率较高,且泳池深处存在视野盲区,进一步导致对溺水事件检测的漏检率较高,此外,人工检测的方式效率较低;采用相关算法检测时,游泳者身体遮挡或摄像机视角不佳会造成相关算法对溺水事件检测的误检率和漏检率较高。基于此,本公开的一些实施例的溺水报警方法,首先,获取目标水域在目标时间段内的水域视频。然后,对水域视频进行主动视觉信息识别,得到识别结果。由此,可以通过主动视觉信息确认当前水域是否发生溺水事件,降低了溺水事件的误检率和漏检率。其次,响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息。由此,为相关工作人员的援救提供了位置数据支持,便于相关工作人员前去援救。最后,控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。由此,可以提示相关工作人员对当前溺水事件进行援救,提高了溺水事件的检测效率。也因为利用了主动视觉信息自动进行溺水事件检测,提高了溺水事件的检测效率,可以在泳池深处的视野盲区进行主动视觉信息识别,降低了溺水事件检测的漏检率,避免了对游泳者身体姿态的检测,降低了溺水事件的误检率和漏检率。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是本公开的一些实施例的溺水报警方法的一个应用场景的示意图;
图2是根据本公开的溺水报警方法的一些实施例的流程图;
图3是根据本公开的溺水报警方法的另一些实施例的流程图;
图4是根据本公开的溺水报警装置的一些实施例的结构示意图;
图5是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是本公开的一些实施例的溺水报警方法的一个应用场景的示意图。
在图1的应用场景中,首先,计算设备101可以获取目标水域在目标时间段内的水域视频102。然后,计算设备101可以对水域视频102进行主动视觉信息识别,得到识别结果103,其中,识别结果103包括至少一个溺水标识(例如溺水标识1031),溺水标识1031表征水域视频中是否存在主动视觉信息。其次,响应于确定至少一个溺水标识中存在表征水域视频102中存在主动视觉信息的溺水标识(例如溺水标识1031),对于每个表征水域视频中存在主动视觉信息的溺水标识(例如溺水标识1031),计算设备101可以对溺水标识1031对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息104。最后,计算设备101可以控制相关联的报警设备105执行对应于所得到的溺水者位置信息的报警操作。
需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
继续参考图2,示出了根据本公开的溺水报警方法的一些实施例的流程200。该溺水报警方法,包括以下步骤:
步骤201,获取目标水域在目标时间段内的水域视频。
在一些实施例中,溺水报警方法的执行主体(如图1所示的计算设备101)可以通过有线连接方式或无线连接方式从摄像终端获取目标水域在目标时间段内的水域视频。上述目标水域可以为预先选定的水域。例如,上述目标水域可以为预先选定的游泳池。上述目标时间段可以为预先设定好的时间段。这里,对于目标时间段的具体设定,不做限定。例如,上述目标时间段可以为5秒。上述水域视频可以为摄像机拍摄的画面覆盖上述目标水域的视频。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,对水域视频进行主动视觉信息识别,得到识别结果。
在一些实施例中,上述执行主体可以对水域视频进行主动视觉信息识别,得到识别结果。其中,上述识别结果可以包括至少一个溺水标识。上述溺水标识可以表征上述水域视频中是否存在主动视觉信息。上述主动视觉信息可以为与目标水域有明显视觉差异的视觉信息。上述主动视觉信息可以包括但不限于某种颜色的图像或图像集合、某种形状的图像或图像集合、或者某种随时间变化的特殊景象的图像或图像集合。例如,上述主动视觉信息可以为游泳者穿戴的装备喷射的彩色烟雾的图像或图像集合、游泳者做出的特殊手势的图像或图像集合或救生衣发出的特定颜色的光的图像或图像集合。上述溺水标识可以为表征上述水域视频中是否存在主动视觉信息的标识。当识别结果包括一个溺水标识时,该溺水标识可以表征上述水域视频中存在一个主动视觉信息,也可以表征上述水域视频中存在至少一个主动视觉信息。当识别结果包括不止一个溺水标识时,上述不止一个溺水标识中的每个溺水标识都可以表征上述水域视频中存在一个主动视觉信息。例如,当存在一个溺水标识,且该溺水标识为“0”时,表征水域视频中不存在主动视觉信息。当存在一个溺水标识,且该溺水标识为“1”时,表征水域视频中存在一个主动视觉信息。当存在两个溺水标识,且上述溺水标识均为“1”时,表征水域视频中存在两个主动视觉信息。也可以存在一个溺水标识,且该溺水标识为“2”时,表征水域视频中存在两个主动视觉信息。实践中,上述执行主体可以对上述水域视频利用分类器进行主动视觉信息识别,得到识别结果。其中,上述分类器可以为针对主动视觉信息提前训练好的、可以识别主动视觉信息的分类器。例如,上述分类器可以为针对主动视觉信息提前训练好的SVM(Support Vector Machine,支持向量机)分类器。由此,可以通过主动视觉信息确认当前水域是否发生溺水事件,降低溺水事件的误检率和漏检率。
在一些实施例的一些可选的实现方式中,上述执行主体对上述水域视频进行主动视觉信息识别,得到上述识别结果。可以包括以下步骤:
第一步,基于上述水域视频中的每个视频帧的每个像素,生成第一视频帧集合。实践中,上述执行主体基于上述水域视频中的每个视频帧的每个像素,生成第一视频帧集合,可以包括以下子步骤:
第一子步骤,响应于上述主动视觉信息为特定颜色的泳帽的图像或图像集合,对于上述水域视频中的每个视频帧的每个像素,上述执行主体可以利用以下公式生成每个像素的像素YUV值与预设YUV值的差值作为像素差值,得到像素差值集合:
Figure BDA0003275829900000071
其中,diff表示像素差值。Y表示像素的灰度分量。U表示像素的蓝色色差分量。V表示像素的红色色差分量。Y0表示预设的灰度分量。U0表示预设的蓝色色差分量。V0表示预设的红色色差分量。上述像素YUV值包括像素的灰度分量、像素的蓝色色差分量和像素的红色色差分量。上述预设YUV值包括预设的灰度分量、预设的蓝色色差分量和预设的红色色差分量。
第二子步骤,响应于上述像素差值集合中存在小于预设阈值的像素差值,将小于上述预设阈值的各个像素差值对应的各个像素确定为目标像素集合,并将上述目标像素集合中的各个目标像素所在的视频帧确定为第一视频帧集合。这里,对于预设阈值的具体设定,不作限定。
第二步,上述执行主体可以对上述第一视频帧集合中的每个第一视频帧进行图像形态学处理,得到图像形态学处理后的各个第一视频帧作为第二视频帧集合。其中,上述图像形态学处理包括视频帧腐蚀处理和视频帧膨胀处理。实践中,上述执行主体可以通过以下子步骤对上述第一视频帧集合中的每个第一视频帧进行图像形态学处理:
第一子步骤,上述执行主体可以对上述第一视频帧进行视频帧腐蚀处理,得到视频帧腐蚀处理后的第一视频帧作为腐蚀视频帧。例如,上述执行主体可以将上述第一视频帧中相邻的8个像素中目标像素的数目小于等于3的像素确定为非目标像素,以对上述第一视频帧完成视频帧腐蚀处理,并将视频帧腐蚀处理后的第一视频帧作为腐蚀视频帧。
第二子步骤,上述执行主体可以对上述腐蚀视频帧进行视频帧膨胀处理,得到视频帧膨胀处理后的腐蚀视频帧作为第二视频帧。例如,上述执行主体可以将上述腐蚀视频帧中相邻的8个像素中目标像素的数目大于3的像素确定为目标像素,以对上述腐蚀视频帧完成视频帧膨胀处理,并将视频帧膨胀处理后的腐蚀视频帧作为第二视频帧。
第三步,上述执行主体可以对上述第二视频帧集合中的每个第二视频帧进行线段标记处理,得到第三视频帧集合。其中,上述第二视频帧包括的每个视频帧行均存在对应的视频帧行编号。上述视频帧行编号可以为视频帧行位于视频帧的具体行的编号。例如,上述视频帧行编号可以为1。实践中,上述执行主体可以对上述第二视频帧集合中的每个第二视频帧进行线段标记处理,可以包括以下子步骤:
第一子步骤,上述执行主体可以将上述第二视频帧中每个视频帧行中连续的目标像素标记为线段,得到标记处理后的第二视频帧作为第三视频帧。上述第三视频帧包括的每个视频帧行均存在对应的视频帧行编号。上述视频帧行可以包括上述线段。
第二子步骤,上述执行主体可以确定上述视频帧行包括的线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息,并将上述视频帧行包括的线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息组合为结构体数组信息。上述结构体数组信息可以为包含了线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息。上述起始像素位置信息可以为表征上述线段在上述视频帧行中的起始位置的像素具体位置的信息。例如,上述起始像素位置信息可以为2,即上述线段在上述视频帧行中的起始端的像素的列号为2。上述结束像素位置信息可以为表征上述线段在上述视频帧行中的结束位置的像素具体位置的信息。例如,上述结束像素位置信息可以为9,即上述线段在上述视频帧行中的末尾端的像素的列号为9。上述线段编号可以为表征上述线段在上述第二视频帧中具体次序的编号。例如,当线段是视频帧中的第二个线段时,上述线段编号可以为2。
第四步,上述执行主体可以利用上述结构体数组对上述第三视频帧集合中的每个第三视频帧进行矩形标注处理,得到目标矩形集合。其中,上述第三视频帧集合中的每个第三视频帧可以包括各个目标矩形。上述目标矩形集合中的目标矩形可以表征主动视觉信息。上述目标矩形集合可以包括表征同一主动视觉信息的目标矩形。实践中,上述执行主体可以通过以下子步骤利用上述结构体数组对上述第三视频帧集合中的每个第三视频帧进行矩形标注处理:
第一子步骤,对于上述第三视频帧包括的每个视频帧行,上述执行主体可以从上述结构体数组中提取上述视频帧行包括的每个线段的起始像素位置信息、结束像素位置信息、线段编号和视频帧行编号,将提取处理后的每个线段作为目标线段,得到目标线段集合。其中,上述目标线段集合中的每个目标线段均包括该目标线段的起始像素位置信息、结束像素位置信息、线段编号和视频帧行编号。
第二子步骤,可以对上述目标线段集合中的每个目标线段进行第一编号赋值处理,得到第一赋值目标线段集合。实践中,上述执行主体可以对上述目标线段集合中满足连通条件的目标线段进行第一编号赋值处理。其中,上述连通条件可以如以下公式所示:
Bn.left<(Am.right+1),
且Bn.right>(Am.left-1)。
其中,n表示上述目标线段的线段编号。m表示对比线段的线段编号。left表示在视频帧行中位于线段的起始端的像素的列号。right表示在视频帧行中位于线段的末尾端的像素的列号。B表示上述目标线段所在的视频帧行编号。A表示对比线段所在的视频帧行的视频帧行编号。Bn.right表示目标线段的末尾端的像素的列号。Am.left表示对比线段的起始端的像素的列号。Bn.left表示目标线段的起始端的像素的列号。Am.right表示对比线段的末尾端的像素的列号。上述对比线段可以为上述目标线段集合中位于上述目标线段上一视频帧行的目标线段。上述第一编号赋值处理可以为将上述对比线段的连通编号确定为上述目标线段的连通编号的处理。上述连通编号可以为连通的线段的编号。其中,上述连通的线段可以为连续两个视频帧行中相互邻接的线段。当存在连通编号相同的目标线段时,连通编号相同的目标线段相互连通。其中,当多个对比线段位于上述目标线段的上一视频帧行时,可以将上述多个对比线段中连通编号最小的对比线段的连通编号确定为上述目标线段的连通编号,并将上述多个对比线段中连通编号最小的对比线段的连通编号作为上述多个对比线段中除连通编号最小的对比线段以外的对比线段的连通编号。
第三子步骤,对上述第一赋值目标线段集合中的每个第一赋值目标线段进行第二编号赋值处理,得到第二赋值目标线段集合。实践中,上述执行主体可以对上述第一赋值目标线段集合中不满足上述连通条件的第一赋值目标线段进行第二编号赋值处理,得到第二赋值目标线段集合。上述第二编号赋值处理可以为将上述对比线段的连通编号与1的和确定为上述第一赋值目标线段的连通编号的处理。
第四子步骤,基于上述第二赋值目标线段集合中的每个第二赋值目标线段,生成外围矩形,得到外围矩形集合。实践中,首先,对于上述第二赋值目标线段集合中的每个第二赋值目标线段,上述执行主体可以将连通编号相同的第二赋值目标线段所在的视频帧行的视频帧行编号表征的行数值的行最大值和行最小值、连通编号相同的第二赋值目标线段的起始像素位置的位置最小值和结束像素位置的位置最大值确定为外围矩形四个顶点的坐标的数值。然后,可以根据所确定的每个外围矩形四个顶点的坐标的数值,生成外围矩形,得到外围矩形集合。例如,可以将上述行最小值作为外围矩形第一个顶点的横坐标,可以将上述位置最小值作为外围矩形第一个顶点的纵坐标。可以将上述行最小值作为外围矩形第二个顶点的横坐标,可以将上述位置最大值作为外围矩形第二个顶点的纵坐标。可以将上述行最大值作为外围矩形第三个顶点的横坐标,可以将上述位置最小值作为外围矩形第三个顶点的纵坐标。可以将上述行最大值作为外围矩形第四个顶点的横坐标,可以将上述位置最大值作为外围矩形第四个顶点的纵坐标。
第五子步骤,对各个外围矩形集合进行剔除处理,得到目标矩形集合。实践中,上述执行主体可以将上述各个外围矩形集合中满足条件的外围矩形从上述外围矩形集合中剔除,得到剔除处理后的外围矩形集合作为目标矩形集合。其中,上述条件可以为外围矩形的高度或宽度小于4。上述外围矩形的高度可以为上述外围矩形集合中的外围矩形的行最大值与行最小值的差。上述外围矩形的宽度可以为上述外围矩形集合中的外围矩形的位置最小值与位置最大值的差。
第五步,上述执行主体可以对目标矩形集合中的每个目标矩形进行矩形跟踪处理,得到矩形坐标集合。其中,上述矩形坐标集合可以包括在各个第三视频帧中表征同一主动视觉信息的各个目标矩形的矩形坐标。实践中,上述执行主体可以对目标矩形集合中的每个目标矩形进行矩形跟踪处理,可以包括以下子步骤:
第一子步骤,响应于第一预测矩形与上述目标矩形的重叠面积大于等于上述目标矩形的面积的二分之一,确定上述第一预测矩形对应的上一帧视频帧中的目标矩形和上述目标矩形表征同一主动视觉信息,进而确定对上述目标矩形进行矩形跟踪处理成功。其中,上述上一帧视频帧可以为本视频帧的上一帧视频帧。上述本视频帧可以为上述目标矩形或上述第一预测矩形所在的视频帧。当上述目标矩形存在时,上述目标矩形可以位于本视频帧。当上述第一预测矩形存在时,上述第一预测矩形可以位于本视频帧。上述矩形跟踪处理可以为在本视频帧中,对于上述第一预测矩形对应的上一帧视频帧中表征主动视觉信息的目标矩形,捕捉表征同一主动视觉信息的目标矩形的处理。上述第一预测矩形可以为基于上一帧视频帧的目标矩形和对应于上一帧视频帧的目标矩形的第一矩形运动偏移量生成的位于本视频帧的目标矩形。其中,上述第一矩形运动偏移量可以为位于本视频帧的前两帧视频帧中对应的目标矩形的矩形中心坐标差。其中,可以将上一帧视频帧的目标矩形的第一个顶点的横坐标和第一矩形运动偏移量的横坐标的和确定为第一预测矩形的第一个顶点的横坐标。可以将上一帧视频帧的目标矩形的第一个顶点的纵坐标和第一矩形运动偏移量的纵坐标的和确定为第一预测矩形的第一个顶点的纵坐标。可以将上一帧视频帧的目标矩形的第二个顶点的横坐标和第一矩形运动偏移量的横坐标的和确定为第一预测矩形的第二个顶点的横坐标。可以将上一帧视频帧的目标矩形的第二个顶点的纵坐标和第一矩形运动偏移量的纵坐标的和确定为第一预测矩形的第二个顶点的纵坐标。可以将上一帧视频帧的目标矩形的第三个顶点的横坐标和第一矩形运动偏移量的横坐标的和确定为第一预测矩形的第三个顶点的横坐标。可以将上一帧视频帧的目标矩形的第三个顶点的纵坐标和第一矩形运动偏移量的纵坐标的和确定为第一预测矩形的第三个顶点的纵坐标。可以将上一帧视频帧的目标矩形的第四个顶点的横坐标和第一矩形运动偏移量的横坐标的和确定为第一预测矩形的第四个顶点的横坐标。可以将上一帧视频帧的目标矩形的第四个顶点的纵坐标和第一矩形运动偏移量的纵坐标的和确定为第一预测矩形的第四个顶点的纵坐标。例如,上一帧视频帧的目标矩形的第一个顶点的坐标为(1,1)、第二个顶点的坐标为(1,6)、第三个顶点的坐标为(6,1)、第四个顶点的坐标为(6,6)。上述第一矩形运动偏移量为(2,2)。则上述第一预测矩形的第一个顶点的坐标为(3,3)、第二个顶点的坐标为(3,8)、第三个顶点的坐标为(8,3)、第四个顶点的坐标为(8,8)。
第二子步骤,响应于上述矩形跟踪处理成功,上述执行主体可以将上述目标矩形的四个顶点的坐标作为本视频帧中表征上述主动视觉信息的目标矩形的四个顶点的坐标,并根据上述目标矩形生成第二预测矩形。
第三子步骤,上述执行主体可以将上述目标矩形和上一帧视频帧中与上述目标矩形表征同一主动视觉信息的目标矩形的矩形中心坐标差确定为第二矩形运动偏移量,并基于上述目标矩形和上述第二矩形运动偏移量生成第二预测矩形。其中,生成第二预测矩形的步骤可以参考上述生成第一预测矩形的步骤,在此不再赘述。
可选地,响应于不存在与上述目标矩形的重叠面积大于等于上述目标矩形面积的二分之一的第一预测矩形,可以确定上述目标矩形对应的主动视觉信息第一次在上述水域视频中出现,因此可以将上述目标矩形的四个顶点的坐标作为对应的主动视觉信息的在本视频帧中的目标矩形的四个顶点的坐标,并且可以将上述目标矩形的四个顶点的坐标作为第二预测矩形的四个顶点的坐标。
可选地,上述执行主体可以对上述目标矩形集合中的每个目标矩形进行矩形跟踪处理,可以包括以下子步骤:
第一子步骤,响应于不存在与第一预测矩形的重叠面积大于等于上述目标矩形的面积的二分之一的上述目标矩形,可以确定本视频帧中不存在对应于上述第一预测矩形的目标矩形,将本视频帧的上述目标矩形的矩形坐标记为空值,并且可以对上一帧视频帧的目标矩形进行失配计数处理,得到失配计数。例如,响应于上一帧视频帧中存在对应于上述第一预测矩形的目标矩形,本视频帧中不存在与第一预测矩形的重叠面积大于等于上述目标矩形的面积的二分之一的上述目标矩形,上述执行主体可以确定失配计数为1。
第二子步骤,响应于下一帧视频帧中不存在与第一预测矩形的重叠面积大于等于上述目标矩形的面积的二分之一的上述目标矩形,上述执行主体可以确定失配计数为2。
第三子步骤,响应于上述失配计数达到预设计数,上述执行主体可以不再对表征该主动视觉信息的目标矩形进行矩形跟踪处理。其中,上述下一帧视频帧可以为本视频帧的下一帧视频帧。上述预设计数可以为预先设定的计数。
第六步,上述执行主体可以将上述矩形坐标集合输入至溺水识别模型,得到识别结果。其中,上述溺水识别模型可以为以矩形坐标集合为输入数据,以识别结果为输出数据的神经网络模型。例如,上述神经网络模型可以包括但不限于RNN(循环神经网络)模型,GAN(Generative Adversarial Networks,生成式对抗网络)模型。
由此,当上述主动视觉信息为特定颜色的泳帽的图像或图像集合时,可以采用上述方法对水域视频进行主动视觉信息识别,得到识别结果。从而不需要提前训练分类器,减少了计算机资源的耗费。又因为可以采用上述方法直接对水域视频进行主动视觉信息识别,提高了识别主动视觉信息的效率。
步骤203,响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息。
在一些实施例中,上述执行主体可以响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息。实践中,上述执行主体可以对上述主动视觉信息出现在水域视频中的第一帧画面与预设水域影像集中的每一张预设水域影像进行影像匹配处理。其中,上述预设水域影像集中的每一张预设水域影像上的每一个像素点的地理位置坐标可以预先存储在本地。响应于上述第一帧画面与预设水域影像匹配成功,可以将上述第一帧画面上的主动视觉信息对应于上述预设水域影像上的像素点的地理位置坐标确定为主动视觉位置信息,从而可以将主动视觉位置信息作为溺水者位置信息。由此,为相关工作人员的援救提供了位置数据支持,便于相关工作人员前去援救。
步骤204,控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
在一些实施例中,上述执行主体可以控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。上述报警设备可以为具有报警功能的设备。例如,上述报警设备可以为声光警报器。上述报警操作可以为使得上述报警设备闪烁且播放上述溺水者位置信息的操作。由此,可以提示相关工作人员对当前溺水事件进行援救,提高了溺水事件的检测效率。
本公开的上述各个实施例中具有如下有益效果:通过本公开的一些实施例的溺水报警方法,提高了溺水事件的检测效率,降低了溺水事件的误检率和漏检率。具体来说,造成溺水事件的检测效率低,误检率和漏检率较高的原因在于:采用人工检测的方式时,救生员长时间通过监控器进行监控时,易产生疲劳,对溺水事件检测的误检率和漏检率较高,且泳池深处存在视野盲区,进一步导致对溺水事件检测的漏检率较高,此外,人工检测的方式效率较低;采用相关算法检测时,游泳者身体遮挡或摄像机视角不佳会造成相关算法对溺水事件检测的误检率和漏检率较高。基于此,本公开的一些实施例的溺水报警方法,首先,获取目标水域在目标时间段内的水域视频。然后,对水域视频进行主动视觉信息识别,得到识别结果。由此,可以通过主动视觉信息确认当前水域是否发生溺水事件,降低了溺水事件的误检率和漏检率。其次,响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息。由此,为相关工作人员的援救提供了位置数据支持,便于相关工作人员前去援救。最后,控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。由此,可以提示相关工作人员对当前溺水事件进行援救,提高了溺水事件的检测效率。也因为利用了主动视觉信息自动进行溺水事件检测,提高了溺水事件的检测效率,可以在泳池深处的视野盲区进行主动视觉信息识别,降低了溺水事件检测的漏检率,避免了对游泳者身体姿态的检测,降低了溺水事件的误检率和漏检率。
进一步参考图3,其示出了溺水报警方法的另一些实施例的流程300。该溺水报警方法的流程300,包括以下步骤:
步骤301,获取目标水域在目标时间段内的水域视频。
在一些实施例中,步骤301的具体实现及其带来的技术效果可以参考图2对应的那些实施例中的步骤201,在此不再赘述。
步骤302,对水域视频中的每个视频帧中的游泳者进行目标检测处理,得到目标检测视频帧集合。
在一些实施例中,上述执行主体可以对水域视频中的每个视频帧中的游泳者进行目标检测处理,得到目标检测视频帧集合。其中,上述目标检测视频帧集合中的每个目标检测视频帧存在至少一个框选区域。上述框选区域可以为框选出游泳者的矩形框所在的区域。由此,缩小了进行主动视觉信息识别的区域。
步骤303,对目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别,得到识别结果。
在一些实施例中,上述执行主体可以对目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别,得到识别结果。实践中,上述执行主体可以采用第一目标识别模型对目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别。其中,上述第一目标识别模型可以为预先训练的、以框选区域的图像为输入数据,以识别结果为输出数据的神经网络模型。上述神经网络模型可以为基于深度学习的神经网络模型。例如,上述神经网络模型可以包括但不限于:RNN(循环神经网络)模型,GAN(Generative Adversarial Networks,生成式对抗网络)模型。由此,只对框选区域进行主动视觉信息识别,减少了运算量。
步骤303及其相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题二“相关算法运算量大,造成内存资源浪费”。导致相关算法运算量大,造成内存资源浪费的因素如下:需要检测人的肢体位置或骨骼姿态。如果解决了上述因素,就能达到减少运算量,节约内存资源的效果。为了达到这一效果,本公开对目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别,得到识别结果。因此,可以通过识别结果确认是否发生溺水事件,减少了运算量,节约了内存资源。
在一些实施例的一些可选的实现方式中,首先,响应于根据时间顺序检测到目标检测视频帧集合中的目标检测视频帧的框选区域内存在主动视觉信息,上述执行主体可以将最先检测到存在主动视觉信息的框选区域对应的目标检测视频帧确定为第一帧溺水视频帧。上述时间顺序可以为时间由早到晚的顺序。然后,上述执行主体可以将上述第一帧溺水视频帧对应的时间确定为开始溺水时间。
可选地,首先,上述执行主体可以对第一帧溺水视频帧中存在主动视觉信息的各个框选区域进行标注,得到标注后第一帧溺水视频帧。实践中,上述执行主体可以对第一帧溺水视频帧中存在主动视觉信息的各个框选区域进行矩形框标注。上述矩形框可以为颜色明显区别于视频帧的画面的颜色的矩形框。例如,上述矩形框可以为红色矩形框。由此,得到的标注后第一帧溺水视频帧可以包括上述矩形框。然后,上述执行主体可以将标注后第一帧溺水视频帧和开始溺水时间发送至相关联的用户终端,使得用户终端对标注后第一帧溺水视频帧和开始溺水时间进行显示。由此,可以提示相关工作人员开始溺水时间。
在一些实施例的一些可选的实现方式中,首先,响应于根据时间顺序检测到目标检测视频帧集合中的目标检测视频帧的框选区域内存在主动视觉信息,上述执行主体可以将包括的框选区域内存在主动视觉信息的各个目标检测视频帧确定为溺水视频帧集合。然后,上述执行主体可以根据溺水视频帧集合包括的溺水视频帧的数量和视频帧间隔时长,生成溺水时长。上述视频帧间隔时长可以为相邻两帧视频帧的时间差。实践中,上述执行主体可以将溺水视频帧的数量与1的差确定为视频帧间隔数量,并将视频帧间隔数量与视频帧间隔时长的乘积作为溺水时长。
可选地,首先,上述执行主体可以对溺水视频帧集合的每个溺水视频帧中存在主动视觉信息的各个框选区域进行标注以生成标注后溺水视频帧,得到标注后溺水视频帧集合。实践中,上述执行主体可以对溺水视频帧集合的每个溺水视频帧中存在主动视觉信息的各个框选区域进行矩形框标注。上述矩形框可以为颜色明显区别于视频帧的画面的颜色的矩形框。例如,上述矩形框可以为红色矩形框。由此,得到的标注后溺水视频帧集合中的每个标注后溺水视频帧可以包括上述矩形框。然后,上述执行主体可以将标注后溺水视频帧集合和溺水时长发送至用户终端,使得用户终端对标注后溺水视频帧集合中的各个标注后溺水视频帧和溺水时长进行显示。由此,可以提示相关工作人员溺水时长。
可选地,首先,上述执行主体可以根据开始溺水时间和目标时长,生成救援剩余时长。上述目标时长可以为溺水后的急救时长。例如,上述急救时长可以为4分钟。然后,可以将救援剩余时长发送至用户终端,使得用户终端通过通信连接的语音播放设备对救援剩余时长进行倒计时播放。上述语音播放设备可以为蓝牙音箱。实践中,上述执行主体可以将开始溺水时间与目标时长的和确定为最晚救援时间,将上述最晚救援时间与当前时间的差确定为救援剩余时长。例如,开始溺水时间可以为下午5点44分,当急救时长为4分钟时,最晚救援时间为5点48分,若当前时间为5点47分,则救援剩余时长为1分钟。实践中,上述执行主体可以将救援剩余时长“1分钟”发送至用户终端,使得用户终端通过通信连接的语音播放设备播放“救援时间还有1分钟”。由此,可以提示相关工作人员救援剩余时长,以便于相关工作人员掌握溺水者的溺水情况。
步骤304,对第一帧溺水视频帧中的预设标志性地点进行目标识别,得到预设标志性地点的地点名称。
在一些实施例中,上述执行主体可以对第一帧溺水视频帧中的预设标志性地点进行目标识别,得到预设标志性地点的地点名称。上述预设标志性地点可以为预先设定的,明显区别于上述第一帧溺水视频帧中的其他地点的地点。实践中,上述执行主体可以采用第二目标识别模型对第一帧溺水视频帧中的预设标志性地点进行目标识别。其中,上述第二目标识别模型可以为预先训练的、以第一帧溺水视频帧为输入数据,以预设标志性地点的地点名称为输出数据的神经网络模型。上述神经网络模型可以为基于深度学习的神经网络模型。例如,上述神经网络模型可以包括但不限于RNN(循环神经网络)模型,GAN(Generative Adversarial Networks,生成式对抗网络)模型。
步骤305,根据主动视觉信息与预设标志性地点,生成主动视觉信息与预设标志性地点的地理位置相对信息。
在一些实施例中,上述执行主体可以根据主动视觉信息与预设标志性地点,生成主动视觉信息与预设标志性地点的地理位置相对信息。实践中,上述执行主体可以根据主动视觉信息与预设标志性地点在第一帧溺水视频帧中的位置,生成主动视觉信息对于预设标志性地点的方位相对信息。上述方位相对信息可以为描述主动视觉信息与预设标志性地点的相对位置关系的信息。例如,在第一帧溺水视频帧上,当主动视觉信息位于预设标志性地点的北偏西25度方向时,可以确定方位相对信息为“溺水者位于预设标志性地点的北偏西25度方向”。实践中,上述执行主体可以根据主动视觉信息与预设标志性地点在第一帧溺水视频帧中的距离和预设比例,生成主动视觉信息对于预设标志性地点的距离相对信息。例如,上述距离可以为1厘米,上述预设比例可以为1:500,则上述距离相对信息表征上述主动视觉信息与上述预设标志性地点相距的距离为5米。实践中,上述执行主体可以将方位相对信息和距离相对信息确定为地理位置相对信息。
步骤306,根据地点名称对应的地理位置坐标与地理位置相对信息,生成主动视觉位置信息作为溺水者位置信息。
在一些实施例中,上述执行主体可以根据地点名称对应的地理位置坐标与地理位置相对信息,生成主动视觉位置信息作为溺水者位置信息。上述地理位置坐标可以为上述地点名称对应的预先存储在本地的预设标志性地点的经纬度。实践中,上述执行主体可以根据地理位置坐标与地理位置相对信息,利用球面三角函数法确定主动视觉信息的位置坐标,并将主动视觉信息的位置坐标和地理位置相对信息作为主动视觉位置信息。上述球面三角函数法可以为通过一个坐标点的坐标以及该坐标点与另一坐标点间的距离、方位角,确定上述另一个坐标点的坐标的方法。由此,通过步骤304-306,可以提示相关工作人员溺水者的具体位置,便于相关工作人员前去援救。
步骤307,控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
在一些实施例中,步骤307的具体实现及其带来的技术效果可以参考图2对应的那些实施例中的步骤207,在此不再赘述。
可选地,首先,上述执行主体可以根据溺水者位置信息,对标注后溺水视频帧集合中的各个标注后溺水视频帧进行位置标注处理,得到溺水者位置视频帧集合。实践中,上述执行主体可以将溺水者位置信息标注在标注后溺水视频帧中的矩形框的一侧。然后,上述执行主体可以将溺水者位置视频帧集合发送至用户终端,使得用户终端对溺水者位置视频帧集合中的各个溺水者位置视频帧进行显示。由此,可以更加清晰地提示相关工作人员溺水者的具体位置。
从图3中可以看出,与图2对应的一些实施例的描述相比,图3对应的一些实施例中的溺水报警方法的流程300体现了对主动视觉信息识别和位置检测进行扩展的步骤。由此,这些实施例描述的方案可以只对框选区域进行主动视觉信息识别,从而减少运算量。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了一种溺水报警装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,一些实施例的溺水报警装置400包括:获取单元401、主动视觉信息识别单元402、位置检测单元403和控制单元404。其中,获取单元401被配置成获取目标水域在目标时间段内的水域视频;主动视觉信息识别单元402被配置成对水域视频进行主动视觉信息识别,得到识别结果,其中,识别结果包括至少一个溺水标识,溺水标识表征水域视频中是否存在主动视觉信息;位置检测单元403被配置成响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;而控制单元404被配置成控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
可以理解的是,该装置400中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置400及其中包含的单元,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的一些实施例的电子设备(如图1所示的计算设备101)500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标水域在目标时间段内的水域视频;对水域视频进行主动视觉信息识别,得到识别结果,其中,识别结果包括至少一个溺水标识,溺水标识表征水域视频中是否存在主动视觉信息;响应于确定至少一个溺水标识中存在表征水域视频中存在主动视觉信息的溺水标识,对于每个表征水域视频中存在主动视觉信息的溺水标识,对溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、主动视觉信息识别单元、位置检测单元和控制单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标水域在目标时间段内的水域视频的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (9)

1.一种溺水报警方法,包括:
获取目标水域在目标时间段内的水域视频;
对所述水域视频进行主动视觉信息识别,得到识别结果,其中,所述识别结果包括至少一个溺水标识,所述溺水标识表征所述水域视频中是否存在主动视觉信息,其中,所述主动视觉信息为与所述目标水域有明显视觉差异的视觉信息,所述主动视觉信息包括以下中的任意一项:某种颜色的图像或图像集合、某种形状的图像或图像集合、或者某种随时间变化的特殊景象的图像或图像集合,上述某种颜色的图像或图像集合为游泳者穿戴的装备喷射的彩色烟雾的图像或图像集合、或者特定颜色的泳帽的图像或图像集合,上述某种形状的图像或图像集合为游泳者做出的特殊手势的图像或图像集合,上述某种随时间变化的特殊景象的图像或图像集合为救生衣发出的特定颜色的光的图像或图像集合,所述对所述水域视频进行主动视觉信息识别,包括:
对所述水域视频中的每个视频帧中的游泳者进行目标检测处理,得到目标检测视频帧集合,其中,所述目标检测视频帧集合中的每个目标检测视频帧存在至少一个框选区域,所述框选区域为框选出游泳者的矩形框所在的区域;
对所述目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别,得到识别结果;
或者,所述对所述水域视频进行主动视觉信息识别,还包括以下步骤:
第一步,基于所述水域视频中的每个视频帧的每个像素,生成第一视频帧集合,其中,所述生成第一视频帧集合,包括以下子步骤:
第一子步骤,响应于所述主动视觉信息为特定颜色的泳帽的图像或图像集合,对于所述水域视频中的每个视频帧的每个像素,利用以下公式生成每个像素的像素YUV值与预设YUV值的差值作为像素差值,得到像素差值集合:
Figure FDA0004048048780000011
其中,diff表示像素差值,Y表示像素的灰度分量,U表示像素的蓝色色差分量,V表示像素的红色色差分量,Y0表示预设的灰度分量,U0表示预设的蓝色色差分量,V0表示预设的红色色差分量,所述像素YUV值包括像素的灰度分量、像素的蓝色色差分量和像素的红色色差分量,所述预设YUV值包括预设的灰度分量、预设的蓝色色差分量和预设的红色色差分量;
第二子步骤,响应于所述像素差值集合中存在小于预设阈值的像素差值,将小于所述预设阈值的各个像素差值对应的各个像素确定为目标像素集合,并将所述目标像素集合中的各个目标像素所在的视频帧确定为第一视频帧集合;
第二步,对所述第一视频帧集合中的每个第一视频帧进行图像形态学处理,得到图像形态学处理后的各个第一视频帧作为第二视频帧集合;
第三步,对所述第二视频帧集合中的每个第二视频帧进行线段标记处理,得到第三视频帧集合,其中,所述对所述第二视频帧集合中的每个第二视频帧进行线段标记处理,包括以下子步骤:
第一子步骤,将所述第二视频帧中每个视频帧行中连续的目标像素标记为线段,得到标记处理后的第二视频帧作为第三视频帧;
第二子步骤,确定所述视频帧行包括的线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息,并将所述视频帧行包括的线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息组合为结构体数组信息;
第四步,利用所述结构体数组信息对所述第三视频帧集合中的每个第三视频帧进行矩形标注处理,得到目标矩形集合,其中,所述矩形标注处理包括以下子步骤:
第一子步骤,对于所述第三视频帧包括的每个视频帧行,从所述结构体数组信息中提取所述视频帧行包括的每个线段的起始像素位置信息、结束像素位置信息、线段编号和视频帧行编号,将提取处理后的每个线段作为目标线段,得到目标线段集合;
第二子步骤,对所述目标线段集合中中满足连通条件的目标线段进行第一编号赋值处理,得到第一赋值目标线段集合,其中,所述连通条件如以下公式所示:
Bn.left<(Am.right+1),
且Bn.right>(Am·left-1);
其中,n表示所述目标线段的线段编号,m表示对比线段的线段编号,left表示在视频帧行中位于线段的起始端的像素的列号,right表示在视频帧行中位于线段的末尾端的像素的列号,B表示所述目标线段所在的视频帧行编号,A表示对比线段所在的视频帧行的视频帧行编号,Bn.right表示目标线段的末尾端的像素的列号,Am.left表示对比线段的起始端的像素的列号,Bn.left表示目标线段的起始端的像素的列号,Am.right表示对比线段的末尾端的像素的列号,所述对比线段为所述目标线段集合中位于所述目标线段上一视频帧行的目标线段,所述第一编号赋值处理为将所述对比线段的连通编号确定为所述目标线段的连通编号的处理,所述连通编号为连通的线段的编号,其中,所述连通的线段为连续两个视频帧行中相互邻接的线段,当存在连通编号相同的目标线段时,连通编号相同的目标线段相互连通,其中,当多个对比线段位于所述目标线段的上一视频帧行时,将所述多个对比线段中连通编号最小的对比线段的连通编号确定为所述目标线段的连通编号,并将所述多个对比线段中连通编号最小的对比线段的连通编号作为所述多个对比线段中除连通编号最小的对比线段以外的对比线段的连通编号;
第三子步骤,对所述第一赋值目标线段集合中不满足所述连通条件的第一赋值目标线段进行第二编号赋值处理,得到第二赋值目标线段集合;
第四子步骤,基于所述第二赋值目标线段集合中的每个第二赋值目标线段,生成外围矩形,得到外围矩形集合;
第五子步骤,对各个外围矩形集合进行剔除处理,得到目标矩形集合;
第五步,对目标矩形集合中的每个目标矩形进行矩形跟踪处理,得到矩形坐标集合;
第六步,将所述矩形坐标集合输入至溺水识别模型,得到识别结果;
响应于确定所述至少一个溺水标识中存在表征所述水域视频中存在主动视觉信息的溺水标识,对于每个表征所述水域视频中存在主动视觉信息的溺水标识,对所述溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;
控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
2.根据权利要求1所述的方法,其中,所述对所述目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别,包括:
响应于根据时间顺序检测到所述目标检测视频帧集合中的目标检测视频帧的框选区域内存在主动视觉信息,将最先检测到存在主动视觉信息的框选区域对应的目标检测视频帧确定为第一帧溺水视频帧;
将所述第一帧溺水视频帧对应的时间确定为开始溺水时间;以及
所述方法还包括:
对所述第一帧溺水视频帧中存在主动视觉信息的各个框选区域进行标注,得到标注后第一帧溺水视频帧;
将所述标注后第一帧溺水视频帧和所述开始溺水时间发送至相关联的用户终端,使得所述用户终端对所述标注后第一帧溺水视频帧和所述开始溺水时间进行显示。
3.根据权利要求2所述的方法,其中,所述对所述目标检测视频帧集合中的各个目标检测视频帧的框选区域进行主动视觉信息识别,包括:
响应于根据时间顺序检测到所述目标检测视频帧集合中的目标检测视频帧的框选区域内存在主动视觉信息,将包括的框选区域内存在主动视觉信息的各个目标检测视频帧确定为溺水视频帧集合;
根据所述溺水视频帧集合包括的溺水视频帧的数量和视频帧间隔时长,生成溺水时长;以及
所述方法还包括:
对所述溺水视频帧集合的每个溺水视频帧中存在主动视觉信息的各个框选区域进行标注以生成标注后溺水视频帧,得到标注后溺水视频帧集合;
将所述标注后溺水视频帧集合和所述溺水时长发送至所述用户终端,使得所述用户终端对所述标注后溺水视频帧集合中的各个标注后溺水视频帧和所述溺水时长进行显示。
4.根据权利要求3所述的方法,其中,所述方法还包括:
根据所述开始溺水时间和目标时长,生成救援剩余时长;
将所述救援剩余时长发送至所述用户终端,使得所述用户终端通过通信连接的语音播放设备对所述救援剩余时长进行倒计时播放。
5.根据权利要求3所述的方法,其中,所述对所述溺水标识对应的主动视觉信息进行位置检测,包括:
对所述第一帧溺水视频帧中的预设标志性地点进行目标识别,得到所述预设标志性地点的地点名称;
根据所述主动视觉信息与所述预设标志性地点,生成所述主动视觉信息与所述预设标志性地点的地理位置相对信息;
根据所述地点名称对应的地理位置坐标与所述地理位置相对信息,生成主动视觉位置信息作为溺水者位置信息。
6.根据权利要求5所述的方法,其中,所述方法还包括:
根据所述溺水者位置信息,对所述标注后溺水视频帧集合中的各个标注后溺水视频帧进行位置标注处理,得到溺水者位置视频帧集合;
将所述溺水者位置视频帧集合发送至所述用户终端,使得所述用户终端对所述溺水者位置视频帧集合中的各个溺水者位置视频帧进行显示。
7.一种溺水报警装置,包括:
获取单元,被配置成获取目标水域在目标时间段内的水域视频;
主动视觉信息识别单元,被配置成对所述水域视频进行主动视觉信息识别,得到识别结果,其中,所述识别结果包括至少一个溺水标识,所述溺水标识表征所述水域视频中是否存在主动视觉信息,其中,所述主动视觉信息为与所述目标水域有明显视觉差异的视觉信息,所述主动视觉信息包括以下中的任意一项:某种颜色的图像或图像集合、某种形状的图像或图像集合、或者某种随时间变化的特殊景象的图像或图像集合,上述某种颜色的图像或图像集合为游泳者穿戴的装备喷射的彩色烟雾的图像或图像集合、或者特定颜色的泳帽的图像或图像集合,上述某种形状的图像或图像集合为游泳者做出的特殊手势的图像或图像集合,上述某种随时间变化的特殊景象的图像或图像集合为救生衣发出的特定颜色的光的图像或图像集合,所述对所述水域视频进行主动视觉信息识别,包括:
对所述水域视频中的每个视频帧中的游泳者进行目标检测处理,得到目标检测视频帧集合,其中,所述目标检测视频帧集合中的每个目标检测视频帧存在至少一个框选区域,所述框选区域为框选出游泳者的矩形框所在的区域;
对所述目标检测视频帧集合中的各个目标检测视频帧的各个框选区域进行主动视觉信息识别,得到识别结果;
或者,所述对所述水域视频进行主动视觉信息识别,还包括以下步骤:
第一步,基于所述水域视频中的每个视频帧的每个像素,生成第一视频帧集合,其中,所述生成第一视频帧集合,包括以下子步骤:
第一子步骤,响应于所述主动视觉信息为特定颜色的泳帽的图像或图像集合,对于所述水域视频中的每个视频帧的每个像素,利用以下公式生成每个像素的像素YUV值与预设YUV值的差值作为像素差值,得到像素差值集合:
Figure FDA0004048048780000071
其中,diff表示像素差值,Y表示像素的灰度分量,U表示像素的蓝色色差分量,V表示像素的红色色差分量,Y0表示预设的灰度分量,U0表示预设的蓝色色差分量,V0表示预设的红色色差分量,所述像素YUV值包括像素的灰度分量、像素的蓝色色差分量和像素的红色色差分量,所述预设YUV值包括预设的灰度分量、预设的蓝色色差分量和预设的红色色差分量;
第二子步骤,响应于所述像素差值集合中存在小于预设阈值的像素差值,将小于所述预设阈值的各个像素差值对应的各个像素确定为目标像素集合,并将所述目标像素集合中的各个目标像素所在的视频帧确定为第一视频帧集合;
第二步,对所述第一视频帧集合中的每个第一视频帧进行图像形态学处理,得到图像形态学处理后的各个第一视频帧作为第二视频帧集合;
第三步,对所述第二视频帧集合中的每个第二视频帧进行线段标记处理,得到第三视频帧集合,其中,所述对所述第二视频帧集合中的每个第二视频帧进行线段标记处理,包括以下子步骤:
第一子步骤,将所述第二视频帧中每个视频帧行中连续的目标像素标记为线段,得到标记处理后的第二视频帧作为第三视频帧;
第二子步骤,确定所述视频帧行包括的线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息,并将所述视频帧行包括的线段的起始像素位置信息、结束像素位置信息、线段编号和线段所在的视频帧行的视频帧行编号的信息组合为结构体数组信息;
第四步,利用所述结构体数组信息对所述第三视频帧集合中的每个第三视频帧进行矩形标注处理,得到目标矩形集合,其中,所述矩形标注处理包括以下子步骤:
第一子步骤,对于所述第三视频帧包括的每个视频帧行,从所述结构体数组信息中提取所述视频帧行包括的每个线段的起始像素位置信息、结束像素位置信息、线段编号和视频帧行编号,将提取处理后的每个线段作为目标线段,得到目标线段集合;
第二子步骤,对所述目标线段集合中中满足连通条件的目标线段进行第一编号赋值处理,得到第一赋值目标线段集合,其中,所述连通条件如以下公式所示:
Bn.left<(Am.right+1),
且Bn.right>(Am·left-1);
其中,n表示所述目标线段的线段编号,m表示对比线段的线段编号,left表示在视频帧行中位于线段的起始端的像素的列号,right表示在视频帧行中位于线段的末尾端的像素的列号,B表示所述目标线段所在的视频帧行编号,A表示对比线段所在的视频帧行的视频帧行编号,Bn.right表示目标线段的末尾端的像素的列号,Am·left表示对比线段的起始端的像素的列号,Bn.left表示目标线段的起始端的像素的列号,Am.right表示对比线段的末尾端的像素的列号,所述对比线段为所述目标线段集合中位于所述目标线段上一视频帧行的目标线段,所述第一编号赋值处理为将所述对比线段的连通编号确定为所述目标线段的连通编号的处理,所述连通编号为连通的线段的编号,其中,所述连通的线段为连续两个视频帧行中相互邻接的线段,当存在连通编号相同的目标线段时,连通编号相同的目标线段相互连通,其中,当多个对比线段位于所述目标线段的上一视频帧行时,将所述多个对比线段中连通编号最小的对比线段的连通编号确定为所述目标线段的连通编号,并将所述多个对比线段中连通编号最小的对比线段的连通编号作为所述多个对比线段中除连通编号最小的对比线段以外的对比线段的连通编号;
第三子步骤,对所述第一赋值目标线段集合中不满足所述连通条件的第一赋值目标线段进行第二编号赋值处理,得到第二赋值目标线段集合;
第四子步骤,基于所述第二赋值目标线段集合中的每个第二赋值目标线段,生成外围矩形,得到外围矩形集合;
第五子步骤,对各个外围矩形集合进行剔除处理,得到目标矩形集合;
第五步,对目标矩形集合中的每个目标矩形进行矩形跟踪处理,得到矩形坐标集合;
第六步,将所述矩形坐标集合输入至溺水识别模型,得到识别结果;
位置检测单元,被配置成响应于确定所述至少一个溺水标识中存在表征所述水域视频中存在主动视觉信息的溺水标识,对于每个表征所述水域视频中存在主动视觉信息的溺水标识,对所述溺水标识对应的主动视觉信息进行位置检测,得到主动视觉位置信息作为溺水者位置信息;
控制单元,被配置成控制相关联的报警设备执行对应于所得到的溺水者位置信息的报警操作。
8.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至6中任一所述的方法。
9.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1至6中任一所述的方法。
CN202111117453.9A 2021-09-23 2021-09-23 溺水报警方法、装置、电子设备和计算机可读介质 Active CN113838266B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111117453.9A CN113838266B (zh) 2021-09-23 2021-09-23 溺水报警方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111117453.9A CN113838266B (zh) 2021-09-23 2021-09-23 溺水报警方法、装置、电子设备和计算机可读介质

Publications (2)

Publication Number Publication Date
CN113838266A CN113838266A (zh) 2021-12-24
CN113838266B true CN113838266B (zh) 2023-04-07

Family

ID=78969615

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111117453.9A Active CN113838266B (zh) 2021-09-23 2021-09-23 溺水报警方法、装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN113838266B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2364080A1 (en) * 2001-06-26 2002-12-26 Steve Mann Infrared sensor operated fixtures, or infrared sensor system
CA2357681A1 (en) * 2001-06-26 2002-12-26 Steve Mann Smart bathroom fixtures and systems
CN103413114A (zh) * 2013-05-17 2013-11-27 浙江大学 一种基于支持向量机的溺水行为检测方法
CN105043258A (zh) * 2015-08-25 2015-11-11 吉林大学 汽车形貌主动视觉测量激光平面的自转动标定靶标
CN106612385A (zh) * 2015-10-22 2017-05-03 株式会社理光 视频检测方法和视频检测装置
CN107566797A (zh) * 2017-09-07 2018-01-09 青岛博晶微电子科技有限公司 一种泳池溺水监控检测装置
CN107622505A (zh) * 2017-09-07 2018-01-23 青岛博晶微电子科技有限公司 一种泳池溺水监控检测方法
CN108647575A (zh) * 2018-04-10 2018-10-12 西北工业大学 基于光学视觉分析的溺水预警方法
CN208231072U (zh) * 2018-05-18 2018-12-14 江苏亚威创科源激光装备有限公司 基于主动视觉的水下湿法激光焊接跟踪装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6839452B1 (en) * 1999-11-23 2005-01-04 California Institute Of Technology Dynamically re-configurable CMOS imagers for an active vision system
CN105698767B (zh) * 2015-12-30 2019-05-10 哈尔滨工业大学深圳研究生院 一种基于视觉的水下测量方法
CN106951870B (zh) * 2017-02-15 2020-07-17 重庆警察学院 主动视觉注意的监控视频显著事件智能检测预警方法
CN111637850B (zh) * 2020-05-29 2021-10-26 南京航空航天大学 一种无需主动视觉标记的自拼接表面点云测量方法
CN112464030B (zh) * 2020-11-25 2024-05-14 浙江大华技术股份有限公司 一种可疑人员确定方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2364080A1 (en) * 2001-06-26 2002-12-26 Steve Mann Infrared sensor operated fixtures, or infrared sensor system
CA2357681A1 (en) * 2001-06-26 2002-12-26 Steve Mann Smart bathroom fixtures and systems
CN103413114A (zh) * 2013-05-17 2013-11-27 浙江大学 一种基于支持向量机的溺水行为检测方法
CN105043258A (zh) * 2015-08-25 2015-11-11 吉林大学 汽车形貌主动视觉测量激光平面的自转动标定靶标
CN106612385A (zh) * 2015-10-22 2017-05-03 株式会社理光 视频检测方法和视频检测装置
CN107566797A (zh) * 2017-09-07 2018-01-09 青岛博晶微电子科技有限公司 一种泳池溺水监控检测装置
CN107622505A (zh) * 2017-09-07 2018-01-23 青岛博晶微电子科技有限公司 一种泳池溺水监控检测方法
CN108647575A (zh) * 2018-04-10 2018-10-12 西北工业大学 基于光学视觉分析的溺水预警方法
CN208231072U (zh) * 2018-05-18 2018-12-14 江苏亚威创科源激光装备有限公司 基于主动视觉的水下湿法激光焊接跟踪装置

Also Published As

Publication number Publication date
CN113838266A (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
JP6597609B2 (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
WO2018047646A1 (ja) 混雑検知装置、混雑検知システムおよび混雑検知方法
US20190332856A1 (en) Person's behavior monitoring device and person's behavior monitoring system
KR20150065847A (ko) 이벤트 검출을 위해 시각 정보를 프로세싱하기 위한 시스템 및 방법
CN111242025B (zh) 一种基于yolo的动作实时监测方法
JP2007219948A (ja) ユーザ異常検出装置、及びユーザ異常検出方法
EP3869477A1 (en) Video surveillance system and video surveillance method
US20210174073A1 (en) A Method and Apparatus for Swimmer Tracking
CN103795978B (zh) 一种多画面智能识别方法及其装置
JP6764214B1 (ja) 混雑情報報知システム
CN112489371A (zh) 一种基于计算机视觉的泳池防溺水预警系统
CN112070052A (zh) 一种间距监测方法、装置、系统及存储介质
JP6744652B1 (ja) 混雑情報報知システム
CN113299073A (zh) 识别车辆违章停车的方法、装置、设备和存储介质
CN113361364B (zh) 目标行为检测方法、装置、设备及存储介质
US10366286B2 (en) Detection of traffic light signal changes
CN113838266B (zh) 溺水报警方法、装置、电子设备和计算机可读介质
CN113793366A (zh) 图像处理方法、装置、设备及存储介质
CN112700568B (zh) 一种身份认证的方法、设备及计算机可读存储介质
CN111950491B (zh) 一种人员密度的监控方法、装置及计算机可读存储介质
US10176695B2 (en) Real-time water safety analysis based on color-movement tracking
CN114973589B (zh) 火情信息生成方法、装置、电子设备和计算机可读介质
CN113076799A (zh) 溺水识别报警方法、装置、平台、系统及存储介质
CN115035163A (zh) 基于蓝牙定位的目标追踪方法、装置、设备及存储介质
CN114463941A (zh) 防溺水告警方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant