CN116189238A - 一种基于神经网络的人形检测识别的摔倒检测方法 - Google Patents
一种基于神经网络的人形检测识别的摔倒检测方法 Download PDFInfo
- Publication number
- CN116189238A CN116189238A CN202310416178.3A CN202310416178A CN116189238A CN 116189238 A CN116189238 A CN 116189238A CN 202310416178 A CN202310416178 A CN 202310416178A CN 116189238 A CN116189238 A CN 116189238A
- Authority
- CN
- China
- Prior art keywords
- central controller
- image
- preset
- fall
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 76
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012377 drug delivery Methods 0.000 claims description 79
- 230000033001 locomotion Effects 0.000 claims description 47
- 238000004891 communication Methods 0.000 claims description 20
- 230000001815 facial effect Effects 0.000 claims description 18
- 239000003814 drug Substances 0.000 claims description 17
- 230000000875 corresponding effect Effects 0.000 claims description 15
- 229940079593 drug Drugs 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 7
- 230000001276 controlling effect Effects 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 239000000463 material Substances 0.000 abstract description 3
- 206010010071 Coma Diseases 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 208000019622 heart disease Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 241001122767 Theaceae Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 206010008118 cerebral infarction Diseases 0.000 description 1
- 208000026106 cerebrovascular disease Diseases 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于神经网络的人形检测识别的摔倒检测方法,涉及计算机视觉技术领域。所述方法包括:获取房间内的第一摄像装置所传递的待识别图像组,所述待识别图像组包括多帧图像;对各帧图像进行人形检测,获取只有一个人形的图像;分别获取只具有一个人形的图像的人形的姿态信息;获取经过训练的行为分类器;提取各个人形的姿态信息的姿态特征;中央控制器将所述姿态特征输入至行为分类器,从而获取行为分类标签,所述行为分类标签包括摔倒标签,当分类标签为摔倒标签时,判断所述图像中的人形处于摔倒状态。本申请只有在人形检测判断只有一个人形时才考虑该人形是否摔倒,从而防止在身边有其他人时还进行报警,浪费人力物力的情况发生。
Description
技术领域
本申请涉及计算机视觉技术领域,具体涉及一种基于神经网络的人形检测识别的摔倒检测方法。
背景技术
在现代社会,大多数年轻人在白天需要工作,导致家里可能只留有年龄超过65岁以上的老人,据数据统计来看,跌倒是65岁以上老年人受伤害死亡的首位原因,老人之所以容易摔倒,一般有两种原因,第一种是由于自身疾病导致,例如,由于心脏病所引发的突然昏迷,或者脑梗等原因导致的突然昏迷,另一种是由于行走时没有注意导致的被家里的物件绊倒导致的物理损伤。
然而,现有的摔倒检测方法,通常不考虑家里是否有人,而是在判断摔倒后直接进行报警,这样就很容易出现多余的报警,例如,家里虽然老人摔倒了,但是身边可能同时有其他人陪伴,此时根本不需要机器做出响应。
发明内容
本发明的目的在于提供一种基于神经网络的人形检测识别的摔倒检测方法来至少解决上述的一个技术问题。
本发明的一个方面,提供一种基于神经网络的人形检测识别的摔倒检测方法,所述基于神经网络的人形检测识别的摔倒检测方法包括:
中央控制器获取房间内的第一摄像装置所传递的待识别图像组,所述待识别图像组包括多帧连续的图像;
中央控制器对各帧图像进行人形检测,获取各帧图像中只具有一个人形的图像;
中央控制器分别获取只具有一个人形的图像的人形的姿态信息;
中央控制器获取经过训练的行为分类器;
中央控制器提取各个所述人形的姿态信息的姿态特征;
中央控制器将所述姿态特征输入至所述行为分类器,从而获取行为分类标签,所述行为分类标签包括摔倒标签,当所述分类标签为摔倒标签时,判断所述图像中的人形处于摔倒状态。
可选地,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取与所述房间内的第一摄像装置位于同一个局域网的其他摄像装置所传递的图像信息,每个与第一摄像装置位于同一个局域网的其他摄像装置称为第二摄像装置;
中央控制器分别对各个第二摄像装置所传递的图像信息进行识别,判断是否有一个图像信息中具有人形图像,若是,则
中央控制器获取摄像装置数据库,所述摄像装置数据库包括至少一个摄像装置身份标识以及声音输出装置,一个摄像装置身份标识与一个声音输出装置关联;
中央控制器获取所传递的图像信息中具有人形图像的第二摄像装置的身份标识;
中央控制器生成求救语音信息并将求救语音信息发送给与所述身份标识相同的摄像装置身份标识所关联的声音输出装置。
可选地,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器分别对各个第二摄像装置所传递的图像信息进行识别,判断是否有一个图像信息中具有人形图像,若否,则
中央控制器获取位于所述房间内的深度摄像装置所传递的深度图;
中央控制器根据所述待识别图像组以及所述深度图获取处于摔倒状态的人形周围是否具有非活动物体,若是,则
中央控制器识别所述非活动物体类型;
中央控制器根据待识别图像组判断在多帧连续的图像中,靠近人形的非活动物体是否具有运动,若是,则
中央控制器获取关联知识数据库,所述关联知识数据库包括至少一个预设非活动物体类型以及预设摔倒原因,一个预设非活动物体类型与一个预设摔倒原因关联;
中央控制器获取与所述非活动物体类型相同的预设非活动物体类型所对应的预设摔倒原因;
中央控制器获取预存话术数据库,所述预存话术数据库包括至少一个预存话术以及预设摔倒原因,一个预设摔倒原因对应一个预存话术;
中央控制器获取预设摔倒原因所对应的预存话术进行语音报警。
可选地,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取处于摔倒状态下的人形附近的地板上的标识信息;
中央控制器将获取到的标识信息传递给与中央控制器通信连接的送药机器人,所述送药机器人上载有常用药品、通信设备、声音输出设备以及声音输入设备;
送药机器人根据所述标识信息导航至所述处于摔倒状态的人形附近。
可选地,所述送药机器人根据所述标识信息导航至所述处于摔倒状态的人形附近包括:
送药机器人获取通过SLAM技术获取的房间地图信息,所述房间地图信息包括多块地图子图,每个地图子图对应一个标识信息;
送药机器人通过所述标识信息导航至处于摔倒状态的人形附近;
送药机器人绕所述人形运动,并通过送药机器人上搭载的第三摄像装置以预设频率获取图像信息并传递给所述中央控制器;
所述中央控制器根据所述第三摄像装置所传递的各帧图像信息判断是否能够获取到人脸信息,若是,则
中央控制器生成停止运动信号并传递给送药机器人。
可选地,在所述中央控制器生成停止运动信号并传递给送药机器人后,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取第三摄像装置所传递的图像信息以及第一摄像装置所传递的图像信息;
所述中央控制器获取送药机器人上的通信设备的信号,判断通信设备是否被使用,若否,则
所述中央控制器根据所述第一摄像装置所传递的图像信息判断处于摔倒状态的人形是否与送药机器人进行互动,若是,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的唇部动作,所述唇部动作包括食用动作,若所述唇部动作为使用动作,则
中央控制器生成询问语音并发送给所述送药机器人的声音输出设备进行输出;
中央控制器获取处于摔倒状态的人形根据所述询问语音所反馈的语音信息;
根据所述语音信息判断是否进行报警。
可选地,在所述中央控制器生成停止运动信号并传递给送药机器人后,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
所述中央控制器根据所述第一摄像装置所传递的图像信息判断处于摔倒状态的人形是否与送药机器人进行互动,若否,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的眼睛状态,所述眼睛状态包括闭眼状态,若所述眼睛状态为使闭眼状态且持续预设时长,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的面部特征;
中央控制器获取预设人员数据库,所述预设人员数据库包括至少一个预设人员面部特征以及预设基本话术信息,一个预设人员面部特征对应一个预设基本话术信息;
中央控制器计算所述面部特征与各个预设人员面部特征的相似度,若有一个相似度超过相似度阈值,则
中央控制器获取超过相似度阈值的预设人员面部特征所对应的预设基本话术;
中央控制器根据所述预设基本话术进行报警,所述预设基本话术包括预设人员的年龄信息、病史信息、住址信息以及家庭成员紧急联系电话。
可选地,当所述中央控制器获取预设摔倒原因时,所述中央控制器根据所述预设基本话术以及预设摔倒原因进行报警。
有益效果
本申请的基于神经网络的人形检测识别的摔倒检测方法首先进行人形检测,只有在人形检测判断只有一个人形的时候,才考虑该人形是否摔倒,从而防止在身边有其他人时还进行报警,尤其是进行远程报警或者直接连接公共平台(例如110平台、120平台等),从而浪费人力物力。
附图说明
图1是本申请一实施例的基于神经网络的人形检测识别的摔倒检测方法的流程示意图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本申请一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本申请的实施例进行详细说明。
图1是本申请一实施例的基于神经网络的人形检测识别的摔倒检测方法的流程示意图。
如图1所示的基于神经网络的人形检测识别的摔倒检测方法包括:
步骤1:中央控制器获取房间内的第一摄像装置所传递的待识别图像组,所述待识别图像组包括多帧连续的图像;
步骤2:中央控制器对各帧图像进行人形检测,获取各帧图像中只具有一个人形的图像;
步骤3:中央控制器分别获取只具有一个人形的图像的人形的姿态信息;
步骤4:中央控制器获取经过训练的行为分类器;
步骤5:中央控制器提取各个所述人形的姿态信息的姿态特征;
步骤6:中央控制器将所述姿态特征输入至所述行为分类器,从而获取行为分类标签,所述行为分类标签包括摔倒标签,当所述分类标签为摔倒标签时,判断所述图像中的人形处于摔倒状态。
本申请的基于神经网络的人形检测识别的摔倒检测方法首先进行人形检测,只有在人形检测判断只有一个人形的时候,才考虑该人形是否摔倒,从而防止在身边有其他人时还进行报警,尤其是进行远程报警或者直接连接公共平台(例如110平台、120平台等),从而浪费人力物力。
在本实施例中,本申请的应用场景为普通居民住宅,例如二居室、三居室这种居民住宅,本申请的第一摄像装置可以是安装于客厅内的摄像装置,也可以是安装在卧室或者其他位置的摄像装置。
在本实施例中,第一摄像装置的数量可以是一个,也可以是多个,在是多个第一摄像装置的实施例中,各个摄像装置可以安装在不同的位置,从而能够实现整个房间的全方位的监控。
在本实施例中,本申请指的只具有一个人形的图像,是指通过图像识别的方法只识别到一个人形,可以有其他非人的物品,并非指该图像中除了一个人形以外,没有任何其他物体,例如,在一个典型的房间(例如客厅)中,除了人形以外,还可以有沙发、茶几、圆凳等物体,又或者可以有猫狗等活物。
在本实施例中,中央控制器对各帧图像进行人形检测可以采用如下方法进行:
本申请可以通过R-CNN(区域卷积神经网络)来进行目标检测,具体而言,使用选择性搜索方法在图像上提取候选区域,继而将各候选区域图像通过裁减或缩放等方式变换成固定大小,继而提取图像特征。
将提取的图像特征输入至特定的支持向量机分类器中,从而获取分类结果。
当检测出具有多个人形时,不需要进行本申请的剩余的步骤,因为通常在两个人在家的情况下,很少可能出现一个人摔倒另一个人无法报警的情况。
当检测出只有一个人形的图像时,通过神经网络获取该人形的姿态信息。
在本实施例中,本申请采用YOLOv5方法获取人体姿态。
在本实施例中,姿态识别拥有外观、光流、骨骼、深度等多种模态,其中骨骼较其他模态能够传达出更多的信息,在本实施例中,采用时空图卷积网络(ST-GCN)的方式进行姿态识别。
在本实施例中,对本申请的经过训练的行为分类器进行训练的数据集取用于Le2iFall detection Dataset 公开数据集,该数据集用于进行摔倒检测任务。
在本实施例中,本申请首先使用人形目标检测算法检测视频帧中的人形,并在人形只有一个的情况下,进行人体的姿态评估,最后通过行为分类器(例如,时空图卷积神经网络ST-GCN)预测人体动作(例如,摔倒),从而实现人体摔倒的识别。
在本实施例中,当行为分类标签为摔倒标签时,基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取与所述房间内的第一摄像装置位于同一个局域网的其他摄像装置所传递的图像信息,每个与第一摄像装置位于同一个局域网的其他摄像装置称为第二摄像装置;
中央控制器分别对各个第二摄像装置所传递的图像信息进行识别,判断是否有一个图像信息中具有人形图像,若是,则
中央控制器获取摄像装置数据库,所述摄像装置数据库包括至少一个摄像装置身份标识以及声音输出装置,一个摄像装置身份标识与一个声音输出装置关联;
中央控制器获取所传递的图像信息中具有人形图像的第二摄像装置的身份标识;
中央控制器生成求救语音信息并将求救语音信息发送给与所述身份标识相同的摄像装置身份标识所关联的声音输出装置。
本申请的应用环境通常不局限于某一个房间,可能整个环境在一个大的套间内,例如上述的三居室等情况,此时,有可能一个老人在某一个房间内摔倒,但是其他房间人在睡觉或者在玩游戏等,此时可能没有注意到其他房间内的老人摔倒,此时,通过本申请的方法,当识别出其他房间有人时,可通过本申请的方法进行报警,另外,本申请的各个设备(第一摄像装置、第二摄像装置、声音输出装置等)均位于统一网络中,因此,只要通过统一的中央控制器进行计算即可,不需要增加额外的计算设备。
在本实施例中,第二摄像装置可以设置在各个除第一摄像装置所位于的房间内的其他任何一个房间内,第二摄像装置设置的数量也可以根据需要自行设定。
在本实施例中,每个房间都设置有声音输出装置,这样,当需要进行报警时,可以通过声音输出装置进行声音的输出,从而让位于该房间内的人了解情况。
在本实施例中,每个摄像装置都有一个自己的身份标识,例如,位于某一个房间内的第二摄像装置的身份标识位001,而位于另一个房间内的第二摄像装置的身份标识为002。
在本实施例中,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器分别对各个第二摄像装置所传递的图像信息进行识别,判断是否有一个图像信息中具有人形图像,若否,则
中央控制器获取位于房间(在本实施例中,该房间指有人摔倒的房间)内的深度摄像装置所传递的深度图;
中央控制器根据所述待识别图像组以及所述深度图获取处于摔倒状态的人形周围是否具有非活动物体,若是,则
中央控制器识别所述非活动物体类型;
中央控制器根据待识别图像组判断在多帧连续的图像中,靠近人形的非活动物体是否具有运动,若是,则
中央控制器获取关联知识数据库,所述关联知识数据库包括至少一个预设非活动物体类型以及预设摔倒原因,一个预设非活动物体类型与一个预设摔倒原因关联;
中央控制器获取与所述非活动物体类型相同的预设非活动物体类型所对应的预设摔倒原因;
中央控制器获取预存话术数据库,所述预存话术数据库包括至少一个预存话术以及预设摔倒原因,一个预设摔倒原因对应一个预存话术;
中央控制器获取预设摔倒原因所对应的预存话术进行语音报警。
在本实施例中,当通过各个第二摄像装置所获取的图像信息来识别均没有发现其他同居者的情况下,就需要通过本申请的方法进行报警,这种报警可以是向预设的紧急联系人进行报警,例如,中央控制器中存储有紧急联系人信息(例如摔倒者的近亲属),通过本申请的预存话术进行联系,可以理解的是,还可以给公共平台进行报警,例如直接连通120或者999等急救中心进行报警。
在本申请中,本申请进行报警时,不仅要进行报警,为了让接警人了解到患者的情况,本申请通过图像识别的方式还进行了摔倒原因的预估。
举例来说,本申请首先获取位于所述房间内的深度摄像装置所传递的深度图以及待识别图像组,通过深度图以及待识别图像组,可以识别出处于摔倒状态的人形周围是否具有非活动物体。
具体来说,本申请可以采用如下方式获取相对位置关系:
获取各帧图像中只具有一个人形的图像;
通过目标检测算法(例如R-CNN)来获取图像中的除人形以外的非活动物体的物体区域(人形在上述过程中已经获取,因此不需要再次获取,非活动物体例如椅子、小型玩具,例如遥控车等);
对各个物体区域(例如,在一个实施例中,图像中具有一个人形以及一个椅子,则物体区域是指人形所占的图像中的区域以及椅子所占的图像的区域)进行特征提取操作,得到视觉特征和语义特征;
对所述物体区域中多个像素点的深度信息进行聚类处理,得到目标聚类集合;
基于所述目标聚类集中多个像素点的深度确定所述目标聚类集对应的目标对象的中心深度;
根据各个物体区域对应的视觉特征、语义特征和目标对象的中心深度确定多个目标对象中任意两个目标对象之间的位置结果;所述位置结果表征两个目标对象之间相对位置关系。
更具体地说,根据各个物体区域对应的视觉特征、语义特征和目标对象的中心深度确定多个目标对象中任意两个目标对象之间的位置结果包括:
根据任意两个物体区域对应的目标对象的中心深度的差值,得到深度差值集;
利用已训练的位置关系分类模型对深度差值集、各个物体区域对应的视觉特征、语义特征进行处理,得到多个物体区域中任意两个物体区域之间的位置结果(例如,在包括人形以及椅子的实施例中,会得到人形以及椅子的位置结果,在本实施例中,该位置结果可能为人摔倒在椅子旁边)。
当获取到位置结果后,中央控制器根据待识别图像组判断在多帧连续的图像中,靠近人形的非活动物体是否具有运动,举例来说,通过对连续多帧的图像进行识别,可以获取到物体的移动轨迹,具体而言,通过对每帧图像进行图像识别,可以获取物体在每帧图像的位置,从而获取到物体的移动轨迹。
在本实施例中,当靠近人形的非活动物体在本申请判断人形处于摔倒状态之前的几十帧或几秒内,从待识别图像组中可以识别出该非活动物体位于人形附近并且具有运动(举例来说,假设在1点23分2秒,本申请的中央控制器通过图像识别的方式判断人形处于摔倒状态,那么对1点23分2秒之前的前100帧的图像或者前3秒的图像进行识别,判断人形附近的物体,例如椅子是否有运动)。
当判断非活动物体具有运动时,中央控制器获取关联知识数据库,所述关联知识数据库包括至少一个预设非活动物体类型以及预设摔倒原因,一个预设非活动物体类型与一个预设摔倒原因关联。
举例来说,关联知识数据库包括一个预设非活动物体类型(例如,椅子),以及该预设非活动物体类型(例如,绊倒),通过这样的关联,在通过预存话术进行报警时,可以精确的告诉接警者(例如是120的工作人员)具体的摔倒原因,从而使救援更有针对性。
在很多情况下,救援者都需要第一时间了解被救援的人的情况,从而分析出是何种疾病,但是,一般人进行报警时,可以至少大概得描述人员情况,例如,是意外摔倒、还是被什么东西绊倒又或者是自己行走过程中突然摔倒,没有任何外力促使其摔倒,通过这种简单的描述,医护人员就会有大致的情况了解,例如,行走过程中被椅子绊倒,则大多数可能为外伤,而椅子通常是被动绊倒,则外伤的可能性集中在腿部或者跌倒时的头部磕碰位置,而如果是再行走中自己没有任何外因的情况下摔倒,则可能出现的原因时人的内在原因,例如,是由于心脏病或者其他疾病导致的昏迷所导致的摔倒。
采用本申请的上述方法,通过智能识别,可以给出简单的分析,从而为医护人员或者家庭成员更为了解摔倒者的情况提供了支撑。从而防止仅仅进行没有任何内容价值的报警。
在本实施例中,当行为分类标签为摔倒标签时,基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取处于摔倒状态下的人形附近的地板上的标识信息;
中央控制器将获取到的标识信息传递给与中央控制器通信连接的送药机器人,所述送药机器人上载有常用药品、通信设备、声音输出设备以及声音输入设备;
送药机器人根据所述标识信息导航至所述处于摔倒状态的人形附近。
在本实施例中,房间内的每块地板都设置有一个标识信息(该标识信息可以是二维码或者其他能够提供坐标的技术方案),通过第一摄像装置进行图像获取,可以获取到该坐标信息,通过坐标信息可以获取到摔倒状态的人形的大概位置。
本申请的中央控制器在获取到坐标信息后,将坐标信息传递给中央控制器通信连接的送药机器人,所述送药机器人上载有常用药品、通信设备、声音输出设备以及声音输入设备,送药机器人内存储有整个房间的地图,通过上述的坐标信息,送药机器人可以自动导航(例如,可以通过SLAM技术)至该坐标信息附近。
采用这种方式,首先考虑的是摔倒的人的自救问题,大多数摔倒的人在摔倒后,很可能并不会立刻失去意识,但是可能无法坐起或者无法移动,此时,如果能够将适合的药物运送至其附近或者将通信装置运送至其附近,能够为摔倒的人提供及时的帮助。
在本实施例中,送药机器人在绕所述人形运动时,可以采用如下方法:
通过机器人自带的热成像装置获取到人形的范围,并根据热成像装置所获取的人形的范围进行运动。
在本实施例中,通过送药机器人上搭载的第三摄像装置以预设频率获取图像信息并传递给所述中央控制器中的预设频率可以是每0.1秒至每0.5秒一次,因为送药机器人通常运动不会太快,因此,每0.1秒至每0.5秒一次就可以防止由于运动太快错过人脸信息。
通过本申请的方法,将定位技术、送药机器人技术以及图像识别技术结合,从而实现了为送药机器人进行导航,在判断人摔倒后为摔倒的人提供最为及时的帮助。
在本实施例中,送药机器人根据所述标识信息导航至所述处于摔倒状态的人形附近包括:
送药机器人获取通过SLAM技术获取的房间地图信息,所述房间地图信息包括多块地图子图,每个地图子图对应一个标识信息;
送药机器人通过所述标识信息导航至处于摔倒状态的人形附近;
送药机器人绕所述人形运动,并通过送药机器人上搭载的第三摄像装置以预设频率获取图像信息并传递给所述中央控制器;
所述中央控制器根据所述第三摄像装置所传递的各帧图像信息判断是否能够获取到人脸信息,若是,则
中央控制器生成停止运动信号并传递给送药机器人。
举例来说,一个房间地图信息包括多块地图子图,例如,1个房间10平米,可以分割成10个1乘以1的方块,每个方块为一个地图子图,每个方块均有一个坐标信息。
在本实施例中,当送药机器人靠近人形时,可能会出现几种可能,一种是送药机器人位于摔倒的人的背部,而摔倒的人无法翻转,从而无法与送药机器人互动,例如,无法从送药机器人上拿去药品或者通讯装置,因此,送药机器人可以通过绕人形运动的方式,使得送药机器人至少在一个位置上可以直接面对摔倒的人,这样就可以在摔倒的人无法翻身但是手部可以运动的情况下与送药机器人进行互动。
在本实施例中,送药机器人可以通过SLAM导航的方式进行运动,且送药机器人上设置有第三摄像装置,因此,通过图像识别的方式可以很容易判断是否能够拍摄到摔倒的人的面部,当拍摄到摔倒的人的面部时,送药机器人可以停止运动。
在本实施例中,送药机器人将拍摄的画面传递给中央控制器,所有图像识别的工作均在中央控制器中执行,从而不用占用送药机器人的控制器的计算量。
在本实施例中,在中央控制器生成停止运动信号并传递给送药机器人后,当行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取第三摄像装置所传递的图像信息以及第一摄像装置所传递的图像信息;
所述中央控制器获取送药机器人上的通信设备的信号,判断通信设备是否被使用,若否,则
所述中央控制器根据所述第一摄像装置所传递的图像信息判断处于摔倒状态的人形是否与送药机器人进行互动,若是,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的唇部动作,所述唇部动作包括食用动作,若所述唇部动作为使用动作,则
中央控制器生成询问语音并发送给所述送药机器人的声音输出设备进行输出;
中央控制器获取处于摔倒状态的人形根据所述询问语音所反馈的语音信息;
根据所述语音信息判断是否进行报警。
在本实施例中,中央控制器通过图像识别的方式,可以识别出摔倒的人是否与送药机器人进行了互动(例如,通过摔倒的人的手部以及胳膊的运动识别出摔倒的人是否与送药机器人进行了互动),如果执行了互动,则通过第三摄像装置判断摔倒的人是否唇部进行了动作(同样可通过图像识别的方式获取),如果摔倒的人唇部进行了食用动作,则认为摔倒的人食用了药物,摔倒的人如果能够使用药物,则说明其具有自主意识,此时,可通过语音询问的方式询问其是否需要报警,若是,则进行报警处置。
在本实施例中,语音信息通过中央控制器传递给送药机器人,并通过送药机器人上的声音输出设备输出,并且送药机器人上设置有声音采集装置,摔倒的人的声音也可以通过送药机器人传递给中央控制器,采用这种方式,可以避免摔倒的人气息比较微弱,无法大声说话导致语音传递不清晰的问题。
在本实施例中,通过上述技术方案,可以防止在摔倒的人可以进行自救的时候,进行不必要的报警。
在本实施例中,在中央控制器生成停止运动信号并传递给送药机器人后,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
所述中央控制器根据所述第一摄像装置所传递的图像信息判断处于摔倒状态的人形是否与送药机器人进行互动,若否,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的眼睛状态,所述眼睛状态包括闭眼状态,若所述眼睛状态为使闭眼状态且持续预设时长,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的面部特征;
中央控制器获取预设人员数据库,所述预设人员数据库包括至少一个预设人员面部特征以及预设基本话术信息,一个预设人员面部特征对应一个预设基本话术信息;
中央控制器计算所述面部特征与各个预设人员面部特征的相似度,若有一个相似度超过相似度阈值,则
中央控制器获取超过相似度阈值的预设人员面部特征所对应的预设基本话术;
中央控制器根据所述预设基本话术进行报警,所述预设基本话术包括预设人员的年龄信息、病史信息、住址信息以及家庭成员紧急联系电话。
在本实施例中,如果通过图像识别的方式发现摔倒的人没有跟送药机器人进行互动,此时很有可能是摔倒的人已经昏迷,通过第三摄像装置拍摄摔倒的人的眼部情况,就可以了解摔倒的人是否昏迷,如果摔倒的人昏迷,此时,需要进行及时的报警。
在本实施例中,本申请主要用于住宅,并且一般都是为住宅中的病人或者老人准备,因此,家里经常出现的对象基本是固定的,因此,在进行报警时,首先进行面部识别,从而从预设人员数据库中获取到该摔倒的人的预设基本话术信息,在本实施例中,预设基本话术包括预设人员的年龄信息、病史信息、住址信息以及家庭成员紧急联系电话。
在本实施例中,当所述中央控制器获取预设摔倒原因时,所述中央控制器根据所述预设基本话术以及预设摔倒原因进行报警。
采用这种方式,一方面可以为救助者(例如,医疗人员或者家庭紧急成员)提供最为全面的患者信息,从而使得医疗人员可以根据情况准备具体的医疗器械。
本申请的基于神经网络的人形检测识别的摔倒检测方法具有如下优点:
1、充分考虑环境情况,最大程度减少误报以及没有必要的报警,例如,本申请的方法不会在家中有其他人的情况下进行报警,也不会在摔倒的人可以自救的情况下进行报警,更不会在摔倒的人可以自己进行报警的情况下进行报警,从而防止浪费警力以及重复报警(例如,摔倒的人已经自己报警了,而中央控制器又重复报警)。
2、本申请的各个步骤形成了一个有机的整体,充分考虑了摔倒的人的各种情况(例如,摔倒的人摔倒的原因、摔倒的人是否能够进行自救、摔倒的人是否昏迷)等问题,并结合送药机器人实现了一整套完整的救援策略,在该策略中,通过每一步逻辑的有机结合,实现居家老人在摔倒时的一种智能救援方案,该方案考虑了各种可能出现的问题,并通过本申请的技术去克服了这些技术难题,从而实现识别、救援以及报警一条龙服务。
在本实施例中,本申请还提供了一种基于神经网络的人形检测识别的摔倒检测系统,本申请的基于神经网络的人形检测识别的摔倒检测系统包括中央控制器、第一摄像装置、第二摄像装置、深度摄像装置、送药机器人,通过所述中央控制器、第一摄像装置、第二摄像装置、深度摄像装置、送药机器人的配合,能够实现上述的基于神经网络的人形检测识别的摔倒检测方法。
在本实施例中,第一摄像装置、第二摄像装置可以是相同的摄像装置。
在本实施例中,中央控制器分别与第一摄像装置、第二摄像装置、深度摄像装置以及送药机器人通信连接且位于同一个局域网内,中央控制器能够获取第一摄像装置所传递的图像信息、第二摄像装置所传递的图像信息、深度摄像装置所传递的深度图像、送药机器人所传递的信息。
在本实施例中,中央控制器可以向送药机器人发送控制指令,从而使送药机器人根据控制指令进行相应的运动。
在本实施例中,送药机器人上设置有第三摄像装置、声音输出装置以及声音输入装置,送药机器人可以通过自动导航的方式在房间中行走。
在本实施例中,本申请的基于神经网络的人形检测识别的摔倒检测系统还包括其他的声音输出装置,例如,在每个房间内都设置有声音输出装置,每个房间内的声音输出装置均与中央控制器连接,可以将中央控制器输出的语音进行播放。
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (8)
1.一种基于神经网络的人形检测识别的摔倒检测方法,其特征在于,所述基于神经网络的人形检测识别的摔倒检测方法包括:
中央控制器获取房间内的第一摄像装置所传递的待识别图像组,所述待识别图像组包括多帧连续的图像;
中央控制器对各帧图像进行人形检测,获取各帧图像中只具有一个人形的图像;
中央控制器分别获取只具有一个人形的图像的人形的姿态信息;
中央控制器获取经过训练的行为分类器;
中央控制器提取各个所述人形的姿态信息的姿态特征;
中央控制器将所述姿态特征输入至所述行为分类器,从而获取行为分类标签,所述行为分类标签包括摔倒标签,当所述分类标签为摔倒标签时,判断所述图像中的人形处于摔倒状态。
2.如权利要求1所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取与所述房间内的第一摄像装置位于同一个局域网的其他摄像装置所传递的图像信息,每个与第一摄像装置位于同一个局域网的其他摄像装置称为第二摄像装置;
中央控制器分别对各个第二摄像装置所传递的图像信息进行识别,判断是否有一个图像信息中具有人形图像,若是,则
中央控制器获取摄像装置数据库,所述摄像装置数据库包括至少一个摄像装置身份标识以及声音输出装置,一个摄像装置身份标识与一个声音输出装置关联;
中央控制器获取所传递的图像信息中具有人形图像的第二摄像装置的身份标识;
中央控制器生成求救语音信息并将求救语音信息发送给与所述身份标识相同的摄像装置身份标识所关联的声音输出装置。
3.如权利要求2所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器分别对各个第二摄像装置所传递的图像信息进行识别,判断是否有一个图像信息中具有人形图像,若否,则
中央控制器获取位于所述房间内的深度摄像装置所传递的深度图;
中央控制器根据所述待识别图像组以及所述深度图获取处于摔倒状态的人形周围是否具有非活动物体,若是,则
中央控制器识别所述非活动物体类型;
中央控制器根据待识别图像组判断在多帧连续的图像中,靠近人形的非活动物体是否具有运动,若是,则
中央控制器获取关联知识数据库,所述关联知识数据库包括至少一个预设非活动物体类型以及预设摔倒原因,一个预设非活动物体类型与一个预设摔倒原因关联;
中央控制器获取与所述非活动物体类型相同的预设非活动物体类型所对应的预设摔倒原因;
中央控制器获取预存话术数据库,所述预存话术数据库包括至少一个预存话术以及预设摔倒原因,一个预设摔倒原因对应一个预存话术;
中央控制器获取预设摔倒原因所对应的预存话术进行语音报警。
4.如权利要求3所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取处于摔倒状态下的人形附近的地板上的标识信息;
中央控制器将获取到的标识信息传递给与中央控制器通信连接的送药机器人,所述送药机器人上载有常用药品、通信设备、声音输出设备以及声音输入设备;
送药机器人根据所述标识信息导航至所述处于摔倒状态的人形附近。
5.如权利要求4所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,所述送药机器人根据所述标识信息导航至所述处于摔倒状态的人形附近包括:
送药机器人获取通过SLAM技术获取的房间地图信息,所述房间地图信息包括多块地图子图,每个地图子图对应一个标识信息;
送药机器人通过所述标识信息导航至处于摔倒状态的人形附近;
送药机器人绕所述人形运动,并通过送药机器人上搭载的第三摄像装置以预设频率获取图像信息并传递给所述中央控制器;
所述中央控制器根据所述第三摄像装置所传递的各帧图像信息判断是否能够获取到人脸信息,若是,则
中央控制器生成停止运动信号并传递给送药机器人。
6.如权利要求5所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,在所述中央控制器生成停止运动信号并传递给送药机器人后,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
中央控制器获取第三摄像装置所传递的图像信息以及第一摄像装置所传递的图像信息;
所述中央控制器获取送药机器人上的通信设备的信号,判断通信设备是否被使用,若否,则
所述中央控制器根据所述第一摄像装置所传递的图像信息判断处于摔倒状态的人形是否与送药机器人进行互动,若是,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的唇部动作,所述唇部动作包括食用动作,若所述唇部动作为使用动作,则
中央控制器生成询问语音并发送给所述送药机器人的声音输出设备进行输出;
中央控制器获取处于摔倒状态的人形根据所述询问语音所反馈的语音信息;
根据所述语音信息判断是否进行报警。
7.如权利要求6所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,在所述中央控制器生成停止运动信号并传递给送药机器人后,当所述行为分类标签为摔倒标签时,所述基于神经网络的人形检测识别的摔倒检测方法进一步包括:
所述中央控制器根据所述第一摄像装置所传递的图像信息判断处于摔倒状态的人形是否与送药机器人进行互动,若否,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的眼睛状态,所述眼睛状态包括闭眼状态,若所述眼睛状态为使闭眼状态且持续预设时长,则
所述中央控制器根据所述第三摄像装置所传递的图像信息获取处于摔倒状态的人形的面部特征;
中央控制器获取预设人员数据库,所述预设人员数据库包括至少一个预设人员面部特征以及预设基本话术信息,一个预设人员面部特征对应一个预设基本话术信息;
中央控制器计算所述面部特征与各个预设人员面部特征的相似度,若有一个相似度超过相似度阈值,则
中央控制器获取超过相似度阈值的预设人员面部特征所对应的预设基本话术;
中央控制器根据所述预设基本话术进行报警,所述预设基本话术包括预设人员的年龄信息、病史信息、住址信息以及家庭成员紧急联系电话。
8.如权利要求7所述的基于神经网络的人形检测识别的摔倒检测方法,其特征在于,当所述中央控制器获取预设摔倒原因时,所述中央控制器根据所述预设基本话术以及预设摔倒原因进行报警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310416178.3A CN116189238B (zh) | 2023-04-19 | 2023-04-19 | 一种基于神经网络的人形检测识别的摔倒检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310416178.3A CN116189238B (zh) | 2023-04-19 | 2023-04-19 | 一种基于神经网络的人形检测识别的摔倒检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116189238A true CN116189238A (zh) | 2023-05-30 |
CN116189238B CN116189238B (zh) | 2023-07-04 |
Family
ID=86449105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310416178.3A Active CN116189238B (zh) | 2023-04-19 | 2023-04-19 | 一种基于神经网络的人形检测识别的摔倒检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116189238B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722721A (zh) * | 2012-05-25 | 2012-10-10 | 山东大学 | 一种基于机器视觉的人体跌倒检测方法 |
CN111666857A (zh) * | 2020-05-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
CN113657150A (zh) * | 2021-07-07 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种跌倒检测方法、装置和计算机可读存储介质 |
CN113925391A (zh) * | 2021-09-17 | 2022-01-14 | 美智纵横科技有限责任公司 | 一种基于清洁机器人的摔倒检测方法及装置、清洁机器人 |
CN114120187A (zh) * | 2021-11-17 | 2022-03-01 | 兰州交通大学 | 一种基于监控视频的实时摔倒事件检测方法 |
CN114596631A (zh) * | 2022-02-18 | 2022-06-07 | 长沙海信智能系统研究院有限公司 | 人体摔倒识别模型的训练方法、装置、设备及存储介质 |
-
2023
- 2023-04-19 CN CN202310416178.3A patent/CN116189238B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722721A (zh) * | 2012-05-25 | 2012-10-10 | 山东大学 | 一种基于机器视觉的人体跌倒检测方法 |
CN111666857A (zh) * | 2020-05-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
CN113657150A (zh) * | 2021-07-07 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种跌倒检测方法、装置和计算机可读存储介质 |
CN113925391A (zh) * | 2021-09-17 | 2022-01-14 | 美智纵横科技有限责任公司 | 一种基于清洁机器人的摔倒检测方法及装置、清洁机器人 |
CN114120187A (zh) * | 2021-11-17 | 2022-03-01 | 兰州交通大学 | 一种基于监控视频的实时摔倒事件检测方法 |
CN114596631A (zh) * | 2022-02-18 | 2022-06-07 | 长沙海信智能系统研究院有限公司 | 人体摔倒识别模型的训练方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
BOGDAN KWOLEK ET AL.: "Human fall detection on embedded platform using depth maps and wireless accelerometer", COMPUTER METHODS AND PROGRAMS IN BIOMEDICINE * |
Also Published As
Publication number | Publication date |
---|---|
CN116189238B (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Foroughi et al. | An eigenspace-based approach for human fall detection using integrated time motion image and neural network | |
CN112784662A (zh) | 基于视频的跌倒风险评价系统 | |
CN105009026B (zh) | 在环境中控制硬件的机器 | |
US7106885B2 (en) | Method and apparatus for subject physical position and security determination | |
JP4682217B2 (ja) | 行動制御装置、方法、プログラム | |
CN108335458A (zh) | 一种看家看人的家用智能看管系统及其看管方法 | |
US20130082842A1 (en) | Method and device for fall detection and a system comprising such device | |
Shoaib et al. | View-invariant fall detection for elderly in real home environment | |
JP2019106631A (ja) | 画像監視装置 | |
US20240021064A1 (en) | Systems and methods for providing evacuation monitoring and assistance | |
CN207966145U (zh) | 一种看家看人的家用智能看管机器人 | |
CN113114977A (zh) | 智能看护系统以及智能看护方法 | |
KR102546460B1 (ko) | Ai 기반 신체활동 인지 및 서비스 통합 플랫폼 | |
JP2004295798A (ja) | 警備システム | |
CN116189238B (zh) | 一种基于神经网络的人形检测识别的摔倒检测方法 | |
CN117132949A (zh) | 一种基于深度学习的全天候跌倒检测方法 | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
JP2007226634A (ja) | 人物状況認識装置、方法、プログラム、ロボットおよび生活支援システム | |
CN116243306A (zh) | 一种用于监测对象的方法及系统 | |
JP2022174638A (ja) | ロボット | |
KR102331335B1 (ko) | 취약자 돌봄 로봇 및 그 제어 방법 | |
CN109815828A (zh) | 实现主动报警或求助行为检测控制的系统及方法 | |
Chin et al. | A lightweight neural-net with assistive mobile robot for human fall detection system | |
CN112562260A (zh) | 防走失方法及装置 | |
US11869201B2 (en) | Systems and methods for identifying a unified entity from a plurality of discrete parts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information |
Inventor after: Gao Hongmei Inventor after: Chen Fang Inventor after: Wang Lusheng Inventor before: Chen Fang Inventor before: Wang Lusheng Inventor before: Gao Hongmei |
|
CB03 | Change of inventor or designer information |