CN113887388A - 一种动态目标识别及人体行为分析系统 - Google Patents
一种动态目标识别及人体行为分析系统 Download PDFInfo
- Publication number
- CN113887388A CN113887388A CN202111150762.6A CN202111150762A CN113887388A CN 113887388 A CN113887388 A CN 113887388A CN 202111150762 A CN202111150762 A CN 202111150762A CN 113887388 A CN113887388 A CN 113887388A
- Authority
- CN
- China
- Prior art keywords
- analysis
- model
- virtual
- preset
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 186
- 238000012544 monitoring process Methods 0.000 claims abstract description 39
- 238000012806 monitoring device Methods 0.000 claims abstract description 9
- 238000010276 construction Methods 0.000 claims abstract description 8
- 230000006399 behavior Effects 0.000 claims description 129
- 239000011159 matrix material Substances 0.000 claims description 78
- 238000005259 measurement Methods 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 27
- 238000012937 correction Methods 0.000 claims description 20
- 238000006073 displacement reaction Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000012502 risk assessment Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 230000001960 triggered effect Effects 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 5
- 238000012790 confirmation Methods 0.000 claims description 4
- 230000007717 exclusion Effects 0.000 claims description 3
- 210000000245 forearm Anatomy 0.000 claims description 3
- 210000003141 lower extremity Anatomy 0.000 claims description 3
- 210000001364 upper extremity Anatomy 0.000 claims description 3
- 230000002567 autonomic effect Effects 0.000 claims 1
- 230000009466 transformation Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 31
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 230000000172 allergic effect Effects 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 208000010668 atopic eczema Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
Abstract
为解决现有技术存在的问题,本发明提供了一种动态目标识别及人体行为分析系统,包括安装于被监控场所内的监控设备,所述监控设备包括:快速测距装置。所述监控设备将接收的信息发送至分析装置,分析装置根据接收的信息进行动态目标识别分析和人体行为分析。所述分析装置包括:模型分析模块、动态目标识别分析模块、人体行为分析模块、报警分析模块。所述模型分析模块通过虚拟模型构建分析得到监控目标虚拟模型。所述动态目标识别分析模块用于判断该监控目标虚拟模型是否为动态目标虚拟模型。本发明通过特殊的模型分析方法,基于特殊的建模技术和分析技术,从被监控场所中快速、准确的识别出动态目标,并基于动态目标模型进行人体行为分析。
Description
技术领域
本发明涉及智能监控技术领域,具体为一种动态目标识别及人体行为分析系统。
背景技术
动态目标识别一种现代的,从传感器探测领域中识别出被探测物体中是否有动态目标存在的识别技术,例如动态目标识别技术。现有动态目标识别技术一般基于图像处理技术,将视频或图片与背景图片比对获得差异部分后,再对差异部分基于梯度直方图技术,或元素分割对比技术再次比对后判断传感器探测领域中是否有动态目标出现。现有技术存在以下问题:1.在动态目标相对传感器具有很大夹角或距离适当时可以获取较为准确的识别结果。但是当动态目标与传感器夹角很小时,传感器此时获得的视频图像或图片中动态目标的形状会发生显著的变形或不能完全呈现,此时现有技术无法实现对动态目标的准确识别。2.由于图像处理技术和梯度直方图技术需要比对的像素点阵和数据处理量较大,因此对设备的硬件性能要求很高,否则识别效率过低,无法满足实际使用要求。3.现有动态目标识别技术很依赖视频图像或图片的清晰度,因此对被监控场所的光环境有特定的要求,光不能过强或过弱,否则无法准确识别。
发明内容
本发明针对现有技术存在的问题,提供一种动态目标识别系统,包括安装于被监控场所内的监控设备,所述监控设备包括:快速测距装置。所述监控设备将接收的信息发送至分析装置,分析装置根据接收的信息进行动态目标识别分析。
所述分析装置包括:模型分析模块、动态目标识别分析模块。所述模型分析模块基于快速测距装置的测量结果,通过虚拟模型构建分析得到监控目标虚拟模型。所述动态目标识别分析模块获取监控目标虚拟模型,进行动态目标虚拟模型判断分析,判断该监控目标虚拟模型是否为动态目标虚拟模型。
所述虚拟模型构建分析包括:
S1.通过快速测距装置对被监控场所进行矩阵式测量,根据转换模型将被监控场所转换形成虚拟背景空间。
S2.在虚拟背景空间中选定虚拟底面,形成被监控场所各点阵相对虚拟底面的矫正参数。
S3.获取信息后触发启动/关闭快速测距装置,和/或定时启动/关闭快速测距装置,和/或每间隔第一预设时间启动/关闭快速测距装置。当快速测距装置启动后每间隔第二预设时间对被监控场所进行矩阵式测量K次,K为正整数或记为无限次。当快速测距装置启动后,根据S1所述转换模型和步骤S2所得矫正参数,将对被监控场所的矩阵式测量结果转换形成虚拟监控空间。
S4.将虚拟监控空间放入虚拟背景空间中,得到虚拟监控空间相比虚拟背景空间沿虚拟底面出现缺失变化的部分,摘选出其中非连续的缺失变化部分依次标记为不同的监控目标,并形成相应的监控目标虚拟模型。
进一步的,步骤S1所述根据转换模型将被监控场所转换形成虚拟背景空间的方法为:首先,快速测距装置对待测量目标所在承载面进行矩阵式测量,获得当前测量矩阵点相对快速测距装置的距离L-n,n为当前测量矩阵点的矩阵点编号。然后记录矩阵点n相对快速测距装置的角度J-n和对应的L-n。之后通过虚拟角度赋予的方式,根据函数计算,获得矩阵点n垂直上方预设范围和/或垂直下方预设范围内虚拟矩阵点n-N的角度J-(n-N)和对应的L-(n-N)。最后将全部矩阵点n的J-n、L-n、J-(n-N)、L-(n-N)整合,形成基于被监控场所的虚拟背景空间,该虚拟背景空间为矩阵点n和虚拟矩阵点n-N共同构成的立体空间。
步骤S2所述矫正参数为:首先计算矩阵点n与所选定的虚拟底面上的矩阵点n或虚拟矩阵点n-N的距离差LC-n。然后通过函数计算式,将L-n和LC-n形成计算转换关系,该计算转换关系即为矫正参数。
进一步的,步骤S3所述根据S1所述转换模型和步骤S2所得矫正参数,将对被监控场所的矩阵式测量结果转换形成虚拟监控空间的方法为:首先,快速测距装置对被监控场所进行矩阵式测量,获得当前测量矩阵点相对快速测距装置的距离L-cn,cn为具有测量目标时当前测量矩阵点的矩阵点编号。然后根据L-cn对应的测量矩阵点cn所占据虚拟矩阵点n-N的位置,采用虚拟矩阵点n-N对应的矩阵点n的矫正参数矫正后得到该测量点的虚拟测量矩阵点。最后整合全部虚拟测量矩阵点形成虚拟监控空间。
进一步的,所述动态目标虚拟模型判断分析包括:
(1)分析获得的虚拟模型是否符合动态目标基本构成要素,如符合动态目标基本构成要素则判断该监控目标虚拟模型为动态目标虚拟模型,并标记。如不符合则该监控目标虚拟模型判断为预干扰模型,并标记。
(2)分析预干扰模型对应位置处的上一次虚拟模型在该位置处的预设范围内是否有动态目标虚拟模型,如上一次虚拟模型在该位置处的预设范围内有动态目标虚拟模型则进行下一步分析,如没有动态目标虚拟模型则判断该预干扰模型为干扰模型,分析终止。
(3)当前虚拟模型中是否有符合步骤(1)分析所得动态目标虚拟模型,如有符合,则判断该动态目标虚拟模型与步骤(2)动态目标虚拟模型之间的水平位移差是否小于预设位移值,如小于预设位移值则判断该预干扰模型为干扰模型,分析终止。如大于预设位移值或当前虚拟模型中没有符合步骤(1)分析所得动态目标虚拟模型,则判断该预干扰模型为动态目标虚拟模型。
进一步的,当判断该预干扰模型为动态目标虚拟模型时,进行预干扰模型修正。所述预干扰模型修正包括:首先分析该预干扰模型的顶端与步骤(2)动态目标虚拟模型之间的高差是否超过预设位移差值,如没有超过预设位移差值,则以步骤(2)动态目标虚拟模型替换该预干扰模型所在位置,完成预干扰模型修正。如超过预设位移差值,则由其他模块进行相应分析。
此外,本发明还提供了一种人体行为分析系统,包括分析装置,所述分析装置包括:人体行为分析模块和报警分析模块。所述人体行为分析模块根据上述动态目标识别系统,以人体为动态目标进行目标识别,将识别得到的动态目标虚拟模型作为人体虚拟模型,以人体虚拟模型结合人体行为分析模型,对当前目标动态目标的行为进行人体行为危险性分析。所述报警分析模块根据人体行为危险性分析的分析结果,结合自主报警学习分析判断是否形成报警信息。所述人体行为分析模型包括:首先根据人体虚拟模型的外形轮廓,进行下述人体虚拟模型简化:头部简化为圆形,躯干简化为方框,上肢简化为与上臂和前臂相应的两段折线,下肢简化为直线。然后基于简化后的人体虚拟模型,进行人体行为危险性分析。
进一步的,所述人体行为危险性分析包括:跌倒行为分析。所述跌倒行为分析包括:首先根据人体虚拟模型,计算其头部顶端与虚拟底面的距离,记为HTn,计算其躯干中点与虚拟底面的距离,记为HQn,其中n为测量次数。然后计算CTn-1=[(HTn-1)-(HTn)]/T,CQn-1=[(HQn-1)-(HQn)]/T,其中n≥2,T为第二预设时间。之后基于下述跌倒分析模型进行判断:
A.当CTn-1超过第一预设警戒值,且CQn-1超过第二预设警戒值时,判断监控目标人体发生跌倒行为。
B.当HQn低于第三预设警戒值,且连续超过第一预设警戒时间,则判断监控目标人体发生跌倒行为。
C.当CTn-1超过第一预设警戒值,但CQn-1没有超过第二预设警戒值时,则开始计时,当超过第二预设警戒时间,HTn没有回复至CTn-1超过第一预设警戒值时的HTn-1的预设安全值范围内,则判断监控目标人体发生跌倒可能行为。
D.当CTn-1没有超过第一预设警戒值,CQn-1没有超过第二预设警戒值,但是CTn-1、CQn-1中出现超过预设危险次数的连续正值,则判断监控目标人体发生跌倒可能行为。
当报警分析模块接收到跌倒行为判断时,发出跌倒报警。当报警分析模块接收到跌倒可能行为判断时,发出跌倒可能报警。
进一步的,所述跌倒行为分析包括跌倒排除分析,所述跌倒排除分析包括:在虚拟背景空间中选定安全区,当人体虚拟模型位于安全区内,则不进行判断C和D。
进一步的,所述自主报警学习分析包括:
(一)当判断为发生跌倒行为,但是经过确认并未发生跌倒行为时,跌倒分析模型在第一预设调整范围内增加对应的预设警戒值的数值。
(二)当判断为发生跌倒行为,但是经过确认并未发生跌倒行为,且已连续F次增加对应数值,则记录该误判发生的位置,在该位置发生的判断A和判断B不再输出跌倒行为判断。所述F为预设正整数。
(三)当判断为发生跌倒可能行为,但是经过确认并未发生跌倒可能行为,则在第二预设调整范围内增加对应的预设警戒时间的数值,或在第三预设调整范围内增加对应的预设危险次数的数值。
(四)当判断为发生跌倒可能行为,但是经过确认并未发生跌倒可能行为,且已连续G次增加对应数值,则记录该误判发生的位置,在该位置发生的判断C和判断D不再输出跌倒可能行为判断。所述G为预设正整数。
(五)当判断为发生跌倒可能行为,但是在第二预设警戒时间或预设危险次数内,同时触发判断A或判断B,则在第四预设调整范围内减少对应的预设警戒时间的数值,或在第五预设调整范围内减少对应的预设危险次数的数值。
(六)当经过确认发生跌倒行为,但是并未触发判断A或B,则依次逐步在第六预设调整范围内减少预设警戒值的数值,预设警戒值每在第六预设调整范围内减少一次,就将确认可能发生跌倒行为时间段内的CTn-1、CQn-1、HQn代入该次调整预设警戒值后的跌倒分析模型中,直至跌倒分析模型中的判断A或判断B产生跌倒行为判断为止。
进一步的,所述人体行为危险性分析包括:止入性行为分析。所述止入性行为分析包括:首先由工作人员在虚拟背景空间中选定禁止进入的区域。当经过分析后,人体虚拟模型部分或全部位于禁止进入的区域内,则报警分析模块发出止入报警。
本发明所述快速测距装置根据需要可以是红外快速测距装置、微波快速测距装置等现有的,测距响应时间低于0.001秒的测距装置。
本发明至少具有以下有益效果之一:
1.本发明通过特殊的模型分析方法,基于特殊的建模技术和分析技术,从被监控场所中识别出动态目标虚拟模型。采用本发明动态目标识别技术,即使在很小的角度范围内,也能呈现完整的动态目标虚拟模型,从而准确的识别出动态目标。
2.本发明动态目标识别技术对于光线强弱的要求较低,即使在强光环境或无光、弱光环境中也能准确的识别动态目标。
3.本发明建模技术仅对快速测距装置的测距点阵密度有一定要求,产生的数模运算主要基于三角函数运算,因此对处理器的性能要求较低。数值数据的数据传递量远远小于视频流数据或高清图片数据,因此本发明对数据传输带宽的要求也很小。
4.本发明跌倒行为分析分析迅速准确,且具有自主学习能力,可在使用过程中不断对自身判断的精度进行优化和调节,从而实现更好的预警和报警功能。
5.本发明可以通过对被监控场所的建模,和特殊的动态目标识别技术,可以准确的判断出当前人体所处的位置是否位于止入区域内,从而实现快速准确的止入报警。
附图说明
图1为本发明形成虚拟背景空间的过程示意图。
图2为本发明形成虚拟监控空间的过程示意图。
图3为本发明监控目标虚拟模型的示意图。
图4为现有技术在小角度监控中获取的人体影像示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例1
一种动态目标识别系统,包括安装于被监控场所2内的监控设备1,所述监控设备1包括:快速测距装置101。所述监控设备1将接收的信息发送至分析装置,分析装置根据接收的信息进行动态目标识别分析。
所述分析装置包括:模型分析模块、动态目标识别分析模块。所述模型分析模块基于快速测距装置101的测量结果,通过虚拟模型构建分析得到监控目标虚拟模型。所述动态目标识别分析模块获取监控目标虚拟模型,进行动态目标虚拟模型判断分析,判断该监控目标虚拟模型是否为动态目标虚拟模型。如图1-3所示,所述虚拟模型构建分析包括:
S1.通过快速测距装置101对被监控场所2进行矩阵式测量,根据转换模型将被监控场所2转换形成虚拟背景空间。
S2.在虚拟背景空间中选定虚拟底面,形成被监控场所2各点阵相对虚拟底面的矫正参数。
S3.获取信息后触发启动/关闭快速测距装置101,和/或定时启动/关闭快速测距装置101,和/或每间隔第一预设时间启动/关闭快速测距装置101。当快速测距装置101启动后每间隔第二预设时间对被监控场所2进行矩阵式测量K次,K为正整数或记为无限次。当快速测距装置101启动后,根据S1所述转换模型和步骤S2所得矫正参数,将对被监控场所2的矩阵式测量结果转换形成虚拟监控空间。所述获取信息后触发启动/关闭快速测距装置101可以是根据外部系统输入的控制信号控制启动/关闭快速测距装置101。所述定时启动/关闭快速测距装置101可以是在预设的时间、日期等定时参数时启动/关闭快速测距装置101。所述每间隔第一预设时间启动/关闭快速测距装置101可以是在接收到启动指令后连续的每间隔第一预设时间完成一次矩阵扫描,直至接收到关闭指令,第一预设时间根据需要可以时1秒、0.5秒、2秒等需要的间隔时间。
S4.将虚拟监控空间放入虚拟背景空间中,得到虚拟监控空间相比虚拟背景空间沿虚拟底面出现缺失变化的部分,摘选出其中非连续的缺失变化部分依次标记为不同的监控目标,并形成相应的监控目标虚拟模型。
步骤S1所述根据转换模型将被监控场所2转换形成虚拟背景空间的方法为:首先,快速测距装置101对被监控目标所在承载面进行矩阵式测量,获得当前测量矩阵点相对快速测距装置101的距离L-n,n为当前测量矩阵点的矩阵点编号。然后记录矩阵点n相对快速测距装置101的角度J-n和对应的L-n。之后通过虚拟角度赋予的方式,根据函数计算,获得矩阵点n垂直上方预设范围和/或垂直下方预设范围内虚拟矩阵点n-N的角度J-(n-N)和对应的L-(n-N)。最后将全部矩阵点n的J-n、L-n、J-(n-N)、L-(n-N)整合,形成基于被监控场所2的虚拟背景空间,该虚拟背景空间为矩阵点n和虚拟矩阵点n-N共同构成的立体空间。
步骤S2所述矫正参数为:首先计算矩阵点n与所选定的虚拟底面上的矩阵点n或虚拟矩阵点n-N的距离差LC-n。然后通过函数计算式,将L-n和LC-n形成计算转换关系,该计算转换关系即为矫正参数。
步骤S3所述根据S1所述转换模型和步骤S2所得矫正参数,将对被监控场所2的矩阵式测量结果转换形成虚拟监控空间的方法为:首先,快速测距装置101对被监控场所2进行矩阵式测量,获得当前测量矩阵点相对快速测距装置101的距离L-cn,cn为具有测量目标时当前测量矩阵点的矩阵点编号。然后根据L-cn对应的测量矩阵点cn所占据虚拟矩阵点n-N的位置,采用虚拟矩阵点n-N对应的矩阵点n的矫正参数矫正后得到该测量点的虚拟测量矩阵点。最后整合全部虚拟测量矩阵点形成虚拟监控空间。
以图1-3为例,如图1所示,被监控场所2内设有门201、立柜家具202、卧轨家具203和床204,此时快速测距装置101在被监控场所2内没有被监控目标4时,对被监控场所2进行矩阵式扫描,根据本发明上述方法构建出虚拟背景空间301。此时虚拟背景空间301中在门201、立柜家具202、卧轨家具203和床204处均设有与门201、立柜家具202、卧轨家具203和床204相匹配的内凹区域301、内凹区域302、内凹区域303、内凹区域304,其余区域是由矩阵点n和虚拟矩阵点n-N共同构成的立体空间。如图2和图3所示,当被监控目标4出现在被监控场所2内时,快速测距装置101对被监控场所2进行矩阵式扫描,采用本发明上述方法构建所得的虚拟监控空间305,相比虚拟背景空间301会在被监控目标4处形成:面对快速测距装置101的一端沿被监控目标4外轮廓形成缺陷轮廓线306,被被监控目标4遮挡的部分形成遮挡缺陷307。而缺陷轮廓线306代表了此时被监控目标4的基本动态目标形态,例如动态目标相对其他物体的距离、动态目标当前的动作信息等。
现有技术对于被监控场所2内的动态目标识别,主要基于下述方法进行的:首先在无监控目标的时候完成对被监控场所2的整体扫描,获取背景对照组。然后通过监控传感器获得被监控场所2的视频信息或图片信息。之后将视频信息或图片信息与背景对照组对照后,获取其中的差异部分,再基于梯度直方图技术,或元素分割对比技术再次比对后判断传感器探测领域中是否有监控目标出现。但是现有技术存在以下问题:1.在动态目标相对传感器具有很大夹角或距离适当时可以获取较为准确的识别结果。但是当动态目标与传感器夹角很小时,传感器此时获得的视频图像或图片中动态目标的形状会发生显著的变形或不能完全呈现,此时现有技术无法实现对动态目标的准确识别。以人体为动态目标为例,如图2所示,此时从传感器的视角,人体在视频信息或图片信息中的样子会形变成如图4所示,此时由于呈现给分析系统的人体信息已经产生了严重的形变,分析得到的差异化模型5与人体要素的差别很大,现有技术就很难准确的将其识别为人体,要基于人体信息进行其他分析,如人体行为分析的难度更高,几乎无法实现。2.由于图像处理技术和梯度直方图技术需要比对的像素点阵和数据处理量较大,因此对设备的硬件性能要求很高,否则识别效率过低,无法满足实际使用要求。3.现有动态目标识别技术很依赖视频图像或图片的清晰度,因此对被监控场所的光环境有特定的要求,光不能过强或过弱,否则动态目标的光学信息被强光模糊或弱光下无法捕捉,均会导致现有技术无法实现准确的动态目标识别。
此外,虽然现有技术也有对被监控场所2进行建模分析的,但是现有技术对被监控场所2进行建模分析需要采用多个数据采集装置,通过点云扫描、各数据采集装置构建的模型之间需要进行再次构建拼合成完成的被监控场所2的虚拟模型,期间涉及的数据量很大,一般性能的PC端都无法满足运算需要,往往需要高性能计算机或专用计算机进行模型构建,且每次建模时间均很长,当监控目标为动态目标时,由于动态目标是一个运动的监控目标,现有3D建模技术很难实现实时的监控追踪,基于动态目标模型进行行为分析的难度就更大了。
然而,本申请采用了与现有技术完全不同的建模分析方法对被监控场所2内的被监控目标4进行识别。本发明基于快速测距装置101和本发明所述方法在虚拟背景空间的虚拟底面上构建监控目标的虚拟形态,构建过程仅需要获得被监控目标的距离数据和投影结构数据,因此数据获取的过程非常迅速,数据传输需要的带宽也小得多,即使采用USB、蓝牙等短距离传输技术或2G以上移动网络均可满足本发明实时数据传输的需要。而本发明虚拟模型构建过程涉及的运算函数主要为三角函数和比例转换函数,计算量远远低于3D点云+3D模型构建技术,因此对处理器装置的计算性能要求也比采用3D点云+3D模型构建技术时的处理器计算性能低很多。此外,本发明虚拟建模过程中具有矫正参数的设置,该设置将被监控目标虚拟后置于绝对平面的虚拟底面上进行分析获取形态数据,有效避免了由于被监控场所为倾斜或坑洼导致的数据分析误差过大的问题。在采用现有中低性能硬件,如:Acconeer的A111-001-TR红外测距传感器、凌上的微型摄像装置、DLP红外投影仪和中低性能处理器,如:Intel奔腾G2020的基础上,测量目标形态数据精度误差为0.4-0.6cm,建模分析的时间一般不超过快速测距装置101完成一次矩阵扫描的0.1秒内。
同时,由于本发明模型构建依靠距离信息,因此对于被监控区域2内的光线强度要求并不高,只要能获取准确的测量点距离信息,无论是强光环境或者弱光环境,均可以实现建模分析,有效解决了现有动态目标识别技术对于光线强度的特殊要求。
此外,由于本发明通过构建虚拟模型的方式分析获取被监控场所2中出现的被监控目标,因此只要能获取被监控目标各点阵相对快速测距装置101的距离数据,即使在如图2所示的小角度范围内,也能产生如图3所示的完整的监控目标虚拟模型,从而可以根据完整的监控目标的虚拟模型进行其他分析。
实施例2
基于实施例1所述动态目标识别系统,所述动态目标虚拟模型判断分析包括:
(1)分析获得的虚拟模型是否符合动态目标基本构成要素,如符合动态目标基本构成要素则判断该监控目标虚拟模型为动态目标虚拟模型,并标记。如不符合则该监控目标虚拟模型判断为预干扰模型,并标记。
(2)分析预干扰模型对应位置处的上一次虚拟模型在该位置处的预设范围内是否有动态目标虚拟模型,如上一次虚拟模型在该位置处的预设范围内有动态目标虚拟模型则进行下一步分析,如没有动态目标虚拟模型则判断该预干扰模型为干扰模型,分析终止。
(3)当前虚拟模型中是否有符合步骤(1)分析所得动态目标虚拟模型,如有符合,则判断该动态目标虚拟模型与步骤(2)动态目标虚拟模型之间的水平位移差是否小于预设位移值,如小于预设位移值则判断该预干扰模型为干扰模型,分析终止。如大于预设位移值或当前虚拟模型中没有符合步骤(1)分析所得动态目标虚拟模型,则判断该预干扰模型为动态目标虚拟模型。
当判断该预干扰模型为动态目标虚拟模型时,进行预干扰模型修正。所述预干扰模型修正包括:首先分析该预干扰模型的顶端与步骤2动态目标虚拟模型之间的高差是否超过预设位移差值,如没有超过预设位移差值,则以步骤2动态目标虚拟模型替换该预干扰模型所在位置,完成预干扰模型修正。如超过预设位移差值,则由其他分析模块进行相应的分析,所述其他分析模块可以是人体行为危险性分析模块。
虽然本发明可以在很大程度上解决现有动态目标识别技术在小角度范围内不能识别出动态目标的问题,但是本发明的模型构建分析方法也需要依赖快速测距装置101的矩阵式扫描,以获取必要的测量点信息。当动态目标与快速测距装置101的夹角足够小时,扫描的点阵信息被动态目标自身大部分遮挡,也难以构建准确的动态目标模型。因此本发明采用了上述动态目标虚拟模型判断分析方法进行动态目标虚拟模型的判断识别。该方法通过将不能识别为动态目标模型的信息与上一轮次虚拟模型在该位置处的预设范围内的模型信息进行结合性的分析,在排除了其他目标的干扰后,准确的将由于测量点被遮挡而不能别识别为动态目标的模型识别出来,有效克服了在极小角度下本发明可能出现的分析不准确的问题。同时本发明动态目标虚拟模型判断分析在判断预干扰模型为动态目标虚拟模型时还包括了对预干扰模型的修正,避免了下一次分析时由于本次预干扰模型本身不为人型而导致的分析判断错误。同时,当出现相邻两次分析,一次为动态目标一次为预干扰模型时,也可能是动态目标自身行为发生了超出预设安全值的变化,因此本发明还包括在这种特殊情况下的结合分析模块进行相应处理分析的方法。
实施例3
一种人体行为分析系统,包括分析装置,所述分析装置包括:人体行为分析模块和报警分析模块;所述人体行为分析模块根据实施例1-2所得动态目标识别系统,以人体为动态目标进行目标识别,将识别得到的动态目标虚拟模型作为人体虚拟模型,以人体虚拟模型结合人体行为分析模型,对当前目标的行为进行人体行为危险性分析;所述报警分析模块根据人体行为危险性分析的分析结果,结合自主报警学习分析判断是否形成报警信息。所述人体行为分析模型包括:首先根据人体虚拟模型的外形轮廓,进行下述人体虚拟模型简化:头部简化为圆形,躯干简化为方框,上肢简化为与上臂和前臂相应的两段折线,下肢简化为直线。然后基于简化后的人体虚拟模型,进行人体行为危险性分析。通过简化,可以显著提高后续行为分析的分析速度。
所述人体行为危险性分析包括:跌倒行为分析。所述跌倒行为分析包括:首先根据人体虚拟模型,计算其头部顶端与虚拟底面的距离,记为HTn,计算其躯干中点与虚拟底面的距离,记为HQn,其中n为测量次数。然后计算CTn-1=[(HTn-1)-(HTn)]/T,CQn-1=[(HQn-1)-(HQn)]/T,其中n≥2,T为第二预设时间。之后基于下述跌倒分析模型进行判断:
A.当CTn-1超过第一预设警戒值,且CQn-1超过第二预设警戒值时,判断监控目标人体发生跌倒行为。
B.当HQn低于第三预设警戒值,且连续超过第一预设警戒时间,则判断监控目标人体发生跌倒行为。
C.当CTn-1超过第一预设警戒值,但CQn-1没有超过第二预设警戒值时,则开始计时,当超过第二预设警戒时间,HTn没有回复至CTn-1超过第一预设警戒值时的HTn-1的预设安全值范围内,则判断监控目标人体发生跌倒可能行为。
D.当CTn-1没有超过第一预设警戒值,CQn-1没有超过第二预设警戒值,但是CTn-1、CQn-1中出现超过预设危险次数的连续正值,则判断监控目标人体发生跌倒可能行为。
E.当报警分析模块接收到跌倒行为判断时,发出跌倒报警。当报警分析模块接收到跌倒可能行为判断时,发出跌倒可能报警。
老年人的跌倒行为是一种对老年人损伤极大的行为,由于跌倒往往事发突然,疗养院、养老院等康养场所,以及医生、护士、家人等陪护人员,很难做到24小时不间断的对以为老年人进行监控,一旦老年人在没有被监控到的时候发生跌倒,如不能即时发现并采取措施,很可能发生严重的后果。本发明采用上述方法,可以通过本发明的建模分析方法,快速、实时的对老年人的活动场所进行监控,且快速准确的识别出老年人当前的人体形态。结合本发明跌倒行为分析可以快速准确的判断被监控场所内是否有老年人发生了跌倒行为,并在发生紧急情况时即时向医护人员或家人发出报警。同时,本发明还通过特定的判定分析方法,包括了对老年人发生跌倒可能行为的预判分析,提前在老年人发生跌倒前向管理人员发出预警,有效降低了应急相应速度。
实施例4
基于实施例3所述人体行为分析系统,所述跌倒行为分析包括跌倒排除分析,所述跌倒排除分析包括:在虚拟背景空间中选定安全区,当人体虚拟模型位于安全区内,则不进行判断C和D。该方法可以排除在特定环境下的误判。例如:老年人在椅子、床等休息区域可能会进行的坐卧立变化,此时如果不进行特定的干扰排除,很可能会在老年人进行正常的坐卧立时,发出错误警报,影响系统的报警准确性。
实施例5
基于实施例3所述人体行为分析系统,所述自主报警学习分析包括:
(一)当判断为发生跌倒行为,但是经过确认并未发生跌倒行为时,跌倒分析模型在第一预设调整范围内增加对应的预设警戒值的数值。
(二)当判断为发生跌倒行为,但是经过确认并未发生跌倒行为,且已连续F次增加对应数值,则记录该误判发生的位置,在该位置发生的判断A和判断B不再输出跌倒行为判断。所述F为预设正整数。
(三)当判断为发生跌倒可能行为,但是经过确认并未发生跌倒可能行为,则在第二预设调整范围内增加对应的预设警戒时间的数值,或在第三预设调整范围内增加对应的预设危险次数的数值。
(四)当判断为发生跌倒可能行为,但是经过确认并未发生跌倒可能行为,且已连续G次增加对应数值,则记录该误判发生的位置,在该位置发生的判断C和判断D不再输出跌倒可能行为判断。所述G为预设正整数。
(五)当判断为发生跌倒可能行为,但是在第二预设警戒时间或预设危险次数内,同时触发判断A或判断B,则在第四预设调整范围内减少对应的预设警戒时间的数值,或在第五预设调整范围内减少对应的预设危险次数的数值。
(六)当经过确认发生跌倒行为,但是并未触发判断A或B,则依次逐步在第六预设调整范围内减少预设警戒值的数值,预设警戒值每在第六预设调整范围内减少一次,就将确认可能发生跌倒行为时间段内的CTn-1、CQn-1、HQn代入该次调整预设警戒值后的跌倒分析模型中,直至跌倒分析模型中的判断A或判断B产生跌倒行为判断为止。
本发明设有具有自校正功能的自主报警学习分析,通过上述分析,可以在系统的工作过程中不断调节自身的判断精度,从而适应当前被监控人员的行为习惯,逐渐排除形似但是并不危险的行为变化过程,避免在被监控目标并未发生跌倒或跌倒可能时,系统发出错误的报警。或根据需要逐渐提高判断精度,避免漏判。
实施例6
基于实施例3所述人体行为分析系统,所述人体行为危险性分析包括:止入性行为分析。所述止入性行为分析包括:首先由工作人员在虚拟背景空间中选定禁止进入的区域。当经过分析后,人体虚拟模型部分或全部位于禁止进入的区域内,则报警分析模块发出止入报警。
止入性行为是常见的人体行为危险性分析,一般是对于特殊区域或危险区域禁止一般人员进入或介入。现有技术一般通过:人工监控,或光栅设立警戒网的方式形成止入性报警。但是人工监控很容易在人员不到位或疲惫时出现漏判,从而造成危险。而光栅设立警戒网的方式由经常会引入入侵物并非人体但是触发光栅网从而造成过敏性报警。本发明在本发明通过建模分析进行人体虚拟模型识别和构建的基础上,通过实施例6所述止入性行为分析方法,可以极为方便的在被监控区域内形成止入性警戒区域,且由于该止入性警戒区域是在被监控场所形成的虚拟模型后划分,因此调整、变化均非常方便。且在以人体为动态目标的基础上,仅仅会针对人体进入止入性警戒区域产生止入性报警,即实现了24小时实时监控,又克服了报警过敏的问题,且实现了止入性警戒区域的便捷调节。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种动态目标识别系统,其特征在于,包括安装于被监控场所(2)内的监控设备(1),所述监控设备(1)包括:快速测距装置(101);所述监控设备(1)将接收的信息发送至分析装置,分析装置根据接收的信息进行动态目标识别分析;
所述分析装置包括:模型分析模块、动态目标识别分析模块;所述模型分析模块基于快速测距装置(101)的测量结果,通过虚拟模型构建分析得到监控目标虚拟模型;所述动态目标识别分析模块获取监控目标虚拟模型,进行动态目标虚拟模型判断分析,判断该监控目标虚拟模型是否为动态目标虚拟模型;
所述虚拟模型构建分析包括:
S1.通过快速测距装置(101)对被监控场所(2)进行矩阵式测量,根据转换模型将被监控场所(2)转换形成虚拟背景空间;
S2.在虚拟背景空间中选定虚拟底面,形成被监控场所(2)各点阵相对虚拟底面的矫正参数;
S3.获取信息后触发启动/关闭快速测距装置(101),和/或定时启动/关闭快速测距装置(101),和/或每间隔第一预设时间启动/关闭快速测距装置(101);当快速测距装置(101)启动后每间隔第二预设时间对被监控场所(2)进行矩阵式测量K次,K为正整数或记为无限次;当快速测距装置(101)启动后,根据S1所述转换模型和步骤S2所得矫正参数,将对被监控场所(2)的矩阵式测量结果转换形成虚拟监控空间;
S4.将虚拟监控空间放入虚拟背景空间中,得到虚拟监控空间相比虚拟背景空间沿虚拟底面出现缺失变化的部分,摘选出其中非连续的缺失变化部分依次标记为不同的监控目标,并形成相应的监控目标虚拟模型。
2.根据权利要求1所述动态目标识别系统,其特征在于,步骤S1所述根据转换模型将被监控场所(2)转换形成虚拟背景空间的方法为:首先,快速测距装置(101)对待测量目标所在承载面进行矩阵式测量,获得当前测量矩阵点相对快速测距装置(101)的距离L-n,n为当前测量矩阵点的矩阵点编号;然后记录矩阵点n相对快速测距装置(101)的角度J-n和对应的L-n;之后通过虚拟角度赋予的方式,根据函数计算,获得矩阵点n垂直上方预设范围和/或垂直下方预设范围内虚拟矩阵点n-N的角度J-(n-N)和对应的L-(n-N);最后将全部矩阵点n的J-n、L-n、J-(n-N)、L-(n-N)整合,形成基于被监控场所(2)的虚拟背景空间,该虚拟背景空间为矩阵点n和虚拟矩阵点n-N共同构成的立体空间;
步骤S2所述矫正参数为:首先计算矩阵点n与所选定的虚拟底面上的矩阵点n或虚拟矩阵点n-N的距离差LC-n;然后通过函数计算式,将L-n和LC-n形成计算转换关系,该计算转换关系即为矫正参数。
3.根据权利要求2所述动态目标识别系统,其特征在于,步骤S3所述根据S1所述转换模型和步骤S2所得矫正参数,将对被监控场所(2)的矩阵式测量结果转换形成虚拟监控空间的方法为:首先,快速测距装置(101)对被监控场所(2)进行矩阵式测量,获得当前测量矩阵点相对快速测距装置(101)的距离L-cn,cn为具有测量目标时当前测量矩阵点的矩阵点编号;然后根据L-cn对应的测量矩阵点cn所占据虚拟矩阵点n-N的位置,采用虚拟矩阵点n-N对应的矩阵点n的矫正参数矫正后得到该测量点的虚拟测量矩阵点;最后整合全部虚拟测量矩阵点形成虚拟监控空间。
4.根据权利要求1所述动态目标识别系统,其特征在于,所述动态目标虚拟模型判断分析包括:
(1)分析获得的虚拟模型是否符合动态目标基本构成要素,如符合动态目标基本构成要素则判断该监控目标虚拟模型为动态目标虚拟模型,并标记;如不符合则该监控目标虚拟模型判断为预干扰模型,并标记;
(2)分析预干扰模型对应位置处的上一次虚拟模型在该位置处的预设范围内是否有动态目标虚拟模型,如上一次虚拟模型在该位置处的预设范围内有动态目标虚拟模型则进行下一步分析,如没有动态目标虚拟模型则判断该预干扰模型为干扰模型,分析终止;
(3)当前虚拟模型中是否有符合步骤(1)分析所得动态目标虚拟模型,如有符合,则判断该动态目标虚拟模型与步骤(2)动态目标虚拟模型之间的水平位移差是否小于预设位移值,如小于预设位移值则判断该预干扰模型为干扰模型,分析终止;如大于预设位移值或当前虚拟模型中没有符合步骤(1)分析所得动态目标虚拟模型,则判断该预干扰模型为动态目标虚拟模型。
5.根据权利要求4所述动态目标识别系统,其特征在于,当判断该预干扰模型为动态目标虚拟模型时,进行预干扰模型修正;所述预干扰模型修正包括:首先分析该预干扰模型的顶端与步骤(2)动态目标虚拟模型之间的高差是否超过预设位移差值,如没有超过预设位移差值,则以步骤(2)动态目标虚拟模型替换该预干扰模型所在位置,完成预干扰模型修正;如超过预设位移差值,则由其他分析模块进行相应分析。
6.一种人体行为分析系统,其特征在于,包括分析装置,所述分析装置包括:人体行为分析模块和报警分析模块;所述人体行为分析模块根据权利要求1-5所述动态目标识别系统,以人体为动态目标进行目标识别,将识别得到的动态目标虚拟模型作为人体虚拟模型,以人体虚拟模型结合人体行为分析模型,对当前目标人体的行为进行人体行为危险性分析;所述报警分析模块根据人体行为危险性分析的分析结果,结合自主报警学习分析判断是否形成报警信息;所述人体行为分析模型包括:首先根据人体虚拟模型的外形轮廓,进行下述虚拟模型简化:头部简化为圆形,躯干简化为方框,上肢简化为与上臂和前臂相应的两段折线,下肢简化为直线;然后基于简化后的人体虚拟模型,进行人体行为危险性分析。
7.根据权利要求6所述人体行为分析系统,其特征在于,所述人体行为危险性分析包括:跌倒行为分析;所述跌倒行为分析包括:首先根据人体虚拟模型,计算其头部顶端与虚拟底面的距离,记为HTn,计算其躯干中点与虚拟底面的距离,记为HQn,其中n为测量次数;然后计算
CTn-1=[(HTn-1)-(HTn)]/T,CQn-1=[(HQn-1)-(HQn)]/T,其中n≥2,T为第二预设时间;之后基于下述跌倒分析模型进行判断:
A.当CTn-1超过第一预设警戒值,且CQn-1超过第二预设警戒值时,判断监控目标人体发生跌倒行为;
B.当HQn低于第三预设警戒值,且连续超过第一预设警戒时间,则判断监控目标人体发生跌倒行为;
C.当CTn-1超过第一预设警戒值,但CQn-1没有超过第二预设警戒值时,则开始计时,当超过第二预设警戒时间,HTn没有回复至CTn-1超过第一预设警戒值时的HTn-1的预设安全值范围内,则判断监控目标人体发生跌倒可能行为;
D.当CTn-1没有超过第一预设警戒值,CQn-1没有超过第二预设警戒值,但是CTn-1、CQn-1中出现超过预设危险次数的连续正值,则判断监控目标人体发生跌倒可能行为;
当报警分析模块接收到跌倒行为判断时,发出跌倒报警;当报警分析模块接收到跌倒可能行为判断时,发出跌倒可能报警。
8.根据权利要求7所述人体行为分析系统,其特征在于,所述跌倒行为分析包括跌倒排除分析,所述跌倒排除分析包括:在虚拟背景空间中选定安全区,当人体虚拟模型位于安全区内,则不进行判断C和D。
9.根据权利要求7所述人体行为分析系统,其特征在于,所述自主报警学习分析包括:
(一)当判断为发生跌倒行为,但是经过确认并未发生跌倒行为时,跌倒分析模型在第一预设调整范围内增加对应的预设警戒值的数值;
(二)当判断为发生跌倒行为,但是经过确认并未发生跌倒行为,且已连续F次增加对应数值,则记录该误判发生的位置,在该位置发生的判断A和判断B不再输出跌倒行为判断;所述F为预设正整数;
(三)当判断为发生跌倒可能行为,但是经过确认并未发生跌倒可能行为,则在第二预设调整范围内增加对应的预设警戒时间的数值,或在第三预设调整范围内增加对应的预设危险次数的数值;
(四)当判断为发生跌倒可能行为,但是经过确认并未发生跌倒可能行为,且已连续G次增加对应数值,则记录该误判发生的位置,在该位置发生的判断C和判断D不再输出跌倒可能行为判断;所述G为预设正整数;
(五)当判断为发生跌倒可能行为,但是在第二预设警戒时间或预设危险次数内,同时触发判断A或判断B,则在第四预设调整范围内减少对应的预设警戒时间的数值,或在第五预设调整范围内减少对应的预设危险次数的数值;
(六)当经过确认发生跌倒行为,但是并未触发判断A或B,则依次逐步在第六预设调整范围内减少预设警戒值的数值,预设警戒值每在第六预设调整范围内减少一次,就将确认可能发生跌倒行为时间段内的CTn-1、CQn-1、HQn代入该次调整预设警戒值后的跌倒分析模型中,直至跌倒分析模型中的判断A或判断B产生跌倒行为判断为止。
10.根据权利要求6所述人体行为分析系统,其特征在于,所述人体行为危险性分析包括:止入性行为分析;所述止入性行为分析包括:首先由工作人员在虚拟背景空间中选定禁止进入的区域;当经过分析后,人体虚拟模型部分或全部位于禁止进入的区域内,则报警分析模块发出止入报警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111150762.6A CN113887388B (zh) | 2021-09-29 | 2021-09-29 | 一种动态目标识别及人体行为分析系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111150762.6A CN113887388B (zh) | 2021-09-29 | 2021-09-29 | 一种动态目标识别及人体行为分析系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113887388A true CN113887388A (zh) | 2022-01-04 |
CN113887388B CN113887388B (zh) | 2022-09-02 |
Family
ID=79007889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111150762.6A Active CN113887388B (zh) | 2021-09-29 | 2021-09-29 | 一种动态目标识别及人体行为分析系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113887388B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105279787A (zh) * | 2015-04-03 | 2016-01-27 | 北京明兰网络科技有限公司 | 基于拍照的户型图识别生成三维房型的方法 |
CN107355161A (zh) * | 2017-06-28 | 2017-11-17 | 比业电子(北京)有限公司 | 用于全高式屏蔽门的安全保护装置 |
CN108616718A (zh) * | 2016-12-13 | 2018-10-02 | 杭州海康威视系统技术有限公司 | 监控显示方法、装置及系统 |
CN109146961A (zh) * | 2018-09-05 | 2019-01-04 | 天目爱视(北京)科技有限公司 | 一种基于虚拟矩阵的3d测量及获取装置 |
EP3695783A1 (en) * | 2019-02-15 | 2020-08-19 | Origin Wireless, Inc. | Method, apparatus, and system for wireless gait recognition |
CN211653144U (zh) * | 2019-11-18 | 2020-10-09 | 常州工业职业技术学院 | 一种激光矩阵式人体动态测量装置 |
CN111814700A (zh) * | 2020-07-13 | 2020-10-23 | 安徽兰臣信息科技有限公司 | 一种基于儿童行为特征的行为动作识别算法 |
CN111932828A (zh) * | 2019-11-05 | 2020-11-13 | 上海中侨健康智能科技有限公司 | 一种基于数字孪生技术的智慧养老监测与预警系统 |
CN112004056A (zh) * | 2020-08-06 | 2020-11-27 | 武汉倍特威视系统有限公司 | 一种抗干扰能力强的智能视频分析方法 |
CN112489368A (zh) * | 2020-11-30 | 2021-03-12 | 安徽国广数字科技有限公司 | 智能跌倒识别与检测报警方法及系统 |
CN112859187A (zh) * | 2021-01-06 | 2021-05-28 | 路晟(上海)科技有限公司 | 被探测物的姿态识别方法和装置、设备及系统 |
CN113156453A (zh) * | 2021-04-09 | 2021-07-23 | 武汉联一合立技术有限公司 | 移动物体检测方法、装置、设备及存储介质 |
-
2021
- 2021-09-29 CN CN202111150762.6A patent/CN113887388B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105279787A (zh) * | 2015-04-03 | 2016-01-27 | 北京明兰网络科技有限公司 | 基于拍照的户型图识别生成三维房型的方法 |
CN108616718A (zh) * | 2016-12-13 | 2018-10-02 | 杭州海康威视系统技术有限公司 | 监控显示方法、装置及系统 |
CN107355161A (zh) * | 2017-06-28 | 2017-11-17 | 比业电子(北京)有限公司 | 用于全高式屏蔽门的安全保护装置 |
CN109146961A (zh) * | 2018-09-05 | 2019-01-04 | 天目爱视(北京)科技有限公司 | 一种基于虚拟矩阵的3d测量及获取装置 |
EP3695783A1 (en) * | 2019-02-15 | 2020-08-19 | Origin Wireless, Inc. | Method, apparatus, and system for wireless gait recognition |
CN111932828A (zh) * | 2019-11-05 | 2020-11-13 | 上海中侨健康智能科技有限公司 | 一种基于数字孪生技术的智慧养老监测与预警系统 |
CN211653144U (zh) * | 2019-11-18 | 2020-10-09 | 常州工业职业技术学院 | 一种激光矩阵式人体动态测量装置 |
CN111814700A (zh) * | 2020-07-13 | 2020-10-23 | 安徽兰臣信息科技有限公司 | 一种基于儿童行为特征的行为动作识别算法 |
CN112004056A (zh) * | 2020-08-06 | 2020-11-27 | 武汉倍特威视系统有限公司 | 一种抗干扰能力强的智能视频分析方法 |
CN112489368A (zh) * | 2020-11-30 | 2021-03-12 | 安徽国广数字科技有限公司 | 智能跌倒识别与检测报警方法及系统 |
CN112859187A (zh) * | 2021-01-06 | 2021-05-28 | 路晟(上海)科技有限公司 | 被探测物的姿态识别方法和装置、设备及系统 |
CN113156453A (zh) * | 2021-04-09 | 2021-07-23 | 武汉联一合立技术有限公司 | 移动物体检测方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
朱达辉等: "老年防摔功能服装设计", 《毛纺科技》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113887388B (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10080513B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
CN102341828B (zh) | 处理至少一个活体的图像 | |
CN107427242B (zh) | 脉波检测装置、以及脉波检测程序 | |
US9408561B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
CN112784662A (zh) | 基于视频的跌倒风险评价系统 | |
US20190034713A1 (en) | Method and apparatus for health and safety momitoring of a subject in a room | |
EP3843037A1 (en) | Method and apparatus for determining volumetric data of a predetermined anatomical feature | |
CN106580294A (zh) | 基于多模态成像技术的生理信号远程监控系统及应用 | |
CN107408308A (zh) | 姿势检测装置以及姿势检测方法 | |
CN105283129A (zh) | 信息处理装置、信息处理方法和程序 | |
EP3678093B1 (en) | Monitoring movement and vital signs of a human or animal subject in a room using video imaging | |
JP2002505134A (ja) | 運動パターンの評価方法および装置 | |
US11403754B2 (en) | Method and apparatus for monitoring of a human or animal subject | |
CN111191499B (zh) | 一种基于最小中心线的跌倒检测方法及装置 | |
JP7099809B2 (ja) | 画像監視システム | |
EP3678094B1 (en) | Method and apparatus for monitoring of a human or animal subject | |
CN113887388B (zh) | 一种动态目标识别及人体行为分析系统 | |
JP2019061407A (ja) | 物体検出装置 | |
CN118338853A (zh) | 计算机程序、信息处理方法及信息处理装置 | |
KR101355206B1 (ko) | 영상분석을 이용한 출입 계수시스템 및 그 방법 | |
Siciliano et al. | A networked multisensor system for ambient assisted living application | |
JP7375806B2 (ja) | 画像処理装置、及び画像処理方法 | |
JP7169213B2 (ja) | 身体健康状態映像分析装置、方法並びにシステム | |
JP2023548886A (ja) | カメラを制御するための装置及び方法 | |
JP4528103B2 (ja) | 画像認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A dynamic target recognition and human behavior analysis system Granted publication date: 20220902 Pledgee: Bank of China Chuxiong Prefecture Branch Pledgor: Yunnan teke Technology Co.,Ltd. Registration number: Y2024980038300 |