CN108537172A - 一种基于机器视觉识别人的行为的方法和装置 - Google Patents

一种基于机器视觉识别人的行为的方法和装置 Download PDF

Info

Publication number
CN108537172A
CN108537172A CN201810311755.1A CN201810311755A CN108537172A CN 108537172 A CN108537172 A CN 108537172A CN 201810311755 A CN201810311755 A CN 201810311755A CN 108537172 A CN108537172 A CN 108537172A
Authority
CN
China
Prior art keywords
target person
behavior
personage
image
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810311755.1A
Other languages
English (en)
Inventor
艾本仁
沈锋平
杜聚龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING BAUSTEM INFORMATION TECHNOLOGY Co Ltd
Original Assignee
BEIJING BAUSTEM INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING BAUSTEM INFORMATION TECHNOLOGY Co Ltd filed Critical BEIJING BAUSTEM INFORMATION TECHNOLOGY Co Ltd
Priority to CN201810311755.1A priority Critical patent/CN108537172A/zh
Publication of CN108537172A publication Critical patent/CN108537172A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本申请提出一种基于机器视觉识别人的行为的方法和装置,所述方法,包括:采集目标人员的图像信息;根据所述图像信息确定所述目标人员与家具的相对位置关系;根据所述相对位置关系确定所述目标人员的行为。本发明的技术方案,可以更精确的检测到人的居家状态,为更精确的预测人的行为提供支持。

Description

一种基于机器视觉识别人的行为的方法和装置
技术领域
本发明涉及图像模式识别领域,具体涉及一种基于机器视觉识别人的行为的方法和装置。
背景技术
目前,机器视觉对于人体姿态和动作的识别已有很多研究,但是缺少基于人体姿势,所在位置以及家具识别人的居家状态方面的研究,只有对应的具体的场景,识别人的居家状态才更有应用意义,比如检测到人上床和下床动作等等;同样也缺少对于室内环境下人的行为路线模式识别;通过识别人的行为路线,可以更好的预测人的行为。
发明内容
本发明提供一种基于机器视觉识别人的行为的方法和装置,可以实现人的行为识别。
为了实现上述发明目的,本发明采取的技术方案如下:
第一方面,本发明提供一种基于机器视觉识别人的行为的方法,包括:
采集目标人员的图像信息;
根据所述图像信息确定所述目标人员与家具的相对位置关系;
根据所述相对位置关系确定所述目标人员的行为。
进一步地,所述的方法还包括:
根据所述目标人员的行为、移动方向、移动速度确定所述目标人员在预设时间内的行为路线。
进一步地,所述方法之前还包括:
采集所述目标人员所在区域的家具位置信息。
进一步地,所述的方法还包括:
统计所述目标人员发生预设行为的状态信息,确定所述目标人员的行为路线模式;
确定所述目标人员的行为是否符合所述行为路线模式。
进一步地,当所述目标人员的行为不符合所述行为路线模式或者超出警戒区域时,发出告警。
进一步地,所述的方法还包括:
根据确定的所述行为路线模式预测所述目标人员下一时间段的行为。
进一步地,所述方法之前还包括:
识别采集的图像中的人物是否为目标人员。
进一步地,识别采集的图像中的人物是否为目标人员包括:
对图像中的人物进行人脸识别,确定所述人物与目标人员的人脸识别相似度;
对图像中的人物进行人体识别,确定所述人物与目标人员的人体识别相似度;
根据人脸相似度和人体相似度确定所述人物是否为目标人员。
第二方面,本发明还提供一种基于机器视觉识别人的行为的装置,包括:
采集模块,设置为采集目标人员的图像信息;
处理模块,设置为根据所述图像信息确定所述目标人员与家具的相对位置关系;
确定模块,设置为根据所述相对位置关系确定所述目标人员的行为。
进一步地,所述确定模块,还设置为:
根据所述目标人员的行为、移动方向、移动速度确定所述目标人员在预设时间内的行为路线。
进一步地,所述采集模块,还设置为:
采集所述目标人员所在区域的家具位置信息。
进一步地,所述确定模块,还设置为:
统计所述目标人员发生预设行为的状态信息,确定所述目标人员的行为路线模式;
确定所述目标人员的行为是否符合所述行为路线模式。
进一步地,所述的装置还包括:告警模块,设置为当所述目标人员的行为不符合所述行为路线模式或者超出警戒区域时,发出告警。
进一步地,所述确定模块,还设置为:
根据确定的所述行为路线模式预测所述目标人员下一时间段的行为。
进一步地,所述的装置还包括:识别模块,设置为:
识别采集的图像中的人物是否为目标人员。
进一步地,所述识别模块识别采集的图像中的人物是否为目标人员包括:
对图像中的人物进行人脸识别,确定所述人物与目标人员的人脸识别相似度;
对图像中的人物进行人体识别,确定所述人物与目标人员的人体识别相似度;
根据人脸相似度和人体相似度确定所述人物是否为目标人员。
本发明和现有技术相比,具有如下有益效果:
本发明的技术方案,可以更精确的检测到人的居家状态,为更精确的预测人的行为提供支持。
附图说明
图1为本发明实施例的基于机器视觉识别人的行为的方法的流程图;
图2为本发明实施例的基于机器视觉识别人的行为的装置的结构示意图。
具体实施方式
为使本发明的发明目的、技术方案和有益效果更加清楚明了,下面结合附图对本发明的实施例进行说明,需要说明的是,在不冲突的情况下,本申请中的实施例和实施例中的特征可以相互任意组合。
如图1所示,本发明实施例提供一种基于机器视觉识别人的行为的方法,包括:
S101、采集目标人员的图像信息;
S102、根据所述图像信息确定所述目标人员与家具的相对位置关系;
S103、根据所述相对位置关系确定所述目标人员的行为。
本发明实施例中利用彩色摄像头、深度摄像头(红外双目摄像头、红外双目摄像头+结构光、红外摄像头+结构光、TOF(Time of flight,飞行时间测距)摄像头)采集居家环境下人物的图像,使用深度学习的方式获得目标人员的图像信息,其中目标人员的图像信息可以包括:人的3D坐标、大小、边缘位置、姿势、朝向等等。目标人员与家具的相对位置关系包括:人在家具之上、人面向家具、人在家具附近、人与家具接触等等。其中获得的图像包括但不限于:彩色图像、红外图像、深度图像。
彩色图像:来自于彩色摄像头,需要可见光。彩色图像包含彩色信息、灰度信息。
红外图像:来自与红外摄像头,不需要可见光。红外摄像头可以同时作为深度摄像头的一部分使用。红外图像包含灰度信息。
深度图像:来自于深度摄像头。深度图像包含深度信息(物体与摄像头的距离)。
彩色图像比红外图像包含更多的信息,因此,在本文中,有可见光的环境下,尽量使用彩色图像;在无可见光的环境下,使用红外图像。
所述的方法还包括:
根据所述目标人员的行为、移动方向、移动速度确定所述目标人员在预设时间内的行为路线。
根据目标人员的行为、移动方向、移动速度等信息可以跟踪目标人员的运动。
所述方法之前还包括:
采集所述目标人员所在区域的家具位置信息。
本发明实施例中识别家具时识别目标包括:桌子、茶几、椅子、凳子、沙发、床、电视、开关面板。采用彩色图像/红外图像、深度图像,使用深度学习识别家居,获取家具的3D坐标、大小、边缘位置,部分家具(椅子、沙发、电视)还需获取朝向。还可以定时启动识别家居过程,刷新家具位置信息。
所述的方法还包括:
统计所述目标人员发生预设行为的状态信息,确定所述目标人员的行为路线模式;
确定所述目标人员的行为是否符合所述行为路线模式。
本发明实施例在识别到目标人员的居家状态后,通过对目标人员的跟踪,记录目标人员在室内的一系列行为、行为发生的位置、时间。在确定所述目标人员的行为路线模式的情况下,定期检测人的行为是否符合预定的模式。比如:每天睡觉时间段;每天吃饭时间点范围;每天吃药时间点范围;每天开灯关灯时间点范围及在此之前的动作。
当所述目标人员的行为不符合所述行为路线模式或者超出警戒区域时,发出告警。
所述的方法还包括:
根据确定的所述行为路线模式预测所述目标人员下一时间段的行为。
在识别了人在室内行为路线模式后,可以在模式范围内预测人未来行为,在收集到大量数据后,可以使用深度学习技术,对人的行为模式进行更进一步的预测。
所述方法之前还包括:
识别采集的图像中的人物是否为目标人员。
识别采集的图像中的人物是否为目标人员包括:
对图像中的人物进行人脸识别,确定所述人物与目标人员的人脸识别相似度;
对图像中的人物进行人体识别,确定所述人物与目标人员的人体识别相似度;
根据人脸相似度和人体相似度确定所述人物是否为目标人员。
在识别人的行为的过程中,对人进行识别,以区分不同的人。
1、在人脸可识别的情况下,识别人脸,并对比预设人脸信息数据库,获得人脸识别相似度f;
2、根据人身高、肩宽、胯宽、身长、臂长、腿长信息,对比预设人体信息数据库,获得人体识别相似度b。
计算人识别相似度r=f*人脸识别度系数(cf)+b*人体识别度系数(cb)。
当r大于阀值时,则认为识别成功,将预存人信息赋予检测到的人。
本发明实施例还提供一种基于机器视觉识别人的行为的装置,包括:
采集模块,设置为采集目标人员的图像信息;
处理模块,设置为根据所述图像信息确定所述目标人员与家具的相对位置关系;
确定模块,设置为根据所述相对位置关系确定所述目标人员的行为。
进一步地,所述确定模块,还设置为:
根据所述目标人员的行为、移动方向、移动速度确定所述目标人员在预设时间内的行为路线。
进一步地,所述采集模块,还设置为:
采集所述目标人员所在区域的家具位置信息。
进一步地,所述确定模块,还设置为:
统计所述目标人员发生预设行为的状态信息,确定所述目标人员的行为路线模式;
确定所述目标人员的行为是否符合所述行为路线模式。
进一步地,所述的装置还包括:告警模块,设置为当所述目标人员的行为不符合所述行为路线模式或者超出警戒区域时,发出告警。
进一步地,所述确定模块,还设置为:
根据确定的所述行为路线模式预测所述目标人员下一时间段的行为。
进一步地,所述的装置还包括:识别模块,设置为:
识别采集的图像中的人物是否为目标人员。
进一步地,所述识别模块识别采集的图像中的人物是否为目标人员包括:
对图像中的人物进行人脸识别,确定所述人物与目标人员的人脸识别相似度;
对图像中的人物进行人体识别,确定所述人物与目标人员的人体识别相似度;
根据人脸相似度和人体相似度确定所述人物是否为目标人员。
实施例1
本实施例预先在室内的房间内安装彩色摄像头、深度摄像头(红外双目摄像头、红外双目摄像头+结构光、红外摄像头+结构光、TOF摄像头),摄像头位置、角度固定。
摄像头可以提供以下数据源:
彩色图像:来自于彩色摄像头,需要可见光。彩色图像包含彩色信息、灰度信息。
红外图像:来自与红外摄像头,不需要可见光。红外摄像头可以同时作为深度摄像头的一部分使用。红外图像包含灰度信息。
深度图像:来自于深度摄像头。深度图像包含深度信息(物体与摄像头的距离)。
彩色图像比红外图像包含更多的信息,因此,在本实施例中,有可见光的环境下,尽量使用彩色图像;在无可见光的环境下,使用红外图像。
本实施例说明识别人的居家状态过程如下:
1.识别家居。识别目标有:桌子、茶几、椅子、凳子、沙发、床、电视、开关面板。
1-1.采用彩色图像/红外图像、深度图像,使用深度学习识别家居,获取家具的3D坐标、大小、边缘位置,部分家具(椅子、沙发、电视)还需获取朝向。
1-2.记录家居信息。
1-3.定时启动识别家居过程,刷新家居坐标信息。
2.识别人的行为。
2-1.利用彩色图像/红外图像、深度图像,使用深度学习识别人,获取人3D坐标、大小、边缘位置、朝向。
2-3.根据彩色图像/红外图像、深度图像,使用深度学习识别人姿势;
2-4.根据人3D坐标、大小、边缘位置、朝向与家具3D坐标、大小、边缘位置、朝向,检测人与家具的相对关系(人在家具之上、人面向家具、人在家具附近、人与家具接触)。
2-5.跟踪人运动。
2-6.根据人的运动轨迹、一段时间内的姿势记录、行为记录,使用深度学习识别人的行为,记录人的行为。
3.识别人
在识别人的行为的过程中,对人进行识别,以区分不同的人。
3-1.在人脸可识别的情况下,识别人脸,并对比人脸信息数据库,获得人脸识别相似度f;
3-2.根据人身高、肩宽、胯宽、身长、臂长、腿长信息,对比人体信息数据库,获得人体识别相似度b。
3-3.计算人识别相似度r=f*人脸识别度系数(cf)+b*人体识别度系数(cb)。
当r大于阀值时,则认为识别成功,将预存人信息赋予检测到的人。
如果因为光线、获取到的信息不足导致的识别失败,则在跟踪人运动过程中不断尝试识别。
如果光线、信息充足,但无法找到匹配的人,则将该人加入未匹配人历史记录中。后续可以通过管理接口调取未匹配人历史记录,并补充其信息或删除该记录。
4.通过管理接口注册、注销、修改人员信息。
人员信息包含:人脸照片、人体信息(身高、肩宽、胯宽、身长、臂长、腿长)、称呼等。
管理接口可以注册人员信息。注册时可以提供所有人员信息,也可以仅人脸信息、称呼。在不提供人体信息时,该系统可以在通过人脸识别找到人后,根据系统计算的人体信息补全。
管理接口可以修改人员信息。
管理接口可以注销人员信息。
管理接口可以获得未匹配人员信息,并对其进行修改。
实施例2
本实施例说明基于机器视觉的室内行为路线的模式识别的过程:
识别到人的居家状态后,通过人员跟踪,记录人员在室内的一系列行为、行为发生的位置、时间。在预置行为模式信息的情况下,定期检测人的行为是否符合预定的模式。比如:每天睡觉时间段;每天吃饭时间点范围;每天吃药时间点范围;每天开灯关灯时间点范围及在此之前的动作。
本实施例说明使用深度学习技术及人在室内行为路线历史数据预测人未来行为的过程:
在识别了人在室内行为路线模式后,本实施例具备了在这些模式范围内预测人未来行为的能力,但这些模式有限,并且需要预先定义。在收集到大量数据后,识别程序可以使用深度学习技术,对人的行为模式进行更进一步的预测。
实施例3
本实施例说明使用两个传感器协作消除视觉死角的过程:
在居家环境中,使用单传感器难免有视觉死角,比如视域死角、物体遮挡。在本实施例中,使用两个视觉传感器协同工作消除视觉死角。在居家环境中,两个视觉传感器分别安装在室内对角的位置。这样可以扩大视域,消除物体遮挡。
为消除两个视觉传感器带来的重复数据、事件,本实施例通过配置信息得知两个视觉传感器属于同一个房间,并对它们获取的数据、事件进行甄别,消除重复数据、事件。通过管理接口,用以配置视觉传感器的位置、ID信息。
本实施例说明利用红外传感器进行补点消除视觉死角的过程:
虽然使用两个传感器协作消除视觉死角,但是还是可能存在未覆盖的地方,本实施例进一步采用红外运动传感器用于识别人的行动轨迹,扩大、补充视觉传感器的覆盖范围;红外传感器可以检测到人体的移动和静止;通过多个红外传感器检测到的人体移动和静止状态,并且同视觉传感器探测到的行为轨迹和人体姿态合并数据,更进一步的提供完整的居家状态和行为轨迹。
实施例4
本实施例说明基于机器视觉的电子围栏实现过程:
通过机器视觉识别出居家布局,并且建图;通过配置在图上人工画出警戒区域,机器视觉识别被检测人或者动物,当人或者动物超出警戒区域时告警。
虽然本发明所揭示的实施方式如上,但其内容只是为了便于理解本发明的技术方案而采用的实施方式,并非用于限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所揭示的核心技术方案的前提下,可以在实施的形式和细节上做任何修改与变化,但本发明所限定的保护范围,仍须以所附的权利要求书限定的范围为准。

Claims (16)

1.一种基于机器视觉识别人的行为的方法,其特征在于,包括:
采集目标人员的图像信息;
根据所述图像信息确定所述目标人员与家具的相对位置关系;
根据所述相对位置关系确定所述目标人员的行为。
2.如权利要求1所述的方法,其特征在于:还包括:
根据所述目标人员的行为、移动方向、移动速度确定所述目标人员在预设时间内的行为路线。
3.如权利要求1所述的方法,其特征在于:所述方法之前还包括:
采集所述目标人员所在区域的家具位置信息。
4.如权利要求2所述的方法,其特征在于:还包括:
统计所述目标人员发生预设行为的状态信息,确定所述目标人员的行为路线模式;
确定所述目标人员的行为是否符合所述行为路线模式。
5.如权利要求4所述的方法,其特征在于:当所述目标人员的行为不符合所述行为路线模式或者超出警戒区域时,发出告警。
6.如权利要求2所述的方法,其特征在于:还包括:
根据确定的所述行为路线模式预测所述目标人员下一时间段的行为。
7.如权利要求1所述的方法,其特征在于:所述方法之前还包括:
识别采集的图像中的人物是否为目标人员。
8.如权利要求7所述的方法,其特征在于:识别采集的图像中的人物是否为目标人员包括:
对图像中的人物进行人脸识别,确定所述人物与目标人员的人脸识别相似度;
对图像中的人物进行人体识别,确定所述人物与目标人员的人体识别相似度;
根据人脸相似度和人体相似度确定所述人物是否为目标人员。
9.一种基于机器视觉识别人的行为的装置,其特征在于,包括:
采集模块,设置为采集目标人员的图像信息;
处理模块,设置为根据所述图像信息确定所述目标人员与家具的相对位置关系;
确定模块,设置为根据所述相对位置关系确定所述目标人员的行为。
10.如权利要求9所述的装置,其特征在于:所述确定模块,还设置为:
根据所述目标人员的行为、移动方向、移动速度确定所述目标人员在预设时间内的行为路线。
11.如权利要求9所述的装置,其特征在于:所述采集模块,还设置为:
采集所述目标人员所在区域的家具位置信息。
12.如权利要求10所述的装置,其特征在于:所述确定模块,还设置为:
统计所述目标人员发生预设行为的状态信息,确定所述目标人员的行为路线模式;
确定所述目标人员的行为是否符合所述行为路线模式。
13.如权利要求12所述的装置,其特征在于:还包括:告警模块,设置为当所述目标人员的行为不符合所述行为路线模式或者超出警戒区域时,发出告警。
14.如权利要求10所述的装置,其特征在于:所述确定模块,还设置为:
根据确定的所述行为路线模式预测所述目标人员下一时间段的行为。
15.如权利要求9所述的装置,其特征在于:还包括:识别模块,设置为:
识别采集的图像中的人物是否为目标人员。
16.如权利要求15所述的方法,其特征在于:所述识别模块识别采集的图像中的人物是否为目标人员包括:
对图像中的人物进行人脸识别,确定所述人物与目标人员的人脸识别相似度;
对图像中的人物进行人体识别,确定所述人物与目标人员的人体识别相似度;
根据人脸相似度和人体相似度确定所述人物是否为目标人员。
CN201810311755.1A 2018-04-09 2018-04-09 一种基于机器视觉识别人的行为的方法和装置 Pending CN108537172A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810311755.1A CN108537172A (zh) 2018-04-09 2018-04-09 一种基于机器视觉识别人的行为的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810311755.1A CN108537172A (zh) 2018-04-09 2018-04-09 一种基于机器视觉识别人的行为的方法和装置

Publications (1)

Publication Number Publication Date
CN108537172A true CN108537172A (zh) 2018-09-14

Family

ID=63479620

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810311755.1A Pending CN108537172A (zh) 2018-04-09 2018-04-09 一种基于机器视觉识别人的行为的方法和装置

Country Status (1)

Country Link
CN (1) CN108537172A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110148202A (zh) * 2019-04-25 2019-08-20 北京百度网讯科技有限公司 用于生成图像的方法、装置、设备和存储介质
CN110175554A (zh) * 2019-05-23 2019-08-27 南方科技大学 室内布局的检测方法、装置、设备及存储介质
CN110969045A (zh) * 2018-09-28 2020-04-07 杭州海康威视数字技术股份有限公司 一种行为检测方法、装置、电子设备和存储介质
CN111126112A (zh) * 2018-10-31 2020-05-08 顺丰科技有限公司 候选区域确定方法和装置
CN111723598A (zh) * 2019-03-18 2020-09-29 北京邦天信息技术有限公司 机器视觉系统及其实现方法
CN111798341A (zh) * 2020-06-30 2020-10-20 深圳市幸福人居建筑科技有限公司 一种绿色物业管理方法、系统计算机设备及其存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106303967A (zh) * 2016-09-19 2017-01-04 上海德启信息科技有限公司 一种快递监控方法、设备和系统
CN106681326A (zh) * 2017-01-04 2017-05-17 京东方科技集团股份有限公司 座椅、控制座椅运动的方法和用于座椅的运动控制系统
CN107166645A (zh) * 2017-05-18 2017-09-15 厦门瑞为信息技术有限公司 一种基于室内场景分析的空调控制方法
CN107872776A (zh) * 2017-12-04 2018-04-03 泰康保险集团股份有限公司 用于室内监控的方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106303967A (zh) * 2016-09-19 2017-01-04 上海德启信息科技有限公司 一种快递监控方法、设备和系统
CN106681326A (zh) * 2017-01-04 2017-05-17 京东方科技集团股份有限公司 座椅、控制座椅运动的方法和用于座椅的运动控制系统
CN107166645A (zh) * 2017-05-18 2017-09-15 厦门瑞为信息技术有限公司 一种基于室内场景分析的空调控制方法
CN107872776A (zh) * 2017-12-04 2018-04-03 泰康保险集团股份有限公司 用于室内监控的方法、装置、电子设备及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969045A (zh) * 2018-09-28 2020-04-07 杭州海康威视数字技术股份有限公司 一种行为检测方法、装置、电子设备和存储介质
CN110969045B (zh) * 2018-09-28 2023-06-02 杭州海康威视数字技术股份有限公司 一种行为检测方法、装置、电子设备和存储介质
CN111126112A (zh) * 2018-10-31 2020-05-08 顺丰科技有限公司 候选区域确定方法和装置
CN111126112B (zh) * 2018-10-31 2024-04-16 顺丰科技有限公司 候选区域确定方法和装置
CN111723598A (zh) * 2019-03-18 2020-09-29 北京邦天信息技术有限公司 机器视觉系统及其实现方法
CN110148202A (zh) * 2019-04-25 2019-08-20 北京百度网讯科技有限公司 用于生成图像的方法、装置、设备和存储介质
CN110148202B (zh) * 2019-04-25 2023-03-24 北京百度网讯科技有限公司 用于生成图像的方法、装置、设备和存储介质
CN110175554A (zh) * 2019-05-23 2019-08-27 南方科技大学 室内布局的检测方法、装置、设备及存储介质
CN110175554B (zh) * 2019-05-23 2024-01-12 南方科技大学 室内布局的检测方法、装置、设备及存储介质
CN111798341A (zh) * 2020-06-30 2020-10-20 深圳市幸福人居建筑科技有限公司 一种绿色物业管理方法、系统计算机设备及其存储介质

Similar Documents

Publication Publication Date Title
CN108537172A (zh) 一种基于机器视觉识别人的行为的方法和装置
Krumm et al. Multi-camera multi-person tracking for easyliving
KR101788269B1 (ko) 이상 상황을 감지하는 장치 및 방법
WO2019152472A1 (en) Face concealment detection
KR101593187B1 (ko) 3차원 영상 정보를 이용한 이상 행동 감시 장치 및 방법
CN110321780B (zh) 基于时空运动特性的异常摔倒行为检测方法
US20110169917A1 (en) System And Process For Detecting, Tracking And Counting Human Objects of Interest
CN106919806A (zh) 一种人体监测方法、装置以及系统及计算机可读存储设备
McKenna et al. Non-intrusive person authentication for access control by visual tracking and face recognition
Volkhardt et al. Fallen person detection for mobile robots using 3D depth data
D'Orazio et al. A survey of automatic event detection in multi-camera third generation surveillance systems
TWI713368B (zh) 影像式小偷偵測裝置及方法
Li et al. Evaluation of an ivs system for abandoned object detection on pets 2006 datasets
Lee et al. Detection of a suicide by hanging based on a 3-D image analysis
Chauhan et al. Study of moving object detection and tracking for video surveillance
Yoon et al. Tracking System for mobile user Based on CCTV
Park et al. A track-based human movement analysis and privacy protection system adaptive to environmental contexts
CN112766183A (zh) 一种基于ai分析的人员进入禁区报警系统及方法
Nakahara et al. In-home activity and micro-motion logging using mobile robot with kinect
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Yang et al. Surveillance system using abandoned object detection
CN114035482A (zh) 一种楼宇智能监控系统及监控方法
CN112733571B (zh) 机器人的控制方法、设备和存储介质
Kalyankar et al. Advance and automatic motion detection, prediction, data association with object tracking system
Hernández-Sosa et al. Multi-sensor people counting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination