CN109522846B - 一种起立监测方法、装置、服务器及起立监测系统 - Google Patents
一种起立监测方法、装置、服务器及起立监测系统 Download PDFInfo
- Publication number
- CN109522846B CN109522846B CN201811378341.7A CN201811378341A CN109522846B CN 109522846 B CN109522846 B CN 109522846B CN 201811378341 A CN201811378341 A CN 201811378341A CN 109522846 B CN109522846 B CN 109522846B
- Authority
- CN
- China
- Prior art keywords
- camera
- event
- image
- area
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000009471 action Effects 0.000 claims abstract description 28
- 238000012806 monitoring device Methods 0.000 claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Educational Technology (AREA)
- Marketing (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明属于智能教育技术领域,尤其涉及一种起立监测方法、装置、服务器及起立监测系统,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了监测成本且提高了监测精度。
Description
技术领域
本发明涉及智能教育技术领域,尤其涉及一种起立监测方法、装置、服务器及起立监测系统。
背景技术
起立是人类肢体动作重要的一部分,是从平躺或者坐立的状态切换至站立状态的一个动作,而起立这一肢体动作在不同场合有着不同的应用。例如,在课堂教学上,在教师提问学生问题时,该学生需要起立表示尊重,同时也能使得所有学生的实现能够聚焦至该学生。
目前,起立监测用于教育课程录播系统时常用的方式:第一类、利用双目视觉摄像头的双路视频信息制定目标定位算法进行检测;第二类、是在教室前面两侧各装一个摄像机,摄像机安装高度比人坐立时头部高度略高,在摄像机的图像中,设置一条水平触发线。
但是,上述第一类监测方法采用双目视觉摄像头,需配合云台使用,造成监测的成本较高;第二类监测方法摄像机安装位置较低,学生容易对其进行随意调整或者破坏,造成监测不准或无法监测。
发明内容
本发明实施例提供一种起立监测方法、装置、服务器及起立监测系统,以提高起立监测准确率且降低起立监测成本。
第一方面,本发明实施例提供了一种起立监测方法,应用于服务器,所述服务器与相机集群连接,所述相机集群设于至少两个目标用户上方,所述相机集群包括至少两个相机,所述至少两个相机参数信息一致,一个摄像区对应至少两个相机,所述方法包括:
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
根据所述第一事件的位置信息,发送摄像指令至所述主相机;
获取所述主相机发送的所述第一事件的摄像信息。
可选地,所述根据所述图像人脸面积确认摄像区是否发生第一事件,包括:
计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
判断所述面积比值是否大于预设阈值;
若是,则确认所述第一行发生第一事件;
若否,则确认所述第一行没有发生第一事件。
可选地,不同的摄像区对应不同的预设阈值。
可选地,当所述摄像区为平面型教室时,所述预设阈值的取值范围为1-2;
当所述摄像区为阶梯型教室时,所根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积述预设阈值的取值范围为0.8-1.1。
可选地,所述若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,包括:
根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
若是,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,获取面积最大值,确认面积最大值对应的相机为主相机。
可选地,所述根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息,包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
可选地,所述摄像信息包括所述第一事件特写的视频信息与声音信息。
可选地,所述若是,根据所述图像人脸面积确认主相机之后,还包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
可选地,所述获取摄像区的图像信息,包括:
采集摄像区图像;
基于人脸检测模型获取摄像区图像的图像人脸;所述人脸检测模型为训练好的全卷积神经网络;所述图像人脸为所述摄像区内目标用户的图像人脸;
解析所述图像人脸;
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积。
第二方面,本发明实施例提供了一种起立监测装置,用于服务器,所述装置包括:
第一信息获取模块,用于获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
第一判断模块,用于根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
第二判断模块,用于若摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
计算模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
发送模块,用于根据所述第一事件的位置信息,发送摄像指令至所述主相机;
第二信息获取模块,用于获取所述主相机发送的所述第一事件的摄像信息。
可选地,所述第一判断模块还包括:
第一计算单元,用于计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
第一判断单元,用于判断所述面积比值是否大于预设阈值;若是,则确认所述第一行发生第一事件;若否,则确认所述第一行没有发生第一事件。
可选地,所述第二判断模块还包括:
第二判断单元,用于根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
第二确认单元,用于若所述第一事件为同一目标用户,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,确认最大值对应的相机为主相机。
可选地,所述计算模块具体用于:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
可选地,所述起立监测装置还包括:
统计模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
第三方面,本发明实施例提供了一种服务器,所述服务器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前述的方法。
第四方面,本发明实施例提供了一种起立监测系统,所述系统包括:相机集群以及如前述的服务器;所述相机集群与所述服务器连接,用于对目标用户进行图像信息获取;所述相机集群包括至少两个相机。
第五方面,本申请实施例提供一种存储介质,所述存储介质存储有可执行指令,所述可执行指令被智能终端执行时,使所述智能终端执行如上所述的起立监测方法。
第六方面,本申请实施例还提供了一种程序产品,所述机程序产品包括存储在存储介质上的程序,所述程序包括程序指令,当所述程序指令被智能终端执行时,使所述智能终端执行如上所述的起立监测方法。
本发明实施例的有益效果在于:本实施例提供的起立监测方法、装置、服务器及起立监测系统,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例提供的起立监测方法的其中一种应用环境的示意图;
图2是本发明实施例提供的一种起立监测方法的流程示意图;
图3是本发明实施例提供的一种起立监测方法的流程示意图;
图4是本发明实施例提供的一种起立监测方法的流程示意图;
图5是本发明实施例提供的一种起立监测方法的流程示意图;
图6是本发明实施例提供的一种双目测距原理的原理示意图;
图7是本发明实施例提供的一种起立监测装置的结构示意图;
图8是本发明实施例提供的一种起立监测装置的结构示意图;
图9是本发明实施例提供的一种起立监测装置的结构示意图;
图10是本发明实施例提供的服务器的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。再者,本发明所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
本发明实施例提供的起立监测方法、装置、服务器及起立监测系统,适用于附图1所示的应用场景。在附图1所示的应用场景中,包括服务器10、相机集群20及摄像区30。其中,相机集群20设于摄像区的上方,且所述相机集群包括至少两个相机,每个相机的参数信息完全一致。一个摄像区30至少对应两个相机。所述服务器10与至少两个相机均连接,用于与相机实现信号交互,从而实现对摄像区30内的目标用户进行起立监测,在目标用户进行起立动作时,获取目标用户的特写摄像信息。将相机设置在目标用户的上方可避免人为因素而导致起立监测的误差过大或者无法监测,且该种监测方式没有采用云相机进行特写捕捉,在提高监测准确率的同时也降低了整体的监测成本。
其中,相机可以为摄像头、摄像机、照相机或者其他带有摄像功能的设备。至少两个相机的外参数与内参数均为一致。相机集群20与服务器10可通过无线或者有线进行信号交互,无线网络可以但不限于局域网、因特网、WIFI等其他能够实现信号传输与接收的无线网络。
以上示例性的示出了应用场景的一种形式,在其他应用场景中,也可以包括多个摄像区30,在相机集群20中设置多个相机与多个摄像区30进行对应。
图2为本发明实施例提供的起立监测方法的一个实施例的流程图,所述起立监测方法可由图1中的服务器10执行。如附图2所示,所述起立监测方法包括:
S10:获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
在本实施例中,所述图像信息是通过相机集群20中的相机所获取的。所述相机是实时对摄像区30进行监测,每一帧获取一次摄像区30的图像信息,并将图像信息发送至服务器10。服务器10会对相机发送的每一帧图像信息进行解析与处理。所述图像信息包括每个目标用户的图像人脸面积,在服务器对图像信息解析时,会将所述每个目标用户的图像人脸面积进行提取与存储。
具体地,在服务器10中设置有获取摄像区30的图像信息的开关,方便用户选择不同时间对摄像区30进行监测。举个例子,当摄像区30为学校的教室时,因学校存在课间活动,而此时若服务器10没有关闭获取摄像区30的图像信息这一功能,在课间活动时会因学生的来回走动或者起立活动等动作造成误判以及资源的浪费。用户则可以在课间时通过开关关闭该功能,在上课时且学生均坐在座位时开启该功能,能够很好的把控学生起立监测的使用时间。在服务器10中设置开关控制相机的工作状态能够有效避免资源的浪费,且提高相机的寿命。
进一步地,相机在工作状态时实时采集对摄像区30的图像信息,并将图像信息发送至服务器10,当服务器10所接收到的图像信息超过预设存储阈值时,清除服务器10中存储时间较长的图像信息,或者在服务器10的计时器中预设时间阈值,在服务器10开始工作时先将计时器进行清零,并以加一的方式随每帧图像信息叠加,当到达预设时间阈值,清除服务器10中存储时间较长的图像信息,同时重置服务器10的计时器,从而使得服务器10中有足够空间对图像信息进行解析与处理,避免了因服务器10的存储空间的不足而使得摄像区30的起立监测的漏检,提高了监测的准确率及稳定性。
具体地,所述获取摄像区的图像信息,包括:
采集摄像区图像;
基于人脸检测模型获取摄像区图像的图像人脸;所述人脸检测模型为训练好的全卷积神经网络;所述图像人脸为所述摄像区内目标用户的图像人脸;
解析所述图像人脸;
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积。
其中,先通过相机对摄像区30进行拍照,采集摄像区的图像。所述人脸检测模型为训练好的全卷积神经网络,在人脸检测模型中具体执行的步骤为:
1.先对摄像区图像进行多尺度变换,获取图像金字塔,获取图像多尺度信息。使用网络P-Net,用来生成候选窗和边框回归向量(bounding box regression vectors)。使用Bounding box regression的方法来校正这些候选窗,使用非极大值抑制(NMS)合并重叠的候选框。全卷积网络和Faster R-CNN中的RPN一脉相承。
2. 使用网络N-Net改善候选窗。将通过P-Net的候选窗输入R-Net中,拒绝掉大部分错误的窗口,继续使用Bounding box regression和NMS合并。
3. 使用网络O-Net输出最终的图像人脸和特征点位置。和第二步类似,但是不同的是生成5个特征点位置。
其中,全卷积神经网络的训练包括三部分:人脸与非人脸的训练、人脸区域的训练以及人脸五点特征定位的训练,并采用多种损失函数进行训练,例如:采用交叉熵损失函数训练人脸与非人脸,使用平方和损失函数进行人脸区域以及五点特征定位的训练。
然后,在获取到图像人脸之后,服务器10对所述图像人脸进行解析,获取图像信息。所述图像信息包括图像人脸面积以及其他图像人脸特征,所述其它图像人脸特征包括人脸长度特征值、下颌骨宽度特征值以及下巴角度特征值。
S20:根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
其中,服务器10在接收到相机集群发送的图像信息后进行解析,提取图像信息中所有目标用户的人脸面积,目标用户是指在摄像区30范围内进行活动的用户,所述第一事件是指在摄像区30内任意一个目标用户进行起立动作。根据所有目标用户的人脸面积对摄像区30的目标用户是否起立进行判断,相对于现有的采用摄像区30两边设置触发线类型的起立监测方法,能够不受摄像区场地的限制,且检测精度较高。
在其他实施例中,服务器10在判断所述摄像区30的目标用户是否进行起立动作时,可将部分目标用户进行起立动作不判断为第一事件。举个例子,当摄像区30为教室时,目标用户包括教师与学生,教师在摄像区30进行起立动作不作为第一事件,学生在摄像区30进行起立动即为第一事件,服务器10在判断目标用户为教室或者学生时,是利用服务器中预设的卷积神经网络进行人脸识别,当时别目标用户为教师时,即使教在摄像区30进行起立动作时,服务器10也不会认为该摄像区30存在第一事件的发生。
S30:若确认摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
在本实施例中,每个摄像区30对应至少两个相机,也即在相机集群中,对应同一个摄像区30必定存在至少两个相机能够进行摄像。当服务器10判断所述摄像区30内存在第一事件时,服务器10先获取该第一事件对应的摄像区30的位置,并且服务器10中预存有每个摄像区30所对应的相机,调取该摄像区30对应的至少两个相机,再根据该摄像区30对应的所述至少两个相机中第一事件的人脸图像面积以及相机参数信息,确认主相机的具体位置。确认主相机后,将该摄像区30对应的至少两个相机除主相机以外的其余相机设定为辅助相机。所述辅助相机用于对第一事件的再次判定且配合主相机进行第一事件位置信息的获取。
需要说明的是,本实施例中的主相机与辅助相机是相对于每一件第一事件进行定义的,换句话说,一个第一事件对应一个主相机,不同的第一事件对应的主相机可相同也可不同。举个例子,假设摄像区30发生了两起第一事件,其中一个第一事件位于摄像区的最左边一列,另外一起第一事件均位于摄像的最右一列。而位于最左一列的第一事件所对应的主相机,相对于最右一列的第一事件而言为辅助相机。而当两起第一事件最接近的相机为同一个时,该两起第一事件对应的主相机为同一主相机。
S40:根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
在本实施例中,所述相机参数信息包括相机外参与相机内参,是指相机的旋转方向、焦距、像素大小等;同一个摄像区对应的至少两个相机的外参与内参均为一致。在至少两个相机进行标定时,保持每个目标用户能够拍摄到所有目标用户的整个人脸,并在这前提下保证与目标用户的竖直距离为最小。每个相机标定完成后,在启动服务器10时会根据每个相机的位置信息进行相机参数信息的获取,并将参数信息存储在预设的存储区。在相机的位置信息或者焦距发生改变时,服务器10会产生预警信息,提醒用户调整相机位置。
进一步地,在确定了主相机之后,服务器10随机选取该摄像区30对应的另外一台辅助相机,获取主相机与辅助相机同一帧的图像信息,同时调取主相机与该辅助相机的的参数信息,对所述第一事件的位置信息进行计算与获取。
S50:根据所述第一事件的位置信息,发送摄像指令至所述主相机;
在本实施例中,服务器10在获取到第一事件的位置信息之后,产生对应该位置信息的摄像指令,所述摄像指令包括第一事件的特写指令与第一事件的位置指令,所述第一事件的位置指令用于指示主相机旋转至第一事件的所在位置,所述第一事件的特写指令用于指示主相机对该第一事件进行特写拍摄,获取相应的摄像信息。
S60:获取所述主相机发送的所述第一事件的摄像信息。
具体地,所述摄像信息包括所述第一事件特写的视频信息与声音信息。
需要说明的是,在每个相机的下方均预设有拾音器,用于获取目标用户的声音信息,而在服务器10可根据声源定位和音频处理算法对第一事件的位置进行二次确认,确保摄像信息的准确率。
在本实施例中,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了监测成本且提高了监测精度。
具体地,如图3所示,为本发明实施例提供的一种起立监测方法的流程示意图,所述根据所述图像人脸面积确认摄像区是否发生第一事件,包括:
S21: 计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
需要说明的是,服务器10在获取到相机发送的图像信息后对所有目标用户的图像人脸面积进行获取,并依据目标用户的人脸面积的分布进行划分行列,或者依据摄像区30预设好的行列信息对目标用户的人脸面积进行划分行列。在确认摄像区30是否发生第一事件时,是按列的顺序从左到右或者从右到左依次确认,直至该摄像区30每一列的人脸面积均经过确认后再结束此次判断。
具体地,所述预设参考值是服务器10预先根据大数据和数理规律统计和计算坐下的人脸的预设值,预设参考值为统计条件下该位置处或者该列目标用户所在位置没有发生第一事件的所有目标用户的图像人脸面积的平均值,相同列的人脸预设值相等,人脸面积因个体差异导致偏离预设值的程度相较因第一事件发生而落入同一水平位置的人脸面积具有极大的区分度。需要说明的是,在配置相机外参数时,保持前一行目标用户进行第一事件时的图像人脸位置落在后一行目标用户的图像人脸位置。
在计算同一列中相邻两行的两个目标用户的图像人脸面积,获取面积比值时,可从该列距离相机最近的一端开始计算,换句话说,在每一列中的计算,是从距离所述相机最近的一端依次向距离所述相机最远一端的方向计算,直至该列每一个人脸面积都经过计算为止。所述预设参考值的计算具体为:获取该列摄像区中所有目标用户未进行第一事件时的人脸面积;计算该列摄像区中所有目标用户未进行第一事件时的人脸面积的平均值;定义该平均值为预设参考值。每一列的预设参考值取为该列没有进行起立的人脸面积的平均值,可提高了整体的监测准确率。
S22: 判断所述面积比值是否大于预设阈值;
S23:若是,则确认所述第一行发生第一事件;
S24:若否,则确认所述第一行没有发生第一事件。
具体地,不同的摄像区对应不同的预设阈值。需要说明的是,预设阈值是根据不同摄像区的具体地理位置进行设定,例如阶梯式教室与平面型教室的预设阈值肯定会存在差异。其中,当所述摄像区30为平面型教室时,所述预设阈值的取值范围为1-2;当所述摄像区30为阶梯型教室时,所述预设阈值的取值范围为0.8-1.1。
进一步地,当用户向服务器10提供了预设阈值的取值范围之后,服务器10在确认是否发生第一事件时,会根据当前第一行与第二行的人脸面积在图像信息上的垂直距离在该摄像区30中所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序,在预设阈值的取值范围选取对应的阈值。例如,当预设阈值的取值范围为1-2时,在服务器10进行确认是否发生第一事件时,所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序为10位,则将取值范围为1-2分为10个类别,即1.1、1.2、1.3...2。若当前的第一行与第二行的人脸面积在图像信息上的垂直距离为所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序的第10位,则预设阈值取1,若当前的第一行与第二行的人脸面积在图像信息上的垂直距离为所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序的第9位,则预设阈值取1.1,依次类推获取对应的阈值。在对个该摄像区30中所有的图像人脸面积进行确认之后,服务器10采集该摄像区30是否发生第一事件的确认结果。利用图像人脸面积对摄像区30的目标用户是否进行起立动作进行判断,提高了起立监测的准确率,且对应不同场地类型设置不同的预设阈值,解决了现有技术中因场地不同而无法实现起立监测这一技术问题,大大增强了实用性。
具体地,如附图4所示,为本发明实施例提供的起立监测方法的另一个实施例的流程图,若所述摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,包括:
S31:根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认所述第一事件是否为同一目标用户;
S32:若是,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,获取面积最大值,确认面积最大值对应的相机为主相机。
其中,在确认了该摄像区30有第一事件发生之后,服务器10获取该摄像区30对应的所有相机所获取的图像人脸面积,并将每个相机中的最大人脸面积进行比较,最大值对应的相机为主相机。需要说明的,因所有相机的参数信息为一致,则距离第一事件较近的相机所获取的人脸图像面积则为最大,保证了主相机即为距离第一事件最近的一个相机。
需要说明的是,当存在最大人脸面积有两个时,也即最接近第一事件的相机有两个时(第一事件的目标用户与这两个相机的距离相等),服务器10从这两个相机中随机选择一个相机作为主相机。
具体地,如附图5所示,为本发明实施例提供的起立监测方法的另一个实施例的流程图,所述根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息,包括:
S41:根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括所述主相机与辅助相机的光心距、视差以及焦距;
S42:根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
需要说明的是,获取所述第一事件的位置信息,是基于双目测距原理进行获取的,
其中,判断所述第一事件的位置信息,是根据双目测距原理进行的,参考附图6,以附图6所示参数进行解析,具体如下:
I1为辅助相机与主相机的成像平面,Ol为主相机的光心以及主相机坐标系的圆心,Or为辅助相机的光心以及辅助相机坐标系的圆心, P点代表第一事件的位置,Pleft为P点在主相机坐标系上的成像点,Xleft为世界坐标系内Pleft的横坐标,Pright为辅助相机坐标系上的成像点,Xright为世界坐标系内Pright的横坐标,则主相机与辅助相机的视差为D=Xleft-Xright,Xleft与Xright值大小由Pleft和Pright在成像平面的横坐标以及单位像素对应的物理尺寸决定,另根据相机内参信息,可知主相机与辅助相机的焦距f,单位像素对应的物理尺寸,外参Ol与Or之间的距离为光心距B,还可知P点在主相机坐标系与辅助相机坐标系中的纵坐标相等,均为Y,Pleft和Pright横坐标(以像素为单位)可在图像空间中精确测得。设P点在世界坐标系内的空间坐标为(x,y,z),则根据三角形相似定理,可得:
Xleft=f*x/z;
Xright=f*(x-B)/z;
Y=f*y/z;
其中,Xleft、Xright、f、B、D以及Y均为已知,可根据已知量求得,最终可以得到:
X=B* Xleft/D;
y=B*Y/D;
Z=B*f/D;
得P点的空间坐标(x,y,z),也即获取P点的位置信息。
具体地,在本发明实施例提供的起立监测方法的另一个实施例中,在所述若确认摄像区30发生第一事件,根据所述图像人脸面积确认主相机之后,还包括:根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
其中,利用主相机与辅助相机的图像信息以及相机的内参数与外参数,可以确认各自图像信息中的第一事件是否为同一个第一事件,从而确认第一事件的数量。需要说明的是,在多个第一事件发生时,服务器10则会根据拾音器的声音优先作为特写目标。举个例子,当主相机对应两个第一事件时,也即该摄像区30有两个目标用户进行起立动作,当其中一个目标用户发出声音时,服务器10会优先对该目标用户进行特写;而当两个目标用户均发出声音时,分时段轮流特写,比如可预设一个目标用户特写摄像30秒。
本实施例提供的起立监测方法,通过获取摄像区30的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了监测成本且提高了监测精度。
相应地,本发明实施例还提供了一种起立监测装置,所述起立监测装置100用于图1所示的服务器10,如图7示,所述起立监测装置100包括:
第一信息获取模块101,用于获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
第一判断模块102,用于根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
第二判断模块103,用于若摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
计算模块104,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
发送模块105,用于根据所述第一事件的位置信息,发送摄像指令至所述主相机;
第二信息获取模块106,用于获取所述主相机发送的所述第一事件的摄像信息。
本实施例提供的一种起立监测装置,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例利用所述定位装置对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
具体地,如附图8所示,所述第一判断模块102还包括:
第一计算单元1021,用于计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
第一判断单元1022,用于判断所述面积比值是否大于预设阈值;若是,则确认所述第一行发生第一事件;若否,则确认所述第一行没有发生第一事件。
具体地,如附图9所示,所述第二判断模块103还包括:
第二判断单元1031,用于根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
第二确认单元1032,用于若所述第一事件为同一目标用户,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,确认最大值对应的相机为主相机。
具体地,所述计算模块104具体用于:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
具体地,如附图7所示,所述起立监测装置100还包括:
统计模块107,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
需要说明的是,上述起立监测装置可执行本发明实施例所提供的起立监测方法,具备执行方法相应的功能模块和有益效果。未在人脸识别装置实施例中详尽描述的技术细节,可参见本发明实施例所提供的起立监测方法。
本发明实施例还提供了一种服务器,图10是本发明实施例提供的服务器10的硬件结构示意图,如图10所示,该服务器10包括:
至少一个处理器11;以及,
与所述至少一个处理器11通信连接的存储器12;其中,
所述存储器12存储有可被所述至少一个处理器11执行的指令,所述指令被所述至少一个处理器11执行,以使所述至少一个处理器11能够执行如前述的起立监测方法。
具体地,以附图10中一个处理器11为例。处理器11和存储器12可以通过总线或者其他方式连接,图10中以通过总线连接为例。
存储器12作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的起立监测方法对应的程序指令/模块(例如,附图2所示的步骤S10-S60)。处理器11通过运行存储在存储器12中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的起立监测方法。
存储器12可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器12可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器12可选包括相对于处理器11远程设置的存储器,这些远程存储器可以通过网络连接至服务器10上。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器12中,当被所述一个或者多个处理器11执行时,执行上述任意方法实施例中的起立监测方法,例如,执行以上描述的图2中的方法步骤S10至步骤S60,图3中的方法步骤S21至步骤S24,图4中的方法步骤S31至步骤S32,图5中的方法步骤S41至步骤S42。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
本实施例提供的一种服务器,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例利用所述服务器对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
本发明实施例还提供了一种起立监测系统,所述系统包括:相机集群以及如上述的服务器;
所述相机集群与所述服务器连接,用于对目标用户进行图像信息获取;所述相机集群包括至少两个相机。
本实施例提供的一种起立监测系统,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例利用所述系统对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
通过以上的实施例的描述,本领域普通技术人员可以清楚地了解到各实施例可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现所述实施例方法中的全部或部分流程是可以通过计算机程序指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如所述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory, ROM)或随机存储记忆体(Random Access Memory, RAM)等。
本发明实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如图10中的一个处理器11,可使得上述一个或多个处理器可执行上述任意方法实施例中的起立监测方法,例如,执行以上描述的图2中的方法步骤S10至步骤S60,图3中的方法步骤S21至步骤S24,图4中的方法步骤S31至步骤S32、图5中方法步骤S41至步骤S42;实现图7中的模块101-107,图8-图10中的单元1021-1022、单元1031-1032、单元1031-1032的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory, ROM)或随机存储记忆体(RandomAccessMemory, RAM)等。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (14)
1.一种起立监测方法,用于服务器,其特征在于,所述服务器与相机集群连接,所述相机集群设于至少两个目标用户上方,所述相机集群包括至少两个相机,所述至少两个相机参数信息一致,一个摄像区对应至少两个相机,所述方法包括:
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
根据所述图像信息,将所述目标用户的图像人脸面积进行划分行列;
计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;所述第一事件是指目标用户进行起立动作;
判断所述同一列中相邻两行的第一行的所述面积比值是否大于预设阈值;
若是,则确认所述第一行发生所述第一事件;
若否,则确认所述第一行没有发生所述第一事件;
若所述摄像区发生所述第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
根据所述第一事件的位置信息,发送摄像指令至所述主相机;
获取所述主相机发送的所述第一事件的摄像信息。
2.根据权利要求1所述的起立监测方法,其特征在于,不同的摄像区对应不同的预设阈值。
3.根据权利要求2所述的起立监测方法,其特征在于,当所述摄像区为平面型教室时,所述预设阈值的取值范围为1-2;
当所述摄像区为阶梯型教室时,所述预设阈值的取值范围为0.8-1.1。
4.根据权利要求1所述的起立监测方法,其特征在于,所述若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,包括:
根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
若是,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,获取面积最大值,确认面积最大值对应的相机为主相机。
5.根据权利要求1所述的起立监测方法,其特征在于:所述根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息,包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
6.根据权利要求1所述的起立监测方法,其特征在于:所述摄像信息包括所述第一事件特写的视频信息与声音信息。
7.根据权利要求1-6任一项所述的起立监测方法,其特征在于,在所述若是,根据所述图像人脸面积确认主相机之后,还包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
8.根据权利要求1所述的起立监测方法,其特征在于,所述获取摄像区的图像信息,包括:
采集摄像区图像;
基于人脸检测模型获取摄像区图像的图像人脸;所述人脸检测模型为训练好的全卷积神经网络;所述图像人脸为所述摄像区内目标用户的图像人脸;
解析所述图像人脸;
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积。
9.一种起立监测装置,用于服务器,其特征在于,所述装置包括:
第一信息获取模块,用于获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;还用于根据所述图像信息,将所述目标用户的图像人脸面积进行划分行列;
第一判断模块,用于根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;所述第一判断模块还包括:
第一计算单元,用于计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
第一判断单元,用于判断所述同一列中相邻两行的第一行的所述面积比值是否大于预设阈值;若是,则确认所述第一行发生第一事件;若否,则确认所述第一行没有发生第一事件;
第二判断模块,用于若摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
计算模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
发送模块,用于根据所述第一事件的位置信息,发送摄像指令至所述主相机;
第二信息获取模块,用于获取所述主相机发送的所述第一事件的摄像信息。
10.根据权利要求9所述的起立监测装置,其特征在于,所述第二判断模块还包括:
第二判断单元,用于根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
第二确认单元,用于若所述第一事件为同一目标用户,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,确认最大值对应的相机为主相机。
11.根据权利要求9所述的起立监测装置,其特征在于,所述计算模块具体用于:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
12.根据权利要求9-11任一项所述的起立监测装置,其特征在于,所述起立监测装置还包括:
统计模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
13.一种服务器,其特征在于,所述服务器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-8任一项所述的方法。
14.一种起立监测系统,其特征在于,所述系统包括:相机集群以及与如权利要求13所述的服务器;
所述相机集群与所述服务器连接,用于对目标用户进行图像信息获取;所述相机集群包括至少两个相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811378341.7A CN109522846B (zh) | 2018-11-19 | 2018-11-19 | 一种起立监测方法、装置、服务器及起立监测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811378341.7A CN109522846B (zh) | 2018-11-19 | 2018-11-19 | 一种起立监测方法、装置、服务器及起立监测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109522846A CN109522846A (zh) | 2019-03-26 |
CN109522846B true CN109522846B (zh) | 2020-08-14 |
Family
ID=65776635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811378341.7A Active CN109522846B (zh) | 2018-11-19 | 2018-11-19 | 一种起立监测方法、装置、服务器及起立监测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109522846B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113853158B (zh) * | 2019-07-22 | 2024-05-14 | 松下知识产权经营株式会社 | 步行功能评价装置、步行功能评价系统、步行功能评价方法、记录介质及认知功能评价装置 |
CN110738109B (zh) * | 2019-09-10 | 2022-11-22 | 浙江大华技术股份有限公司 | 检测用户起立的方法、装置及计算机存储介质 |
CN110688927B (zh) * | 2019-09-20 | 2022-09-30 | 湖南大学 | 一种基于时序卷积建模的视频动作检测方法 |
CN115147492A (zh) * | 2021-03-31 | 2022-10-04 | 华为技术有限公司 | 一种图像处理方法以及相关设备 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070003113A1 (en) * | 2003-02-06 | 2007-01-04 | Goldberg David A | Obtaining person-specific images in a public venue |
US20090303329A1 (en) * | 2008-06-06 | 2009-12-10 | Mitsunori Morisaki | Object image displaying system |
CN102096930A (zh) * | 2011-01-30 | 2011-06-15 | 吴柯维 | 一种教学智能录播系统学生起坐检测方法 |
CN102903125A (zh) * | 2012-09-27 | 2013-01-30 | 无锡天授信息科技有限公司 | 固定场景下运动目标检测系统及方法 |
CN103093654A (zh) * | 2013-01-28 | 2013-05-08 | 北京航空航天大学 | 一种双摄像机交互式智能跟踪教学系统 |
CN103686092A (zh) * | 2013-12-30 | 2014-03-26 | 深圳锐取信息技术股份有限公司 | 学生起立双系统检测方法及系统 |
CN103916615A (zh) * | 2014-04-03 | 2014-07-09 | 山大鲁能信息科技有限公司 | 一种自动识别录播系统及其工作方法 |
US20150022338A1 (en) * | 2013-07-17 | 2015-01-22 | Vivint, Inc. | Geo-location services |
CN104574359A (zh) * | 2014-11-03 | 2015-04-29 | 南京邮电大学 | 一种基于主从摄像机的学生跟踪定位方法 |
WO2017064838A1 (ja) * | 2015-10-14 | 2017-04-20 | パナソニックIpマネジメント株式会社 | 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法 |
CN106803913A (zh) * | 2017-03-10 | 2017-06-06 | 武汉东信同邦信息技术有限公司 | 一种用于自动侦测学生起立发言动作的检测方法及其装置 |
CN107172383A (zh) * | 2016-03-02 | 2017-09-15 | 杭州海康威视数字技术股份有限公司 | 一种对象状态检测方法及装置 |
CN107273781A (zh) * | 2016-04-07 | 2017-10-20 | 北京文香信息技术有限公司 | 一种基于图像分析的人体行为识别算法 |
CN206674094U (zh) * | 2017-04-17 | 2017-11-24 | 上海景瑞信息技术有限公司 | 基于人脸识别的摄像机自动控制系统 |
CN108111818A (zh) * | 2017-12-25 | 2018-06-01 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
-
2018
- 2018-11-19 CN CN201811378341.7A patent/CN109522846B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070003113A1 (en) * | 2003-02-06 | 2007-01-04 | Goldberg David A | Obtaining person-specific images in a public venue |
US20090303329A1 (en) * | 2008-06-06 | 2009-12-10 | Mitsunori Morisaki | Object image displaying system |
CN102096930A (zh) * | 2011-01-30 | 2011-06-15 | 吴柯维 | 一种教学智能录播系统学生起坐检测方法 |
CN102903125A (zh) * | 2012-09-27 | 2013-01-30 | 无锡天授信息科技有限公司 | 固定场景下运动目标检测系统及方法 |
CN103093654A (zh) * | 2013-01-28 | 2013-05-08 | 北京航空航天大学 | 一种双摄像机交互式智能跟踪教学系统 |
US20150022338A1 (en) * | 2013-07-17 | 2015-01-22 | Vivint, Inc. | Geo-location services |
CN103686092A (zh) * | 2013-12-30 | 2014-03-26 | 深圳锐取信息技术股份有限公司 | 学生起立双系统检测方法及系统 |
CN103916615A (zh) * | 2014-04-03 | 2014-07-09 | 山大鲁能信息科技有限公司 | 一种自动识别录播系统及其工作方法 |
CN104574359A (zh) * | 2014-11-03 | 2015-04-29 | 南京邮电大学 | 一种基于主从摄像机的学生跟踪定位方法 |
WO2017064838A1 (ja) * | 2015-10-14 | 2017-04-20 | パナソニックIpマネジメント株式会社 | 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法 |
CN107172383A (zh) * | 2016-03-02 | 2017-09-15 | 杭州海康威视数字技术股份有限公司 | 一种对象状态检测方法及装置 |
CN107273781A (zh) * | 2016-04-07 | 2017-10-20 | 北京文香信息技术有限公司 | 一种基于图像分析的人体行为识别算法 |
CN106803913A (zh) * | 2017-03-10 | 2017-06-06 | 武汉东信同邦信息技术有限公司 | 一种用于自动侦测学生起立发言动作的检测方法及其装置 |
CN206674094U (zh) * | 2017-04-17 | 2017-11-24 | 上海景瑞信息技术有限公司 | 基于人脸识别的摄像机自动控制系统 |
CN108111818A (zh) * | 2017-12-25 | 2018-06-01 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
Non-Patent Citations (2)
Title |
---|
一种新型的基于图像识别技术的录播系统在课改中的应用;夏宇,陆琴.;《中国教育信息化》;20111231;全文 * |
基于时空与或图模型的视频人体动作识别方法;易唐唐;《控制工程》;20171231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109522846A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522846B (zh) | 一种起立监测方法、装置、服务器及起立监测系统 | |
US10991072B2 (en) | Method and device for fusing panoramic video images | |
US9792505B2 (en) | Video monitoring method, video monitoring system and computer program product | |
US11983898B2 (en) | Monitoring method, electronic device and storage medium | |
CN101216304B (zh) | 物体尺寸估测之系统及方法 | |
CN105096269B (zh) | 基于畸变直线结构检测的图像径向畸变矫正的方法及系统 | |
EP3641298A1 (en) | Method and device for capturing target object and video monitoring device | |
WO2018232837A1 (zh) | 移动目标的跟踪拍摄方法和跟踪设备 | |
US20140086451A1 (en) | Method and apparatus for detecting continuous road partition | |
CN106033601A (zh) | 检测异常情形的方法和装置 | |
CN104813339A (zh) | 用于检测视频中的对象的方法、设备和系统 | |
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
CN105830426A (zh) | 一种视频生成系统的视频生成方法及装置 | |
CN104318578A (zh) | 一种视频图像分析方法及系统 | |
CN103839038A (zh) | 一种人数统计的方法及装置 | |
CN112257669A (zh) | 行人重识别方法、装置及电子设备 | |
CN109905641B (zh) | 一种目标监控方法、装置、设备及系统 | |
CN108229352B (zh) | 一种基于深度学习的站立检测方法 | |
CN108022205B (zh) | 目标跟踪方法、装置及录播系统 | |
CN110675426B (zh) | 人体跟踪方法、装置、设备及存储介质 | |
CN110287907A (zh) | 一种对象检测方法和装置 | |
CN110557628A (zh) | 一种检测摄像头遮挡的方法、装置及电子设备 | |
CN110991297A (zh) | 一种基于场景监控的目标定位方法及系统 | |
CN112633096A (zh) | 客流的监测方法、装置、电子设备及存储介质 | |
CN108596032B (zh) | 一种视频中打架行为检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 1005, Sanhang technology building, northwest Polytechnic University, Gaoxin South 9th Road, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Applicant after: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd. Address before: Room 1005, Sanhang Science and Technology Building, Northwest Polytechnic University, Gaoxin Nanjiu Road, Yuehai Street, Shenzhen, Guangdong 518000 Applicant before: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |