CN103795978B - 一种多画面智能识别方法及其装置 - Google Patents

一种多画面智能识别方法及其装置 Download PDF

Info

Publication number
CN103795978B
CN103795978B CN201410017739.3A CN201410017739A CN103795978B CN 103795978 B CN103795978 B CN 103795978B CN 201410017739 A CN201410017739 A CN 201410017739A CN 103795978 B CN103795978 B CN 103795978B
Authority
CN
China
Prior art keywords
target object
external frame
coordinate information
picture
panorama
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410017739.3A
Other languages
English (en)
Other versions
CN103795978A (zh
Inventor
王江柱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Yushi Intelligent Technology Co.,Ltd.
Original Assignee
Zhejiang Uniview Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Uniview Technologies Co Ltd filed Critical Zhejiang Uniview Technologies Co Ltd
Priority to CN201410017739.3A priority Critical patent/CN103795978B/zh
Publication of CN103795978A publication Critical patent/CN103795978A/zh
Application granted granted Critical
Publication of CN103795978B publication Critical patent/CN103795978B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种多画面智能识别方法及装置,应用于智能服务器,所述方法包括:对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,获得表征所述目标物体外接框的所在的位置和尺寸的第一坐标信息;根据各原始画面进行全景拼接时所需使用的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息。本发明建立全景拼接映射公式,但同时并不依赖于将每个摄相机采集的画面拼接成的全景画面,因此节省了智能服务器的性能消耗。

Description

一种多画面智能识别方法及其装置
技术领域
本发明涉及视频监控技术领域,尤其涉及一种多画面智能识别方法及其装置。
背景技术
随着智能识别技术的发展,越来越多的视频监控方案都集成了智能识别技术。同时由于视频监控方案对视频的清晰度与监控视角提出了更高的要求,市场上出现了基于多画面拼接的图像进行智能识别后,由球机进行联动操作的视频监控方案。因为由多个原始视频进行拼接后显示,所以用户的监控视角更广;同时在对拼接后的图像进行智能识别后,将用户关心的目标物体告知球机,由球机进行联动操作,球机可以对全景画面中用户关心的目标物体进行有针对性地跟踪拍摄,比如采用更高放大倍率进行跟踪拍摄,此时监控画面中的用户关注的局部信息也能够看的比较清楚,提高了用户体验。
参看图1,现有的视频监控方案采用智能服务器对接收到的多个前端摄像机发送的视频数据进行解码;对解码后的多个摄像机采集的画面进行拼接;对拼接后的全景画面进行智能识别;将智能识别的结果发送给前端球机进行联动操作。这种方案对智能服务器端的硬件(CPU)性能的要求比较高。并且现有的智能服务器对拼接后的全景画面进行智能识别,只能在拼接后的全景画面上实现一种智能识别算法,不利于视频算法的扩展。
发明内容
有鉴于此,本发明提供一种多画面智能识别方法及其装置,其无须对多个摄像机采集的画面完成全景画面的拼接,节省了智能服务器的性能消耗,并可对多个摄像机采集的画面采用不同智能识别算法,利于视频算法的扩展。本发明提供的方案包括一种多画面智能识别方法,应用于智能服务器,所述方法包括:
对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,获得表征所述目标物体外接框的所在的位置和尺寸的第一坐标信息;
根据各原始画面进行全景拼接时所需使用的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息。
本发明还提供一种多画面智能识别装置,应用于智能服务器,所述装置包括:
画面识别模块,用于对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,获得表征所述目标物体外接框的所在的位置和尺寸的第一坐标信息;
坐标转换模块,用于根据各原始画面进行全景拼接时所需使用的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息。
由以上技术方案可见,本发明对所述每个摄像机采集的画面进行智能识别,根据每个摄像机采集的画面与拼接后的全景画面的全景拼接映射公式,将获得目标物体外接框的所在的位置和尺寸的第一坐标信息转化为全景画面中的第二坐标信息。由于本发明建立全景拼接映射公式,但同时并不依赖于将每个摄相机采集的画面拼接成的全景画面,因此节省了智能服务器的性能消耗。并且本发明智能服务器对每个摄像机采集的画面进行智能识别,而不是在拼接后的全景画面进行智能识别,因此可以采用不同识别算法对每个摄像机采集的画面进行智能识别,利于视频算法的扩展。
附图说明
图1是现有的视频监控方案的信号传输示意图;
图2是本发明方法的流程图;
图3是本发明目标物体的关键点的示意图;
图4是本发明方法步骤S2的流程图;
图5是本发明目标物体在全景图像中的示意图;
图6是本发明重叠目标物体的示意图;
图7是本发明装置的结构图。
具体实施方式
以下结合附图对本发明进行详细描述。
本发明对所述每个摄像机采集的画面进行智能识别,根据每个摄像机采集的画面与拼接后的全景画面的全景拼接映射公式,将获得目标物体外接框的所在的位置和尺寸的第一坐标信息转化为全景画面中的第二坐标信息。由于本发明仅建立全景拼接映射公式,并不继续将每个摄相机采集的画面拼接为全景画面,因此节省了智能服务器的性能消耗。并且本发明智能服务器对每个摄像机采集的画面进行智能识别,而不是在拼接后的全景画面进行智能识别,因此可以采用不同识别算法对每个摄像机采集的画面进行智能识别,利于视频算法的扩展。
为实现本发明目的,本发明提供一种多画面智能识别方法,应用于智能服务器。
参看图2,所述方法包括:
S1、对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,获得表征所述目标物体外接框的所在的位置和尺寸的第一坐标信息。
S2、根据各原始画面进行全景拼接时所需使用的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息。
在实施过程中,本发明智能服务器可以连续从每个前端的参考摄像机中获取下一帧图像数据,通过循环执行S1和S2得到目标物体的多个第二坐标信息,从而得到更加全面的目标物体的位置与尺寸信息。
描述目标物体外接框在画面中的位置以及尺寸的方式有很多种,假设外接框是矩形,那么可以通过两个对角点的坐标即可表达,也可以通过一个对角点的坐标加上矩形的长和宽来表达;假设外接框是圆形,则可以通过圆心的坐标与圆的半径来描述这个外接框的位置与尺寸。
如前所述,本发明利用第一坐标信息以及第二坐标信息分别获得所述目标物体外接框在各原始画面以及拼接的全景画面的所在的位置和外接框尺寸。在获得目标物体在全景画面中的位置后,可进一步将其转化为球机的经纬度坐标信息。此外,根据之前智能识别的目标物体在全景画面中的多个位置,可以获取目标物体移动的速度和轨迹。本发明智能服务器将这些信息转换为球机联动需要的经纬度信息、放大倍率信息、及球机转动速度信息、外接框尺寸,发送给球机进行联动操作,进行物体跟踪等相关动作。由于,此部分处理方案同现有技术并无差异,故此不再赘述。
由于本发明分别对每个摄像机采集的画面进行智能识别,所以可以对每个画面的智能识别采用不同的智能识别算法,每个摄像机采集的原始画面都可以使用一种独立的智能识别算法进行处理,这样一来不同摄像机的画面可以根据需要配备不同的算法,而且每个画面所使用的算法被改进时,可以及时独立地进行更新,更新过程显然不影响其他画面配置的智能识别算法的实施,非常有利于智能识别算法的扩展和演进。
进一步地,本发明步骤S1中所述对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别为:对每个摄像机采集的画面分别进行预设类型的目标物体智能识别。例如,对于安装于园区门口处的摄像机采集的视频可以仅对车牌进行识别,即目标物体类型设定为车牌。还例如,对于安装于办公楼入口处的摄像机采集的视频可以仅对人员进行识别,即目标物体类型设定为人员。由于本发明并不是对于拼接完成的全景图像进行智能识别,而是分别针对每个摄像机采集的画面进行智能识别,因此本发明可以对每个摄像机采集的画面分别进行预设类型的目标物体智能识别。因此,本发明无须如现有技术般对拼接完成的全景图像的所有目标物体进行智能识别,本发明对每个摄像机采集的画面分别进行预设类型的目标物体智能识别,进一步节约了智能服务器的性能消耗。
进一步地,本发明所述第一坐标信息和第二坐标信息包括:目标物体外接框的一个或多个指定关键点坐标信息。参看图3,在本发明实施例中目标物体具体为车辆,应用场景为停车场。本发明所述目标物体的关键点可以包括目标物体的中心点A,以及目标物体的外接矩形框左上角B与右下角C。当然,本发明的关键点也可以仅选取外接矩形框左上角B与右下角C。另外,如果外接框为椭圆形,也可以选取中心点以及多个边界坐标点作为关键点。关键点的选取为用户根据需要进行预先设置的。
本发明获取参考摄像机组中多个摄像机采集的画面,从而建立每个摄像机采集的画面与拼接后的全景画面的全景拼接映射公式。
全景图像拼接方法的通常步骤包括:A、获取多个摄像机采集的画面,在每个摄像机采集的画面中选取特征点,获取其位置坐标。B、对选取的特征点在每个摄像机采集的画面中的位置坐标进行匹配,获得选取的特征点在全景画面中的位置坐标。C、根据特征点在每个摄像机采集的画面中的位置坐标和在全景画面中的位置坐标,建立每个摄像机采集的画面与全景画面的全景拼接映射公式。D、根据全景拼接映射公式将每个摄像机采集的画面中的所有像素的位置坐标转化为全景画面的像素的位置坐标,获得拼接的全景画面。
具体地步骤A中特征点的选取通常采用人工法、半自动法、全自动法等方式进行,并且优选地选取标志性建筑或者两个画面重叠部分的像素作为特征点。
具体地的选取的特征点在每个摄像机采集的画面中的位置坐标和选取的特征点在全景画面中的位置坐标的关系可以用下列公式表示:
M(X,Y)=C*N(x,y) (1),
其中M(X,Y)为选取的特征点在全景画面中的位置坐标,N(x,y)为选取的特征点在每个摄像机采集的画面中的位置坐标,C为求解系数。
现有技术通常采用最小二乘法获得所述求解系数C,获得求解系数C后,可以建立每个摄像机采集的画面与全景画面的全景拼接映射公式如下
CombineImage[X,Y]=T[ImageIndex,x,y] (2),
其中,X、Y为全景画面中的像素位置坐标,ImageIndex为前端摄像机编码,x、y为某个前端摄像机采集的画面的像素点位置。T为原始画面与全景画面之间的映射矩阵,即为将每个摄像机采集的画面中的像素的位置坐标和求解系数C相乘获得该像素在全景画面的位置坐标。因此,通过公式(2)可以将每个摄像机采集的画面中的某个像素的位置坐标转换为拼接后全景画面的像素的位置坐标,从而获得拼接的全景画面。
由上述步骤A-D可知,在进行图像拼接的过程中,所述智能服务器的硬件(CPU)性能消耗最大的是步骤D,以一幅1080画面为例,其需要对200万个像素按照公式(2)进行位置坐标转换计算。而如果需要对三幅画面进行拼接时,需要对200万*3个像素按照公式(2)进行位置坐标转换计算,极大地占用了智能服务器的硬件资源。如intel GPU能够用于视频解码,对图像拼接支持性能不佳,因此图像拼接需要CPU来实现,而图像拼接的计算量对硬件的要求导致现有技术对智能服务器性能的要求比较高。
相对于现有技术,本发明仅执行步骤A-C,即并不执行步骤D。建立每个摄像机采集的画面与全景画面的全景拼接映射公式(2)后,并不将每个摄像机采集的画面中的所有像素的位置坐标转化为全景画面的像素的位置坐标,无须获得拼接的全景画面,因此节省了智能服务器的性能消耗。并且,本发明由于并不完成图像拼接,节省了较大的性能消耗,遂可以将前期的视频解码以及后续的图像识别等操作采用GPU来完成,可以进一步节约CPU资源。
进一步地,参看图4,所述步骤S2包括:
S21、将目标物体外接框的关键点的第一坐标信息通过全景拼接映射公式计算出目标物体外接框的关键点的第二坐标信息。
假设存在三个摄像机,即需要将三个摄像机采集的三幅画面进行智能识别。本发明分别将关键点A、关键点B和关键点C在三幅画面的第一坐标信息根据公式(2)转化为上述关键点A、关键点B和关键点C在全景画面的第二坐标信息。
参看图5,目标物体Object1的关键点A1、关键点B1和关键点C1分别在三幅画面的第一坐标信息转化为在全景画面的第二坐标信息;目标物体Object2的关键点A2(A2’)、关键点B2(B2’)和关键点C2(C2’)分别在三幅画面的第一坐标信息转化为在全景画面的第二坐标信息;目标物体Object3的关键点A3、关键点B3和关键点C3分别在三幅画面的第一坐标信息转化为在全景画面的第二坐标信息。
S22、根据目标物体外接框的关键点的第二坐标信息判断全景画面中是否存在目标物体外接框重叠。
S23、外接框无重叠的目标物体设定为不同的目标物体。
S24、外接框重叠的目标物体设定为相同的目标物体。
具体地,无重叠的目标物体Object1和目标物体Object3表明目标物体Object1和目标物体Object3为两个目标物体,分配跟踪ID号为Obj_1、Obj_3。
本发明中相邻摄像机采集的画面可能存在重叠,比如第一幅画面和第二幅画面存在部分重叠,第二幅画面和第三幅画面存在部分重叠。如果一个目标物体处于两幅画面的交界处,则该目标物体的关键点从三幅画面的第一坐标信息转化为在全景画面的第二坐标信息后,目标物体可能存在重叠。参看图5,目标物体Object2在第一幅画面的第一坐标信息转化为在全景画面的第二坐标信息后,形成了目标物体Object21;目标物体Object2在第二幅画面的第一坐标信息转化为在全景画面的第二坐标信息后形成了目标物体Object22。目标物体Object21和目标物体Object22出现了重叠,而实际上Object21和目标物体Object22均属于目标物体Object2,出现这种情况是由于摄像机安装的位置和角度造成采集的画面存在重叠,令同一目标物体出现在两幅画面中。因此,本发明将重叠的目标物体分配相同的跟踪ID号,即Obj_2。
进一步地,本发明所述外接框重叠的目标物体的外接框设定为重叠的全部外接框范围的外接框。
无重叠的目标物体Object1和目标物体Object3的外接框的尺寸信息可以为目标物体Object1和目标物体Object3在摄像机采集到的三幅画面中的目标物体Object1和目标物体Object3的外接框尺寸信息的平均值,也可以为目标物体Object1和目标物体Object3在全景图像中的坐标计算出来的目标物体Object1和目标物体Object3的外接框尺寸信息。
参看图6,本发明对产生重叠目标物体的外接框进行修正,将重叠的目标物体在全景画面的外接框设定为重叠的全部外接框范围的外接框。比如目标物体Object2在相邻摄像机采集的画面(画面一和画面二)中均只出现了物体部分信息,目标物体Object2在在画面一中的外接框为方框Ⅰ(尺寸信息为2*2),目标物体Object2在在画面二中的外接框为方框Ⅱ(尺寸信息为2*2)。目标物体Object2的关键点从三幅画面的第一坐标信息转化为在全景画面的第二坐标信息后,目标物体Object2从画面一和画面二映射到全景画面中为方框Ⅰ’(尺寸信息为2*2)和方框Ⅱ’(尺寸信息为2*2)。方框Ⅰ’(尺寸信息为2*2)和方框Ⅱ’(尺寸信息为2*2)存在部分重叠,重叠的全部外接框范围的外接框为方框Ⅲ,遂使用方框Ⅲ作为目标物体Object2的外接框,尺寸信息为2*3。这样能够保证智能识别出的目标物体Object2一定包含实际的目标物体Object2,即目标物体Object2落入外接框Ⅲ中,保证视频监控的准确性。具体的,外接框可以为矩形,也可以为其它形状。
对应于上述方法,本发明还提供一种多画面智能识别装置,应用于智能服务器。所述智能服务器在硬件上包括:CPU、GPU、内存和其他硬件。
参看图7,所述装置在逻辑上包括:
画面识别模块,用于对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,保存获得所述目标物体外接框的所在的位置和尺寸的第一坐标信息。
坐标转换模块,用于根据各原始画面与其所拼接的全景画面的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息。
进一步地,本发明所述画面识别模块对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别为:对每个摄像机采集的原始画面分别进行预设类型的目标物体智能识别。
进一步地,本发明所述第一坐标信息和第二坐标信息包括:目标物体外接框的一个或多个指定关键点坐标信息。
进一步地,本发明所述坐标转换模块包括:
坐标映射单元,用于将目标物体外接框的关键点的第一坐标信息通过全景拼接映射公式计算出目标物体外接框的关键点的第二坐标信息。
重叠判断单元,用于根据目标物体外接框的关键点的第二坐标信息判断全景画面中是否存在目标物体外接框重叠。
物体设定单元,用于外接框无重叠的目标物体设定为不同的目标物体,外接框重叠的目标物体设定为相同的目标物体。
进一步地,本发明所述外接框重叠的目标物体的外接框设定为重叠的全部外接框范围的外接框。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (6)

1.一种多画面智能识别方法,应用于智能服务器,其特征在于,所述方法包括:
对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,获得表征所述目标物体外接框的所在的位置和尺寸的第一坐标信息;
根据各原始画面进行全景拼接时所需使用的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息;
其中,所述对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别为:对每个摄像机采集的原始画面分别进行预设类型的目标物体智能识别;
其中,每个摄像机采集的原始画面使用独立的智能识别算法进行处理;
其中,所述第一坐标信息和第二坐标信息包括:目标物体外接框的一个或多个指定关键点坐标信息。
2.根据权利要求1所述的方法,其特征在于,所述根据各原始画面与其所拼接的全景画面的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息包括:
将目标物体外接框的关键点的第一坐标信息通过全景拼接映射公式计算出目标物体外接框的关键点的第二坐标信息;
根据目标物体外接框的关键点的第二坐标信息判断全景画面中是否存在目标物体外接框重叠;
外接框无重叠的目标物体设定为不同的目标物体,外接框重叠的目标物体设定为相同的目标物体。
3.根据权利要求2所述的方法,其特征在于,所述外接框重叠的目标物体的外接框设定为多个重叠的外接框的并集。
4.一种多画面智能识别装置,应用于智能服务器,其特征在于,所述装置包括:
画面识别模块,用于对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别,得到每个摄像机采集的原始画面中目标物体,获得表征所述目标物体外接框的所在的位置和尺寸的第一坐标信息;
坐标转换模块,用于根据各原始画面进行全景拼接时所需使用的全景拼接映射公式获得所述第一坐标信息在全景画面中的对应的第二坐标信息;
其中,所述画面识别模块对参考摄像机组中每个参考摄像机采集的原始画面分别进行智能识别为:对每个摄像机采集的原始画面分别进行预设类型的目标物体智能识别;
其中,每个摄像机采集的原始画面使用独立的智能识别算法进行处理;
其中,所述第一坐标信息和第二坐标信息包括:目标物体外接框的一个或多个指定关键点坐标信息。
5.根据权利要求4所述的装置,其特征在于,所述坐标转换模块包括:
坐标映射单元,用于将目标物体外接框的关键点的第一坐标信息通过全景拼接映射公式计算出目标物体外接框的关键点的第二坐标信息;
重叠判断单元,用于根据目标物体外接框的关键点的第二坐标信息判断全景画面中是否存在目标物体外接框重叠;
物体设定单元,用于外接框无重叠的目标物体设定为不同的目标物体,外接框重叠的目标物体设定为相同的目标物体。
6.根据权利要求5所述的装置,其特征在于,所述外接框重叠的目标物体的外接框设定为多个重叠的外接框的并集。
CN201410017739.3A 2014-01-15 2014-01-15 一种多画面智能识别方法及其装置 Active CN103795978B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410017739.3A CN103795978B (zh) 2014-01-15 2014-01-15 一种多画面智能识别方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410017739.3A CN103795978B (zh) 2014-01-15 2014-01-15 一种多画面智能识别方法及其装置

Publications (2)

Publication Number Publication Date
CN103795978A CN103795978A (zh) 2014-05-14
CN103795978B true CN103795978B (zh) 2018-03-09

Family

ID=50671206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410017739.3A Active CN103795978B (zh) 2014-01-15 2014-01-15 一种多画面智能识别方法及其装置

Country Status (1)

Country Link
CN (1) CN103795978B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105578129A (zh) * 2015-12-14 2016-05-11 谭焕玲 一种多路多画面视频拼接装置
CN107770484A (zh) * 2016-08-19 2018-03-06 杭州海康威视数字技术股份有限公司 一种视频监控信息生成方法、装置及摄像机
CN108230348B (zh) * 2016-12-22 2022-01-21 杭州海康威视数字技术股份有限公司 一种目标跟踪方法及装置
CN106791710B (zh) * 2017-02-10 2020-12-04 北京地平线信息技术有限公司 目标检测方法、装置和电子设备
CN108156397B (zh) * 2018-02-08 2020-08-04 浙江大华技术股份有限公司 一种处理监控画面的方法与设备
EP3639089B1 (en) 2017-07-21 2023-09-06 Zhejiang Dahua Technology Co., Ltd. Systems and methods for blocking a target in video monitoring
CN111091024B (zh) * 2018-10-23 2023-05-23 广州弘度信息科技有限公司 一种基于视频识别结果的小目标过滤方法和系统
CN113420722B (zh) * 2021-07-21 2023-02-17 上海塞嘉电子科技有限公司 一种机场安全管理平台的突发事件联动方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN101277429A (zh) * 2007-03-27 2008-10-01 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
CN102480600A (zh) * 2010-11-22 2012-05-30 上海银晨智能识别科技有限公司 双路监控视频信息融合方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060182437A1 (en) * 2005-02-11 2006-08-17 Williams Karen E Method and apparatus for previewing a panoramic image on a digital camera
CN101127830A (zh) * 2007-09-13 2008-02-20 上海大学 基于嵌入式具有识别功能的智能网络摄像机
CN101626513A (zh) * 2009-07-23 2010-01-13 深圳大学 全景视频生成方法及系统
CN102663778B (zh) * 2012-04-26 2015-12-02 安科智慧城市技术(中国)有限公司 一种基于多视点视频的目标跟踪方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101277429A (zh) * 2007-03-27 2008-10-01 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN102480600A (zh) * 2010-11-22 2012-05-30 上海银晨智能识别科技有限公司 双路监控视频信息融合方法及系统

Also Published As

Publication number Publication date
CN103795978A (zh) 2014-05-14

Similar Documents

Publication Publication Date Title
CN103795978B (zh) 一种多画面智能识别方法及其装置
CN111862296B (zh) 三维重建方法及装置、系统、模型训练方法、存储介质
CN103763479B (zh) 实时高速高清全景视频的拼接装置及其方法
CN204090039U (zh) 一体化大场景全景视频监控装置
WO2021082112A1 (zh) 神经网络训练、骨骼图构建、异常行为监控方法和系统
CN105788272B (zh) 一种道路流量拥堵报警的方法与系统
CN103020941A (zh) 基于全景拼接的旋转摄像头背景建立法及运动物体检测法
CN103179378A (zh) 具有隐私遮挡功能的视频监控装置以及隐私遮挡方法
WO2013135033A1 (zh) 基于图像分析的隧道变形在线监测系统及其应用
CN110264495A (zh) 一种目标跟踪方法及装置
CN103440117A (zh) 视频图像处理的方法及系统
CN111242025A (zh) 一种基于yolo的动作实时监测方法
CN106909885A (zh) 一种基于目标候选的目标跟踪方法及装置
CN110703760B (zh) 一种用于安防巡检机器人的新增可疑物体检测方法
US20220357159A1 (en) Navigation Method, Navigation Apparatus, Electronic Device, and Storage Medium
CN112991218B (zh) 图像处理的方法、装置、设备以及存储介质
CN104700405A (zh) 一种前景检测方法和系统
CN114442805A (zh) 一种监控场景展示方法、系统、电子设备及存储介质
CN105554040A (zh) 远程视频监控方法和系统
CN115965934A (zh) 一种停车位检测方法及装置
CN111950491A (zh) 一种人员密度的监控方法、装置及计算机可读存储介质
CN108122209A (zh) 一种基于对抗生成网络的车牌去模糊方法
CN105354813A (zh) 驱动云台生成拼接图像的方法及装置
CN104376316B (zh) 车牌图像采集方法及装置
CN114187327A (zh) 目标识别跟踪方法及装置、计算机可读介质、电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220401

Address after: 250101 floor 3b, building A2-5, Hanyu Jingu, high tech Zone, Jinan City, Shandong Province

Patentee after: Jinan Yushi Intelligent Technology Co.,Ltd.

Address before: 310051 floors 1-11, South Block, building 10, No. 88, Jiangling Road, Xixing street, Binjiang District, Hangzhou, Zhejiang Province

Patentee before: ZHEJIANG UNIVIEW TECHNOLOGIES Co.,Ltd.