CN109151439A - 一种基于视觉的自动追踪拍摄系统及方法 - Google Patents
一种基于视觉的自动追踪拍摄系统及方法 Download PDFInfo
- Publication number
- CN109151439A CN109151439A CN201811141451.1A CN201811141451A CN109151439A CN 109151439 A CN109151439 A CN 109151439A CN 201811141451 A CN201811141451 A CN 201811141451A CN 109151439 A CN109151439 A CN 109151439A
- Authority
- CN
- China
- Prior art keywords
- depth
- tracking
- target
- picture pick
- present frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/238—Analysis of motion using block-matching using non-full search, e.g. three-step search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明设计了一种基于视觉的自动追踪拍摄系统及方法,所述系统包括深度获取设备,可动跟踪摄像设备以及中央处理器。所述方法的主要步骤包括:确定初始目标位置,初始化追踪目标的深度特征;在上一帧的目标位置附近,利用深度特征寻找目标在当前帧的位置;根据追踪目标在当前帧的位置,控制对追踪目标的跟踪拍摄。本发明显著有效提高拍摄系统的智能性,减少人为控制相机的次数,降低拍摄操作的复杂程度,具有广泛应用前景。
Description
技术领域
本发明涉及计算机及视觉领域,具体涉及一种基于视觉的自动追踪拍摄系统及方法。
背景技术
随着摄像设备的普及和性能的提升,越来越多的场合开始使用到摄像设备进行直播或记录活动的画面,如公共演讲,网络教育,在线直播等等。这些场景大都使用固定摄像头,往往无法得到满意的拍摄效果。特别当拍摄的主要目标不是静止的物体而是活动的人或其他目标时,一般需要专业的拍摄人员对所述主要目标进行跟踪拍摄,这在很大程度上限制了此类活动的推广。如果使用自动追踪拍摄系统,只需要完成设备的架设和初始目标的确定后,就可以将后续的拍摄工作交给自动追踪拍摄系统来完成,这将极大地减轻拍摄人员的压力,推动高质量拍摄活动的普及。
基于图像信息的目标追踪是自动追踪拍摄系统的关键内容。它是指在连续获取的图像序列中,建立目标特征信息,根据建立的目标特征信息确定目标在每一帧图像中所处的位置,最终得到目标在追踪时间内完整的运动轨迹。除了应用于自动追踪拍摄系统中,目标追踪在其他的工作、生活领域中还有着广泛的应用。利用目标追踪,可以在智能监控中锁定危险人员或物体的方位;在自动驾驶中绘制其他车辆、行人的运动轨迹用于规划行驶路径;机器人亦可利用该技术锁定跟从目标,完成跟随动作等。
目前的追踪方法大都是基于图像的二维信息。二维信息主要包含颜色、梯度、亮度等特征。这些特征在大多数简单场景下能够满足基本的追踪需求。但是当目标处于包含复杂背景的场景中,或者目标被大面积遮挡时,这些特征信息往往会被干扰甚至完全消失,此时目标跟踪就将会有很大的可能性失败。
发明内容
为解决现有技术存在的上述问题,本发明提出了一种基于视觉的自动追踪拍摄系统及方法,结合计算机视觉技术的发展以及固定双目、多目摄像设备,本发明提出了通过利用计算机能够通过图像来获得场景的深度信息,基于深度信息构建追踪目标的追踪算法及追踪方法、追踪系统,且进一步提出了基于深度信息且结合二维信息特征的追踪算法及追踪方法、追踪系统,从而提升追踪算法的准确性和稳定性。本发明这一系统及方法将减少视频拍摄人员所需具备的专业摄影知识,削减录制影片的成本,提升使用者与相机的交互程度,降低操作难度。
本发明提出的一种基于视觉的自动追踪拍摄系统,包括:
两台或两台以上位置相对固定的摄像机组成的双目或多目深度获取设备;
由一台或一台以上可变焦摄像机和一自由度以上的可动设备组成的可动跟踪摄像设备;以及
中央处理器。
其中,所述可变焦摄像机安置在所述可动设备上,所述深度获取设备、所述可动跟踪摄像设备均与所述中央处理器相连接。
其中,所述中央处理器可以进行各类图像相关的处理并能够对可动跟踪摄像设备进行控制。
本发明还提出了一种基于视觉的自动追踪拍摄方法,其包含以下步骤:
1)确定追踪目标的初始位置,结合当前帧场景的深度信息确定所述追踪目标的初始深度特征信息;
2)利用上一帧中的所述追踪目标的位置、深度特征信息以及当前帧场景的深度信息,获得当前帧的有效深度区域,再根据有效深度区域,更新所述追踪目标在当前帧的标志位置及深度特征信息;
3)根据所述追踪目标在当前帧的标志位置,调控可动跟踪摄像设备对所述跟踪目标进行跟踪拍摄。
本发明中,步骤1)中可以通过上述摄像机确定追踪初始目标。本发明基于视觉的自动追踪拍摄方法,其确定追踪目标位置的初始位置可以通过图像设备采集到的画面,自动地检测识别物体,或者可以通过人工手动地选择追踪区域等方式来确定。
本发明中,所述当前帧场景的深度信息是指当前帧整幅画面的深度信息,是通过深度获取设备获得的。
其中,所述深度信息获取设备可以通过两个或两个以上位置固定的相机组成的双目或者多目设备来获取,该信息还可以通过结构光相机,TOF相机,激光测距仪,超声波测距仪等深度获取设备来获得。
本发明基于视觉的自动追踪拍摄方法中,所述步骤2)中,更新追踪目标在当前帧的标志位置及深度特征信息,包括以下步骤:
2a)以上一帧中追踪目标的标志位置为中心,以所述上一帧中追踪目标的标志位置周围一定范围的区域作为当前帧中追踪目标位置的搜索区域;
2b)通过深度获取设备得到所述搜索区域对应的深度特征信息;
2c)根据上一帧中追踪目标的深度特征信息,在当前帧的所述搜索区域中筛选出具有与该深度特征信息相近的深度特征的有效深度区域;
2d)消除有效深度区域内的散点并填充有效深度区域内的空缺部分;
2e)根据所述有效深度区域来确定追踪目标在当前帧的标志位置,并更新当前帧的追踪目标的深度特征信息;
2f)重复上述步骤2a)~2e)。
本发明步骤2a)中,以上一帧追踪目标的标志位置为中心,该标志位置可选取目标上任意像素点如特征点,中心点等具有代表性的位置。选取该标志位置周围一定范围区域作为当前帧中追踪目标位置的搜索区域。
其中,选取所述上一帧追踪目标的标志位置作为中心,宽与高均放大一定倍率r作为确定当前帧追踪目标位置的搜索区域。
本发明步骤2c)中,在当前帧的搜索区域筛选出与该深度相近的有效深度区域,即,搜索区域内与上一帧深度差值的绝对值小于容忍阈值Thre的区域。
本发明步骤2e)中,所述深度特征信息包括当前帧追踪目标的有效深度区域,追踪框的宽与高,以及目标在当前帧的深度。
本发明步骤2e)中,在所述追踪目标的深度特征信息基础上结合入二维特征信息,即,将追踪目标在当前帧的标志位置周围一定区域作为候选区域,利用上一帧目标的二维特征确定当前帧的目标位置,并更新当前帧的深度特征和二维特征。更新追踪目标在当前帧所处的位置(当前帧的追踪框)时可以在深度信息的基础上加入二维特征信息,增加追踪的稳定性。所述精确定位后的追踪框中心为(x,y),其中,x=p1*xd+p2*xf,y=p1*yf+p2*yf,宽和高是通过目标在当前帧的深度来计算获得的,其中,(xd,yd)为通过深度特征定位的追踪目标在当前帧的标志位置,(xf,yf)为通过二维特征定位的追踪目标在当前帧的标志位置,p1,p2为权重系数,且p1+p2=1。具体步骤如下:
a)以上一帧追踪目标的标志为中心,该标志可选取目标上任意像素点如特征点,中心点等具有代表性的位置。选取该标志周围一定范围区域作为当前帧目标位置的搜索区域;
b)通过深度获取设备得到搜索区域对应的深度信息;
c)根据上一帧追踪目标的深度特征,在当前帧的搜索区域筛选出与其深度相近的有效深度区域;
d)消除有效深度区域内的散点并填充有效区域内的空缺部分;
e)根据有效深度区域来确定目标在当前帧的标志,并计算当前帧目标的深度特征;
f)将追踪目标在当前帧的标志周围一定区域作为候选区域,利用上一帧目标的二维特征确定当前帧的目标标志位置,并更新当前帧的深度特征和二维特征;
g)重复上述步骤a)-步骤f)。
本发明步骤3)包括:
步骤3-1),中央处理设备向追踪摄像设备发送位置查询指令,获取追踪摄像设备的当前水平位置θp,垂直位置θt和可变焦相机的缩放(zoom)值dz;
步骤3-2),中央处理器根据追踪摄像设备当前状态信息(包括上述θp、θt和dz)和追踪结果控制追踪摄像设备运动。
本发明步骤3-2)包括:
(1)根据追踪框中心的位置(x,y),当前目标深度值d以及固定双目设备的相机焦距fx,fy和主点cx,cy计算目标在固定双目设备坐标系中的三维坐标(Xa,Ya,Za),其中
(2)根据步骤1得到的固定双目设备与可动跟踪摄像设备之间的位置关系T和R,将目标在固定双目设备坐标系中的三维坐标投影到可动跟踪摄像设备的坐标系中,其中,公式为(Xc,Yc,Zc)=R*(Xa,Ya,Za)+T,(Xc,Yc,Zc)为目标在可动跟踪摄像设备的坐标系中的三维坐标;
(3)计算可动跟踪摄像设备的可变焦摄像机保持目标在屏幕中按一定比例出现的缩放值dz′,dz′=ε*Xc;其中,ε为可变焦摄像机相应的缩放系数,缩放的控制量为Cd=α(dz′-dz),α为缩放的控制系数;
(4)分别计算可动追踪摄像设备的水平(pan)和垂直(tilt)的目标位置θp′,θt′;其中对应的控制量分别为 β和γ分别为pan和tilt对应的控制系数,θp和θt分别为水平和垂直位置的当前值;
(5)中央处理器根据控制量Cd,Cp,Ct向可动跟踪摄像设备发送控制指令,控制可动跟踪摄像设备始终将目标放置在相机的中心区域,且保持合适的显示比例。
本发明基于视觉的自动追踪拍摄方法,在所述步骤1)之前,包括预先标定步骤:预先标定深度获取设备和可动跟踪摄像设备之间的相对位置关系。通过预先标定可变焦的摄像机与深度获取设备之间的相对位置关系,获得可变焦的摄像机在多目相机坐标系中的位姿坐标,用于提升摄像机拍摄的准确性。
所述预先标定步骤包括:
P-1)将深度获取设备和可动跟踪摄像设备保持稳定的相对位置关系;
P-2)在深度获取设备和可动跟踪摄像设备的视野重叠部分放置标志物;
P-3)保证标志物始终出现在深度获取设备和可动跟踪摄像设备的视野重叠部分,改动标志物的位置和角度,采集深度获取设备的图像和可动跟踪摄像的图像。共采集N组图像,N为大于2的整数;
P-4)利用采集到的N组图像计算深度获取设备和可动跟踪摄像设备之间的平移矢量T和旋转矢量R,完成标定。
为标定拍摄相机与深度获取设备之间的位置关系,所述预先标定步骤还可以包括:还可以通过保持标志物不动,在保持深度获取设备和可动跟踪摄像设备之间位置不变且所述标志物一直出现在它们视野重叠部分的情况下,整体改变它们的位置,采集N组图像,计算它们之间的平移矢量T和旋转矢量R。
本发明提出的所述拍摄系统的标定方法为:通过预先标定可变焦的摄像机与深度获取设备之间的相对位置关系,获得可变焦的摄像机在多目相机坐标系中的位置坐标。
本发明有益效果包括:该设备可以在无操作人员干预的情况下完成对目标的自动的追踪拍摄,并自动调节目标在画面中以合适的比例出现;同时本发明不指定相机的型号以及各个相机的摆放位置,具有较好的泛用性。
附图说明
图1是本发明基于视觉的自动追踪拍摄系统的示意图;
图2是本发明基于视觉的自动追踪拍摄系统中各设备工作关系的示意图;
图3是更新目标位置和深度特征的流程图;
图4是本发明方法中以深度作为追踪特征的流程图;
图5是本发明方法中以深度特征和二维特征作为追踪特征的流程图;
图6是实施例1中根据上一帧深度滤除阈值外深度区域后留下的深度图而构造的中间矩阵;
图7是实施例1中经过形态学操作后的中间矩阵;
图8是实施例1中剔除过小区域块后的中间矩阵;
图9是实施例1中在中间矩阵定位的追踪框中心。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。为了简洁,在描述本发明实施例的各流程、条件、实验方法等时,省略了一些本领域已知的内容,本发明对此类内容没有特别的限制。
实施例1
本发明提出的一种基于视觉和声音定位的自动追踪拍摄系统,如图1所示,包括:两台或多台位置相对固定的摄像机组成的双目或多目视觉系统,以作为深度获取设备;由一台以上可变焦的摄像机及一自由度以上可动设备(例如云台)组成的可动跟踪摄像设备;以及一台中央处理器设备。双目或多目深度获取设备可以是固定双目或多目摄像设备。图2展示了本发明基于视觉的自动追踪拍摄系统中各设备工作关系的示意图,包括深度获取设备、中央处理器、具有可变焦摄像机的可动跟踪摄像设备,上述系统用于对追踪目标(例如人)进行追踪拍摄。
如图1、2所示,中央处理器包括图像处理设备,该图像处理设备分别与深度获取设备(即固定双目摄像设备)、可动跟踪摄像设备的可变焦摄像机相连接。将固定双目摄像设备、可动追踪摄像设备放置在合适的位置,使两者的视场角包含重叠区域。深度获取设备即固定双目摄像设备将拍摄图像传送到中央处理器。固定双目摄像设备、可动追踪摄像设备将采集到的同一场景、同一时间、不同视角的图像传送给中央处理器中的图像处理设备。中央处理器利用固定双目摄像设备传输来的图像,根据本发明提出的基于二维特征和深度特征的目标追踪拍摄方法,计算所述追踪目标在固定双目或多目摄像设备坐标系中的三维位置,再根据可动跟踪摄像设备返回其云台的实时位置信息得到当前云台追踪目标所需的控制量。可动跟踪摄像设备接受中央处理器的控制设备发送的控制量,始终保持追踪目标在可动跟踪摄像设备的相机画面中心以合适的比例出现,进而实现跟踪拍摄的功能。
本发明提出的基于视觉的目标追踪拍摄方法,首先确定追踪目标,初始化追踪目标深度特征;然后利用上一帧图像中的追踪目标位置、深度特征,搜索有效深度区域,根据有效深度区域确定追踪目标在当前帧图像中的位置,更新追踪目标的深度特征;根据追踪目标在当前帧图像中的位置和可动跟踪摄像设备的位置,控制可动跟踪摄像设备对追踪目标进行跟踪拍摄。上述方法具体可包括如下步骤:
1)确定追踪目标初始位置,结合当前帧场景的深度信息确定所述追踪目标的初始深度特征信息;
2)利用上一帧中的所述追踪目标的位置、深度特征信息以及当前帧场景的深度信息获得当前帧中的有效深度区域(即追踪目标在当前帧中可能出现的深度区域),再根据有效深度区域,计算出并更新获得所述追踪目标在当前帧中的标志位置及所述追踪目标在当前帧中的深度特征信息;
3)根据所述追踪目标在当前帧中的标志位置,调控可动跟踪摄像设备对所述追踪目标进行跟踪拍摄。
当追踪目标丢失时,在丢失追踪目标的位置尝试找回目标。
(1)以目标丢失前最后一次跟踪成功的标志位置为搜索中心,设定一定的搜索宽度和高度以形成搜索区域;
(2)在深度获取设备(即固定双目或多目摄像设备)采集到的图像中提取对应搜索区域的图像;
(3)通过中央处理器,计算当前帧搜索区域的深度图;
(4)根据当前帧搜索区域的深度图与上一帧搜索区域的深度图的深度差值的绝对值是否大于容忍阈值Thre来构建中间矩阵。容忍阈值Thre为事先设定好的深度变化可接受范围;
(5)利用形态学的方法消除中间矩阵中的杂点,同时填充深度图中部分深度空缺区域;
(6)利用边缘检测算法对经过形态学操作后的深度进行处理,得到这些区域的轮廓。滤除面积过小的区域块,保留面积大于M的区域块,M的大小可事先设定。
如图5所示,本发明方法还可以通过利用二维特征精确定位追踪目标在当前帧的标志位置,更新追踪目标的深度特征和二维特征,在所述追踪目标的深度特征信息基础上结合入二维特征信息,实现对追踪目标的跟踪拍摄。
其中,追踪目标可以是处于活动状态中的人或其他动物或植物。
其中,所述深度获取设备包括深度相机或摄像机、深度传感设备、或通过位置固定的两个或多个相机组成的双目或多目摄像设备。
其中,所述追踪目标的初始位置可以通过中央处理器在采集到的图像中通过自动物体检测识别或通过人工手动选择追踪区域来确定。
其中,所述步骤3)中,所述可动跟踪摄像设备可为可变焦的云台摄像机、监控摄像机等可控制运动的摄像设备。
其中,所述步骤2)中,可进一步包括以下步骤:
2a)以上一帧追踪目标的标志位置为中心,以所述上一帧追踪目标的标志位置的周围一定范围区域作为当前帧追踪目标位置的搜索区域;
其中,所述标志位置是选取自追踪目标上具有代表性的位置的任意像素点;选取所述上一帧追踪目标的标志位置作为中心,宽与高均以一定倍率r(可预先设定)作为确定当前帧追踪目标位置的搜索区域。
2b)通过深度获取设备得到所述搜索区域对应的深度特征信息;
2c)根据上一帧追踪目标的深度特征信息,在当前帧的搜索区域筛选出位于该深度附近的有效深度区域;
其中,搜索区域内与上一帧深度相差大于阈值Thre的点赋值0,其他点保持原本深度,以提取出有效深度区域;
2d)消除有效深度区域内的散点并填充有效区域内的空缺部分;
2e)根据有效深度区域来确定追踪目标在当前帧的标志位置,并更新当前帧追踪目标的深度特征信息;
其中,深度特征信息包括当前帧追踪目标的有效深度区域,追踪框的宽与高,以及目标在当前帧的深度。
2f)重复上述步骤2a)~2e)以实现持续的追踪。
该过程的流程图如图3所示。
本发明提出的基于视觉的自动目标追踪拍摄方法,如图4、5所示,在所述步骤1)之前,还可以包括预先标定方法P,标定深度获取设备,例如固定双目设备的主相机(如固定双目相机中的左相机)和可动追踪摄像设备在初始位置处的相对位置关系。标定方法可以采用多种方式,其中,标定方法的方式一,包括以下具体步骤:
P-1)将深度获取设备和可动跟踪摄像设备保持稳定的相对位置关系;
P-2)在深度获取设备的两个相机设备视野重叠区域放置标定板即标志物,不断改变标定板的位置和角度,并采集多个时刻固定双目或多目摄像设备的主相机和可动追踪摄像设备相机拍摄到的图像;重复采集过程,直到采集N组对应的图片,N为大于2的整数;
P-3)中央处理器中的图像处理设备利用立体标定算法处理采集到的N组图像,得到固定双目或多目摄像设备中的主相机和可动追踪设备相机之间的平移矢量T和旋转矢量R,完成标定。
所述预先标定方法还可以是采用另一种方式,方式二:保持标志物(如标定板)不动,在保持深度获取设备和可动跟踪摄像设备之间位置不变且所述标志物一直出现在它们视野重叠部分的情况下,整体改变它们的位置,采集N组图像,计算它们之间的平移矢量T和旋转矢量R。
如图5所示,本发明方法还可以通过利用二维特征精确定位目标在当前帧的标志位置,更新目标的深度特征和二维特征,在所述追踪目标的深度特征信息基础上结合入二维特征信息,实现对追踪目标的跟踪拍摄。
在上述标定步骤之后,本发明基于视觉的自动目标追踪拍摄方法还可包括如下步骤,以结合追踪目标的深度特征和二维特征:
步骤1),根据策略决定追踪目标,并初始化追踪。
(1)中央处理器读取固定双目或多目摄像设备中的主相机的图像,利用图像处理设备检测图像中的追踪目标,并根据具体的追踪策略决定追踪目标。具体的策略有:
(a)预先设定追踪初始的区域,当有目标在该区域存在超过一定时间后,自动以该目标作为追踪目标。
(b)若在固定双目设备的主相机采集的图像中只检测到一个目标时,自动以该目标作为追踪目标。
(c)若在固定双目设备的主相机采集的图像中检测到多个目标时,为这些目标赋予不同的数字编号,等待人工输入决定追踪目标的编号后,再以对应编号的目标作为追踪目标。
(2)为选择的追踪目标初始化深度和二维特征。利用固定双目设备采集场景的深度信息,再根据初始追踪框提取追踪目标区域的深度,计算该区域的平均深度作为追踪目标的初始深度值接着在该目标区域放大一定倍率的区域统计二维信息,并将其作为追踪目标的初始二维特征。以追踪目标区域的中心作为追踪框的中心(x0,y0),此时追踪框的宽w0和高h0由目标的深度决定,具体的其中τ为系数,f为固定双目设备的相机焦距。
接着进行步骤2),其中的第一步,步骤2-1),根据上一帧追踪框、深度特征和二维特征,在追踪框周围利用基于视觉的自动追踪拍摄方法搜索追踪目标在当前帧中的标志位置。具体步骤为:
(1)以上一帧追踪框的中心(xt-1,yt-1)为搜索中心,并将其宽和高分别扩大一定的倍率作为当前帧的搜索区域;
(2)在固定双目设备采集到的图像中提取对应搜索区域的图像;
(3)通过图像处理设备,计算当前帧搜索区域的深度图;
(4)根据当前帧搜索区域的深度图中与上一帧的深度差值的绝对值是否大于容忍阈值Thre来构建中间矩阵,如图6所示。容忍阈值Thre为事先设定好的深度变化可接受范围;
(5)消除中间矩阵中的散点,同时填充中间矩阵的部分深度空缺区域,如图7所示;
(6)得到经过处理后中间矩阵内的各个区域的轮廓。滤除面积过小的区域块,保留面积大于M的区域,如图8所示。根据保留的区域块数量采取不同的后续步骤,具体为:
(a)若经过形态学操作和滤除过小区域块的操作后没有符合条件的区域块留下,则认为目标丢失,进入步骤2-2)尝试对追踪目标进行找回。
(b)若经过形态学操作和滤除过小区域块的操作后,存在1个以上足够大的区域块,则计算这些区域块对应深度图区域的平均深度其中di为深度图区域内每个有效点的深度值,n为深度图区域内有效点的个数。选取轮廓中的最高点,向下移动ym个像素作为追踪目标中心在当前搜索区域的yd′。在该y值处向左向右延长,直至分别与轮廓的左右边缘相交,交点设为xl,xr。取它们的平均值如图9所示。将结果中心(xd′,yd′)映射回原始固定双目摄像设备相机采集到的图像中,得到基于深度的目标追踪算法预测的当前帧追踪框中心为(xd,yd),宽和高为其中τ为系数,f为固定双目设备的相机焦距。之后执行步骤2-3),对目标进行精确定位。
步骤2)进一步可包括第二步,步骤2-2),当追踪目标丢失时,在丢失的追踪目标位置尝试找回目标。
(1)以目标丢失前最后一次跟踪成功的追踪框为搜索中心,宽和高分别扩大一定倍率作为搜索区域;
(2)在固定双目或多目摄像设备采集到的图像中提取对应搜索区域的图像;
(3)通过图像处理设备,计算当前帧搜索区域的深度图;
(4)根据当前帧搜索区域的深度图与上一帧搜索区域的深度图的深度差值的绝对值是否大于容忍阈值Thre来构建中间矩阵。容忍阈值Thre为事先设定好的深度变化可接受范围;
(5)利用形态学的方法消除中间矩阵中的杂点,同时填充中间矩阵中部分深度空缺区域;
(6)利用边缘检测算法对经过形态学操作后的中间矩阵进行处理,得到这些区域的轮廓。滤除面积过小的区域块,保留面积大于M的区域。根据保留的区域块数量采取不同的后续步骤,具体为:
(a)若经过形态学操作和滤除过小区域块的操作后没有符合条件的区域块留下,则认为目标丢失,使丢失计数lost_count的值+1。如果丢失计数的值大于设定的完全丢失计数complete_lost,则认为目标完全丢失,丢失计数lost_count清零,之后进入步骤1)重新寻找追踪目标;否则仍然执行步骤2-2),仍然在丢失位置尝试找回目标,例如第二次尝试找回目标可以采用比第一次更大的搜索区域。
(b)若经过形态学操作和滤除过小区域块的操作后存在1个以上足够大的区域块,则计算这些区域块对应深度图区域的平均深度其中n为这些区域块内深度有效点的数量,di为这些点对应的深度值;选取轮廓中的最高点,向下移动ym个像素作为追踪目标中心在当前搜索区域的yd′。在该y值处分别向左向右延长,直至分别与轮廓的左右边缘相交,交点设为xl,xr。取它们的平均值将结果中心(xd′,yd′)映射回原始固定双目设备相机采集到的图像中,得到基于深度的目标追踪算法预测的当前帧追踪框中心为(xd,yd),宽和高为其中τ为系数,f为固定双目设备的相机焦距。之后进入步骤2-3)。
步骤2)的第三步,步骤2-3),以二维特征精确定位目标位置。具体为:
(1)以基于深度的目标追踪算法得到的追踪框中心(xd,yd)为中心,宽和高分别为wd,hd一定倍率的范围作为二维特征的定位区域。
(2)统计该区域内的二维信息,寻找与上一帧的二维信息最接近的中心位置(xf,yf);
(3)精确定位后的追踪框中心为(x,y),其中x=p1*xd+p2*xf,y=p1*yf+p2*yf,宽和高仍为深度追踪框的宽w=wd和高h=hd。其中,p1,p2为权重系数,且p1+p2=1。
接着,执行步骤3),其包括:
步骤3-1),中央处理器向可动跟踪摄像设备发送位置查询指令,获取可动跟踪摄像设备的当前水平位置θp,垂直位置θt和可变焦相机的缩放值dz。
步骤3-2),中央处理器根据可动跟踪摄像设备当前信息和追踪结果控制可动跟踪摄像设备运动,具体为:
(1)根据追踪框中心的位置(x,y),当前目标深度值d以及固定双目设备的相机焦距fx,fy(分别对应左相机的焦距和右相机的焦距)和主点cx,cy计算追踪目标在固定双目设备坐标系中的三维坐标(Xa,Ya,Za)。其中焦距fx,fy和主点cx,cy均为相机固定参数;
(2)根据步骤1得到的固定双目设备与可动跟踪摄像设备之间的位置关系T和R,将追踪目标在固定双目设备坐标系中的三维坐标投影到可动跟踪摄像设备的坐标系中。公式为(Xc,Yc,Zc)=R*(Xa,Ya,Za)+T;
(3)计算可动跟踪摄像设备的可变焦摄像机(例如可采用云台相机)保持追踪目标在屏幕中按一定比例出现的缩放值dz′,dz′=ε*Xc。其中ε为对应云台相机相应的缩放系数。缩放的控制量为Cd=α(dz′-dz),α为缩放的控制系数;
(4)分别计算可动跟踪摄像设备的水平和垂直的目标位置θp′,θt′。其中 对应的控制量分别为β和γ分别为水平和垂直的对应的控制量,θp和θt分别为云台水平和垂直位置的当前值;
(5)中央处理器根据控制量Cd,Cp,Ct向可动跟踪摄像设备发送控制指令,控制可动跟踪摄像设备始终将追踪目标放置在可变焦摄像机的中心区域,且保持合适的显示比例。之后执行步骤2),开始下一帧的跟踪操作。
本发明提出的基于视觉的自动追踪拍摄系统及方法,本发明方法以深度特征为追踪的主要目标,能够有效地减少遮挡、复杂背景对追踪算法效果的影响,提升自动拍摄系统的稳定性。本发明整个系统及方法在拍摄过程中无需专业摄影人员参与,且需要交互的操作极少,本发明有广泛的推广与应用前景。
本发明的保护内容不局限于以上实施例。在不背离本发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。
Claims (13)
1.一种基于视觉的自动追踪拍摄系统,其特征在于,所述系统包括:
两台或两台以上位置相对固定的摄像机组成的双目或多目深度获取设备;
由一台或一台以上可变焦摄像机和一自由度以上的可动设备组成的可动跟踪摄像设备;以及
中央处理器;
其中,所述可变焦摄像机安置在所述可动设备上,所述深度获取设备、所述可动跟踪摄像设备均与所述中央处理器相连接。
2.一种基于视觉的自动追踪拍摄方法,其特征在于,所述方法包括以下步骤1)~3):
1)确定追踪目标的初始位置,结合当前帧场景的深度信息确定所述追踪目标的初始深度特征信息;
2)利用上一帧中的所述追踪目标的位置、深度特征信息以及当前帧场景的深度信息,获得当前帧的有效深度区域,再根据有效深度区域,更新所述追踪目标在当前帧的标志位置及深度特征信息;
3)根据所述追踪目标在当前帧的标志位置,调控可动跟踪摄像设备对所述跟踪目标进行跟踪拍摄。
3.根据权利要求2所述的自动追踪拍摄方法,其特征在于,所述步骤1)中,所述当前帧场景的深度信息由深度获取设备获得;其中,所述深度获取设备包括深度相机、激光测距仪和超声波测距仪中的至少一种。
4.根据权利要求3所述的自动追踪拍摄方法,其特征在于,所述深度相机包括由位置相对固定的两个或多个相机组成的双目或多目相机、结构光相机或TOF相机。
5.根据权利要求2所述的自动追踪拍摄方法,其特征在于,所述步骤1)中,确定追踪目标的初始位置还包括获得所述追踪目标的初始二维特征。
6.根据权利要求2所述的自动追踪拍摄方法,其特征在于,所述步骤2)进一步包括:
2a)以上一帧中追踪目标的标志位置为中心,以所述上一帧中追踪目标的标志位置周围一定范围的区域作为当前帧中追踪目标位置的搜索区域;
2b)通过深度获取设备得到所述搜索区域对应的深度特征信息;
2c)根据上一帧中追踪目标的深度特征信息,在当前帧的所述搜索区域中筛选出具有与该深度特征信息相近的深度特征的有效深度区域;
2d)消除有效深度区域内的散点并填充有效深度区域内的空缺部分;
2e)根据所述有效深度区域来确定追踪目标在当前帧的标志位置,并更新当前帧的追踪目标的深度特征信息;
2f)重复上述步骤2a)~2e)。
7.根据权利要求6所述的自动追踪拍摄方法,其特征在于,所述步骤2a)中,所述标志位置是选取自所述追踪目标上具有代表性的位置的任意像素点;选取所述上一帧中追踪目标的标志位置作为中心,以一定倍率r在宽度与高度方向上扩展后得到当前帧中追踪目标位置的搜索区域。
8.根据权利要求6所述的自动追踪拍摄方法,其特征在于,所述步骤2c)中,在当前帧的搜索区域中筛选出与上一帧深度差值的绝对值小于容忍阈值Thre的像素点构成有效深度区域。
9.根据权利要求6所述的自动追踪拍摄方法,其特征在于,所述步骤2e)中,在所述追踪目标的深度特征信息基础上结合二维特征信息,利用二维特征信息精确定位所述追踪目标在当前帧的标志位置,并更新所述追踪目标在当前帧的深度特征信息和二维特征信息。
10.根据权利要求9所述的自动追踪拍摄方法,其特征在于,精确定位所述追踪目标在当前帧的标志位置包括:确定追踪框,所述追踪框的中心为(x,y),其中,x=p1*xd+p2*xf,y=p1*yf+p2*yf,所述追踪框的宽和高是通过目标在当前帧的深度来计算获得的,其中,(xd,yd)为通过深度特征定位的追踪目标在当前帧的标志位置,(xf,yf)为通过二维特征定位的追踪目标在当前帧的标志位置,p1,p2为权重系数,且p1+p2=1。
11.根据权利要求2所述的自动追踪拍摄方法,其特征在于,所述步骤3)进一步包括:
步骤3-1),中央处理器向可动跟踪摄像设备发送位置查询指令,获取可动跟踪摄像设备的当前水平位置θp、垂直位置θt和所述可动跟踪摄像设备中的可变焦摄像机的zoom值dz;
步骤3-2),中央处理器根据可动跟踪摄像设备的当前水平位置θp、垂直位置θt和zoom值dz和追踪结果控制可动跟踪摄像设备运动。
12.根据权利要求11所述的自动追踪拍摄方法,其特征在于,由深度获取设备获得当前帧中追踪目标的深度信息,所述深度获取设备包括固定双目相机,所述步骤3-2)包括:
(1)根据追踪框中心的位置(x,y)、当前帧中追踪目标的深度值d以及所述固定双目相机的焦距fx,fy和主点cx,cy计算所述追踪目标在固定双目相机坐标系中的三维坐标(Xa,Ya,Za),其中
(2)根据固定双目相机与可动跟踪摄像设备之间的平移矢量T和旋转矢量R,将追踪目标在固定双目相机坐标系中的三维坐标投影到可动跟踪摄像设备的坐标系中,其中,坐标转换公式为(Xc,Yc,Zc)=R*(Xa,Ya,Za)+T,(Xc,Yc,Zc)为追踪目标在可动跟踪摄像设备的坐标系中的三维坐标;
(3)计算利用可动跟踪摄像设备的可变焦摄像机保持追踪目标在屏幕中按一定比例出现的缩放值dz′,dz′=ε*Xc;其中,ε为可变焦摄像机相应的缩放系数,缩放的控制量为Cd=α(dz′-dz),α为缩放的控制系数,dz为当前可变焦摄像机的zoom值;
(4)分别计算可动追踪摄像设备的水平和垂直目标位置θp′,θt′;其中 对应的控制量分别为β和γ分别为pan和tilt对应的控制系数,θp和θt分别为pan和tilt的当前值;
(5)中央处理器根据控制量Cd,Cp,Ct向可动跟踪摄像设备发送控制指令,控制可动跟踪摄像设备始终将追踪目标放置在可变焦摄像机的中心区域,且保持显示比例。
13.根据权利要求2所述的自动追踪拍摄方法,其特征在于,在所述步骤1)之前,还包括预先标定步骤,以预先标定深度获取设备和可动跟踪摄像设备之间的相对位置关系;所述预先标定步骤采用以下方式之一:
方式一,包括以下步骤:
P-1)将所述深度获取设备和所述可动跟踪摄像设备保持稳定的相对位置关系;
P-2)在所述深度获取设备和所述可动跟踪摄像设备的视野重叠部分放置标志物;
P-3)保证所述标志物始终出现在所述深度获取设备和所述可动跟踪摄像设备的视野重叠部分,通过调整所述标志物的位置和角度,分别通过所述深度获取设备和所述可动跟踪摄像设备采集图像;重复采集过程,采集N组图像,N为大于2的整数;
P-4)利用采集到的N组图像计算深度获取设备和可动跟踪摄像设备之间的平移矢量T和旋转矢量R,完成所述预先标定;
或,方式二,包括以下步骤:
通过保持标志物不动,在保持深度获取设备和可动跟踪摄像设备之间位置不变且所述标志物一直出现在所述深度获取设备和可动跟踪摄像设备视野重叠部分的情况下,整体改变所述深度获取设备和可动跟踪摄像设备的位置,分别通过所述深度获取设备和所述可动跟踪摄像设备采集图像,重复采集过程,采集N组图像,N为大于2的整数,利用采集到的N组图像计算深度获取设备和可动跟踪摄像设备之间的平移矢量T和旋转矢量R。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811141451.1A CN109151439B (zh) | 2018-09-28 | 2018-09-28 | 一种基于视觉的自动追踪拍摄系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811141451.1A CN109151439B (zh) | 2018-09-28 | 2018-09-28 | 一种基于视觉的自动追踪拍摄系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109151439A true CN109151439A (zh) | 2019-01-04 |
CN109151439B CN109151439B (zh) | 2020-07-31 |
Family
ID=64813488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811141451.1A Active CN109151439B (zh) | 2018-09-28 | 2018-09-28 | 一种基于视觉的自动追踪拍摄系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109151439B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109873987A (zh) * | 2019-03-04 | 2019-06-11 | 深圳市梦网百科信息技术有限公司 | 一种基于监控视频的目标搜索方法和系统 |
CN110097580A (zh) * | 2019-03-18 | 2019-08-06 | 山东师范大学 | 一种超声图像标志物运动追踪方法 |
CN110221275A (zh) * | 2019-05-21 | 2019-09-10 | 菜鸟智能物流控股有限公司 | 一种激光雷达与相机之间的标定方法和装置 |
CN110338993A (zh) * | 2019-07-12 | 2019-10-18 | 扬州大学 | 一种电动轮椅及电动轮椅自动跟随人员的方法 |
CN111062969A (zh) * | 2019-12-06 | 2020-04-24 | Oppo广东移动通信有限公司 | 目标跟踪方法及相关产品 |
CN111182210A (zh) * | 2019-12-31 | 2020-05-19 | 浙江大学 | 一种双目分析双云台多目标跟踪摄像机 |
CN111238388A (zh) * | 2020-01-08 | 2020-06-05 | 安徽逻根农业科技有限公司 | 一种高空支架形态监测装置和方法 |
CN111599018A (zh) * | 2019-02-21 | 2020-08-28 | 浙江宇视科技有限公司 | 一种目标追踪方法、系统及电子设备和存储介质 |
CN112532810A (zh) * | 2019-08-29 | 2021-03-19 | 炬佑智能科技(苏州)有限公司 | 一种基于tof相机辅助的智能摄像系统及其摄像方法 |
CN112601022A (zh) * | 2020-12-14 | 2021-04-02 | 中标慧安信息技术股份有限公司 | 一种基于网络摄像机的现场监控系统和方法 |
CN113223057A (zh) * | 2021-06-04 | 2021-08-06 | 北京奇艺世纪科技有限公司 | 一种人脸跟踪方法、装置、电子设备及存储介质 |
CN114943751A (zh) * | 2022-07-26 | 2022-08-26 | 北京科技大学 | 云化plc环境下基于方向矢量的物料跟踪定位方法及系统 |
CN115103117A (zh) * | 2022-06-20 | 2022-09-23 | 四川新视创伟超高清科技有限公司 | 基于二维坐标投影的运动目标快速追踪方法 |
CN116112644A (zh) * | 2023-03-23 | 2023-05-12 | 中建三局集团华南有限公司 | 一种远程视频广播喊话装置 |
CN116567417A (zh) * | 2023-05-29 | 2023-08-08 | 影石创新科技股份有限公司 | 视频采集方法、装置、计算机设备和存储介质 |
CN116980744A (zh) * | 2023-09-25 | 2023-10-31 | 深圳市美高电子设备有限公司 | 基于特征的摄像头追踪方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105744163A (zh) * | 2016-02-23 | 2016-07-06 | 湖南拓视觉信息技术有限公司 | 一种基于深度信息跟踪对焦的摄像机及摄像方法 |
CN105956586A (zh) * | 2016-07-15 | 2016-09-21 | 瑞胜科信息(深圳)有限公司 | 一种基于tof 3d摄像机的智能跟踪系统 |
CN205883405U (zh) * | 2016-07-29 | 2017-01-11 | 深圳众思科技有限公司 | 一种自动追焦装置及终端 |
CN107977980A (zh) * | 2017-12-06 | 2018-05-01 | 北京飞搜科技有限公司 | 一种目标跟踪方法、设备以及可读介质 |
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
-
2018
- 2018-09-28 CN CN201811141451.1A patent/CN109151439B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105744163A (zh) * | 2016-02-23 | 2016-07-06 | 湖南拓视觉信息技术有限公司 | 一种基于深度信息跟踪对焦的摄像机及摄像方法 |
CN105956586A (zh) * | 2016-07-15 | 2016-09-21 | 瑞胜科信息(深圳)有限公司 | 一种基于tof 3d摄像机的智能跟踪系统 |
CN205883405U (zh) * | 2016-07-29 | 2017-01-11 | 深圳众思科技有限公司 | 一种自动追焦装置及终端 |
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN107977980A (zh) * | 2017-12-06 | 2018-05-01 | 北京飞搜科技有限公司 | 一种目标跟踪方法、设备以及可读介质 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111599018A (zh) * | 2019-02-21 | 2020-08-28 | 浙江宇视科技有限公司 | 一种目标追踪方法、系统及电子设备和存储介质 |
CN109873987A (zh) * | 2019-03-04 | 2019-06-11 | 深圳市梦网百科信息技术有限公司 | 一种基于监控视频的目标搜索方法和系统 |
CN109873987B (zh) * | 2019-03-04 | 2020-12-29 | 深圳市梦网视讯有限公司 | 一种基于监控视频的目标搜索方法和系统 |
CN110097580A (zh) * | 2019-03-18 | 2019-08-06 | 山东师范大学 | 一种超声图像标志物运动追踪方法 |
CN110221275A (zh) * | 2019-05-21 | 2019-09-10 | 菜鸟智能物流控股有限公司 | 一种激光雷达与相机之间的标定方法和装置 |
CN110221275B (zh) * | 2019-05-21 | 2023-06-23 | 菜鸟智能物流控股有限公司 | 一种激光雷达与相机之间的标定方法和装置 |
CN110338993A (zh) * | 2019-07-12 | 2019-10-18 | 扬州大学 | 一种电动轮椅及电动轮椅自动跟随人员的方法 |
CN112532810A (zh) * | 2019-08-29 | 2021-03-19 | 炬佑智能科技(苏州)有限公司 | 一种基于tof相机辅助的智能摄像系统及其摄像方法 |
CN111062969B (zh) * | 2019-12-06 | 2023-05-30 | Oppo广东移动通信有限公司 | 目标跟踪方法及相关产品 |
CN111062969A (zh) * | 2019-12-06 | 2020-04-24 | Oppo广东移动通信有限公司 | 目标跟踪方法及相关产品 |
CN111182210A (zh) * | 2019-12-31 | 2020-05-19 | 浙江大学 | 一种双目分析双云台多目标跟踪摄像机 |
CN111182210B (zh) * | 2019-12-31 | 2021-04-20 | 浙江大学 | 一种双目分析双云台多目标跟踪摄像机 |
CN111238388A (zh) * | 2020-01-08 | 2020-06-05 | 安徽逻根农业科技有限公司 | 一种高空支架形态监测装置和方法 |
CN112601022B (zh) * | 2020-12-14 | 2021-08-31 | 中标慧安信息技术股份有限公司 | 一种基于网络摄像机的现场监控系统和方法 |
CN112601022A (zh) * | 2020-12-14 | 2021-04-02 | 中标慧安信息技术股份有限公司 | 一种基于网络摄像机的现场监控系统和方法 |
CN113223057A (zh) * | 2021-06-04 | 2021-08-06 | 北京奇艺世纪科技有限公司 | 一种人脸跟踪方法、装置、电子设备及存储介质 |
CN115103117A (zh) * | 2022-06-20 | 2022-09-23 | 四川新视创伟超高清科技有限公司 | 基于二维坐标投影的运动目标快速追踪方法 |
CN115103117B (zh) * | 2022-06-20 | 2024-03-26 | 四川新视创伟超高清科技有限公司 | 基于二维坐标投影的运动目标快速追踪方法 |
CN114943751A (zh) * | 2022-07-26 | 2022-08-26 | 北京科技大学 | 云化plc环境下基于方向矢量的物料跟踪定位方法及系统 |
CN114943751B (zh) * | 2022-07-26 | 2022-11-08 | 北京科技大学 | 云化plc环境下基于方向矢量的物料跟踪定位方法及系统 |
CN116112644A (zh) * | 2023-03-23 | 2023-05-12 | 中建三局集团华南有限公司 | 一种远程视频广播喊话装置 |
CN116567417A (zh) * | 2023-05-29 | 2023-08-08 | 影石创新科技股份有限公司 | 视频采集方法、装置、计算机设备和存储介质 |
CN116980744A (zh) * | 2023-09-25 | 2023-10-31 | 深圳市美高电子设备有限公司 | 基于特征的摄像头追踪方法、装置、电子设备及存储介质 |
CN116980744B (zh) * | 2023-09-25 | 2024-01-30 | 深圳市美高电子设备有限公司 | 基于特征的摄像头追踪方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109151439B (zh) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109151439A (zh) | 一种基于视觉的自动追踪拍摄系统及方法 | |
CN107087107B (zh) | 基于双摄像头的图像处理装置及方法 | |
CN110441791B (zh) | 一种基于前倾2d激光雷达的地面障碍物检测方法 | |
CN103716594B (zh) | 基于运动目标检测的全景拼接联动方法及装置 | |
RU2612378C1 (ru) | Способ замены объектов в потоке видео | |
JP3432212B2 (ja) | 画像処理装置及び方法 | |
CN103198488B (zh) | Ptz监控摄像机实时姿态快速估算方法 | |
CN106871906B (zh) | 一种盲人导航方法、装置及终端设备 | |
CN107257494B (zh) | 一种体育赛事拍摄方法及其拍摄系统 | |
CN109034185A (zh) | 一种街景图像差异对比方法及装置 | |
CN105282421B (zh) | 一种去雾图像获取方法、装置及终端 | |
US11783443B2 (en) | Extraction of standardized images from a single view or multi-view capture | |
CN105898107B (zh) | 一种目标物体抓拍方法及系统 | |
CN109712247B (zh) | 基于混合现实技术的实景训练系统 | |
CN110009675A (zh) | 生成视差图的方法、装置、介质及设备 | |
CN107507230A (zh) | 应用于全景图像的目标跟踪方法及全景相机 | |
CN110796032A (zh) | 基于人体姿态评估的视频围栏及预警方法 | |
WO2021017211A1 (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN106774910A (zh) | 基于虚拟现实的街景实现方法和装置 | |
JP7035272B2 (ja) | 撮影システム | |
CN108010058A (zh) | 一种对视频流中目标对象进行视觉跟踪的方法及系统 | |
CN107564039A (zh) | 应用于全景视频的多目标跟踪方法及全景相机 | |
CN106340031A (zh) | 一种检测运动物体的方法和装置 | |
KR20140041083A (ko) | 이미지매칭에 의한 그린정보 제공시스템 및 그 방법 | |
CN108090930A (zh) | 基于双目立体相机的障碍物视觉检测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 230088 a14-5, 13 / F, block a, building J1, phase II, innovation industrial park, No. 2800, innovation Avenue, high tech Zone, Hefei, Anhui Province Patentee after: Anhui aiguan Vision Technology Co.,Ltd. Address before: Room 305, Block E, 492 Anhua Road, Changning District, Shanghai 200050 Patentee before: SHANGHAI EYEVOLUTION TECHNOLOGY Co.,Ltd. |