CN108876812B - 用于视频中物体检测的图像处理方法、装置及设备 - Google Patents
用于视频中物体检测的图像处理方法、装置及设备 Download PDFInfo
- Publication number
- CN108876812B CN108876812B CN201711058846.0A CN201711058846A CN108876812B CN 108876812 B CN108876812 B CN 108876812B CN 201711058846 A CN201711058846 A CN 201711058846A CN 108876812 B CN108876812 B CN 108876812B
- Authority
- CN
- China
- Prior art keywords
- feature map
- frame image
- spatial position
- feature
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种用于视频中物体检测的图像处理方法、装置及设备,该方法包括:提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔;根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔。由此可见,本发明实施例中通过计算相邻帧之间的相关性,预测下一相邻帧的特征位置,从而得到下一相邻帧图像的特征向量,能够减小特征提取过程的计算量,节约了提取的时间,从而提高了检测的效率。
Description
技术领域
本发明涉及图像处理领域,更具体地涉及一种用于视频中物体检测的图像处理方法、装置及设备。
背景技术
诸如区域-卷积神经网络(Region with Convolutional Neural Network,R-CNN)等基于深度学习的物体检测算法大都是面向静态图片来设计实现的,但是在现实应用中的物体检测大都是用在视频中的,如自动驾驶,智能安防等,如果逐帧地进行会存在较高的信息冗余,导致检测效率低。
发明内容
考虑到上述问题而提出了本发明。本发明提供了一种用于视频中物体检测的图像处理方法、装置及设备,能够根据相关性匹配实现特征图的空间传播,节省了一定的计算量,保证了检测效率。
根据本发明的一方面,提供了一种用于视频中物体检测的图像处理方法,包括:
提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔;
根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔。
在本发明的一个实施例中,根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,包括:
以所述第一特征图为基础,将所述第二特征图与所述第一特征图进行相关性匹配;
根据所述相关性匹配的结果构建所述第三特征图。
在本发明的一个实施例中,所述以所述第一特征图为基础,将所述第二特征图与所述第一特征图进行相关性匹配,包括:
获取所述第一特征图的第(w1,h1)个空间位置的第一特征向量;
在所述第二特征图的预设范围内,确定与所述第一特征图的第(w1,h1)个空间位置匹配的第一空间位置,其中,所述第一空间位置的第二特征向量与所述第一特征向量的相关性最大;
确定所述第一空间位置与所述第一特征图的第(w1,h1)个空间位置之间的偏移量;
其中,所述第一特征图的空间维度为W×H,w1的取值范围为1至W,h1的取值范围为1至H。
在本发明的一个实施例中,所述预设范围为所述第二特征图的空间位置(i1,j1)的范围,其中,w1-b≤i1≤w1+b,h1-b≤j1≤h1+b,b为预设带宽。
在本发明的一个实施例中,所述第一空间位置为所述第二特征图的第(w1+im,h1+jm)个空间位置,则所述偏移量为(im,jm),其中,im和jm均为-b至b之间的整数。
在本发明的一个实施例中,所述根据所述相关性匹配的结果构建所述第三特征图,包括:
根据所述第二特征向量和所述偏移量,构建所述第三帧图像的所述第三特征图,其中,所述第三特征图的第二空间位置具有所述第二特征向量,所述第二空间位置与所述第一空间位置之间具有所述偏移量。
在本发明的一个实施例中,通过计算两个特征向量之间的夹角余弦值或通过计算两个特征向量之间的距离来计算相关性。
在本发明的一个实施例中,所述预定间隔是根据所述视频中物体的运动速度而设定的。
根据本发明另一方面,提供了一种用于视频中物体检测的图像处理装置,所述装置用于实现前述方面或任一示例所述的用于视频中物体检测的图像处理方法,所述装置包括:
特征提取模块,用于提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔;
特征图传播模块,用于根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔。
根据本发明的又一方面,提供了一种图像处理设备,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前述方面及各个示例所述的用于视频中物体检测的图像处理方法的步骤。
根据本发明的再一方面,提供了一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述方面及各个示例所述的用于视频中物体检测的图像处理方法的步骤。
由此可见,本发明实施例中通过计算相邻帧之间的相关性,预测下一相邻帧的特征位置,从而得到下一相邻帧图像的特征向量,能够减小特征提取过程的计算量,节约了提取的时间,从而提高了检测的效率。
附图说明
通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本发明实施例的电子设备的一个示意性框图;
图2是本发明实施例的用于视频中物体检测的图像处理方法的一个示意性流程图;
图3是本发明实施例的构建第三特征图的一个示意图;
图4是本发明实施例的用于视频中物体检测的图像处理方法的一个示意图;
图5是本发明实施例的确定特征图的一个示意图;
图6是本发明实施例的用于视频中物体检测的图像处理装置的一个示意性框图。
具体实施方式
为了使得本发明的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。基于本发明中描述的本发明实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本发明的保护范围之内。
本发明实施例可以应用于电子设备,图1所示为本发明实施例的电子设备的一个示意性框图。图1所示的电子设备10包括一个或更多个处理器102、一个或更多个存储装置104、输入装置106、输出装置108、图像传感器110以及一个或更多个非图像传感器114,这些组件通过总线系统112和/或其它形式互连。应当注意,图1所示的电子设备10的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以包括CPU 1021和GPU 1022或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,例如现场可编程门阵列(Field-Programmable GateArray,FPGA)或进阶精简指令集机器(Advanced RISC(Reduced Instruction SetComputer)Machine,ARM)等,并且处理器102可以控制所述电子设备10中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或更多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器1041和/或非易失性存储器1042。所述易失性存储器1041例如可以包括随机存取存储器(Random Access Memory,RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器1042例如可以包括只读存储器(Read-Only Memory,ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或更多个计算机程序指令,处理器102可以运行所述程序指令,以实现各种期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或更多个。
所述输出装置108可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器、扬声器等中的一个或更多个。
所述图像传感器110可以拍摄用户期望的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。
当注意,图1所示的电子设备10的组件和结构只是示例性的,尽管图1示出的电子设备10包括多个不同的装置,但是根据需要,其中的一些装置可以不是必须的,其中的一些装置的数量可以更多等等,本发明对此不限定。
图2是本发明实施例的用于视频中物体检测的图像处理方法的一个示意性流程图。图2所示的方法包括:
S101,提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔;
S102,根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔。
示例性地,S101中,可以采用类似于静态图像物体检测的特征提取方法。例如,可以将第一帧图像输入至主干卷积神经网络,从而提取到第一帧图像的第一特征图;将第二帧图像输入至主干卷积神经网络,从而提取到第二帧图像的第二特征图。S101的过程可以实时进行,在获取第一帧图像后提取第一特征图,之后获取第二帧图像后提取第二特征图。
示例性地,预定间隔可以根据所述视频中物体的运动速度而设定。例如,若视频中的运动速度快,可以将该预定间隔设置的较小;若视频中的运动速度慢,可以将该预定间隔设置的较大。这样既考虑了信息冗余性又考虑了信息完整性,保证检测的结果准确性。
作为一种实现方式,可以假设该预定间隔为a,可以将第一帧图像表示为第t-a帧图像,将第二帧图像表示为第t帧图像,相应地,可以将第一特征图表示为F(t-a),将第二特征图表示为F(t)。则S102中的第三帧图像可以为第t+a帧图像,且S102所得到的第三特征图可以表示为F(t+a)。可理解,第一帧图像与第二帧图像之间包括第t-a+1帧图像、第t-a+2帧图像、…、第t-1帧图像共计a-1帧。在本发明实施例中,对该a-1帧图像不进行特征提取等操作,这样充分考虑了视频中相近帧的高度相似性,减小了计算量,提升了计算速度,保证效率。
其中,特征图(第一特征图和第二特征图)的宽、高和通道数(channel)可以分别记为W、H和C。即特征图(第一特征图和第二特征图)的空间维度可以表示为W×H。另外,特征图(第一特征图和第二特征图)还可以具有第三维度,例如该第三维度为1(表示灰度图像)或3(表示RGB彩色图像),应该理解的是,根据图像的性质,第三维度的数目还可以为其它的值,本发明对此不限定。
另外,在S101提取第一特征图或第二特征图之后,可以执行诸如区域建议(regionproposal)等后续操作,这样能够保证物体检测的实时性。
示例性地,S102中,可以以所述第一特征图为基础,将所述第二特征图与所述第一特征图进行相关性匹配;根据所述相关性匹配的结果构建所述第三特征图。
具体地,可以获取所述第一特征图的第(w1,h1)个空间位置的第一特征向量;在所述第二特征图的预设范围内,确定与所述第一特征图的第(w1,h1)个空间位置匹配的第一空间位置,其中,所述第一空间位置的第二特征向量与所述第一特征向量的相关性最大;确定所述第一空间位置与所述第一特征图的第(w1,h1)个空间位置之间的偏移量;其中,所述第一特征图的空间维度为W×H,w1的取值范围为1至W,h1的取值范围为1至H。
也就是说,可以遍历第一特征图F(t-a)的每一个空间位置(w1,h1),0≤w1≤W,0≤h1≤H,以该空间位置(w1,h1)的第一特征向量作为相关核,在第二特征图F(t)的预设范围(预设的空间位置范围)内进行相关性计算,将该预设范围内相关性响应最大的空间位置(w1+im,h1+jm)确定为第一空间位置,其中,第二特征图F(t)的空间位置(w1+im,h1+jm)具有第二特征向量。这样,可以完成对第一特征图F(t-a)的空间位置遍历。
可选地,预设范围可以为所述第二特征图的空间位置(i1,j1)的范围,其中,w1-b≤i1≤w1+b,h1-b≤j1≤h1+b,b为预设带宽(bandwidth)。其中,预设带宽b的值可以根据该视频的实际情况进行设定,例如,若该视频中包括运动较快的物体,可以将b的值设定的较小;反之可以将b的值设定的较大。可理解,若第一特征图的第(w1,h1)个空间位置位于初始特征图的边附近而导致预设范围超出边界,则该预设范围可以在边界处不足带宽处补零(padding with zero)。
在进行相关性计算时,可以计算预设范围内的(2×b+1)2个空间位置的特征向量与第一特征图F(t-a)的第(w1,h1)个空间位置的第一特征向量之间的相关性,将相关性最大的那个空间位置确定为第一空间位置。
其中,偏移量是指第一空间位置与第(w1,h1)个空间位置之间的空间偏移。第一空间位置为所述第二特征图的第(w1+im,h1+jm)个空间位置,则所述偏移量为(im,jm),其中,im和jm均为-b至b之间的整数,即-b≤im≤b,-b≤jm≤b。可理解,w1+im为i1的其中一值,h1+jm为j1的其中一值。
其中,各个特征向量(如第一特征向量、第二特征向量等)的维度可以为C。示例性地,可以通过计算两个特征向量之间的夹角余弦值或计算两个特征向量之间的距离来计算这两个特征向量之间的相关性。例如,计算两个特征向量V1与V2之间的相关性时,可以计算V1与V2之间的夹角余弦值(V1与V2的点乘再除以V1的模与V2的模两者的乘积),该计算的夹角余弦值越大,说明相关性越大;或者可以计算V1与V2之差的绝对值,该差的绝对值越小,说明相关性越大。
进一步地,可以根据所述第二特征向量和所述偏移量,构建所述第三帧图像的所述第三特征图,其中,所述第三特征图的第二空间位置具有所述第二特征向量,所述第二空间位置与所述第一空间位置之间具有所述偏移量。例如,若与第一特征图F(t-a)的第(w1,h1)个空间位置匹配的是第二特征图F(t)的第(w1+im,h1+jm)个空间位置,且第二特征图F(t)的第(w1+im,h1+jm)个空间位置的特征向量为Vm,则可以构建第三特征图F(t+a),且第三特征图F(t+a)的第(w1+2×im,h1+2×jm)个空间位置的特征向量为Vm。应注意,若基于该偏移量导致超出第三特征图的边界,可以将其限制在边界处。例如,若w1+2×im>W或h1+2×jm>H,则确定第三特征图的第(min[w1+2×im,W],min[h1+2×jm,H])个空间位置的特征向量为Vm。另外,可理解,在该过程结束后,若第三特征图中存在一个或多个空间位置未确定其特征向量,则可以确定为第二特征图中对应位置的特征向量。例如,若在上述过程后,第三特征图中的第(w2,h2)个空间位置的特征向量依然未知,可以获取第二特征图中第(w2,h2)个空间位置的特征向量(假设为V0),则可以补充第三特征图中的未知向量,具体地,确定第三特征图中的第(w2,h2)个空间位置的特征向量为V0。
由此,便可以实现对第三帧图像的特征重构,无需提取第三帧图像的特征图,由于本发明中的特征重构的过程的计算量远小于采用卷积神经网络提取特征图的计算量,因此极大地提高了计算速度。
作为一个示例,假设b=2,如图3所示,F(t)的虚线范围为预设范围,若所确定的第一空间位置为(w1-2,h1+1),即im=-2,jm=1,则可以确定F(t+a)的空间位置(w1-2×2,h1+1×2)处具有第二特征向量。
示例性地,在S102之后,可以基于所述第三特征图执行后续操作,所述后续操作包括:区域建议、边界框回归、物体分类。作为一例,参照图4,可以使用卷积神经网络(Convolutional Neural Network,CNN)提取得到第t-a帧图像的特征图F(t-a)、第t帧图像的特征图F(t),并根据图2所示的方法,基于F(t-a)和F(t)得到第t+a帧图像的特征图F(t+a)。这样,无需额外使用CNN提取第t+a帧图像的特征图,能够减少计算量。另外,在得到各个特征图F(t-a)、F(t)和F(t+a)之后,均可以执行后续操作,这样能够保证物体检测的实时性。
可理解,在根据第t-a帧图像的特征图F(t-a)和第t帧图像的特征图F(t)得到第t+a帧图像的特征图F(t+a)之后,可以继续根据第t+2a帧图像的特征图F(t+2a)和第t+3a帧图像的特征图F(t+3a)得到第t+4a帧图像的特征图F(t+4a),以此类推,从而完成对整个视频的物体检测过程。
作为一个示例,假设a=2,如图5所示,可以提取第1帧图像的特征图、提取第3帧图像的特征图,并采用图2所示的方法得到第5帧图像的特征图。随后可以提取第7帧图像的特征图和提取第9帧图像的特征图,并采用图2所示的方法得到第11帧图像的特征图,…。可见,该过程与采用逐帧方式相比,能够将计算量降至1/3,节省了2/3的特征提取的时间,从而极大地提升了物体检测的效率。
基于上述分析,本发明实施例中,基于具有预定间隔的两帧图像的特征图,能够预测出在此之后的后续帧的特征图,构建了特征图的运动位移场,这种特征传播的方式能够保证特征检测的连贯性,且能够极大地减少计算量,提高检测速度。
图6是本发明实施例的用于视频中物体检测的图像处理装置的一个示意性框图。图6所示的装置60包括特征提取(feature extraction)模块610和特征图传播(featuremap propagation)模块620。
特征提取模块610,用于提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔;
特征图传播模块620,用于根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔。
作为一种实现方式,特征图传播模块620可以包括匹配子模块和构建子模块。匹配子模块用于以所述第一特征图为基础,将所述第二特征图与所述第一特征图进行相关性匹配。构建子模块用于根据所述相关性匹配的结果构建所述第三特征图。
作为一种实现方式,匹配子模块可以具体用于获取所述第一特征图的第(w1,h1)个空间位置的第一特征向量;
在所述第二特征图的预设范围内,确定与所述第一特征图的第(w1,h1)个空间位置匹配的第一空间位置,其中,所述第一空间位置的第二特征向量与所述第一特征向量的相关性最大;
确定所述第一空间位置与所述第一特征图的第(w1,h1)个空间位置之间的偏移量;
其中,所述第一特征图的空间维度为W×H,w1的取值范围为1至W,h1的取值范围为1至H。
示例性地,所述预设范围为所述第二特征图的空间位置(i1,j1)的范围,其中,w1-b≤i1≤w1+b,h1-b≤j1≤h1+b,b为预设带宽。
示例性地,所述第一空间位置为所述第二特征图的第(w1+im,h1+jm)个空间位置,则所述偏移量为(im,jm),其中,im和jm均为-b至b之间的整数。
作为一种实现方式,构建子模块可以具体用于根据所述第二特征向量和所述偏移量,构建所述第三帧图像的所述第三特征图,其中,所述第三特征图的第二空间位置具有所述第二特征向量,所述第二空间位置与所述第一空间位置之间具有所述偏移量。
作为一种实现方式,该装置60还可以包括任务执行端(task head)模块,可以用于:基于所述第三特征图执行后续操作,所述后续操作包括:区域建议、边界框回归、物体分类。
作为一种实现方式,所述预定间隔是根据所述视频中物体的运动速度而设定的。
图6所示的装置60能够实现前述图2至图5所示的用于视频中物体检测的图像处理方法,为避免重复,这里不再赘述。
另外,本发明实施例还提供了另一种图像处理设备,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,处理器执行所述程序时实现前述图2至图5所示方法的步骤。
另外,本发明实施例还提供了一种电子设备,该电子设备可以包括图4所示的装置60。该电子设备可以实现前述图2至图5所示的方法。
另外,本发明实施例还提供了一种计算机存储介质,其上存储有计算机程序。当所述计算机程序由处理器执行时,可以实现前述图2至图5所示方法的步骤。例如,该计算机存储介质为计算机可读存储介质。
由此可见,本发明实施例中,根据第一帧图像的特征图和第二帧图像的特征图确定第三帧图像的特征图,减少了提取第三帧图像特征图的计算量,节约了提取的时间,从而提高了检测的效率。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本发明的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的物品分析设备中的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上所述,仅为本发明的具体实施方式或对具体实施方式的说明,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。本发明的保护范围应以权利要求的保护范围为准。
Claims (9)
1.一种用于视频中物体检测的图像处理方法,其特征在于,包括:
提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔,所述预定间隔之间包括至少一帧图像;
获取所述第一特征图的第(w1, h1)个空间位置的第一特征向量;
在所述第二特征图的预设范围内,确定与所述第一特征图的第(w1, h1)个空间位置匹配的第一空间位置,其中,所述第一空间位置的第二特征向量与所述第一特征向量的相关性最大;
确定所述第一空间位置与所述第一特征图的第(w1, h1)个空间位置之间的偏移量,作为相关性匹配的结果;
其中,所述第一特征图的空间维度为W×H,w1的取值范围为1至W,h1的取值范围为1至H;
根据所述相关性匹配的结果构建所述第二帧图像之后的第三帧图像的第三特征图;其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔。
2.根据权利要求1所述的方法,其特征在于,所述预设范围为所述第二特征图的空间位置(i1, j1)的范围,其中,w1-b ≤ i1 ≤ w1+b,h1-b ≤ j1 ≤ h1+b,b为预设带宽。
3.根据权利要求2所述的方法,其特征在于,所述第一空间位置为所述第二特征图的第(w1+im, h1+jm)个空间位置,则所述偏移量为(im, jm),其中,im和jm均为-b至b之间的整数。
4.根据权利要求1所述的方法,其特征在于,所述根据所述相关性匹配的结果构建所述第三特征图,包括:
根据所述第二特征向量和所述偏移量,构建所述第三帧图像的所述第三特征图,其中,所述第三特征图的第二空间位置具有所述第二特征向量,所述第二空间位置与所述第一空间位置之间具有所述偏移量。
5.根据权利要求1所述的方法,其特征在于,通过计算两个特征向量之间的夹角余弦值或通过计算两个特征向量之间的距离来计算相关性。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述预定间隔是根据所述视频中物体的运动速度而设定的。
7.一种用于视频中物体检测的图像处理装置,其特征在于,所述装置用于实现前述权利要求1至6中任一项所述的方法,所述装置包括:
特征提取模块,用于提取所述视频中的第一帧图像的第一特征图,并提取所述视频中的第二帧图像的第二特征图,其中,所述第二帧图像位于所述第一帧图像之后且所述第二帧图像与所述第一帧图像之间具有预定间隔,所述预定间隔之间包括至少一帧图像;
特征图传播模块,用于根据所述第一特征图和所述第二特征图,构建所述第二帧图像之后的第三帧图像的第三特征图,其中,所述第三帧图像与所述第二帧图像之间具有所述预定间隔;
所述特征图传播模块包括匹配子模块和构建子模块,所述匹配子模块用于以所述第一特征图为基础,将所述第二特征图与所述第一特征图进行相关性匹配,构建子模块用于根据所述相关性匹配的结果构建所述第三特征图;
所述匹配子模块用于获取所述第一特征图的第(w1, h1)个空间位置的第一特征向量;
在所述第二特征图的预设范围内,确定与所述第一特征图的第(w1, h1)个空间位置匹配的第一空间位置,其中,所述第一空间位置的第二特征向量与所述第一特征向量的相关性最大;
确定所述第一空间位置与所述第一特征图的第(w1, h1)个空间位置之间的偏移量;
其中,所述第一特征图的空间维度为W×H,w1的取值范围为1至W,h1的取值范围为1至H。
8.一种图像处理设备,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
9.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711058846.0A CN108876812B (zh) | 2017-11-01 | 2017-11-01 | 用于视频中物体检测的图像处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711058846.0A CN108876812B (zh) | 2017-11-01 | 2017-11-01 | 用于视频中物体检测的图像处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108876812A CN108876812A (zh) | 2018-11-23 |
CN108876812B true CN108876812B (zh) | 2021-11-19 |
Family
ID=64325516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711058846.0A Active CN108876812B (zh) | 2017-11-01 | 2017-11-01 | 用于视频中物体检测的图像处理方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108876812B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635740B (zh) * | 2018-12-13 | 2020-07-03 | 深圳美图创新科技有限公司 | 视频目标检测方法、装置及图像处理设备 |
CN109740508B (zh) * | 2018-12-29 | 2021-07-23 | 北京灵汐科技有限公司 | 一种基于神经网络系统的图像处理方法及神经网络系统 |
CN109800685A (zh) * | 2018-12-29 | 2019-05-24 | 上海依图网络科技有限公司 | 一种视频中对象的确定方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9251562B1 (en) * | 2011-08-04 | 2016-02-02 | Amazon Technologies, Inc. | Registration of low contrast images |
CN103400395A (zh) * | 2013-07-24 | 2013-11-20 | 佳都新太科技股份有限公司 | 一种基于haar特征检测的光流跟踪方法 |
CN106097388B (zh) * | 2016-06-07 | 2018-12-18 | 大连理工大学 | 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法 |
CN106897742B (zh) * | 2017-02-21 | 2020-10-27 | 北京市商汤科技开发有限公司 | 用于检测视频中物体的方法、装置和电子设备 |
CN107194347A (zh) * | 2017-05-19 | 2017-09-22 | 深圳市唯特视科技有限公司 | 一种基于面部动作编码系统进行微表情检测的方法 |
-
2017
- 2017-11-01 CN CN201711058846.0A patent/CN108876812B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108876812A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473137B (zh) | 图像处理方法和装置 | |
US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
CN108876813B (zh) | 用于视频中物体检测的图像处理方法、装置及设备 | |
US10922527B2 (en) | Face spatial positioning method, face spatial positioning system, and non-transitory computer-readable recording medium | |
CN108875766B (zh) | 图像处理的方法、装置、系统及计算机存储介质 | |
CN108875511B (zh) | 图像生成的方法、装置、系统及计算机存储介质 | |
CN109960742B (zh) | 局部信息的搜索方法及装置 | |
US20170192515A1 (en) | Hand gesture recognition for cursor control | |
CN108875537B (zh) | 对象检测方法、装置和系统及存储介质 | |
CN110363817B (zh) | 目标位姿估计方法、电子设备和介质 | |
US10621446B2 (en) | Handling perspective magnification in optical flow processing | |
US20150178568A1 (en) | Method for improving tracking using dynamic background compensation with centroid compensation | |
US20200005074A1 (en) | Semantic image segmentation using gated dense pyramid blocks | |
JP6111745B2 (ja) | 車輌検知方法及び装置 | |
EP3204888A1 (en) | Spatial pyramid pooling networks for image processing | |
US10867390B2 (en) | Computer vision processing | |
CN108876812B (zh) | 用于视频中物体检测的图像处理方法、装置及设备 | |
US11810311B2 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
CN113807361B (zh) | 神经网络、目标检测方法、神经网络训练方法及相关产品 | |
CN111357034A (zh) | 点云生成方法、系统和计算机存储介质 | |
CN111401267B (zh) | 基于自学习局部特征表征的视频行人再识别方法及系统 | |
US11868438B2 (en) | Method and system for self-supervised learning of pillar motion for autonomous driving | |
CN108734712B (zh) | 背景分割的方法、装置及计算机存储介质 | |
US11430146B2 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for EQUI-rectangular projection stereo matching | |
CN107563257B (zh) | 视频理解方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |