CN110334654A - 视频预测方法和装置、视频预测模型的训练方法及车辆 - Google Patents

视频预测方法和装置、视频预测模型的训练方法及车辆 Download PDF

Info

Publication number
CN110334654A
CN110334654A CN201910610206.9A CN201910610206A CN110334654A CN 110334654 A CN110334654 A CN 110334654A CN 201910610206 A CN201910610206 A CN 201910610206A CN 110334654 A CN110334654 A CN 110334654A
Authority
CN
China
Prior art keywords
frame image
characteristic pattern
previous
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910610206.9A
Other languages
English (en)
Inventor
范坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Horizon Robotics Technology Research and Development Co Ltd
Original Assignee
Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Horizon Robotics Technology Research and Development Co Ltd filed Critical Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority to CN201910610206.9A priority Critical patent/CN110334654A/zh
Publication of CN110334654A publication Critical patent/CN110334654A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种视频预测方法和装置、视频预测模型的训练方法及车辆,该视频预测方法包括:确定先前N帧图像的第N特征图,其中,第N特征图包含先前N帧图像的空间特征和时间特征;根据第N特征图生成未来M帧图像,其中,未来M帧图像与先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。本申请的技术方案通过确定与先前N帧图像在时间上不连续的未来M帧图像,实现对未来时间段内的视频帧的预测,从而能够缩短计算时间、减小资源占用以及运算负担,提高预测效率。

Description

视频预测方法和装置、视频预测模型的训练方法及车辆
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种视频预测方法和装置、视频预测模型的训练方法及车辆。
背景技术
视频预测可以根据给定的视频,预测后续的视频,从而使得用户可以根据预测的视频提前做出判断或决策。现有的视频预测方法一般是基于前一帧预测后一帧,并通过不断重复该操作实现长时间的视频预测。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种视频预测方法和装置、视频预测模型的训练方法及车辆。
根据本申请的一个方面,提供了一种视频预测方法,包括:确定先前N帧图像的第N特征图,其中,第N特征图包含先前N帧图像的空间特征和时间特征;根据第N特征图生成未来M帧图像,其中,未来M帧图像与先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。
根据本申请的另一个方面,提供了一种视频预测装置,包括:确定模块,用于确定先前N帧图像的第N特征图,其中,第N特征图包含先前N帧图像的空间特征和时间特征;生成模块,用于根据第N特征图生成未来M帧图像,其中,未来M帧图像与先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。
根据本申请的又一个方面,提供了一种视频预测模型的训练方法,包括:通过利用多个样本视频训练机器学习模型得到视频预测模型,多个样本视频中的每个样本视频包括先前N帧样本图像和未来M帧样本图像,未来M帧样本图像和先前N帧样本图像之间间隔P帧图像,其中,N为大于1的整数,M、P为大于或等于1的整数。
根据本申请的又一个方面,提供了一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序用于执行上述的视频预测方法。
根据本申请的又一个方面,提供了一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器,其中,处理器用于执行上述的视频预测方法。
根据本申请的又一个方面,提供了一种车辆,包括上述的电子设备。
本申请实施例提供了一种视频预测方法和装置、视频预测模型的训练方法及车辆,通过利用已知视频中的先前N帧图像的第N特征图,确定与先前N帧图像在时间上不连续的未来M帧图像,实现对未来时间段内的视频帧的预测,由于省略了对位于先前N帧图像和未来M帧图像中间的视频帧的预测,从而能够缩短计算时间、减小资源占用以及运算负担,提高预测效率。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请一示例性实施例提供的视频预测系统的系统架构示意图。
图2是本申请一示例性实施例提供的视频预测方法的流程示意图。
图3是本申请一示例性实施例提供的视频预测方法的场景示意图。
图4是本申请另一示例性实施例提供的确定先前N帧图像的第N特征图的流程示意图。
图5是本申请另一示例性实施例提供的根据第N特征图生成未来M帧图像的流程示意图。
图6是本申请一示例性实施例提供的视频预测模型的结构示意图。
图7是本申请一示例性实施例提供的视频预测装置的结构示意图。
图8是本申请一示例性实施例提供的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
视频预测可以对视频图像中各个实体的位置变化做出预测,或者对视频图像中的各个实体与周围环境的位置关系做出预测,从而可以便于用户提前做出判断。因此,视频预测在机器人决策、自动驾驶和视频理解等领域具有广泛的应用前景。
例如,在自动驾驶领域,通过根据摄像头采集的先前视频预测未来视频,可以判断位于当前车辆周围的车辆的运动状态,从而可以及时调整当前车辆的运动状态,提高驾驶的安全性。
现有的视频预测方法,是基于前一帧图像预测后一帧图像,通过不断重复这个操作进行长时间的视频预测。例如,用户需要的是未来时间区间为95s-100s的视频帧,现有的视频预测方法会基于已有的视频预测未来时间区间为0s-100s的视频帧,以获得未来时间区间为95s-100s的视频帧。然而,在0s-100s的视频帧中,0s-95s的视频帧并不是用户需要的,而且在预测过程中,针对已有的视频连续预测未来0s-100s的视频帧会比较耗时且会占用较多的计算资源、增加运算负担。
所以,现有的视频预测方法难以根据用户需求直接获得用户所需的时间段内的视频帧,存在耗时久、运算负担重的问题。
示例性系统
图1是本申请一示例性实施例提供的视频预测系统1的系统架构示意图,其示出了一种根据图像采集设备(例如,摄像头)采集的视频对未来某时间段内的视频进行预测的应用场景。如图1所示,该视频预测系统1包括电子设备10,图像采集设备20。电子设备10通过根据图像采集设备所采集的视频预测未来某时间段内的视频,进而根据该预测的视频对终端执行相应的操作。这里的终端可以是无人驾驶车辆,图像采集设备20可以是车载摄像头,也可以是安装在其他设备(例如,无人机)上的摄像头。
需要说明的是,本申请实施例中的图像采集设备20可以集成在电子设备10上。
需要注意的是,上述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施例并不限于此。相反,本申请的实施例可以应用于可能适用的任何场景。
示例性方法
图2是本申请一示例性实施例提供的视频预测方法的流程示意图。本实施例的执行主体例如可以是图1中的电子设备,如图2所示,该方法包括如下步骤:
步骤210:确定先前N帧图像的第N特征图,其中,第N特征图包含先前N帧图像的空间特征和时间特征。
本申请实施例提供的视频预测方法可用于自动驾驶领域,视频中的实体可以是当前车辆和/或当前车辆周围的车辆,电子设备可以是当前车辆上的车载系统的控制器,或是独立于该当前车辆之外的其他控制器。控制器可以根据视频预测获得的预测的视频直接控制当前车辆的速度、转向等状态,或者该控制器可以将预测的视频通过车辆上的显示屏幕播放,以便驾驶员根据预测的视频中的内容对当前车辆的速度、转向等状态做出调整。
具体地,先前N帧图像可以是摄像头在距离当前时间点之前的预设时间段内采集的视频所包含的多个图像,这里,N可以是2或者大于2的整数。
在一实施例中,可以利用神经网络模型从先前N帧图像中的第1帧图像提取第一特征图,该第一特征图包括第1帧图像的空间特征和时间特征。即,第一特征图可以反映图像中的实体的运动状态与时间的关系。继续利用神经网络模型从先前N帧图像中的第2帧图像提取第2帧图像的空间特征,并结合第一特征图和第2帧图像的空间特征,从中提取第二特征图,该第二特征图包括第1帧图像和第2帧图像的空间特征和时间特征。即,第二特征图可以反映图像中的实体的运动状态随时间(第1帧图像到第2帧图像所经历的时间)的变化关系。以此类推,可以获得第N特征图。
步骤220:根据第N特征图生成未来M帧图像,其中,未来M帧图像与先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。
第N特征图(Feature Map)包含先前N帧图像的空间特征和时间特征,空间特征可以表征每张图像中实体的位置和姿态,时间特征可以反映每张图像对应的时刻,空间特征和时间特征两者结合可以反映位置和姿态的变化与时间的关系。
在一实施例中,空间特征除了包括图像中实体的位置和姿态信息外,还可以进一步包括图像中各个位置的颜色信息或其他实际所需的信息,本申请实施例对此不作具体的限定。
通过第N特征图预测未来M帧图像,该M帧图像可以构成预测的视频帧。先前N帧图像与未来M帧图像在时间上并不是连续的。
例如,先前N帧图像对应的时间段为九点十分十秒至九点十分二十秒(10s),未来M帧图像对应的时间段为九点十分五十秒至九点十分五十五秒(5s),即先前N帧图像与未来M帧图像之间间隔了30s。先前N帧图像与未来M帧图像之间间隔的30s可以对应一定数量的图像(即,P帧图像)。
图3是本申请一示例性实施例提供的视频预测方法的场景示意图,如图3所示,在时间轴上,已有视频帧(先前N帧图像)对应的时间段是时间点t=T0至时间点t=0(t=0是当前时刻)。待预测视频帧(未来M帧图像)对应的时间段是时间点t=T1至时间点t=T2,而中间的时间段(t=0至t=T1)对应的视频帧是不需要预测的。
在本实施例中,先前N帧图像中相邻的两帧图像之间的时间间隔,与未来M帧图像中相邻的两帧图像之间的时间间隔,可以相同,也可以不同,这可以根据实际需要进行设定。
当M为1时,即未来M帧图像的个数为1,可以根据第N特征图直接生成该图像。
当M大于1时,即未来M帧图像的个数大于1,可以根据第N特征图直接生成该未来M帧图像中的第1帧图像,然后根据该第1帧图像依次生成剩下的M-1帧图像,该M帧图像构成预测的视频。
本申请实施例提供了一种视频预测方法,通过利用已知视频中的先前N帧图像的第N特征图,确定与先前N帧图像在时间上不连续的未来M帧图像,实现对未来时间段内的视频帧的预测,由于省略了对位于先前N帧图像和未来M帧图像中间的视频帧的预测,从而能够缩短计算时间、减小资源占用以及运算负担,提高预测效率。
图4是本申请另一示例性实施例提供的确定先前N帧图像的第N特征图的流程示意图。在本申请图2所示实施例的基础上延伸出本申请图4所示实施例,下面着重叙述图4所示实施例与图2所示实施例的不同之处,相同之处不再赘述。
如图4所示,在本申请实施例提供的视频预测方法中,确定先前N帧图像的第N特征图(即步骤210),包括:
步骤211:确定先前N帧图像中的每帧图像的第一空间特征图,其中第一空间特征图包含每帧图像的空间特征。
以先前N帧图像中的任一帧图像为例,空间特征包括图像中的实体的位置和姿态信息,该空间特征可以用第一空间特征图表示,该第一空间特征图可以用向量、矩阵或其他合适的形式来表示。每桢图像对应一个第一空间特征图。
在一实施例中,该视频预测方法的执行主体控制器可以通过执行视频预测模型得到未来M帧图像,该视频预测模型可以是机器学习模型通过训练、学习得到的。该视频预测模型可以是基于卷积神经网络、循环神经网络、全连接神经网络或其他神经网络中的一种或多种而构成的。
在一实施例中,步骤211中的第一空间特征图可以通过控制器执行神经网络的设定卷积层的卷积运算来得到。
具体地,参见图6,输入帧图像中第1帧图像、第2帧图像、第3帧图像为先前N帧图像,三帧图像分别经过卷积层的卷积运算获得各自的第一空间特征图。
步骤212:基于先前N帧图像中与第n-1帧图像对应的第n-1特征图以及第n帧图像的第一空间特征图,确定第n特征图,其中,n为大于1且小于或等于N-1的整数。
按照时间的先后顺序,在先N帧图像包括第1帧图像,第2帧图像……第N帧图像。第二特征图是基于第1帧图像对应的第一特征图以及第2帧图像的第一空间特征图获得的。即,第二特征图既可以反映了图像的空间特征随时间的变化关系(图像中实体的位置和姿态与时间的变化关系),又可以反映当前图像的空间特征(即,第2帧图像中实体的位置和姿态状态)。
在一实施例中,第一特征图中反映图像的空间特征随时间的变化关系的参数可以通过初始化赋予。
第三特征图是基于第2帧图像对应的第二特征图以及第3帧图像的第一空间特征图获得的。即,第三特征图反映了图像的空间特征随时间的变化关系(该变化关系包括从第1帧至第2帧的变化关系,以及从第2帧至第3帧的变化关系)、以及当前图像的空间特征(即,第3帧图像中实体的位置和姿态状态)。
重复步骤212,直到确定与第N-1帧图像对应的第N-1特征图。
步骤213:基于先前N帧图像中与第N-1帧图像对应的第N-1特征图以及第N帧图像的第一空间特征图,确定第N特征图。
特征图与空间特征图类似,也可以用向量、矩阵或其他合适的形式来表示。
在一实施例中,步骤212和步骤213中的特征图可以通过控制器执行神经网络的设定卷积-长短期记忆层的卷积运算来得到。
第N特征图可以通过对第N-1特征图以及第N帧图像的第一空间特征图进行卷积运算来确定。
具体地,参见图6,第1帧图像的第一空间特征图经过卷积-长短期记忆层的卷积运算获得第一特征图;进一步地,第一特征图以及第2帧图像的第一空间特征图经过卷积-长短期记忆层的卷积运算获得第二特征图;第二特征图以及第3帧图像的第一空间特征图经过卷积-长短期记忆层的卷积运算获得第三特征图。在本实施例中,第一特征图的获取过程可以是,第零特征图以及第1帧图像的第一空间特征图经过卷积-长短期记忆层的卷积运算而获得的,这里,第零特征图可以是初始化赋予的,或预先设置的。
本申请实施例提供的视频预测方法,通过基于包含先前N帧图像的空间特征随时间的变化关系以及第N帧图像的空间特征的第N特征图,确定与先前N帧图像在时间上不连续的未来M帧图像,可以提高预测结果的准确性。
图5是本申请另一示例性实施例提供的根据第N特征图生成未来M帧图像的流程示意图。在本申请图2所示实施例的基础上延伸出本申请图5所示实施例,下面着重叙述图5所示实施例与图2所示实施例的不同之处,相同之处不再赘述。
如图5所示,在本申请实施例提供的视频预测方法中,根据第N特征图生成未来M帧图像(即步骤220),包括:
221:根据空白帧图像确定空白帧图像的第一空间特征图。
空白帧图像的第一空间特征图可以包括空白帧图像的空间特征。空白帧图像可以是预先设定的图像,该图像中可以不包括先前N帧图像中的实体。
在一实施例中,步骤221中的第一空间特征图可以通过控制器执行神经网络的设定卷积层的卷积运算来得到。
具体地,参见图6,预测帧图像中第6帧图像、第7帧图像、第8帧图像为未来M帧图像,输入帧图像和预测帧图像之间间隔3帧图像,这3帧图像是不需要预测的。第6帧图像是基于空白帧图像获得的。空白帧图像经过卷积层的卷积运算获得空白帧的第一空间特征图。
222:根据第N特征图和空白帧图像的第一空间特征图确定未来M帧图像中的第1帧图像的第二空间特征图。
空白帧图像对应的第一空间特征图可以看做是张白纸,第N特征图可以看做是实体形状和色彩,两者结合可以获得一幅画。即,第N特征图和空白帧图像的第一空间特征图结合可以获得未来M帧图像中的第1帧图像的第二空间特征图。
在一实施例中,步骤222中的第二空间特征图可以通过控制器执行神经网络的设定卷积-长短期记忆层的卷积运算来得到。
具体地,参见图6,空白帧图像的第一空间特征图以及输入帧图像的第三特征图经过卷积-长短期记忆层的卷积运算获得预测的第6帧图像的第二空间特征图。
223:根据第二空间特征图生成未来M帧图像中的第1帧图像。
根据第二空间特征图可以还原出图像,即,生成未来M帧图像中的第1帧图像。未来M帧图像中的任一图像可以称为预测帧图像,例如,未来M帧图像中的第1帧图像可以称为第1预测帧图像。
在一实施例中,步骤223中的第1帧图像可以通过控制器执行神经网络的设定反卷积层的反卷积运算来得到。
具体地,参见图6,第6帧图像的第二空间特征图经过反卷积层的反卷积运算获得第6帧图像。
224:根据未来M帧图像中的第m-1帧图像生成第m帧图像,其中,m为大于1且小于或等于M的整数。
具体地,可以在神经网络的卷积层中确定第1预测帧图像的第一空间特征图。在神经网络的卷积-长短期记忆层中,根据第0预测帧图像对应的特征图(包含先前N帧图像与空白帧图像的空间特征和时间特征)以及第1预测帧图像的第一空间特征图,确定与第2预测帧图像对应的第二空间特征图。在神经网络的反卷积层中,根据与第2预测帧图像对应的第二空间特征图生成第2预测帧图像。
在这里,第一空间特征图包含第1预测帧图像的空间特征,空间特征包括图像中的实体的位置和姿态信息,还可以进一步包括第1预测帧图像中各个位置的颜色信息或其他实际所需的信息。特征图包含先前N帧图像和第0预测帧图像(空白帧图像)的空间特征和时间特征,时间特征可以反映每张图像对应的时刻,空间特征和时间特征两者结合可以反映位置和姿态的变化与时间的关系。
第3预测帧图像的生成过程,可以包括:在神经网络的卷积层中,确定第2预测帧图像的第一空间特征图;在神经网络的卷积-长短期记忆层中,根据第2预测帧图像的第一空间特征图以及第1预测帧图像对应的特征图确定与第3预测帧图像对应的第二空间特征图;以及,在神经网络的反卷积层中,根据与第3预测帧图像对应的第二空间特征图生成第3预测帧图像。
重复步骤224,直到生成第M预测帧图像。未来M帧图像即构成预测的视频。
具体地,参见图6,第6帧图像经过卷积层的卷积运算获得第6帧图像的第一空间特征图,空白帧图像的第一空间特征图以及输入帧图像的第三特征图经过卷积-长短期记忆层的卷积运算还可以获得第五特征图(包含先前3帧图像与空白帧图像的空间特征和时间特征)。第6帧图像的第一空间特征图以及第五特征图经过卷积-长短期记忆层的卷积运算获得预测的第7帧图像的第二空间特征图以及第六特征图(可以包含先前3帧图像、空白帧图像以及第6帧图像的空间特征和时间特征)。第7帧图像的第二空间特征图经过反卷积层的反卷积运算获得第7帧图像。第7帧图像经过卷积层的卷积运算获得第7帧图像的第一空间特征图,第7帧图像的第一空间特征图以及第六特征图经过卷积-长短期记忆层的卷积运算获得预测的第8帧图像的第二空间特征图,第8帧图像的第二空间特征图经过反卷积层的反卷积运算获得第8帧图像。
本申请实施例提供了一种视频预测方法,通过利用已知视频中的先前N帧图像的第N特征图以及空白帧的第一空间特征图,确定与先前N帧图像在时间上不连续的未来M帧图像,实现从图像序列到图像序列的视频预测过程,从而能够避免非必要的预测造成的计算资源的浪费,提高长时间视频预测的预测效率。
图2、图4和图5所示出的实施例之间可以相互补充、相互结合,以实现高效率的视频预测过程。
本申请实施例提供了一种视频预测模型的训练方法,该训练方法包括:通过利用多个样本视频训练机器学习模型得到视频预测模型,多个样本视频中的每个样本视频包括先前N帧样本图像和未来M帧样本图像,未来M帧样本图像和先前N帧样本图像之间间隔P帧图像,其中,N为大于1的整数,M、P为大于或等于1的整数。
具体地,机器学习模型可以是基于卷积神经网络、循环神经网络、全连接神经网络或其他神经网络中的一种或多种而构成的。用于训练机器学习模型的样本视频所包括的图像帧数可以是大于N+M,即,在样本视频中,先前N帧样本图像与未来M帧样本图像是不连续的、中间间隔若干个样本图像。
在训练过程中,通过机器学习模型的损失函数反向更新机器学习模型的网络参数,直到收敛,最终获得视频预测模型。损失函数用未来M帧样本图像和预测的未来M帧样本图像之间的差异来表征。
具体地,在训练机器学习模型时,机器学习模型根据先前N帧样本图像预测未来M帧样本图像,得到预测的未来M帧样本图像。未来M帧样本图像和预测的未来M帧样本图像之间存在差异,机器学习模型根据该差异得到损失函数,进而利用损失函数反向更新机器学习模型的网络参数。通过利用多个样本视频不断地训练机器学习模型,直至获得视频预测模型。获得的视频预测模型可用于实现图2至图4所示的视频预测方法。
在利用多个样本视频训练机器学习模型的过程中,根据先前N帧样本图像预测未来M帧样本图像的具体过程可以参见图2至图4中的描述,为避免重复,在此不再赘述。
本申请实施例提供了一种视频预测模型的训练方法,通过利用已知视频中的先前N帧样本图像的第N特征图,预测与先前N帧样本图像在时间上不连续的未来M帧样本图像,进而根据损失函数调整机器学习模型的参数以获得视频预测模型,从而使得该视频预测模型在对未来时间段内的视频进行预测时,能够缩短计算时间、减小资源占用以及运算负担,提高预测效率。
示例性装置
图7是本申请一示例性实施例提供的视频预测装置700的结构示意图。如图7所示,该装置700包括:确定模块710和生成模块720。
确定模块710用于确定先前N帧图像的第N特征图,其中,第N特征图包含先前N帧图像的空间特征和时间特征;生成模块720用于根据第N特征图生成未来M帧图像,其中,未来M帧图像与先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。
具体地,确定模块710和生成模块720的具体工作过程以及功能,可以参见上述图2中的描述,在此不再赘述。
本申请实施例提供了一种视频预测装置,通过利用已知视频中的先前N帧图像的第N特征图,确定与先前N帧图像在时间上不连续的未来M帧图像,实现对未来时间段内的视频帧的预测,由于省略了对位于先前N帧图像和未来M帧图像中间的视频帧的预测,从而能够缩短计算时间、减小资源占用以及运算负担,提高预测效率。
根据本申请一实施例,确定模块710用于:确定先前N帧图像中的每帧图像的第一空间特征图,其中第一空间特征图包含每帧图像的空间特征;基于先前N帧图像中与第n-1帧图像对应的第n-1特征图以及第n帧图像的第一空间特征图,确定第n特征图,其中,n为大于1且小于或等于N-1的整数;基于先前N帧图像中与第N-1帧图像对应的第N-1特征图以及第N帧图像的第一空间特征图,确定所述第N特征图。
根据本申请一实施例,确定模块710确定先前N帧图像中的每帧图像的第一空间特征图的步骤通过执行神经网络的卷积层的卷积运算来执行,确定模块710确定第n特征图以及确定第N特征图的步骤通过执行神经网络的卷积-长短期记忆层的卷积运算来执行。
根据本申请一实施例,生成模块720用于:根据空白帧图像确定空白帧图像的第一空间特征图;根据第N特征图和空白帧图像的第一空间特征图确定未来M帧图像中的第1帧图像的第二空间特征图;根据第二空间特征图生成未来M帧图像中的第1帧图像;根据未来M帧图像中的第m-1帧图像生成第m帧图像,其中,m为大于1且小于或等于M的整数。
根据本申请一实施例,生成模块720根据空白帧图像确定空白帧图像的第一空间特征图的步骤通过执行神经网络的卷积层的卷积运算来执行,生成模块720根据第N特征图和空白帧图像的第一空间特征图确定未来M帧图像中的第1帧图像的第二空间特征图的步骤通过执行神经网络的卷积-长短期记忆层的卷积运算来执行,生成模块720根据第二空间特征图生成未来M帧图像中的第1帧图像的步骤通过执行神经网络的反卷积层的反卷积运算来执行。
各个模块的具体工作过程以及功能,可以参见上述图2至图6中的描述,在此不再赘述。
示例性电子设备
下面,参考图8来描述根据本申请实施例的电子设备。该电子设备80可以执行上述的视频预测过程。
图8图示了根据本申请实施例的电子设备80的框图。
如图8所示,电子设备80包括一个或多个处理器81和存储器82。
处理器81可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备80中的其他组件以执行期望的功能。
存储器82可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器81可以运行所述程序指令,以实现上文所述的本申请的各个实施例的视频预测方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量、视频图像信号等各种内容。
在一个示例中,电子设备80还可以包括:输入装置83和输出装置84,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,该输入装置83可以是上述的摄像机,用于捕捉视频图像的输入信号。在该电子设备是单机设备时,该输入装置83可以是通信网络连接器,用于从摄像机接收所采集的输入信号。
此外,该输入设备83还可以包括例如键盘、鼠标等等。
该输出装置84可以向外部输出各种信息,包括确定出的视频图像等。该输出设备84可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图8中仅示出了该电子设备80中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备80还可以包括任何其他适当的组件。
本申请实施例提供了一种车辆,包括上述的电子设备80。电子设备80可以是车载系统中的设备,用于执行上述的视频预测方法,从而可以及时对车辆的行驶状态做出调整,保证行车安全。
在一实施例中,车辆可以是自动驾驶车辆或无人驾驶车辆。
电子设备80可以根据视频预测获得的预测的视频直接控制当前车辆的速度、转向等状态,或者将预测的视频通过车辆上的显示屏幕播放,以便驾驶员根据预测的视频中的内容对当前车辆的速度、转向等状态做出调整。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频预测方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频预测方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种视频预测方法,包括:
确定先前N帧图像的第N特征图,其中,所述第N特征图包含所述先前N帧图像的空间特征和时间特征;
根据所述第N特征图生成未来M帧图像,其中,所述未来M帧图像与所述先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。
2.根据权利要求1所述的方法,其中,所述确定先前N帧图像的第N特征图,包括:
确定所述先前N帧图像中的每帧图像的第一空间特征图,其中所述第一空间特征图包含所述每帧图像的空间特征;
基于所述先前N帧图像中与第n-1帧图像对应的第n-1特征图以及第n帧图像的第一空间特征图,确定所述第n特征图,其中,n为大于1且小于或等于N-1的整数;
基于所述先前N帧图像中与第N-1帧图像对应的第N-1特征图以及第N帧图像的第一空间特征图,确定所述第N特征图。
3.根据权利要求2所述的方法,其中,所述确定先前N帧图像中的每帧图像的第一空间特征图的步骤通过执行神经网络的卷积层的卷积运算来执行,所述确定所述第n特征图以及所述确定所述第N特征图的步骤通过执行所述神经网络的卷积-长短期记忆层的卷积运算来执行。
4.根据权利要求1所述的方法,其中,所述根据所述第N特征图生成未来M帧图像,包括:
根据空白帧图像确定所述空白帧图像的第一空间特征图;
根据所述第N特征图和所述空白帧图像的第一空间特征图确定所述未来M帧图像中的第1帧图像的第二空间特征图;
根据所述第二空间特征图生成所述未来M帧图像中的第1帧图像;
根据所述未来M帧图像中的第m-1帧图像生成第m帧图像,其中,m为大于1且小于或等于M的整数。
5.根据权利要求4所述的方法,其中,所述根据空白帧图像确定所述空白帧图像的第一空间特征图的步骤通过执行神经网络的卷积层的卷积运算来执行,所述根据所述第N特征图和所述空白帧图像的第一空间特征图确定所述未来M帧图像中的第1帧图像的第二空间特征图的步骤通过执行所述神经网络的卷积-长短期记忆层的卷积运算来执行,所述根据所述第二空间特征图生成所述未来M帧图像中的第1帧图像的步骤通过执行所述神经网络的反卷积层的反卷积运算来执行。
6.一种视频预测模型的训练方法,包括:
通过利用多个样本视频训练机器学习模型得到所述视频预测模型,所述多个样本视频中的每个样本视频包括先前N帧样本图像和未来M帧样本图像,所述未来M帧样本图像和所述先前N帧样本图像之间间隔P帧图像,其中,N为大于1的整数,M、P为大于或等于1的整数。
7.一种视频预测装置,包括:
确定模块,用于确定先前N帧图像的第N特征图,其中,所述第N特征图包含所述先前N帧图像的空间特征和时间特征;
生成模块,用于根据所述第N特征图生成未来M帧图像,其中,所述未来M帧图像与所述先前N帧图像之间间隔P帧图像,N为大于1的整数,M、P为大于或等于1的整数。
8.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1至5中任一项所述的视频预测方法。
9.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器,
其中,所述处理器用于执行上述权利要求1至5中任一项所述的视频预测方法。
10.一种车辆,包括权利要求9所述的电子设备。
CN201910610206.9A 2019-07-08 2019-07-08 视频预测方法和装置、视频预测模型的训练方法及车辆 Pending CN110334654A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910610206.9A CN110334654A (zh) 2019-07-08 2019-07-08 视频预测方法和装置、视频预测模型的训练方法及车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910610206.9A CN110334654A (zh) 2019-07-08 2019-07-08 视频预测方法和装置、视频预测模型的训练方法及车辆

Publications (1)

Publication Number Publication Date
CN110334654A true CN110334654A (zh) 2019-10-15

Family

ID=68144401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910610206.9A Pending CN110334654A (zh) 2019-07-08 2019-07-08 视频预测方法和装置、视频预测模型的训练方法及车辆

Country Status (1)

Country Link
CN (1) CN110334654A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110839156A (zh) * 2019-11-08 2020-02-25 北京邮电大学 一种基于视频图像的未来帧预测方法及模型
CN111901673A (zh) * 2020-06-24 2020-11-06 北京大学 一种视频预测方法、装置、存储介质及终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170255832A1 (en) * 2016-03-02 2017-09-07 Mitsubishi Electric Research Laboratories, Inc. Method and System for Detecting Actions in Videos
CN107273800A (zh) * 2017-05-17 2017-10-20 大连理工大学 一种基于注意机制的卷积递归神经网络的动作识别方法
CN107492113A (zh) * 2017-06-01 2017-12-19 南京行者易智能交通科技有限公司 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法
US20180144248A1 (en) * 2016-11-18 2018-05-24 Salesforce.Com, Inc. SENTINEL LONG SHORT-TERM MEMORY (Sn-LSTM)
CN108960160A (zh) * 2018-07-10 2018-12-07 深圳地平线机器人科技有限公司 基于非结构化预测模型来预测结构化状态量的方法和装置
CN109829495A (zh) * 2019-01-29 2019-05-31 南京信息工程大学 基于lstm和dcgan的时序性图像预测方法
CN109841226A (zh) * 2018-08-31 2019-06-04 大象声科(深圳)科技有限公司 一种基于卷积递归神经网络的单通道实时降噪方法
CN109891897A (zh) * 2016-10-27 2019-06-14 诺基亚技术有限公司 用于分析媒体内容的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170255832A1 (en) * 2016-03-02 2017-09-07 Mitsubishi Electric Research Laboratories, Inc. Method and System for Detecting Actions in Videos
CN109891897A (zh) * 2016-10-27 2019-06-14 诺基亚技术有限公司 用于分析媒体内容的方法
US20180144248A1 (en) * 2016-11-18 2018-05-24 Salesforce.Com, Inc. SENTINEL LONG SHORT-TERM MEMORY (Sn-LSTM)
CN107273800A (zh) * 2017-05-17 2017-10-20 大连理工大学 一种基于注意机制的卷积递归神经网络的动作识别方法
CN107492113A (zh) * 2017-06-01 2017-12-19 南京行者易智能交通科技有限公司 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法
CN108960160A (zh) * 2018-07-10 2018-12-07 深圳地平线机器人科技有限公司 基于非结构化预测模型来预测结构化状态量的方法和装置
CN109841226A (zh) * 2018-08-31 2019-06-04 大象声科(深圳)科技有限公司 一种基于卷积递归神经网络的单通道实时降噪方法
CN109829495A (zh) * 2019-01-29 2019-05-31 南京信息工程大学 基于lstm和dcgan的时序性图像预测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110839156A (zh) * 2019-11-08 2020-02-25 北京邮电大学 一种基于视频图像的未来帧预测方法及模型
CN111901673A (zh) * 2020-06-24 2020-11-06 北京大学 一种视频预测方法、装置、存储介质及终端
CN111901673B (zh) * 2020-06-24 2021-12-03 北京大学 一种视频预测方法、装置、存储介质及终端

Similar Documents

Publication Publication Date Title
EP3776262A1 (en) Systems and methods for geolocation prediction
CN109215067A (zh) 基于cnn和crf模型生成高分辨率3-d点云
CN111246091B (zh) 一种动态自动曝光控制方法和装置及电子设备
CN111386550A (zh) 图像深度和自我运动预测神经网络的无监督学习
CN109889849B (zh) 视频生成方法、装置、介质及设备
EP3847619B1 (en) Unsupervised depth prediction neural networks
CN107967693A (zh) 视频关键点处理方法、装置、计算设备及计算机存储介质
US20210056388A1 (en) Knowledge Transfer Between Different Deep Learning Architectures
CN110334654A (zh) 视频预测方法和装置、视频预测模型的训练方法及车辆
CN113807460B (zh) 智能体动作的确定方法和装置、电子设备和介质
CN109407679B (zh) 用于控制无人驾驶汽车的方法和装置
CN109693672B (zh) 用于控制无人驾驶汽车的方法和装置
CN108648253A (zh) 动态图片的生成方法及装置
EP3663965A1 (en) Method for predicting multiple futures
US20230186625A1 (en) Parallel video processing systems
CN115512251A (zh) 基于双分支渐进式特征增强的无人机低照度目标跟踪方法
CN109447141A (zh) 基于机器学习的激光除锈方法及装置
CN109981991A (zh) 模型训练方法、图像处理方法、装置、介质和电子设备
CN110378250A (zh) 用于场景认知的神经网络的训练方法、装置及终端设备
CN109903350A (zh) 图像压缩方法及相关装置
CN113610172A (zh) 神经网络模型训练方法和装置、传感数据融合方法和装置
CN109685805A (zh) 一种图像分割方法及装置
KR20230137991A (ko) 잠재 변수들에 따라 조절된 지오메트리 인식 신경 네트워크를 사용하여 장면들의 새로운 이미지 렌더링
CN113284055A (zh) 一种图像处理的方法以及装置
CN110719487B (zh) 视频预测方法和装置、电子设备及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191015