CN114202564A - 一种基于事件相机的高速目标追踪的方法及系统 - Google Patents

一种基于事件相机的高速目标追踪的方法及系统 Download PDF

Info

Publication number
CN114202564A
CN114202564A CN202111543971.7A CN202111543971A CN114202564A CN 114202564 A CN114202564 A CN 114202564A CN 202111543971 A CN202111543971 A CN 202111543971A CN 114202564 A CN114202564 A CN 114202564A
Authority
CN
China
Prior art keywords
event
target
data
image
event camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111543971.7A
Other languages
English (en)
Inventor
张世雄
魏文应
黎俊良
陶键源
龙仕强
安欣赏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Bohua Ultra Hd Innovation Center Co ltd
Instritute Of Intelligent Video Audio Technology Longgang Shenzhen
Original Assignee
Guangdong Bohua Ultra Hd Innovation Center Co ltd
Instritute Of Intelligent Video Audio Technology Longgang Shenzhen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Bohua Ultra Hd Innovation Center Co ltd, Instritute Of Intelligent Video Audio Technology Longgang Shenzhen filed Critical Guangdong Bohua Ultra Hd Innovation Center Co ltd
Priority to CN202111543971.7A priority Critical patent/CN114202564A/zh
Publication of CN114202564A publication Critical patent/CN114202564A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

基于事件相机的高速目标的追踪方法及系统,利用事件相机数据采集模块对高速运动的目标进行图像采集;利用事件数据重建模块将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,如果由位置重复的,则用像素极性大的替换像素极性小的,最终组合形成新的事件图像;利用孪生网络模型,用于对目标进行图像特征提取。本发明方法和系统可以对不易处理的事件数据进行重建处理;以及利用目标追踪技术对事件相机捕捉的高速目标进行有效追踪。

Description

一种基于事件相机的高速目标追踪的方法及系统
技术领域
本发明属于人工智能领域,特别涉及一种基于事件相机的高速目标追踪的方法及系统。
背景技术
事件相机又被成为动态视觉传感器,它是一种受生物启发的新型传感器,与传统的相机不同,事件相机是通过更新异步独立的事件像素来捕捉信息的,这些像素信息会被光照变化所激活。由于事件相机没有全局快门,不需要进行在一定的时间内进行曝光来获取信息。所以事件相机可以捕捉到高速远动的目标。而普通的相机对于高速运动的目标会产生严重的运动模糊。
目标追踪是一种利用智能算法对视频中的目标进行连续追踪的技术,一般而言,目标追踪算法输入的沿着时间轴的图像帧序列,目标追踪方法根据被追踪目标的特征连续输出每一帧中目标所在的位置,用来实现对目标的持续追踪。
事件相机虽然能够有效地捕捉运动目标,然后由于事件相机的像素是独立异步分布的,跟传统的图像帧有很大的差异。目前传统的人工智能处理技术不能完全适应这种数据形式。
解决以上问题及缺陷的难度为:需要解决传统相机无法有效进行高速目标捕捉以及事件相机数据和人工智能算法相互结合的多个问题,解决难度较大。
解决以上问题及缺陷的意义为:提供了一种新型的高速目标追踪的方法及系统,克服传统相机在获取高速目标面临的运动模糊的问题,使得算法能够进行有效的目标追踪,对无人驾驶、无人机等应用场景提供解决方案。
发明内容
本发明方法的目的是提供一种基于事件相机的高速目标的追踪方法及系统,主要利用事件相机对高速运动的目标进行捕捉,并对事件相机的原始数据进行处理,使得可以利用目标追踪技术对事件相机获取的高速运动的目标进行持续的追踪。因此,本发明主要解决了两个问题:对不易处理的事件数据进行重建处理;以及利用目标追踪技术对事件相机捕捉的高速目标进行有效追踪。
本发明的技术方案如下:
根据本发明的一方面,提供了一种基于事件相机的高速目标追踪的方法,包括以下步骤:S1.获取事件相机数据:利用事件相机获取高速运动的场景中实时录取的事件相机数据;S2.生成数据包:将分散的事件相机数据进行打包处理;S3.数据包传输:将打包好的数据进行传输,并对传输后的数据进解包,然后将解包的数据输入步骤S4中以进行事件相机数据重建;S4.事件相机数据重建:将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,最终组合形成新的事件图像;S5.第一帧判断:对图像帧是否是第一帧图像进行判断,如果是第一帧图像,则输入到步骤S6中进行目标初始化处理,如果不是第一帧,则将其输入到步骤S8进行处理;S6.初始化目标:对目标进行初始化操作,在事件帧中选定需要追踪的目标并输入到步骤S7中;S7.提取目标图像特征:利用训练好的孪生网络模型对目标进行图像特征提取,提取的目标图像特征输入到步骤S9中进行特征对比;S8.提取搜索图像特征:如果非第一帧的图像输入到步骤S8中,并对搜索的图像提取特征,并将特征输入到步骤S9中进行对比;S9.孪生对比:将步骤S7和步骤S8中获取到的目标图像特征和搜索图像特征在孪生网络模型中进行融合比对;以及S10.输出结果:将比对的结果进行输出,并持续获取数据进行不断追踪直到追踪退出。
优选的,在上述基于事件相机的高速目标追踪的方法中,在步骤S1中,利用事件相机对高速运动的目标场景进行数据采集,对于场景中变化,利用事件相机中的每个事件像素进行记录,对于每个事件像素,均由四个值组成:两个位置信息,一个极性大小的信息,一个时间信息。
优选的,在上述基于事件相机的高速目标追踪的方法中,在步骤S2中,将每个事件相机的四个数据组成一个数据包。
优选的,在上述基于事件相机的高速目标追踪的方法中,在步骤S4中,在将这些组合按照其位置信息进行排列中,如果由位置重复的,则用像素极性大的替换像素极性小的,其中,新的事件图像是和事件相机分辨率大小一致的空间图像,比单个像素包含了更多的空间结构信息。
优选的,在上述基于事件相机的高速目标追踪的方法中,在步骤S6中,选定需要追踪的目标包括目标的位置信息和尺寸大小信息。
优选的,在上述基于事件相机的高速目标追踪的方法中,在步骤S7中,孪生网络包括相同权重的第一网络和第二网络,第一网络的输入为选定需要追踪目标的图像,并对图像进行目标特征提取,第二网络的输入为需要搜索的区域图像,并输出该图像的特征;最后将特征融合后进行结果输出。
优选的,在上述基于事件相机的高速目标追踪的方法中,在步骤S7中,对于孪生网络的训练和应用过程,首先从标注好的目标图像和搜索空间进行特征提取,将提取好的特征空间映射到一个较高维度的空间,然后计算它们之间的距离,它们之间的距离与标注的真实值的差异,用来计算训练时的损失函数;而应用过程则是通过计算输出特征之间的距离,并根据距离来判断是否搜索到合适的目标。
根据本发明的另一方面,提供了一种基于事件相机的高速目标的追踪系统,其特征在于,包括:事件相机数据采集模块、事件数据重建模块和孪生网络模型,其中:事件相机数据采集模块:用于对高速运动的目标进行图像采集;事件数据重建模块,用于将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,如果由位置重复的,则用像素极性大的替换像素极性小的,最终组合形成新的事件图像;孪生网络模型,用于对目标进行图像特征提取。
优选的,在上述基于事件相机的高速目标的追踪系统中,事件相机采集模块由两部分组成,数据采集子模块和数据传输子模块,其中,数据采集模块,用于利用事件相机对高速运动的目标场景进行数据采集,对于场景中变化,利用事件相机中的每个像素进行记录,对于每个事件像素,均由四个值组成:两个位置信息,一个极性大小的信息,一个时间信息;其中数据传输子模块,用于在传输过程中,将每个事件相机的四个数据组成一个数据包进行整体传输,将事件相机采集到的数据按照数据包的形式逐个传递出去。
根据本发明的技术方案,产生的有益效果是:
本发明可以对高速运动目标进行追踪,对于高速运动的目标来说,已有的普通相机已经无法进行清晰的捕捉,因为当普通相机的帧率低于运动目标的速度的时候,普通相机获取到的图像会产生严重的运动模糊。针对普通相机无法对高速目标进行获取追踪的缺陷,本发明提出了利用事件相机进行高速目标追踪的方法,弥补了在高速运动场景下对目标进行有效追踪的缺陷,有效地实现了高速运动场景下目标追踪的这一任务。
本发明在处理这种类型的数据时,将事件数据转换成当前技术可以处理的模式,通过利用事件相机对高速目标的捕捉,并利用深度学习技术对高速运动和目标进行提升,可以有效对在高速运动的目标进行追踪
为了更好地理解和说明本发明的构思、工作原理和发明效果,下面结合附图,通过具体实施例,对本发明进行详细说明如下:
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。
图1是本发明的基于事件相机的高速目标追踪的方法的流程图;
图2是本发明的孪生网络架构图;
图3为传统相机获取高速运动的图像和本发明方法获取清晰的车辆信息的图像对比图。
具体实施方式
为使本发明的目的、技术方法及优点更加清晰,下面结合附图及具体实例,对本发明做进一步的详细说明。这些实例仅仅是说明性的,而并非对本发明的限制。
本发明方法提供一种可以对高速运动目标进行追踪的一种方法,对于高速运动的目标来说,已有的普通相机已经无法对它们信息进行获取。具体地是采用事件相机来获取高速运动的目标信息,并对离散异步的事件相机数据进行重建处理,使得事件数据能够有效地应用于目标追踪,然后,我们采用孪生网络的方法对事件数据内的运动目标进行有效地追踪。
本发明的原理是:
本发明首先利用事件相机获取高速运动场景的数据,然后对于场景中的离散的事件数据进行有效地重建,使得重建后的事件数据具有图像的特性,随后利用改进的目标追踪算法对高速运动场景中的目标进行的追踪,由此实现一种普通相机无法完成的高速运动目标追踪算法。
本发明方法提出一种针对事件相机进行高速目标进行追踪的,通过利用事件相机对运动场景的优势获取高速运动场景的数据,对事件相机数据进行有效的重建,使得目标追踪算法可以有效的应用在事件数据上,利用训练好的孪生网络对重建后的事件数据进行特征提取,通过特征比对有效的追踪到高速运动的目标。具体实施步骤如下:
S1.获取事件相机数据:利用事件相机获取高速运动的场景中实时录取的事件相机数据。在该步骤中,利用事件相机对高速运动的目标场景进行数据采集,对于场景中变化,利用事件相机中的每个像素进行记录,对于每个事件像素,均由四个值组成:两个位置信息,一个极性大小的信息,一个时间信息。
S2.生成数据包:将分散的事件相机数据进行打包处理。具体地,将每个事件相机的四个数据组成一个数据包。
S3.数据包传输:将打包好的数据进行传输,并对传输后的数据进解包,然后将解包的数据输入步骤S4中以进行事件相机数据重建。在传输过程中,将每个事件相机的四个数据组成一个数据包进行整体传输,将事件相机采集到的数据按照数据包的形式逐个传递出去。
S4.事件相机数据重建:将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,如果由位置重复的,则用像素极性大的替换像素极性小的,最终组合形成新的事件图像,并将事件图像输入到步骤S5,其中,新的事件图像是和事件相机分辨率大小一致的空间图像,比单个像素包含了更多的空间结构信息。由于事件相机数据是离散异步的数据,无法包含完整的目标空间特征,不能进一步进行后续的运算,该步骤中的事件相机数据重建方法可以将多个单一的事件像素组成一幅完整的事件图像。
S5.第一帧判断:对图像帧是否是第一帧图像进行判断,如果是第一帧图像,则输入到步骤S6中进行目标初始化处理,如果不是第一帧,则将其输入到步骤S8进行处理。
S6.初始化目标:对目标进行初始化操作,即在事件帧中选定需要追踪的目标,选定的目标要有目标的位置信息和尺寸大小信息,将选定的初始化目标输入到步骤S7中。
S7.提取目标图像特征:利用训练好的孪生网络模型对目标进行图像特征提取,提取的目标图像特征输入到步骤S9中进行特征对比。
其中,当获取到事件图像之后,就可以按照事件图像生成的先后顺序,将其逐个到输入到孪生网络模型中进行追踪。孪生网络是由一个共享权重信息的两个网络结构组成的,孪生网络的结构如图2所示,第一网络1和第二网络2是相同权重的网络,但它们的输入和输出是不同的,第一网络1的输入为选定需要追踪目标的图像(即,图2中的目标模板),并对该图像进行目标特征提取,第二网络2的输入为需要搜索的区域图像(即,图2中的搜索区域),并输出该图像的特征。最后将特征融合后进行结果输出,该输出可以确定在搜索图像中目标所在的位置。
孪生网络模型训练与应用:由于孪生网络由两个并行的分支组成,这会对模型的训练产生影响,在设计训练的损失函数的时候,必须考虑到不同网络分支对网络训练的影响。对于训练过程来说,首先从标注好的目标图像和搜索空间进行特征提取,将提取好的特征空间映射到一个较高维度的空间,然后计算它们之间的距离,它们之间的距离与标注的真实值的差异,用来计算训练时的损失函数;而应用过程则是通过计算输出特征之间的距离,并根据距离来判断是否搜索到合适的目标。
S8.提取搜索图像特征:如果非第一帧的图像输入到步骤S8中,并对搜索的图像提取特征,并将特征输入到步骤S9中进行对比。
S9.孪生对比:将步骤S7和步骤S8中获取到的目标图像特征和搜索图像特征在孪生网络模型中进行融合比对。
S10.输出结果:将比对的结果进行输出,并持续获取数据进行不断追踪直到追踪退出。
一种基于事件相机的高速目标的追踪系统,包括:事件相机数据采集模块、事件数据重建模块和孪生网络模型,其中:事件相机数据采集模块:用于对高速运动的目标进行图像采集,事件相机采集模块由两部分组成,数据采集子模块和数据传输子模块。其中,数据采集模块,用于利用事件相机对高速运动的目标场景进行数据采集,对于场景中变化,利用事件相机中的每个像素进行记录,对于每个事件像素,均由四个值组成:两个位置信息,一个极性大小的信息,一个时间信息。其中数据传输子模块,用于在传输过程中,将每个事件相机的四个数据组成一个数据包进行整体传输,将事件相机采集到的数据按照数据包的形式逐个传递出去。事件数据重建模块,用于将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,如果由位置重复的,则用像素极性大的替换像素极性小的,最终组合形成新的事件图像。孪生网络模型,用于对目标进行图像特征提取。
图3为传统相机获取高速运动的图像和本发明方法获取清晰的车辆信息的图像对比图。通过实现效果对比可知:左图的传统相机获取高速运动的图像,在高速传统相机会产生严重的运动模糊,导致无法进行目标追踪;右图本发明方法在高速场景下,经过可视化后获取清晰的车辆信息可以有效的进行目标追踪。
本发明方法和系统解决了在高速运动的场景中对目标进行有效追踪的问题,实现一种利用事件相机对高速运动目标的追踪方法,利用事件相机数据有效的重建策略解决了事件数据离散异步难于处理的问题,利用训练好的孪生网络对事件相机重建后的数据进行处理,实现在高速运动场景下的一种目标追踪方法。
以上说明是依据发明的构思和工作原理的最佳实施例。上述实施例不应理解为对本权利要求保护范围的限制,依照本发明构思的其他实施方式和实现方式的组合均属于本发明的保护范围。

Claims (9)

1.一种基于事件相机的高速目标追踪的方法,其特征在于,包括以下步骤:
S1.获取事件相机数据:利用事件相机获取高速运动的场景中实时录取的事件相机数据;
S2.生成数据包:将分散的事件相机数据进行打包处理;
S3.数据包传输:将打包好的数据进行传输,并对传输后的数据进解包,然后将解包的数据输入步骤S4中以进行事件相机数据重建;
S4.事件相机数据重建:将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,最终组合形成新的事件图像;
S5.第一帧判断:对图像帧是否是第一帧图像进行判断,如果是第一帧图像,则输入到步骤S6中进行目标初始化处理,如果不是第一帧,则将其输入到步骤S8进行处理;
S6.初始化目标:对目标进行初始化操作,在事件帧中选定需要追踪的目标并输入到步骤S7中;
S7.提取目标图像特征:利用训练好的孪生网络模型对目标进行图像特征提取,提取的目标图像特征输入到步骤S9中进行特征对比;
S8.提取搜索图像特征:如果非第一帧的图像输入到步骤S8中,并对搜索的图像提取特征,并将特征输入到步骤S9中进行对比;
S9.孪生对比:将步骤S7和步骤S8中获取到的目标图像特征和搜索图像特征在孪生网络模型中进行融合比对;以及
S10.输出结果:将比对的结果进行输出,并持续获取数据进行不断追踪直到追踪退出。
2.根据权利要求1所述的基于事件相机的高速目标追踪的方法,其特征在于,在步骤S1中,利用所述事件相机对高速运动的目标场景进行数据采集,对于场景中变化,利用所述事件相机中的每个事件像素进行记录,对于所述每个事件像素,均由四个值组成:两个位置信息,一个极性大小的信息,一个时间信息。
3.根据权利要求1所述的基于事件相机的高速目标追踪的方法,其特征在于,在步骤S2中,将每个事件相机的四个数据组成一个数据包。
4.根据权利要求1所述的基于事件相机的高速目标追踪的方法,其特征在于,在步骤S4中,在将这些组合按照其位置信息进行排列中,如果由位置重复的,则用像素极性大的替换像素极性小的,其中,所述新的事件图像是和事件相机分辨率大小一致的空间图像,比单个像素包含了更多的空间结构信息。
5.根据权利要求1所述的基于事件相机的高速目标追踪的方法,其特征在于,在步骤S6中,所述选定需要追踪的目标包括目标的位置信息和尺寸大小信息。
6.根据权利要求1所述的基于事件相机的高速目标追踪的方法,其特征在于,在步骤S7中,所述孪生网络包括相同权重的第一网络和第二网络,所述第一网络的输入为选定需要追踪目标的图像,并对所述图像进行目标特征提取,所述第二网络的输入为需要搜索的区域图像,并输出该图像的特征;最后将特征融合后进行结果输出。
7.根据权利要求1所述的基于事件相机的高速目标追踪的方法,其特征在于,在步骤S7中,对于所述孪生网络的训练和应用过程,首先从标注好的目标图像和搜索空间进行特征提取,将提取好的特征空间映射到一个较高维度的空间,然后计算它们之间的距离,它们之间的距离与标注的真实值的差异,用来计算训练时的损失函数;而应用过程则是通过计算输出特征之间的距离,并根据距离来判断是否搜索到合适的目标。
8.一种基于事件相机的高速目标的追踪系统,其特征在于,包括:事件相机数据采集模块、事件数据重建模块和孪生网络模型,其中:
所述事件相机数据采集模块:用于对高速运动的目标进行图像采集;
事件数据重建模块,用于将一定数量的事件像素的组合,并将这些组合按照其位置信息进行排列,如果由位置重复的,则用像素极性大的替换像素极性小的,最终组合形成新的事件图像;
孪生网络模型,用于对目标进行图像特征提取。
9.根据权利要求8所述的基于事件相机的高速目标的追踪系统,其特征在于,所述事件相机采集模块由两部分组成,数据采集子模块和数据传输子模块,其中,所述数据采集模块,用于利用事件相机对高速运动的目标场景进行数据采集,对于场景中变化,利用事件相机中的每个像素进行记录,对于每个事件像素,均由四个值组成:两个位置信息,一个极性大小的信息,一个时间信息;其中数据传输子模块,用于在传输过程中,将每个事件相机的四个数据组成一个数据包进行整体传输,将事件相机采集到的数据按照数据包的形式逐个传递出去。
CN202111543971.7A 2021-12-16 2021-12-16 一种基于事件相机的高速目标追踪的方法及系统 Pending CN114202564A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111543971.7A CN114202564A (zh) 2021-12-16 2021-12-16 一种基于事件相机的高速目标追踪的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111543971.7A CN114202564A (zh) 2021-12-16 2021-12-16 一种基于事件相机的高速目标追踪的方法及系统

Publications (1)

Publication Number Publication Date
CN114202564A true CN114202564A (zh) 2022-03-18

Family

ID=80654572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111543971.7A Pending CN114202564A (zh) 2021-12-16 2021-12-16 一种基于事件相机的高速目标追踪的方法及系统

Country Status (1)

Country Link
CN (1) CN114202564A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023193670A1 (zh) * 2022-04-07 2023-10-12 之江实验室 基于事件相机的脉冲神经网络目标跟踪方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023193670A1 (zh) * 2022-04-07 2023-10-12 之江实验室 基于事件相机的脉冲神经网络目标跟踪方法及系统

Similar Documents

Publication Publication Date Title
Poggi et al. On the synergies between machine learning and binocular stereo for depth estimation from images: a survey
Hidalgo-Carrió et al. Learning monocular dense depth from events
Zhao et al. Learning to forecast and refine residual motion for image-to-video generation
Jiang et al. Self-supervised relative depth learning for urban scene understanding
Li et al. End-to-end united video dehazing and detection
Zhang et al. Learning to restore hazy video: A new real-world dataset and a new method
Hu et al. Optical flow estimation for spiking camera
Zhang et al. Spike transformer: Monocular depth estimation for spiking camera
Ramirez et al. Exploiting semantics in adversarial training for image-level domain adaptation
CN112686928A (zh) 一种基于多源信息融合的运动目标视觉跟踪方法
CN113808047B (zh) 一种人体运动捕捉数据去噪方法
Deng et al. Learning from images: A distillation learning framework for event cameras
Gurram et al. Monocular depth estimation by learning from heterogeneous datasets
Wang et al. Multi-frame to single-frame: Knowledge distillation for 3d object detection
Wang et al. Joint framework for single image reconstruction and super-resolution with an event camera
Zhang et al. Online adaptation through meta-learning for stereo depth estimation
CN114202564A (zh) 一种基于事件相机的高速目标追踪的方法及系统
Lo et al. Learning feature decomposition for domain adaptive monocular depth estimation
Jia et al. Event-based semantic segmentation with posterior attention
CN114494050A (zh) 一种基于事件相机的自监督视频去模糊和图像插帧方法
Zhang et al. Video extrapolation in space and time
CN112967317B (zh) 一种动态环境下基于卷积神经网络架构的视觉里程计方法
CN115100218A (zh) 基于深度学习的视频一致性融合方法
Zhang et al. GlocalFuse-Depth: Fusing transformers and CNNs for all-day self-supervised monocular depth estimation
Zhang et al. Unsupervised learning of depth estimation based on attention model from monocular images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination