CN113572998B - 一种基于事件相机的数据集采集方法及系统 - Google Patents

一种基于事件相机的数据集采集方法及系统 Download PDF

Info

Publication number
CN113572998B
CN113572998B CN202111102878.2A CN202111102878A CN113572998B CN 113572998 B CN113572998 B CN 113572998B CN 202111102878 A CN202111102878 A CN 202111102878A CN 113572998 B CN113572998 B CN 113572998B
Authority
CN
China
Prior art keywords
data
csv format
event
column
event camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111102878.2A
Other languages
English (en)
Other versions
CN113572998A (zh
Inventor
包文笛
杨立仁
胡蝶
曾一诺
杨宗林
陶丽颖
乔树山
周玉梅
尚德龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Nanjing Intelligent Technology Research Institute
Original Assignee
Zhongke Nanjing Intelligent Technology Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongke Nanjing Intelligent Technology Research Institute filed Critical Zhongke Nanjing Intelligent Technology Research Institute
Priority to CN202111102878.2A priority Critical patent/CN113572998B/zh
Publication of CN113572998A publication Critical patent/CN113572998A/zh
Application granted granted Critical
Publication of CN113572998B publication Critical patent/CN113572998B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明涉及一种基于事件相机的数据集采集方法及系统,该方法包括:将采用事件相机采集的视频数据通过屏幕显示;在屏幕上截取相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集;将视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据;对csv格式数据中每隔第二设定时间进行一次事件累计,并将事件累计次数超过设定阈值对应第二设定时间内的csv格式数据生成图片;根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。本发明降低数据集中数据的冗余同时降低数据集中数据的复杂度。

Description

一种基于事件相机的数据集采集方法及系统
技术领域
本发明涉及数据采集领域,特别是涉及一种基于事件相机的数据集采集方法及系统。
背景技术
目前,现有数据集大多是使用帧相机采集的视频或图片,数据处理量较大,运算需要的时间较长,且无用处的背景也会被采集,浪费了存储空间。现有的数据集往往是为卷积神经网络准备的,数据本身比较复杂,通常需要经过脉冲编码之后才能输入脉冲神经网络。
发明内容
本发明的目的是提供一种基于事件相机的数据集采集方法及系统,降低数据集中数据的冗余同时降低数据集中数据的复杂度。
为实现上述目的,本发明提供了如下方案:
一种基于事件相机的数据集采集方法,包括:
采用事件相机对运动的物体以视频录制的方式进行数据采集;
将采用事件相机采集的视频数据通过屏幕显示;
在所述屏幕上截取多个相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集;
将所述视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据,所述csv格式数据为事件数据;所述csv格式数据包括四列,第一列和第二列为事件发生的位置坐标,第三列为事件的变化值,第四列为事件发生的时刻;
对所述csv格式数据中事件的变化值每隔第二设定时间进行一次累加,并将累加值超过设定阈值时对应的第二设定时间内的csv格式数据生成图片;
根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。
可选地,所述第一设定时间为2-3秒。
可选地,所述第二设定时间为1ms。
可选地,将数据集中每个样本中csv格式数据的第四列对应修改为0-999。
可选地,所述对所述csv格式文件中每隔第二设定时间进行一次事件累计,并将事件累计次数超过设定阈值对应第二设定时间内的csv格式数据生成图片之后,具体包括:
将生成的图片对应的csv格式数据中位置坐标转换为以所述屏幕左上角为原点的位置坐标。
本发明公开了一种基于事件相机的数据集采集系统,包括:
视频录制模块,用于采用事件相机对运动的物体以视频录制的方式进行数据采集;
屏幕显示模块,用于将采用事件相机采集的视频数据通过屏幕显示;
视频数据集构成模块,用于在所述屏幕上截取多个相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集;
格式转换模块,用于将所述视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据,csv格式数据为事件数据;所述csv格式数据包括四列,第一列和第二列为事件发生的位置坐标,第三列为事件的变化值,第四列为事件发生的时刻;
图片生成模块,用于对所述csv格式数据中事件的变化值每隔第二设定时间进行一次累加,并将累加值超过设定阈值时对应的第二设定时间内的csv格式数据生成图片;
数据集确定模块,用于根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。
可选地,所述第一设定时间为2-3秒。
可选地,所述第二设定时间为1ms。
可选地,将数据集中每个样本中csv格式数据的第四列对应修改为0-999。
可选地,还包括:
坐标转换模块,用于将生成的图片对应的csv格式数据中位置坐标转换为以所述屏幕左上角为原点的位置坐标。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明采用事件相机采集视频数据,并将事件累计次数超过设定值对应的时间段内的csv格式数据生成图片,并对生成的图片进行筛选,将筛选后的图片对应的csv格式数据作为样本数据,减少输出数据的冗余同时降低数据的复杂度,大大减少后续样本筛选和数据集制作的工作量,进而大幅减少时间和人力成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种基于事件相机的数据集采集方法流程示意图;
图2为本发明实施例计算机屏幕显示示意图;
图3为本发明实施例生成的图片示意图;
图4为本发明一种基于事件相机的数据集采集系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于事件相机的数据集采集方法及系统,降低数据集中数据的冗余同时降低数据集中数据的复杂度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明一种基于事件相机的数据集采集方法流程示意图,如图1所示,一种基于事件相机的数据集采集方法,包括以下步骤:
步骤101:采用事件相机对运动的物体以视频录制的方式进行数据采集。
步骤102:将采用事件相机采集的视频数据通过屏幕显示。
步骤103:在屏幕上截取多个相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集。
步骤104:将视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据,csv格式数据为事件数据;csv格式数据包括四列,第一列和第二列为事件发生的位置坐标,第三列为事件的变化值,第四列为事件发生的时刻。
事件为脉冲事件。
步骤105:对csv格式数据中事件的变化值每隔第二设定时间进行一次累加,并将累加值超过设定阈值时对应的第二设定时间内的csv格式数据生成图片。
步骤106:根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。
其中,步骤106中根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,具体包括:当生成的图片中背景噪点的数量大于前景图片的像素点数量时,将该生成的图片删除,获得筛选后的图片。
第一设定时间为2-3秒。
第二设定时间为1ms。
将数据集中每个样本中csv格式数据的第四列对应修改为0-999。
其中,步骤105之后,具体包括:
将生成的图片对应的csv格式数据中位置坐标转换为以屏幕左上角为原点的位置坐标。
下面以具体实施例说明本发明一种基于事件相机的数据集采集方法。
本实施例采集数据集的目的是为完成高速运动物体的目标识别和检测。利用高速旋转的扇叶,模拟高速运动的物体,用事件相机记录采集的数据,并进行数据的处理和筛选。数据集包含26个英文大写字母,每个字母包含1000组数据,每组数据为1ms内脉冲变化情况。以下是数据集制作过程:
Step1:选择26个英文大写字母的字体为微软雅黑,字号为240,选取黑底白字以减少干扰,将26个字母进行打印,为配合风扇扇叶数量,每个字母打印5张。
Step2:将打印字母粘贴在高速旋转的风扇扇叶上,用于模拟高速运动的物体,风扇转速为1600转每分钟。
Step3:利用Prophesee事件相机,通过视频录制的方式进行字母数据集的采集。事件相机的原理不同于普通相机,它记录的是由于事物运动而产生的明暗变化。
Step4:在计算机屏幕上截取合适的尺寸:将扇面等分为12个区域,每个区域取一个尺寸相同的框,对框内进行视频采集,每个区域采集时长为2-3秒。计算机屏幕上显示的图像如图2所示。
Step5:采集的视频格式为raw格式。采集完毕后,将raw格式转化为所需的csv格式。csv文件一共包含四列,前两列为该事件发生的位置坐标,坐标原点(0,0)为完整屏幕中的左上角像素点。第三列是明暗变化(事件的变化值),由明到暗为0,由暗到明为1。第四列为事件发生的时刻t。
Step6:将csv格式的文件中存储的事件进行累积,每隔1000个时间步,即1ms,累积一次。将数据坐标进行变换,将数据坐标转移到左上角的区域,横纵坐标范围均为[0,128),从而形成新的csv文件,并生成对应图片,便于之后筛选数据。此外,还对1ms时长内的事件发生次数设定了阈值,具体阈值根据字母本身确定,超过阈值,才会生成文件和图片,以筛去部分无意义的数据。
Step7:对由csv文件经过Step6之后生成的图片进行筛选。如图3所示,仅保留图3中(b)和图3中(e)中所示字母图示,将其他图示(图3中(a)、图3中(c)、图3中(d)和图3中(f))所对应的csv文件删除,保留质量较高的数据,用于后续训练。
Step8:将最终选取的csv文件的最后一列,即表1中所示D列(第四列),对时间步长进行重写,更改为0-999的区间,例如表1的第一行7227978改为0,7227979改为1,依此类推,直到最后一行应为7228977,改为999,生成的新csv文件即为数据集所需的数据。
表1 csv文件的最后一列
Figure DEST_PATH_IMAGE002
Step9:该数据集可应用于利用脉冲神经网络进行目标识别的工作,该csv文件的输出为脉冲格式,对脉冲神经网络的适配度更高,不需要再进行神经编码,从而提高网络运算效率,减少运算时长,以及未来达成实时识别的目标。
在本实施例中,使用了事件相机来拍摄粘贴在高速旋转风扇扇叶上的字母。由于事件相机具有能够采集事件脉冲的特性,因此比起传统相机更加适用于高速运动目标检测的场景。具体地,在Step3数据采集阶段,事件相机记录的是其内部感光器件上光强的变化,即只有光强发生变化并达到一定阈值时才会产生脉冲信号并被记录,这个阈值和事件相机的灵敏度有关,是它的一个内部参数。此外,根据光强变化的方向,记录值分为1或0两种情况:光强增大,即由暗变亮记为1;光强减小,即由亮变暗记为0(如Step3所描述)。
之后,再将得到的事件脉冲在一定时间步长内累积成图像,即Step6中生成对应的图片,这一步的目的是使能够直观地看到采集到的数据,为后续的数据筛选工作提供便利。具体地,在Step6中,分别判断每一个像素点在这1000个时间步,即1ms内是否有事件脉冲产生。如果有,则将这一点的像素值置为1;如果没有,则将这一点的像素值置为0。将每1ms内所有的脉冲事件累积成一张图片。
另外,在输出图像前设置相应的阈值,能够减少输出数据的冗余,可以大大减少后续样本筛选和数据集制作的工作量,进而大幅减少时间和人力成本。具体地,在Step6中,在图像输出前设置了一个阈值,即只有当累积事件脉冲数大于这个阈值时才会输出图像。这样做可以避免输出无效的数据,只输出捕捉到高速运动目标的图像,方便后续样本的筛选和数据集的制作。
图4为本发明一种基于事件相机的数据集采集系统结构示意图,如图4所示,一种基于事件相机的数据集采集系统,包括:
视频录制模块201,用于采用事件相机对运动的物体以视频录制的方式进行数据采集。
屏幕显示模块202,用于将采用事件相机采集的视频数据通过屏幕显示。
视频数据集构成模块203,用于在屏幕上截取多个相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集。
格式转换模块204,用于将视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据,所述csv格式数据为事件数据;csv格式数据包括四列,第一列和第二列为事件发生的位置坐标,第三列为事件的变化值,第四列为事件发生的时刻。
图片生成模块205,用于对csv格式数据中事件的变化值每隔第二设定时间进行一次累加,并将累加值超过设定阈值时对应的第二设定时间内的csv格式数据生成图片。
数据集确定模块206,用于根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。
第一设定时间为2-3秒。
第二设定时间为1ms。
将数据集中每个样本中csv格式数据的第四列对应修改为0-999。
一种基于事件相机的数据集采集系统还包括:坐标转换模块,用于将生成的图片对应的csv格式数据中位置坐标转换为以屏幕左上角为原点的位置坐标。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于事件相机的数据集采集方法,其特征在于,包括:
采用事件相机对运动的物体以视频录制的方式进行数据采集;
将采用事件相机采集的视频数据通过屏幕显示;
在所述屏幕上截取多个相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集;
将所述视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据,所述csv格式数据为事件数据;所述csv格式数据包括四列,第一列和第二列为事件发生的位置坐标,第三列为事件的变化值,第四列为事件发生的时刻;
对所述csv格式数据中事件的变化值每隔第二设定时间进行一次累加,并将累加值超过设定阈值时对应的第二设定时间内的csv格式数据生成图片;
根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。
2.根据权利要求1所述的基于事件相机的数据集采集方法,其特征在于,所述第一设定时间为2-3秒。
3.根据权利要求1所述的基于事件相机的数据集采集方法,其特征在于,所述第二设定时间为1ms。
4.根据权利要求3所述的基于事件相机的数据集采集方法,其特征在于,将数据集中每个样本中csv格式数据的第四列对应修改为0-999。
5.根据权利要求1所述的基于事件相机的数据集采集方法,其特征在于,所述对所述csv格式文件中每隔第二设定时间进行一次事件累计,并将事件累计次数超过设定阈值对应第二设定时间内的csv格式数据生成图片之后,具体包括:
将生成的图片对应的csv格式数据中位置坐标转换为以所述屏幕左上角为原点的位置坐标。
6.一种基于事件相机的数据集采集系统,其特征在于,包括:
视频录制模块,用于采用事件相机对运动的物体以视频录制的方式进行数据采集;
屏幕显示模块,用于将采用事件相机采集的视频数据通过屏幕显示;
视频数据集构成模块,用于在所述屏幕上截取多个相同大小的区域,对各区域采集第一设定时间内的视频数据,构成视频数据集;
格式转换模块,用于将所述视频数据集中各区域对应的视频数据均转换为csv格式,获得各区域对应的csv格式数据,所述csv格式数据为事件数据;所述csv格式数据包括四列,第一列和第二列为事件发生的位置坐标,第三列为事件的变化值,第四列为事件发生的时刻;
图片生成模块,用于对所述csv格式数据中事件的变化值每隔第二设定时间进行一次累加,并将累加值超过设定阈值时对应的第二设定时间内的csv格式数据生成图片;
数据集确定模块,用于根据生成的图片中背景噪点的数量对生成的图片进行筛选,获得筛选后的图片,每张筛选后的图片对应的csv格式数据作为一个样本,多个样本构成数据集。
7.根据权利要求6所述的基于事件相机的数据集采集系统,其特征在于,所述第一设定时间为2-3秒。
8.根据权利要求6所述的基于事件相机的数据集采集系统,其特征在于,所述第二设定时间为1ms。
9.根据权利要求8所述的基于事件相机的数据集采集系统,其特征在于,将数据集中每个样本中csv格式数据的第四列对应修改为0-999。
10.根据权利要求6所述的基于事件相机的数据集采集系统,其特征在于,还包括:
坐标转换模块,用于将生成的图片对应的csv格式数据中位置坐标转换为以所述屏幕左上角为原点的位置坐标。
CN202111102878.2A 2021-09-22 2021-09-22 一种基于事件相机的数据集采集方法及系统 Active CN113572998B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111102878.2A CN113572998B (zh) 2021-09-22 2021-09-22 一种基于事件相机的数据集采集方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111102878.2A CN113572998B (zh) 2021-09-22 2021-09-22 一种基于事件相机的数据集采集方法及系统

Publications (2)

Publication Number Publication Date
CN113572998A CN113572998A (zh) 2021-10-29
CN113572998B true CN113572998B (zh) 2021-12-28

Family

ID=78173836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111102878.2A Active CN113572998B (zh) 2021-09-22 2021-09-22 一种基于事件相机的数据集采集方法及系统

Country Status (1)

Country Link
CN (1) CN113572998B (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786164B2 (en) * 2008-05-23 2017-10-10 Leverage Information Systems, Inc. Automated camera response in a surveillance architecture
US20120147192A1 (en) * 2009-09-01 2012-06-14 Demaher Industrial Cameras Pty Limited Video camera system
US10719717B2 (en) * 2015-03-23 2020-07-21 Micro Focus Llc Scan face of video feed
CN115052141B (zh) * 2017-09-28 2023-10-03 苹果公司 用于事件相机数据处理的系统和方法
CN110399908B (zh) * 2019-07-04 2021-06-08 西北工业大学 基于事件型相机的分类方法和装置、存储介质、电子装置
CN111582300A (zh) * 2020-03-20 2020-08-25 北京航空航天大学 一种基于事件相机的高动态目标检测方法
CN112487874B (zh) * 2020-11-11 2023-10-13 中电海康集团有限公司 一种基于事件相机消除背景噪声的方法及系统

Also Published As

Publication number Publication date
CN113572998A (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
CN111191576B (zh) 人员行为目标检测模型构建方法、智能分析方法及系统
CN110633610B (zh) 一种基于yolo的学员状态检测方法
EP2608529B1 (en) Camera and method for optimizing the exposure of an image frame in a sequence of image frames capturing a scene based on level of motion in the scene
CN105930822A (zh) 一种人脸抓拍方法及系统
US10937132B2 (en) Spike signal-based display method and system
EP2549738A1 (en) Method and camera for determining an image adjustment parameter
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
CN110191320A (zh) 基于像素时序运动分析的视频抖动与冻结检测方法及装置
CN104200457A (zh) 基于广角摄像的离散型冠层叶面积指数检测系统和方法
CN106303333A (zh) 音视频录制方法及装置
CN114169362A (zh) 一种基于时空相关滤波的事件流数据去噪方法
CN110414558A (zh) 基于事件相机的特征点匹配方法
CN110505397B (zh) 相机选择的方法、装置及计算机存储介质
CN110503092B (zh) 基于领域适应的改进ssd监控视频目标检测方法
CN113572998B (zh) 一种基于事件相机的数据集采集方法及系统
CN103795927A (zh) 一种拍照方法及系统
CN112183235A (zh) 针对运动场所进行视频采集的自动控制方法
CN110705499B (zh) 一种基于迁移学习的人群计数方法
WO2020063688A1 (zh) 视频场景变化的检测方法、装置及视频采集设备
CN107403192B (zh) 一种基于多分类器的快速目标检测方法及系统
CN114286024B (zh) 基于动态视觉传感器的光学偏振信息模型构建方法及装置
CN112637496B (zh) 图像矫正方法及装置
CN114049317A (zh) 一种基于人工智能的ccd设备自动化检验系统及方法
CN111951312A (zh) 图像配准、图像采集时间配准方法、装置、设备及介质
CN113705577A (zh) 一种基于深度学习的车牌识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant