CN109948725B - 基于地址-事件表达的神经网络目标检测装置 - Google Patents
基于地址-事件表达的神经网络目标检测装置 Download PDFInfo
- Publication number
- CN109948725B CN109948725B CN201910242354.XA CN201910242354A CN109948725B CN 109948725 B CN109948725 B CN 109948725B CN 201910242354 A CN201910242354 A CN 201910242354A CN 109948725 B CN109948725 B CN 109948725B
- Authority
- CN
- China
- Prior art keywords
- event
- neural network
- region
- address
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于地址‑事件表达的神经网络目标检测装置,该装置包括:区域提取框架用于基于地址‑事件表达进行区域提取,以得到敏感区域内的图像;识别结构框架用于根据敏感区域内的图像通过事件指向性卷积神经网络进行分类识别,以得到特征识别结果;事件驱动下的特征区域感知框架用于根据事件驱动下的特征区域感知算法和特征识别结果通过聚类算法和连通性分析消除噪音,以获取最终特征敏感区域结果。该装置简单且容易实现,能够兼顾卷积神经网络在图像识别率方面的优势的同时,也能充分发挥地址‑事件表达传传输的低延时、低冗余以及高精度的特点,极大减少候选区域提取的重复性操作,极大地压缩数据量并提高了检测速度。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种基于地址-事件表达的神经网络目标检测装置。
背景技术
在图像识别领域的目标检测任务中,采用卷积神经网络进行图像定位和识别已经能达到相当不俗的识别率,但其在检测速度依然存在较大的瓶颈,一直无法充分满足在实时系统探测或实时嵌入式系统中的应用。
一方面,在图像处理领域评估速度的常用指标是每秒帧率(Frame Per Second,FPS),即每秒内可以处理的图片数量,处理图片的思维仍然囿于帧图像的概念;另一方面,基于卷积神经网络的目标检测算法,不论是Faster-RCNN(目标检测框架)还是SSD(Single-Shot MultiBox Detector,实时物体检测框架),哪怕是以聚类中心生成锚框的YOLO(Youonly look once,物体探测装置),算法生成的锚框仍然有大量是相互重叠的,从而导致仍然有大量的区域被重复计算,算法本身进一步制约了其检测速度。
有鉴于此,如何既能够发挥卷积神经网络在保证图像识别率方面的优势,同时也能发挥地址-事件在提取特征区域方面低延时和低冗余的优势实现高速运动信息特征提取和目标检测,亟待解决。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的目的在于提出一种基于地址-事件表达的神经网络目标检测装置,该装置可以快速部署到不同的实际工程应用中,可以在任何需要识别定位高速运动物体的相关工程项目中,实现在高速运动过程中移动物体的定位与识别。
为达到上述目的,本发明提出了基于地址-事件表达的神经网络目标检测装置,包括以下步骤:区域提取框架用于基于地址-事件表达进行区域提取,以得到敏感区域内的图像;识别结构框架用于根据所述敏感区域内的图像通过事件指向性卷积神经网络进行分类识别,以得到特征识别结果;事件驱动下的特征区域感知框架用于根据事件驱动下的特征区域感知算法和所述特征识别结果通过聚类算法和连通性分析消除噪音,以获取最终特征敏感区域结果。
本发明实施例的基于地址-事件表达的神经网络目标检测装置,一方面避免了在传统帧图像处理中高延迟、高冗余、大噪声、大数据量和低动态范围等缺陷,另一方面删减了当今在基于卷积神经网络的目标检测中对于生成多个候选区域的冗余操作,极大地提高了检测速度,并可以利用事件和帧到达的时间差进而提高并行度,可以应用于对高速时变信息进行特征提取和目标检测等领域。
另外,根据本发明上述实施例的基于地址-事件表达的神经网络目标检测装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述区域提取框架包括:输入模块,用于将高速运动物体的实例转化为输入的帧视频或者动态图像以及转换为地址-时间信息,输出事件序列;处理模块,用于根据时间戳信息和像素信息将所述事件序列转化为带有整帧图像特征信息的事件响应矩阵;提取模块,用于根据事件差异度与事件密集度提取出包含高速运动物体轮廓的敏感区域,以得到所述敏感区域的坐标范围,并根据所述坐标范围将传输的帧图像进行截取,截取的结果输入到可替换的多层卷积神经网络的后端识别结构当中,其中,所述后端识别结构的神经网络目标检测根据实际应用任务需要进行选取。
进一步地,在本发明的一个实施例中,所述识别框架包括:基于事件触发的模糊识别敏感区域事件驱动与帧驱动下的动态图像输入模块;以对应静态图像作为训练集的卷积神经网络结构识别模块。
进一步地,在本发明的一个实施例中,所述基于事件触发的模糊识别敏感区域事件驱动与帧驱动下的动态图像输入模块进一步包括:采用驱动事件和帧图像双输入的神经网络结构,将所述区域提取框架提取的区域坐标输入到帧图像中,并在所述帧图像中截取相应区域的图像。
进一步地,在本发明的一个实施例中,所述以对应静态图像作为训练集的卷积神经网络结构识别模块进一步包括:将待识别物体的静态图像作为训练集预先导入多分类神经网络模型中,预训练出对应的参数,在训练完备的神经网络中将在以敏感区域坐标截取的帧图像作为输入,识别出所述待识别物体的类别和位置。
进一步地,在本发明的一个实施例中,所述事件驱动下的特征区域感知算法进一步包括:生成设定事件的时间间隔与事件精度,定义时间戳信息和像素信息的转换算法,根据获取的时间戳下的事件计算事件差异度的装置。
进一步地,在本发明的一个实施例中,所述事件驱动下的特征区域感知算法还包括:计算时间差异度得出前后事件的变化程度,同步更新历史事件,遍历所有的历史事件,获取有效事件,将有效事件的坐标值提取出来,通过聚类算法去除某些噪声特征点,最后通过连通性分析得出最终的物体特征敏感区域。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于地址-事件表达的神经网络目标检测装置结构示意图;
图2为根据本发明实施例的基于地址-事件表达的神经网络目标检测装置中区域提取框的结构示意图;
图3为根据本发明实施例的敏感区域提取算法流程图;
图4为根据本发明实施例的基于事件和帧图像输入的卷积神经神络流程图;
图5为根据本发明实施例的基于地址-事件表达的神经网络目标检测装置框架图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于地址-事件表达的神经网络目标检测装置。
图1是本发明一个实施例的基于地址-事件表达的神经网络目标检测装置结构示意图。
如图1所示,该基于地址-事件表达的神经网络目标检测装置包括:区域提取框架100、识别结构框架200和事件驱动下的特征区域感知框架300。
其中,区域提取框架100用于基于地址-事件表达进行区域提取,以得到敏感区域内的图像。
进一步地,如图2所示,区域提取框架包括:输入模块101用于将高速运动物体的实例转化为输入的帧视频或者动态图像以及转换为地址-时间信息,输出事件序列。处理模块102用于根据时间戳信息和像素信息将事件序列转化为带有整帧图像特征信息的事件响应矩阵。提取模块103用于根据事件差异度与事件密集度提取出包含高速运动物体轮廓的敏感区域,以得到敏感区域的坐标范围,并根据坐标范围将传输的帧图像进行截取,截取的结果输入到可替换的多层卷积神经网络的后端识别结构当中,其中,后端识别结构的神经网络目标检测根据实际应用任务需要进行选取。
具体来讲,区域提取框架100包括三个模块,分别是基于高速运动物体的事件转换输入模块(即输入模块101),地址-事件表达文件的提取处理模块(即处理模块102)、针对地址-事件的敏感区域提取模块(提取模块103)。其中,基于高速运动物体的事件转换输入模块101用于将高速运动的物体实例转化为输入的帧视频或者动态图像以及转换为地址-时间信息。一般地,该转换模块可以采用动态视觉传感器来作输入采集,对每个像素中的光强变化产生事件响应,尤其是光强显著变化的运动的物体边缘轮廓,传感器可将采集的视频动态图像以帧图像与地址事件信息输出,输出的地址-事件格式可配置,可根据需求配置时间长度t和事件精度b。
例如,在帧图像与帧图像之间传输需要的时见,则根据配置的时间长度t可得帧间传输的事件数;事件精度可根据需要配置为4位/8位16位/32位乃至更多,表征的是事件在光强触发的on/off精度。该格式为事件序列排列,每个像素采集一个事件序列并存储每个像素的时间戳,时间戳对应于像素所在的列的读出的开始。输出格式包含时间戳、像素坐标(x,y)、on/off事件。
地址-事件表达文件的提取处理模块102根据时间戳信息和像素信息将以上得到的事件序列转化为带有整帧图像特征信息的事件响应矩阵。
针对地址-事件的敏感区域提取模块103根据得到的事件响应矩阵,通过计算事件差异度与事件密集度提取出包含高速运动物体轮廓的敏感区域,根据敏感区域信息将帧图像进行截取,截取的图像包括正例和负例,正例代表区域内截取的正确的带有完整待识别物体的图像,负例则是背景或是非正确划分的物体。
例如,地址与事件的特征区域差分提取方法,基于事件的差异度关系可用公式(1)描述:
其中,D(x,y)表示事件差异度,(x,y)为地址值,EK(x,y)表示当前事件值,EK-1(x,y)表示历史事件值,Rd表示判断历史事件与当前事件相似度的阈值,M表示总事件数,λ表示事件抑制系数。特别地,在算法开始执行时,先依据动态的背景得到初始事件E0(x,y)。
初始事件依据公式(1)更新为历史事件,若事件差异度大于Rd,则将当前事件更新为下一个历史事件;若事件差异度小于Rd,则证明前一事件与后一事件的物体相对运动较小,下一历史事件更新为上一有效历史事件。对事件点进行统计,如果某个事件点连续N次被检测为无相对运动,则将其更新为历史事件;当一个事件点被分类为无相对运动点时,它有一定概率去更新为历史事件。更新公式如下:
其中,P(t,t+△t)为随机更新为历史事件的概率,△t为前后事件流传输的时间差。N为某个事件点连续被检测为无相对运动的次数。在选择要更新的事件时,随机选取进行更新。这样就可以保证,保持事件值平滑的原因是由于是随机的更新,这种情况下一个时间值在时刻t不被更新的概率是N-1/N。假设时间是连续的,那么在t过去后,公式(2)为仍然保留的概率
识别结构框架200用于根据敏感区域内的图像通过事件指向性卷积神经网络进行分类识别,以得到特征识别结果。
进一步地,识别框架包括:基于事件触发的模糊识别敏感区域事件驱动与帧驱动下的动态图像输入模块;以对应静态图像作为训练集的卷积神经网络结构识别模块。
举例来讲,该框架的实现分为动态图像敏感区域输入与静态图像训练过程。该神经网络结构可根据需求选取相应的卷积神经网络结构,诸如LeNet-5,AlexNet或者GoogleNet。由于该神经网络接收的是由区域提取框架处理过后的截取的敏感区域内的图像,其主要任务是分类识别敏感区域内的物体,因此需要将待识别物体的静态图像作为训练集预先导入神经网络模型中,预训练出对应的参数。将训练好的卷积神经分类网络作为基于地址-事件表达的区域提取框架的后端处理算法,快速将定位好的高速运动物体进行分类识别。
具体地,如图3所示,首先将区域提取框架所提取的区域坐标输入到帧图像中,在帧图像中截取相应区域的图像,将该图像输入到可替换的卷积神经网络当中,卷积神经网络包括常规的归一化层、卷积层、池化层以及softmax层,其中网络结构可调整,可以加入其它处理层。Softmax层判别输出物体的类别。该后端算法可以采用其它的聚类识别算法。
需要说明的是,经由获取的特征敏感区域截取的包含完整待测物体的帧图像作为输入,当中包含正例与负例,该截取的帧图像后端输入一个可替换的的多层卷积神经网络,该网络层数和结构可针对待识别的物体类别定制,主要是完成对正例的分类,检测是物体还是背景,筛除复例。
事件驱动下的特征区域感知框架300用于根据事件驱动下的特征区域感知算法和特征识别结果通过聚类算法和连通性分析消除噪音,以获取最终特征敏感区域结果。
进一步地,事件驱动下的特征区域感知算法进一步包括:生成设定事件的时间间隔与事件精度,定义时间戳信息和像素信息的转换算法,根据获取的时间戳下的事件计算事件差异度的装置。
具体地,如图4所示,首先根据实际需要设定事件的时间间隔与事件精度,时间间隔决定了帧图像传输之间处理的事件数,事件精度可设置为8位/16位/32位等,该精度与设定与Rd与Td相关。在算法开始时,需指定以带有静止物体的背景作为初始事件,然后通过公式(1)计算时间差异度得出前后事件的变化程度,同步更新历史事件,遍历所有的历史事件,与Td对比得出有效事件,将有效事件的坐标值提取出来,通过聚类算法去除某些噪声特征点,最后通过连通性分析得出最终的物体特征敏感区域。
例如,将大于Rd的事件数记为CR,设定Td为触发的事件数目的阈值。只有当CR>Td时,该事件的地址才算是有效地址,否则该事件流将被丢弃。提取出所有有效事件的地址(x,y),由于此时提取的事件坐标仍然附带有图像噪声,将获取的有效地址坐标输入到聚类算法中。以kmeans算法为例,用距离作为数据对象间相似性度量的标准,通常采用欧氏距离来计算数据对象间的距离聚类后的坐标,然后进行连通性分析,敏感特征区域即为最后的坐标所覆盖的区域。
根据上述对基于地址-事件表达的神经网络目标检测装置的表述可知,本发明实施例的工作原理为:
如图5所示,系统的输入为运动的物体实例,分为两路传输通路处理,其中一路为正常的帧图像传输,利用事件传输与帧图像处理的时间差,另一路为基于事件的对运动物体的敏感特征区域提取框架,该框架包括三个模块,首先经过基于高速运动物体的事件转换输入模块,依据高速运动物体运动过程中,其轮廓边缘产生显著光强变化的特征点会产生事件响应的原理,将捕获的图像转换为地址事件信息,其中地址信息为特征点的坐标值,事件信息为可配置精度的事件值,就可得到物体边缘变化的特征点的位置以及量化的变化幅度大小;将通过的再通过地址-事件表达文件的提取处理模块与针对地址-事件的敏感区域提取模块,其过程可参照图4的对敏感区域的提取算法流程。经过上述过程的处理之后,系统可得到提取的特征敏感区域坐标范围,依据该范围将传输的帧图像进行截取,截取的结果输入到可替换的多层卷积神经网络的后端识别结构当中,在卷积神经网络中实现对已定位好的运动物体的分类,最后输出识别结果,结果包括检测目标的位置信息与类别信息。
综上,本发明实施例的基于地址-事件表达的神经网络目标检测方法与相关技术相比较具有以下优点和有益效果:
1)相比于传统卷积神经目标检测网络,本发明实施例在保证图像识别率方面的优势,同时也能避免了用不同尺寸的候选区域喂给固定输入尺寸的网络提取特征,极大降低网络冗余计算量和重复操作,更加符合实际高速目标识别工程应用的实时性需求。
2)相比于传统的图像识别算法或是基于深度学习的目标检测算法,本发明实施例提供了一种有效的针对高速运动物体的检测定位算法,可以应用在任何需要提取运动物体所在区域的前端算法中,具有较强的通用性,进而提高检测速度。
3)本发明实施例的事件驱动下的特征区域感知算作为提取运动物体轮廓和区域的前端算法,其后端图像算法可以与一系列常规的特征提取和分类算法相搭配,进行精细特征识别,完成不同的图像处理任务,具有较强的拓展性和重构性。
4)本发明提出的基于地址-事件表达的敏感区域提取算法中所涉及的操作简单明确,利用地址-事件表达对特征点光强的变化捕捉敏感的特点,摒弃了现今图像处理领域当中针对帧图像进行处理的常规做法,同时利用了地址传输比帧传输迅速的特点,在帧传输之间的时间内利用地址信息对高速运动的物体进行定位,比一般的基于帧图像处理的算法识别速度快,具有较高的实时性。
根据本发明实施例提出的基于地址-事件表达的神经网络目标检测装置,简单且容易实现,成本低廉且具有普适性,能够兼顾卷积神经网络在图像识别率方面的优势的同时,也能充分发挥地址-事件表达传传输的低延时、低冗余以及高精度的特点,大大减少了现今目标检测对于候选区域提取的重复性操作,极大地压缩了数据量以及提高了检测速度。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种基于地址-事件表达的神经网络目标检测装置,其特征在于,包括:
区域提取框架,用于基于地址-事件表达进行区域提取,以得到敏感区域内的图像;
其中,基于地址-事件表达进行区域提取的特征区域差分提取方法中,基于事件的差异度关系可用公式(1)描述:
其中,D(x,y)表示事件差异度,(x,y)为地址值,EK(x,y)表示当前事件值,EK-1(x,y)表示历史事件值,Rd表示判断历史事件与当前事件相似度的阈值,M表示总事件数,λ表示事件抑制系数,在算法开始执行时,先依据动态的背景得到初始事件E0(x,y);
初始事件依据公式(1)更新为历史事件,若事件差异度大于Rd,则将当前事件更新为下一个历史事件;若事件差异度小于Rd,下一个历史事件更新为上一个有效历史事件,对事件点进行统计,如果某个事件点连续N次被检测为无相对运动,则将其更新为历史事件;当一个事件点被分类为无相对运动点时,更新公式如下:
其中,P(t,t+△t)为随机更新为历史事件的概率,△t为前后事件流传输的时间差,N为某个事件点连续被检测为无相对运动的次数,在选择要更新的事件时,随机选取进行更新,下一个时间值在时刻t不被更新的概率是N-1/N,假设时间是连续的,在t过去后,公式(2)为仍然保留的概率;
识别结构框架,用于根据所述敏感区域内的图像通过事件指向性卷积神经网络进行分类识别,以得到特征识别结果;以及
事件驱动下的特征区域感知框架,用于根据事件驱动下的特征区域感知算法和所述特征识别结果通过聚类算法和连通性分析消除噪音,以获取最终特征敏感区域结果。
2.根据权利要求1所述的基于地址-事件表达的神经网络目标检测装置,其特征在于,所述区域提取框架包括:
输入模块,用于将高速运动物体的实例转化为输入的帧视频或者动态图像以及转换为地址-时间信息,输出事件序列;
处理模块,用于根据时间戳信息和像素信息将所述事件序列转化为带有整帧图像特征信息的事件响应矩阵;
提取模块,用于根据事件差异度与事件密集度提取出包含高速运动物体轮廓的敏感区域,以得到所述敏感区域的坐标范围,并根据所述坐标范围将传输的帧图像进行截取,截取的结果输入到可替换的多层卷积神经网络的后端识别结构当中,其中,所述后端识别结构的神经网络目标检测根据实际应用任务需要进行选取。
3.根据权利要求1所述的基于地址-事件表达的神经网络目标检测装置,其特征在于,所述识别结构框架包括:
基于事件触发的模糊识别敏感区域事件驱动与帧驱动下的动态图像输入模块;
以对应静态图像作为训练集的卷积神经网络结构识别模块。
4.根据权利要求3所述的基于地址-事件表达的神经网络目标检测装置,其特征在于,所述基于事件触发的模糊识别敏感区域事件驱动与帧驱动下的动态图像输入模块进一步包括:
采用驱动事件和帧图像双输入的神经网络结构,将所述区域提取框架提取的区域坐标输入到帧图像中,并在所述帧图像中截取相应区域的图像。
5.根据权利要求3所述的基于地址-事件表达的神经网络目标检测装置,其特征在于,所述以对应静态图像作为训练集的卷积神经网络结构识别模块进一步包括:
将待识别物体的静态图像作为训练集预先导入多分类神经网络模型中,预训练出对应的参数,在训练完备的神经网络中将在以敏感区域坐标截取的帧图像作为输入,识别出所述待识别物体的类别和位置。
6.根据权利要求1所述的基于地址-事件表达的神经网络目标检测装置,其特征在于,所述事件驱动下的特征区域感知算法进一步包括:
生成设定事件的时间间隔与事件精度,定义时间戳信息和像素信息的转换算法,根据获取的时间戳下的事件计算事件差异度的装置。
7.根据权利要求6所述的基于地址-事件表达的神经网络目标检测装置,其特征在于,所述事件驱动下的特征区域感知算法还包括:计算事件差异度得出前后事件的变化程度,同步更新历史事件,遍历所有的历史事件,获取有效事件,将有效事件的坐标值提取出来,通过聚类算法去除某些噪声特征点,最后通过连通性分析得出最终的物体特征敏感区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242354.XA CN109948725B (zh) | 2019-03-28 | 2019-03-28 | 基于地址-事件表达的神经网络目标检测装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242354.XA CN109948725B (zh) | 2019-03-28 | 2019-03-28 | 基于地址-事件表达的神经网络目标检测装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109948725A CN109948725A (zh) | 2019-06-28 |
CN109948725B true CN109948725B (zh) | 2021-09-10 |
Family
ID=67012082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910242354.XA Active CN109948725B (zh) | 2019-03-28 | 2019-03-28 | 基于地址-事件表达的神经网络目标检测装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948725B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555865B (zh) * | 2019-08-07 | 2022-04-19 | 清华大学无锡应用技术研究院 | 一种基于帧图像的动态视觉传感器样本集建模方法 |
CN111294512A (zh) | 2020-02-10 | 2020-06-16 | 深圳市铂岩科技有限公司 | 图像处理方法、装置、存储介质及摄像装置 |
CN113128392A (zh) * | 2021-04-15 | 2021-07-16 | 中国科学院上海高等研究院 | 基于仿生图像传感器的异步目标检测方法、系统、终端及介质 |
CN113313919B (zh) * | 2021-05-26 | 2022-12-06 | 中国工商银行股份有限公司 | 使用多层前馈网络模型的报警方法、装置及电子设备 |
CN113516676B (zh) * | 2021-09-14 | 2021-12-28 | 成都时识科技有限公司 | 角点检测方法、脉冲神经网络处理器、芯片及电子产品 |
CN116912798B (zh) * | 2023-09-14 | 2023-12-19 | 南京航空航天大学 | 基于跨模态噪声感知的自动驾驶事件相机目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10147024B2 (en) * | 2014-09-16 | 2018-12-04 | Qualcomm Incorporated | Interfacing an event based system with a frame based processing system |
CN106407990A (zh) * | 2016-09-10 | 2017-02-15 | 天津大学 | 基于事件驱动的仿生目标识别系统 |
-
2019
- 2019-03-28 CN CN201910242354.XA patent/CN109948725B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109948725A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948725B (zh) | 基于地址-事件表达的神经网络目标检测装置 | |
CN107609485B (zh) | 交通标志的识别方法、存储介质、处理设备 | |
CN108304787A (zh) | 基于卷积神经网络的道路目标检测方法 | |
Pamula | Road traffic conditions classification based on multilevel filtering of image content using convolutional neural networks | |
CN110263712B (zh) | 一种基于区域候选的粗精行人检测方法 | |
WO2017087041A1 (en) | Traffic detection with multiple outputs depending on type of object detected | |
CN112115775B (zh) | 一种基于计算机视觉的监控场景下的吸烟行为检测方法 | |
WO2011097795A1 (zh) | 人流量统计的方法及系统 | |
CN114266977B (zh) | 基于超分辨可选择网络的多auv的水下目标识别方法 | |
CN114693661A (zh) | 一种基于深度学习的快速分拣方法 | |
CN105718954B (zh) | 一种基于视触觉融合的目标属性和类别的识别方法 | |
KR102655999B1 (ko) | 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법 | |
CN108734200B (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN111898430A (zh) | 基于深度学习的电梯轿厢人员智能识别方法 | |
CN112270381B (zh) | 基于深度学习的人流量检测方法 | |
CN113139489B (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
CN109325546A (zh) | 一种结合步法特征的成趟足迹识别方法 | |
CN111027370A (zh) | 一种多目标跟踪及行为分析检测方法 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN112308087B (zh) | 基于动态视觉传感器的一体化成像识别方法 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN113799124A (zh) | 一种非结构化环境的机器人灵活抓取检测方法 | |
CN110070106A (zh) | 烟雾检测方法、装置及电子设备 | |
CN107247967B (zh) | 一种基于r-cnn的车窗年检标检测方法 | |
CN111524164A (zh) | 一种目标跟踪方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |