CN115222610A - 图像方法、装置、电子设备及存储介质 - Google Patents
图像方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115222610A CN115222610A CN202210238391.5A CN202210238391A CN115222610A CN 115222610 A CN115222610 A CN 115222610A CN 202210238391 A CN202210238391 A CN 202210238391A CN 115222610 A CN115222610 A CN 115222610A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- noise
- noise adding
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012545 processing Methods 0.000 claims abstract description 70
- 230000007613 environmental effect Effects 0.000 claims abstract description 47
- 238000003672 processing method Methods 0.000 claims abstract description 13
- 238000004088 simulation Methods 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 12
- 238000012360 testing method Methods 0.000 abstract description 44
- 238000010276 construction Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004575 stone Substances 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 101100480851 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) TDA4 gene Proteins 0.000 description 2
- 230000032683 aging Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000006002 Pepper Substances 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本申请提供了一种图像处理方法、装置、电子设备及存储介质,该方法包括:对采集的图像进行环境场景识别,识别图像所处的环境场景;基于环境场景与关注目标之间的对应关系,确定图像所处的环境场景所对应的关注目标;确定关注目标在图像中所在的目标像素区域;对图像中的目标像素区域进行加噪处理,得到第一图像。在本申请的方案中,实现自动生成作为测试数据的第一图像,无需在实际环境中采集存在噪声的图像作为测试数据,有效解决采集测试数据的周期长的问题,提高了获取测试数据的效率。
Description
技术领域
本申请涉及图像处理技术领域,更具体地,涉及一种图像处理方法、装置、电子设备及存储介质。
背景技术
目前,随着计算机技术的快速发展,可实现根据车辆或其他电子设备采集的图像实现快速定位或地图构建等。具体可由提供定位服务的计算机设备(例如服务器、车载设备)通过实时采集的图像来进行地图构建和/或准确定位。但在实际应用中,由于各种因素导致采集的图像是存在干扰的,为了能够保证地图构建和/或准确定位能够根据存在干扰或噪声的图像准确有效地进行地图构建和/或准确定位,需要利用存在干扰或噪声的图像来进行测试。在相关技术中,一般是将实际采集的存在干扰或者噪声的图像作为用于测试的图像,但是,该种方式依赖于实际环境中存在干扰或者噪声,采集到用于测试的图像数据的周期长,获得用于测试的图像的效率较低。
发明内容
有鉴于此,本申请实施例提出了一种图像处理方法、装置、电子设备及存储介质,以改善上述问题。
根据本申请实施例的一个方面,提供了一种图像处理方法,包括:对采集的图像进行环境场景识别,识别所述图像所处的环境场景;基于环境场景与关注目标之间的对应关系,确定所述图像所处的环境场景所对应的关注目标;确定所述关注目标在所述图像中的目标像素区域;对所述图像中的所述目标像素区域进行加噪处理,得到第一图像。
在一些实施例中,所述对所述图像中的所述目标像素区域进行加噪处理,得到第一图像,包括:获取所述目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素;确定获取的所述所有目标像素中的最大像素值和各所述目标像素在所述图像中的实际像素值;根据所述最大像素值和各所述目标像素在所述图像中的实际像素值,分别为所述目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素确定新像素值;将所述目标像素区域内的所有目标像素或目标区域边沿上的所有目标像素的实际像素值分别替换为所对应的新像素值,得到所述第一图像。在本实施例中,通过利用目标像素中的最大像素值来确定目标像素的新像素值,以此改变目标像素的实际像素值,进而实现对图像进行加噪。
在一些实施例中,所述对所述图像中的所述目标像素区域进行加噪处理,得到第一图像,包括:获取所述目标像素区域中的多个目标像素;根据在所述目标像素区域的邻域像素区域中各像素的像素值,为获取的所述多个目标像素确定新像素值;将所述多个目标像素的实际像素值分别替换为所对应的新像素值,得到所述第一图像。在本实施例中,通过改变目标像素的实际像素值来实现对图像进行加噪。
在一些实施例中,所述根据在所述目标像素区域的邻域像素区域中各像素的像素值,为获取的所述多个目标像素确定新像素值,包括:将在所述目标像素区域的邻域像素区域中全部像素的像素值和所述各目标像素的像素值进行加权处理,得到各所述目标像素的新像素值。在本实施例中,通过利用将在目标像素区域的邻域像素区域中全部像素的像素值和各目标像素的像素值分别进行加权处理,以此实现对图像进行加噪。
在一些实施例中,所述根据在所述目标像素区域的邻域像素区域中各像素的像素值,为获取的所述多个目标像素确定新像素值,包括:从所述目标像素区域的邻域像素区域中随机选取多个像素作为参考像素;将所述多个参考像素在所述图像中的实际像素值分别确定为各所述目标像素的新像素值。在本实施例中,通过将目标像素区域的邻域像素区域中的参考像素的实际像素值替换为目标像素的新像素值,实现对图像进行加噪。
在一些实施例中,所述对所述图像进行环境场景识别,确定所述图像所属的目标环境场景之前,所述方法还包括:确定所述图像的加噪方式;所述加噪方式为按照所属的环境场景进行加噪和按照指定模拟场景进行加噪的一种或两种,若确定所述图像的加噪方式为按照所属的环境场景进行加噪,则执行所述对所述图像进行环境场景识别所对应的加噪步骤对所述图像进行加噪处理,得到所述第一图像;若确定所述图像的加噪方式为按照指定模拟场景进行加噪,则执行所述指定模拟场景所对应的加噪方式,对所述图像进行加噪处理,得到第二图像;若确定所述图像的加噪方式为按照指定模拟场景进行加噪和按照指定模拟场景进行加噪,则按照所述两种加噪方式对所述图像进行加噪处理,得到第三图像。在本实施例中,通过不同的加噪方式对图像进行加噪,实现了模拟在不同情况下的采集的图像的多种噪声。
在一些实施例中,所述确定所述图像的加噪方式,包括:确定所述图像对应的时间戳;根据预先划分的多个子时间段确定所述时间戳所属的子时间段,并判断所述子时间段是否为新的子时间段;若所述子时间段为新的子时间段,生成随机数;根据随机数的数值与加噪方式之间的映射关系,确定与所述随机数相对应的加噪方式;将与所述随机数相对应的加噪方式确定为所述图像对应的加噪方式;若所述子时间段不是新的时间段,则根据随机数的数值与加噪方式之间的映射关系,则将上一次与该时间段生成的随机数所对应的加噪方式确定为所述图像的加噪方式。在本实施例中,通过确定图像的时间戳在预先划分的多个子时间段对应所属的子时间段,以及该子时间段是否是未曾出现过的时间段来确定该图像的随机数以及随机数的数值对应的加噪方式,最后根据确定的加噪方式对图像进行加噪,增加了对图像进行加噪的随机性,增加了采集的图像的多样性。
根据本申请实施例的一个方面,提供了一种图像处理装置,包括:环境场景确定模块,用于对采集的图像进行环境场景识别,识别所述图像所处的环境场景;关注目标确定模块,用于基于环境场景与关注目标之间的对应关系,确定所述图像所处的环境场景所对应的关注目标;目标像素区域确定模块,用于确定所述关注目标在所述图像中的目标像素区域;第一加噪处理模块,用于对所述图像中的所述目标像素区域进行加噪处理,得到第一图像。
根据本申请实施例的一个方面,提供了一种电子设备,包括:处理器;存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如上所述图像处理方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,其上存储有计算机可读指令,当所述计算机可读指令被处理器执行时,实现如上所述图像处理方法。
在本申请的方案中,通过对采集的图像进行环境场景识别,识别出图像所处的环境场景;之后,基于环境场景与关注目标之间的对应关系,确定图像所处的环境场景对应的关注目标,并确定关注目标在图像中的目标像素区域;最后,对图像中的目标像素区域进行加噪处理,得到第一图像。在一些实施例中,该第一图像可用于作为地图构建与定位算法的测试数据。可以看出,通过本申请的方法,可以根据不同环境场景对应的关注目标来对图像进行加噪处理,实现了自动生成作为测试数据的第一图像,而不需要用户在实际环境中采集存在噪声的图像来作为测试数据,从而,可以有效解决相关技术中采集测试数据的周期长的问题,由此提高了获取到测试数据的效率,而且,通过不同环境场景下的图像来生成多样性的测试数据,保证所得到测试数据的多样性。
此外,由于地图构建与定位算法是利用在不同环境场景下图像中的关注目标来进行地图构建和/或定位,而在本申请中,在确定关注目标在图像中的目标像素区域后,将图像中的目标像素区域进行加噪处理,由此可以保证第一图像中被加噪的像素区域是地图构建和/或定位算法所需要利用图像中的像素区域,从而,保证所得到的第一图像对于地图构建与定位算法的测试的有效性。
应当理解的是,以上的一般描述和后文细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请一实施例示出的一种图像处理方法的流程图。
图2是根据本申请一实施例示出的步骤140的具体步骤的流程图。
图3是根据本申请一实施例示出的步骤140的具体步骤的流程图。
图4是根据本申请一实施例示出的步骤320的具体步骤的流程图。
图5是根据申请另一实施例示出的步骤120之前的具体步骤的流程图。
图6是根据本申请一实施例示出的步骤510的具体步骤的流程图。
图7是根据本申请一实施例示出的一种图像处理装置的框图。
图8是根据本申请一示例性实施例示出的电子设备的硬件结构图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限值本发明构思的范围,而是通过特定实施例为本领域计算书人员说明本发明的概念。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
目前,随着计算机技术的快速发展,可实现根据车辆或其他电子设备采集的图像实现快速定位或地图构建等。具体可由提供定位服务的计算机设备(例如服务器、车载设备)通过实时采集的图像进行地图构建和/或准确定位。但在实际应用中,由于各种因素导致采集的图像是存在干扰的,为了能够保证地图构建和/或准确定位能够根据存在干扰或噪声的图像准确有效地进行地图构建和/或准确定位。在相关技术中,一般是将实际采集的存在干扰或者噪声的图像作为用于测试的图像,但是,该种方式依赖于实际环境中存在干扰或者噪声,采集到用于测试的图像的周期长,获得用于测试的图像的效率较低。
因此,为了克服上述缺陷,本申请提供了一种图像处理方法,本申请的方法可以由具备处理能力的电子设备执行,该电子设备例如服务器、车载设备等等,具体的,该方法可以适用于TDA4车载智能化嵌入式平台。
图1是根据本申请一实施例示出的图像处理方法的流程图。如图1所示,该方法具体包括以下步骤:
步骤110,对采集的图像进行环境场景识别,识别图像所处的环境场景。
在一些实施例中,采集的图像可以是由车辆上的图像采集装置采集到的。具体的,车辆可以将采集的图像进行编码后进行传输,例如可以按照H.264编码技术进行编码。在步骤110之前,可以先将图像对应的编码文件进行解码,然后从解码文件中获取到该图像。图像的格式不限,可以是YUV格式的,也可以是RGB格式的。
在一些实施例中,可通过TDA4平台的DecoderNode(解码器)对H.264格式的编码文件进行解码。
环境场景用于指示图像所呈现的周围环境。可以理解的是,由于图像是由车辆采集到的,该环境场景也可以理解用于指示车辆所处的周围环境,环境场景例如室外开阔停车场、室内停车场、地下停车场、路边停车场等。
具体的,可以构建用于进行环境场景识别的神经网络模型,将该用于识别环境场景的神经网络模型称为环境场景识别模型,之后,通过环境场景识别模型来对图像进行环境场景识别。其中,环境场景识别模型可以通过卷积神经网络、循环神经网络、长短时记忆神经网络、全连接神经网络、前馈神经网络等来构建的。
为了保证图像的环境场景识别的准确性,需要预先将用于进行环境场景识别的神经网络模型进行训练。具体的,预先构建样本集合,该样本集合包括多个样本图像和样本图像的标签信息,其中,样本图像的标签信息用于指示该样本图像所属的环境场景。在训练过程中,将各样本图像分别输入至环境场景识别模型中,通过环境场景识别模型中进行环境场景识别,并输出样本识别结果,可以理解的是,该样本识别结果指示了所预测到该样本图像对应所处的环境场景。
若一样本图像的样本识别结果所指示的环境场景与该样本图像的标签信息所指示的环境场景不一致,则反向调整环境场景识别模型的参数,并通过调整参数后的环境场景识别模型再次针对该样本图像输出样本识别结果,直至针对该样本图像的样本识别结果所指示的环境场景与该样本图像的标签信息所指示的环境场景一致。
针对每一样本图像,重复上述过程,当达到训练结束条件时,则结束环境场景识别模型的训练。之后,将环境场景识别模型用于线上进行图像的环境场景的识别,可以环境场景识别场景可以准确识别图像所处的环境场景。
步骤120,基于环境场景与关注目标之间的对应关系,确定环境场景对应的关注目标。
关注目标是指在图像中所要关注的对象。在图像中所要关注的对象可以是图像中的实体对象,其中,实体对象又可以称为语义对象,例如车位线、植物、减速带、路标、交通指示灯等。图像中所要关注的对象还可以是图像中的特征点(也可以称为关键点),图像中的特征点可以简单理解为图像中比较显著的点,例如轮廓点、较暗区域中的亮点、较亮区域中的暗点。
在具体实施例中,可以预先设定各环境场景下对应需要关注的对象,例如构建环境场景与关注目标的对照表,从而,该对照表指示了环境场景与关注目标之间的对应关系。在此基础上,在确定图像所处的目标环境场景后,从对照表中查询与目标环境场景相对应的关注目标。
举例来说,在环境场景为室外开阔停车场的情况下,设定需要关注的实体对象为低矮石墩、地面车位线、标志牌。在环境场景是路边停车场的情况下,设定需要关注的实体对象为路沿、路边树木、绿化带。在环境场景是室内停车场或地下停车场,设定需要关注的实体对象可以是减速带、地面车位线、地面箭头。
又例如,在环境场景是室外开阔停车场的情况下,设定需要关注的特征点为以ORB(Oriented FAST and Rotated BRIEF,快速特征点提取和描述算法)为特征描述子的特征点;在环境场景是路边停车场的情况下,设定需要关注的特征点为以A-KAZE(Accelerated-KAZE,局部特征描述子算法)为特征描述子的特征点;在环境场景是室内停车场或地下停车场的情况下,设定需要关注的特征点为以Super-Point(Self-Supervised Interest PointDetection and Description,自监督深度学习提取和描述算法)为特征描述子的特征点。
步骤130,确定关注目标在图像中的目标像素区域。
关注目标指示了在步骤110中所采集的图像中需要关注的对象,由此,基于该需要关注的对象,在图像中确定关注目标所在的像素区域,即为目标像素区域。
在一些实施例中,若关注目标为语义对象,则可以对图像进行语义识别,从而确定关注目标所指示的语义对象在图像中的位置信息,进而确定目标像素区域。
具体的,可以构建用于进行语义对象识别的神经网络模型,将该用于语义对象识别的神经网络模型称为语义对象识别模型或对象识别模型,之后,通过语义对象识别模型来对图像的语义对象进行识别,以此确定语义对象在图像中的位置。其中,语义对象识别模型可以通过卷积神经网络、循环神经网络、长短时记忆神经网络、全连接神经网络、前馈神经网络等来构建的。例如,一语义对象为狗,将待识别的图像输入至语义对象识别模型中,输出识别结果,该识别结果指示了狗在图像中的位置。
在一些实施例中,若关注目标为特征点,则可以按照特征点对应的特征点检测方法,对图像进行特征点检测,进而确定特征点在图像中的目标像素区域。
具体的,当特征点为以ORB为特征描述子的特征点时,可通过ORB算法来检测图像中的特征点,当特征点为以A-KAZE为特征描述子的特征点时,可通过A-KAZE算法来检测图像中的特征点,当特征点为以Super-Point为特征描述子的特征点时,可通过Super-Point算法来检测图像中的特征点。其中,以ORB为特征描述子的特征点可以是在图像中一像素的像素值与邻域像素的像素值相差较大的点;以A-KAZE为特征描述子的特征点可以是轮廓点、端点;以Super-Point为特征描述子的特征点可以是图像中的角点。值得一的是,以上所列举的特征点仅仅是示例性举例,不能认为是对本申请使用范围的限制。
步骤140,对图像中的目标像素区域进行加噪处理,得到第一图像。
在本实施例中,第一图像用于作为地图构建与定位算法的测试数据。
由于图像采集传感器所采集到的图像可能是不存在干扰或者噪声的,为了保证测试地图构建与定位算法时利用的测试数据是存在干扰或者噪声的图像数据,将图像进行加噪处理,以此得到的测试数据可用于作为地图构建与定位算法的测试数据。
在一些实施例中,一张图像中的关注目标至少包括一个,其对应的目标像素区域也至少包括一个。可选的,在对目标像素区域进行加噪处理可以是对所有目标像素区域进行加噪处理,还可以是随机选取至少一个目标像素区域进行加噪处理。
第一图像是图像进行加噪处理后的图像。在一些实施例中,对目标像素区域进行加噪处理可以是改变目标像素区域中的所有像素的像素值或目标像素区域边沿上的所有像素的像素值。
在一些实施例中,如图2所示,步骤140包括:
步骤210,获取目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素。
目标像素可以是目标像素区域的边界线上的所有像素,也可以是目标像素区域内的所有像素。
步骤220,确定获取的所有目标像素中的最大像素值和各目标像素在图像中的实际像素值。
步骤230,根据最大像素值和各目标像素在图像中的实际像素值,分别为目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素确定新像素值。
在一些实施例中,一目标像素的新像素值可以是最大像素值减去目标像素的实际像素值。例如,若最大像素值为a,一目标像素的实际像素值为b,目标像素的像素值为c,则c=a-b。在另一些实施例中,一目标像素的新像素值可以是最大像素值加上目标像素的实际像素值。具体的,若最大像素值为a,一目标像素的实际像素值为b,目标像素的像素值为c,则c=a+b。
步骤240,将目标像素区域内的所有目标像素或目标区域边沿上的所有目标像素的实际像素值分别替换为所对应的新像素值,得到第一图像。换言之,相较于加噪处理之前的图像而言,第一图像中目标像素的像素值为所对应的新像素值,而除目标像素外的其他像素的像素值与在加噪处理之前的图像中的像素值相同。
在另一些实施例中,如图3所示,步骤140包括:
步骤310,获取目标像素区域中的多个目标像素。
步骤320,根据在目标像素区域的邻域像素区域中各像素的像素值,为获取的多个目标像素确定新像素值。
目标像素区域的邻域像素区域是指与目标像素区域相邻的像素所在的区域,其中,邻域像素区域的大小可以根据实际需要设定,例如,将邻域像素区域设定为以目标像素为中心点的N*M的像素区域。其中,N和M为正整数,具体可根据需要设定。
在另一些实施例中,可根据各目标像素在图像中的位置,确定目标像素的邻域像素区域中各像素的像素值,为各目标像素确定像素值。
在一些实施例中,步骤320包括:将在目标像素区域的邻域像素区域中全部像素的像素值和各目标像素的像素值进行加权处理,得到各目标像素的新像素值。
不同像素值对应的加权系数可以相同也可以不同,具体可根据实际需要来设定,在此不进行具体限定。当不同像素对应的加权系数相同且全部像素对应的加权系数的和为1时,相当于将邻域像素区域中全部像素的像素值和各目标像素的像素值进行加权平均,将加权平均的结果作为各目标像素的新像素值。
在另一些实施例中,如图4所示,步骤320包括:步骤410,从目标像素区域的邻域像素区域中随机选取一个像素作为参考像素。步骤420,将多个参考像素在图像中的实际像素值分别确定为各目标像素的新像素值。
请继续参阅图3,步骤330,将多个目标像素的实际像素值分别替换为所对应的新像素值,得到第一图像。
也就是说,相较于加噪处理之前的图像而言,第一图像中仅目标像素的像素值发生变化,而其他像素的像素值保持与图像中的像素值相同。
在另一些实施例中,各目标像素的新像素值可以由目标像素区域中的最小像素值与各目标像素在图像中的实际像素值来确定。可通过将最小像素值与目标像素的实际像素值相加,得到目标像素的新像素值。例如,若最小像素值为d,一目标像素的实际像素值为b,目标像素的像素值为c,则c=d+b。
如上的实施例,实现了通过改变目标像素区域内或目标像素区域边沿上的所有目标像素的实际像素值来实现对图像进行加噪处理。
在本申请的方案中,通过对采集的图像进行环境场景识别,识别出图像所处的环境场景;之后,基于环境场景与关注目标之间存在对应关系,确定图像所处的环境场景对应的关注目标,并确定关注目标在图像中的目标像素区域;最后,对图像中的目标像素区域进行加噪处理,得到第一图像。在一些实施例中,该第一图像用于作为地图构建与定位算法的测试数据。可以看出,通过本申请的方法,可以根据不同环境场景对应的关注目标来对图像进行加噪处理,实现了自动生成作为测试数据的第一图像,而不需要用户在实际环境中采集存在噪声的图像来作为测试数据,从而,可以有效解决相关技术中采集测试数据的周期长的问题,由此提高了获取到测试数据的效率,而且,通过不同环境场景下的图像来生成多样性的测试数据,保证所得到测试数据的多样性。
此外,由于地图构建与定位算法是利用在不同环境场景下图像中的关键对象来进行地图构建和/或定位,而在本申请中,在确定关注目标在图像中的目标像素区域后,将图像中的目标像素区域进行加噪处理,由此可以保证第一图像中被加噪的像素区域是地图构建与定位算法所需要利用图像中的像素区域,从而,保证所得到的第一图像对于地图构建与定位算法的测试的有效性。
图5是根据本申请一实施例示出的步骤120之前的具体步骤的流程图,如图5所示,步骤120之前,该方法还包括:
步骤510,确定图像的加噪方式。
在一些实施例中,可预先设定多种可选的加噪方式,从而,在确定需要对图像进行加噪后,从该多种可选的加噪方式中选取一种或者多种加噪方式作为图像的加噪方式。换言之,加噪方式可以是一种,也可以是多种。
步骤520,加噪方式为按照所属的环境场景进行加噪和按照指定模拟场景进行加噪中的一种或两种,若确定图像的加噪方式为按照所属的环境场景进行加噪,则执行步骤110。
如上所描述,在不同的环境场景,在图像中关注的对象存在差异,从而,将在图像中该图像所属环境场景对应的关注对象所在的目标像素区域进行加噪,在本申请中,将图像所属环境场景对应的关注对象所在的目标像素区域进行急躁的方式称为按照所属的环境场景进行加噪的方式。
在一些实施例中,环境场景包括室外开阔停车场、室内停车场、路边停车场、地下停车场等。在一具体实施例中,可以设定:若目标环境场景为室外开阔停车场,该目标场景对应的关注目标为低矮石墩、地面车位线、标志牌,在图像中将低矮石墩、地面车位线、标志牌所在的像素区域确定为目标像素区域,之后,可以将目标像素区域边界线上的像素确定为目标像素,或者将目标像素区域中的全部像素均确定为目标像素,然后按照步骤220-240所示的过程进行加噪,得到第一图像。
若目标环境场景为路边停车场,该目标环境场景对应的关注目标为路沿、路边树木、绿化带,在图像中将路沿、路边树木、绿化带所在的像素区域确定为目标像素区域,之后,可以将目标像素区域边界线上的像素确定为目标像素,或者将目标像素区域中的全部像素均确定为目标像素,然后按照步骤220-240所示的过程进行加噪,得到第一图像。
若目标环境场景为室内停车场或地下停车场,该目标场景对应的关注目标为减速带、地面车位线、地面箭头,在图像中将路沿、路边树木、绿化带所在的像素区域确定为目标像素区域,之后,可以将目标像素区域边界线上的像素确定为目标像素,或者将目标像素区域中的全部像素均确定为目标像素,然后按照步骤220-240所示的过程进行加噪,得到第一图像。
在另一具体实施例中,还可以设定:若目标环境场景为室外开阔停车场,该目标场景对应的关注目标为特征描述子为ORB的特征点,通过ORB的特征提取算法来确定该图像的征点的位置,其中,特征点的位置可用各特征点在图像中的图像坐标(x,y)表示的。在图像中将该特征点所在的像素区域确定为目标像素区域,之后,从目标像素区域中选取一个或者多个像素作为目标像素,然后按照步骤320-330所示的过程进行加噪,得到第一图像。
若目标环境场景为路边停车场,该目标场景对应的关注目标为特征描述子为A-KAZE的特征点,通过A-KAZE的特征提取算法来确定该图像的征点的位置,其中,特征点的位置可用各特征点在图像中的图像坐标(x,y)表示的。在图像中将该特征点所在的像素区域确定为目标像素区域,之后,从目标像素区域中选取一个或者多个像素作为目标像素,或者选取部分特征点的目标像素区域中对应的像素确定为目标像素,然后按照步骤410-420所示的过程进行加噪,得到第一图像。
若目标环境场景为室内停车场或地下停车场,该目标场景对应的关注目标为特征描述子为Super-Point的特征点,通过Super-Point的特征提取算法来确定该图像的特征点的位置,其中,特征点的位置可用各特征点在图像中的图像坐标(x,y)表示的。在图像中将该特征点所在的像素区域确定为目标像素区域,之后,从目标像素区域中选取一个或者多个像素作为目标像素,或者选取部分特征点的目标像素区域中对应的像素确定为目标像素,然后按照步骤320-330所示的过程进行加噪,得到第一图像。
在一些实施例中,步骤510之后,该方法还包括:
若确定图像的加噪方式为按照指定模拟场景对应的加噪方式进行加噪,则执行指定模拟场景所对应的加噪方式,对图像进行加噪处理,得到第二图像;第二图像用于作为地图构建与定位算法的测试数据。
在本申请中,将按照指定模拟场景对应的加噪方式对图像进行加噪所得到的加噪图像称为第二图像,如下说明。
在一些应用场景下,在实际采集图像的过程中,可能由于恶劣天气(例如下雨天气、大雾天气、雾霾天气)、或者图像采集装置的部分视野被遮挡、或者图像采集装置中的器件或者线路老化等原因,导致采集到的图像质量不高,在该种情况下,期望SLAM算法可以利用该种质量不高的图像进行地图构建或者定位,则在测试过程中,也需要通过该种质量不高的图像对SLAM算法进行测试。
因此,在该种应用场景下,可以预先设定需要进行模拟的图像采集场景,该种模拟的图像采集场景即为指定模拟场景。在具体实施例中,指定模拟场景例如模拟在恶劣天气下采集到的图像的场景、模拟图像采集装置的部分视野被遮挡的场景、模拟图像采集装置中的器件或线路老化的场景等,在此不进行具体限定。
在一些实施例中,可以由用户自定义设定需要模拟的指定模拟场景和在该指定模拟场景下对图像进行加噪的方式,并基于用户设定的需要模拟的指定模拟场景和在该指定模拟场景下对图像进行加噪的方式生成场景配置文件。可以理解的是,该场景配置文件指示了指定模拟场景的场景标识和所对应指定模拟场景下对应的加噪方式。在该种情况下,在步骤510中,如果获取到场景配置文件,则确定图像对应的目标加噪方式为按照指定模拟场景式进行加噪的方式;可以理解的是,若确定图像对应的目标加噪方式为按照指定模拟场景式进行加噪的方式,则不需要执行步骤110-130,而跳转执行按照指定模拟场景对应的加噪方式,对图像进行加噪处理,得到第二图像的步骤。在该步骤中,按照场景配置文件中所指示的加噪方式对图像进行加噪,以得到第二图像。
在一些实施例中,若指定模拟场景为模拟图像采集装置的部分视野被遮挡的场景,可通过对图像加mask(掩膜)来实现,通过该种加噪方式所得到的第二图像可以用来测试地图构建与定位算法的特征跟踪、回环匹配的性能。
在一些实施例中,若指定模拟场景为模拟在恶劣天气下采集到的图像的场景,可对图像进行图像加雾处理的方式来对图像进行加噪,该种加噪方式所得到的第二图像可以用来测试地图构建与定位算法的特征提取、特征跟踪的稳定性与准确性的性能。
若指定模拟场景为模拟图像采集传感器的器件、线路老化等引起的图像质量不佳的场景,可对图像添加高斯噪声、椒盐噪声的方式来对图像进行加噪,该种加噪方式所得到的第二图像可以用来测试地图构建与定位算法的特征提取的健壮性的性能。具体的指定模拟场景与指定模拟场景对应的加噪方式可根据实际需要来设定,在此不进行具体限定。
在一些实施例中,步骤510之后,该方法还包括:
若确定图像的加噪方式为按照指定模拟场景进行加噪和按照指定模拟场景进行加噪,则按照两种加噪方式对图像进行加噪处理,得到第三图像,第三图像用于作为地图构建与定位算法的测试数据。
在本实施例中,叠加两种加噪方式来对图像进行加噪处理,该两种加噪方式可以是按照指定模拟场景式进行加噪的方式和按照所属的环境场景进行加噪的方式的组合,具体的加噪过程与上述步骤110-140相同,在此不再赘述。
在该实施例中,可以由用户自定义设定加噪配置文件,该加噪配置文件用于指示图像对应的两种加噪方式,从而,在步骤510中,获取加噪配置文件,进而根据该加噪配置文件来确定该图像对应的两种加噪方式。
上述加噪处理后的第一图像、第二图像或第三图像均可用于地图构建与定位算法的测试中,地图构建与定位算法被广泛应用到自动驾驶,其同时也会利用车辆采集到的传感信息(例如车辆采集的IMU数据、轮速数据等)来构建地图和进行车辆位置的定位。提供定位服务的计算机设备(例如服务器、车载设备)通过该地图构建与定位算法来进行地图构建和准确定位。在实际应用中,为了保证该地图构建与定位算法的准确性和有效性需要通过测试数据来对该地图构建与定位算法进行测试,例如,测试该地图构建与定位算法基于存在干扰或者噪声的传感数据是否能够准确构建地图或者准确定位。
根据上述内容,可选的,提出了一种对传感数据进行加噪的方法,传感数据还包括轮速传感数据或IMU数据;轮速传感数据是指由车辆上的轮速计采集到的数据;IMU(Inertial measurement unit,惯性测量单元)数据是指由车辆上的IMU模块采集到的数据。IMU模块是由三轴加速计、三轴陀螺仪、三轴磁力计等多种传感器组成的模块。轮速计用于检测车轮在一定时间内移动的距离。
当车辆驶入GNSS信号较弱、或者GPS信号较弱的地方(例如驶入地下停车场等室内区域),车辆可以根据GNSS信号或者GPS信号低于设定阈值的位置点的位置信息和轮速计、IMU模块所采集到的信息进行航位推算,得到行驶过程中各个位置点的位置信息。因此,在地图构建与定位算法中,可以利用IMU采集到的IMU数据和轮速计采集到的轮速传感数据来推算车辆的位姿信息(该位姿信息用于指示车辆的位置信息和车辆的姿态信息,车辆的姿态可以包括车辆的俯仰角、偏航角和翻滚角)
对传感数据进行加噪的方法包括:对轮速传感数据进行加噪处理,得到第一加噪数据;或者对IMU数据进行加噪处理,得到第二加噪数据;第一加噪数据和第二加噪数据用于作为地图构建与定位算法的测试数据。
在一些实施例中,对轮速数据进行加噪处理可以是对轮速数据添加高斯噪声,具体的,可生成一随机数,将该随机数作为所要添加的高斯噪声的标准差,之后按照该随机数来确定高斯噪声,并将所确定的高斯噪声添加到轮数数据中。例如,生成一随机数,该随机数的数值为4,所添加的高斯噪声为服从期望为0,标准差为4的正态分布(即X~N=[μ,σ2])的高斯噪声。对IMU数据进行加噪处理的方法与轮速数据进行加噪处理的方法相同,在此不再赘述。
在本实施例中,将第一加噪数据和第二加噪数据用于作为地图构建与定位算法的测试数据,还可以根据测试结果来评估不同性能传感器(IMU模块和轮速计)引起的建图定位累积误差。
在一些实施例中,若地图构建与定位算法所利用的传感数据包括车辆采集的图像、轮速数据、IMU数据,则可以分别按照上文所提供的实施例分别对图像、对轮速数据和对IMU数据进行加噪处理,之后,将加噪处理后所得到的数据均作为地图构建与定位算法的测试数据。由于利用多种不同维度的传感数据来对地图构建与定位算法进行测试,而不是利用单一视觉感知下的图像来进行测试,从而可以提高地图构建与定位算法的准确性。
在一些实施例中,如图6所示,步骤510包括:
步骤610,确定图像对应的时间戳。
步骤620,根据预先划分的多个子时间段确定时间戳所属的子时间段,并判断子时间段是否为新的子时间段。
在一些实施例中,多个子时间段可以是时长相同的多个子时间段,也可以是时长不同的多个子时间段,可根据实际需要来设定,在此不进行具体限定。
若图像对应的时间戳所属的子时间段与上一次的图像对应的时间戳所属的子时间段不同,则确定当前图像对应的时间戳所属的子时间段是新的子时间段。
步骤630,若子时间段为新的子时间段,生成随机数。
在一些实施例中,可以基于所设定的加噪方式的数量,来确定为随机数的取值范围内的最大值。具体的,基于所设定的加噪方式的数量,确定加噪方式的组合总数量,将该组合总数量作为随机数的取值范围内的最大值。之后,可以将0~组合总数量作为随机数的取值范围,则在步骤630中,生成该取值范围内的一个随机数。
例如,对于图像的加噪方式有5种,对于这5种加噪方式,每一图像的加噪方式的组合有:仅有一种加噪方式的组合、有两种加噪方式的组合、有三种加噪方式的组合、有四种加噪方式的组合以及有五种加噪方式的组合;具体的,每种组合分别对应有种排列组合,总共有31种不同的加噪方式。在这种情况下,随机数的取值范围为[0,31]。
步骤640,根据随机数的数值与加噪方式之间的映射关系,确定与随机数相对应的加噪方式。
在一些实施例中,所生成的随机数可以是二进制数,或者,若所生成的随机数为十进制或者其他进制的数,将所生成的随机数转换为二进制的数,并设定二进制数中的一位表示是否采用一种加噪方式。例如,若二进制数中的第一位表示是否采用加噪方式I,若二进制数中的第一位的值为0表示不采用加噪方式I,若二进制数中的第一位的值为1表示采用加噪方式I。这样,根据所生成的随机数对应于各加噪方式的数据位的取值,可以确定是否采用该数据位对应的加噪方式。
举例来说,若限定随机数为5位二进制数,其中,二进制数中从高位到低位,第一位对应于加噪方式I;第二位对应于加噪方式II;第三位对应于加噪方式III;第四位对应于加噪方式IV;第五位对应于加噪方式V。若步骤610中所生成的随机数为10101,则该随机数对应的加噪方式为加噪方式I、加噪方式III和加噪方式V的组合。
步骤650,将与随机数相对应的加噪方式确定为图像对应的加噪方式。
在一些实施例中,可以各预先设定各数值对应的加噪方式,例如数值与加噪方式的映射表,从而,该映射表指示了数值与加噪方式之间的映射关系。在此基础上,在生成了随机数后,从对照表中查询随机数的数值所映射的加噪方式,所查询到的加噪方式即为图像对应的加噪方式。
步骤660,若子时间段不是新的时间段,则根据随机数的数值与加噪方式之间的映射关系,则将上一次与该时间段生成的随机数所对应的加噪方式确定为图像的加噪方式。
图7是根据本申请一实施例示出的图像处理装置,该图像处理装置700包括:
环境场景确定模块710,用于对采集的图像进行环境场景识别,识别图像所处的环境场景;关注目标确定模块720,用于基于环境场景与关注目标之间的对应关系,确定图像所处的环境场景所对应的关注目标;目标像素区域确定模块730,用于确定关注目标在图像中的目标像素区域;第一加噪处理模块740,用于对图像中的目标像素区域进行加噪处理,得到第一图像。
在一些实施例中,第一加噪处理模块740包括:第一目标像素获取单元,用于获取目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素;确定单元,用于确定获取的所有目标像素中的最大像素值和各目标像素在图像中的实际像素值;第一新像素值确定单元,用于根据最大像素值和各目标像素在图像中的实际像素值,分别为目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素确定新像素值;第一替换单元,用于将目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素的实际像素值分别替换为所对应的新像素值,得到第一图像。
在一些实施例中,第一加噪处理模块740包括:第二目标像素获取单元,用于获取目标像素区域中的多个目标像素;第二新像素值确定单元,用于根据在目标像素区域的邻域像素区域中各像素的像素值,为获取的多个目标像素确定新像素值;第二替换单元,将多个目标像素的实际像素值分别替换为所对应的新像素值,得到第一图像。
在一些实施例中,第二新像素值确定单元进一步被配置为:将在目标像素区域的邻域像素区域中全部像素的像素值和各目标像素的像素值分别进行加权处理,得到各目标像素的新像素值。
在一些实施例中,第二新像素值确定单元进一步被配置为:从目标像素区域的邻域像素区域中随机选取多个像素作为参考像素;将多个参考像素在图像中的实际像素值分别确定为各目标像素的新像素值。
在一些实施例中,该图像处理装置700还包括:目标加噪方式确定模块,用于确定图像的加噪方式;加噪方式为按照所属的环境场景进行加噪和按照指定模拟场景进行加噪中的一种或两种;第一加噪处理模块,用于若确定图像的加噪方式为按照所属的环境场景进行加噪,则执行对图像进行环境场景识别所对应的加噪步骤对图像进行加噪处理,得到第一图像;第二加噪处理模块,用于若确定图像的加噪方式为按照指定模拟场景进行加噪,则执行指定模拟场景所对应的加噪方式,对图像进行加噪处理,得到第二图像;第三加噪处理模块,用于若确定图像的加噪方式为按照指定模拟场景进行加噪和按照指定模拟场景进行加噪,则按照两种加噪方式对图像进行加噪处理,得到第三图像。
在一些实施例中,目标加噪方式确定模块包括:时间戳确定单元,用于确定图像对应的时间戳;子时间段确定单元,用于根据预先划分的多个子时间段确定时间戳所属的子时间段,并判断子时间段是否为新的子时间段;生成单元,用于若子时间段为新的子时间段,生成随机数;加噪方式确定单元,用于根据随机数的数值与加噪方式之间的映射关系,确定与随机数相对应的加噪方式;加噪方式确定模块,用于将与随机数相对应的加噪方式确定为图像对应的加噪方式;若子时间段不是新的时间段,则根据随机数的数值与加噪方式之间的映射关系,则将上一次与该时间段生成的随机数所对应的加噪方式确定为图像的加噪方式。
根据本申请实施例的一个方面,提供了计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述任一实施例中的方法。
根据本申请实施例的一个方面,还提供了一种电子设备,如图8所示,该电子设备800包括处理器810以及一个或多个存储器820,一个或多个存储器820用于存储被处理器810执行的程序指令,处理器810执行程序指令时实施上述的对象识别方法。
进一步地,处理器810可以包括一个或者多个处理核。处理器810运行或执行存储在存储器820内的指令、程序、代码集或指令集,以及调用存储在存储器820内的数据。可选地,处理器810可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器810可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器中,单独通过一块通信芯片进行实现。
根据本申请的一个方面,本申请还提供了一种计算机可读存储介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读存储介质承载计算机可读指令,当该计算机可读存储指令被处理器执行时,实现上述任一实施例中的方法。
需要说明的是,本申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
对采集的图像进行环境场景识别,识别所述图像所处的环境场景;
基于环境场景与关注目标之间的对应关系,确定所述图像所处的环境场景所对应的关注目标;
确定所述关注目标在所述图像中的目标像素区域;
对所述图像中的所述目标像素区域进行加噪处理,得到第一图像。
2.根据权利要求1所述的图像处理方法,其特征在于,所述对所述图像中的所述目标像素区域进行加噪处理,得到第一图像,包括:
获取所述目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素;
确定获取的所述所有目标像素中的最大像素值和各所述目标像素在所述图像中的实际像素值;
根据所述最大像素值和各所述目标像素在所述图像中的实际像素值,分别为所述目标像素区域内的所有目标像素或目标像素区域边沿上的所有目标像素确定新像素值;
将所述目标像素区域内的所有目标像素或目标区域边沿上的所有目标像素的实际像素值分别替换为所对应的新像素值,得到所述第一图像。
3.根据权利要求1所述的图像处理方法,其特征在于,所述对所述图像中的所述目标像素区域进行加噪处理,得到第一图像,包括:
获取所述目标像素区域中的多个目标像素;
根据在所述目标像素区域的邻域像素区域中各像素的像素值,为获取的所述多个目标像素确定新像素值;
将所述多个目标像素的实际像素值分别替换为所对应的新像素值,得到所述第一图像。
4.根据权利要求3所述的图像处理方法,其特征在于,所述根据在所述目标像素区域的邻域像素区域中各像素的像素值,为获取的所述多个目标像素确定新像素值,包括:
将在所述目标像素区域的邻域像素区域中全部像素的像素值和所述各目标像素的像素值分别进行加权处理,得到各所述目标像素的新像素值。
5.根据权利要求3所述的图像处理方法,其特征在于,所述根据在所述目标像素区域的邻域像素区域中各像素的像素值,为获取的所述多个目标像素确定新像素值,包括:
从所述目标像素区域的邻域像素区域中随机选取多个像素作为参考像素;
将所述多个参考像素在所述图像中的实际像素值分别确定为各所述目标像素的新像素值。
6.根据权利要求1所述的图像处理方法,其特征在于,所述对所述图像进行环境场景识别,确定所述图像所属的目标环境场景之前,所述方法还包括:
确定所述图像的加噪方式;
所述加噪方式为按照所属的环境场景进行加噪和按照指定模拟场景进行加噪的一种或两种,
若确定所述图像的加噪方式为按照所属的环境场景进行加噪,则执行所述对所述图像进行环境场景识别所对应的加噪步骤对所述图像进行加噪处理,得到所述第一图像;
若确定所述图像的加噪方式为按照指定模拟场景进行加噪,则执行所述指定模拟场景所对应的加噪方式,对所述图像进行加噪处理,得到第二图像;
若确定所述图像的加噪方式为按照指定模拟场景进行加噪和按照指定模拟场景进行加噪,则按照所述两种加噪方式对所述图像进行加噪处理,得到第三图像。
7.根据权利要求6所述的图像处理方法,其特征在于,所述确定所述图像的加噪方式,包括:
确定所述图像对应的时间戳;
根据预先划分的多个子时间段确定所述时间戳所属的子时间段,并判断所述子时间段是否为新的子时间段;
若所述子时间段为新的子时间段,生成随机数;
根据随机数的数值与加噪方式之间的映射关系,确定与所述随机数相对应的加噪方式;
将与所述随机数相对应的加噪方式确定为所述图像对应的加噪方式;
若所述子时间段不是新的时间段,则根据随机数的数值与加噪方式之间的映射关系,则将上一次与该时间段生成的随机数所对应的加噪方式确定为所述图像的加噪方式。
8.一种图像处理装置,其特征在于,所述装置包括:
环境场景确定模块,用于对采集的图像进行环境场景识别,识别所述图像所处的环境场景;
关注目标确定模块,用于基于环境场景与关注目标之间的对应关系,确定所述图像所处的环境场景所对应的关注目标;
目标像素区域确定模块,用于确定所述关注目标在所述图像中的目标像素区域;
第一加噪处理模块,用于对所述图像中的所述目标像素区域进行加噪处理,得到第一图像。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如权利要求1至7中任一项所述的方法。
10.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210238391.5A CN115222610B (zh) | 2022-03-11 | 2022-03-11 | 图像方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210238391.5A CN115222610B (zh) | 2022-03-11 | 2022-03-11 | 图像方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115222610A true CN115222610A (zh) | 2022-10-21 |
CN115222610B CN115222610B (zh) | 2024-07-02 |
Family
ID=83606177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210238391.5A Active CN115222610B (zh) | 2022-03-11 | 2022-03-11 | 图像方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115222610B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115937421A (zh) * | 2022-12-13 | 2023-04-07 | 昆易电子科技(上海)有限公司 | 仿真视频数据的生成方法、图像生成装置及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108268831A (zh) * | 2017-12-01 | 2018-07-10 | 百度在线网络技术(北京)有限公司 | 一种无人车视觉检测的鲁棒性测试方法和系统 |
CN109151318A (zh) * | 2018-09-28 | 2019-01-04 | 成都西纬科技有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN109934076A (zh) * | 2017-12-19 | 2019-06-25 | 广州汽车集团股份有限公司 | 视觉盲区的场景图像的生成方法、装置、系统及终端设备 |
CN112258504A (zh) * | 2020-11-13 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、设备及计算机可读存储介质 |
CN112836756A (zh) * | 2021-02-04 | 2021-05-25 | 上海明略人工智能(集团)有限公司 | 图像识别模型训练方法、系统和计算机设备 |
CN113469965A (zh) * | 2021-06-25 | 2021-10-01 | 中国人民解放军陆军工程大学 | 一种利用掩模限制扰动噪声的对抗样本生成方法 |
CN113762397A (zh) * | 2021-09-10 | 2021-12-07 | 北京百度网讯科技有限公司 | 检测模型训练、高精度地图更新方法、设备、介质及产品 |
-
2022
- 2022-03-11 CN CN202210238391.5A patent/CN115222610B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108268831A (zh) * | 2017-12-01 | 2018-07-10 | 百度在线网络技术(北京)有限公司 | 一种无人车视觉检测的鲁棒性测试方法和系统 |
CN109934076A (zh) * | 2017-12-19 | 2019-06-25 | 广州汽车集团股份有限公司 | 视觉盲区的场景图像的生成方法、装置、系统及终端设备 |
CN109151318A (zh) * | 2018-09-28 | 2019-01-04 | 成都西纬科技有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN112258504A (zh) * | 2020-11-13 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、设备及计算机可读存储介质 |
CN112836756A (zh) * | 2021-02-04 | 2021-05-25 | 上海明略人工智能(集团)有限公司 | 图像识别模型训练方法、系统和计算机设备 |
CN113469965A (zh) * | 2021-06-25 | 2021-10-01 | 中国人民解放军陆军工程大学 | 一种利用掩模限制扰动噪声的对抗样本生成方法 |
CN113762397A (zh) * | 2021-09-10 | 2021-12-07 | 北京百度网讯科技有限公司 | 检测模型训练、高精度地图更新方法、设备、介质及产品 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115937421A (zh) * | 2022-12-13 | 2023-04-07 | 昆易电子科技(上海)有限公司 | 仿真视频数据的生成方法、图像生成装置及可读存储介质 |
CN115937421B (zh) * | 2022-12-13 | 2024-04-02 | 昆易电子科技(上海)有限公司 | 仿真视频数据的生成方法、图像生成装置及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115222610B (zh) | 2024-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN108268867B (zh) | 一种车牌定位方法及装置 | |
CN110910343A (zh) | 路面裂缝检测的方法、装置及计算机设备 | |
CN112801158A (zh) | 基于级联融合和注意力机制的深度学习小目标检测方法及装置 | |
CN105046235A (zh) | 车道线的识别建模方法和装置、识别方法和装置 | |
CN114049356B (zh) | 一种结构表观裂缝检测方法、装置及系统 | |
CN112084923A (zh) | 一种遥感图像语义分割方法、存储介质及计算设备 | |
CN110388929B (zh) | 导航地图更新方法、装置及系统 | |
CN111753610A (zh) | 天气识别方法及装置 | |
CN114419146B (zh) | 一种多源光学样本生成方法和系统 | |
CN102214290A (zh) | 车牌定位方法及车牌定位模板训练方法 | |
CN115222610B (zh) | 图像方法、装置、电子设备及存储介质 | |
CN115620090A (zh) | 模型训练方法、低照度目标重识别方法和装置、终端设备 | |
CN116597270A (zh) | 基于注意力机制集成学习网络的道路损毁目标检测方法 | |
CN112017444A (zh) | 一种套牌车辆检测方法及其装置、介质和系统 | |
JP7264428B2 (ja) | 道路標識認識装置及びそのプログラム | |
CN111144467A (zh) | 一种场景因素获取的实现方法及系统 | |
CN113205510B (zh) | 铁路侵限异物检测方法、装置及终端 | |
CN116263735A (zh) | 神经网络的鲁棒性评估方法、装置、设备及存储介质 | |
CN114037976A (zh) | 一种道路交通标志识别方法及装置 | |
CN117727010A (zh) | 目标检测方法、图像脱敏方法、设备、介质及车辆 | |
CN112712098B (zh) | 图像数据处理方法及装置 | |
Adam et al. | Robustness and deployability of deep object detectors in autonomous driving | |
Ashqer et al. | Parking lot space detection based on image processing | |
CN112215229B (zh) | 基于轻量网络端到端的车牌识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |