WO2023066147A1 - 图像处理方法、装置、电子设备及介质 - Google Patents

图像处理方法、装置、电子设备及介质 Download PDF

Info

Publication number
WO2023066147A1
WO2023066147A1 PCT/CN2022/125308 CN2022125308W WO2023066147A1 WO 2023066147 A1 WO2023066147 A1 WO 2023066147A1 CN 2022125308 W CN2022125308 W CN 2022125308W WO 2023066147 A1 WO2023066147 A1 WO 2023066147A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
original
target
target image
background area
Prior art date
Application number
PCT/CN2022/125308
Other languages
English (en)
French (fr)
Inventor
杨斯琦
吕颖
董小瑜
Original Assignee
中国第一汽车股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中国第一汽车股份有限公司 filed Critical 中国第一汽车股份有限公司
Publication of WO2023066147A1 publication Critical patent/WO2023066147A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Definitions

  • the embodiments of the present application relate to the technical field of image synthesis, for example, to an image processing method, device, electronic device, and medium.
  • an image processing device which includes:
  • an image extraction module configured to extract a target image of the target object from the original image
  • the image synthesis module is configured to insert the target image into the background area of the original image to obtain a composite image.
  • the embodiment of the present application provides an electronic device, including a memory, a processor, and a computer program stored on the memory and executable by the processor.
  • the processor executes the computer program, the implementation of the present application is realized.
  • the embodiment of the present application provides a computer-readable storage medium, on which a computer program is stored, and when the computer program is executed by a processor, the image processing method as described in the embodiment of the present application is implemented .
  • Fig. 3 is a flow chart of an image synthesis method provided by another embodiment of the present application.
  • Fig. 1 is a flow chart of an image processing method provided by an embodiment of the present application, and this embodiment is applicable to a scene where a specific object in a picture is enhanced.
  • the method can be executed by the image processing apparatus provided in the embodiment of the present application, and the apparatus can be implemented by software and/or hardware, and can be integrated into electronic equipment.
  • an image semantic segmentation tool may be used to extract the target object.
  • image semantic segmentation tools There are many options for image semantic segmentation tools.
  • the YOLACT (an instance segmentation algorithm) semantic segmentation tool based on Microsoft COCO dataset training is selected to extract the target image of the target object in the original image.
  • the content extracted by YOLACT includes target object mask information (a matrix composed of 0, 1 numbers), bounding box information, and category names.
  • the bounding box refers to the bounding box of the target image
  • the shape of the bounding box is a rectangle
  • the bounding box information can include the size of the bounding box and the coordinate information of the four corner pixels of the bounding box in the original image, etc.
  • the category name can be car
  • pedestrians, cars and pedestrians can also be divided into more detailed divisions. Taking cars as an example, cars can be divided into electric vehicles, buses, and cars.
  • the semantic segmentation tool YOLACT used in the embodiment of the present application will recognize all objects in the original image and identify the category of the objects before extracting the target object.
  • the original object refers to all objects existing in the original image.
  • the position information of the original object may be the coordinate information of the pixel of the centroid of the original object, or the coordinate information of the four corner pixels of the bounding box of the original object. It can be understood that the target object described in S110 is selected from the original objects according to certain rules.
  • the method further includes:
  • the insertion position of the target image in the background area is adjusted according to the positional relationship.
  • a candidate image refers to an image that only contains the original object.
  • the positional relationship between the target image and the candidate image of the original object can be the distance between the four sides of the bounding box of the target image and the four sides of the bounding box of the candidate image, and the distance can be based on the four corner points of the bounding box of the target image and the bounding box of the candidate image.
  • the pixel coordinate information is calculated.
  • Fig. 2 is a flowchart of an image processing method provided by another embodiment of the present application. This embodiment is modified based on the above embodiment: extracting the target image of the target object from the original image, including: extracting the target image from the original image Extracting candidate images of the original object; determining a target image from the candidate images according to the confidence that the original object is recognized as a target category.
  • the image processing method provided in the embodiment of the present application may include the following steps:
  • the original object refers to all the objects existing in the original image
  • the candidate image refers to the image containing only the original object
  • a confidence threshold such as 70%
  • the candidate images of the original object whose confidence level is higher than the confidence threshold in the target category are sequentially inserted into the background area of the original image as the target image to obtain a composite image.
  • determining the background area that does not overlap with the original object includes:
  • the bounding box of the candidate image of the original object can be identified by the semantic segmentation tool YOLACT.
  • the background area that does not overlap with the original object which can be determined according to the coordinate information of the four corner pixels of the bounding box of the candidate image and the position information of the original image. Empty areas, that is, areas of the background that do not overlap with the original object.
  • the blank area in the original image is determined, which facilitates the subsequent insertion of the target image into the blank area, prevents overlapping between images, and ensures the integrity and integrity of the composite image. recognizability.
  • the original image contains the candidate image A of the original object, and the coordinate axis is established with the lower left corner of the original image as the origin.
  • the abscissas of the upper left corner and lower right corner of the bounding box of A are x_1 and x_2 respectively, x_1 ⁇ x_2,
  • the vertical coordinates of the corner and the lower right corner are y_1 and y_2 respectively, y_1 ⁇ y_2, then the area formed by the inequality x ⁇ x_1, x>x_2, y>y_2, y ⁇ y_1 is the background area that does not overlap with the original object.
  • each background sub-region and the size information of the target image determine the range of each background sub-region and the range of the target image; based on the judgment that the range of the background sub-region is greater than the range of the target image As a result, the background sub-region is used as the target region;
  • the size information of the target image may include an area of an area within a bounding box of the target image, lengths of four sides of the bounding box, and the like.
  • the background sub-region refers to a plurality of irregular regions separated by candidate images of the original object in the original image, and the size information of the background sub-region may be the area of the background sub-region.
  • the target image when inserting the target image into the background area, it is first judged whether the size of the background sub-area is larger than the size of the target image, and based on the judgment result that the size of the background sub-area is larger than the size of the target image, the background The sub-area is used as the target area, and the target image is inserted into the target area to perform image synthesis.
  • Fig. 3 is a flowchart of an image synthesis method provided by another embodiment of the present application.
  • Figure 3 For any original picture A, use the image semantic segmentation technology to extract an object set O, which contains various objects that are common in life. Analyze the position of each object in the original picture A, and record it in the form of a bounding box. Select a suitable object a from the object set O as the object to be inserted into the original picture A. Traverse all the bounding boxes in the original picture A, place the object a to be inserted on one side close to the bounding box of the original picture, if the bounding box of the object to be inserted does not overlap with any other bounding boxes, generate an enhanced object Composite image B of a.
  • an advanced image semantic segmentation tool is used to extract the foreground image of the synthesized image, ensuring that the extracted foreground image category is a category that can be found in the Microsoft COCO dataset.
  • the extracted foreground image information includes the mask information of the object in the foreground image (stored in the form of a 0, 1 matrix), the bounding box information of the foreground image (stored in the format of a quadruple, storing the upper left corner and the lower right corner of the bounding box respectively Pixel coordinate information), and the category information of the object in the foreground image (stored in a single integer, representing the category label of the Microsoft COCO dataset).
  • the synthesized picture finally generated by the image synthesis method is based on the original picture as the background, and the object on the original picture as the foreground, and then generates a synthesized picture enhanced for a specific object.
  • the final composite image can be used as a training tool for deep learning.
  • the image extraction module 310 is configured to extract the target image of the target object from the original image.
  • the background area determination module 320 is configured to determine a background area that does not overlap with the original object according to the position information of the original object in the original image.
  • the image extraction module 310 includes:
  • a candidate image extraction unit is configured to extract a candidate image of the original object from the original image.
  • the target image determination unit is configured to determine the target image from the candidate images according to the confidence that the original object is recognized as the target category.
  • the background area determination module 320 includes:
  • a bounding box determination unit is configured to determine a bounding box of the candidate image of the original object.
  • the area determination unit is configured to determine a background area that does not overlap with the original object according to the area of the original image and the bounding box of the candidate image.
  • the area determination unit is set to:
  • the image synthesis module 330 includes:
  • the size information determining unit is configured to determine the size information of the target image according to the bounding box of the target image, and determine the size information of each background sub-region in the background region.
  • the target area determination unit is configured to determine the range of each background sub-region and the range of the target image according to the size information of each background sub-region and the size information of the target image, based on the existence of a background sub-region with a range larger than In the determination result of the range of the target image, the background sub-area is taken as the target area.
  • a synthesis unit configured to insert the target image into the target area to obtain a composite image.
  • the device further includes:
  • a positional relationship determining module configured to determine the positional relationship between the target image and the candidate image of the original object.
  • the position adjustment module is configured to adjust the insertion position of the target image in the background area according to the positional relationship.
  • the position adjustment module is set to:
  • the above-mentioned products can execute the image processing method provided by the embodiment of the present application, and have corresponding functional modules and beneficial effects for executing the method.
  • FIG. 5 is a schematic structural diagram of an electronic device provided by an embodiment of the present application.
  • FIG. 5 shows a block diagram of an exemplary electronic device 412 suitable for implementing embodiments of the present application.
  • the electronic device 412 shown in FIG. 5 is only one example.
  • the electronic device 412 may include: at least one processor 416; a memory 428 configured to store at least one program, and when the at least one program is executed by the at least one processor 416, the at least one The processor 416 implements the image processing method provided in the embodiment of the present application, including:
  • the components of the electronic device 412 may include: at least one processor 416, a memory 428, and a bus 418 connecting different device components (including the memory 428 and the processor 416).
  • Bus 418 represents at least one of several types of bus structures, including a memory bus or memory controller, a peripheral bus, an accelerated graphics port, a processor, or a local bus using any of a variety of bus structures.
  • bus structures include, for example, the Industry Standard Architecture (ISA) bus, the Micro Channel Architecture (MCA) bus, the processing ISA bus, the Video Electronics Standard Association (VESA) ) Local bus and Peripheral Component Interconnect (PCI) bus.
  • ISA Industry Standard Architecture
  • MCA Micro Channel Architecture
  • VESA Video Electronics Standard Association
  • PCI Peripheral Component Interconnect
  • Electronic device 412 optionally includes a variety of computer device-readable storage media. These storage media may be available storage media that can be accessed by the electronic device 412, including volatile and non-volatile storage media, removable and non-removable storage media.
  • Memory 428 may include computer device-readable storage media in the form of volatile memory, such as random access memory (Random Access Memory, RAM) 430 and/or cache memory 432 .
  • Electronic device 412 may include other removable/non-removable, volatile/nonvolatile computer device storage media.
  • storage system 434 may be used to read from and write to non-removable, non-volatile magnetic storage media (often referred to as "hard drives").
  • a disk drive may be provided for reading and writing to removable nonvolatile disks (such as "floppy disks"), and for removable nonvolatile optical disks (such as the Compact Disc-Read Only Memory, CD-ROM), Digital Video Disc-Read Only Memory (DVD-ROM) or other optical storage media) read and write optical disc drive.
  • each drive may be connected to bus 418 through at least one data storage media interface.
  • the memory 428 may include at least one program product having a set (eg, at least one) of program modules configured to perform the functions of the various embodiments of the present application.
  • a program/utility tool 440 having a set (at least one) of program modules 442, which may be stored, for example, in memory 428, such program modules 442 including an operating device, at least one application program, other program modules, and program data, in these examples Each or some combination may include implementations of network environments.
  • the program module 442 generally executes the functions and/or methods in the embodiments described in this application.
  • the electronic device 412 may also communicate with at least one external device 414 and/or a display 424, etc., and may also communicate with at least one device that enables the user to interact with the electronic device 412, and/or communicate with the electronic device 412 that enables the user to communicate with at least one Devices (such as network cards, modems, etc.) that communicate with other computing devices. Such communication may be performed through an Input/Output (I/O) interface 422 .
  • the electronic device 412 can also communicate with at least one network (such as a local area network (Local Area Network, LAN), a wide area network (Wide Area Network, WAN) and/or a public network, such as the Internet) through the network adapter 420. As shown in FIG.
  • network adapter 420 communicates with other modules of electronic device 412 via bus 418 .
  • other hardware and/or software modules may be used in conjunction with electronic device 412, including: microcode, device drivers, redundant processing units, external disk drive arrays, redundant array of independent disks (Redundant Array of Independent Disks, RAID) devices , tape drives, and data backup storage devices.
  • An embodiment of the present application provides a storage medium containing computer-executable instructions, the computer-executable instructions are used to execute an image processing method when executed by a computer processor, including:
  • the computer storage medium in the embodiments of the present application may use any combination of one or more computer-readable storage media.
  • the computer readable storage medium may be a computer readable signal storage medium or a computer readable storage medium.
  • the computer-readable storage medium may be, for example, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor device, device, or device, or a combination thereof.
  • Examples (non-exhaustive list) of computer-readable storage media include: electrical connection with at least one lead, portable computer disk, hard disk, random access memory (RAM), read only memory (Read Only Memory, ROM), computer Erasable programmable read-only memory (such as electronic programmable read-only memory (Electronic Programable Read Only Memory, EPROM) or flash memory), optical fiber, portable compact disk read-only memory (CD-ROM), optical storage device, magnetic storage device, Or a suitable combination of the above.
  • a computer-readable storage medium may be a tangible storage medium containing or storing a program, and the program may be used by or in combination with an instruction execution device, device, or device.
  • a computer readable signal storage medium may include a data signal carrying computer readable program code in baseband or as part of a carrier wave traveling as a data signal. Such propagated data signals may take many forms, including electromagnetic signals, optical signals, or any suitable combination of the foregoing.
  • the computer-readable signal storage medium may also be other computer-readable storage media other than the computer-readable storage medium, and the computer-readable storage medium may be sent, propagated, or transmitted for use by or in combination with an instruction execution device, apparatus, or device the program used.
  • the program code contained in the computer-readable storage medium can be transmitted by an appropriate storage medium, including wireless, electric wire, optical cable, radio frequency (Radio Frequency, RF), etc., or a suitable combination of the above.
  • an appropriate storage medium including wireless, electric wire, optical cable, radio frequency (Radio Frequency, RF), etc., or a suitable combination of the above.
  • Computer program code for carrying out the operations of the present application may be written in one or more programming languages or combinations thereof, including object-oriented programming languages such as Java, Smalltalk, C++, and conventional process programming language—such as "C" or a similar programming language.
  • the program code may execute entirely on the user's computer, partly on the user's computer, as a stand-alone software package, partly on the user's computer and partly on a remote computer or entirely on the remote computer or device.
  • the remote computer may be connected to the user computer through any kind of network, including a local area network (LAN) or a wide area network (WAN), or may be connected to an external computer (e.g. via the Internet using an Internet Service Provider). .
  • LAN local area network
  • WAN wide area network
  • Internet Service Provider e.g. via the Internet using an Internet Service Provider

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了一种图像处理方法、装置、电子设备及介质。该方法包括:从原始图像中提取目标对象的目标图像;根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。

Description

图像处理方法、装置、电子设备及介质
本公开要求在2021年10月19日提交中国专利局、申请号为202111214989.2的中国专利申请的优先权,该申请的全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及图像合成技术领域,例如涉及一种图像处理方法、装置、电子设备及介质。
背景技术
在自动驾驶场景下通常需要通过模型对车身周围的物体进行识别,而为了提高识别准确度,需要建立模型并使用大量的图片数据对模型进行训练。但是由于获得的图片中存在的目标物可能较少,导致数据规模不够大。
图片合成是一种有效地扩大训练数据规模的方法,合成图片技术一般用于生成外观满足用户需求的特定图片或者专门用于深度神经网络的训练数据。相关的合成图片技术中,先从原始图中将目标物提取出来,并采用图片块的方式向背景图中插入目标物像素矩阵,插入的方式大多采用随机的方式,且没有考虑背景图中已有的对象,所以可能会导致目标物被割裂或者背景图中的物体被覆盖,合成的图片不完整或无法识别,不适于作为深度神经网络的训练数据。
发明内容
本申请实施例提供一种图像处理方法、装置、电子设备及介质,可以实现对图片中的特定对象进行增强。
第一方面,本申请实施例提供了一种图像处理方法,所述方法包括:
从原始图像中提取目标对象的目标图像;
根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;
将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
第二方面,本申请实施例提供了一种图像处理装置,该装置包括:
图像提取模块,被设置为从原始图像中提取目标对象的目标图像;
背景区域确定模块,被设置为根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;
图像合成模块,被设置为将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
第三方面,本申请实施例提供了一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的图像处理方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现如本申请实施例所述的图像处理方法。
附图说明
图1是本申请一种实施例提供的图像处理方法流程图;
图2是本申请另一种实施例提供的图像处理方法的流程图;
图3是本申请又一种实施例提供的图像合成方法流程图;
图4是本申请一种实施例提供的图像处理装置结构框图;
图5是本申请一种实施例提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请在实施例中作说明。可以理解的是,此处所描述的实施例仅仅用于解释本申请。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分。
图1是本申请一种实施例提供的图像处理方法流程图,本实施例可适用于对图片中的特定对象进行增强的场景中。该方法可以由本申请实施例所提供的图像处理装置执行,该装置可以由软件和/或硬件的方式来实现,并可集成于电子设备中。
如图1所示,本申请实施例中提供的图像处理方法可包括以下步骤:
S110、从原始图像中提取目标对象的目标图像。
其中,原始图像是通过摄像设备拍摄的并用于训练模型的图像。目标对象是指即将被提取的对象。原始图像中通常会包含多个物体,例如车辆以及行人等,每一个物体都可以被视为目标对象进行提取,其中,提取的方式可以是随机选择一个物体作为目标对象进行提取,也可以是先对各个物体进行分类,然后按类别进行提取。目标图像是指仅包含目标对象的图像。
可选的,可以采用图片语义分割工具对目标对象进行提取。图片语义分割工具可以有多种选择,本申请实施例中选用基于微软COCO数据集训练得到的YOLACT(一种实例分割算法)语义分割工具来提取原始图像中的目标对象的目标图像。通过YOLACT提取到的内容包括目标对象掩码信息(由0、1数字组成的矩阵)、边界框信息以及类别名称。其中,边界框是指目标图像的边界框,边界框形状为矩形,边界框信息可以包括边界框的尺寸以及边界框四个角点像素在原始图像中的坐标信息等;类别名称可以是车、以及行人等,还可以对车以及行人等进行更细致的划分,以车为例,可以将车划分为电动车、公交车以及轿车等。本申请实施例中所使用的语义分割工具YOLACT在对目标对象进行提取前,会对原始图像中的所有物体进行识别,并对物体的类别进行标识。
S120、根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域。
其中,原始对象是指原始图像中存在的所有的物体。原始对象的位置信息可以是原始对象质心像素点所在的坐标信息,也可以是原始对象边界框四个角点像素的坐标信息。可以理解的,S110中所述的目标对象是按照一定规则从原始对象中挑选出来的。
需要说明的是,本申请实施例中,在从原始图像中提取目标对象的目标图像之前,会先在原始图像中对原始对象设置边界框,然后再进行后续步骤。
根据原始图像中原始对象的位置信息,确定与原始对象不存在重叠的背景区域,在一个例子中,原始图像中包含原始对象A,以原始图像左下角为原点建立坐标轴,原始对象A边界框左上角和右下角的横坐标分别为x_1和x_2,x_1<x_2,左上角和右下角的纵坐标分别为y_1和y_2,y_1<y_2,则由x<x_1,x>x_2,y>y_2,y<y_1构成的区域为与原始对象不存在重叠的背景区域。
S130、将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
由于本申请实施例中会事先在原始图像中对原始对象设置边界框,所以背景区域会被各个边界框隔成多个不规则形状的区域。在将目标图像插入至原始图像的背景区域中时,目标图像插入的位置不是随机选择的,而是在背景区域中试探,避免目标图像的边界框与其他原始对象的边界框发生重叠,以此找到合适的插入位置。
本申请实施例中,将所述目标图像插入至所述原始图像的背景区域中,得到合成图像之后,所述方法还包括:
确定所述目标图像与所述原始对象的候选图像的位置关系;
根据所述位置关系对所述目标图像在背景区域中的插入位置进行调整。
其中,候选图像是指仅包含原始对象的图像。目标图像与原始对象的候选图像的位置关系,可以是目标图像边界框的四条边与候选图像边界框的四条边之间的距离,距离可以根据目标图像边界框与候选图像边界框四个角点像素坐标信息计算得到。可选的,可以根据目标图像边界框的四条边与候选图像边界框的四条边之间的距离,对目标图像在背景区域中的插入位置进行调整,使目标图像边界框的四条边与候选图像边界框的四条边保持一定的距离,避免目标图像覆盖候选图像的部分或全部区域。
本申请实施例中,根据所述位置关系对所述目标图像在背景区域中的插入位置进行调整,包括:
基于所述目标图像的边界框与所述候选图像的边界框之间的最小距离值小于预设阈值的判断结果,按照预设单位距离,将所述目标图像向远离所述候选图像的方向移动。
其中,最小距离值是指目标图像边界框的四条边与候选图像边界框的四条边距离最近的两条边之间的距离。预设阈值可以根据实际情况进行设置,例如预设阈值可以是1毫米(mm),在目标图像边界框的四条边与候选图像边界框的四条边距离最近的两条边之间的距离小于1mm的情况下,将目标图像按照预设单位距离向远离所述候选图像的方向移动。预设单位距离也可以根据实际情况进行设置,例如预设单位可以是2mm,则此时目标图像向远离候选图像的方向移动2mm。
本申请实施例中,通过确定目标图像与候选图像的位置关系,并根据位置关系对目标图像在背景区域中的插入位置进行调整,使目标图像与候选图像保持一定的距离,可以避免插入的图像覆盖住原图中其他物体,合成的图片更完整和真实,易于识别,为图像识别模型的训练提供了良好的数据支持。
本申请实施例提供了一种图像处理方法,该方法包括:从原始图像中提取目标对象的目标图像;根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。以上技术方案中克服了相关技术中随机插入图片的缺陷,通过在空白的背景区域中一边试探性的插入目标图像一边判断目标图像是否与其他物体的边界框重叠,为目标对象找到合适的插入位置,避免了目标图像被割裂以及背景区域中的物体被覆盖的问题,合成的图像更完整且易于识别,为图像识别模型的训练提供了良好的数据支持。
图2是本申请另一种实施例提供的图像处理方法的流程图,本实施例以上述实施例为基础进行改动:从原始图像中提取目标对象的目标图像,包括:从所述原始图像中提取原始对象的候选图像;根据所述原始对象被识别为目标类别的置信度,从所述候选图像中确定目标图像。
如图2所示,本申请实施例中提供的图像处理方法可包括以下步骤:
S210、从所述原始图像中提取原始对象的候选图像。
其中,原始对象是指原始图像中存在的所有的物体,候选图像是指仅包含原始对象的图像。
S220、根据所述原始对象被识别为目标类别的置信度,从所述候选图像中确定目标图像。
本申请实施例中所使用的语义分割工具YOLACT在对目标对象进行提取之前,会对原始图像中的所有原始对象进行识别,并对原始对象的类别进行标识。通过对原始对象的类别进行标识,一幅原始图像中的原始对象会被归为多个类别,此时可将多个类别中的任意类别作为目标类别,例如,一幅原始图像中的原始对象被归为电动车类、自行车类、轿车类以及公交车类,则可将轿车类作为目标类别。可选的,语义分割工具YOLACT在对原始对象进行类别的识别的 同时,会计算原始对象属于某一类别的置信度,置信度可以理解为原始对象属于某一类别的概率,例如,语义分割工具YOLACT将原始图像中的原始对象A识别为公交车类,且原始对象A属于公交车类的置信度为90%,即原始对象A属于公交车类的概率为90%。
可选的,本申请实施例中,在确定目标类别以及目标类别中原始对象的置信度之后,可以根据原始对象的置信度高低,从高至低将原始对象的候选图像依次作为目标图像插入原始图像的背景区域中,得到合成图像。需要说明的是,本申请实施例中,将目标类别中置信度最高的候选图像作为目标图像插入原始图像的背景区域,得到合成图像1,然后将置信度次之的候选图像作为目标图像插入合成图像1的背景区域,得到合成图像2,以此类推,直至目标类别中的所有候选图像插入完毕。
在本申请实施例中,可选的,在确定目标类别以及目标类别中原始对象的置信度之后,可设置一个置信度阈值,例如70%,将目标类别中置信度小于置信度阈值的原始对象剔除,将目标类别中置信度高于置信度阈值的原始对象的候选图像作为目标图像依次插入原始图像的背景区域中,得到合成图像。
S230、根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域。
本申请实施例中,根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域,包括:
确定所述原始对象的候选图像的边界框;
根据所述原始图像的区域和所述候选图像的边界框,确定与所述原始对象不存在重叠的背景区域。
本申请实施例中,可以通过语义分割工具YOLACT对原始对象的候选图像的边界框进行识别。
根据原始图像的区域和候选图像的边界框,确定与原始对象不存在重叠的背景区域,可以是根据候选图像的边界框四个角点像素的坐标信息以及原始图像的位置信息确定原始图像中的空白区域,即与原始对象不存在重叠的背景区域。
本申请实施例中通过确定原始图像中原始对象的边界框,确定原始图像中 的空白区域,便于后续将目标图像插入到空白区域中,防止图像之间发生重叠,保证了合成图像的完整性和可识别性。
本申请实施例中,根据所述原始对象的图像区域和所述候选图像的边界框,确定与所述原始对象不存在重叠的背景区域,包括:
根据所述原始图像的区域的横坐标以及所述候选图像的边界框的横坐标建立横坐标不等式,并根据所述原始图像的区域的纵坐标以及所述候选图像的边界框的纵坐标建立纵坐标不等式;
对所述横坐标不等式和所述纵坐标不等式进行求解,根据求解结果确定与所述原始对象不存在重叠的背景区域。
在一个场景中,原始图像中包含原始对象的候选图像A,以原始图像左下角为原点建立坐标轴,A的边界框左上角和右下角的横坐标分别为x_1和x_2,x_1<x_2,左上角和右下角的纵坐标分别为y_1和y_2,y_1<y_2,则由不等式x<x_1,x>x_2,y>y_2,y<y_1构成的区域为与原始对象不存在重叠的背景区域。
S240、将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
本申请实施例中,将所述目标图像插入至所述原始图像的背景区域中,得到合成图像,包括:
根据所述目标图像的边界框,确定所述目标图像的尺寸信息,并确定所述背景区域中每个背景子区域的尺寸信息;
根据每个背景子区域的尺寸信息和所述目标图像的尺寸信息,确定每个背景子区域的范围和所述目标图像的范围;基于存在背景子区域的范围大于所述目标图像的范围的判断结果,将该背景子区域作为目标区域;
将所述目标图像插入至所述目标区域,得到合成图像。
其中,目标图像的尺寸信息可以包括目标图像的边界框内区域的面积以及边界框四条边的长度等。背景子区域是指在原始图像中被原始对象的候选图像所隔成的多个不规则区域,背景子区域的尺寸信息可以是背景子区域的面积。
本申请实施例中,在向背景区域中插入目标图像时,先判断是否有背景子区域的尺寸大于目标图像的尺寸,基于存在背景子区域的尺寸大于目标图像的尺寸的判断结果,将该背景子区域作为目标区域,并将目标图像插入所述目标 区域中,进行图像的合成。
本申请实施例中,通过将待插入的目标图像的尺寸与各个背景子区域的尺寸进行比较,可以为目标图像找到合适的插入位置,避免由于背景子区域尺寸小于目标图像的尺寸,导致图像覆盖的问题。
本申请实施例通过以下方法确定了待插入的目标图像:从所述原始图像中提取原始对象的候选图像;根据所述原始对象被识别为目标类别的置信度,从候选图像中确定目标图像。以上方法对待插入对象的图像进行了筛选,将识别较准确的对象的图像作为待插入图像,可以准确的将需要图像与原始图像进行合成,以此得到的图像数据满足了模型训练的需求。
图3是本申请又一种实施例提供的图像合成方法流程图。如图3所示:对于任意一张原始图片A,使用图片语义分割技术从中提取出一个对象集合O,此对象集合包含生活中常见的各类物体。分析原始图片A中的各个物体所在的位置,以边界框的形式作为记录。从对象集合O中筛选出合适的对象a作为插入原始图片A的待插入对象。遍历原始图片A中的所有边界框,将待插入对象a置于靠近原始图片边界框的某一侧,如果待插入对象的边界框不与其他任何边界框产生重叠,则生成一张增强了对象a的合成图片B。
上述单张图片的自我增强的图片合成技术中,使用了先进的图片语义分割工具提取合成图片的前景图,保证提取的前景图类别是一个可以在微软COCO数据集中找到的类别。提取的前景图信息包括前景图中对象的掩码信息(以0、1矩阵的形式存储),前景图的边界框信息(以四元组的格式存储,分别存储边界框左上角和右下角的像素坐标信息),以及前景图中对象的类别信息(以单个整数存储,代表微软COCO数据集的类别标号)。
本申请实施例中由所述的图像合成方法最终生成的合成图片是以原始图片作为背景,以原始图片上的对象作为前景,进而生成的对特定对象增强后的合成图片。最终的合成图片可以作为深度学习的训练工具。
图4是本申请一种实施例提供的图像处理装置结构框图,该装置可执行本申请任意实施例所提供的图像处理方法,具备执行方法相应的功能模块和有益效 果。如图4所示,该装置可以包括:
图像提取模块310,被设置为从原始图像中提取目标对象的目标图像。
背景区域确定模块320,被设置为根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域。
图像合成模块330,被设置为将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
本申请实施例中,所述图像提取模块310,包括:
候选图像提取单元,被设置为从所述原始图像中提取原始对象的候选图像。
目标图像确定单元,被设置为根据所述原始对象被识别为目标类别的置信度,从候选图像中确定目标图像。
本申请实施例中,所述背景区域确定模块320,包括:
边界框确定单元,被设置为确定所述原始对象的候选图像的边界框。
区域确定单元,被设置为根据所述原始图像的区域和所述候选图像的边界框,确定与所述原始对象不存在重叠的背景区域。
本申请实施例中,所述区域确定单元,是被设置为:
根据所述原始图像的区域的横坐标以及所述候选图像的边界框的横坐标建立横坐标不等式,并根据所述原始图像的区域的纵坐标以及所述候选图像的边界框的纵坐标建立纵坐标不等式;
对所述横坐标不等式和所述纵坐标不等式进行求解,根据求解结果确定与所述原始对象不存在重叠的背景区域。
本申请实施例中,所述图像合成模块330,包括:
尺寸信息确定单元,被设置为根据所述目标图像的边界框,确定所述目标图像的尺寸信息,并确定所述背景区域中每个背景子区域的尺寸信息。
目标区域确定单元,被设置为根据每个背景子区域的尺寸信息和所述目标图像的尺寸信息,确定每个背景子区域的范围和所述目标图像的范围,基于存在背景子区域的范围大于所述目标图像的范围的判断结果,将该背景子区域作为目标区域。
合成单元,被设置为将所述目标图像插入至所述目标区域,得到合成图像。
本申请实施例中,所述装置,还包括:
位置关系确定模块,被设置为确定所述目标图像与所述原始对象的候选图像的位置关系。
位置调整模块,被设置为根据所述位置关系对所述目标图像在背景区域中的插入位置进行调整。
本申请实施例中,所述位置调整模块,是被设置为:
基于所述目标图像的边界框与所述候选图像的边界框之间的最小距离值小于预设阈值的判断结果,按照预设单位距离,将所述目标图像向远离所述候选图像的方向移动。
上述产品可执行本申请实施例所提供的图像处理方法,具备执行方法相应的功能模块和有益效果。
图5是本申请一种实施例提供的电子设备的结构示意图。图5示出了适于用来实现本申请实施例的示例性电子设备412的框图。图5显示的电子设备412仅仅是一个示例。
如图5所示,电子设备412可以包括:至少一个处理器416;存储器428,被设置为存储至少一个程序,在所述至少一个程序被所述至少一个处理器416执行时,所述至少一个处理器416实现本申请实施例所提供的图像处理方法,包括:
从原始图像中提取目标对象的目标图像;
根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;
将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
电子设备412的组件可以包括:至少一个处理器416,存储器428,连接不同设备组件(包括存储器428和处理器416)的总线418。
总线418表示几类总线结构中的至少一种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结 构的局域总线。举例来说,这些体系结构包括工业标准体系结构(Industry Standard Architecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,处理型ISA总线、视频电子标准协会(Vedio Electronic Standard Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
电子设备412可选地包括多种计算机设备可读存储介质。这些存储介质可以是能够被电子设备412访问的可用存储介质,包括易失性和非易失性存储介质,可移动的和不可移动的存储介质。
存储器428可以包括易失性存储器形式的计算机设备可读存储介质,例如随机存取存储器(Random Access Memory,RAM)430和/或高速缓存存储器432。电子设备412可以包括其它可移动/不可移动的、易失性/非易失性计算机设备存储介质。仅作为举例,存储系统434可以用于读写不可移动的、非易失性磁存储介质(通常称为“硬盘驱动器”)。可选的,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如便携式紧凑磁盘只读存储器(Compact Disc-Read Only Memory,CD-ROM),数字通用光盘只读存储器(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光存储介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过至少一个数据存储介质接口与总线418相连。存储器428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储器428中,这样的程序模块442包括操作设备、至少一个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本申请所描述的实施例中的功能和/或方法。
电子设备412也可以与至少一个外部设备414和/或显示器424等通信,还可与至少一个使得用户能与该电子设备412交互的设备通信,和/或与使得该电子设备412能与至少一个其它计算设备进行通信的设备(例如网卡,调制解调器等)通信。这种通信可以通过输入/输出(Input/Output,I/O)接口422进行。并且,电子设备412还可以通过网络适配器420与至少一个网络(例如局域网(Local Area Network,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如 因特网)通信。如图5所示,网络适配器420通过总线418与电子设备412的其它模块通信。应当明白,可以结合电子设备412使用其它硬件和/或软件模块,包括:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、独立冗余磁盘阵列(Redundant Array of Independent Disks,RAID)设备、磁带驱动器以及数据备份存储设备等。
处理器416通过运行存储在存储器428中的多个程序中其他程序的至少一个,从而执行各种功能应用以及数据处理,例如实现本申请实施例所提供的一种图像处理方法。
本申请一种实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行图像处理方法,包括:
从原始图像中提取目标对象的目标图像;
根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;
将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
本申请实施例的计算机存储介质,可以采用一个或多个计算机可读的存储介质的任意组合。计算机可读存储介质可以是计算机可读信号存储介质或者计算机可读存储介质。计算机可读存储介质例如可以是电、磁、光、电磁、红外线、或半导体的设备、装置或器件,或者以上的组合。计算机可读存储介质的示例(非穷举的列表)包括:具有至少一个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(Read Only Memory,ROM)、可擦式可编程只读存储器(如电子可编程只读存储器(Electronic Programable Read Only Memory,EPROM)或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的合适的组合。在本申请实施例中,计算机可读存储介质可以是包含或存储程序的有形存储介质,该程序可以被指令执行设备、装置或者器件使用或者与其结合使用。
计算机可读的信号存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括电磁信号、光信号或上述的合适的组合。计算机可读的信号存 储介质还可以是计算机可读存储介质以外的其他计算机可读存储介质,该计算机可读存储介质可以发送、传播或者传输用于由指令执行设备、装置或者器件使用或者与其结合使用的程序。
计算机可读存储介质上包含的程序代码可以用适当的存储介质传输,包括无线、电线、光缆、射频(Radio Frequency,RF)等,或者上述的合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

Claims (10)

  1. 一种图像处理方法,所述方法包括:
    从原始图像中提取目标对象的目标图像;
    根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;
    将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
  2. 根据权利要求1所述的方法,其中,所述从原始图像中提取目标对象的目标图像,包括:
    从所述原始图像中提取原始对象的候选图像;
    根据所述原始对象被识别为目标类别的置信度,从所述候选图像中确定目标图像。
  3. 根据权利要求1所述的方法,其中,所述根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域,包括:
    确定所述原始对象的候选图像的边界框;
    根据所述原始图像的区域和所述候选图像的边界框,确定与所述原始对象不存在重叠的背景区域。
  4. 根据权利要求3所述的方法,其中,所述根据所述原始对象的图像区域和所述候选图像的边界框,确定与所述原始对象不存在重叠的背景区域,包括:
    根据所述原始图像的区域的横坐标以及所述候选图像的边界框的横坐标建立横坐标不等式,并根据所述原始图像的区域的纵坐标以及所述候选图像的边界框的纵坐标建立纵坐标不等式;
    对所述横坐标不等式和所述纵坐标不等式进行求解,根据求解结果确定与所述原始对象不存在重叠的背景区域。
  5. 根据权利要求1所述的方法,其中,所述将所述目标图像插入至所述原 始图像的背景区域中,得到合成图像,包括:
    根据所述目标图像的边界框,确定所述目标图像的尺寸信息,并确定所述背景区域中每个背景子区域的尺寸信息;
    根据每个背景子区域的尺寸信息和所述目标图像的尺寸信息,确定每个背景子区域的范围和所述目标图像的范围;基于存在背景子区域的范围大于所述目标图像的范围的判断结果,将该背景子区域作为目标区域;
    将所述目标图像插入至所述目标区域,得到合成图像。
  6. 根据权利要求1所述的方法,在将所述目标图像插入至所述原始图像的背景区域中,得到合成图像之后,所述方法还包括:
    确定所述目标图像与所述原始对象的候选图像的位置关系;
    根据所述位置关系对所述目标图像在背景区域中的插入位置进行调整。
  7. 根据权利要求6所述的方法,其中,所述根据所述位置关系对所述目标图像在背景区域中的插入位置进行调整,包括:
    基于所述目标图像的边界框与所述候选图像的边界框之间的最小距离值小于预设阈值的判断结果,按照预设单位距离,将所述目标图像向远离所述候选图像的方向移动。
  8. 一种图像处理装置,所述装置包括:
    图像提取模块,被设置为从原始图像中提取目标对象的目标图像;
    背景区域确定模块,被设置为根据所述原始图像中原始对象的位置信息,确定与所述原始对象不存在重叠的背景区域;
    图像合成模块,被设置为将所述目标图像插入至所述原始图像的背景区域中,得到合成图像。
  9. 一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器运 行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的图像处理方法。
  10. 一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的图像处理方法。
PCT/CN2022/125308 2021-10-19 2022-10-14 图像处理方法、装置、电子设备及介质 WO2023066147A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111214989.2 2021-10-19
CN202111214989.2A CN113887481A (zh) 2021-10-19 2021-10-19 一种图像处理方法、装置、电子设备及介质

Publications (1)

Publication Number Publication Date
WO2023066147A1 true WO2023066147A1 (zh) 2023-04-27

Family

ID=79003408

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/125308 WO2023066147A1 (zh) 2021-10-19 2022-10-14 图像处理方法、装置、电子设备及介质

Country Status (2)

Country Link
CN (1) CN113887481A (zh)
WO (1) WO2023066147A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887481A (zh) * 2021-10-19 2022-01-04 中国第一汽车股份有限公司 一种图像处理方法、装置、电子设备及介质
CN115908215A (zh) * 2022-11-17 2023-04-04 创新奇智(重庆)科技有限公司 数据获取方法、装置、电子设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652796A (zh) * 2020-05-13 2020-09-11 上海连尚网络科技有限公司 图像处理方法、电子设备及计算机可读存储介质
CN111932447A (zh) * 2020-08-04 2020-11-13 中国建设银行股份有限公司 一种图片处理方法、装置、设备及存储介质
CN112085106A (zh) * 2020-09-10 2020-12-15 江苏提米智能科技有限公司 一种应用于多图像融合的图像识别方法、装置、电子设备及存储介质
CN112560698A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 图像处理方法、装置、设备和介质
US20210211559A1 (en) * 2018-05-24 2021-07-08 Joyinme Pte. Ltd. Method and apparatus for making ghosting special effect for movie, and electronic device and medium
CN113887481A (zh) * 2021-10-19 2022-01-04 中国第一汽车股份有限公司 一种图像处理方法、装置、电子设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210211559A1 (en) * 2018-05-24 2021-07-08 Joyinme Pte. Ltd. Method and apparatus for making ghosting special effect for movie, and electronic device and medium
CN111652796A (zh) * 2020-05-13 2020-09-11 上海连尚网络科技有限公司 图像处理方法、电子设备及计算机可读存储介质
CN111932447A (zh) * 2020-08-04 2020-11-13 中国建设银行股份有限公司 一种图片处理方法、装置、设备及存储介质
CN112085106A (zh) * 2020-09-10 2020-12-15 江苏提米智能科技有限公司 一种应用于多图像融合的图像识别方法、装置、电子设备及存储介质
CN112560698A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 图像处理方法、装置、设备和介质
CN113887481A (zh) * 2021-10-19 2022-01-04 中国第一汽车股份有限公司 一种图像处理方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN113887481A (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
WO2023066147A1 (zh) 图像处理方法、装置、电子设备及介质
WO2020221013A1 (zh) 一种图像处理方法、装置、电子设备以及存储介质
US10726304B2 (en) Refining synthetic data with a generative adversarial network using auxiliary inputs
US20190042888A1 (en) Training method, training apparatus, region classifier, and non-transitory computer readable medium
WO2018103608A1 (zh) 一种文字检测方法、装置及存储介质
CN110189336B (zh) 图像生成方法、系统、服务器及存储介质
WO2014174932A1 (ja) 画像処理装置、プログラム及び画像処理方法
WO2019174405A1 (zh) 车牌辨识方法以及其系统
CN110751682B (zh) 一种提取和标识图像的方法、装置、终端设备及存储介质
EP3709212A1 (en) Image processing method and device for processing image, server and storage medium
CN110619656B (zh) 基于双目摄像头的人脸检测跟踪方法、装置及电子设备
CN113971727A (zh) 一种语义分割模型的训练方法、装置、设备和介质
CN112200142A (zh) 一种识别车道线的方法、装置、设备及存储介质
CN112508835A (zh) 一种基于gan的无造影剂医学图像增强建模方法
CN109300322B (zh) 引导线绘制方法、装置、设备和介质
CN110874170A (zh) 一种图像区域修正方法、图像分割方法及装置
CN111028331B (zh) 一种高性能的车辆动态三维建模与轨迹实时渲染方法及装置
CN112241963A (zh) 基于车载视频的车道线识别方法、系统和电子设备
CN109141457B (zh) 导航评估方法、装置、计算机设备和存储介质
CN116433903A (zh) 实例分割模型构建方法、系统、电子设备及存储介质
WO2022247628A1 (zh) 一种数据标注方法及相关产品
CN115035530A (zh) 图像处理方法、图像文本获得方法、装置及电子设备
CN111488776A (zh) 对象检测方法、对象检测装置和电子设备
CN115310277A (zh) 模型训练的方法、系统、设备及存储介质
CN111819567A (zh) 使用语义特征来匹配图像的方法和装置