CN110378999A - 训练样本中目标物体的目标框标注方法、装置及存储介质 - Google Patents
训练样本中目标物体的目标框标注方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110378999A CN110378999A CN201910548887.0A CN201910548887A CN110378999A CN 110378999 A CN110378999 A CN 110378999A CN 201910548887 A CN201910548887 A CN 201910548887A CN 110378999 A CN110378999 A CN 110378999A
- Authority
- CN
- China
- Prior art keywords
- target
- target object
- scene
- training sample
- target scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012549 training Methods 0.000 title claims abstract description 54
- 238000009877 rendering Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 18
- 230000001537 neural effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 abstract description 2
- 238000002372 labelling Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 7
- 238000009413 insulation Methods 0.000 description 6
- 239000012212 insulator Substances 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种训练样本中目标物体的目标框标注方法,包括:对目标场景进行三维建模,得到目标场景模型;对目标场景模型进行渲染,得到目标场景渲染图;对目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;对目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据目标场景掩膜图得到目标物体的目标框坐标信息;将目标框中的目标物体区域放置于背景图片上,并生成目标物体的目标框标注文件。本发明公开的一种训练样本中目标物体的目标框标注方法,能够大大减少人工标注样本的时间和精力,提高标注的准确率。本发明还公开了一种训练样本中目标物体的目标框标注装置和存储介质。
Description
技术领域
本发明涉及目标框标注技术领域,尤其涉及一种训练样本中目标物体的目标框标注方法、装置及存储介质。
背景技术
输变电关键设施运行和检修是保障电网可靠稳定运行的重要任务。近年来,对输变电场景图像数据的人工排查逐渐替代了现场巡检的方式,但运检人员需花费大量时间排查图像,造成重复性工作量大、发现隐患不及时等问题。计算机视觉及深度学习技术的应用一定程度地改善了这些问题,但仍存在标准化训练数据集缺乏。
现有技术中,通常采用无人机对目标进行图片采集,然后使用人工操作软件进行手动标注训练样本。
本发明人在实施本发明的过程中发现,现有技术中存在以下技术问题:
采用人工标注的方法,错误率高,效率低,成本高,且人工标注非常地耗时耗力。
发明内容
本发明实施例提供一种训练样本中目标物体的目标框标注方法,能够大大减少人工标注样本的时间和精力,提高标注的准确率。
本发明实施例一提供一种训练样本中目标物体的目标框标注方法,包括:
对目标场景进行三维建模,得到目标场景模型;
对所述目标场景模型进行渲染,得到目标场景渲染图;
对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
对所述目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据所述目标场景掩膜图得到目标物体的目标框坐标信息;
将所述目标框中的目标物体区域放置于背景图片上,并生成所述目标物体的目标框标注文件。
作为上述方案的改进,还包括:将所述目标物体区域进行随机处理,得到随机处理后的目标物体的目标框坐标信息;
将随机处理后的目标物体区域放置于背景图片上,并生成所述随机处理后的目标物体的目标框标注文件;
其中,所述随机处理包括随机翻转与缩放。
作为上述方案的改进,所述目标框坐标信息为:(xmin,ymin,xmax,ymax);
所述将所述目标物体区域进行随机处理,得到随机处理后的目标物体的目标框坐标信息,具体包括:
将所述目标物体区域进行随机处理,通过如下公式(1)和(2)计算进行随机翻转后的目标框标签,通过如下公式(3)和(4)计算随机缩放后的目标框标签;
式中,w和h分别表示所述目标物体区域的宽度和高度,s表示缩放因子。
作为上述方案的改进,还包括:将随机处理后的目标物体区域放置于背景图片上后,将放置后的背景图片作为训练样本,进行神经网络训练。
本发明实施例二对应提供了一种训练样本中目标物体的目标框标注装置,包括:
三维建模单元,用于对目标场景进行三维建模,得到目标场景模型;
模型渲染单元,用于对所述目标场景模型进行渲染,得到目标场景渲染图;
掩膜处理单元,用于对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
目标框生成单元,用于对所述目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据所述目标场景掩膜图得到目标物体的目标框坐标信息;
目标框标注单元,用于将所述目标框中的目标物体区域放置于背景图片上,并生成所述目标物体的目标框标注文件。
本发明实施例三对应提供了一种训练样本中目标物体的目标框标注装置,包括:处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如本发明实施例一所述的一种训练样本中目标物体的目标框标注方法。
本发明实施例四对应提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如本发明实施例一所述的一种训练样本中目标物体的目标框标注方法。
本发明实施例提供的一种训练样本中目标物体的目标框标注方法,具有如下有益效果:
通过三维建模对电网运行场景目标物体所在的目标场景进行空间建模,可以灵活地通过改变三维建模软件中摄像头的姿态产生更多丰富角度的样本,提高神经网络训练样本的多样性、可靠性和全面性,以进一步进行自动标注,提高自动目标框标注的准确率;通过渲染生成真实目标场景的2D目标场景渲染图,并对目标场景渲染图进行掩膜计算生成目标物体区域,从而实现精确地提取目标物体的目标框坐标信息,以进一步实现精确地目标框标注;将目标框中的目标物体区域进行随机处理,并将随机处理后的目标物体区域放置于任意背景图片上后,把放置后的背景图片作为训练样本,进行神经网络训练,能够进一步提高神经网络训练样本的多样性、可靠性和全面性,并使得训练后的神经网络学习更多目标物体与任意场景的组合,从而能够识别更多不同场景中的不同目标物体,大大减少了人工标注样本的时间和精力,提高了目标框标注的准确率。
附图说明
图1是本发明实施例一提供的一种训练样本中目标物体的目标框标注方法的流程示意图。
图2是本发明实施例一提供的一具体实施例的目标场景模型示意图。
图3是本发明实施例一提供的一具体实施例的目标场景渲染图。
图4是本发明实施例一提供的一具体实施例的目标物体区域和边缘提取示意图。
图5是本发明实施例一提供的一具体实施例的放置有随机处理后的绝缘子的背景图片。
图6是本发明实施例一提供的一具体实施例的绝缘子目标框标注文件。
图7是本发明实施例一提供的一具体实施例的绝缘子目标框标注可视化示意图。
图8是本发明实施例二提供的一种训练样本中目标物体的目标框标注装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明实施例一提供的一种训练样本中目标物体的目标框标注方法的流程示意图,包括:
S101、对目标场景进行三维建模,得到目标场景模型;
S102、对所述目标场景模型进行渲染,得到目标场景渲染图;
S103、对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
S104、对所述目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据所述目标场景掩膜图得到目标物体的目标框坐标信息;
S105、将所述目标框中的目标物体区域放置于背景图片上,并生成所述目标物体的目标框标注文件。
进一步地,还包括:将所述目标物体区域进行随机处理,得到随机处理后的目标物体的目标框坐标信息;
将随机处理后的目标物体区域放置于背景图片上,并生成所述随机处理后的目标物体的目标框标注文件;
其中,所述随机处理包括随机翻转与缩放。
进一步地,所述目标框坐标信息为:(xmin,ymin,xmax,ymax);
所述将所述目标物体区域进行随机处理,得到随机处理后的目标物体的目标框坐标信息,具体包括:
将所述目标物体区域进行随机处理,通过如下公式(1)和(2)计算进行随机翻转后的目标框标签,通过如下公式(3)和(4)计算随机缩放后的目标框标签;
式中,w和h分别表示所述目标物体区域的宽度和高度,s表示缩放因子。
进一步地,还包括:将随机处理后的目标物体区域放置于背景图片上后,将放置后的背景图片作为训练样本,进行神经网络训练。
优选的,对目标场景进行三维建模的方式是通过三维建模软件进行建模;此方法可以灵活地通过改变三维建模软件中摄像头的姿态产生更多丰富角度的样本,提高神经网络训练样本的多样性、可靠性和全面性,以进一步进行软件自动标注,提高软件自动标注的准确率,大大减少人工标注的精力和时间。
优选的,对目标场景渲染图进行掩膜计算生成目标物体区域的方法可包括:(1)用掩模对目标场景渲染图上目标物体区域进行屏蔽,使其不参加处理或不参加处理参数的计算;(2)用相似性变量或图像匹配方法检测和提取目标场景渲染图中与掩模相似的结构特征。从而实现精确地提取目标物体区域,以进一步实现精确地目标框标注。
在一具体的实施例中,令目标物体为绝缘子,对绝缘子所在的目标场景进行三维建模,得到目标场景模型;参见图2,是本发明实施例一提供的一具体实施例的目标场景模型示意图。
对绝缘子所在的目标场景进行渲染;参见图3,是本发明实施例一提供的一具体实施例的目标场景渲染图。
参见图4,是本发明实施例一提供的一具体实施例的目标物体区域和边缘提取示意图。对图3中的目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;对目标场景渲染图进行掩膜计算生成目标物体区域,即分割出绝缘子区域;并根据所述目标场景掩膜图得到目标物体的目标框坐标信息。
将随机处理后的绝缘子区域放置于随机选择的背景图片上,参见图5,是本发明实施例一提供的一具体实施例的放置有随机处理后的绝缘子的背景图片。并生成如图6所示的绝缘子目标框标注文件。
将放置有随机处理后的绝缘子的背景图片作为训练样本进行神经网络训练。
参见图7,是本发明实施例一提供的一具体实施例的绝缘子目标框标注可视化示意图。
本发明实施例提供的一种训练样本中目标物体的目标框标注方法、装置及存储介质,具有如下有益效果:
通过三维建模对电网运行场景目标物体所在的目标场景进行空间建模,可以灵活地通过改变三维建模软件中摄像头的姿态产生更多丰富角度的样本,提高神经网络训练样本的多样性、可靠性和全面性,以进一步进行自动标注,提高自动目标框标注的准确率;通过渲染生成真实目标场景的2D目标场景渲染图,并对目标场景渲染图进行掩膜计算生成目标物体区域,从而实现精确地提取目标物体的目标框坐标信息,以进一步实现精确地目标框标注;将目标框中的目标物体区域进行随机处理,并将随机处理后的目标物体区域放置于任意背景图片上后,把放置后的背景图片作为训练样本,进行神经网络训练,能够进一步提高神经网络训练样本的多样性、可靠性和全面性,并使得训练后的神经网络学习更多目标物体与任意场景的组合,从而能够识别更多不同场景中的不同目标物体,大大减少了人工标注样本的时间和精力,提高了目标框标注的准确率。
参见图8,是本发明实施例二提供的一种训练样本中目标物体的目标框标注装置的结构示意图,包括:
三维建模单元201,用于对目标场景进行三维建模,得到目标场景模型;
模型渲染单元202,用于对所述目标场景模型进行渲染,得到目标场景渲染图;
掩膜处理单元203,用于对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
目标框生成单元204,用于对所述目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据所述目标场景掩膜图得到目标物体的目标框坐标信息;
目标框标注单元205,用于将所述目标框中的目标物体区域放置于背景图片上,并生成所述目标物体的目标框标注文件。
本发明实施例三对应提供了一种训练样本中目标物体的目标框标注装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如本发明实施例一所述的训练样本中目标物体的目标框标注方法。所述训练样本中目标物体的目标框标注装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述训练样本中目标物体的目标框标注装置可包括,但不仅限于,处理器、存储器。
本发明实施例四对应提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如本发明实施例一所述的训练样本中目标物体的目标框标注方法。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述训练样本中目标物体的目标框标注装置的控制中心,利用各种接口和线路连接整个训练样本中目标物体的目标框标注装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述训练样本中目标物体的目标框标注装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述训练样本中目标物体的目标框标注装置集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (7)
1.一种训练样本中目标物体的目标框标注方法,其特征在于,包括:
对目标场景进行三维建模,得到目标场景模型;
对所述目标场景模型进行渲染,得到目标场景渲染图;
对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
对所述目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据所述目标场景掩膜图得到目标物体的目标框坐标信息;
将所述目标框中的目标物体区域放置于背景图片上,并生成所述目标物体的目标框标注文件。
2.如权利要求1所述的一种训练样本中目标物体的目标框标注方法,其特征在于,还包括:将所述目标物体区域进行随机处理,得到随机处理后的目标物体的目标框坐标信息;
将随机处理后的目标物体区域放置于背景图片上,并生成所述随机处理后的目标物体的目标框标注文件;
其中,所述随机处理包括随机翻转与缩放。
3.如权利要求2所述的一种训练样本中目标物体的目标框标注方法,其特征在于,所述目标框坐标信息为:(xmin,ymin,xmax,ymax);
所述将所述目标物体区域进行随机处理,得到随机处理后的目标物体的目标框坐标信息,具体包括:
将所述目标物体区域进行随机处理,通过如下公式(1)和(2)计算进行随机翻转后的目标框标签,通过如下公式(3)和(4)计算随机缩放后的目标框标签;
式中,w和h分别表示所述目标物体区域的宽度和高度,s表示缩放因子。
4.如权利要求2所述的一种训练样本中目标物体的目标框标注方法,其特征在于,还包括:将随机处理后的目标物体区域放置于背景图片上后,将放置后的背景图片作为训练样本,进行神经网络训练。
5.一种训练样本中目标物体的目标框标注装置,其特征在于,包括:
三维建模单元,用于对目标场景进行三维建模,得到目标场景模型;
模型渲染单元,用于对所述目标场景模型进行渲染,得到目标场景渲染图;
掩膜处理单元,用于对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
目标框生成单元,用于对所述目标场景掩膜图和目标场景渲染图进行掩膜计算生成目标物体区域,并根据所述目标场景掩膜图得到目标物体的目标框坐标信息;
目标框标注单元,用于将所述目标框中的目标物体区域放置于背景图片上,并生成所述目标物体的目标框标注文件。
6.一种训练样本中目标物体的目标框标注装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至4中任意一项所述的一种训练样本中目标物体的目标框标注方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至4中任意一项所述的一种训练样本中目标物体的目标框标注方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910548887.0A CN110378999A (zh) | 2019-06-24 | 2019-06-24 | 训练样本中目标物体的目标框标注方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910548887.0A CN110378999A (zh) | 2019-06-24 | 2019-06-24 | 训练样本中目标物体的目标框标注方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110378999A true CN110378999A (zh) | 2019-10-25 |
Family
ID=68250616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910548887.0A Pending CN110378999A (zh) | 2019-06-24 | 2019-06-24 | 训练样本中目标物体的目标框标注方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378999A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881908A (zh) * | 2020-07-20 | 2020-11-03 | 北京百度网讯科技有限公司 | 目标检测模型的修正方法、检测方法、装置、设备及介质 |
CN115311296A (zh) * | 2022-10-12 | 2022-11-08 | 湖南视比特机器人有限公司 | 数据生成、图像识别方法及计算机存储介质和终端设备 |
CN118470225A (zh) * | 2024-07-15 | 2024-08-09 | 杭州海康威视数字技术股份有限公司 | 障碍物下落图片获取方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100076923A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Online multi-label active annotation of data files |
CN106599892A (zh) * | 2016-12-14 | 2017-04-26 | 四川长虹电器股份有限公司 | 基于深度学习的电视台标识别系统 |
CN109377467A (zh) * | 2018-09-28 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 训练样本的生成方法、目标检测方法和装置 |
CN109635853A (zh) * | 2018-11-26 | 2019-04-16 | 深圳市玛尔仕文化科技有限公司 | 基于计算机图形技术自动生成人工智能训练样本的方法 |
CN109727264A (zh) * | 2019-01-10 | 2019-05-07 | 南京旷云科技有限公司 | 图像生成方法、神经网络的训练方法、装置和电子设备 |
-
2019
- 2019-06-24 CN CN201910548887.0A patent/CN110378999A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100076923A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Online multi-label active annotation of data files |
CN106599892A (zh) * | 2016-12-14 | 2017-04-26 | 四川长虹电器股份有限公司 | 基于深度学习的电视台标识别系统 |
CN109377467A (zh) * | 2018-09-28 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 训练样本的生成方法、目标检测方法和装置 |
CN109635853A (zh) * | 2018-11-26 | 2019-04-16 | 深圳市玛尔仕文化科技有限公司 | 基于计算机图形技术自动生成人工智能训练样本的方法 |
CN109727264A (zh) * | 2019-01-10 | 2019-05-07 | 南京旷云科技有限公司 | 图像生成方法、神经网络的训练方法、装置和电子设备 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881908A (zh) * | 2020-07-20 | 2020-11-03 | 北京百度网讯科技有限公司 | 目标检测模型的修正方法、检测方法、装置、设备及介质 |
CN111881908B (zh) * | 2020-07-20 | 2024-04-05 | 北京百度网讯科技有限公司 | 目标检测模型的修正方法、检测方法、装置、设备及介质 |
CN115311296A (zh) * | 2022-10-12 | 2022-11-08 | 湖南视比特机器人有限公司 | 数据生成、图像识别方法及计算机存储介质和终端设备 |
CN118470225A (zh) * | 2024-07-15 | 2024-08-09 | 杭州海康威视数字技术股份有限公司 | 障碍物下落图片获取方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472593B (zh) | 训练图像获取方法、模型训练方法及相关装置 | |
CN110599605B (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
CN109523621B (zh) | 对象的加载方法和装置、存储介质、电子装置 | |
CN110378999A (zh) | 训练样本中目标物体的目标框标注方法、装置及存储介质 | |
CN104134234B (zh) | 一种全自动的基于单幅图像的三维场景构建方法 | |
US20220383649A1 (en) | System and method for facilitating graphic-recognition training of a recognition model | |
CN110378336A (zh) | 训练样本中目标物体的语义级标注方法、装置及存储介质 | |
CN109635882A (zh) | 一种基于多尺度卷积特征提取和融合的显著物体检测方法 | |
CN109272509A (zh) | 一种连续图像的目标检测方法、装置、设备及存储介质 | |
CN110163831A (zh) | 三维虚拟沙盘的物体动态展示方法、装置及终端设备 | |
CN107909541A (zh) | 地图转换方法及装置 | |
CN110490959A (zh) | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 | |
CN103745497A (zh) | 植物生长建模方法和系统 | |
CN107767454A (zh) | 一种实景三维移动快速建模方法、装置及系统 | |
CN107704799A (zh) | 一种人体动作识别方法及设备、计算机可读存储介质 | |
CN110136162A (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN108961267A (zh) | 图片处理方法、图片处理装置及终端设备 | |
JP2022500728A (ja) | 条件付き敵対的生成ネットワークに基づいて画像を合成する方法および関連機器 | |
CN110175520A (zh) | 机器人巡检图像的文本位置检测方法、装置及存储介质 | |
CN112527442B (zh) | 一种环境数据多维显示方法、装置、介质及终端设备 | |
CN103500469A (zh) | 一种城市绿化建模方法 | |
CN117132687B (zh) | 一种动画生成方法、装置及电子设备 | |
CN113763307B (zh) | 样本数据的获取方法和装置 | |
CN117635634A (zh) | 图像处理方法、装置、电子设备、芯片及存储介质 | |
CN108961268A (zh) | 一种显著图计算方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191025 |