CN110378336A - 训练样本中目标物体的语义级标注方法、装置及存储介质 - Google Patents
训练样本中目标物体的语义级标注方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110378336A CN110378336A CN201910548888.5A CN201910548888A CN110378336A CN 110378336 A CN110378336 A CN 110378336A CN 201910548888 A CN201910548888 A CN 201910548888A CN 110378336 A CN110378336 A CN 110378336A
- Authority
- CN
- China
- Prior art keywords
- target object
- target
- semantic class
- target scene
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 61
- 238000002372 labelling Methods 0.000 title abstract 7
- 238000009877 rendering Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 74
- 230000008569 process Effects 0.000 claims description 50
- 238000004590 computer program Methods 0.000 claims description 18
- 230000001537 neural effect Effects 0.000 claims description 10
- 239000012212 insulator Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009413 insulation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种训练样本中目标物体的语义级标注方法,包括:对目标场景进行三维建模,得到目标场景模型;对目标场景模型进行渲染,得到目标场景渲染图;对目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;生成目标物体区域,对目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将目标物体位置信息作为目标物体的语义级标签;将目标物体区域进行随机处理,得到随机处理后的语义级标签;生成训练样本中目标物体的语义级标注文件。本发明公开的一种训练样本中目标物体的语义级标注方法,能够大大减少人工标注样本的时间和精力,提高标注的准确率。本发明还公开了一种训练样本中目标物体的语义级标注装置和存储介质。
Description
技术领域
本发明涉及语义级标注技术领域,尤其涉及一种训练样本中目标物体的语义级标注方法、装置及存储介质。
背景技术
通过计算机视觉和深度学习技术在电网运行场景进行自动识别检测目标故障,能够大大减少人工维护设备工作量,以及解决发现故障隐患不及时等问题。但目前电网运行场景下的目标数据存在难以获取,训练数据集缺乏问题。
现有技术中,通常采用无人机对目标进行图片采集,然后使用人工操作软件进行手动标注样本。
本发明人在实施本发明的过程中发现,现有技术中存在以下技术问题:
采用人工标注的方法,错误率高,效率低;尤其是对于语义级标注,人工标注非常地耗时耗力。
发明内容
本发明实施例提供一种训练样本中目标物体的语义级标注方法,能够大大减少人工标注样本的时间和精力,提高标注的准确率。
本发明实施例一提供一种训练样本中目标物体的语义级标注方法,包括:
对目标场景进行三维建模,得到目标场景模型;
对所述目标场景模型进行渲染,得到目标场景渲染图;
对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
对所述目标场景渲染图进行掩膜计算生成目标物体区域,对所述目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将所述目标物体位置信息作为目标物体的语义级标签;
将所述目标物体区域进行随机处理,得到随机处理后的语义级标签;其中,所述随机处理包括随机翻转与缩放;
将随机处理后的目标物体区域放置于背景图片上,并生成所述训练样本中目标物体的语义级标注文件。
作为上述方案的改进,所述目标物体的语义级标签具体为:{(xn,yn),n=1,2,...,N};
所述将所述目标物体区域进行随机处理,得到随机处理后的语义级标签,具体包括:
将所述目标物体区域进行随机处理,通过如下公式(1)计算进行随机翻转后的语义级标签,通过如下公式(2)计算随机缩放后的语义级标签;
式中,w和h分别表示所述目标物体区域的宽度和高度,s表示缩放因子。
作为上述方案的改进,还包括:将随机处理后的目标物体区域放置于背景图片上后,将放置后的背景图片作为训练样本,进行神经网络训练。
本发明实施例二对应提供了一种训练样本中目标物体的语义级标注装置,包括:
三维建模单元,用于对目标场景进行三维建模,得到目标场景模型;
模型渲染单元,用于对所述目标场景模型进行渲染,得到目标场景渲染图;
掩膜处理单元,用于对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
标签生成单元,用于对所述目标场景渲染图进行掩膜计算生成目标物体区域,对所述目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将所述目标物体位置信息作为目标物体的语义级标签;
随机处理单元,用于将所述目标物体区域进行随机处理,得到随机处理后的语义级标签;其中,所述随机处理包括随机翻转与缩放;
语义级标注单元,用于将随机处理后的目标物体区域放置于背景图片上,并生成所述训练样本中目标物体的语义级标注文件。
本发明实施例三对应提供了一种训练样本中目标物体的语义级标注装置,包括:处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如本发明实施例一所述的一种训练样本中目标物体的语义级标注方法。
本发明实施例四对应提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如本发明实施例一所述的一种训练样本中目标物体的语义级标注方法。
本发明实施例提供的一种训练样本中目标物体的语义级标注方法,具有如下
有益效果:
通过三维建模对电网运行场景目标物体所在的目标场景进行空间建模,可以灵活地通过改变三维建模软件中摄像头的姿态产生更多丰富角度的样本,提高神经网络训练样本的多样性、可靠性和全面性,以进一步进行自动标注,提高自动语义级标注的准确率;通过渲染生成真实目标场景的2D目标场景渲染图,并对目标场景渲染图进行掩膜计算生成目标物体区域,从而实现精确地提取目标物体位置信息,以进一步实现精确地语义级标注;将所述目标物体区域进行随机处理,并将随机处理后的目标物体区域放置于任意背景图片上后,把放置后的背景图片作为训练样本,进行神经网络训练,能够进一步提高神经网络训练样本的多样性、可靠性和全面性,并使得训练后的神经网络学习更多目标物体与任意场景的组合,从而能够识别更多不同场景中的不同目标物体,大大减少了人工标注样本的时间和精力,提高了语义级标注的准确率。
附图说明
图1是本发明实施例一提供的一种训练样本中目标物体的语义级标注方法的流程示意图。
图2是本发明实施例一提供的一具体实施例的目标场景模型示意图。
图3是本发明实施例一提供的一具体实施例的目标场景渲染图。
图4是本发明实施例一提供的一具体实施例的目标物体区域和边缘提取示意图。
图5是本发明实施例一提供的一具体实施例的放置有随机处理后的绝缘子的背景图片。
图6是本发明实施例一提供的一具体实施例的绝缘子语义级标注文件。
图7是本发明实施例一提供的一具体实施例的绝缘子语义级标注可视化示意图。
图8是本发明实施例二提供的一种训练样本中目标物体的语义级标注装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明实施例一提供的一种训练样本中目标物体的语义级标注方法的流程示意图,包括:
S101、对目标场景进行三维建模,得到目标场景模型;
S102、对所述目标场景模型进行渲染,得到目标场景渲染图;
S103、对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
S104、对所述目标场景渲染图进行掩膜计算生成目标物体区域,对所述目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将所述目标物体位置信息作为目标物体的语义级标签;
S105、将所述目标物体区域进行随机处理,得到随机处理后的语义级标签;其中,所述随机处理包括随机翻转与缩放;
S106、将随机处理后的目标物体区域放置于背景图片上,并生成所述训练样本中目标物体的语义级标注文件。
进一步地,所述目标物体的语义级标签具体为:{(xn,yn),n=1,2,...,N};
所述将所述目标物体区域进行随机处理,得到随机处理后的语义级标签,具体包括:
将所述目标物体区域进行随机处理,通过如下公式(1)计算进行随机翻转后的语义级标签,通过如下公式(2)计算随机缩放后的语义级标签;
式中,w和h分别表示所述目标物体区域的宽度和高度,s表示缩放因子。
进一步地,还包括:将随机处理后的目标物体区域放置于背景图片上后,将放置后的背景图片作为训练样本,进行神经网络训练。
优选的,对目标场景进行三维建模的方式是通过三维建模软件进行建模;此方法可以灵活地通过改变三维建模软件中摄像头的姿态产生更多丰富角度的样本,提高神经网络训练样本的多样性、可靠性和全面性,以进一步进行软件自动标注,提高软件自动标注的准确率,大大减少人工标注的精力和时间。
优选的,对目标场景渲染图进行掩膜计算生成目标物体区域的方法可包括:(1)用掩模对目标场景渲染图上目标物体区域进行屏蔽,使其不参加处理或不参加处理参数的计算;(2)用相似性变量或图像匹配方法检测和提取目标场景渲染图中与掩模相似的结构特征。从而实现精确地提取目标物体位置信息,以进一步实现精确地语义级标注。
在一具体的实施例中,令目标物体为绝缘子,对绝缘子所在的目标场景进行三维建模,得到目标场景模型;参见图2,是本发明实施例一提供的一具体实施例的目标场景模型示意图。
对绝缘子所在的目标场景进行渲染;参见图3,是本发明实施例一提供的一具体实施例的目标场景渲染图。
参见图4,是本发明实施例一提供的一具体实施例的目标物体区域和边缘提取示意图。对图3中的目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;对目标场景渲染图进行掩膜计算生成目标物体区域,即分割出绝缘子区域;对目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,即绝缘子的边缘,并将该边缘信息作为目标物体的语义级标签。
将随机处理后的绝缘子区域放置于随机选择的背景图片上,参见图5,是本发明实施例一提供的一具体实施例的放置有随机处理后的绝缘子的背景图片。并生成如图6所示的绝缘子语义级标注文件。
将放置有随机处理后的绝缘子的背景图片作为训练样本进行神经网络训练。
参见图7,是本发明实施例一提供的一具体实施例的绝缘子语义级标注可视化示意图。
本发明实施例提供的一种训练样本中目标物体的语义级标注方法、装置及存储介质,具有如下有益效果:
通过三维建模对电网运行场景目标物体所在的目标场景进行空间建模,可以灵活地通过改变三维建模软件中摄像头的姿态产生更多丰富角度的样本,提高神经网络训练样本的多样性、可靠性和全面性,以进一步进行自动标注,提高自动语义级标注的准确率;通过渲染生成真实目标场景的2D目标场景渲染图,并对目标场景渲染图进行掩膜计算生成目标物体区域,从而实现精确地提取目标物体位置信息,以进一步实现精确地语义级标注;将所述目标物体区域进行随机处理,并将随机处理后的目标物体区域放置于任意背景图片上后,把放置后的背景图片作为训练样本,进行神经网络训练,能够进一步提高神经网络训练样本的多样性、可靠性和全面性,并使得训练后的神经网络学习更多目标物体与任意场景的组合,从而能够识别更多不同场景中的不同目标物体,大大减少了人工标注样本的时间和精力,提高了语义级标注的准确率。
参见图8,是本发明实施例二提供的一种训练样本中目标物体的语义级标注装置的结构示意图,包括:
三维建模单元201,用于对目标场景进行三维建模,得到目标场景模型;
模型渲染单元202,用于对所述目标场景模型进行渲染,得到目标场景渲染图;
掩膜处理单元203,用于对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
标签生成单元204,用于对所述目标场景渲染图进行掩膜计算生成目标物体区域,对所述目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将所述目标物体位置信息作为目标物体的语义级标签;
随机处理单元205,用于将所述目标物体区域进行随机处理,得到随机处理后的语义级标签;其中,所述随机处理包括随机翻转与缩放;
语义级标注单元206,用于将随机处理后的目标物体区域放置于背景图片上,并生成所述训练样本中目标物体的语义级标注文件。
本发明实施例三对应提供了一种训练样本中目标物体的语义级标注装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如本发明实施例一所述的训练样本中目标物体的语义级标注方法。所述训练样本中目标物体的语义级标注装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述训练样本中目标物体的语义级标注装置可包括,但不仅限于,处理器、存储器。
本发明实施例四对应提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如本发明实施例一所述的训练样本中目标物体的语义级标注方法。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述训练样本中目标物体的语义级标注装置的控制中心,利用各种接口和线路连接整个训练样本中目标物体的语义级标注装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述训练样本中目标物体的语义级标注装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述训练样本中目标物体的语义级标注装置集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (6)
1.一种训练样本中目标物体的语义级标注方法,其特征在于,包括:
对目标场景进行三维建模,得到目标场景模型;
对所述目标场景模型进行渲染,得到目标场景渲染图;
对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
对所述目标场景渲染图进行掩膜计算生成目标物体区域,对所述目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将所述目标物体位置信息作为目标物体的语义级标签;
将所述目标物体区域进行随机处理,得到随机处理后的语义级标签;其中,所述随机处理包括随机翻转与缩放;
将随机处理后的目标物体区域放置于背景图片上,并生成所述训练样本中目标物体的语义级标注文件。
2.如权利要求1所述的一种训练样本中目标物体的语义级标注方法,其特征在于,所述目标物体的语义级标签具体为:{(xn,yn),n=1,2,...,N};
所述将所述目标物体区域进行随机处理,得到随机处理后的语义级标签,具体包括:
将所述目标物体区域进行随机处理,通过如下公式(1)计算进行随机翻转后的语义级标签,通过如下公式(2)计算随机缩放后的语义级标签;
式中,w和h分别表示所述目标物体区域的宽度和高度,s表示缩放因子。
3.如权利要求2所述的一种训练样本中目标物体的语义级标注方法,其特征在于,还包括:将随机处理后的目标物体区域放置于背景图片上后,将放置后的背景图片作为训练样本,进行神经网络训练。
4.一种训练样本中目标物体的语义级标注装置,其特征在于,包括:
三维建模单元,用于对目标场景进行三维建模,得到目标场景模型;
模型渲染单元,用于对所述目标场景模型进行渲染,得到目标场景渲染图;
掩膜处理单元,用于对所述目标场景渲染图进行灰度处理和自适应二值化处理,得到目标场景掩膜图;
标签生成单元,用于对所述目标场景渲染图进行掩膜计算生成目标物体区域,对所述目标场景掩膜图进行目标场景的边缘提取得到目标物体位置信息,并将所述目标物体位置信息作为目标物体的语义级标签;
随机处理单元,用于将所述目标物体区域进行随机处理,得到随机处理后的语义级标签;其中,所述随机处理包括随机翻转与缩放;
语义级标注单元,用于将随机处理后的目标物体区域放置于背景图片上,并生成所述训练样本中目标物体的语义级标注文件。
5.一种训练样本中目标物体的语义级标注装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至3中任意一项所述的一种训练样本中目标物体的语义级标注方法。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至3中任意一项所述的一种训练样本中目标物体的语义级标注方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910548888.5A CN110378336A (zh) | 2019-06-24 | 2019-06-24 | 训练样本中目标物体的语义级标注方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910548888.5A CN110378336A (zh) | 2019-06-24 | 2019-06-24 | 训练样本中目标物体的语义级标注方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110378336A true CN110378336A (zh) | 2019-10-25 |
Family
ID=68250610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910548888.5A Pending CN110378336A (zh) | 2019-06-24 | 2019-06-24 | 训练样本中目标物体的语义级标注方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378336A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807486A (zh) * | 2019-10-31 | 2020-02-18 | 北京达佳互联信息技术有限公司 | 类别标签的生成方法、装置、电子设备及存储介质 |
CN111325984A (zh) * | 2020-03-18 | 2020-06-23 | 北京百度网讯科技有限公司 | 样本数据的获取方法、装置和电子设备 |
CN113706519A (zh) * | 2021-09-01 | 2021-11-26 | 广州锟元方青医疗科技有限公司 | 病理细胞检测训练样本的合成方法及其装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100076923A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Online multi-label active annotation of data files |
CN106599892A (zh) * | 2016-12-14 | 2017-04-26 | 四川长虹电器股份有限公司 | 基于深度学习的电视台标识别系统 |
CN109377467A (zh) * | 2018-09-28 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 训练样本的生成方法、目标检测方法和装置 |
CN109635853A (zh) * | 2018-11-26 | 2019-04-16 | 深圳市玛尔仕文化科技有限公司 | 基于计算机图形技术自动生成人工智能训练样本的方法 |
CN109727264A (zh) * | 2019-01-10 | 2019-05-07 | 南京旷云科技有限公司 | 图像生成方法、神经网络的训练方法、装置和电子设备 |
-
2019
- 2019-06-24 CN CN201910548888.5A patent/CN110378336A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100076923A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Online multi-label active annotation of data files |
CN106599892A (zh) * | 2016-12-14 | 2017-04-26 | 四川长虹电器股份有限公司 | 基于深度学习的电视台标识别系统 |
CN109377467A (zh) * | 2018-09-28 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 训练样本的生成方法、目标检测方法和装置 |
CN109635853A (zh) * | 2018-11-26 | 2019-04-16 | 深圳市玛尔仕文化科技有限公司 | 基于计算机图形技术自动生成人工智能训练样本的方法 |
CN109727264A (zh) * | 2019-01-10 | 2019-05-07 | 南京旷云科技有限公司 | 图像生成方法、神经网络的训练方法、装置和电子设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807486A (zh) * | 2019-10-31 | 2020-02-18 | 北京达佳互联信息技术有限公司 | 类别标签的生成方法、装置、电子设备及存储介质 |
CN110807486B (zh) * | 2019-10-31 | 2022-09-02 | 北京达佳互联信息技术有限公司 | 类别标签的生成方法、装置、电子设备及存储介质 |
CN111325984A (zh) * | 2020-03-18 | 2020-06-23 | 北京百度网讯科技有限公司 | 样本数据的获取方法、装置和电子设备 |
CN113706519A (zh) * | 2021-09-01 | 2021-11-26 | 广州锟元方青医疗科技有限公司 | 病理细胞检测训练样本的合成方法及其装置 |
CN113706519B (zh) * | 2021-09-01 | 2022-07-05 | 广州锟元方青医疗科技有限公司 | 病理细胞检测训练样本的合成方法及其装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472593B (zh) | 训练图像获取方法、模型训练方法及相关装置 | |
Pound et al. | Automated recovery of three-dimensional models of plant shoots from multiple color images | |
CN110378336A (zh) | 训练样本中目标物体的语义级标注方法、装置及存储介质 | |
CN110176027A (zh) | 视频目标跟踪方法、装置、设备及存储介质 | |
US20220383649A1 (en) | System and method for facilitating graphic-recognition training of a recognition model | |
CN109635882A (zh) | 一种基于多尺度卷积特征提取和融合的显著物体检测方法 | |
CN110363210A (zh) | 一种图像语义分割模型的训练方法和服务器 | |
US9262853B2 (en) | Virtual scene generation based on imagery | |
CN105378792A (zh) | 三维对象建模 | |
CN110378999A (zh) | 训练样本中目标物体的目标框标注方法、装置及存储介质 | |
CN110349082A (zh) | 图像区域的裁剪方法和装置、存储介质及电子装置 | |
CN110163831A (zh) | 三维虚拟沙盘的物体动态展示方法、装置及终端设备 | |
CN110490959A (zh) | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 | |
CN108564579A (zh) | 一种基于时空相关的混凝土裂缝检测方法及检测装置 | |
CN110175520A (zh) | 机器人巡检图像的文本位置检测方法、装置及存储介质 | |
CN117132687B (zh) | 一种动画生成方法、装置及电子设备 | |
CN108961268A (zh) | 一种显著图计算方法及相关装置 | |
CN103500469A (zh) | 一种城市绿化建模方法 | |
CN117422851A (zh) | 虚拟换衣方法及其装置、电子设备 | |
CN117788731A (zh) | 道路重建方法、装置和设备 | |
CN117635634A (zh) | 图像处理方法、装置、电子设备、芯片及存储介质 | |
CN106709490A (zh) | 一种字符识别方法和装置 | |
CN107180453B (zh) | 人物面部模型的编辑方法及装置 | |
CN112948605A (zh) | 点云数据的标注方法、装置、设备及可读存储介质 | |
CN110276290A (zh) | 基于tof模组的快速人脸脸模采集方法以及快速人脸脸模采集装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191025 |
|
RJ01 | Rejection of invention patent application after publication |