CN111975783B - 一种机器人抓取检测方法及系统 - Google Patents
一种机器人抓取检测方法及系统 Download PDFInfo
- Publication number
- CN111975783B CN111975783B CN202010896209.6A CN202010896209A CN111975783B CN 111975783 B CN111975783 B CN 111975783B CN 202010896209 A CN202010896209 A CN 202010896209A CN 111975783 B CN111975783 B CN 111975783B
- Authority
- CN
- China
- Prior art keywords
- image
- unknown
- grabbing
- model
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本申请一种机器人抓取检测方法及系统,方法主要包括:(1)识别物体类别;(2)对未知物体在第一公共数据集上图片检索获取标记数据,更新物体类别判断模型;(3)更新抓取检测模型,对物体重新进行抓取框检测;(4)控制机器人对物体进行实际抓取。当物体被识别为未知时在公共数据集中进行检索获得标记数据并更新抓取检测模型,无需额外的仿真环境和人工干预,有效提高抓取检测模型对未知物体的抓取能力;采用已知物体和未知物体的图像样本进行模型更新,采用了增量学习的模型训练方法,可动态更新物体抓取的知识库,保持抓取检测模型对原有标记数据的记忆能力和提高对新标记数据的学习能力。
Description
技术领域
本发明属于机器人视觉系统抓取控制领域,具体涉及一种机器人抓取检测方法及系统。
背景技术
传统的机器人抓取框检测方法建立在封闭世界上,训练数据只包含已知物体的标记数据,抓取框检测模型针对训练数据训练好后,知识库便定了型,后续无法动态更新知识库,这样得到的抓取检测模型在对已知物体的识别上能够产生很好的效果;但由于缺少对未知物体的标记数据,抓取检测模型在训练的时候并没有对应的数据,因此对于未知物体的识别,机器人则无法生成好的抓取框。
而在实际应用中事先收集所有物体的标记数据是不现实的,针对训练样本不足的问题现有的技术方案主要有结合仿真环境生成虚拟数据的方法、半监督方法、自监督方法等,这些方法仍然依赖人工干预和环境交互,未能有效利用现有的公共抓取数据集,而公共抓取数据集往往包含了未知物体的标记数据,现有的技术方案时间成本和运算成本增加,模型训练效率较低。
发明内容
基于此,本发明旨在提出一种机器人抓取检测方法及系统,充分利用现有的公共数据集以获取未知物体的标记数据,达到动态更新抓取检测模型、扩充模型的泛化能力的目的,以克服上述现有技术的缺陷。
本发明一种机器人抓取检测方法,包括:
S1.获取物体图像,利用物体类别判断模型识别物体的类别,当识别为未知物体时进入步骤S2,否则进入步骤S4;
S2.将物体图像与第一公共数据集进行度量得到未知物体的标记数据,并更新物体类别判断模型;
S3.利用未知物体和已知物体的图像样本对抓取检测模型训练更新;
其中,抓取检测模型的初始训练集为第二公共数据集;
S4.利用抓取检测模型对物体图像进行识别,生成对应的抓取框以控制机器人对物体进行抓取。
进一步地,步骤S1中利用物体类别判断模型识别物体的类别包括:
S11.提取物体图像的特征向量并计算与已知物体类别特征向量序列[μk]中每个已知物体类别μk的距离,k表示已知物体类别;
S12.步骤S11计算的距离小于第一阈值时判断为已知物体,并取距离最小值对应的物体类别作为该物体图像的类别,否则判断为未知物体。
进一步地,步骤S2包括:
S21.提取物体图像的特征向量并计算与第一公共数据集中图像的特征向量之间的距离;
S22.根据步骤S21计算的距离对第一公共数据集中的图像进行降序排列,在距离超过第二阈值的图像中选取n张作为相似图像集合;
S23.根据相似图像集合在第一公共数据集中获取未知物体的标记数据;
S24.根据相似图像集合计算未知物体类别的特征向量,更新物体类别判断模型。
进一步地,步骤S24包括:
求取相似图像集合中各图像的特征向量的平均值,作为未知物体类别的特征向量μk+1扩展已知物体类别的特征向量[μk]的维度以更新物体类别判断模型。
进一步地,步骤S3中的利用未知物体和已知物体的图像样本对抓取检测模型训练更新包括:
S31.选取已知物体的图像样本和未知物体的图像样本混合为新训练集,已知物体与未知物体的图像样本量比例为m;
S32.将新训练集按照预设比例划分为训练集和测试集,利用训练集对抓取检测模型进行训练更新,利用测试集评估抓取检测模型的训练效果。
进一步地,步骤S3之前还包括:
将未知物体的标记数据的格式处理为与已知物体的标记数据的格式一致。
进一步地,步骤S11和步骤S21中计算的距离均采用标准化欧氏距离。
进一步地,第一公共数据集为Jacquard Dataset。
进一步地,第二公共数据集为Cornell Grasp Dataset。
本发明还提供一种机器人抓取检测系统,包括:
物体类别判断模块,用于利用物体类别判断模型识别物体图像中物体的类别;
图像检索模块,用于将物体图像与第一公共数据集进行度量得到未知物体的标记数据;
模型训练更新模块,用于训练更新物体类别判断模型和抓取检测模型,物体类别判断模型利用图像检索模块获取的未知物体的特征向量进行训练更新,抓取检测模型利用未知物体和已知物体的图像样本进行训练更新;
抓取检测模块,用于利用未知物体和已知物体的图像样本对抓取检测模型训练更新和对物体图像进行识别生成对应的抓取框。
从以上技术方案可以看出,本发明具有如下有益效果:
本发明一种机器人抓取检测方法及系统,当物体被识别为未知时在公共数据集中进行检索获得标记数据并更新抓取检测模型,无需额外的仿真环境和人工干预,有效提高抓取检测模型对未知物体的抓取能力;采用已知物体和未知物体的图像样本进行模型更新,采用了增量学习的模型训练方法,可动态更新物体抓取的知识库,保持抓取检测模型对原有标记数据的记忆能力和提高对新标记数据的学习能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1本发明一种实施例机器人抓取检测方法实施流程图
图2本发明一种实施例机器人抓取检测系统结构框图
图3本发明另一种实施例机器人抓取检测方法实施流程示意图
图4本发明另一种实施例物体类别判断模型训练更新示意图
图5本发明另一种实施例物体类别判断模型工作示意图
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本实施例提供一种机器人抓取检测方法,可动态更新知识库,提高模型对未知物体的抓取能力。该方法包括:
S1.获取物体图像,利用物体类别判断模型识别物体的类别,当识别为未知物体时进入步骤S2,否则进入步骤S4;
S2.将物体图像与第一公共数据集进行度量得到未知物体的标记数据,并更新物体类别判断模型;
S3.利用未知物体和已知物体的图像样本对抓取检测模型训练更新;
其中,抓取检测模型的初始训练集为第二公共数据集;
S4.利用抓取检测模型对物体图像进行识别,生成对应的抓取框以控制机器人对物体进行抓取。
进一步地,步骤S1中利用物体类别判断模型识别物体的类别包括:
S11.提取物体图像的特征向量并计算与已知物体类别特征向量序列[μk]中每个已知物体类别μk的距离,k表示已知物体类别;
S12.所述距离小于第一阈值时判断为已知物体,并取距离最小值对应的物体类别作为该物体图像的类别,否则判断为未知物体。
进一步地,步骤S2包括:
S21.提取物体图像的特征向量并计算与第一公共数据集中图像的特征向量之间的距离;
S22.根据距离对第一公共数据集中的图像进行降序排列,在距离超过第二阈值的图像中选取n张作为相似图像集合;
S23.根据相似图像集合在第一公共数据集中获取未知物体的标记数据;
S24.根据相似图像集合计算未知物体类别的特征向量,更新物体类别判断模型。
进一步地,步骤S24包括:
求取相似图像集合中各图像的特征向量的平均值,作为未知物体类别的特征向量μk+1扩展已知物体类别的特征向量[μk]的维度以更新物体类别判断模型。
进一步地,步骤S3中的利用未知物体和已知物体的图像样本对抓取检测模型训练更新包括:
S31.选取已知物体的图像样本和未知物体的图像样本混合为新训练集,已知物体与未知物体的图像样本量比例为m;
S32.将新训练集按照预设比例划分为训练集和测试集,利用训练集对抓取检测模型进行训练更新,利用测试集评估抓取检测模型的训练效果。
进一步地,步骤S3之前还包括:
将未知物体的标记数据的格式处理为与已知物体的标记数据的格式一致。
进一步地,步骤S11和步骤S21中计算的距离均采用标准化欧氏距离。
第一公共数据集和第二公共数据集均采用现有的公共数据集,例如CornellGrasp Dataset、Jacquard Dataset、Google Dataset、StandFord Grasp Dataset等。
如图2所示,本实施例还提供对应的机器人抓取检测系统,包括:
物体类别判断模块,用于利用物体类别判断模型识别物体图像中物体的类别;
图像检索模块,用于将物体图像与第一公共数据集进行度量得到未知物体的标记数据;
模型训练更新模块,用于训练更新物体类别判断模型和抓取检测模型,物体类别判断模型利用图像检索模块获取的未知物体的特征向量进行训练更新,抓取检测模型利用未知物体和已知物体的图像样本进行训练更新;
抓取检测模块,用于利用未知物体和已知物体的图像样本对抓取检测模型训练更新和对物体图像进行识别生成对应的抓取框。
以上各模块可以是由软件代码实现,此时上述的各模块可存储于设置于例如控制电脑等控制端的存储器中。以上各模块同样可以由硬件例如集成电路芯片实现。
下面介绍本发明另一实施例,如图3所示,本实施例提供一种机器人抓取检测方法,分为物体类别判断、图像检索、抓取检测模型训练更新三个环节,包括:
将物体放置于机器人视角下,获取物体的深度图像(Depth)和RGB图像,通过物体类别判断模型判断物体类别,判别为已知物体时利用已经训练好的抓取检测网络模型生成对应的抓取框,控制机器人对物体进行抓取;
判别为未知物体时利用Jacquard Dataset作为第一公共数据集进行图片检索获取未知物体的标记数据,并更新物体类别判断模型;
对抓取检测模型进行基于增量学习的训练更新,使其能生成未知物体的抓取框;
利用更新后的抓取检测模型对物体重新进行抓取检测生成抓取框,控制机器人对物体进行抓取。
初始的抓取检测模型采用GG-CNN网络结构在公共数据集Cornell Grasp Dataset上训练获得,并生成基于Cornell Grasp Dataset的初始知识库。
训练网络除了GG-CNN还可采用GC-CNN、DSGD等,本领域技术人员可根据实际选用不同的训练网络模型,本实施例不对此进行具体限定。
物体类别判断模型的训练更新如图4所示,包括:
将Cornell Grasp Dataset中的图像样本根据物体类别进行分类,采用DenseNet计算各类别的特征向量μk,k表示已知物体类别,得到一特征向量序列[μk]。
输入物体的RGB图像,利用DenseNet提取图像的特征向量,特征向量的维度取(224,224,3),计算图像的特征向量与已知物体类别特征向量序列[μk]中每个已知物体类别μk的标准化欧氏距离;
距离小于第一阈值θ时判别为已知物体,取距离最小值对应的物体类别赋值为当前待抓取物体的类别,否则判别为未知物体;
经过图像检索模型获得未知物体的标记数据后,同样利用DenseNet提取未知物体类别的特征向量μk+1,扩展原有特征向量序列[μk]的维度更新物体类别判断模型。
如图5所示,图像检索模型的工作过程包括:
输入未知物体的RGB图像,把输入图像的尺寸裁剪为300*300,选用特征提取器DenseNet生成图像的特征向量,维度同样取(224,224,3),将未知物体的图像特征向量与Jacquard Dataset中的图像样本进行度量学习,计算与各图像样本的标准化欧氏距离;
根据距离对Jacquard Dataset中的图像样本进行降序排列,在距离超过第二阈值的图像中选取n张样本作为相似图像集合;
根据相似图像集合在Jacquard Dataset中获取未知物体的标记数据,标记数据包括图像的深度图像信息、标记的抓取框信息及图像的分类信息;
根据相似图像集合计算未知物体类别的特征向量,更新物体类别判断模型,具体为求取相似图像集合中各图像的特征向量的平均值,作为未知物体类别的特征向量μk+1。
抓取检测模型的训练更新包括:
处理未知物体的标记数据的格式,由于图片检索模型和初始抓取检测模型采用的数据集不同,不同的数据集对标记数据的记录格式有差异,需要将从Jacquard Dataset中得到的未知物体标记数据的格式处理为与Cornell Grasp Dataset标记的格式一致,包括图像尺寸裁剪和矩形框标记形式转换;
对模型进行基于增量学习的训练更新,选取已知物体的图像样本和未知物体的图像样本混合为新训练集,已知物体与未知物体的图像样本量比例为m,即当有m个已知物体类别时,每个类别都挑选s个图像样本,则已知物体的图像样本有m*s个,对于未知物体同样选取s个图像样本;
混合已知物体的图像样本和未知物体的图像样本为新训练集;
将新训练集按照预设比例划分为训练集和测试集,本实施例中预设比例为9:1,利用训练集对抓取检测模型进行训练更新,利用测试集评估抓取检测模型的训练效果。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。
Claims (7)
1.一种机器人抓取检测方法,其特征在于,包括:
S1.获取物体图像,利用物体类别判断模型识别物体的类别,当识别为未知物体时进入步骤S2,否则进入步骤S4;
S2.将所述物体图像与第一公共数据集进行度量得到未知物体的标记数据,并更新所述物体类别判断模型;
步骤S2具体包括:
S21.提取所述物体图像的特征向量并计算与所述第一公共数据集中图像的特征向量之间的距离;
S22.根据步骤S21计算的距离对所述第一公共数据集中的图像进行降序排列,在超过第二阈值的图像中选取n张作为相似图像集合;
S23.根据所述相似图像集合在所述第一公共数据集中获取未知物体的标记数据;
S24.根据所述相似图像集合计算未知物体类别的特征向量,更新所述物体类别判断模型;
S3.利用未知物体和已知物体的图像样本对抓取检测模型训练更新;
步骤S3具体包括:
S31.选取已知物体的图像样本和未知物体的图像样本混合为新训练集,已知物体与未知物体的图像样本量比例为m;
S32.将所述新训练集按照预设比例划分为训练集和测试集,利用所述训练集对抓取检测模型进行训练更新,利用所述测试集评估抓取检测模型的训练效果;
其中,所述抓取检测模型的初始训练集为第二公共数据集;
S4.利用抓取检测模型对物体图像进行识别,生成对应的抓取框以控制机器人对物体进行抓取。
2.根据权利要求1所述的机器人抓取检测方法,其特征在于,所述步骤S1中利用物体类别判断模型识别物体的类别包括:
S11.提取所述物体图像的特征向量并计算与已知物体类别特征向量序列[μk]中每个已知物体类别μk的距离,k表示已知物体类别;
S12.步骤S11计算的距离小于第一阈值时判断为已知物体,并取距离最小值对应的物体类别作为所述物体图像的类别,否则判断为未知物体。
3.根据权利要求1所述的机器人抓取检测方法,其特征在于,所述步骤S24包括:
求取所述相似图像集合中各图像的特征向量的平均值,作为未知物体类别的特征向量μk+1扩展已知物体类别的特征向量序列[μk]的维度以更新物体类别判断模型。
4.根据权利要求1所述的机器人抓取检测方法,其特征在于,所述步骤S3之前还包括:
将未知物体的标记数据的格式处理为与已知物体的标记数据的格式一致。
5.根据权利要求2所述的机器人抓取检测方法,其特征在于,所述步骤S11计算的距离采用标准化欧氏距离。
6.根据权利要求1所述的机器人抓取检测方法,其特征在于,所述步骤S21计算的距离采用标准化欧氏距离。
7.根据权利要求1所述的机器人抓取检测方法,其特征在于,所述第一公共数据集为Jacquard Dataset。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010896209.6A CN111975783B (zh) | 2020-08-31 | 2020-08-31 | 一种机器人抓取检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010896209.6A CN111975783B (zh) | 2020-08-31 | 2020-08-31 | 一种机器人抓取检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111975783A CN111975783A (zh) | 2020-11-24 |
CN111975783B true CN111975783B (zh) | 2021-09-03 |
Family
ID=73440513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010896209.6A Active CN111975783B (zh) | 2020-08-31 | 2020-08-31 | 一种机器人抓取检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111975783B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115890685A (zh) * | 2022-12-27 | 2023-04-04 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 基于已知物体的可抓性映射到未知物体的方法 |
CN118544358A (zh) * | 2024-07-24 | 2024-08-27 | 纳博特南京科技有限公司 | 基于图像识别处理的机器人运动控制方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017119088A1 (ja) * | 2016-01-06 | 2017-07-13 | 株式会社日立製作所 | ロボットシステムおよび制御方法 |
CN107291811A (zh) * | 2017-05-18 | 2017-10-24 | 浙江大学 | 一种基于云端知识融合的感认知增强机器人系统 |
CN110181504A (zh) * | 2018-02-22 | 2019-08-30 | 北京猎户星空科技有限公司 | 一种控制机械臂移动的方法、装置及控制设备 |
CN110202583A (zh) * | 2019-07-09 | 2019-09-06 | 华南理工大学 | 一种基于深度学习的仿人机械手控制系统及其控制方法 |
CN111080693A (zh) * | 2019-11-22 | 2020-04-28 | 天津大学 | 一种基于YOLOv3的机器人自主分类抓取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2929729T3 (es) * | 2015-11-13 | 2022-12-01 | Berkshire Grey Operating Company Inc | Sistemas de clasificación para proporcionar clasificación de una variedad de objetos |
-
2020
- 2020-08-31 CN CN202010896209.6A patent/CN111975783B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017119088A1 (ja) * | 2016-01-06 | 2017-07-13 | 株式会社日立製作所 | ロボットシステムおよび制御方法 |
CN107291811A (zh) * | 2017-05-18 | 2017-10-24 | 浙江大学 | 一种基于云端知识融合的感认知增强机器人系统 |
CN110181504A (zh) * | 2018-02-22 | 2019-08-30 | 北京猎户星空科技有限公司 | 一种控制机械臂移动的方法、装置及控制设备 |
CN110202583A (zh) * | 2019-07-09 | 2019-09-06 | 华南理工大学 | 一种基于深度学习的仿人机械手控制系统及其控制方法 |
CN111080693A (zh) * | 2019-11-22 | 2020-04-28 | 天津大学 | 一种基于YOLOv3的机器人自主分类抓取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111975783A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112101357B (zh) | 一种rpa机器人智能元素定位拾取方法及系统 | |
CN108492343B (zh) | 一种扩充目标识别的训练数据的图像合成方法 | |
CN111784685A (zh) | 一种基于云边协同检测的输电线路缺陷图像识别方法 | |
CN110210335B (zh) | 一种行人重识别学习模型的训练方法、系统和装置 | |
CN111975783B (zh) | 一种机器人抓取检测方法及系统 | |
CN110610166A (zh) | 文本区域检测模型训练方法、装置、电子设备和存储介质 | |
CN109344853A (zh) | 一种可定制目标检测算法的智能化云平台系统及操作方法 | |
CN112580657B (zh) | 一种自学习字符识别方法 | |
CN105678309A (zh) | 一种基于多示例包特征学习的图像多标签标注算法 | |
CN113255590A (zh) | 一种缺陷检测模型训练方法、缺陷检测方法、装置及系统 | |
CN115393664A (zh) | 一种用于目标检测的主动学习样本挑选方法 | |
CN111061901A (zh) | 一种图像智能标注方法、系统及图像标注质量分析方法 | |
CN111241905A (zh) | 基于改进ssd算法的输电线路鸟窝检测方法 | |
CN113569940B (zh) | 一种基于知识迁移和概率校正的少样本目标检测方法 | |
CN117114420B (zh) | 一种基于图像识别的工贸安全事故风险管控系统和方法 | |
CN113192108A (zh) | 一种针对视觉跟踪模型的人在回路训练方法及相关装置 | |
CN113408630A (zh) | 一种变电站指示灯状态识别方法 | |
CN117912023A (zh) | 一种水电厂电气图纸自动化识别方法及终端 | |
CN113989268B (zh) | 一种识别红外图像中指定设备的gis套管的方法及存储介质 | |
CN116311190A (zh) | 一种基于YOLOv5s的服装种类检测与识别方法 | |
CN110956174A (zh) | 一种器件编号的识别方法 | |
CN113420839B (zh) | 用于堆叠平面目标物体的半自动标注方法及分割定位系统 | |
CN115937492A (zh) | 一种基于特征识别的变电设备红外图像识别方法 | |
CN108051440A (zh) | 一种矿石自动光学识别方法 | |
CN115063628A (zh) | 一种基于视觉语义分割的水果采摘预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |