CN114140485A - 一种三七主根切割轨迹生成方法及系统 - Google Patents
一种三七主根切割轨迹生成方法及系统 Download PDFInfo
- Publication number
- CN114140485A CN114140485A CN202111431225.9A CN202111431225A CN114140485A CN 114140485 A CN114140485 A CN 114140485A CN 202111431225 A CN202111431225 A CN 202111431225A CN 114140485 A CN114140485 A CN 114140485A
- Authority
- CN
- China
- Prior art keywords
- pseudo
- deep learning
- network model
- coordinates
- learning network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005520 cutting process Methods 0.000 title claims abstract description 35
- 235000003143 Panax notoginseng Nutrition 0.000 title claims description 36
- 241000180649 Panax notoginseng Species 0.000 title claims description 36
- 238000001514 detection method Methods 0.000 claims abstract description 119
- 238000013135 deep learning Methods 0.000 claims abstract description 114
- 238000012549 training Methods 0.000 claims abstract description 96
- 244000131316 Panax pseudoginseng Species 0.000 claims abstract description 90
- 235000003181 Panax pseudoginseng Nutrition 0.000 claims abstract description 90
- 238000012216 screening Methods 0.000 claims abstract description 29
- 238000012795 verification Methods 0.000 claims abstract description 24
- 230000008014 freezing Effects 0.000 claims abstract description 23
- 238000007710 freezing Methods 0.000 claims abstract description 23
- 238000009499 grossing Methods 0.000 claims abstract description 7
- 230000004927 fusion Effects 0.000 claims description 15
- 240000004282 Grewia occidentalis Species 0.000 claims description 14
- 238000002679 ablation Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000002474 experimental method Methods 0.000 claims description 9
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000002401 inhibitory effect Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 13
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 208000006440 Open Bite Diseases 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007721 medicinal effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种三七主根切割轨迹生成方法及系统,方法包括构建三七图像数据集;对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;将收集的三七图像数据集制作成训练数据集和验证数据集;使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;选出一个最优权重;获得冻结模型;将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;提取出检测边界框的四个角坐标和中心点坐标,获得散点坐标和一条由中心点连接而成的折线;将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;将封闭轮廓进平滑处理,获得刀路轨迹。本发明能有效生成切除三七非主根部分的轨迹。
Description
技术领域
本发明涉及一种三七主根切割轨迹生成方法及系统,属于人工智能目标检测和计算机视觉领域。
背景技术
在实际工程应用中三七主根的药用成分含量较高,但若再制药时混杂入其他部分(小根、虚根等),其药效将受到明显影响。如何快速高效的识别出具有较大形态差异的主根并根据主根拟合散点坐标生成切除非主根部分的刀路轨迹对实现全自动化生产具有重大意义。
在传统的目标检测方法中,每个边界框都对应一个完整的检测目标,受限于三七主根形态的多样性,若使用单一边界框作为主根的切割轨迹,并不利于非主根部分有效地切除。
再者,计算机视觉领域中Segnet、FCN、U-Net等深度学习算法虽能精准地将无遮挡部分的主根轮廓从背景中分割出来,但确存在很多问题:首先是像素级的分割所需计算成本较高且速度较慢,导致嵌入工业检测设备的成本大幅提升且效率较低;其次,以过于精确的拟合边缘来生成切割轨迹大幅提高了对机械切割设备的运动性能与计算能力的要求,并不适用于兼顾成本与效率的自动化生产项目。
发明内容
本发明提供了一种三七主根切割轨迹生成方法及系统,以用于通过密集连续标注的方式配合深度学习实现三七检测,并在此基础上快速生成切除三七非主根部分的轨迹。
本发明的技术方案是:一种三七主根切割轨迹生成方法,包括:
构建三七图像数据集;
对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;
将收集的三七图像数据集制作成训练数据集和验证数据集;
使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;
使用验证数据集分别对候选权重的性能进行评估,选出一个最优权重;
将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测以调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,获得冻结模型;
将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;
提取出检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;获得散点坐标和一条由中心点连接而成的折线;
将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;
将封闭轮廓进平滑处理,获得刀路轨迹。
所述对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型,包括:利用由浅层网络、多尺度残差单元、多尺度特征融合模块和预测头模块构建深度学习网络模型的雏形;通过消融实验和三七数据集中尺寸数据对模型进行调整,获得深度学习网络模型。
所述通过消融实验和三七数据集中尺寸数据对模型进行调整,获得深度学习网络模型,包括:
步骤2.1、在其他条件相同的情况下通过改变多尺度残差单元中残差模块的数量进而得到多个不同的深度学习网络模型雏形;
步骤2.2、对多个不同的深度学习网络模型雏形进行性能评估,再从中筛选性能最好的模型,从而确定残差模块的最佳数量;
步骤2.3、重新设计多尺度特征融合模块中多尺度特征图所含预设锚框的尺寸:对预设锚框施加n个不同的宽高比,结合步骤1所得数据计算预设锚框的宽、高,获得n+1个不同尺寸的预设锚框。
所述预设锚框的具体计算为:所述n取值为5,对预设锚框施加5个不同的宽高比 每一个宽高比对应一个锚框种类,即锚框种类a=1,2,3,4,5,由此计算每一个预设锚框的宽度和高度对宽高比ar为1时,增加一个预设锚框,对应锚框种类a=6,锚框种类6对应预设锚框的宽高为每个锚框以中心坐标加宽高信息表示;其中, Smin为统计的尺寸数据中三七主根最小直径,Smax为统计的尺寸数据中三七主根最大直径,k代表多尺度特征融合模块中m个多尺度特征图由大到小的排序,m代表多尺度特征图个数。
所述将收集的三七图像数据集制作成训练数据集和验证数据集,包括:
步骤3.1、通过labelImg工具包对三七图像数据集进行密集连续标注,其中密集标注具体为:根据三七主根形状使用多个大小不同的标注框进行标注,需保证标注框连续,标注框连续即标注框与标注框之间存在面积重叠;相邻的标注框之间的中心点间距应大于距离S:
其中,S为输出尺寸最小的特征图的单个单元映射回原图的距离;Wf和Hf分别代表尺寸最小特征图的宽和高;W和H分别代表输入的三七图像数据集中图像的宽和高;
步骤3.2、将标注好的数据集按其数量的80%和20%分为训练数据集与验证数据集。
所述使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重,包括:
步骤4.1、配置深度学习网络模型yolo3-master的train.py文件中的训练超参数,超参数调整包括以下至少之一:抽取图片数、学习率、动量、迭代次数、解锁迭代次数和权重衰减系数;其余参数均为默认值;
步骤4.2、对深度学习网络模型进行训练;训练的对象包括:每个标注框的左上角坐标(xmin、ymin)和右下角坐标(xmax、ymax)、类别class;训练结果的表现形式是每经过一次训练迭代后得到的权重文件;
步骤4.3、调用深度学习网络模型yolo3-master中的train.py文件的开始训练,训练的具体过程如下:
步骤4.3.1、调用train.py文件进行深度学习网络模型训练;
步骤4.3.2、在训练集里随机抽取一个batch_size的图像作为当前训练样本;其中,batch_size表示单次从训练集中抽取的图片数;
步骤4.3.3、将步骤4.3.2中所述训练样本中的每一张图像依次放入深度学习网络模型中进行权重参数的更新;所述权重参数的更新,具体为:随机初始化权重参数或载入预训练权重参数,进行卷积神经网络的前向传播计算并得到一组中间参数,再使用该中间参数进行反向传播更新权重参数;所述新的权重参数将替换之前用于计算前向传播的旧权重参数;
步骤4.3.4、将步骤4.3.2中所述的训练数据集的所有图像都进行一次前向和反向传播的过程记为一次对深度学习网络模型的训练,每次训练保存一个权重文件;重复步骤4.3.2~步骤4.3.3直至对网络模型训练次数达到设定的迭代次数为止;
步骤4.3.5、达到设定的训练次数后,将获得的所有权重文件通过深度学习网络模型自带的性能评估指标进行筛选,得到多个候选权重文件。
所述获得密集的检测边界框,包括:
将每个检测边界框的信息从(xc,yc,w,h)的表示形式转换为以其左上角坐标(xmin,ymin)和右下角坐标(xmax,ymax)的形式表示,转换公式为:
其中,xc,yc表示密集的检测边界框中心点坐标信息;w,h表示密集的检测边界框宽高信息。
所述获得散点坐标和一条由中心点连接而成的折线,包括:提取出待检测三七图像中的所有密集检测框的四个角坐标信息,并分别判断每个检测框的四个角坐标是否位于其他检测框内,将被框住的角坐标进行抑制,最后将未被抑制的角坐标视为散点,并根据散点在X轴和Y轴上的分布,分别计算方差进行排序;同时计算出密集检测框的中心点坐标,将中心点坐标也按同样的方式排序,并按顺序连接成一条折线。
所述获得连接的封闭轮廓,包括:按顺序枚举所得的每一个散点,第一、二个坐标直接加入坐标连接列表作为初始的上下端,之后每枚举出一个散点就分别判断其与上、下端连接的线段是否与得折线相交:若一条相交一条不相交则连接不相交地一端、若两条连线都相交则忽略该散点、若两条连线都不相交则就近连接其中一端;每将一个散点连接至坐标连接列表后,将该坐标连接列表的首尾端作为当前列表的上下端;枚举完所有坐标得到完整的坐标连接列表,并使其首尾相连,得到一个近似拟合三七主根的封闭轮廓。
一种三七主根切割轨迹生成系统,包括:
构建单元,用于构建三七图像数据集;
第一获得单元,用于对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;
执行单元,用于将收集的三七图像数据集制作成训练数据集和验证数据集;
第一筛选单元,用于使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;
第二筛选单元,用于使用验证数据集分别对候选权重的性能进行评估,选出一个最优权重;
第二获得单元,用于将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测以调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,获得冻结模型;
第三获得单元,用于将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;
第四获得单元,用于提取出检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;获得散点坐标和一条由中心点连接而成的折线;
第五获得单元,用于将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;
第六获得单元,用于将封闭轮廓进平滑处理,获得刀路轨迹。
本发明的有益效果是:本发明将三七轨迹采用一系列密集的标注框进行标注,单个检测框能框选三七主根的局部区域,而密集的检测框能拟合三七主根的形状,使得深度学习网络模型在图像级处理中所学习的特征更加集中,能更针对性的学习三七主根特征:通过多尺度残差单元来构建特征提取器,以此实现在不同尺度下对不同三七主根形态特征的兼顾,这有助于扩大对具有多种形态主根的感受野;再对不同尺寸感受野中的每个单元预设多种具有不同宽高比的锚框来自适应地拟合主根的形态差异,在不降低检测速度的同时提高了检测的精准度。
由深度学习模型生成的密集检测框为切除三七非主根部分的刀路轨迹规划提供了散点坐标,结合条件运算与逻辑判断的坐标筛选算法剔除了其中的非必要坐标,在较高的运算速下提取出了拟合三七主根轮廓的散点坐标,并进行了排序;最后将剩余坐标进行拟合轮廓的连接与二阶插值运算,获取了平滑的刀路轨迹;使其不但更加拟合主根形状,也更加符合切割设备的机械运动学,减少了切割设备在运行中因速度阶跃而引起的震动,提高了加工的精度与稳定性。
附图说明
图1为总体流程图;
图2为三七不同形态分类图;
图3为三七在不同背景下分类图;
图4为深度学习网络模型的结构图;
图5为残差模块的原理图;
图6为多尺度特征融合模块原理图;
图7为labelImg工具对三七标注方式图;
图8为深度学习模型训练流程图;
图9为锚框解码原理图;
图10为深度学习模型检测效果图;
图11为生成三七主根切割刀路的流程图;
图12为密集检测框坐标筛选排序算法原理图;
图13为轮廓散点坐标筛选排序效果图;
图14为轮廓散点坐标连线算法原理图;
图15为轮廓散点坐标连线效果图;
图16为二阶插值原理图;
图17为三七主根切割刀路轨迹图。
具体实施方式
下面结合附图和实施例,对发明做进一步的说明,但本发明的内容并不限于所述范围。
实施例1:如图1-17所示,一种三七主根切割轨迹生成方法,包括:构建三七图像数据集;对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;将收集的三七图像数据集制作成训练数据集和验证数据集;使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;使用验证数据集分别对候选权重的性能进行评估,选出一个最优权重;将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测以调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,获得冻结模型;将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;提取出检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;获得散点坐标和一条由中心点连接而成的折线;将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;将封闭轮廓进平滑处理,获得刀路轨迹。
进一步地,可以设置所述对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型,包括:利用由浅层网络、多尺度残差单元、多尺度特征融合模块和预测头模块构建深度学习网络模型的雏形;通过消融实验和三七数据集中尺寸数据对模型进行调整,获得深度学习网络模型。
进一步地,可以设置所述通过消融实验和三七数据集中尺寸数据对模型进行调整,获得深度学习网络模型,包括:
步骤2.1、在其他条件相同的情况下通过改变多尺度残差单元中残差模块的数量进而得到多个不同的深度学习网络模型雏形;
步骤2.2、对多个不同的深度学习网络模型雏形进行性能评估,再从中筛选性能最好的模型,从而确定残差模块的最佳数量;
步骤2.3、重新设计多尺度特征融合模块中多尺度特征图所含预设锚框的尺寸:对预设锚框施加n个不同的宽高比,结合步骤1所得数据计算预设锚框的宽、高,获得n+1个不同尺寸的预设锚框。
进一步地,可以设置所述预设锚框的具体计算为:所述n取值为5,对预设锚框施加5个不同的宽高比每一个宽高比对应一个锚框种类,即锚框种类a=1,2,3,4,5,由此计算每一个预设锚框的宽度和高度对宽高比ar为1时,增加一个预设锚框,对应锚框种类a=6,锚框种类6对应预设锚框的宽高为每个锚框以中心坐标加宽高信息表示;其中, Smin为统计的尺寸数据中三七主根最小直径,Smax为统计的尺寸数据中三七主根最大直径,k代表多尺度特征融合模块中m个多尺度特征图由大到小的排序,m代表多尺度特征图个数。
进一步地,可以设置所述将收集的三七图像数据集制作成训练数据集和验证数据集,包括:
步骤3.1、通过labelImg工具包对三七图像数据集进行密集连续标注,其中密集标注具体为:根据三七主根形状使用多个大小不同的标注框进行标注,需保证标注框连续,标注框连续即标注框与标注框之间存在面积重叠;相邻的标注框之间的中心点间距应大于距离S:
其中,S为输出尺寸最小的特征图的单个单元映射回原图的距离;Wf和Hf分别代表尺寸最小特征图的宽和高;W和H分别代表输入的三七图像数据集中图像的宽和高;
步骤3.2、将标注好的数据集按其数量的80%和20%分为训练数据集与验证数据集。
进一步地,可以设置所述使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重,包括:
步骤4.1、配置深度学习网络模型yolo3-master的train.py文件中的训练超参数,超参数调整包括以下至少之一:抽取图片数、学习率、动量、迭代次数、解锁迭代次数和权重衰减系数;其余参数均为默认值;
步骤4.2、对深度学习网络模型进行训练;训练的对象包括:每个标注框的左上角坐标(xmin、ymin)和右下角坐标(xmax、ymax)、类别class;训练结果的表现形式是每经过一次训练迭代后得到的权重文件;
步骤4.3、调用深度学习网络模型yolo3-master中的train.py文件的开始训练,训练的具体过程如下:
步骤4.3.1、调用train.py文件进行深度学习网络模型训练;
步骤4.3.2、在训练集里随机抽取一个batch_size的图像作为当前训练样本;其中,batch_size表示单次从训练集中抽取的图片数;
步骤4.3.3、将步骤4.3.2中所述训练样本中的每一张图像依次放入深度学习网络模型中进行权重参数的更新;所述权重参数的更新,具体为:随机初始化权重参数或载入预训练权重参数,进行卷积神经网络的前向传播计算并得到一组中间参数,再使用该中间参数进行反向传播更新权重参数;所述新的权重参数将替换之前用于计算前向传播的旧权重参数;
步骤4.3.4、将步骤4.3.2中所述的训练数据集的所有图像都进行一次前向和反向传播的过程记为一次对深度学习网络模型的训练,每次训练保存一个权重文件;重复步骤4.3.2~步骤4.3.3直至对网络模型训练次数达到设定的迭代次数为止;
步骤4.3.5、达到设定的训练次数后,将获得的所有权重文件通过深度学习网络模型自带的性能评估指标进行筛选,得到多个候选权重文件。
进一步地,可以设置所述获得密集的检测边界框,包括:
将每个检测边界框的信息从(xc,yc,w,h)的表示形式转换为以其左上角坐标(xmin,ymin)和右下角坐标(xmax,ymax)的形式表示,转换公式为:
其中,xc,yc表示密集的检测边界框中心点坐标信息;w,h表示密集的检测边界框宽高信息。
进一步地,可以设置所述获得散点坐标和一条由中心点连接而成的折线,包括:提取出待检测三七图像中的所有密集检测框的四个角坐标信息,并分别判断每个检测框的四个角坐标是否位于其他检测框内,将被框住的角坐标进行抑制,最后将未被抑制的角坐标视为散点,并根据散点在X轴和Y轴上的分布,分别计算方差进行排序;同时计算出密集检测框的中心点坐标,将中心点坐标也按同样的方式排序,并按顺序连接成一条折线。
进一步地,可以设置所述获得连接的封闭轮廓,包括:按顺序枚举所得的每一个散点,第一、二个坐标直接加入坐标连接列表作为初始的上下端,之后每枚举出一个散点就分别判断其与上、下端连接的线段是否与得折线相交:若一条相交一条不相交则连接不相交地一端、若两条连线都相交则忽略该散点、若两条连线都不相交则就近连接其中一端;每将一个散点连接至坐标连接列表后,将该坐标连接列表的首尾端作为当前列表的上下端;枚举完所有坐标得到完整的坐标连接列表,并使其首尾相连,得到一个近似拟合三七主根的封闭轮廓。
再进一步地,本发明给出了一种三七主根切割轨迹生成系统,包括:构建单元,用于构建三七图像数据集;第一获得单元,用于对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;执行单元,用于将收集的三七图像数据集制作成训练数据集和验证数据集;第一筛选单元,用于使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;第二筛选单元,用于使用验证数据集分别对候选权重的性能进行评估,选出一个最优权重;第二获得单元,用于将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测以调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,获得冻结模型;第三获得单元,用于将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;第四获得单元,用于提取出检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;获得散点坐标和一条由中心点连接而成的折线;第五获得单元,用于将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;第六获得单元,用于将封闭轮廓进平滑处理,获得刀路轨迹。
实施例2:如图1-17所示,一种三七主根切割轨迹生成方法,具体步骤如下:
步骤1、收集三七图像数据集,对数据集中三七主根的尺寸数据进行统计;
步骤2、利用由浅层网络、多尺度残差单元、多尺度特征融合模块和预测头模块构建深度学习网络模型的雏形,并通过消融实验和步骤1所得尺寸数据对模型进行调整,获得深度学习网络模型;
步骤3、将收集的三七图像数据集制作成训练数据集和验证数据集;
步骤4、使用训练数据集对深度学习网络模型进行训练,训练结束后根据深度学习网络模型自带的性能评估指标来筛选出多个候选权重;
步骤5、使用验证数据集分别对候选权重的性能进行评估,以量化候选权重的性能,从多个候选权重中选出一个最优权重;
步骤6、将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测,根据检测效果调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,最后生成冻结的深度学习网络模型,作为冻结模型;
至此深度学习网络模型调整完毕,以下步骤使用的深度学习网络模型均为此冻结的深度学习网络模型。
步骤7、开始拍摄需检测的三七图像,并将其输入冻结模型以进行检测,冻结模型输出一系列锚框偏移信息和锚框缩放信息,输出信息与其对应的预设锚框信息解码后生成一系列密集的检测边界框;
步骤8、提取出所有检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;得出符合条件的角坐标和一条由中心点连接而成的折线。
步骤9、将符合条件的角坐标依次枚举,并依次进行连接,连接时不得与步骤8所得折线相交,最后连接为一个近似拟合三七主根的封闭轮廓;
步骤10、将近似拟合三七主根的封闭轮廓进行二阶插值运算,生成平滑的刀路轨迹。
进一步地,本申请给出如下具体的实施步骤:
所述结三七图像数据集通过工作平台上固定物距与倍率的相机拍摄,以此获取不同背景下的多种形态各异的三七图像,即根据实际加工场景采集各种三七图像。比如,本实施例收集的三七图像根据不同背景可分为对比色背景、颜色相似背景、其它背景;所述三七主根的形态主要有团状、块状、条状和其他复杂形状等。按三七主根形态分类图2所示;背景的多样化和复杂性以及三七形态各异有助于提高该深度学习网络模型的泛化能力,对所采集的三七图像按背景分类如图3。
所述步骤1中数据统计为:对三七图像数据集中三七图像上的三七主根的直径进行统计,将最小直径记为Smin,最大直径记为Smax。在本实施例中,最小直径Smin=1cm,最大直径为Smax=6cm。
所述步骤2中浅层网络含三个层单元,每个层单元由三层卷积层加一层最大池化层组成。
所述步骤2中的多尺度残差单元的残差模块原理如图5所示,输入经过1×1的卷积核(Conv1×1)提取特征,再沿通道方向进行恒等均分,得到多个不同通道尺度的特征子块Xi。其次,通过多个卷积宽度相同的3×3卷积核(Conv3×3)分别提取特征子块Xi并得到多个不同的输出特征。然后,将所有输出特征在通道方向进行堆叠得到重组特征Yi,最后,利用1×1卷积核压缩通道信息后输出。多尺度残差单元可以从输入特征中够获取更多通道信息,也有助于扩大深度学习网络的感受野。
所述步骤2中的上采样特征融合模块原理如图6所示,将由多尺度残差单元输出的52×52特征图作为输入,经过两次3×3卷积核的卷积进行下采样,得到26×26和13×13大小的特征图,再将两特征图进行通道数C不变的卷积和反卷积上采样得到额外的52×52和26×26的特征图。然后,分别将尺寸大小相同的特征图在通道数C上进行拼接,最后经过1×1卷积核的变通道卷积,输出三种大小的特征图作为检测头的输入。
所述预测头模块由三个独立预测头组成,每个预测头由变通道卷积层构成;所述步骤2中的检测头如图6,实际为多层3×3卷积,作用是根据所需检测信息的通道数C,改变由多尺度特征融合模块输出的多尺度特征图通道,将通道数为C的多尺度特征图作为最终检测信息输出,其通道数C计算公式如下:
C=1+num_class+(6×4)
其中,通道1为检测特征图单个单元内包含目标的概率;通道num_class为可检测目标类别的种类数,本实例中为num_class=1;通道6分别对应6种不同尺寸的锚框;通道4表示锚框中心点偏移信息和锚框宽高缩放信息
所述步骤2调整深度学习网络模型雏形的具体步骤如下:
步骤2.1、在其他条件相同的情况下通过改变多尺度残差单元中残差模块的数量进而得到多个不同的深度学习网络模型雏形;
步骤2.2、对多个不同的深度学习网络模型雏形进行性能评估,再从中筛选性能最好的模型,从而确定残差模块的最佳数量;
针对步骤2.1与2.2,使用消融实验来选择残差单元数量与评估性能,消融实验给出结果如表1所示,表中,RH-Res_26表示一个深度学习网络模型雏形,26表示网络层数,其它同理;通过表1表明,RH-Res_53模型确定残差模块的数量最佳为53。
表1消融实验结果
步骤2.3、重新设计多尺度特征融合模块中多尺度特征图所含预设锚框的尺寸:对预设锚框施加n个不同的宽高比,结合步骤1所得数据计算预设锚框的宽、高,获得n+1个不同尺寸的预设锚框;由此在每个特征图的每个单元上一共产生n+1个预设锚框;
所述预设锚框的具体计算为:所述n取值为5,对预设锚框施加5个不同的宽高比 每一个宽高比对应一个锚框种类,即锚框种类a=1,2,3,4,5,由此计算每一个预设锚框的宽度和高度对宽高比ar为1时,增加一个预设锚框,对应锚框种类a=6,锚框种类6对应预设锚框的宽高为每个锚框以中心坐标加宽高信息表示;其中,中心坐标为当前锚框所在特征图的单元的左上角坐标;Smin为步骤1统计的尺寸数据中三七主根最小直径,Smax为步骤1统计的尺寸数据中三七主根最大直径,k代表多尺度特征融合模块中m个多尺度特征图由大到小的排序,m代表多尺度特征图个数,此处取3。由此为每个特征图生成n+1的不同尺寸的预设锚框,再将这些锚框复制到其所属特征图的每个单元;设计多种不同形状的锚框时考虑了数据集中尺寸数据,能够让建立的模型更加适应目标,增强对不同三七主根尺寸的适应性。
所述步骤3中,训练数据集与验证数据集的具体制作方法如下:
步骤3.1、通过labelImg工具包对三七图像数据集进行密集连续标注,其中密集标注具体为:根据三七主根形状使用多个大小不同的标注框进行标注,需保证标注框连续,标注框连续即标注框与标注框之间存在面积重叠;相邻的标注框之间的中心点间距应大于距离S:
其中,S为输出尺寸最小的特征图(13×13特征图)的单个单元映射回原图的距离;Wf和Hf分别代表尺寸最小特征图的宽和高;W和H分别代表输入的三七图像数据集中图像的宽和高;通过设置距离约束,可以防止在深度学习模型训练时,多个标注框由同一个预设锚框来训练回归而产生歧义;所述用labelImg工具包标注效果如图7所示。在本实施例中,三七图像数据集共有200张;其中训练数据集160张,验证数据集40张;中心点最小距离:S=40像素距离。
步骤3.2、将标注好的数据集按其数量的80%和20%分为训练数据集与验证数据集。
所述步骤4调整训练超参数并训练模型的过程具体实施方式如图8所示,先在深度学习网络模型yolo3-master的配置文件train.py中设置超参数:单次抽取图片数batch_size=8、学习率=0.001、动量=0.9、权重衰减系数=0.0005,学习率衰减为每50次衰减至90%,解锁迭代次数=300、迭代次数=500;在前300次迭代中将浅层网络和多尺度残差单元的权重锁定,到达300次解锁迭代次数后再将其全部解锁,其余参数默认。开始训练,载入深度学习的网络模型、载入随机权重参数或预训练权重参数,锁定浅层网络和多尺度残差单元的权重,根据batch_size的大小按批次调入图像进行训练,根据设定的参数,当迭代次数达到300次解锁迭代次数后解锁整体网络权重后继续优化迭代直至到达设定的第500次迭代,最后将获得的所有权重文件通过深度学习网络模型自带的性能评估指标进行筛选,得到多个候选权重文件。
然后如所述步骤5将候选权重文件分别载入深度学习网络模型,再使用验证数据集筛选出检测效果最优的深度学习网络模型,将其权重文件定为最优权重文件。
所述步骤6将所述步骤5得到的最优权重文件加载入深度学习网络模型后,运行深度学习网络模型中的检测文件predict.py对待检测图像进行检测,通过直观的检测效果手动调整检测文件predict.py中的检测超参数,选出一组效果最好的检测超参数作为最优检测超参数;其中,检测超参数调整包括以下至少之一:置信度筛选阈值、非极大抑制阈值、边缘拟合膨胀系数,其余参数均为默认值。根据检测效果确定置信度筛选阈值=0.6、非极大抑制阈值=0.35、边缘拟合膨胀系数=0.9,将这一组参数确定为最优检测超参数。
所述步骤1至6确定了最优深度学习网络模型作为冻结模型为:将步骤5所得最优权重文件和步骤6所得最优检测超参数载入深度学习网络模型,然后冻结锁定所有网络参数得到冻结模型,此模型也是以下步骤中用于检测的模型。
所述步骤7将新拍摄的需检测三七图像输入冻结模型,冻结模型输出一系列锚框中心点偏移信息和锚框宽高缩放信息输出的信息与对应预设锚框信息解码后得到密集的检测边界框信息(xc,yc,w,h),解码过程如图9所示,解码公式为:
其中,xc,yc表示密集的检测边界框中心点坐标信息;w,h表示密集的检测边界框宽高信息;冻结模型没有对应输出的锚框则忽略;
再将每个检测边界框的信息从(xc,yc,w,h)的表示形式转换为以其左上角坐标(xmin,ymin)和右下角坐标(xmax,ymax)的形式表示,检测效果如图10所示,转换公式为:
所述步骤8至10为利用检测算法输出的密集检测框信息,生成三七主根切割刀路轨迹的部分,流程如图11所示,具体步骤如下:
所述步骤8提取出图像中的所有密集检测框的四个角坐标信息,分别判断每个检测框的四个角坐标是否位于其他检测框内,将被框住的角坐标进行抑制,最后将未被抑制的角坐标视为散点,并根据散点在X轴和Y轴上的分布,分别计算方差进行排序;同时计算出密集检测框的中心点坐标,将中心点坐标也按同样的方式排序,并按顺序连接成一条折线。具体操作如下:
步骤8.1、先提取每个检测框的四个角坐标信息:左上角(xmin、ymin)、左下角(xmin、ymax)、右上角(xmax、ymin)、右下角(xmax、ymax),依次判断每个角坐标是否位于其它检测框内,条件公式为:
其中,x,y表示当前需要判断的角坐标值;Xmin表示除去当前x,y所在框外,其他所有框的xmin值的集合;Xmax表示除去当前x,y所在框外,其他所有框的xmax值的集合;and为“与运算”,cond为True则代表当前角坐标被抑制,False则代表当前角坐标被保留;
步骤8.2、视步骤8.1筛选出的未被抑制的角坐标为散点坐标,分别计算散点坐标在X轴和Y轴上的方差,选择方差较大的轴作为第一优先级在此轴上对坐标进行排序;如图12所示中最后一个图为根据X轴作为第一优先级排序的1-8号散点坐标;
步骤8.3、由检测框中心点生成一条折线,具体步骤如下:
分别计算检测边界框中心点坐标(xc、yc)在X轴和Y轴上的方差,选择方差较大的轴作为第一优先级在此轴上对坐标进行排序,再将排好序的中心点坐标依次连接成一条折线,效果如图13。
所述步骤9将步骤8的散点坐标进行轮廓连接,流程如图14:按顺序枚举每一个坐标点,第一、二个坐标直接加入坐标连接列表作为初始的上下端。之后每枚举出一个坐标就进行一次流程判断,具体步骤如下:
步骤9.1、从坐标连接列表中取出首位坐标和末尾坐标作为上端与下端,将枚举出的坐标分别与上端坐标和下端坐标连接成两段线段。
步骤9.2、判断所述步骤9.1中的枚举坐标与上端坐标连接成的线段和步骤8所得折线是否相交,相交则输出False,反之输出True;枚举坐标与下端坐标连接的线段也用同样方式判断,最终输出两个bool值。
步骤9.3、判断所述步骤9.2中输出的两个bool值,如果其中一个bool值为False、另一个为Ture,则将枚举坐标添加到为True的一端。如果都为False则跳过该点;如果两个bool值都为True,则分别计算枚举坐标与上、下端坐标的距离,将枚举坐标添加到距离较近的一端。
步骤9.4、将枚举坐标连接至坐标连接列表后,将该坐标连接列表的新的首尾坐标作为当前列表的上下端;所述步骤9连接效果如图15所示。
所述步骤10将步骤9得到的坐标输入二阶插值函数生成平滑的刀路轨迹坐标列表,效果如图17所示;二阶插值原理如图16所示,二阶插值公式为:
其中,qa(t)表示t时刻插值点的坐标值,t表示当前插值点的时间轴数值,t0表示前一已知点的所处时刻,t1表示后一已知点的所处时刻,tf表示t0与t1之间加速度为0的点所对应的时间轴数值。而a0、a1、a2、a3、a4、a5为都为常量参数,a0、a1、a2为t0时刻的位置、速度和加速度;a3、a4、a5为tf时刻的位置、速度和加速度。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (10)
1.一种三七主根切割轨迹生成方法,其特征在于:包括:
构建三七图像数据集;
对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;
将收集的三七图像数据集制作成训练数据集和验证数据集;
使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;
使用验证数据集分别对候选权重的性能进行评估,选出一个最优权重;
将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测以调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,获得冻结模型;
将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;
提取出检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;获得散点坐标和一条由中心点连接而成的折线;
将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;
将封闭轮廓进平滑处理,获得刀路轨迹。
2.根据权利要求1所述的三七主根切割轨迹生成方法,其特征在于:所述对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型,包括:利用由浅层网络、多尺度残差单元、多尺度特征融合模块和预测头模块构建深度学习网络模型的雏形;通过消融实验和三七数据集中尺寸数据对模型进行调整,获得深度学习网络模型。
3.根据权利要求2所述的三七主根切割轨迹生成方法,其特征在于:所述通过消融实验和三七数据集中尺寸数据对模型进行调整,获得深度学习网络模型,包括:
步骤2.1、在其他条件相同的情况下通过改变多尺度残差单元中残差模块的数量进而得到多个不同的深度学习网络模型雏形;
步骤2.2、对多个不同的深度学习网络模型雏形进行性能评估,再从中筛选性能最好的模型,从而确定残差模块的最佳数量;
步骤2.3、重新设计多尺度特征融合模块中多尺度特征图所含预设锚框的尺寸:对预设锚框施加n个不同的宽高比,结合步骤1所得数据计算预设锚框的宽、高,获得n+1个不同尺寸的预设锚框。
5.根据权利要求1所述的三七主根切割轨迹生成方法,其特征在于:所述将收集的三七图像数据集制作成训练数据集和验证数据集,包括:
步骤3.1、通过labelImg工具包对三七图像数据集进行密集连续标注,其中密集标注具体为:根据三七主根形状使用多个大小不同的标注框进行标注,需保证标注框连续,标注框连续即标注框与标注框之间存在面积重叠;相邻的标注框之间的中心点间距应大于距离S:
其中,S为输出尺寸最小的特征图的单个单元映射回原图的距离;Wf和Hf分别代表尺寸最小特征图的宽和高;W和H分别代表输入的三七图像数据集中图像的宽和高;
步骤3.2、将标注好的数据集按其数量的80%和20%分为训练数据集与验证数据集。
6.根据权利要求1所述的三七主根切割轨迹生成方法,其特征在于:所述使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重,包括:
步骤4.1、配置深度学习网络模型yolo3-master的train.py文件中的训练超参数,超参数调整包括以下至少之一:抽取图片数、学习率、动量、迭代次数、解锁迭代次数和权重衰减系数;其余参数均为默认值;
步骤4.2、对深度学习网络模型进行训练;训练的对象包括:每个标注框的左上角坐标(xmin、ymin)和右下角坐标(xmax、ymax)、类别class;训练结果的表现形式是每经过一次训练迭代后得到的权重文件;
步骤4.3、调用深度学习网络模型yolo3-master中的train.py文件的开始训练,训练的具体过程如下:
步骤4.3.1、调用train.py文件进行深度学习网络模型训练;
步骤4.3.2、在训练集里随机抽取一个batch_size的图像作为当前训练样本;其中,batch_size表示单次从训练集中抽取的图片数;
步骤4.3.3、将步骤4.3.2中所述训练样本中的每一张图像依次放入深度学习网络模型中进行权重参数的更新;所述权重参数的更新,具体为:随机初始化权重参数或载入预训练权重参数,进行卷积神经网络的前向传播计算并得到一组中间参数,再使用该中间参数进行反向传播更新权重参数;所述新的权重参数将替换之前用于计算前向传播的旧权重参数;
步骤4.3.4、将步骤4.3.2中所述的训练数据集的所有图像都进行一次前向和反向传播的过程记为一次对深度学习网络模型的训练,每次训练保存一个权重文件;重复步骤4.3.2~步骤4.3.3直至对网络模型训练次数达到设定的迭代次数为止;
步骤4.3.5、达到设定的训练次数后,将获得的所有权重文件通过深度学习网络模型自带的性能评估指标进行筛选,得到多个候选权重文件。
8.根据权利要求1所述的三七主根切割轨迹生成方法,其特征在于:所述获得散点坐标和一条由中心点连接而成的折线,包括:提取出待检测三七图像中的所有密集检测框的四个角坐标信息,并分别判断每个检测框的四个角坐标是否位于其他检测框内,将被框住的角坐标进行抑制,最后将未被抑制的角坐标视为散点,并根据散点在X轴和Y轴上的分布,分别计算方差进行排序;同时计算出密集检测框的中心点坐标,将中心点坐标也按同样的方式排序,并按顺序连接成一条折线。
9.根据权利要求1所述的三七主根切割轨迹生成方法,其特征在于:所述获得连接的封闭轮廓,包括:按顺序枚举所得的每一个散点,第一、二个坐标直接加入坐标连接列表作为初始的上下端,之后每枚举出一个散点就分别判断其与上、下端连接的线段是否与得折线相交:若一条相交一条不相交则连接不相交地一端、若两条连线都相交则忽略该散点、若两条连线都不相交则就近连接其中一端;每将一个散点连接至坐标连接列表后,将该坐标连接列表的首尾端作为当前列表的上下端;枚举完所有坐标得到完整的坐标连接列表,并使其首尾相连,得到一个近似拟合三七主根的封闭轮廓。
10.一种三七主根切割轨迹生成系统,其特征在于:包括:
构建单元,用于构建三七图像数据集;
第一获得单元,用于对构建的深度学习网络模型的雏形进行调整,获得深度学习网络模型;
执行单元,用于将收集的三七图像数据集制作成训练数据集和验证数据集;
第一筛选单元,用于使用训练数据集对深度学习网络模型进行训练,筛选出多个候选权重;
第二筛选单元,用于使用验证数据集分别对候选权重的性能进行评估,选出一个最优权重;
第二获得单元,用于将最优权重载入深度学习网络模型,并用此模型对待检测三七图像进行检测以调整深度学习网络模型的检测超参数,确定最优检测超参数后也将其载入深度学习网络模型,获得冻结模型;
第三获得单元,用于将新获取的待检测的三七图像输入冻结模型以进行检测,获得密集的检测边界框;
第四获得单元,用于提取出检测边界框的四个角坐标和中心点坐标,将检测边界框的所有角坐标进行筛选和排序,而中心坐标则进行排序并依次按顺序连接;获得散点坐标和一条由中心点连接而成的折线;
第五获得单元,用于将散点坐标依次枚举,并依次进行连接,连接时不与上述折线相交,获得连接的封闭轮廓;
第六获得单元,用于将封闭轮廓进平滑处理,获得刀路轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111431225.9A CN114140485A (zh) | 2021-11-29 | 2021-11-29 | 一种三七主根切割轨迹生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111431225.9A CN114140485A (zh) | 2021-11-29 | 2021-11-29 | 一种三七主根切割轨迹生成方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114140485A true CN114140485A (zh) | 2022-03-04 |
Family
ID=80389096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111431225.9A Pending CN114140485A (zh) | 2021-11-29 | 2021-11-29 | 一种三七主根切割轨迹生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114140485A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114898220A (zh) * | 2022-07-13 | 2022-08-12 | 金成技术股份有限公司 | 一种高空作业车结构件的智能生产控制方法 |
CN116630217A (zh) * | 2023-06-15 | 2023-08-22 | 昆明理工大学 | 一种低损伤三七主根的互作感知式进挖方法 |
-
2021
- 2021-11-29 CN CN202111431225.9A patent/CN114140485A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114898220A (zh) * | 2022-07-13 | 2022-08-12 | 金成技术股份有限公司 | 一种高空作业车结构件的智能生产控制方法 |
CN114898220B (zh) * | 2022-07-13 | 2022-09-09 | 金成技术股份有限公司 | 一种高空作业车结构件的智能生产控制方法 |
CN116630217A (zh) * | 2023-06-15 | 2023-08-22 | 昆明理工大学 | 一种低损伤三七主根的互作感知式进挖方法 |
CN116630217B (zh) * | 2023-06-15 | 2024-05-10 | 昆明理工大学 | 一种低损伤三七主根的互作感知式进挖方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027547B (zh) | 一种针对二维图像中的多尺度多形态目标的自动检测方法 | |
CN108319972B (zh) | 一种针对图像语义分割的端到端差异网络学习方法 | |
CN111640125B (zh) | 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置 | |
CN108304798B (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
CN103035013B (zh) | 一种基于多特征融合的精确运动阴影检测方法 | |
CN111695482A (zh) | 一种管道缺陷识别方法 | |
CN110163213B (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN109492596B (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及系统 | |
CN110659664B (zh) | 一种基于ssd的高精度识别小物体的方法 | |
CN109284779A (zh) | 基于深度全卷积网络的物体检测方法 | |
CN110991444B (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN110532946B (zh) | 一种基于卷积神经网络识别绿通车车辆轴型的方法 | |
CN111783772A (zh) | 一种基于RP-ResNet网络的抓取检测方法 | |
CN114140485A (zh) | 一种三七主根切割轨迹生成方法及系统 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN112396619B (zh) | 一种基于语义分割的内部复杂组成的小型颗粒分割方法 | |
CN106780546A (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN111046917A (zh) | 基于深度神经网络的对象性增强目标检测方法 | |
CN111753682A (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN113223027A (zh) | 基于PolarMask的未成熟柿子分割方法及系统 | |
CN114612450B (zh) | 基于数据增广机器视觉的图像检测分割方法、系统、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |