CN113537079A - 一种基于深度学习的目标图像角度计算方法 - Google Patents
一种基于深度学习的目标图像角度计算方法 Download PDFInfo
- Publication number
- CN113537079A CN113537079A CN202110814314.5A CN202110814314A CN113537079A CN 113537079 A CN113537079 A CN 113537079A CN 202110814314 A CN202110814314 A CN 202110814314A CN 113537079 A CN113537079 A CN 113537079A
- Authority
- CN
- China
- Prior art keywords
- target
- angle
- model
- image
- garbage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的目标图像角度计算方法,包括以下步骤:(1)对YOLO目标检测模型、角度分类模型和GAN模型进行模型训练;(2)通过YOLO目标检测模型获取目标垃圾RGB图像;(3)角度分类模型接收检测到的目标垃圾RGB图像,并对其角度进行计算;(4)GAN模型对检测到的目标垃圾RGB图像进行降噪处理,再通过OpenCV进行目标垃圾抓取的角度计算;(5)根据角度分类模型预测的准确率来判断最终的目标垃圾实际抓取角度。本发明采用两种不同计算方法结合,能够在较大程度上优化目标计算角度,提高了分选准确率。
Description
技术领域
本发明涉及深度学习领域,具体涉及一种基于深度学习的目标图像角度计算方法。
背景技术
用于物料抓取的机械手是垃圾分选机器人必不可少的组成部分。物料被置于传送带上后,由视觉系统将采集到的物料图像信息进行处理,生成机器人坐标系下的物料位姿数据并传输给机器人;机器人根据物料位姿数据迅速进行路径规划后调整机械手位姿,从而准确抓取物料。传统的机械手抓取目标垃圾的角度是通过视觉模块直接使用OpenCV进行计算,再将目标角度发送给机器人夹爪进行实时抓取,其中,OpenCV法是根据图像的开、闭和腐蚀膨胀进行计算,找到最大轮廓,求取图片的最小外接矩形,进而获得短边中心点的斜率;该方法适用于简单场景下的物料抓取,但是对于复杂环境下的作业,如目标图像中含有其他杂点、物料堆叠等情况,往往会影响机械手抓取目标角度的计算,导致机械手反映速度慢或者识别错误,进而影响整个产线的分选效率。
深度学习可以模仿人脑的机制来解释数据,但是现阶段通过深度学习抓取物料角度的计算方法几乎都是基于如MaskRCNN、YOLACT等实例分割算法基础上开发的。但是,首先实例分割算法需要针对每个目标垃圾的轮廓进行标注,因而其前期数据的标注量较大;其次在真实产线上,应用实例分割算法检测来料效率较低;而且由于来料性状复杂,也会导致实例分割算法对目标垃圾轮廓分割不准确,从而导致角度计算偏差不准等问题。因此,使用基于其他深度学习计算模型来解决物料抓取角度计算不准确问题,成为了当前亟需解决的难题。
发明内容
本发明要解决的技术问题是提供一种基于深度学习的目标图像角度计算方法,结合YOLO目标检测模型、角度分类模型和GAN模型三大模型,同时运用OpenCV进行角度计算,两种不同计算方法的结合能够在较大程度上优化目标计算角度,提高了分选准确率,计算效果好,且计算速度快。
为解决上述技术问题,本发明采取如下技术方案:本发明的一种基于深度学习的目标图像角度计算方法,其创新点在于包括以下步骤:
(1)对YOLO目标检测模型、角度分类模型和GAN模型进行模型训练;
(2)通过YOLO目标检测模型获取目标垃圾RGB图像;
(3)角度分类模型接收检测到的目标垃圾RGB图像,并对其角度进行计算;
(4)GAN模型对检测到的目标垃圾RGB图像进行降噪处理,再通过OpenCV进行目标垃圾抓取的角度计算;
(5)根据角度分类模型预测的准确率来判断最终的目标垃圾实际抓取角度。
优选的,在上述步骤(1)中,模型训练的方法包括以下步骤:
(1.1)通过工业相机采集待识别检测的RGB图像;
(1.2)标注人员对需要识别的RGB图像进行长方形矩阵框的标注,获得RGB图像上的目标垃圾点位置,并放入YOLO目标检测模型进行训练;
(1.3)在标注人员进行标注画框后,将每个目标垃圾点坐标信息提取压缩成目标垃圾图片,并进行角度标注,再将目标垃圾图片进行分类,分类后的目标垃圾图片再放入角度分类模型进行训练;
(1.4)拍摄目标垃圾在干净皮带上的图像设为干净背景图像作为训练标签,再拍摄目标垃圾周围有其他混淆垃圾背景图像作为训练图片,然后再一起放入GAN模型中进行训练。
优选的,在上述步骤(1.3)中,把每个目标垃圾点坐标信息提取压缩至224*224尺寸的目标垃圾图片,并将每张目标垃圾图片进行0到179度的分类。
优选的,在上述步骤(1.4)中,GAN模型为:
其中,V是指价值函数,即Value Function;G是指生成器,即用来生成降噪后的图片;D是指判别器,即用来判断降噪去杂质效果的好坏。
优选的,在上述步骤(2)中,通过YOLO目标检测模型获取目标垃圾RGB图像的具体流程为:
(2.1)通过工业相机采集待识别检测的RGB图像;
(2.2)将被检测的RGB图像输入到输入尺寸为608*608的YOLO目标检测模型中获取图像中涉及目标垃圾的所有位置框的列表,再经非极大值抑制算法过滤,得到最后需要保留的目标垃圾点坐标位置信息;
(2.3)将检测到的每个目标垃圾根据点坐标截取成长方形图片,并统一压缩至224*224尺寸的目标垃圾图片。
优选的,在上述步骤(2.2)中,非极大值抑制算法为:
其中,si表示每个边框得分;M表示当前得分最高的框;bi表示剩余框的某个框;Nt为设定的NMS阈值;iou为两个识别框的重合面积比例。
优选的,在上述步骤(3)中,角度分类模型进行角度计算的具体流程为:
(3.1)将步骤(2.3)获取到的目标垃圾图片放入角度分类模型进行分类预测;
(3.2)把角度分类模型最后一个全连接层得到的向量矩阵通过Softmax函数计算得到每个角度的准确度,并获取最高准确度的前两个角度及其对应的准确率;
(3.3)通过加权求和方法将预测角度乘以其对应的准确率而后两者相加得到角度值。
优选的,在上述步骤(3.2)中,Softmax函数的计算公式为:
其中,e表示自然常数,欧拉数;Vi表示V数组向量中的第i个元素;Si表示该元素的softmax值,即该元素的指数与所有元素指数和的比值。
优选的,在上述步骤(4)中,OpenCV进行角度计算的具体流程为:
(4.1)将步骤(2.3)获取到的目标垃圾图片放入GAN模型中,通过GAN模型中的生成器用来去除目标垃圾周边的杂质和堆叠,生成一张干净的目标垃圾图片实现降噪;
(4.2)将降噪后的目标垃圾图片用OpenCV求出图像的最小外接矩形及两条短边中心点相连后相对于水平线的斜率,并计算出该目标垃圾的角度。
优选的,在上述步骤(5)中,判别公式为:
而根据角度分类模型预测的准确率进行判别的具体流程为:
(5.1)根据角度分类模型给出的最大准确率判定其是否超过90%进行判断;
(5.2)若大于等于90%时,最终的目标垃圾实际抓取角度即为角度分类模型的预测结果加权求和后的角度值;
(5.3)若小于90%时,则为经GAN模型降噪后由OpenCV计算出的角度;
(5.4)将获取的目标垃圾中心点坐标以及计算出的最终的目标垃圾实际抓取角度发送给夹爪机器人进行抓取。
本发明的有益效果:
(1)本发明结合YOLO目标检测模型、角度分类模型和GAN模型三大模型,同时运用OpenCV进行角度计算,两种不同计算方法的结合能够在较大程度上优化目标计算角度,提高了分选准确率,计算效果好,且计算速度快;
(2)相较于其他深度学习分割检测算法需要对每个目标进行轮廓描边标注,本发明中角度分类模型的角度标注属于图片分类标注,其复杂程度变小,减轻了标注人员的标注难度;
(3)本发明采用角度分类模型预测结果的加权求和以及GAN模型降噪后使用OpenCV求解角度的方法相结合,其鲁棒性强。
附图说明
为了更清晰地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中整体检测方法的流程示意图。
图2为本发明中YOLO目标检测模型和角度分类模型训练的流程示意图。
图3为本发明中GAN模型训练的流程示意图。
具体实施方式
下面将通过具体实施方式对本发明的技术方案进行清楚、完整地描述。
本发明的一种基于深度学习的目标图像角度计算方法,如图1~3所示,包括以下步骤:
(1)对YOLO目标检测模型、角度分类模型和GAN模型进行模型训练;
在上述步骤中,如图2、图3所示,模型训练的方法包括以下步骤:
(1.1)通过工业相机采集待识别检测的RGB图像;
(1.2)标注人员对需要识别的RGB图像进行长方形矩阵框的标注,获得RGB图像上的目标垃圾点位置,并放入YOLO目标检测模型进行训练;
(1.3)在标注人员进行标注画框后,将每个目标垃圾点坐标信息提取压缩成224*224尺寸的目标垃圾图片,并进行角度标注,再将每张目标垃圾图片进行0到179度的分类,分类后的目标垃圾图片再放入角度分类模型mobilenetv2进行训练;
(1.4)拍摄目标垃圾在干净皮带上的图像设为干净背景图像作为训练标签,再拍摄目标垃圾周围有其他混淆垃圾背景图像作为训练图片,然后再一起放入GAN模型中进行训练。
在上述步骤中,GAN模型为:
其中,V是指价值函数,即Value Function;G是指生成器,即用来生成降噪后的图片;D是指判别器,即用来判断降噪去杂质效果的好坏。
上述步骤的目的是通过GAN模型中的生成器和判别器的互相博弈学习来去除目标垃圾周围杂质或堆叠情况的图像,最终得到三个深度学习模型用于产线上目标垃圾抓取角度计算。
(2)通过YOLO目标检测模型获取目标垃圾RGB图像;
在上述步骤中,通过YOLO目标检测模型获取目标垃圾RGB图像的具体流程为:
(2.1)通过工业相机采集待识别检测的RGB图像;
(2.2)将被检测的RGB图像输入到输入尺寸为608*608的YOLO目标检测模型中获取图像中涉及目标垃圾的所有位置框的列表,再经非极大值抑制算法过滤,得到最后需要保留的目标垃圾点坐标位置信息;
在上述步骤中,非极大值抑制算法为:
其中,si表示每个边框得分;M表示当前得分最高的框;bi表示剩余框的某个框;Nt为设定的NMS阈值;iou为两个识别框的重合面积比例;
(2.3)将检测到的每个目标垃圾根据点坐标截取成长方形图片,并统一压缩至224*224尺寸的目标垃圾图片。
(3)角度分类模型接收检测到的目标垃圾RGB图像,并对其角度进行计算;
在上述步骤中,角度分类模型进行角度计算的具体流程为:
(3.1)将步骤(2.3)获取到的目标垃圾图片放入角度分类模型mobilenetv2进行分类预测;
(3.2)把角度分类模型mobilenetv2最后一个全连接层得到的向量矩阵通过Softmax函数计算得到每个角度的准确度,并获取最高准确度的前两个角度及其对应的准确率;
在上述步骤中,Softmax函数的计算公式为:
其中,e表示自然常数,欧拉数;Vi表示V数组向量中的第i个元素;Si表示该元素的softmax值,即该元素的指数与所有元素指数和的比值。
(3.3)通过加权求和方法将预测角度乘以其对应的准确率而后两者相加得到角度值。
(4)GAN模型对检测到的目标垃圾RGB图像进行降噪处理,再通过OpenCV进行目标垃圾抓取的角度计算;
在上述步骤中,OpenCV进行角度计算的具体流程为:
(4.1)将步骤(2.3)获取到的目标垃圾图片放入GAN模型中,通过GAN模型中的生成器用来去除目标垃圾周边的杂质和堆叠,生成一张干净的目标垃圾图片实现降噪,从而减少OpenCV计算产生的误差;
(4.2)将降噪后的目标垃圾图片用OpenCV求出图像的最小外接矩形及两条短边中心点相连后相对于水平线的斜率,并计算出该目标垃圾的角度。
(5)根据角度分类模型预测的准确率来判断最终的目标垃圾实际抓取角度。
上述步骤中,判别公式为:
而根据角度分类模型预测的准确率进行判别的具体流程为:
(5.1)根据角度分类模型给出的最大准确率判定其是否超过90%进行判断;
(5.2)若大于等于90%时,最终的目标垃圾实际抓取角度即为角度分类模型的预测结果加权求和后的角度值;
(5.3)若小于90%时,则为经GAN模型降噪后由OpenCV计算出的角度;
(5.4)将获取的目标垃圾中心点坐标以及计算出的最终的目标垃圾实际抓取角度发送给夹爪机器人进行抓取。
本发明的有益效果:
(1)本发明结合YOLO目标检测模型、角度分类模型和GAN模型三大模型,同时运用OpenCV进行角度计算,两种不同计算方法的结合能够在较大程度上优化目标计算角度,提高了分选准确率,计算效果好,且计算速度快;
(2)相较于其他深度学习分割检测算法需要对每个目标进行轮廓描边标注,本发明中角度分类模型的角度标注属于图片分类标注,其复杂程度变小,减轻了标注人员的标注难度;
(3)本发明采用角度分类模型预测结果的加权求和以及GAN模型降噪后使用OpenCV求解角度的方法相结合,其鲁棒性强。
上面所述的实施例仅仅是本发明的优选实施方式进行描述,并非对本发明的构思和范围进行限定,在不脱离本发明设计构思的前提下,本领域中普通工程技术人员对本发明的技术方案作出的各种变型和改进均应落入本发明的保护范围,本发明的请求保护的技术内容,已经全部记载在技术要求书中。
Claims (10)
1.一种基于深度学习的目标图像角度计算方法,其特征在于包括以下步骤:
(1)对YOLO目标检测模型、角度分类模型和GAN模型进行模型训练;
(2)通过YOLO目标检测模型获取目标垃圾RGB图像;
(3)角度分类模型接收检测到的目标垃圾RGB图像,并对其角度进行计算;
(4)GAN模型对检测到的目标垃圾RGB图像进行降噪处理,再通过OpenCV进行目标垃圾抓取的角度计算;
(5)根据角度分类模型预测的准确率来判断最终的目标垃圾实际抓取角度。
2.根据权利要求1所述的一种基于深度学习的目标图像角度计算方法,其特征在于:在上述步骤(1)中,模型训练的方法包括以下步骤:
(1.1)通过工业相机采集待识别检测的RGB图像;
(1.2)标注人员对需要识别的RGB图像进行长方形矩阵框的标注,获得RGB图像上的目标垃圾点位置,并放入YOLO目标检测模型进行训练;
(1.3)在标注人员进行标注画框后,将每个目标垃圾点坐标信息提取压缩成目标垃圾图片,并进行角度标注,再将目标垃圾图片进行分类,分类后的目标垃圾图片再放入角度分类模型进行训练;
(1.4)拍摄目标垃圾在干净皮带上的图像设为干净背景图像作为训练标签,再拍摄目标垃圾周围有其他混淆垃圾背景图像作为训练图片,然后再一起放入GAN模型中进行训练。
3.根据权利要求2所述的一种基于深度学习的目标图像角度计算方法,其特征在于:在上述步骤(1.3)中,把每个目标垃圾点坐标信息提取压缩至224*224尺寸的目标垃圾图片,并将每张目标垃圾图片进行0到179度的分类。
5.根据权利要求1所述的一种基于深度学习的目标图像角度计算方法,其特征在于:在上述步骤(2)中,通过YOLO目标检测模型获取目标垃圾RGB图像的具体流程为:
(2.1)通过工业相机采集待识别检测的RGB图像;
(2.2)将被检测的RGB图像输入到输入尺寸为608*608的YOLO目标检测模型中获取图像中涉及目标垃圾的所有位置框的列表,再经非极大值抑制算法过滤,得到最后需要保留的目标垃圾点坐标位置信息;
(2.3)将检测到的每个目标垃圾根据点坐标截取成长方形图片,并统一压缩至224*224尺寸的目标垃圾图片。
7.根据权利要求5所述的一种基于深度学习的目标图像角度计算方法,其特征在于:在上述步骤(3)中,角度分类模型进行角度计算的具体流程为:
(3.1)将步骤(2.3)获取到的目标垃圾图片放入角度分类模型进行分类预测;
(3.2)把角度分类模型最后一个全连接层得到的向量矩阵通过Softmax函数计算得到每个角度的准确度,并获取最高准确度的前两个角度及其对应的准确率;
(3.3)通过加权求和方法将预测角度乘以其对应的准确率而后两者相加得到角度值。
9.根据权利要求7所述的一种基于深度学习的目标图像角度计算方法,其特征在于:在上述步骤(4)中,OpenCV进行角度计算的具体流程为:
(4.1)将步骤(2.3)获取到的目标垃圾图片放入GAN模型中,通过GAN模型中的生成器用来去除目标垃圾周边的杂质和堆叠,生成一张干净的目标垃圾图片实现降噪;
(4.2)将降噪后的目标垃圾图片用OpenCV求出图像的最小外接矩形及两条短边中心点相连后相对于水平线的斜率,并计算出该目标垃圾的角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110814314.5A CN113537079A (zh) | 2021-07-19 | 2021-07-19 | 一种基于深度学习的目标图像角度计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110814314.5A CN113537079A (zh) | 2021-07-19 | 2021-07-19 | 一种基于深度学习的目标图像角度计算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113537079A true CN113537079A (zh) | 2021-10-22 |
Family
ID=78128710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110814314.5A Withdrawn CN113537079A (zh) | 2021-07-19 | 2021-07-19 | 一种基于深度学习的目标图像角度计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537079A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115841571A (zh) * | 2023-02-23 | 2023-03-24 | 青岛创新奇智科技集团股份有限公司 | 物品陈列图像方向识别方法、装置、电子设备及存储介质 |
-
2021
- 2021-07-19 CN CN202110814314.5A patent/CN113537079A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115841571A (zh) * | 2023-02-23 | 2023-03-24 | 青岛创新奇智科技集团股份有限公司 | 物品陈列图像方向识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111844101B (zh) | 一种多指灵巧手分拣规划方法 | |
CN105701476A (zh) | 一种基于机器视觉的生产线产品自动化识别系统及方法 | |
CN111985621A (zh) | 口罩佩戴实时检测的神经网络模型的搭建方法及实施系统 | |
CN113450408A (zh) | 一种基于深度相机的非规则物体位姿估计方法及装置 | |
CN110674808A (zh) | 一种变电站压板状态智能识别方法及装置 | |
CN115816460B (zh) | 一种基于深度学习目标检测与图像分割的机械手抓取方法 | |
CN112906797A (zh) | 一种基于计算机视觉和深度学习的平面抓取检测方法 | |
CN112115775A (zh) | 一种基于计算机视觉的监控场景下的吸烟行为检测方法 | |
CN114155610B (zh) | 基于上半身姿态估计的面板装配关键动作识别方法 | |
CN113537079A (zh) | 一种基于深度学习的目标图像角度计算方法 | |
CN112560704A (zh) | 一种多特征融合的视觉识别方法及系统 | |
CN113681552B (zh) | 一种基于级联神经网络的机器人混杂物体五维抓取方法 | |
CN117124302B (zh) | 一种零件分拣方法、装置、电子设备及存储介质 | |
CN111199250A (zh) | 一种基于机器学习的变电站空气开关状态校核方法及装置 | |
Li et al. | An Efficient Network for Target-oriented Robot Grasping Pose Generation in Clutter | |
CN113420839B (zh) | 用于堆叠平面目标物体的半自动标注方法及分割定位系统 | |
CN116188763A (zh) | 一种基于YOLOv5的纸箱识别定位及放置角度的测量方法 | |
CN115471845A (zh) | 基于深度学习和OpenCV的换流站数字仪表识别方法 | |
CN113971746A (zh) | 基于单次人手示教的垃圾分类方法、装置及分拣智能系统 | |
CN113955343A (zh) | 基于三维视觉的无序垃圾智能分类设备及其分类方法 | |
CN111768369A (zh) | 钢板角点与边点定位方法和工件抓取方法及生产线 | |
Popescu et al. | Image based fault detection algorithm for flexible industrial assembly line | |
CN113674348B (zh) | 物体抓取方法、装置和系统 | |
Wu et al. | Express parcel detection based on improved faster regions with CNN features | |
CN113869120B (zh) | 一种基于视图过滤的聚合卷积三维模型分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211022 |