CN115035193A - 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 - Google Patents
一种基于双目视觉与图像分割技术的散装粮随机扦样方法 Download PDFInfo
- Publication number
- CN115035193A CN115035193A CN202210711751.9A CN202210711751A CN115035193A CN 115035193 A CN115035193 A CN 115035193A CN 202210711751 A CN202210711751 A CN 202210711751A CN 115035193 A CN115035193 A CN 115035193A
- Authority
- CN
- China
- Prior art keywords
- image
- sampling
- grain
- binocular
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005070 sampling Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000003709 image segmentation Methods 0.000 title claims abstract description 24
- 238000005516 engineering process Methods 0.000 title claims abstract description 16
- 230000011218 segmentation Effects 0.000 claims abstract description 6
- 230000002776 aggregation Effects 0.000 claims description 19
- 238000004220 aggregation Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于双目视觉与图像分割技术的散装粮随机扦样方法,首先使用双目相机分别获取散粮运输车装粮区域的左图像和右图像信息并校正,利用图像分割模型对校正后的左图像进行目标分割,识别并计算出装粮车辆粮面区域边界的四个角点像素坐标,并根据扦样规则将粮面区域划分为多个扦样区域,从中随机选取若干扦样区域并以其中心点作为扦样点,计算得到扦样点像素坐标,采用双目视觉立体匹配算法获得扦样点的三维空间世界坐标,从而控制粮食扦样机将扦样杆移动至各扦样点完成随机扦样操作。该方法针对装粮区域有较好的识别效果,能够实现随机选取扦样点位置。
Description
技术领域
本发明涉及一种基于双目视觉与图像分割技术的散装粮随机扦样方法。
背景技术
目前,在粮食收购过程中,多以车船等散装方式运输,增加了粮食检验扦样的难度。虽然利用电动扦样机可获得运载车辆的粮食样品,但由于整体操作过于复杂、劳动强度较大,因此扦样效率较低,在收粮高峰期易出现售粮车辆排队长、“卖粮难”等现象。近年来,个别粮库在粮食收购过程中出现了假样的问题,部分粮食检验人员在抽样过程中设区选点过于片面,也易导致出现偷梁换柱、以次充好等问题,不仅给粮食收购方造成了经济损失,也是一种严重的弄虚作假行为。为了保证粮食扦样样品的真实性和代表性,必须严格规范扦样程序和操作,要根据车辆大小合理确定扦样布点;实现无人值守自动扦样,降低人为因素干扰;做到随机扦样,以免形成固定扦样点位和模式,被不良商贩钻漏洞,给粮食收购企业造成损失。
发明内容
本发明的目的是提供一种基于双目视觉与图像分割技术的散装粮随机扦样方法,用以解决现有的人工扦样过程中操作过于复杂、劳动强度大、且存在人为舞弊的问题。
为实现上述目的,本发明的方案包括:
一种基于双目视觉与图像分割技术的散装粮随机扦样方法,包括以下步骤:
(1)利用双目相机分别采集散粮运输车和车载装粮区域的双目图像,所述双目图像包括左图像和右图像;
(2)对车载装粮区域图像进行处理,校正双目图像,利用图像分割模型对校正后的左图像进行目标分割,识别并计算出装粮车辆粮面区域边界的四个角点像素坐标;
(3)根据扦样规则将粮面区域划分为多个扦样区域,从中随机选取若干扦样区域并以其中心点作为扦样点,计算得到扦样点像素坐标;
(4)采用双目视觉立体匹配算法完成扦样点的三维空间定位,获得扦样点的三维空间世界坐标,从而控制粮食扦样机将扦样杆移动至各扦样点完成随机扦样操作;
进一步的, 步骤(2)对车载装粮区域图像进行处理包括以下步骤:
S1:对双目相机进行标定,使用标定参数对双目相机采集到车载装粮的左图像和右图像进行畸变校正和双目校正;
S2:对采集到的车载装粮区域图像的粮面区域进行标注,得到训练图像集,利用训练图像集训练图像分割网络模型,使用训练好的图像分割网络模型对校正后的左图像进行分割得到掩膜图像;
S3:使用Opencv计算掩膜图像中多个目标区域的边缘坐标,设定阈值参数筛选装粮区域,并生成最小外接矩形;
S4:确定装粮区域四个角点坐标,计算装粮区域边缘与最小外接矩形四边及四角的距离,调整权重参数确定出最终的四个角点像素坐标;
进一步地,所述标定参数包括:相机内参数、外参数、畸变系数;
进一步地,所述畸变校正包括:径向畸变和切向畸变校正;
进一步地,所述图像分割网络模型为U-Net模型;
进一步地,步骤(4)采用双目视觉立体匹配算法包括以下步骤:
S1:匹配代价计算,采用Census变换法,分别对左右图像利用像素邻域内的局部灰度差异将像素灰度转换为比特串,将邻域窗口内像素灰度值与窗口中心像素的灰度值进行比较,根据比较结果计算匹配代价,进而衡量待匹配像素候选像素之间的相关性;
S2:代价聚合,采用SGM算法,通过建立邻接像素之间的联系对匹配代价计算得到的代价矩阵进行全局优化,将像素所有视差下的匹配代价进行像素周围所有路径上的一维聚合得到各个路径下的路径代价值,最后将所有路径代价值相加得到该像素聚合后的匹配代价值;
S3:视差计算,采用赢家通吃算法对代价聚合之后的代价矩阵进行处理,对每个像素选择最小聚合代价值所对应的视差值作为最优视差,最后得到与左图像相同尺寸的视差图;
S4:视差优化,采用左右一致性检查算法剔除因为遮挡和噪声而导致的错误视差,将左右图像互换位置进行立体匹配,得到新的视差图,根据视差的唯一性约束,通过左图像的视差图,找到每个像素在右图像中的同名点像素及该像素对应的视差值,这两个视差值之间的差值若小于一定阈值,则满足唯一性约束被保留,反之则不满足唯一性约束而被剔除;
进一步地,步骤(4)的采用双目视觉立体匹配算法完成扦样点的三维空间定位过程包括:利用立体匹配算法寻找左图像中识别到的扦样点在右图像中对应的同名点,依据双目立体视觉定位得出各点的实际三维空间坐标;
本发明的有益效果:
本发明提供的散装粮随机扦样方法结合双目视觉定位与图像分割技术,实现了随机选取扦样点位置,保证了扦样点选取的科学性、合理性,提高作业效率,使得抽取的粮食样品既能全面反映收购粮食的整体质量水平;又不过分扦样,对保护种粮农民利益和减少粮食损失浪费具有重要意义。并且,该方法针对装粮区域有较好的识别效果,能够实现随机选取扦样点位置,对粮食收购过程中扦样点选取不科学、不合理导致扦样样品代表性不足和存在人为舞弊风险的问题提供了新的技术路线和解决方案,对粮食扦样环节的自动化和智能化发展提供了技术支撑。通过双目视觉方法对车载散装粮图像进行处理,提高了车载散装粮图像识别模型的可靠性;采用双目视觉立体匹配算法完成扦样点的三维空间定位,提高扦样点三维空间定位的可靠性。
附图说明
图1是一种基于双目视觉与图像分割技术的散装粮随机扦样方法的流程图。
图2是一种基于双目视觉与图像分割技术的散装粮随机扦样方法的扦样区域划分及扦样点。
具体实施方式
如图1所示,图像采集模块是利用双目相机采集车载散装粮区域图像,得到左目图像和右目图像。然后对双目图像进行畸变校正和双目校正,透镜的畸变主要分为径向畸变和切向畸变,OpenCV提供了可以直接使用的校正算法,可以使用undistort()函数一次性完成或使用initUndistortRectifyMap()和remap()组合处理。双目校正的目的是把实际中消除畸变后的非共面行对准的两幅图像,校正成共面行对准。将实际的双目系统校正成为理想的双目系统。
然后,构建网络模型,实现校正后左图像目标分割,并计算目标区域角点坐标。构建散装粮图像分割模型的方式有很多种,比如有经典的语义分割模型FCN、Mask-RCNN、U-Net等,这里以U-Net为例给出一种具体实现过程,但是,本发明并不局限于下述具体过程:
U-Net从整体上来讲是Encoder-Decoder的结构,即编码器和解码器的结构,网络的左半部分是encoder结构进行特征提取,其中主要包括卷积和池化操作,由两个3×3的卷积层和一个2×2的池化层反复组成,且每个卷积操作后都使用Relu激活函数。右半部分是decoder结构进行上采样,主要由2×2的反卷积层、特征拼接操作、两个3×3的卷积层反复构成,且每个卷积操作后都使用Relu激活函数。
首先将原始图像尺寸归一化为512×512,并采用亮度增强、水平与垂直镜像、对角反转、平移等操作对图像进行数据增强。数据增强技术可加快构建数据集,减轻模型过拟合,增强模型的泛化能力,经过数据增强后得到大概1000张散装粮图像数据集。使用图像标注工具对数据集进行手工标注,生成对应的json文件,并得到的相应的标签图片。根据训练图像集训练U-Net网络,得到仓内储粮图像识别模型。
进一步,设置模型的参数,其中批处理个数设置为5,即每次处理5幅图像;学习率为0.0001;运行周期为10次,每个周期迭代2000次;
进一步,为深度模型设置训练图像和对应的标记结果的路径;
进一步,训练图像输入模型进行前向计算,通过最后一层的softmax得到预测结果,结合人工标记结果计算损失函数,同时根据当前网络中的值通过梯度下降得到的参数迭代公式更新参数;
最后,当网络达到最大迭代次数或预设的停止条件,结束训练,得到散装粮图像识别模型。
然后,如图2所示,根据扦样规则将分割得到的目标区域划分成多个扦样区域,并在每个区域随机生成扦样点,采用立体匹配算法对左、右图像进行立体匹配构建视差图;
所述立体匹配也称作视差估计,或者双目深度估计,输入是一对在同一时刻捕捉到的经过极线校正的左右图像。输出是由参考图像(一般以左图作为参考对象)中每个像素对应的视差值所构成的视差图。立体匹配算法有很多种,例如常见的局部匹配算法BM、半全局匹配算法SGBM、全局匹配算法GC 等,其计算流程主要包括如下步骤:
(1)匹配代价计算,其目的是衡量待匹配像素与候选像素之间的相关性。在计算机视觉中,多使用互信息MI法、Census变换法、Rank变换法、BT法等作为匹配代价的计算方法。这里以Census变换法为例描述具体计算过程,但是,本发明并不局限于下述具体过程:
Census变换是利用像素邻域内的局部灰度差异将像素灰度转换为比特串,通过将邻域窗口内像素灰度值与窗口中心像素的灰度值进行比较,将比较得到的布尔值映射到一个比特串中,最后用比特串的值作为中心像素的Census变换值,具体计算公式如下:
所述和分别为不大于n和m的一半的最大整数,为比特位的逐位连接运算,ξ运算则由下式定义:
基于Census变换的匹配代价计算方法是计算左右影像对应的两个像素的Census变换值的汉明(Hamming)距离,即:
所述Hamming距离即两个比特串的对应位不相同的数量,计算方法为将两个比特串进行异或运算,再统计异或运算结果的比特位中不为1的个数。
(2)代价聚合,其目的是让代价值能够准确的反映像素之间的相关性。常用的代价聚合方法有描线法、动态规划法、SGM算法中的路径聚合法等。下面以SGM算法中的路径聚合法为例描述具体计算过程,但是,本发明并不局限于下述具体过程:
SGM算法采用全局立体匹配算法的思路,即全局能量最优化策略,简单来说就是寻找每个像素的最优视差使得整张图像的全局能量函数最小。全局能量函数的定义如下:
其中,C为匹配代价,公式的第一项是数据项,表示当视差图为D时,所有像素的匹配代价的累加,第二项和第三项是平滑项,表示对像素P的Np领域内的所有像素q进行惩罚,其中第二项惩罚力度较小,第三项的惩罚力度较大。
为了实现全局能量最优化策略,SGM提出一种路径代价聚合的思路,即将像素所有视差下的匹配代价进行像素周围所有路径上的一维聚合得到各个路径下的路径代价值,然后将所有路径代价值相加得到该像素聚合后的匹配代价值。像素p沿着某条路径r的路径代价计算方法如下式所示:
其中,第一项是数据项为匹配代价值C;第二项是平滑项;第三项是为了保证新的路径代价值Lr不超过一定数值上限,即:
从而得出像素的总路径代价值S:
(3)视差计算,通过代价聚合之后的代价矩阵来确定每个像素的最优视差值,常用赢家通吃算法(WTA,Winner-Takes-All)来计算。
赢家通吃算法计算方法:某个像素的所有视差下的代价值中,选择最小代价值所对应的视差作为最优视差,视差计算的结果是和左图像相同尺寸的视差图,存储每个像素的视差值,在图像内外参数已知的情况下,视差图可以转换为深度图,表示每个像素在空间中的位置。
(4)视差优化,其目的是对上一步得到的视差图进一步优化,改善视差图的质量,提高视差图精度,使视差值更可靠、更精确。视差优化一般采用左右一致性检查算法剔除因为遮挡和噪声而导致的错误视差;
进一步,左右一致性检查是基于视差的唯一性约束,即每个像素最多只存在一个正确视差。具体步骤是将左右图像互换位置,再做一次立体匹配,得到另一张视差图,因为视差图中每个值所反映的是两个像素之间的对应关系,所以依据视差的唯一性约束,通过左图像的视差图,找到每个像素在右图像的同名点像素及该像素对应的视差值,这两个视差值之间的差值若小于一定阈值(一般为1个像素),则满足唯一性约束被保留,反之则不满足唯一性约束而被剔除。具体的计算公式如下:
最后,根据双目视觉立体匹配算法计算得到视差图,计算各个扦样点三维坐标,控制粮食扦样机移动到各个扦样点位置完成扦样操作。
以上给出了具体的实施方式,但本发明不局限于所描述的实施方式。本发明的基本思路在于上述基本方案,对本领域普通技术人员而言,根据本发明的教导,设计出各种变形的模型、公式、参数并不需要花费创造性劳动。在不脱离本发明的原理和精神的情况下对实施方式进行的变化、修改、替换和变型仍落入本发明的保护范围内。
Claims (7)
1.一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,包括以下步骤:
(1)利用双目相机分别采集散粮运输车和车载装粮区域的双目图像,所述双目图像包括左图像和右图像;
(2)对车载装粮区域图像进行处理,校正双目图像,利用图像分割模型对校正后的左图像进行目标分割,识别并计算出装粮车辆粮面区域边界的四个角点像素坐标;
(3)根据扦样规则将粮面区域划分为多个扦样区域,从中随机选取若干扦样区域并以其中心点作为扦样点,计算得到扦样点像素坐标;
(4)采用双目视觉立体匹配算法完成扦样点的三维空间定位,获得扦样点的三维空间世界坐标,从而控制粮食扦样机将扦样杆移动至各扦样点完成随机扦样操作。
2.根据权利要求1所述的一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,步骤(2)对车载装粮区域图像进行处理包括以下步骤:
S1:对双目相机进行标定,使用标定参数对双目相机采集到车载装粮的左图像和右图像进行畸变校正和双目校正;
S2:对采集到的车载装粮区域图像的粮面区域进行标注,得到训练图像集,利用训练图像集训练图像分割网络模型,使用训练好的图像分割网络模型对校正后的左图像进行分割得到掩膜图像;
S3:使用Opencv计算掩膜图像中多个目标区域的边缘坐标,设定阈值参数筛选装粮区域,并生成最小外接矩形;
S4:确定装粮区域四个角点坐标,计算装粮区域边缘与最小外接矩形四边及四角的距离,调整权重参数确定出最终的四个角点像素坐标。
3.根据权利要求2所述的一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,所述标定参数包括:相机内参数、外参数、畸变系数。
4.根据权利要求2所述的一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,所述畸变校正包括:径向畸变和切向畸变校正。
5.根据权利要求2所述的一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,所述图像分割网络模型为U-Net模型。
6.根据权利要求1所述的一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,步骤(4)采用双目视觉立体匹配算法包括以下步骤:
S1:匹配代价计算,采用Census变换法,分别对左右图像利用像素邻域内的局部灰度差异将像素灰度转换为比特串,将邻域窗口内像素灰度值与窗口中心像素的灰度值进行比较,根据比较结果计算匹配代价,进而衡量待匹配像素候选像素之间的相关性;
S2:代价聚合,采用SGM算法,通过建立邻接像素之间的联系对匹配代价计算得到的代价矩阵进行全局优化,将像素所有视差下的匹配代价进行像素周围所有路径上的一维聚合得到各个路径下的路径代价值,最后将所有路径代价值相加得到该像素聚合后的匹配代价值;
S3:视差计算,采用赢家通吃算法对代价聚合之后的代价矩阵进行处理,对每个像素选择最小聚合代价值所对应的视差值作为最优视差,最后得到与左图像相同尺寸的视差图;
S4:视差优化,采用左右一致性检查算法剔除因为遮挡和噪声而导致的错误视差,将左右图像互换位置进行立体匹配,得到新的视差图,根据视差的唯一性约束,通过左图像的视差图,找到每个像素在右图像中的同名点像素及该像素对应的视差值,这两个视差值之间的差值若小于一定阈值,则满足唯一性约束被保留,反之则不满足唯一性约束而被剔除。
7.根据权利要求1所述的一种基于双目视觉与图像分割技术的散装粮随机扦样方法,其特征在于,步骤(4)的采用双目视觉立体匹配算法完成扦样点的三维空间定位过程包括:利用立体匹配算法寻找左图像中识别到的扦样点在右图像中对应的同名点,依据双目立体视觉定位得出各点的实际三维空间坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210711751.9A CN115035193A (zh) | 2022-06-22 | 2022-06-22 | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210711751.9A CN115035193A (zh) | 2022-06-22 | 2022-06-22 | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115035193A true CN115035193A (zh) | 2022-09-09 |
Family
ID=83127430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210711751.9A Pending CN115035193A (zh) | 2022-06-22 | 2022-06-22 | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115035193A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908791A (zh) * | 2023-01-06 | 2023-04-04 | 北京铸正机器人有限公司 | 一种咽拭子采样方法及装置 |
CN118692077A (zh) * | 2024-08-22 | 2024-09-24 | 安徽高哲信息技术有限公司 | 粮面扦样点的生成方法、装置、电子设备和介质 |
-
2022
- 2022-06-22 CN CN202210711751.9A patent/CN115035193A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908791A (zh) * | 2023-01-06 | 2023-04-04 | 北京铸正机器人有限公司 | 一种咽拭子采样方法及装置 |
CN118692077A (zh) * | 2024-08-22 | 2024-09-24 | 安徽高哲信息技术有限公司 | 粮面扦样点的生成方法、装置、电子设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027547A (zh) | 一种针对二维图像中的多尺度多形态目标的自动检测方法 | |
CN111768452B (zh) | 一种基于深度学习的非接触式自动贴图方法 | |
CN111462120A (zh) | 一种基于语义分割模型缺陷检测方法、装置、介质及设备 | |
CN115035193A (zh) | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 | |
CN113177565B (zh) | 一种基于深度学习的双目视觉位置测量系统及方法 | |
CN110197505B (zh) | 基于深度网络及语义信息的遥感图像双目立体匹配方法 | |
CN113762358B (zh) | 一种基于相对深度训练的半监督学习三维重建方法 | |
CN111738295B (zh) | 图像的分割方法及存储介质 | |
CN110415280B (zh) | 多任务cnn模型下的遥感影像与建筑物矢量配准方法及系统 | |
CN115147709B (zh) | 一种基于深度学习的水下目标三维重建方法 | |
CN113313031B (zh) | 一种基于深度学习的车道线检测和车辆横向定位方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN110648331A (zh) | 用于医学图像分割的检测方法、医学图像分割方法及装置 | |
CN111242026A (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN114648669A (zh) | 一种域自适应双目视差计算的动车组故障检测方法及系统 | |
CN117037142A (zh) | 一种基于深度学习的3d目标检测方法 | |
CN113610905A (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
CN115439738A (zh) | 一种基于自监督协同重构的水下目标检测方法 | |
CN117078982B (zh) | 基于深度学习的大倾角立体像对准密集特征匹配方法 | |
CN110956601A (zh) | 一种基于多传感器样态系数的红外图像融合方法和装置以及计算机可读存储介质 | |
CN114663298A (zh) | 基于半监督深度学习的视差图修补方法及系统 | |
CN116091911A (zh) | 一种地震勘探工区建筑物自动识别方法及系统 | |
CN117611963A (zh) | 基于多尺度扩展残差网络的小目标检测方法及系统 | |
CN117726747A (zh) | 补全弱纹理场景的三维重建方法、装置、存储介质和设备 | |
CN117197449A (zh) | 一种基于rgb-d语义分割的slam构建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |