CN114494403A - 一种基于深度学习的贝类目标尺寸快速测量方法 - Google Patents

一种基于深度学习的贝类目标尺寸快速测量方法 Download PDF

Info

Publication number
CN114494403A
CN114494403A CN202210101259.XA CN202210101259A CN114494403A CN 114494403 A CN114494403 A CN 114494403A CN 202210101259 A CN202210101259 A CN 202210101259A CN 114494403 A CN114494403 A CN 114494403A
Authority
CN
China
Prior art keywords
target
measurement
size
deep learning
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210101259.XA
Other languages
English (en)
Other versions
CN114494403B (zh
Inventor
崔永超
武栓虎
牟春晓
郑强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai University
Original Assignee
Yantai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yantai University filed Critical Yantai University
Priority to CN202210101259.XA priority Critical patent/CN114494403B/zh
Publication of CN114494403A publication Critical patent/CN114494403A/zh
Application granted granted Critical
Publication of CN114494403B publication Critical patent/CN114494403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Abstract

一种基于深度学习的贝类目标尺寸快速测量方法,首先,设计了一种带有不少于四个标识特征点的平面容器,在采集的图像中检测到平面容器的标识特征点后,根据平面投影的单应性,建立其和实际物理标识特征点的映射关系,得到像素坐标转换为实际物理坐标的单应矩阵;其次,采用目标检测的方法得到单个测量目标的矩形框,并根据得到的单应矩阵,可将矩形框的像素坐标转换为实际测量坐标,从而得到单个测量目标的实际尺寸,本发明采用深度学习的方法对角点和测量目标进行检测定位,具有很好的鲁棒性,同时本方法可以移植到手机、平板等移动设备上,通过随意拍摄,就可对目标尺寸、数量进行客观地测量和统计,有效地克服人工测量统计速度慢效率低的不足。

Description

一种基于深度学习的贝类目标尺寸快速测量方法
技术领域
本发明涉及贝类尺寸测量技术领域,具体涉及一种基于深度学习的贝类目标尺寸快速测量方法。
背景技术
贝类海产品使人们比较喜爱的食物之一,随着生活水平的提高,其需求量日益增大,为了提高养殖的质量和产量,养殖人员需要从幼苗到成品,定期对贝类海产品的尺寸进行测量和统计,目前贝类养殖均采用人工测量的统计方法,由于贝类形状及其不规则,手工测量只能近似取其直径进行测量和统计,准确率比较低,同时不能同时对大量的目标进行测量和统计,因此急需一种高效、使用的目标尺寸测量方法。
发明内容
针对上述问题,本发明提供一种基于深度学习的贝类目标尺寸快速测量方法,通过将待测量目标放置在平面容器中,借助平面容器中的标识特征点的物理坐标与采集到图像中的标识特征点像素坐标,得到一个平面到平面透视投影的单应矩阵,根据计算到的单应矩阵,就能够将目标的像素尺寸转化为实际的物理尺寸。
本发明的技术方案如下:
一种基于深度学习的贝类目标尺寸快速测量方法,包括:
步骤1:将待测量的目标放置在平面容器上,使用图像采集设备对平面容器进行图像采集工作;
步骤2:根据采集到的图像进行标识特征点检测,利用图像中平面容器标识特征点的像素坐标与实际平面容器标识特征点的物理坐标之间的关系确定图像平面映射到实际物理平面的单应矩阵;
步骤3:通过定位检测网络对测量目标进行识别以及数量检测,结合单应矩阵以及测量目标的矩形框实现对测量目标的物理尺寸估计。
优选的,所述平面容器为带有若干个标识特征点的平面盘子,进一步的,所述标识特征点的数量不小于4个,标识特征点为带有明显特征的易检测标识。
作为一种优选的方式,所述标识特征点可以为所述固定在所述平面盘子上的角点,且角点的数量选择为4个。
进一步的,所述平面容器边缘为深色边框,所述平面容器中央为有强对比度的浅色区域,所述浅色区域中放置测量目标,通过在平面容器上设置有比较明显的对比区域,更易于放置待测目标,同时可以更加精准快速定位图像中容器标识特征点坐标,有利于后期对测量目标的数量统计与尺寸测量。
如上所述的一种基于深度学习的贝类目标尺寸快速测量方法,所述标识特征点检测算法采用深度学习框架,通过Sigmoid非线性激活函数得到值在0-1之间的热图,所述热图能够展现标识特征点判断的概率。
具体的:在步骤2中,标识特征点检测网络的损失函数采用加权Hausdorff距离,能够保证反向传播过程中损失函数的可微性,具体公式如下:
Figure BDA0003492364040000021
其中:Ω是真实坐标空间与预测坐标空间内所有的点的合集;
Y是检测目标的实际坐标集合;
P是网络计算得到概率热图;
S=∑x∈Ωpx
Figure BDA0003492364040000022
ε=10-6
px∈[0,1]是坐标点x处输出的概率值。
一种基于深度学习的贝类目标尺寸快速测量方法,所述步骤3中包括测量目标定位和测量目标尺寸计算,具体的说:
步骤3-1:通过对测量目标定位的方法对目标进行统计测量,获得单个测量目标矩形框的像素坐标;
步骤3-2:通过所述单应矩阵能够将测量目标矩形框的像素坐标转换为实际物理坐标,从而得到单个测量目标的物理估计尺寸。
进一步的,所述步骤3-1中定位检测网络采用联合目标定位检测与数量统计模型,在模型中采用的损失函数定义为:
LossTotal=LheatmapsizeLsizectLct
其中,Lheatmap、Lsize、、Lct为三个输出的损失函数,每个损失函数的定义如下:
Figure BDA0003492364040000031
其中:N为目标中心点的数量;
Yxyc为测量目标真实值;
Figure BDA0003492364040000032
为测量目标预测概率;
在Yxyc
Figure BDA0003492364040000033
中xy为测量目标坐标,c为测量目标的类别;
α=2;
β=4;
Figure BDA0003492364040000034
其中:
Figure BDA0003492364040000035
定义为第k个测量目标的宽和高,
Figure BDA0003492364040000036
是预测测量目标的宽和高;
Lct=|C-CP|
其中:C、Cp分别为预测的实际和预测的目标数量。
本发明的有益效果在于:
本发明提供了一种基于深度学习的贝类目标尺寸快速测量方法:
(1)在本发明中,根据机器视觉中平面与平面之间映射的单应性,通过检测到的图像像素标识特征点坐标和实际物体标识特征点的物理坐标,计算得到一个平面到平面透视投影的单应矩阵,能够根据测量目标的像素尺寸联合单应矩阵得到测量目标实际的物理尺寸。
(2)在本发明中设计有一个带有4个或4个以上明显特征的标识特征点的平面容器,通过设计的平面容器,可以减少目标随意放置时产生的堆叠,同时在平面容器的边缘和内部采用对比度大的颜色,可以精准快速的定位容器标识特征点和内部放置的测量目标,有助于后续将像素坐标转换为实际物理坐标。
(3)在本发明中,将深度学习网络引入检测平面容器的标识特征点,通过训练模型使标识特征点检测具有较强的稳定性,同时提出一种联合目标定位检测与数量统计的深度学习模型,通过训练取得了较强的稳定性,具备良好的检测效果。
附图说明
通过阅读下文优选实施方式的详细描述,本申请的方案和优点对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。
在附图中:
图1为本发明中目标尺寸测量方法的流程图;
图2为本发明中目标尺寸检测方法的结构图;
图3为本发明中标识特征点检测网络结构概略图;
图4为本发明中目标检测网络结构概略图;
图5为本发明中目标尺寸计算方法示意图;
图6为本发明中标识特征点检测结果示意图;
图7为本发明中目标检测结果示意图。
具体实施方式
下面将结合附图更详细地描述本公开的示例性实施方式。需要说明,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员,可以以各种形式实现本公开,而不应被这里阐述的实施方式所限制。
本发明中提及的方位“前后”、“左右”等,仅用来表达相对的位置关系,而不受实际应用中任何具体方向参照的约束。
参见图1和图2,一种基于深度学习的贝类目标尺寸快速测量方法,包括:
步骤1:将待测量的目标,放置在平面容器中,通过图像采集设备进行图像采集,采集设备可以为工业摄像机,也可以为便携式设备,例如手机或平板;
在本实施例中,所述平面容器为带有4个标识特征点的平面盘子,其中标识特征点为固定在平面容器四周的角点,所述平面容器边缘为深色边框,所述平面容器中央为有强对比度的浅色区域,所述浅色区域中放置测量目标,通过在平面容器的边缘与内部采用对比度比较大的颜色,更易于检测到放置的测量目标,同时可以更加精准快速定位图像中容器角点坐标,有利于后期对测量目标的数量统计与尺寸测量。
步骤2:根据采集到的图像进行角点检测,利用图像中角点的像素坐标与实际物理角点之间的关系确定图像平面映射到实际物理平面的单应矩阵,其中角点为带有明显特征的易检测标识;
步骤3:根据步骤2得到的单应矩阵,对测量目标进行定位,实现测量目标的尺寸估计。
参见图3,在所述角点检测中,通过角点检测算法,检测采集图像中所述平面容器中的4个角点,结合实际的物理角点,计算相应的单应矩阵。
具体的,假定采集图像中平面容器的四个角点的像素坐标为(u,v),平面容器的实际物理角点坐标为(x,y),平面容器的Z坐标可设为O,单应矩阵H定义为:
Figure BDA0003492364040000051
估计上述矩阵,单应矩阵H有8个自由度,实际上,h33可设为1,但变换时,坐标第3项可能不为1,只需将变换结果各项除第3项,转换为齐次坐标即可,这也是定义公式中有常数c的原因。因此,只需4组对应的点便可计算出单应矩阵,因此在本实施例中角点的数量选择为4个,通过角点检测算法,检测出采集图像中平面容器的4个角点,结合实际的物理角点坐标,计算出单应矩阵,即可将图像平面映射到实际的物理平面,得到目标的物理尺寸。
进一步的,在本实施例中没有考虑相机的畸变系数,但对于近似估算目标的尺寸完全可以满足实际需要,因此不必固定相机的放置距离和焦距,只需在容器上方随意拍摄图像即可,因此本发明可以移植到手机、平板等便携设备上,非常便捷。
进一步的,所述角点检测算法采用深度学习框架,通过Sigmoid非线性激活函数得到值在0-1之间的热图,所述热图能够展现角点判断的概率。
参加图4,所述角点检测网络的损失函数采用加权Hausdorff距离,能够保证反向传播过程中损失函数的可微性,具体公式如下:
Figure BDA0003492364040000061
其中:Ω是真实坐标空间与预测坐标空间内所有的点的合集;
Y是检测目标的实际坐标集合;
P是网络计算得到概率热图;
S=∑x∈Ωpx
Figure BDA0003492364040000062
ε=10-6
px∈[0,1]是坐标点x处输出的概率值。
所述步骤3中采用联合目标定位检测与数量统计模型,具体的来说,模型采用深度学习模型作为基础网络,进一步经卷积操作后输出:
1)单通道的热力图用于确定目标的中心点;
2)双通道特征图用于预测目标的宽和高;
3)目标数量。
其中,目标数量的基于对热力图的进一步卷积操作,后经全连接映射卷积生成128维的特征向量,并最终用于目标数量估计。
本模型中采用的损失函数定义为:
LossTotal=LheatmapsizeLsizectLct
其中,Lheatmap、Lsize、、Lct为三个输出的损失函数,每个损失函数的定义如下:
Figure BDA0003492364040000071
其中:N为目标中心点的数量;
Yxyc为目标真实值;
Figure BDA0003492364040000072
为目标预测概率;
在Yxyc
Figure BDA0003492364040000073
中xy为测量目标坐标,c为测量目标的类别,以测量目标为贝壳和蛤蜊为例,规定贝壳的类别为1,蛤蜊的类别为2,若测量目标为贝壳时,则c=1,若测量目标为蛤蜊时,则c=2。
α=2;
β=4;
Figure BDA0003492364040000074
其中:
Figure BDA0003492364040000075
定义为第k个目标的宽和高,
Figure BDA0003492364040000076
是预测的宽和高;
Lct=|C-CP|
其中:C、Cp分别为实际的目标数量和预测的目标数量。
参见图5,在目标实际尺寸计算中,将检测定位的矩形框的4个中点坐标A,B,C,D,使用前述得到的单应矩阵转换到实际物理坐标(单位:mm),由此可得到目标的最大和最小直径,将其平均得到最终估计的目标尺寸。
以下内容仅为在本实施例中对角点检测网络和测量目标检测网络进行训练的一个实例,不同情况还需具体分析,具体配置:
(1)数据集的设置
采集图像的平面容器尺寸设计为140mm*140mm,测量目标为随机选取的不同大小的扇贝,并在容器上随机放置,摆放形态随意,可以相互相邻接,数据集采用手机进行拍摄,共采集150幅图像,原始分辨率为3024*3024,训练时图像分辨转变为512*512。
在150幅图像中,其中120幅用于训练,30幅用于测试,操作系统为Ubuntu20.04.3,硬件配置为:
CPU Intel Xeon Silver 4210R;
GPU NVIDIA GeForce GTX 3080Ti 12G显存;
RAM 32G;
编程语言为Python,搭建的环境为Pytorch 1.2;
在训练网络模型时,为了加快网络训练速度,本发明采用的网络均先加载主干网络的训练结果参数,并在前50次冻结其更新,随后进行全网络迭代更新。
(2)角点检测
角点检测网络的训练参数如下:批处理大小设为8,采用Adam优化器,初始学习率设置为0.001,每100次epoch更新一次学习率,学习率调整为上一次训练数值的0.5倍,共进行1000回合的训练。
Figure BDA0003492364040000081
附图6中给出了三组角点检测的样例效果,并在上表中给出了标注角点坐标和预测角点坐标的对比结果。实验结果证明,本发明可以稳定地检测图像角点,并且检测的角点误差在3个像素距离以内,角点检测与手工标注具有较高的一致性。
(3)目标检测与尺寸计算
目标检测网络的参数设置如下:批处理大小设为12。采用Adam优化器,初始学习率设置为0.001,分别在100、200、300、600、800次epoch完成后将学习率调整为原数值的0.5倍,共进行1200回合的训练。为了使矩形框更加贴合目标位置,在训练中加大了目标定位时损失函数λsize的权重,将其设置为2,λct设为1。
附图7中给出3个样例的目标检测效果图,可以证明本发明能够稳定检测多个测量目标,并且在测量目标相互粘连或少许重叠时,仍然能够准确地定位测量目标和估算测量目标的数量。
预估尺寸 实际测量[平均值]
目标1 66.9 68.0×64.0[66.0]
目标2 53.7 57.0×51.0[54.0]
目标3 45.2 47.0×43.0[45.0]
目标4 58.7 61.0×57.0[59.0]
目标5 52.6 55.0×50.0[52.5]
目标6 49.3 50.0×47.0[48.5]
表中为在数据集中随机选取一副图像中的目标图像尺寸与人工测量目标大小的结果比对,可以看出测量尺寸的大小几乎都在实际测量的范围内,可以很准确得出测量目标的尺寸大小。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或增减替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (5)

1.一种基于深度学习的贝类目标尺寸快速测量方法,其特征包括:
步骤1:将待测量的目标放置在带有不少于4个标识特征点的平面容器上,使用图像采集设备对平面容器进行图像采集工作;
步骤2:通过深度学习网络,对采集到的图像进行标识特征点检测,利用图像中平面容器标识特征点的像素坐标与实际平面容器标识特征点的物理坐标之间的关系确定图像平面映射到实际物理平面的单应矩阵;
步骤3:通过定位检测深度学习网络对测量目标进行识别以及数量检测,结合单应矩阵以及测量目标的矩形框实现测量目标的物理尺寸估计。
2.根据权利要求1所述的一种基于深度学习的贝类目标尺寸快速测量方法,其特征在于,所述平面容器为带有不少于4个标识特征点的盘子,具体地,标识特征点就是易分辨的标识,结合平面映射的单应性,就可将图像中待测量目标的像素坐标转换为实际物理坐标。
3.根据权利要求1所述的一种基于深度学习的贝类目标尺寸快速测量方法,其特征在于,在步骤2中,利用深度学习网络进行标识特征点检测,标识特征点检测网络的损失函数采用加权Hausdorff距离,具体公式如下:
Figure FDA0003492364030000011
其中:Ω是真实坐标空间与预测坐标空间内所有的点的合集;
Y是检测目标的实际坐标集合;
P是网络计算得到概率热图;
S=∑x∈Ωpx
Figure FDA0003492364030000012
ε=10-6
px∈[0,1]是坐标点x处输出的概率值。
4.根据权利要求1所述的一种基于深度学习的贝类目标尺寸快速测量方法,其特征在于,所述步骤3中包括测量目标定位和测量目标尺寸计算,具体的说:
步骤3-1:通过对测量目标定位的方法对目标进行统计测量,获得单个测量目标矩形框的像素坐标;
步骤3-2:通过所述单应矩阵能够将像素坐标转换为实际物理坐标,得到单个测量目标的物理估计尺寸。
5.根据权利要求4所述的一种基于深度学习的贝类目标尺寸快速测量方法,其特征在于,所述步骤3-1中包括定位检测网络,采用联合目标定位检测与数量统计模型,本模型中采用的损失函数定义为:
LossTotal=LheatmapsizeLsizectLct
其中,Lheatmap、Lsize、、Lct为三个输出的损失函数,每个损失函数的定义如下:
Figure FDA0003492364030000021
其中:N为目标中心点的数量;
Yxyc为目标真实值;
Figure FDA0003492364030000022
为目标预测概率;
Yxyc
Figure FDA0003492364030000023
中xy为测量目标坐标,c为测量目标的类别;
α=2;
β=4;
Figure FDA0003492364030000024
其中:
Figure FDA0003492364030000025
定义为第k个测量目标的宽和高,
Figure FDA0003492364030000026
是预测的宽和高;
Lct=|C-CP|
其中:C、Cp分别为实际目标数量和预测的目标数量。
CN202210101259.XA 2022-01-27 2022-01-27 一种基于深度学习的贝类目标尺寸快速测量方法 Active CN114494403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210101259.XA CN114494403B (zh) 2022-01-27 2022-01-27 一种基于深度学习的贝类目标尺寸快速测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210101259.XA CN114494403B (zh) 2022-01-27 2022-01-27 一种基于深度学习的贝类目标尺寸快速测量方法

Publications (2)

Publication Number Publication Date
CN114494403A true CN114494403A (zh) 2022-05-13
CN114494403B CN114494403B (zh) 2022-09-30

Family

ID=81477524

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210101259.XA Active CN114494403B (zh) 2022-01-27 2022-01-27 一种基于深度学习的贝类目标尺寸快速测量方法

Country Status (1)

Country Link
CN (1) CN114494403B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898634A (zh) * 2018-07-06 2018-11-27 张显磊 基于双目相机视差对绣花机目标针眼进行精确定位的方法
CN109827521A (zh) * 2019-03-11 2019-05-31 烟台大学 一种快速多线结构光视觉测量系统标定方法
CN110246124A (zh) * 2019-05-24 2019-09-17 西安交通大学 基于深度学习的目标尺寸测量方法及系统
CN110390691A (zh) * 2019-06-12 2019-10-29 合肥合工安驰智能科技有限公司 一种基于深度学习的矿石尺度测量方法及应用系统
CN110580723A (zh) * 2019-07-05 2019-12-17 成都智明达电子股份有限公司 一种利用深度学习和计算机视觉进行精准定位的方法
CN110706291A (zh) * 2019-09-26 2020-01-17 哈尔滨工程大学 一种适用于水池实验中运动物体三维轨迹的视觉测量方法
WO2020121564A1 (ja) * 2019-07-04 2020-06-18 株式会社日立ハイテク 寸法計測装置、寸法計測プログラム及び半導体製造システム
CN111829484A (zh) * 2020-06-03 2020-10-27 江西江铃集团新能源汽车有限公司 基于视觉的目标距离测算方法
CN112614163A (zh) * 2020-12-31 2021-04-06 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) 一种融合贝叶斯轨迹推理的目标跟踪方法及系统
US20210125345A1 (en) * 2019-10-25 2021-04-29 7-Eleven, Inc. Sensor mapping to a global coordinate system using homography
CN112949479A (zh) * 2021-03-01 2021-06-11 浙江大学 一种基于深度学习和透视变换的非接触式钢轨轨枕相对位移实时测量方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898634A (zh) * 2018-07-06 2018-11-27 张显磊 基于双目相机视差对绣花机目标针眼进行精确定位的方法
CN109827521A (zh) * 2019-03-11 2019-05-31 烟台大学 一种快速多线结构光视觉测量系统标定方法
CN110246124A (zh) * 2019-05-24 2019-09-17 西安交通大学 基于深度学习的目标尺寸测量方法及系统
CN110390691A (zh) * 2019-06-12 2019-10-29 合肥合工安驰智能科技有限公司 一种基于深度学习的矿石尺度测量方法及应用系统
WO2020121564A1 (ja) * 2019-07-04 2020-06-18 株式会社日立ハイテク 寸法計測装置、寸法計測プログラム及び半導体製造システム
CN110580723A (zh) * 2019-07-05 2019-12-17 成都智明达电子股份有限公司 一种利用深度学习和计算机视觉进行精准定位的方法
CN110706291A (zh) * 2019-09-26 2020-01-17 哈尔滨工程大学 一种适用于水池实验中运动物体三维轨迹的视觉测量方法
US20210125345A1 (en) * 2019-10-25 2021-04-29 7-Eleven, Inc. Sensor mapping to a global coordinate system using homography
CN111829484A (zh) * 2020-06-03 2020-10-27 江西江铃集团新能源汽车有限公司 基于视觉的目标距离测算方法
CN112614163A (zh) * 2020-12-31 2021-04-06 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) 一种融合贝叶斯轨迹推理的目标跟踪方法及系统
CN112949479A (zh) * 2021-03-01 2021-06-11 浙江大学 一种基于深度学习和透视变换的非接触式钢轨轨枕相对位移实时测量方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
JAVIER RIBERA等: ""Locating Objects Without Bounding Boxes"", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
LUCAS COSTA等: ""Measuring pecan nut growth utilizing machine vision and deep learning for the better understanding of the fruit growth curve"", 《COMPUTERS AND ELECTRONICS IN AGRICULTURE》 *
XINGYI ZHOU等: ""Objects as Points"", 《HTTPS://ARXIV.ORG/PDF/1904.07850.PDF》 *
XU QINGQING等: ""The Height Measurement of Exposed Ball in Ball Pen Based on Machine Vision"", 《PROCEEDINGS OF THE 2017 7TH INTERNATIONAL CONFERENCE ON ADVANCED DESIGN AND MANUFACTURING ENGINEERING (ICADME 2017)》 *
张恒等: ""基于机器视觉的坚果尺寸检测系统设计"", 《工业仪表与自动化装置》 *
李爱娟等: ""高效线结构光视觉测量系统标定方法"", 《激光与光电子学进展》 *
陈鲲: ""基于沙姆雷达的水下轮廓测量和赤潮荧光测量研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
韩砾菁: ""基于图像的智能测量技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Also Published As

Publication number Publication date
CN114494403B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
US11503275B2 (en) Camera calibration system, target, and process
US11403839B2 (en) Commodity detection terminal, commodity detection method, system, computer device, and computer readable medium
CN108764257B (zh) 一种多视角的指针式仪表识别方法
US9165365B2 (en) Method and system for estimating attitude of camera
CN112906750B (zh) 一种基于高光谱图像的材质分析方法及系统
CN109389630B (zh) 可见光图像与红外图像特征点集确定、配准方法及装置
CN115330876B (zh) 基于孪生网络和中心位置估计的目标模板图匹配定位方法
CN108181319A (zh) 一种基于立体视觉的积尘检测装置及方法
CN110147162B (zh) 一种基于指尖特征的增强装配示教系统及其控制方法
CN109116298A (zh) 一种定位方法、存储介质及定位系统
CN109948630B (zh) 靶纸图像的识别方法、装置、系统和存储介质
CN114812418A (zh) 一种便携式植株密度和株距测量系统
CN114494403B (zh) 一种基于深度学习的贝类目标尺寸快速测量方法
TWI627433B (zh) 光室內定位方法及系統
CN116630332B (zh) 一种基于图像处理的pvc塑料管口缺陷检测方法
Hajjdiab et al. A vision-based approach for nondestructive leaf area estimation
CN113591548B (zh) 靶环识别方法及系统
CN115830318A (zh) 基于改进Mask-RCNN网络的重叠烟丝图像分割方法及装置
CN112419265B (zh) 一种基于人眼视觉机制的伪装评价方法
CN112417961B (zh) 一种基于场景先验知识的海面目标检测方法
CN107389511A (zh) 一种作物种籽表型测量方法及便携装置
CN113674205A (zh) 一种基于单目深度摄像头的人体测量的方法及系统
CN111882621A (zh) 一种基于双目图像的大米厚度参数自动化测量方法
CN106462965A (zh) 边界检测
CN116071241B (zh) 基于最优拼缝线与图割模型求解的高光谱图像拼接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant