CN113409450B - 一种包含rgbdt信息的鸡只三维重建方法 - Google Patents

一种包含rgbdt信息的鸡只三维重建方法 Download PDF

Info

Publication number
CN113409450B
CN113409450B CN202110776643.5A CN202110776643A CN113409450B CN 113409450 B CN113409450 B CN 113409450B CN 202110776643 A CN202110776643 A CN 202110776643A CN 113409450 B CN113409450 B CN 113409450B
Authority
CN
China
Prior art keywords
visible light
camera
image
thermal infrared
light camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110776643.5A
Other languages
English (en)
Other versions
CN113409450A (zh
Inventor
饶秀勤
张小敏
应义斌
泮进明
郑荣进
张延宁
林洋洋
朱逸航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110776643.5A priority Critical patent/CN113409450B/zh
Publication of CN113409450A publication Critical patent/CN113409450A/zh
Application granted granted Critical
Publication of CN113409450B publication Critical patent/CN113409450B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Radiation Pyrometers (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种包含RGBDT信息的鸡只三维重建方法。方法包括:建立鸡只图像采集系统,根据张正友平面标定法标定获得鸡只图像采集系统的相机参数;对相机进行立体标定,得到两个可见光相机之间的旋转矩阵和平移向量;采集鸡只的三张原始图像,对鸡只的三张原始图像分别进行去畸变操作后获得对应的三张去畸变图像,对三张去畸变图像处理后分别获得第一校正可见光图像、校正后的热红外图像和深度图像;构建场景三维颜色点云和场景三维温度场点云,处理后获得包含RGBDT信息的鸡只点云模型。本发明首次构建包含RGBDT信息的鸡只点云模型,能够直观反映鸡只羽毛的颜色、各部位的温度及体型体况,实现养殖过程自动化和智能化管理。

Description

一种包含RGBDT信息的鸡只三维重建方法
技术领域
本发明涉及畜禽智能感知技术领域的一种鸡只三维重建方法,具体涉及了一种包含RGBDT信息的鸡只三维重建方法。
背景技术
畜禽养殖业是支撑我国国民经济的重大产业,高品质的消费需求和紧缺的劳动力资源促使畜禽养殖业向信息化、精细化与智能化方向转型,对于畜禽生理健康状况智能监测技术的需求尤为迫切,畜禽的多源图像融合至关重要。
传统二维图像由于缺少真实的三维数据,难以反映畜禽的体型及体况信息,近年来,越来越多的学者使用三维重建技术来估测动物的体型和体重(Mortensen A K,Lisouski P,Ahrendt P.Weight prediction of broiler chickens using 3D computervision[J].Computers&Electronics in Agriculture,2016,123:319-326.)。然而这种方法只能获取到动物的颜色和深度信息,对于鸡只而言,体表温度信息至关重要,它能直观反映鸡只的生理健康状况,如环境温度过高时,鸡只将难以散热、温度升高,处于热应激状态,从而导致其生理不适、福利低下(Souza-Junior J B F,El-Sabrout K,Arruda A M V D,etal.Estimating sensible heat loss in laying hens through thermal imaging[J].Computers and Electronics in Agriculture,2019,166:105038.)。随着热成像技术的发展,红外热成像被证明在评估动物的热生理状态方面具有显著优势,若能将鸡只的颜色、温度及三维数据进行多源融合,则可以直观地观察并判断出鸡只的健康福利状况,有利于提升畜禽监测的智能化水平。
双目立体视觉是计算机视觉领域的重要分支,通过双目图像进行立体匹配可以获得场景的深度图像,重建出三维几何信息。考虑到直接用两个热像仪进行三维重建,由于热红外图像分辨率低、细节模糊,会导致重建得到的三维数据误差较大,因此采用双目可见光相机进行三维几何数据的获取较为合适。立体匹配是双目重建中最为关键的一步,传统的立体匹配算法往往受光照影响大、难以克服图像中弱纹理区域,导致图像匹配误差大;受深度学习浪潮影响,越来越多学者使用深度学习方法应用到立体匹配研究,并取得了较好的效果,如自适应聚合网络AANet+(Xu H,Zhang J.AANet:Adaptive Aggregation Networkfor Efficient Stereo Matching.In:Proceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition,2020,1959-1968.)。
考虑到上述提到的不宜直接用两个热像仪进行三维重建,要使可见光图像、热红外图像以及深度图像达到像素级对应,需要对可见光图像与热红外图像进行图像配准。而通常可见光图像具有较高空间分辨率和图像对比度,热红外图像分辨率较低、图像细节表现较差,传统的基于特征的图像配准方法,如SIFT、SURF等特征检测算法,难以检测到正确的匹配对,无法保障异源数据的融合。
发明内容
为了解决背景技术中存在的问题,本发明提供了一种包含RGBDT信息的鸡只三维重建方法。方法构建一种包含颜色、深度及温度(RGB-Depth-Thermal,RGBDT)信息的鸡只三维模型,克服可见光图像与热红外图像难以找到匹配对的问题,并采用自适应聚合网络AANet+进行立体匹配,提高算法的鲁棒性。
本发明解决其技术问题所采用的技术方案如下:
方法包括以下步骤:
1)建立鸡只图像采集系统,包括相机装置和计算机,相机装置通过网线与计算机相连,鸡只或加热标定板的正上方固定安装有相机装置,相机装置主要由第一可见光相机C1、第二可见光相机C2、热红外相机T1平行且间隔布置构成;
2)根据张正友平面标定法,利用鸡只图像采集系统中的第一可见光相机C1、第二可见光相机C2、热红外相机T1同步拍摄N个不同角度的加热标定板后分别采集获得N组加热标定板图像,利用第一可见光相机C1、第二可见光相机C2、热红外相机T1分别采集获得的N组加热标定板图像对相机自身进行标定后分别获得第一可见光相机C1的外参数EXa、内参矩阵Ka和畸变系数,第二可见光相机C2的外参数EXb、内参矩阵Kb和畸变系数,热红外相机T1的内参矩阵Kc和畸变系数;
3)根据第一可见光相机C1的外参数EXa和第二可见光相机C2的外参数EXb,对第一可见光相机C1和第二可见光相机C2进行立体标定,得到第一可见光相机C1和第二可见光相机C2之间的旋转矩阵R和平移向量t;
4)利用鸡只图像采集系统采集鸡只的原始图像,并利用第一可见光相机C1、第二可见光相机C2、热红外相机T1的畸变系数对鸡只的原始图像进行去畸变操作后获得去畸变图像;
5)根据第一可见光相机C1的内参矩阵Ka及热红外相机T1的内参矩阵Kc,构建尺度与位置变换矩阵Q,利用尺度与位置变换矩阵Q对去畸变热红外图像Ic1进行尺度与位置调整后,再利用投影变换矩阵进行空间变换得到配准后热红外图像Ic3
6)根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,对第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1进行立体校正以及视差估计处理后获得深度图像Idepth
7)利用Bouguet极线校正方法对配准后热红外图像Ic3进行与第一去畸变可见光图像Ia1相同的立体校正,获得校正后的热红外图像Iir
8)利用第一校正可见光图像Ia2与深度图像Idepth构建场景三维颜色点云Pc,利用校正后的热红外图像Iir与深度图像Idepth构建场景三维温度场点云Pt,根据地面与相机间的已知距离,选取深度阈值d,根据深度阈值d分别提取场景三维颜色点云Pc与场景三维温度场点云Pt中地面以上的点云,分别获得背景剔除后的三维颜色点云P′c和三维温度场点云P′t
9)利用DB-SCAN聚类方法分别对背景剔除后的三维颜色点云P′c和三维温度场点云P′t进行聚类后分别获得对应的聚类结果,分别选取对应的聚类结果中包含点数最多的类并分别作为鸡只三维颜色点云P″c和鸡只三维温度场点云P″t,将鸡只三维颜色点云P″c和鸡只三维温度场点云P″t级联后获得包含RGBDT信息的鸡只点云模型M1
所述步骤2)中,第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb及热红外相机T1的内参矩阵Kc分别表示为:
Figure BDA0003155632510000031
Figure BDA0003155632510000032
Figure BDA0003155632510000033
其中,
Figure BDA0003155632510000034
分别表示第一可见光相机C1的横向焦距和纵向焦距,
Figure BDA0003155632510000035
分别表示第一可见光相机C1的主点在像素坐标系中的两个坐标值;
Figure BDA0003155632510000036
分别表示第二可见光相机C2的横向焦距和纵向焦距,
Figure BDA0003155632510000037
分别表示第二可见光相机C1的主点在像素坐标系中的两个坐标值;
Figure BDA0003155632510000038
分别表示热红外相机T1的横向焦距和纵向焦距,
Figure BDA0003155632510000039
分别表示热红外相机T1的主点在像素坐标系中的两个坐标值。
所述步骤4)具体为:
4.1)利用鸡只图像采集系统中的第一可见光相机C1、第二可见光相机C2、热红外相机T1同步拍摄鸡只后分别采集获得鸡只的第一原始可见光图像Ia0、第二原始可见光图像Ib0和原始热红外图像Ic0
4.2)利用第一可见光相机C1、第二可见光相机C2、热红外相机T1的畸变系数分别对第一原始可见光图像Ia0、第二原始可见光图像Ib0和原始热红外图像Ic0进行去畸变操作后分别获得第一去畸变可见光图像Ia1、第二去畸变可见光图像Ib1和去畸变热红外图像Ic1;其中,去畸变操作包括径向畸变操作和切向畸变操作,主要通过以下公式进行设置:
ud=(u-u0)(1+k1r2+k2r4+k3r6)+2p1xy+p2(r2+2x2)+u0
vd=(v-v0)(1+k1r2+k2r4+k3r6)+p1(r2+2y2)xy+2p2xy+v0
r2=x2+y2
其中,u,v分别表示第一原始可见光图像Ia0、第二原始可见光图像Ib0或原始热红外图像Ic0中一个像素点的两个坐标值,ud,vd分别表示第一去畸变可见光图像Ia1、第二去畸变可见光图像Ib1或去畸变热红外图像Ic1中对应像素点的两个坐标值,k1、k2、k3分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的第一、第二和第三径向畸变系数,p1、p2分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的第一和第二切向畸变系数,r表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的径向半径,u0,v0分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的主点在像素坐标系中的两个坐标值。
所述步骤5)具体为:
5.1)根据第一可见光相机C1的内参矩阵Ka及热红外相机T1的内参矩阵Kc,构建尺度与位置变换矩阵Q,利用尺度与位置变换矩阵Q对去畸变热红外图像Ic1进行尺度与位置调整后,获得初次热红外变换图像Ic2,通过以下公式进行设置;
Ic2=QIc1
Figure BDA0003155632510000041
Figure BDA0003155632510000042
Figure BDA0003155632510000043
Figure BDA0003155632510000044
Figure BDA0003155632510000051
其中,αa/c、βa/c、Tx、Ty分别表示去畸变热红外图像Ic1的横向放大倍数、纵向放大倍数、横向平移距离、纵向平移距离;ca和cc分别表示第一去畸变可见光图像Ia1和去畸变热红外图像Ic1的列数,ra和rc分别表示第一去畸变可见光图像Ia1和去畸变热红外图像Ic1的行数,Tx和Ty分别表示去畸变热红外图像Ic1在像素坐标系中横向和纵向上的平移量;
5.2)将步骤2)中第一可见光相机C1采集获得的N组加热标定板图像,记为
Figure BDA0003155632510000052
依次提取各个第一可见光相机C1采集的加热标定板图像
Figure BDA0003155632510000053
的棋盘格角点坐标,同时将提取获得的棋盘格角点坐标依次存储至可见光角点矩阵M1中;
5.3)将步骤2)中热红外相机T1采集获得的N组加热标定板图像,记为
Figure BDA0003155632510000054
利用尺度与位置变换矩阵Q对热红外相机T1采集获得的N组加热标定板图像
Figure BDA0003155632510000055
进行尺度与位置变换,得到变换后的N组标定板图像
Figure BDA0003155632510000056
依次提取变换后的标定板图像
Figure BDA0003155632510000057
的棋盘格角点坐标,同时将提取获得的棋盘格角点坐标依次存储至热红外角点矩阵M2中;
5.4)由可见光角点矩阵M1和热红外角点矩阵M2构成棋盘格角点对集,采用M估计抽样一致性算法剔除错误匹配点对,筛选出最优的L对匹配点对,基于最优的L对匹配点对利用投影变换模型求得投影矩阵P,利用求得的投影矩阵P对初次热红外变换图像Ic2进行平移、旋转、透视操作后,获得配准后热红外图像Ic3,通过以下公式进行设置:
Ic3=PIc2
所述步骤6)具体为:
6.1)根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,利用Bouguet极线校正方法对第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1进行立体校正后分别得到第一校正可见光图像Ia2和第二校正可见光图像Ib2
6.2)将第一校正可见光图像Ia2和第二校正可见光图像Ib2输入到自适应聚合网络模型进行立体匹配与视差估计,输出视差图像Idisp
6.3)利用三角测量原理对视差图像Idisp进行深度求解,得到深度图像Idepth
所述步骤6.1)具体为:
首先,根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,将第一可见光相机C1和第二可见光相机C2的两个相机坐标系分别朝对方的相机坐标系旋转,旋转的角度为两个相机坐标系夹角的一半,旋转方向相反,使得第一可见光相机C1和第二可见光相机C2的两个成像平面共面,具体公式如下:
Figure BDA0003155632510000061
接着,将第一可见光相机C1和第二可见光相机C2绕自身光轴旋转,使得第一可见光相机C1和第二可见光相机C2的两个成像平面行对准,具体公式如下:
Figure BDA0003155632510000062
其中,R为第一可见光相机C1和第二可见光相机C2之间的旋转矩阵,rl为第一可见光相机C1绕自身相机坐标系旋转的第一相机旋转矩阵,rr为第二可见光相机C2绕自身相机坐标系旋转的第二相机旋转矩阵,rrect为第一可见光相机C1或第二可见光相机C2绕自身光轴旋转的光轴矩阵,Rl为第一可见光相机C1两次旋转操作的第一立体校正矩阵,Rr为第二可见光相机C2两次旋转操作的第二立体校正矩阵;
最后,将Rl、Rr分别左乘至第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1,将两张左乘后的可见光图像进行裁剪,使得两张裁剪后的图像的大小与第一去畸变可见光图像Ia1或第二去畸变可见光图像Ib1的大小相同并分别作为第一校正可见光图像Ia2和第二校正可见光图像Ib2
本发明具有的有益效果是:
本发明构建包含RGBDT信息的鸡只点云模型,解决了可见光与热红外图像的配准问题,并采用自适应聚合网络AANet+进行立体匹配,提高了算法的鲁棒性。
本发明包含RGBDT信息的鸡只点云模型能够直观反映鸡只羽毛的颜色、各部位的温度及体型体况,实现养殖过程自动化和智能化管理。
附图说明
图1是本发明的总体流程图。
图2是本发明的鸡只图像采集系统示意图。
图3是本发明的相机标定与配准过程示意图。
图4是本发明实施例可见光相机C1采集的原始图像Ia0示意图。
图5是本发明实施例可见光相机C2采集的原始图像Ib0示意图。
图6是本发明实施例可见光相机T1采集的原始图像Ic0示意图。
图7是本发明实施例可见光相机C1立体校正后的图像Ia2示意图。
图8是本发明实施例可见光相机C2立体校正后的图像Ib2示意图。
图9是本发明实施例图6与图7立体匹配后的深度图像Idepth示意图。
图10是本发明实施例Ic0经过图像配准和立体校正变换后的热红外图像Iir示意图。
图11是本发明实施例场景三维颜色点云Pc示意图。
图12是本发明实施例场景三维温度场点云Pt示意图。
图13是本发明实施例背景剔除后的三维颜色点云P′c示意图。
图14是本发明实施例背景剔除后的三维温度场点云P′t示意图。
图15是本发明实施例包含RGBDT信息的鸡只点云模型M1示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
如图1所示,本发明实施例具体过程如下:
1)建立鸡只图像采集系统,如图2所示,包括相机装置和计算机,相机装置通过网线与计算机相连,鸡只或加热标定板的正上方固定安装有相机装置,相机装置主要由第一可见光相机C1、第二可见光相机C2、热红外相机T1平行且间隔布置构成,第一可见光相机C1、第二可见光相机C2、热红外相机T1均通过网线与计算机相连,加热标定板由棋盘格标定板的背面层叠放置加热板而成;其中,两个可见光相机之间距离为11cm,第一可见光相机C1与热红外相机T1之间距离为4cm,系统距离地面的安装高度为150cm,第一可见光相机C1与第二可见光相机C2的图像分辨率均为1920pix*1080pix,热红外相机T1的图像分辨率为384pix*288pix;棋盘格标定板为16×15阵列的黑白棋格,每个方格尺寸为25mm*25mm。
2)如图3所示,根据张正友平面标定法,利用鸡只图像采集系统中的第一可见光相机C1、第二可见光相机C2、热红外相机T1同步拍摄N个不同角度的加热标定板后分别采集获得N组加热标定板图像,其中N>15,本实施例中,N=23,利用第一可见光相机C1、第二可见光相机C2、热红外相机T1分别采集获得的N组加热标定板图像对相机自身进行标定后分别获得第一可见光相机C1的外参数EXa、内参矩阵Ka和畸变系数,第二可见光相机C2的外参数EXb、内参矩阵Kb和畸变系数,热红外相机T1的内参矩阵Kc和畸变系数;
步骤2)中,第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb及热红外相机T1的内参矩阵Kc分别表示为:
Figure BDA0003155632510000081
Figure BDA0003155632510000082
Figure BDA0003155632510000083
其中,
Figure BDA0003155632510000084
分别表示第一可见光相机C1的横向焦距和纵向焦距,
Figure BDA0003155632510000085
分别表示第一可见光相机C1的主点在像素坐标系中的两个坐标值;
Figure BDA0003155632510000086
分别表示第二可见光相机C2的横向焦距和纵向焦距,
Figure BDA0003155632510000087
分别表示第二可见光相机C1的主点在像素坐标系中的两个坐标值;
Figure BDA0003155632510000088
分别表示热红外相机T1的横向焦距和纵向焦距,
Figure BDA0003155632510000089
分别表示热红外相机T1的主点在像素坐标系中的两个坐标值。
3)根据第一可见光相机C1的外参数EXa和第二可见光相机C2的外参数EXb,对第一可见光相机C1和第二可见光相机C2进行立体标定,得到第一可见光相机C1和第二可见光相机C2之间的旋转矩阵R和平移向量t;
4)利用鸡只图像采集系统采集鸡只的原始图像,并利用第一可见光相机C1、第二可见光相机C2、热红外相机T1的畸变系数对鸡只的原始图像进行去畸变操作后获得去畸变图像;
步骤4)具体为:
4.1)利用鸡只图像采集系统中的第一可见光相机C1、第二可见光相机C2、热红外相机T1同步拍摄鸡只后分别采集获得鸡只的第一原始可见光图像Ia0、第二原始可见光图像Ib0和原始热红外图像Ic0,分别如图4-6所示;
4.2)利用第一可见光相机C1、第二可见光相机C2、热红外相机T1的畸变系数分别对第一原始可见光图像Ia0、第二原始可见光图像Ib0和原始热红外图像Ic0进行去畸变操作后分别获得第一去畸变可见光图像Ia1、第二去畸变可见光图像Ib1和去畸变热红外图像Ic1。其中,去畸变操作包括径向畸变操作和切向畸变操作,主要通过以下公式进行设置:
ud=(u-u0)(1+k1r2+k2r4+k3r6)+2p1xy+p2(r2+2x2)+u0
vd=(v-v0)(1+k1r2+k2r4+k3r6)+p1(r2+2y2)xy+2p2xy+v0
r2=x2+y2
其中,u,v分别表示第一原始可见光图像Ia0、第二原始可见光图像Ib0或原始热红外图像Ic0中一个像素点的两个坐标值,ud,vd分别表示第一去畸变可见光图像Ia1、第二去畸变可见光图像Ib1或去畸变热红外图像Ic1中对应像素点的两个坐标值,k1、k2、k3分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的第一、第二和第三径向畸变系数,p1、p2分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的第一和第二切向畸变系数,r表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的径向半径,u0,v0分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的主点在像素坐标系中的两个坐标值。
5)根据第一可见光相机C1的内参矩阵Ka及热红外相机T1的内参矩阵Kc,构建尺度与位置变换矩阵Q,利用尺度与位置变换矩阵Q对去畸变热红外图像Ic1进行尺度与位置调整后,再利用投影变换矩阵进行空间变换得到配准后热红外图像Ic3
步骤5)具体为:
5.1)根据第一可见光相机C1的内参矩阵Ka及热红外相机T1的内参矩阵Kc,构建尺度与位置变换矩阵Q,利用尺度与位置变换矩阵Q对去畸变热红外图像Ic1进行尺度与位置调整后,使去畸变热红外图像Ic1与第一去畸变可见光图像Ia1具有相同焦距与主点,初步消除分辨率和位置差异,获得初次热红外变换图像Ic2,通过以下公式进行设置;
Ic2=QIc1
Figure BDA0003155632510000091
Figure BDA0003155632510000092
Figure BDA0003155632510000093
Figure BDA0003155632510000094
Figure BDA0003155632510000095
其中,αa/c、βa/c、Tx、Ty分别表示去畸变热红外图像Ic1的横向放大倍数、纵向放大倍数、横向平移距离、纵向平移距离;具体实施中,αa/c为第一可见光相机C1和热红外相机T1水平焦距的比值,βa/c为第一可见光相机C1和热红外相机T1垂直焦距的比值,ca和cc分别表示第一去畸变可见光图像Ia1和去畸变热红外图像Ic1的列数,ra和rc分别表示第一去畸变可见光图像Ia1和去畸变热红外图像Ic1的行数,Tx和Ty分别表示去畸变热红外图像Ic1在像素坐标系中横向和纵向上的平移量;
在本发明实施例中,
Figure BDA0003155632510000101
5.2)将步骤2)中第一可见光相机C1采集获得的N组加热标定板图像,记为
Figure BDA0003155632510000102
依次提取各个第一可见光相机C1采集的加热标定板图像
Figure BDA0003155632510000103
的棋盘格角点坐标,同时将提取获得的棋盘格角点坐标依次存储至可见光角点矩阵M1中;
5.3)将步骤2)中热红外相机T1采集获得的N组加热标定板图像,记为
Figure BDA0003155632510000104
利用尺度与位置变换矩阵Q对热红外相机T1采集获得的N组加热标定板图像
Figure BDA0003155632510000105
进行尺度与位置变换,得到变换后的N组标定板图像
Figure BDA0003155632510000106
依次提取变换后的标定板图像
Figure BDA0003155632510000107
的棋盘格角点坐标,同时将提取获得的棋盘格角点坐标依次存储至热红外角点矩阵M2中;
5.4)由可见光角点矩阵M1和热红外角点矩阵M2构成棋盘格角点对集,采用M估计抽样一致性(MSAC)M-Estimator Sample Consensus方法剔除错误匹配点对,筛选出最优的L对匹配点对,基于最优的L对匹配点对利用投影变换模型求得投影矩阵P,利用求得的投影矩阵P对初次热红外变换图像Ic2进行平移、旋转、透视操作后,获得配准后热红外图像Ic3,通过以下公式进行设置:
Ic3=PIc2
在本实施例中,
Figure BDA0003155632510000108
6)根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,对第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1进行立体校正以及视差估计处理后获得深度图像Idepth
步骤6)具体为:
6.1)根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,利用Bouguet极线校正方法对第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1进行立体校正后分别得到第一校正可见光图像Ia2和第二校正可见光图像Ib2,如图7和8所示。
步骤6.1)具体为:
首先,根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,将第一可见光相机C1和第二可见光相机C2的两个相机坐标系分别朝对方的相机坐标系旋转,旋转的角度为两个相机坐标系夹角的一半,旋转方向相反,使得第一可见光相机C1和第二可见光相机C2的两个成像平面共面,具体公式如下:
Figure BDA0003155632510000111
接着,将第一可见光相机C1和第二可见光相机C2绕自身光轴旋转,使得第一可见光相机C1和第二可见光相机C2的两个成像平面行对准,具体公式如下:
Figure BDA0003155632510000112
其中,R为第一可见光相机C1和第二可见光相机C2之间的旋转矩阵,rl为第一可见光相机C1绕自身相机坐标系旋转的第一相机旋转矩阵,rr为第二可见光相机C2绕自身相机坐标系旋转的第二相机旋转矩阵,rrect为第一可见光相机C1或第二可见光相机C2绕自身光轴旋转的光轴矩阵,Rl为第一可见光相机C1两次旋转操作的第一立体校正矩阵,Rr为第二可见光相机C2两次旋转操作的第二立体校正矩阵;
最后,将Rl、Rr分别左乘至第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1,将两张左乘后的可见光图像进行裁剪,使得两张裁剪后的图像的大小与第一去畸变可见光图像Ia1或第二去畸变可见光图像Ib1的大小相同并分别作为第一校正可见光图像Ia2和第二校正可见光图像Ib2
6.2)将第一校正可见光图像Ia2和第二校正可见光图像Ib2输入到自适应聚合网络AANet+模型进行立体匹配与视差估计,输出视差图像Idisp
6.3)利用三角测量原理对视差图像Idisp进行深度求解,得到深度图像Idepth,如图9所示;
7)利用Bouguet极线校正方法对配准后热红外图像Ic3进行与第一去畸变可见光图像Ia1相同的立体校正,获得校正后的热红外图像Iir,如图10所示;即根据第一可见光相机C1两次旋转操作的第一立体校正矩阵Rl,将第一立体校正矩阵Rl左乘至配准后热红外图像Ic3后,将左乘后的热红外图像的大小裁剪至配准后热红外图像Ic3的大小后作为校正后的热红外图像Iir
8)利用第一校正可见光图像Ia2与深度图像Idepth构建场景三维颜色点云Pc,利用校正后的热红外图像Iir与深度图像Idepth构建场景三维温度场点云Pt,如图11和12所示,根据地面与相机间的已知距离,选取深度阈值d,具体实施中,d=145mm。根据深度阈值d分别提取场景三维颜色点云Pc与场景三维温度场点云Pt中地面以上的点云,分别获得背景剔除后的三维颜色点云P′c和三维温度场点云P′t
9)利用DB-SCAN聚类方法分别对背景剔除后的三维颜色点云P′c和三维温度场点云P′t进行聚类后分别获得对应的聚类结果,如图13和14所示,分别选取对应的聚类结果中包含点数最多的类并分别作为鸡只三维颜色点云P″c和鸡只三维温度场点云P″t,将鸡只三维颜色点云P″c和鸡只三维温度场点云P″t级联后获得包含RGBDT信息的鸡只点云模型M1,如图15所示。
以上所述仅为本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是未脱离本发明技术方案的内容,依据本发明的技术实质所作的任何修改、等同替换、等效变化等,均应包含在本发明的保护范围内。

Claims (6)

1.一种包含RGBDT信息的鸡只三维重建方法,其特征在于,包括以下步骤:
1)建立鸡只图像采集系统,包括相机装置和计算机,相机装置通过网线与计算机相连,鸡只或加热标定板的正上方固定安装有相机装置,相机装置主要由第一可见光相机C1、第二可见光相机C2、热红外相机T1平行且间隔布置构成;
2)根据张正友平面标定法,利用鸡只图像采集系统中的第一可见光相机C1、第二可见光相机C2、热红外相机T1同步拍摄N个不同角度的加热标定板后分别采集获得N组加热标定板图像,利用第一可见光相机C1、第二可见光相机C2、热红外相机T1分别采集获得的N组加热标定板图像对相机自身进行标定后分别获得第一可见光相机C1的外参数EXa、内参矩阵Ka和畸变系数,第二可见光相机C2的外参数EXb、内参矩阵Kb和畸变系数,热红外相机T1的内参矩阵Kc和畸变系数;
3)根据第一可见光相机C1的外参数EXa和第二可见光相机C2的外参数EXb,对第一可见光相机C1和第二可见光相机C2进行立体标定,得到第一可见光相机C1和第二可见光相机C2之间的旋转矩阵R和平移向量t;
4)利用鸡只图像采集系统采集鸡只的原始图像,并利用第一可见光相机C1、第二可见光相机C2、热红外相机T1的畸变系数对鸡只的原始图像进行去畸变操作后获得去畸变图像;
5)根据第一可见光相机C1的内参矩阵Ka及热红外相机T1的内参矩阵Kc,构建尺度与位置变换矩阵Q,利用尺度与位置变换矩阵Q对去畸变热红外图像Ic1进行尺度与位置调整后,再利用投影变换矩阵进行空间变换得到配准后热红外图像Ic3
6)根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,对第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1进行立体校正以及视差估计处理后获得深度图像Idepth
7)利用Bouguet极线校正方法对配准后热红外图像Ic3进行与第一去畸变可见光图像Ia1相同的立体校正,获得校正后的热红外图像Iir
8)利用第一校正可见光图像Ia2与深度图像Idepth构建场景三维颜色点云Pc,利用校正后的热红外图像Iir与深度图像Idepth构建场景三维温度场点云Pt,根据地面与相机间的已知距离,选取深度阈值d,根据深度阈值d分别提取场景三维颜色点云Pc与场景三维温度场点云Pt中地面以上的点云,分别获得背景剔除后的三维颜色点云P′c和三维温度场点云P′t
9)利用DB-SCAN聚类方法分别对背景剔除后的三维颜色点云P′c和三维温度场点云P′t进行聚类后分别获得对应的聚类结果,分别选取对应的聚类结果中包含点数最多的类并分别作为鸡只三维颜色点云P″c和鸡只三维温度场点云P″t,将鸡只三维颜色点云P″c和鸡只三维温度场点云P″t级联后获得包含RGBDT信息的鸡只点云模型M1
2.根据权利要求1所述的一种包含RGBDT信息的鸡只三维重建方法,其特征在于:所述步骤2)中,第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb及热红外相机T1的内参矩阵Kc分别表示为:
Figure FDA0003738686970000021
Figure FDA0003738686970000022
Figure FDA0003738686970000023
其中,
Figure FDA0003738686970000024
分别表示第一可见光相机C1的横向焦距和纵向焦距,
Figure FDA0003738686970000025
分别表示第一可见光相机C1的主点在像素坐标系中的两个坐标值;
Figure FDA0003738686970000026
分别表示第二可见光相机C2的横向焦距和纵向焦距,
Figure FDA0003738686970000027
分别表示第二可见光相机C2的主点在像素坐标系中的两个坐标值;
Figure FDA0003738686970000028
分别表示热红外相机T1的横向焦距和纵向焦距,
Figure FDA0003738686970000029
分别表示热红外相机T1的主点在像素坐标系中的两个坐标值。
3.根据权利要求1所述的一种包含RGBDT信息的鸡只三维重建方法,其特征在于,所述步骤4)具体为:
4.1)利用鸡只图像采集系统中的第一可见光相机C1、第二可见光相机C2、热红外相机T1同步拍摄鸡只后分别采集获得鸡只的第一原始可见光图像Ia0、第二原始可见光图像Ib0和原始热红外图像Ic0
4.2)利用第一可见光相机C1、第二可见光相机C2、热红外相机T1的畸变系数分别对第一原始可见光图像Ia0、第二原始可见光图像Ib0和原始热红外图像Ic0进行去畸变操作后分别获得第一去畸变可见光图像Ia1、第二去畸变可见光图像Ib1和去畸变热红外图像Ic1;其中,去畸变操作包括径向畸变操作和切向畸变操作,主要通过以下公式进行设置:
ud=(u-u0)(1+k1r2+k2r4+k3r6)+2p1xy+p2(r2+2x2)+u0
vd=(v-v0)(1+k1r2+k2r4+k3r6)+p1(r2+2y2)xy+2p2xy+v0
r2=x2+y2
其中,u,v分别表示第一原始可见光图像Ia0、第二原始可见光图像Ib0或原始热红外图像Ic0中一个像素点的两个坐标值,ud,vd分别表示第一去畸变可见光图像Ia1、第二去畸变可见光图像Ib1或去畸变热红外图像Ic1中对应像素点的两个坐标值,k1、k2、k3分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的第一、第二和第三径向畸变系数,p1、p2分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的第一和第二切向畸变系数,r表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的径向半径,u0,v0分别表示第一可见光相机C1、第二可见光相机C2或热红外相机T1的主点在像素坐标系中的两个坐标值。
4.根据权利要求1所述的一种包含RGBDT信息的鸡只三维重建方法,其特征在于,所述步骤5)具体为:
5.1)根据第一可见光相机C1的内参矩阵Ka及热红外相机T1的内参矩阵Kc,构建尺度与位置变换矩阵Q,利用尺度与位置变换矩阵Q对去畸变热红外图像Ic1进行尺度与位置调整后,获得初次热红外变换图像Ic2,通过以下公式进行设置;
Ic2=QIc1
Figure FDA0003738686970000031
Figure FDA0003738686970000032
Figure FDA0003738686970000033
Figure FDA0003738686970000034
Figure FDA0003738686970000035
其中,αa/c、βa/c、Tx、Ty分别表示去畸变热红外图像Ic1的横向放大倍数、纵向放大倍数、横向平移距离、纵向平移距离;ca和cc分别表示第一去畸变可见光图像Ia1和去畸变热红外图像Ic1的列数,ra和rc分别表示第一去畸变可见光图像Ia1和去畸变热红外图像Ic1的行数,Tx和Ty分别表示去畸变热红外图像Ic1在像素坐标系中横向和纵向上的平移量;
Figure FDA0003738686970000041
分别表示第一可见光相机C1的横向焦距和纵向焦距,
Figure FDA0003738686970000042
分别表示热红外相机T1的横向焦距和纵向焦距;
5.2)将步骤2)中第一可见光相机C1采集获得的N组加热标定板图像,记为
Figure FDA0003738686970000043
依次提取各个第一可见光相机C1采集的加热标定板图像
Figure FDA0003738686970000044
的棋盘格角点坐标,同时将提取获得的棋盘格角点坐标依次存储至可见光角点矩阵M1中;
5.3)将步骤2)中热红外相机T1采集获得的N组加热标定板图像,记为
Figure FDA0003738686970000045
利用尺度与位置变换矩阵Q对热红外相机T1采集获得的N组加热标定板图像
Figure FDA0003738686970000046
进行尺度与位置变换,得到变换后的N组标定板图像
Figure FDA0003738686970000047
依次提取变换后的标定板图像
Figure FDA0003738686970000048
的棋盘格角点坐标,同时将提取获得的棋盘格角点坐标依次存储至热红外角点矩阵M2中;
5.4)由可见光角点矩阵M1和热红外角点矩阵M2构成棋盘格角点对集,采用M估计抽样一致性算法剔除错误匹配点对,筛选出最优的L对匹配点对,基于最优的L对匹配点对利用投影变换模型求得投影矩阵P,利用求得的投影矩阵P对初次热红外变换图像Ic2进行平移、旋转、透视操作后,获得配准后热红外图像Ic3,通过以下公式进行设置:
Ic3=PIc2
5.根据权利要求1所述的一种包含RGBDT信息的鸡只三维重建方法,其特征在于,所述步骤6)具体为:
6.1)根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,利用Bouguet极线校正方法对第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1进行立体校正后分别得到第一校正可见光图像Ia2和第二校正可见光图像Ib2
6.2)将第一校正可见光图像Ia2和第二校正可见光图像Ib2输入到自适应聚合网络模型进行立体匹配与视差估计,输出视差图像Idisp
6.3)利用三角测量原理对视差图像Idisp进行深度求解,得到深度图像Idepth
6.根据权利要求5所述的一种包含RGBDT信息的鸡只三维重建方法,其特征在于,所述步骤6.1)具体为:
首先,根据第一可见光相机C1的内参矩阵Ka、第二可见光相机C2的内参矩阵Kb、旋转矩阵R和平移向量t,将第一可见光相机C1和第二可见光相机C2的两个相机坐标系分别朝对方的相机坐标系旋转,旋转的角度为两个相机坐标系夹角的一半,旋转方向相反,使得第一可见光相机C1和第二可见光相机C2的两个成像平面共面,具体公式如下:
Figure FDA0003738686970000051
接着,将第一可见光相机C1和第二可见光相机C2绕自身光轴旋转,使得第一可见光相机C1和第二可见光相机C2的两个成像平面行对准,具体公式如下:
Figure FDA0003738686970000052
其中,R为第一可见光相机C1和第二可见光相机C2之间的旋转矩阵,rl为第一可见光相机C1绕自身相机坐标系旋转的第一相机旋转矩阵,rr为第二可见光相机C2绕自身相机坐标系旋转的第二相机旋转矩阵,rrect为第一可见光相机C1或第二可见光相机C2绕自身光轴旋转的光轴矩阵,Rl为第一可见光相机C1两次旋转操作的第一立体校正矩阵,Rr为第二可见光相机C2两次旋转操作的第二立体校正矩阵;
最后,将Rl、Rr分别左乘至第一去畸变可见光图像Ia1和第二去畸变可见光图像Ib1,将两张左乘后的可见光图像进行裁剪,使得两张裁剪后的图像的大小与第一去畸变可见光图像Ia1或第二去畸变可见光图像Ib1的大小相同并分别作为第一校正可见光图像Ia2和第二校正可见光图像Ib2
CN202110776643.5A 2021-07-09 2021-07-09 一种包含rgbdt信息的鸡只三维重建方法 Active CN113409450B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110776643.5A CN113409450B (zh) 2021-07-09 2021-07-09 一种包含rgbdt信息的鸡只三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110776643.5A CN113409450B (zh) 2021-07-09 2021-07-09 一种包含rgbdt信息的鸡只三维重建方法

Publications (2)

Publication Number Publication Date
CN113409450A CN113409450A (zh) 2021-09-17
CN113409450B true CN113409450B (zh) 2022-08-26

Family

ID=77685755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110776643.5A Active CN113409450B (zh) 2021-07-09 2021-07-09 一种包含rgbdt信息的鸡只三维重建方法

Country Status (1)

Country Link
CN (1) CN113409450B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100262B (zh) * 2022-06-08 2024-05-17 华南理工大学 一种复杂场景三维温度和长波辐射模型的建立方法及系统
CN114898072B (zh) * 2022-06-14 2024-05-31 中国农业大学 一种基于3d温度特征的作物水分胁迫检测方法
CN115797468B (zh) * 2023-02-03 2023-05-16 厦门农芯数字科技有限公司 一种鱼眼摄像头安装高度的自动校正方法、装置以及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109741405A (zh) * 2019-01-21 2019-05-10 同济大学 一种基于对偶结构光rgb-d相机的深度信息采集系统
CN110969670A (zh) * 2019-11-22 2020-04-07 大连理工大学 基于显著特征的多光谱相机动态立体标定算法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
WO2016077057A2 (en) * 2014-10-24 2016-05-19 Bounce Imaging, Inc. Imaging systems and methods
US9813692B2 (en) * 2015-09-25 2017-11-07 Intel Corporation Online compensation of thermal distortions in a stereo depth camera
CN107067470B (zh) * 2017-04-05 2019-09-06 东北大学 基于红外热像仪与深度相机的便携式三维温度场重建系统
CN108010085B (zh) * 2017-11-30 2019-12-31 西南科技大学 基于双目可见光相机与热红外相机的目标识别方法
CN110415342B (zh) * 2019-08-02 2023-04-18 深圳市唯特视科技有限公司 一种基于多融合传感器的三维点云重建装置与方法
CN110458898B (zh) * 2019-08-15 2022-03-22 北京迈格威科技有限公司 相机标定板、标定数据采集方法、畸变校正方法及装置
CN110992409B (zh) * 2019-11-22 2022-02-15 大连理工大学 基于傅里叶变换配准的多光谱立体相机动态配准方法
CN110956661B (zh) * 2019-11-22 2022-09-20 大连理工大学 基于双向单应矩阵的可见光与红外相机动态位姿计算方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109741405A (zh) * 2019-01-21 2019-05-10 同济大学 一种基于对偶结构光rgb-d相机的深度信息采集系统
CN110969670A (zh) * 2019-11-22 2020-04-07 大连理工大学 基于显著特征的多光谱相机动态立体标定算法

Also Published As

Publication number Publication date
CN113409450A (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
CN113409450B (zh) 一种包含rgbdt信息的鸡只三维重建方法
CN109461180B (zh) 一种基于深度学习的三维场景重建方法
CN108520537B (zh) 一种基于光度视差的双目深度获取方法
CN104240289B (zh) 一种基于单个相机的三维数字化重建方法及系统
WO2017071293A1 (zh) 深度图像的去噪方法和去噪设备
CN105654547B (zh) 三维重建方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN110070610B (zh) 特征点匹配方法、三维重构过程的特征点匹配方法及装置
CN108389157A (zh) 一种三维全景图像快速拼接方法
CN110782498B (zh) 一种视觉传感网络的快速通用标定方法
CN115272271A (zh) 一种基于双目立体视觉的管道缺陷检测与定位测距系统
CN110458952B (zh) 一种基于三目视觉的三维重建方法和装置
CN111640152A (zh) 一种鱼类生长监控方法和系统
CN115082777A (zh) 基于双目视觉的水下动态鱼类形态测量方法及装置
CN115100298B (zh) 一种用于深远海视觉养殖的光-声图像融合方法
CN109461206A (zh) 一种多目立体视觉的人脸三维重建装置及方法
CN114782636A (zh) 三维重建方法、装置及系统
CN112261399A (zh) 胶囊内窥镜图像三维重建方法、电子设备及可读存储介质
CN114119987A (zh) 基于卷积神经网络的特征提取和描述子生成方法及系统
Peng et al. Binocular-vision-based structure from motion for 3-D reconstruction of plants
CN106558081A (zh) 标定非中心轴对称系统的圆锥折反射摄像机的方法
CN116883480A (zh) 基于双目影像与地基雷达融合点云的玉米株高检测方法
CN112446926B (zh) 一种激光雷达与多目鱼眼相机的相对位置标定方法及装置
CN104809688B (zh) 基于仿射变换配准算法的羊体体尺测量方法及系统
CN103919556A (zh) 一种基于三维测量的奶牛体型性状指标的数据采集方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant