CN110517284B - 一种基于激光雷达和ptz摄像机的目标追踪方法 - Google Patents
一种基于激光雷达和ptz摄像机的目标追踪方法 Download PDFInfo
- Publication number
- CN110517284B CN110517284B CN201910745638.0A CN201910745638A CN110517284B CN 110517284 B CN110517284 B CN 110517284B CN 201910745638 A CN201910745638 A CN 201910745638A CN 110517284 B CN110517284 B CN 110517284B
- Authority
- CN
- China
- Prior art keywords
- ptz camera
- laser radar
- gesture
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于激光雷达和PTZ摄像机的目标追踪方法。包括人工标定PTZ摄像机在多个静态姿态下与激光雷达的不同转移矩阵,基于这些转移矩阵推导PTZ摄像机动态情况下姿态与转移矩阵的映射关系;在追踪中利用IMU和PTZ摄像机姿态查询获取PTZ摄像机的实时姿态,基于前述映射关系实时确定PTZ摄像机和激光雷达的转移矩阵;根据实时确定的转移矩阵将点云转换成稀疏深度图,与摄像机图像进行特征融合后使用KCF算法进行目标追踪;基于目标追踪的模块的反馈,实时调整PTZ摄像机的姿态,保持追踪目标始终在画面中。本方法采用PTZ摄像机进行目标追踪,克服了智能机器人所搭载传统摄像机观测方向与机器人运动方向高度耦合的缺陷,提升了目标追踪算法的鲁棒性和准确性。
Description
技术领域
本发明涉及计算机视觉和智能机器人技术领域,更具体地,涉及一种基于激光雷达和PTZ摄像机的目标追踪方法。
背景技术
机器人的防卫功能已成为一种切实有效的安全保障手段并且在机器人应用市场中占据主要份额。感知能力既是衡量机器人智能程度的关键指标之一,同时也是机器人智能防卫功能的核心。目标追踪是计算机视觉领域一个重要的分支,也是智能机器人感知的一个关键方向。该领域已有通过激光雷达以及单目相机或者立体像机等多传感器融合的方式进行图像和点云融合的研究方法出现。
由于视觉容易受到季节、光照等影响,为了使用视觉信息准确的提取距离等环境信息,需要建立高耗时的模型,计算的实时性会受到影响。而激光雷达由于在提取环境的语义信息上需要利用深度学习等同样耗时的方法,也受到实时性和感知精度的制约。因此智能机器人通常使用多种类型的传感器,建立多传感器融合模型,避免单一传感器的局限。基于多传感器的目标追踪可以准确、高效地检测目标在空间中的位置、速度、轨迹等信息。这对于提升检测准确性、鲁棒性都有着重要的意义。
目前针对图像和激光点云融合研究都是基于激光雷达和摄像机相对静止的情况,需要限制机器人行驶方向和观测方向始终固定,在使用场景上有较大局限。而PTZ摄像机通过搭设一个云台保证了摄像机的自由运动,可以保证观测方向的自由度。实现针对PTZ摄像机和激光雷达的融合可以有效拓宽图像和激光点云融合的应用领域。
发明内容
本发明为克服上述现有技术中传统相机和激光雷达融合观测角度和行驶方向耦合度过高的缺陷,提供一种基于激光雷达和PTZ摄像机的目标追踪方法,充分发挥多传感器融合以及PTZ摄像机可自由运动的优点,提升目标追踪的准确性、鲁棒性和实时性。
为解决上述技术问题,本发明采用的技术方案是:一种基于激光雷达和PTZ摄像机的目标追踪方法,包括以下步骤:
S1.采集PTZ摄像机在多个静态姿态下的图像与激光雷达对应的点云;
S2.利用上述图像和点云,在PTZ摄像机每个静态姿态下进行联合标定确定雷达坐标系与图像坐标系的关系;
S3.基于上述转移矩阵推导PTZ摄像机动态情况下姿态与转移矩阵的映射关系;
S4.在追踪中对IMU和PTZ摄像机姿态查询结果进行融合,获取PTZ摄像机的实时姿态,并基于上述映射关系实时确定PTZ摄像机和激光雷达的转移矩阵;
S5.根据实时确定的转移矩阵将点云转换成稀疏深度图,与摄像机图像进行特征融合后使用KCF算法进行目标追踪;
S6.根据上述目标追踪模块的反馈结果,实时调整PTZ摄像机的姿态,保持追踪目标在画面中心。
进一步的,所述的S2步骤中激光雷达和摄像机进行联合标定的方法包括以下步骤:
S21.假设点在图像中坐标的齐次表示为(u,v,1),在激光点云中的齐次表示为P=(X,Y,Z,1),使用旋转和平移组成的坐标转移矩阵[R3×3 t3×1]来表述点云到图像的映射关系;在图像和点云中人工选取不少于7组特征点,对每组特征点建立一组坐标转移方程:
s(u,v,1)T=[R3×3 t3×1](X,Y,Z,1)T (1.1)
S22.联立全部特征点的转移方程得到一组超定方程:
S23.求解该超定方程,得到坐标转移关系[R3×3 t3×1],即可完成PTZ摄像机姿态固定情况下与激光雷达的联合标定。
进一步的,所述的S3步骤中确定动态姿态下姿态与转移矩阵的映射关系的方法包括以下步骤:
S32.改变PTZ摄像机姿态,进行N次记录;记姿态变化后图像到点云的映射关系为Ti=[Ri ti]其中i∈[1,N],将PTZ摄像机不同姿态下与激光雷达的转换关系代入式(1.3)中并提取关于位移的部分,得到多组方程,联立所得方程组得到一组超定方程:
进一步的,所述的S5步骤中点云转换成稀疏深度图的方法为并进行特征融合的方法包括以下步骤:
S51.使用点云的映射在图像上时的Z轴坐标作为点的深度值,生成稀树深度图;
S52.提取上述点云转换所得稀疏深度图和对应图像的HOG特征,并列整合后使用PCA降维,作为KCF算法的输入。
进一步的,所述激光雷达为16线或32线激光雷达,所述摄像机为搭载于小型云台上支持上下左右移动并支持实时云台姿态查询的PTZ网络摄像机。
进一步的,所述图像特征提取方法使用的特征包括HOG特征,所述的特征融合方法包括特征组合后使用PCA降维。
进一步的,所述的目标追踪结果表示为目标在图像中的位置反馈以及PTZ摄像机的追随目标实时运动。
与现有技术相比,有益效果是:
1.本方法采用PTZ摄像机进行目标追踪,克服了智能机器人所搭载传统摄像机观测方向与机器人运动方向高度耦合的缺陷;
2.本方法使用稀疏深度图和彩色图像共同作为目标追踪算法的输入,提升了目标追踪算法的鲁棒性和准确性;
3.本方法充分发挥了摄像机和激光雷达的优点,克服了单一传感器产生的数据不足、稳定性差的问题。
附图说明
图1是本发明的方法流程图。
图2是本发明中联合标定的流程图。
图3是本发明特征融合过程的流程图。
图4是本发明点云转换得到的稀疏深度图示意图。
图5是本发明目标追踪结构的示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
本实施例使用Velpdyne VLP16激光雷达作为点云数据采集传感器,SWOZE SW-MIP8220T-SQ型号高清云台作为图像数据传感器,在Linux环境中基于ROS、Qt、海康SDK等编写算法以实现一种智能机器人中的目标追踪方法。
如图1至5所示,一种基于激光雷达和PTZ摄像机的目标追踪方法,包括以下步骤:
S1.采集PTZ摄像机在多个静态姿态下的图像与激光雷达对应的点云;
S2.利用上述图像和点云,在PTZ摄像机每个静态姿态下进行联合标定确定雷达坐标系与图像坐标系的关系;
S3.基于上述转移矩阵推导PTZ摄像机动态情况下姿态与转移矩阵的映射关系;
S4.在追踪中对IMU和PTZ摄像机姿态查询结果进行融合,获取PTZ摄像机的实时姿态,并基于上述映射关系实时确定PTZ摄像机和激光雷达的转移矩阵;
S5.根据实时确定的转移矩阵将点云转换成稀疏深度图,与摄像机图像进行特征融合后使用KCF算法进行目标追踪;
S6.根据上述目标追踪模块的反馈结果,实时调整PTZ摄像机的姿态,保持追踪目标在画面中心。
如图2所示,所述的S2步骤中激光雷达和摄像机进行联合标定的方法包括以下步骤:
S21.假设点在图像中坐标的齐次表示为(u,v,1),在激光点云中的齐次表示为P=(X,Y,Z,1),使用旋转和平移组成的坐标转移矩阵[R3×3 t3×1]来表述点云到图像的映射关系;在图像和点云中人工选取不少于7组特征点,对每组特征点建立一组坐标转移方程:
s(u,v,1)T=[R3×3 t3×1](X,Y,Z,1)T (1.1)
S22.联立全部特征点的转移方程得到一组超定方程:
S23.求解该超定方程,得到坐标转移关系[R3×3 t3×1],即可完成PTZ摄像机姿态固定情况下与激光雷达的联合标定。
具体的,所述的S3步骤中确定动态姿态下姿态与转移矩阵的映射关系的方法包括以下步骤:
S32.改变PTZ摄像机姿态,进行N次记录;记姿态变化后图像到点云的映射关系为Ti=[Ri ti]其中i∈[1,N],将PTZ摄像机不同姿态下与激光雷达的转换关系代入式(1.3)中并提取关于位移的部分,得到多组方程,联立所得方程组得到一组超定方程:
如图3和4所示,所述的S5步骤中点云转换成稀疏深度图的方法为并进行特征融合的方法包括以下步骤:
S51.使用点云的映射在图像上时的Z轴坐标作为点的深度值,生成稀树深度图;
S52.提取上述点云转换所得稀疏深度图和对应图像的HOG特征,并列整合后使用PCA降维,作为KCF算法的输入。
其中,所述激光雷达为16线或32线激光雷达,所述摄像机为搭载于小型云台上支持上下左右移动并支持实时云台姿态查询的PTZ网络摄像机。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于激光雷达和PTZ摄像机的目标追踪方法,其特征在于,包括以下步骤:
S1.采集PTZ摄像机在多个静态姿态下的图像与激光雷达对应的点云;
S2.利用上述图像和点云,在PTZ摄像机每个静态姿态下进行联合标定确定雷达坐标系与图像坐标系的关系;
S3.基于转移矩阵推导PTZ摄像机动态情况下姿态与转移矩阵的映射关系;确定动态姿态下姿态与转移矩阵的映射关系的方法包括以下步骤:
S32.改变PTZ摄像机姿态,进行N次记录;记姿态变化后图像到点云的映射关系为Ti=[Riti]其中i∈[1,N],将PTZ摄像机不同姿态下与激光雷达的转换关系代入式(1.3)中并提取关于位移的部分,得到多组方程,联立所得方程组得到一组超定方程;
S4.在追踪中对IMU和PTZ摄像机姿态查询结果进行融合,获取PTZ摄像机的实时姿态,并基于上述映射关系实时确定PTZ摄像机和激光雷达的转移矩阵;
S5.根据实时确定的转移矩阵将点云转换成稀疏深度图,与摄像机图像进行特征融合后使用KCF算法进行目标追踪;
S6.根据目标追踪模块的反馈结果,实时调整PTZ摄像机的姿态,保持追踪目标在画面中心。
2.根据权利要求1所述的基于激光雷达和PTZ摄像机的目标追踪方法,其特征在于,所述的S2步骤中激光雷达和摄像机进行联合标定的方法包括以下步骤:
S21.假设点在图像中坐标的齐次表示为(u,v,1),在激光点云中的齐次表示为P=(X,Y,Z,1),使用旋转和平移组成的坐标转移矩阵[R3×3t3×1]来表述点云到图像的映射关系;在图像和点云中人工选取不少于7组特征点,对每组特征点建立一组坐标转移方程:
s(u,v,1)T=[R3×3t3×1](X,Y,Z,1)T(1.1)
S22.联立全部特征点的转移方程得到一组超定方程:
S23.求解该超定方程,得到坐标转移关系[R3×3t3×1],即可完成PTZ摄像机姿态固定情况下与激光雷达的联合标定。
3.根据权利要求2所述的基于激光雷达和PTZ摄像机的目标追踪方法,其特征在于,所述的S5步骤中点云转换成稀疏深度图的方法为并进行特征融合的方法包括以下步骤:
S51.使用点云的映射在图像上时的Z轴坐标作为点的深度值,生成稀疏深度图;
S52.提取上述点云转换所得稀疏深度图和对应图像的HOG特征,并列整合后使用PCA降维,作为KCF算法的输入。
4.根据权利要求1至3任一项所述的基于激光雷达和PTZ摄像机的目标追踪方法,其特征在于,所述激光雷达为16线或32线激光雷达,所述摄像机为搭载于小型云台上支持上下左右移动并支持实时云台姿态查询的PTZ网络摄像机。
5.根据权利要求4所述的基于激光雷达和PTZ摄像机的目标追踪方法,其特征在于,图像特征提取方法使用的特征包括HOG特征,特征融合方法包括特征组合后使用PCA降维。
6.根据权利要求4所述的基于激光雷达和PTZ摄像机的目标追踪方法,其特征在于,目标追踪结果表示为目标在图像中的位置反馈以及PTZ摄像机的追随目标实时运动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910745638.0A CN110517284B (zh) | 2019-08-13 | 2019-08-13 | 一种基于激光雷达和ptz摄像机的目标追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910745638.0A CN110517284B (zh) | 2019-08-13 | 2019-08-13 | 一种基于激光雷达和ptz摄像机的目标追踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517284A CN110517284A (zh) | 2019-11-29 |
CN110517284B true CN110517284B (zh) | 2023-07-14 |
Family
ID=68625702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910745638.0A Active CN110517284B (zh) | 2019-08-13 | 2019-08-13 | 一种基于激光雷达和ptz摄像机的目标追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110517284B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110849363B (zh) * | 2019-12-03 | 2021-09-21 | 深圳市镭神智能系统有限公司 | 激光雷达与组合惯导的位姿标定方法、系统及介质 |
CN110992403B (zh) * | 2019-12-18 | 2022-05-10 | 中山大学 | 一种实时水面船只视觉跟踪系统及其方法 |
CN111462176B (zh) * | 2020-03-13 | 2024-04-05 | 深圳市人工智能与机器人研究院 | 一种目标追踪方法、目标追踪装置及终端设备 |
CN114299107A (zh) * | 2021-10-28 | 2022-04-08 | 安徽瞭望科技有限公司 | 一种水域探测系统中多光电智能跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003364A (ja) * | 2010-06-15 | 2012-01-05 | Nippon Hoso Kyokai <Nhk> | 人物動作判定装置およびそのプログラム |
KR20140049152A (ko) * | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
CN104751119A (zh) * | 2015-02-11 | 2015-07-01 | 中国科学院大学 | 基于信息融合的行人快速检测跟踪方法 |
CN106296708A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 车辆追踪方法和装置 |
CN109143241A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学苏州汽车研究院(吴江) | 雷达数据和图像数据的融合方法及系统 |
-
2019
- 2019-08-13 CN CN201910745638.0A patent/CN110517284B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003364A (ja) * | 2010-06-15 | 2012-01-05 | Nippon Hoso Kyokai <Nhk> | 人物動作判定装置およびそのプログラム |
KR20140049152A (ko) * | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
CN104751119A (zh) * | 2015-02-11 | 2015-07-01 | 中国科学院大学 | 基于信息融合的行人快速检测跟踪方法 |
CN106296708A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 车辆追踪方法和装置 |
CN109143241A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学苏州汽车研究院(吴江) | 雷达数据和图像数据的融合方法及系统 |
Non-Patent Citations (3)
Title |
---|
"Occlusion-Aware Correlation Particle Filter Target Tracking Based on RGBD Data";YAYU ZHAI et al;《SPECIAL SECTION ON SEQUENTIAL DATA MODELING AND ITS EMERGING APPLICATIONS》;20180912(第6期);第50752-50764页 * |
"一种毫米波雷达和摄像头联合标定方法";罗逍等;《清华大学学报(自然科学版)》;20140331;第54卷(第03期);第289-293页 * |
"基于激光雷达和相机信息融合";常昕等;《光电工程》;20190731;第46卷(第7期);第1-11页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110517284A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517284B (zh) | 一种基于激光雷达和ptz摄像机的目标追踪方法 | |
CN109360240B (zh) | 一种基于双目视觉的小型无人机定位方法 | |
CN110296691B (zh) | 融合imu标定的双目立体视觉测量方法与系统 | |
CN108717712B (zh) | 一种基于地平面假设的视觉惯导slam方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
EP3469306B1 (en) | Geometric matching in visual navigation systems | |
CN110728715B (zh) | 一种智能巡检机器人摄像机角度自适应调整方法 | |
Pintaric et al. | Affordable infrared-optical pose-tracking for virtual and augmented reality | |
CN109658457B (zh) | 一种激光与相机任意相对位姿关系的标定方法 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
Beall et al. | 3D reconstruction of underwater structures | |
CN109523589B (zh) | 一种更鲁棒的视觉里程计的设计方法 | |
CN104268935A (zh) | 一种基于特征的机载激光点云与影像数据融合系统及方法 | |
CN113848931B (zh) | 农机自动驾驶障碍物识别方法、系统、设备和存储介质 | |
CN112580683B (zh) | 一种基于互相关的多传感器数据时间对齐系统及其方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN113050074A (zh) | 无人驾驶环境感知中相机与激光雷达标定系统及标定方法 | |
CN111462241B (zh) | 一种基于单目视觉的目标定位方法 | |
CN113030960B (zh) | 一种基于单目视觉slam的车辆定位方法 | |
CN114137564A (zh) | 一种室内物体自动标识定位方法和装置 | |
CN113920191B (zh) | 一种基于深度相机的6d数据集构建方法 | |
CN113405532B (zh) | 基于视觉系统结构参数的前方交会测量方法及系统 | |
CN108573504A (zh) | 用于分析植物的表型的3d影像生成方法及其系统 | |
CN113269857A (zh) | 坐标系关系获取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |