CN113052898B - 基于主动式双目相机的点云和强反光目标实时定位方法 - Google Patents
基于主动式双目相机的点云和强反光目标实时定位方法 Download PDFInfo
- Publication number
- CN113052898B CN113052898B CN202110375959.3A CN202110375959A CN113052898B CN 113052898 B CN113052898 B CN 113052898B CN 202110375959 A CN202110375959 A CN 202110375959A CN 113052898 B CN113052898 B CN 113052898B
- Authority
- CN
- China
- Prior art keywords
- binocular camera
- depth information
- objects
- target
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000002310 reflectometry Methods 0.000 claims abstract description 13
- 238000005259 measurement Methods 0.000 claims abstract description 6
- 238000005286 illumination Methods 0.000 claims abstract description 3
- 230000001360 synchronised effect Effects 0.000 abstract description 2
- 238000003384 imaging method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于主动式双目相机的点云和强反光目标实时定位方法,属一种结构光物体目标定位方法,该方法为双目相机启动后,照明光与结构光同时投射目标,然后分割目标图像中高反光区域的部分;建立高反光区域中高反光物体的中心点或边缘点,在双目相机镜头画面中的点对关系,通过极限约束和三角测距公式计算得到高反光区域中高反光物体的深度信息,并与目标图像其他区域中物体的深度信息融合。通过分割出目标图像中高反光区域的部分,进而获得高反光区域中物体的深度信息,融合目标图像中非高反光区域中物体的深度信息,依次进行目标图像中高反光物体以及非高反光物体的三维坐标配准,进而完成目标的同步实时定位。
Description
技术领域
本发明涉及一种结构光物体目标定位方法,更具体的说,本发明主要涉及一种基于主动式双目相机的点云和强反光目标实时定位方法。
背景技术
在医学手术或其它治疗中,需要利用影像学数据和光学三维成像数据配合进行手术器械或治疗装置的导航,实时测量出手术器械或治疗器械相对于器官或病灶的空间位置,使得医生可基于此进行精准的手术或治疗。目前光学三维成像数据的获取主要依赖深度相机,而深度相机的主要工作方式有双目非结构光深度相机和双目结构光深度相机以及TOF相机等几种类型。其中双目结构光深度相机(结构光RGBD相机)基于已知的镜头焦距、极线视差等参数并通过极限方程式即可获得图像中物体的深度信息。此类相机在使用过程中,对于为解决平面纯净背景无法提供双目匹配特征点和对环境光敏感等问题,在双目相机基础上增加红外发射器投射已知图案。但是,现有红外结构光RGBD相机有一个缺点,即因为对高反光物体表面结构光不能稳定投射图案成像,造成高反光物体无法获得深度信息,因而有必要针对双目结构光深度相机对于具有高反光物体的图像目标定位方法作进一步的研究和改进。
发明内容
本发明的目的之一在于解决上述不足,提供一种基于主动式双目相机的点云和强反光目标实时定位方法,以期望解决现有技术中双目结构光深度相机对高反光物体表面结构光不能稳定投射图案成像,造成高反光物体无法获得深度信息等技术问题。
为解决上述的技术问题,本发明采用以下技术方案:
本发明所提供的一种基于主动式双目相机的点云和强反光目标实时定位方法,所述的方法包括如下步骤:
步骤A、双目相机启动后,照明光与结构光同时投射目标,然后分割目标图像中高反光区域的部分,并进行高反光区域中高反光物体的识别计数;
步骤B、建立高反光区域中高反光物体的中心点或边缘点,在双目相机镜头画面中通过极限约束建立点对关系,三角测距式计算得到高反光区域中高反光物体的深度信息;
步骤C、将高反光区域图像中高反光物体的深度信息,与目标图像其他区域中物体的深度信息融合,然后结合目标图像中物体的二维坐标传输至下位机。
作为优选,进一步的技术方案是:所述目标图像中物体的二维坐标为根据双目相机的镜头预先标定的像素大小,以及镜头之间的物理距离值所确定的X轴与Y轴的值。
更进一步的技术方案是:所述目标图像其他区域中物体的深度信息,为在步骤A中双目相机启动后,识别目标图像中非高反光区域中物体的结构光纹理角点,利用极线约束减少识别计算量,然后建立纹理角点在双目相机镜头画面中的点对关系,再通过所述三角测距公式计算得到。
更进一步的技术方案是:所述三角测距公式为:
式中,Z为深度信息,d为视差,B为双目相机镜头之间的物理距离值,f为双目相机的镜头焦距,x1与xr分别为双目相机镜头图像同名点在左边镜头和右边镜头图像传感器上的位置。
更进一步的技术方案是:所述深度信息融合为将高反光区域图像中高反光物体的深度信息,与目标图像其他区域中物体的深度信息直接重叠在一起,形成当前双目相机采集目标图像的中全部物体的深度信息。
更进一步的技术方案是:所述步骤A中高反光区域中高反光物体的形状为球形。
更进一步的技术方案是:所述步骤A中双目相机所投射的结构光为红外发射器所投射,形成具有结构光纹理的红外结构像。
更进一步的技术方案是:所述的方法在FPGA平台上实现。
与现有技术相比,本发明的有益效果之一是:通过分割出目标图像中高反光区域的部分,并以高反光物体的边缘或区域中心作为特征点建立点对关系,进而获得高反光区域中物体的深度信息,融合目标图像中非高反光区域中物体的深度信息,依次进行目标图像中高反光物体以及非高反光物体的三维坐标配准,进而完成目标的同步实时定位。
附图说明
图1为用于说明本发明一个实施例的方法流程图;
图2为用于说明本发明一个实施例中的三角测距式原理图;
图3为用于说明本发明一个实施例的应用方式框图。
具体实施方式
下面结合附图对本发明作进一步阐述。
参考图1所示,本发明的一个实施例是一种基于主动式双目相机的点云和强反光目标实时定位方法,该方法的实质是在既有结构光RGBD相机原理基础上,利用强反光物体(不局限于球形等)与背景亮度差异,对非高反光物体采用普通结构光纹理配准极线约束求解深度信息的方法,增加对高反光物体利用图像分割,以边缘或区域质心作为特征点对进行配准,再进行单独的深度信息计算,然后再与原图像中的深度信息融合。基于前述的方式,在本实施例中,以反光小球为例对本发明所提供的方法进行说明,其按照如下步骤执行:
步骤S1、双目相机启动后,照明光与结构光同时投射目标,然后分割目标图像中反光小球的部分,并在该部分中进行反光小球的识别与计数;即识别反光球是通过图像分割实现的,反光球在图像中和背景差别很大,通过阈值分割,分出高亮区域,根据连通性判断哪些像素构成反光球整体,就可以判断有几个反光球和各个反光球的质心,一个反光球高亮像素的横纵坐标求平均就可得到质心;
在本步骤中,与现有的同类双目相机相类似,双目相机所投射的结构光为红外发射器所投射,形成具有结构光纹理的红外结构像;
步骤S2、建立反光小球的中心点或边缘点,在双目相机镜头画面中的点对关系,在此处建立点对关系时,选择反光小球的中心点(质心)或者边缘点均可,通过极限约束和三角测距公式计算得到高反光区域中高反光物体的深度信息;前述的点对关系是指同一个物体(或者点)在双目左右两个相机两个画面上的两个点;双目相机两个镜头采集到的两张图片上对应的两个反光球各自的质心就建立了质心点的点对;如果是利用边缘点,建立的就是边缘点对;
步骤S3、将高反光区域图像中高反光物体的深度信息,与目标图像其他区域中物体的深度信息融合,然后结合目标图像中物体的二维坐标一并传输至下位机。
在本步骤中,目标图像中物体的二维坐标为根据双目相机的镜头预先标定的像素大小,以及镜头之间的物理距离值所确定的X轴与Y轴的值。并且前述目标图像其他区域中物体的深度信息,为在步骤A中双目相机启动后,识别目标图像中非高反光区域中物体的结构光纹理角点,然后通过极线约束和角点匹配建立纹理角点在双目相机镜头画面中的点对关系,再通过同样的三角测距式计算得到。
在本实施例中所应用到的极限约束是一种的结构光深度相机常用的减少特征点对匹配算法计算量的方法。极线约束描述的是当同一个点投影到两个不同视角的图像上时,像点、相机光心在投影模型下形成的约束。
在本实施例中所应用到的三角测距法也是一种的结构光深度相机常用的深度信息计算方式,其一个较为典型的式子如下:
其原理如图2所示,对应在上式中,Z为深度信息,d为视差,B为双目相机镜头之间的物理距离值,f为双目相机的镜头焦距,x1与xr分别为在左边镜头和右边镜头图像传感器上的位置。
确切的说,在本实施例中所称的深度信息融合为将高反光区域图像中高反光物体的深度信息,与目标图像其他区域中物体的深度信息直接重叠在一起,形成当前双目相机采集目标图像的中全部物体的深度信息。确切的说,深度信息的融合是指有纹理的地方就用纹理建立点对得到深度信息,无法形成结构光纹理的地方就用质心/边缘求解得到深度信息,两者叠在一起,同时得到有纹理地方的空间信息三维坐标和质心/边缘点三维坐标;因为在应用中双目相机已被标定,即两相机的间距,相机传感器像素大小和镜头等成像参数已经和一定距离上物理空间建立明确关系,在此基础上,求解上述类型的三角测距式可以直接得到三维坐标。
参考图3所示,在本发明的一个较佳应用例中,发明人考虑到现有深度相机主流都是在FPGA平台上实现的深度计算算法,因此上述方法实现的载体采用FPGA S OC平台,具体的模块框图如图3所示,即采用逻辑单元和处理核异步计算方案。计算平台同时为可以为PC机或基于ARM的嵌入式计算机。
需要说明的是,上述的极线约束和三角测距公式其已在本领域中存在应用,故对于上述约束和公式的原理以及求解的方式,不再进行详述。
除上述以外,还需要说明的是,在本说明书中所谈到的“一个实施例”、“另一个实施例”、“实施例”等,指的是结合该实施例描述的具体特征、结构或者特点包括在本申请概括性描述的至少一个实施例中。在说明书中多个地方出现同种表述不是一定指的是同一个实施例。进一步来说,结合任一实施例描述一个具体特征、结构或者特点时,所要主张的是结合其他实施例来实现这种特征、结构或者特点也落在本发明的范围内。
尽管这里参照本发明的多个解释性实施例对本发明进行了描述,但是,应该理解,本领域技术人员可以设计出很多其他的修改和实施方式,这些修改和实施方式将落在本申请公开的原则范围和精神之内。更具体地说,在本申请公开、附图和权利要求的范围内,可以对主题组合布局的组成部件和/或布局进行多种变型和改进。除了对组成部件和/或布局进行的变型和改进外,对于本领域技术人员来说,其他的用途也将是明显的。
Claims (7)
1.一种基于主动式双目相机的点云和强反光目标实时定位方法,其特征在于所述的方法包括如下步骤:
步骤A、双目相机启动后,照明光与结构光同时投射目标,然后分割目标图像中高反光区域的部分,并进行高反光区域中高反光物体的识别计数;
步骤B、建立高反光区域中高反光物体的中心点或边缘点,在双目相机镜头画面中通过极限约束建立点对关系,三角测距公式计算得到高反光区域中高反光物体的深度信息;
步骤C、将高反光区域图像中高反光物体的深度信息,与目标图像其他区域中物体的深度信息融合,然后结合目标图像中物体的二维坐标一并传输至下位机;所述目标图像其他区域中物体的深度信息,为在步骤A中双目相机启动后,识别目标图像中非高反光区域中物体的结构光纹理角点,然后建立纹理角点在双目相机镜头画面中的点对关系,再通过所述三角测距公式计算得到。
2.根据权利要求1所述的基于主动式双目相机的点云和强反光目标实时定位方法,其特征在于:所述步骤C中目标图像中物体的二维坐标为根据双目相机的镜头预先标定的像素大小,以及镜头之间的物理距离值所确定的X轴与Y轴的值。
4.根据权利要求1或2所述的基于主动式双目相机的点云和强反光目标实时定位方法,其特征在于:所述深度信息融合为将高反光区域图像中高反光物体的深度信息,与目标图像其他区域中物体的深度信息直接重叠在一起,形成当前双目相机采集目标图像的中全部物体的深度信息。
5.根据权利要求1或2所述的基于主动式双目相机的点云和强反光目标实时定位方法,其特征在于:所述步骤A中高反光区域中高反光物体的形状为球形。
6.根据权利要求1或2所述的基于主动式双目相机的点云和强反光目标实时定位方法,其特征在于:所述步骤A中双目相机所投射的结构光为红外发射器所投射,形成具有结构光纹理的红外结构像。
7.根据权利要求1或2所述的基于主动式双目相机的点云和强反光目标实时定位方法,其特征在于:所述的方法在FPGA平台上实现。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110375959.3A CN113052898B (zh) | 2021-04-08 | 2021-04-08 | 基于主动式双目相机的点云和强反光目标实时定位方法 |
CN202111263387.6A CN114004880B (zh) | 2021-04-08 | 2021-04-08 | 双目相机的点云和强反光目标实时定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110375959.3A CN113052898B (zh) | 2021-04-08 | 2021-04-08 | 基于主动式双目相机的点云和强反光目标实时定位方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111263387.6A Division CN114004880B (zh) | 2021-04-08 | 2021-04-08 | 双目相机的点云和强反光目标实时定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113052898A CN113052898A (zh) | 2021-06-29 |
CN113052898B true CN113052898B (zh) | 2022-07-12 |
Family
ID=76519395
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110375959.3A Active CN113052898B (zh) | 2021-04-08 | 2021-04-08 | 基于主动式双目相机的点云和强反光目标实时定位方法 |
CN202111263387.6A Active CN114004880B (zh) | 2021-04-08 | 2021-04-08 | 双目相机的点云和强反光目标实时定位方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111263387.6A Active CN114004880B (zh) | 2021-04-08 | 2021-04-08 | 双目相机的点云和强反光目标实时定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN113052898B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471874B (zh) * | 2022-10-28 | 2023-02-07 | 山东新众通信息科技有限公司 | 基于监控视频的施工现场危险行为识别方法 |
CN118115551A (zh) * | 2024-01-04 | 2024-05-31 | 山东卓业医疗科技有限公司 | 一种医学影像病灶的标注提取方法及系统 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088116A (en) * | 1998-03-11 | 2000-07-11 | Pfanstiehl; John | Quality of finish measurement optical instrument |
CN103868460A (zh) * | 2014-03-13 | 2014-06-18 | 桂林电子科技大学 | 基于视差优化算法的双目立体视觉自动测量方法 |
CN104111036A (zh) * | 2013-04-18 | 2014-10-22 | 中国科学院沈阳自动化研究所 | 一种基于双目视觉的镜面物体测量装置及方法 |
CN107123156A (zh) * | 2017-03-10 | 2017-09-01 | 西北工业大学 | 一种与双目立体视觉相结合的主动光源投影三维重构方法 |
CN109978953A (zh) * | 2019-01-22 | 2019-07-05 | 四川大学 | 用于目标三维定位的方法及系统 |
CN111121722A (zh) * | 2019-12-13 | 2020-05-08 | 南京理工大学 | 结合激光点阵和偏振视觉的双目三维成像方法 |
CN111336947A (zh) * | 2020-03-02 | 2020-06-26 | 南昌航空大学 | 一种基于双目点云融合的镜面类物体线激光扫描方法 |
CN111750806A (zh) * | 2020-07-20 | 2020-10-09 | 西安交通大学 | 一种多视角三维测量系统及方法 |
CN111754573A (zh) * | 2020-05-19 | 2020-10-09 | 新拓三维技术(深圳)有限公司 | 一种扫描方法及系统 |
CN111951376A (zh) * | 2020-07-28 | 2020-11-17 | 中国科学院深圳先进技术研究院 | 融合结构光和光度学的三维对象重建方法及终端设备 |
WO2020228217A1 (zh) * | 2019-05-13 | 2020-11-19 | 河北工业大学 | 移乘搬运护理机器人的人体姿态视觉识别方法、存储介质及电子装置 |
CN112053432A (zh) * | 2020-09-15 | 2020-12-08 | 成都贝施美医疗科技股份有限公司 | 一种基于结构光与偏振的双目视觉三维重建方法 |
WO2020259248A1 (zh) * | 2019-06-28 | 2020-12-30 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN112254670A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种基于光扫描和智能视觉融合的3d信息采集设备 |
CN112308014A (zh) * | 2020-11-18 | 2021-02-02 | 成都集思鸣智科技有限公司 | 双眼瞳孔与角膜反光点高速精确搜索定位方法 |
CN112465905A (zh) * | 2019-09-06 | 2021-03-09 | 四川大学华西医院 | 基于深度学习的磁共振成像数据的特征脑区定位方法 |
CN112595262A (zh) * | 2020-12-08 | 2021-04-02 | 广东省科学院智能制造研究所 | 一种基于双目结构光的高反光表面工件深度图像获取方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012054231A2 (en) * | 2010-10-04 | 2012-04-26 | Gerard Dirk Smits | System and method for 3-d projection and enhancements for interactivity |
CN104905764B (zh) * | 2015-06-08 | 2017-09-12 | 四川大学华西医院 | 一种基于fpga的高速视线跟踪方法 |
CN104905765B (zh) * | 2015-06-08 | 2017-01-18 | 四川大学华西医院 | 眼动跟踪中基于CamShift算法的FPGA实现方法 |
CN107948520A (zh) * | 2017-11-30 | 2018-04-20 | 广东欧珀移动通信有限公司 | 图像处理方法和装置 |
CN108470373B (zh) * | 2018-02-14 | 2019-06-04 | 天目爱视(北京)科技有限公司 | 一种基于红外的3d四维数据采集方法及装置 |
CN108564041B (zh) * | 2018-04-17 | 2020-07-24 | 云从科技集团股份有限公司 | 一种基于rgbd相机的人脸检测和修复方法 |
CN110021035B (zh) * | 2019-04-12 | 2020-12-11 | 哈尔滨工业大学 | Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 |
CN110390719B (zh) * | 2019-05-07 | 2023-02-24 | 香港光云科技有限公司 | 基于飞行时间点云重建设备 |
CN110349251B (zh) * | 2019-06-28 | 2020-06-16 | 深圳数位传媒科技有限公司 | 一种基于双目相机的三维重建方法及装置 |
CN110297491A (zh) * | 2019-07-02 | 2019-10-01 | 湖南海森格诺信息技术有限公司 | 基于多个结构光双目ir相机的语义导航方法及其系统 |
CN110533708A (zh) * | 2019-08-28 | 2019-12-03 | 维沃移动通信有限公司 | 一种电子设备及深度信息获取方法 |
CN111028295A (zh) * | 2019-10-23 | 2020-04-17 | 武汉纺织大学 | 一种基于编码结构光和双目的3d成像方法 |
CN111012370A (zh) * | 2019-12-25 | 2020-04-17 | 四川大学华西医院 | 基于ai的x射线成像分析方法、装置及可读存储介质 |
CN111657947B (zh) * | 2020-05-21 | 2022-07-05 | 四川大学华西医院 | 一种神经调控靶区的定位方法 |
CN111950426A (zh) * | 2020-08-06 | 2020-11-17 | 东软睿驰汽车技术(沈阳)有限公司 | 目标检测方法、装置及运载工具 |
-
2021
- 2021-04-08 CN CN202110375959.3A patent/CN113052898B/zh active Active
- 2021-04-08 CN CN202111263387.6A patent/CN114004880B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088116A (en) * | 1998-03-11 | 2000-07-11 | Pfanstiehl; John | Quality of finish measurement optical instrument |
CN104111036A (zh) * | 2013-04-18 | 2014-10-22 | 中国科学院沈阳自动化研究所 | 一种基于双目视觉的镜面物体测量装置及方法 |
CN103868460A (zh) * | 2014-03-13 | 2014-06-18 | 桂林电子科技大学 | 基于视差优化算法的双目立体视觉自动测量方法 |
CN107123156A (zh) * | 2017-03-10 | 2017-09-01 | 西北工业大学 | 一种与双目立体视觉相结合的主动光源投影三维重构方法 |
CN109978953A (zh) * | 2019-01-22 | 2019-07-05 | 四川大学 | 用于目标三维定位的方法及系统 |
WO2020228217A1 (zh) * | 2019-05-13 | 2020-11-19 | 河北工业大学 | 移乘搬运护理机器人的人体姿态视觉识别方法、存储介质及电子装置 |
WO2020259248A1 (zh) * | 2019-06-28 | 2020-12-30 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN112465905A (zh) * | 2019-09-06 | 2021-03-09 | 四川大学华西医院 | 基于深度学习的磁共振成像数据的特征脑区定位方法 |
CN111121722A (zh) * | 2019-12-13 | 2020-05-08 | 南京理工大学 | 结合激光点阵和偏振视觉的双目三维成像方法 |
CN111336947A (zh) * | 2020-03-02 | 2020-06-26 | 南昌航空大学 | 一种基于双目点云融合的镜面类物体线激光扫描方法 |
CN111754573A (zh) * | 2020-05-19 | 2020-10-09 | 新拓三维技术(深圳)有限公司 | 一种扫描方法及系统 |
CN111750806A (zh) * | 2020-07-20 | 2020-10-09 | 西安交通大学 | 一种多视角三维测量系统及方法 |
CN111951376A (zh) * | 2020-07-28 | 2020-11-17 | 中国科学院深圳先进技术研究院 | 融合结构光和光度学的三维对象重建方法及终端设备 |
CN112053432A (zh) * | 2020-09-15 | 2020-12-08 | 成都贝施美医疗科技股份有限公司 | 一种基于结构光与偏振的双目视觉三维重建方法 |
CN112254670A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种基于光扫描和智能视觉融合的3d信息采集设备 |
CN112308014A (zh) * | 2020-11-18 | 2021-02-02 | 成都集思鸣智科技有限公司 | 双眼瞳孔与角膜反光点高速精确搜索定位方法 |
CN112595262A (zh) * | 2020-12-08 | 2021-04-02 | 广东省科学院智能制造研究所 | 一种基于双目结构光的高反光表面工件深度图像获取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113052898A (zh) | 2021-06-29 |
CN114004880A (zh) | 2022-02-01 |
CN114004880B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021077720A1 (zh) | 获取对象三维模型的方法、装置、电子设备及系统 | |
CN110264567B (zh) | 一种基于标记点的实时三维建模方法 | |
CN109816703B (zh) | 一种基于相机标定和icp算法的点云配准方法 | |
US9392262B2 (en) | System and method for 3D reconstruction using multiple multi-channel cameras | |
KR100513055B1 (ko) | 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법 | |
CN113223135B (zh) | 一种基于特殊复合平面镜虚像成像的三维重建装置和方法 | |
US20060210146A1 (en) | Creating 3D images of objects by illuminating with infrared patterns | |
CN113052898B (zh) | 基于主动式双目相机的点云和强反光目标实时定位方法 | |
CN110838164B (zh) | 基于物体点深度的单目图像三维重建方法、系统及装置 | |
CN112053432A (zh) | 一种基于结构光与偏振的双目视觉三维重建方法 | |
EP2870428A1 (en) | 3-d scanning and positioning system | |
CN114998499A (zh) | 一种基于线激光振镜扫描的双目三维重建方法及系统 | |
WO2004044522A1 (ja) | 3次元形状計測方法およびその装置 | |
CN107273846A (zh) | 一种人体体型参数确定方法及装置 | |
KR20160121509A (ko) | 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭 | |
CN108613637A (zh) | 一种基于参考图像的结构光系统解相方法及系统 | |
CN104408762A (zh) | 利用单目和二维平台获取物体图像信息及三维模型的方法 | |
CN112489193B (zh) | 一种基于结构光的三维重建方法 | |
CN110852979A (zh) | 一种基于相位信息匹配的点云配准及融合方法 | |
WO2024032233A1 (zh) | 基于双目视觉的立体摄影测量方法 | |
CN110909571B (zh) | 一种高精度面部识别空间定位方法 | |
Harvent et al. | Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system | |
CN105354828B (zh) | 读写场景中读物三维坐标的智能认定方法及其应用 | |
CN114494582A (zh) | 一种基于视觉感知的三维模型动态更新方法 | |
Chen et al. | A novel 3D reconstruction method with a binocular-line laser system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |