CN116935181B - 一种完全二值散斑嵌入脉宽调制模式三维测量方法 - Google Patents

一种完全二值散斑嵌入脉宽调制模式三维测量方法 Download PDF

Info

Publication number
CN116935181B
CN116935181B CN202311205335.2A CN202311205335A CN116935181B CN 116935181 B CN116935181 B CN 116935181B CN 202311205335 A CN202311205335 A CN 202311205335A CN 116935181 B CN116935181 B CN 116935181B
Authority
CN
China
Prior art keywords
binary
mode
image
parallax
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311205335.2A
Other languages
English (en)
Other versions
CN116935181A (zh
Inventor
左承林
熊浩
魏龙涛
杨升科
易贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Low Speed Aerodynamics Institute of China Aerodynamics Research and Development Center
Original Assignee
Low Speed Aerodynamics Institute of China Aerodynamics Research and Development Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Low Speed Aerodynamics Institute of China Aerodynamics Research and Development Center filed Critical Low Speed Aerodynamics Institute of China Aerodynamics Research and Development Center
Priority to CN202311205335.2A priority Critical patent/CN116935181B/zh
Publication of CN116935181A publication Critical patent/CN116935181A/zh
Application granted granted Critical
Publication of CN116935181B publication Critical patent/CN116935181B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明适用于图像技术领域,提供了一种完全二值散斑嵌入脉宽调制模式三维测量方法,包括:步骤S10:获取脉冲宽度调制模式和二值化数字散斑模式,将两种模式进行融合得到二值模式;采集目标对象在二值模式下的图像,获得二值模式图像;步骤S20:对所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像;步骤S30:根据获得的正弦模式图像,计算获得包裹相位;步骤S40:根据所述二值模式图像,通过多时空相关匹配方法,计算初略视差;步骤S50:根据所述包裹相位和初略视差,计算获得精确亚像素视差图;步骤S60:根据精确亚像素视差图对目标对象进行三维重建。本申请提供的二值模式更适用于目标对象复杂表面情况下的三维测量。

Description

一种完全二值散斑嵌入脉宽调制模式三维测量方法
技术领域
本发明涉及图像技术领域,尤其是涉及一种完全二值散斑嵌入脉宽调制模式三维测量方法。
背景技术
物体有简单的表面,也有复杂的表面,对于复杂的表面,例如金属物体的表面,三维测量难度比较大,对结构光的设计要求极高,致使对物体表面测量的精度难度非常大,主要原因一方面在于物体表面的反射不均匀,反射特性复杂导致采集的图像会出现不一致的光照;另一方面复杂的表面形状,也会导致采集的图像受到光照自照射、复杂的环境干扰。
物体复杂表面的三维测量需要结构光具有更好地区分度,从而实现不均匀光照反射图像的相位信息高精度提取,如进行风洞试验的过程中,需要获取飞行器的表面数据进行测量,来方便后续对飞行器在飞行过程中其他相关数据的研究,但是飞行器表面设计非常复杂,准确的三维数据非常难测量。
现有技术中结构光采用的有正弦条纹结构光、多频相差等方法编码,是通过投影仪模糊得到的标准正弦模式,不能对物体复杂表面的三维数据进行准确测量,不能获得物体表面高精度三维测量数据,使得双目相机中的左右相机中在对物体进行三维重建时不能找到唯一的点进行匹配。
发明内容
本发明的目的是提供一种完全二值散斑嵌入脉宽调制模式三维测量方法,来解决现有技术中存在的上述技术问题,具体内容如下:
本申请提供了一种完全二值散斑嵌入脉宽调制模式三维测量方法,包括如下步骤:
步骤S10:获取脉冲宽度调制模式和二值化数字散斑模式,将所述脉冲宽度调制模式和所述二值化数字散斑模式进行融合得到二值模式;采集目标对象在二值模式下的图像,获得二值模式图像;
步骤S20:对所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像;
步骤S30:根据获得的正弦模式图像,计算获得包裹相位;
步骤S40:根据所述二值模式图像,通过多时空相关匹配方法,计算初略视差;
步骤S50:根据所述包裹相位和初略视差,计算获得精确亚像素视差图;
步骤S60:根据精确亚像素视差图对目标对象进行三维重建。
进一步地,如步骤S10所述的二值模式计算方法如下:
其中,表示的是二值模式;/>表示的是二值化数字散斑模式;/>表示的是脉冲宽度调制模式;/>i表示第i个二值模式。
进一步地,步骤S20中:采用神经网络模型对所述所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像。
进一步地,步骤S30中,计算包裹相位的方法如下:
其中,表示包裹相位,/>表示正弦模式图像。
进一步地,步骤S40包括如下步骤:
步骤S41:对二值模式图像进行极线校正,得到校正图像;
步骤S42:采用空间相关匹配方法分别计算多个校正图像的相关系数;
步骤S43:根据获得的相关系数,采用多时空相关匹配算法,得到多时空相关系数;
步骤S44:根据多时空相关系数,得到初略视差。
进一步地,采用中值滤波器对所述初略视差进行中值滤波。
进一步地,步骤S43包括:获取每个校正图像的相关系数;将每个校正图像的相关系数之间的相乘获得的积作为多时空相关系数。
进一步地,步骤S44中的初略视差计算方法如下:
其中,表示多时空相关系数;/>表示初略视差,/>表示相关系数判断阈值;/>表示未定义的值。
进一步地,步骤S50包括:
步骤S51:对所述包裹相位进行极线校正,得到校正包裹相位;
步骤S52:根据初略视差获取初始匹配范围;
步骤S53:在初始匹配范围内,采用校正包裹相位,计算获得精确亚像素视差图。
本发明相对于现有技术至少具有如下技术效果:
通过本申请提供的完全二值散斑嵌入脉宽调制模式三维测量方法,将脉冲宽度调制模式和二值化数字散斑模式进行融合,其中,脉冲宽度调制模式是二值模式,二值化数字散斑模式是二值模式,融合而成后形成的模式也是二值模式,因此保留了二值模式投影速度快的特点,并且该模式下没有压缩脉宽调制模式和二值化数字散斑模式的动态范围;同时采集的图像也是二值化的,使得具有极强的判断能力,如对于目标对象上的同一个测量点,传统的方法需要进行256中模式来完成识别,二本申请所提供的方法只需要进行0和255两种模式来识别,更加接近天然的适用于目标对象复杂表面情况下的三维测量。
本申请中使用二值模式图像中散斑模式来计算初略视差,本申请提供了多时空相关匹配方法,多时空匹配方法可以消除二值模式中散斑背景周期变化的干扰,更加鲁棒性的计算初略视差。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明中三维测量方法的流程图;
图2(a)是本发明中的第一个二值模式;
图2(b)是本发明中的第一个二值模式;
图2(c)是本发明中的第一个二值模式;
图3是本发明中的初略视差的计算流程图;
图4是本发明中采用三角测量方法进行三维重建示意图。
具体实施方式
以下的说明提供了许多不同的实施例、或是例子,用来实施本发明的不同特征。以下特定例子所描述的元件和排列方式,仅用来精简的表达本发明,其仅作为例子,而并非用以限制本发明。
在下文中将参考附图对本发明的各方面进行更充分的描述。然而,本发明可以具体化成许多不同形式且不应解释为局限于贯穿本发明所呈现的任何特定结构或功能。相反地,提供这些方面将使得本发明周全且完整,并且本发明将给本领域技术人员充分地传达本发明的范围。基于本文所教导的内容,本领域的技术人员应意识到,无论是单独还是结合本发明的任何其它方面实现本文所公开的任何方面,本发明的范围旨在涵盖本文中所公开的任何方面。例如,可以使用本文所提出任意数量的相机或者执行方法来实现。另外,除了本文所提出本发明的多个方面之外,本发明的范围更旨在涵盖使用其它结构、功能或结构和功能来实现的相机或方法。应可理解,其可通过权利要求的一或多个元件具体化本文所公开的任何方面。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
如图1-图4所示,本申请提供了一种完全二值散斑嵌入脉宽调制模式三维测量方法,包括如下步骤:
步骤S10:获取脉冲宽度调制模式和二值化数字散斑模式,将所述脉冲宽度调制模式和所述二值化数字散斑模式进行融合得到二值模式;投影仪在二值模式下通过投影摄像头投射至目标物体上,此时通过采集装置,如双目摄像机采集目标对象在二值模式下的图像,获得二值模式图像;投影一次,拍摄一次,左相机和右相机同时拍,为了后续目标对象在进行三维重建时数据更加的准确,可以对目标对象进行多次不同角度的投影,如,左相机拍三张,右相机拍三张。
需要说明的是,本申请中所说的采集装置可以是手机、摄像机、电脑等,在此不做限制。
所述二值模式可以图像模式,也可以其他非图像模式,本申请中的而是模式采用的是图像模式。
步骤S20:在获得二值模式图像之后,该图像中获得的数据不能用,因此需要对所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像;
步骤S30:根据获得的正弦模式图像,计算获得包裹相位;
步骤S40:根据所述二值模式图像,通过多时空相关匹配方法,计算初略视差;
步骤S50:根据所述包裹相位和初略视差,计算获得精确亚像素视差图;
步骤S60:根据精确亚像素视差图对目标对象进行三维重建。从精确亚像素视差图可以获得目标对象复杂表面高精度的三维数据测量,后续可以采用双目视觉方法对复杂三维表面实现高精度重建。
通过本申请提供的完全二值散斑嵌入脉宽调制模式三维测量方法,将脉冲宽度调制模式和二值化数字散斑模式进行融合,其中,脉冲宽度调制模式是二值模式,二值化数字散斑模式是二值模式,融合而成后形成的模式也是二值模式,因此保留了二值模式投影速度快的特点,并且该模式下没有压缩脉宽调制模式和二值化数字散斑模式的动态范围;同时采集的图像也是二值化的,使得具有极强的判断能力,如对于目标对象上的同一个测量点,传统的方法需要进行256中模式来完成识别,二本申请所提供的方法只需要进行0和255两种模式来识别,更加接近天然的适用于目标对象复杂表面情况下的三维测量。
进一步地,如步骤S10所述的二值模式计算方法如下:
其中,表示的是二值模式;/>表示的是二值化数字散斑模式;表示的是脉冲宽度调制模式;x p 表示测量点在二值模式中的横坐标,x p 表示测量点在二值模式中的列坐标,/>i表示第i个二值模式。
如图2(a)-图2(c)所示,是周期为36的二值模式在三个二值模式下的图像信息。
进一步地,步骤S20中:采用神经网络模型对所述所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像。
上述方案中,当采集了目标对象在二值模式下的二值模式图像之后,当前的数据是不能直接使用的,不能获得有效的三维数据,此时需要一种有效的方法来对二值模式图像进行解耦,本申请中采用一种深度学习的方法来对二值莫斯图像进行解耦,并且同时从二值模式图像中恢复重建高质量的正弦信号,下面是对二值模式图像解耦和正弦模式重建的方法:
本申请中采用的深度学习方法是神经网络模型,神经网络模型中输入二值模式图像表示为,输出的图像是正弦模式图像表示为/>。其中输入神经网路模型的二值模式图像的宽为W,高为H。本申请中提出的神经网络模型由编码通道和解码通道组成,编码通道主要由四个重复的多尺度特征提取模块组合,分别采用的是/>卷积的多尺度特征提取模块,双/>卷积,三/>卷积,多尺度特征提取模块采用跨连接,实现多尺度特征融合。在解码通道上,使用双线性差值算法实现采样,然后使用卷积、批量样本的归一化模块、线性整流函数模块结合实现特征的融合重建。
为了提高神经网络模型的训练能力,首先,需要计算一个有效像素的掩膜,通过掩膜去掉干扰背景区域;然后只使用有效像素来训练神经网络中的网络,减少背景区域对网络训练的干扰,利用相机采集的二值模式图像的掩膜计算方法如下:
其中,表示为掩膜,/>为相机像素坐标系,/>是二值模式图像的平均灰度值;/>是二值模式图像的灰度阈值。
需要说明的是,灰度阈值可以根据不同反射率的物体表面进行动态调整,在获得掩膜后,/>标记的有效像素点将用于神经网络模型训练和三维重建,训练神经网络模型的损失函数/>为:
其中,WH分别表示图像的宽和高,表示深度神经网络的参数,/>为矩阵点乘,/>为L2范式,/>为标签数据。
本申请中通过神经网络模型从二值模式图像中恢复高质量的正弦模式图像,计算方法如下:
其中,表示正弦模式图像的平均灰度值,/>表示二值模式图像的强度。
进一步地,步骤S30中,计算包裹相位的方法如下:
其中,表示包裹相位,/>表示正弦模式图像,包裹相位在范围内具有周期性。
步骤S40:根据所述二值模式图像,通过多时空相关匹配方法,计算初略视差;本申请中使用二值模式图像中散斑模式来计算初略视差,本申请提供了多时空相关匹配方法,多时空匹配方法可以消除二值模式中散斑背景周期变化的干扰,更加鲁棒性的计算初略视差。
进一步地,步骤S40包括如下步骤:
步骤S41:首先,将相机采集的二值模式图像进行极线校正,使得二维搜索的问题简化为一维搜索的问题,分别对左相机和右相机采集的二值模式图像进行极线校正,得到校正图像;
步骤S42:采用空间相关匹配方法分别计算多个校正图像的相关系数;具体地,空间相关匹配方法计算校正图像的相关系数的公式如下:
其中:
其中,和/>分别表示左相机和右相机采集的目标对象的二值模式图像经过经过极线校正后的校正图像;/>和/>为计算相关系数的窗口尺寸,/>为在右相机图像中像素点/>处的视差搜索范围。
步骤S43:根据获得的相关系数,采用多时空相关匹配算法,得到多时空相关系数;
进一步地,步骤S43包括:获取每个校正图像的相关系数;将每个校正图像的相关系数之间的相乘获得的积作为多时空相关系数。
采用多时空相关匹配算法计算多时空相关系数的方法如下:
步骤S44:根据多时空相关系数,得到初略视差。计算多时空相关系数最大值处的/>,可以得到本申请需要的初略视差/>
其中,表示多时空相关系数;/>表示初略视差,表示相关系数判断阈值;/>表示未定义的值。
进一步地,为了进一步消除可能存在的错误匹配的异常点,本申请中采用中值滤波器对所述初略视差进行中值滤波,获得更加准确的测量点。
进一步地,步骤S50包括:
步骤S51:对所述包裹相位进行极线校正,得到校正包裹相位;
步骤S52:根据初略视差获取初始匹配范围;
步骤S53:在初始匹配范围内,采用校正包裹相位,计算获得精确亚像素视差图。
在上述的步骤中,计算获得了包裹相位和初略视差,下面根据包裹相位和初略视差计算获得精确亚像素视差图。具体计算精确亚像素视差图的过程如下:
对包裹相位进行极线校正,获得校正包裹相位,然后在效果包裹相位的阶跃变化区域,将正弦模式图像进行倒置运算,得到移动半个周期的包裹相位,计算过程如下:
通过上式分别计算左相机和右相机移动半个周期的包裹相位和/>,然后计算左相机包裹相位/>在/>方向的一阶偏导数/>,用于判断左相机包裹相位/>的阶跃变化区域。在该区域中,使用包裹相位/>和/>计算最终的精确亚像素视差图,具体计算方法如下:
其中,为初略视差附近的搜索范围,本申请中采用/>,/>为阶跃变化区域的判断范围,本申请中采用/>,/>和/>分别为判断阶跃变化区域的下限和上限阈值,根据理论可知,阶跃变化点的梯度最大值为/>,因此本申请中采用/>和/>,在计算获得相位差/>后,通过最小化包裹相位差,可以获得最佳的匹配点:
其中,为左相机和右相机视图的像素到像素的相关。
通过如下方法计算获得精确亚像素视差图,
其中,为精确亚像素视差图。
步骤S60:根据精确亚像素视差图,采用立体相机标定方法和三角测量方法对目标对象进行三维重建。
通过上述步骤实现了高精度绝对相位的求取,实现了左相机和右相机的同名点匹配,接着就是三维重建,像素坐标系中的每个点都对应着现实坐标系中的一条线,因此可以将位于现实坐标系中的这条线的所有点都投影到图像上,也就是像素坐标系上,若可以在两个或者更多像素坐标系上找到一一对应的点,那么这些对应的点一定是现实坐标系中点x在两像素坐标系上的投影。
现实坐标系的点x穿过相机焦点O 1 O 2 投影到像素坐标系上的对应点y 1 y 2 ,对于已知y 1 y 2 O 1 O 2 ,两条投影直线可以被确定并以此得出有关交点x位置的基本线性代数。
现假设现实坐标系中一点p(X,Y,Z)存在,且在左右相机坐标系中的坐标分别为P1(xl,yl)和P2(xr,yr),f为相机焦距,T为基线长度,则有,
解此方程,可得,
其中为d视差,其值为xl-xr
通过本申请的方法可以实现物体复杂表面三维数据的精确测量,以及精确的三维重建。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种完全二值散斑嵌入脉宽调制模式三维测量方法,其特征在于,包括如下步骤:
步骤S10:获取脉冲宽度调制模式和二值化数字散斑模式,将所述脉冲宽度调制模式和所述二值化数字散斑模式进行融合得到二值模式;采集目标对象在所述二值模式下的图像,获得二值模式图像;
步骤S20:对所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像;
步骤S30:根据获得的所述正弦模式图像,计算获得包裹相位;
步骤S40:根据所述二值模式图像,通过多时空相关匹配方法,计算初略视差;
步骤S50:根据所述包裹相位和所述初略视差,计算获得精确亚像素视差图;
步骤S60:根据所述精确亚像素视差图对目标对象进行三维重建;
步骤S40包括如下步骤:
步骤S41:对所述二值模式图像进行极线校正,得到校正图像;
步骤S42:采用空间相关匹配方法分别计算多个所述校正图像的相关系数;
步骤S43:根据获得的所述相关系数,采用多时空相关匹配算法,得到多时空相关系数;
步骤S44:根据所述多时空相关系数,得到初略视差;
步骤S43包括:获取每个所述校正图像的相关系数;将每个所述校正图像的相关系数之间的相乘获得的积作为多时空相关系数;
步骤S44中的初略视差计算方法如下:
其中,表示多时空相关系数;/>表示初略视差,/>表示相关系数判断阈值;/>表示未定义的值,x c 表示的测量点在相机像素中的横坐标;y c 表示的测量点在相机像素中的横坐标。
2.如权利要求1所述的三维测量方法,其特征在于,如步骤S10所述的二值模式计算方法如下:
其中,表示的是二值模式;/>表示的是二值化数字散斑模式;/>表示的是脉冲宽度调制模式;x p 表示的测量点在二值模式中的横坐标;y p 表示的测量点在二值模式中的列坐标;/>i表示第i个二值模式。
3.如权利要求1所述的三维测量方法,其特征在于,步骤S20中:采用神经网络模型对所述所述二值模式图像进行解耦和正弦模式重建,得到正弦模式图像。
4.如权利要求1所述的三维测量方法,其特征在于,步骤S30中,计算包裹相位的方法如下:
其中,表示包裹相位,/>表示正弦模式图像;x c 表示的测量点在相机像素中的横坐标;y c 表示的测量点在相机像素中的横坐标。
5.如权利要求1所述的三维测量方法,其特征在于,采用中值滤波器对所述初略视差进行中值滤波。
6.如权利要求1所述的三维测量方法,其特征在于,步骤S50包括:
步骤S51:对所述包裹相位进行极线校正,得到校正包裹相位;
步骤S52:根据所述初略视差获取初始匹配范围;
步骤S53:在所述初始匹配范围内,采用所述校正包裹相位,计算获得精确亚像素视差图。
CN202311205335.2A 2023-09-19 2023-09-19 一种完全二值散斑嵌入脉宽调制模式三维测量方法 Active CN116935181B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311205335.2A CN116935181B (zh) 2023-09-19 2023-09-19 一种完全二值散斑嵌入脉宽调制模式三维测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311205335.2A CN116935181B (zh) 2023-09-19 2023-09-19 一种完全二值散斑嵌入脉宽调制模式三维测量方法

Publications (2)

Publication Number Publication Date
CN116935181A CN116935181A (zh) 2023-10-24
CN116935181B true CN116935181B (zh) 2023-11-28

Family

ID=88386538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311205335.2A Active CN116935181B (zh) 2023-09-19 2023-09-19 一种完全二值散斑嵌入脉宽调制模式三维测量方法

Country Status (1)

Country Link
CN (1) CN116935181B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107044833A (zh) * 2017-03-24 2017-08-15 南京理工大学 一种基于改进的傅立叶变换轮廓技术的超快三维形貌测量方法及其系统
CN108875741A (zh) * 2018-06-15 2018-11-23 哈尔滨工程大学 一种基于多尺度模糊的声学图像纹理特征提取方法
CN110044304A (zh) * 2019-04-28 2019-07-23 航天智造(上海)科技有限责任公司 用于三维结构光重建的三步相移方法
CN110132173A (zh) * 2019-04-28 2019-08-16 航天智造(上海)科技有限责任公司 基于区域调制相移模板的高精度三维结构光重建方法
CN111473744A (zh) * 2020-06-03 2020-07-31 北京航空航天大学 一种基于散斑嵌入相移条纹的三维形貌视觉测量方法及系统
CN111563952A (zh) * 2020-03-30 2020-08-21 北京理工大学 基于相位信息与空间纹理特征实现立体匹配方法及系统
CN111563564A (zh) * 2020-07-20 2020-08-21 南京理工大学智能计算成像研究院有限公司 基于深度学习的散斑图像逐像素匹配方法
CN112595263A (zh) * 2020-12-17 2021-04-02 天津大学 正弦光栅与散斑混合图案投影的双目视觉三维点云重建测量方法
CN113137939A (zh) * 2021-05-19 2021-07-20 东南大学 基于二值特征模式匹配的解包裹方法
CN114111637A (zh) * 2021-11-25 2022-03-01 天津工业大学 一种基于虚拟双目的条纹结构光三维重建方法
CN114332373A (zh) * 2021-12-29 2022-04-12 华侨大学 一种克服继电器金属表面反光的磁路落差检测方法及系统
CN115063469A (zh) * 2022-06-27 2022-09-16 南京理工大学 基于多帧散斑的时空立体匹配方法
CN116592792A (zh) * 2023-04-06 2023-08-15 四川大学 一种使用散斑辅助相对相位立体匹配的测量方法和系统

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107044833A (zh) * 2017-03-24 2017-08-15 南京理工大学 一种基于改进的傅立叶变换轮廓技术的超快三维形貌测量方法及其系统
WO2018171385A1 (zh) * 2017-03-24 2018-09-27 南京理工大学 一种基于改进的傅立叶变换轮廓技术的超快三维形貌测量方法及其系统
CN108875741A (zh) * 2018-06-15 2018-11-23 哈尔滨工程大学 一种基于多尺度模糊的声学图像纹理特征提取方法
CN110044304A (zh) * 2019-04-28 2019-07-23 航天智造(上海)科技有限责任公司 用于三维结构光重建的三步相移方法
CN110132173A (zh) * 2019-04-28 2019-08-16 航天智造(上海)科技有限责任公司 基于区域调制相移模板的高精度三维结构光重建方法
CN111563952A (zh) * 2020-03-30 2020-08-21 北京理工大学 基于相位信息与空间纹理特征实现立体匹配方法及系统
CN111473744A (zh) * 2020-06-03 2020-07-31 北京航空航天大学 一种基于散斑嵌入相移条纹的三维形貌视觉测量方法及系统
CN111563564A (zh) * 2020-07-20 2020-08-21 南京理工大学智能计算成像研究院有限公司 基于深度学习的散斑图像逐像素匹配方法
CN112595263A (zh) * 2020-12-17 2021-04-02 天津大学 正弦光栅与散斑混合图案投影的双目视觉三维点云重建测量方法
CN113137939A (zh) * 2021-05-19 2021-07-20 东南大学 基于二值特征模式匹配的解包裹方法
CN114111637A (zh) * 2021-11-25 2022-03-01 天津工业大学 一种基于虚拟双目的条纹结构光三维重建方法
CN114332373A (zh) * 2021-12-29 2022-04-12 华侨大学 一种克服继电器金属表面反光的磁路落差检测方法及系统
CN115063469A (zh) * 2022-06-27 2022-09-16 南京理工大学 基于多帧散斑的时空立体匹配方法
CN116592792A (zh) * 2023-04-06 2023-08-15 四川大学 一种使用散斑辅助相对相位立体匹配的测量方法和系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Fast 3D Surface Measurement with Wrapped Phase and Pseudorandom Image;Xing Liu 等;《sensors》;1-12 *
三维冰形激光测量技术在结冰风洞中的应用;魏龙涛 等;《航空动力学报》;1-11 *
基于二值条纹的快速高精度三维成像系统的研究;查善盼 等;《合肥工业大学学报(自然科学版)》;第45卷(第7期);925-930 *
基于双目远心结构光的三维重建技术研究;周勇;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;I138-3155 *
时栅位移传感器在构造场中的耦合特性研究;杨继森 等;《仪器仪表学报》;第44卷(第5期);249-259 *

Also Published As

Publication number Publication date
CN116935181A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
CN110276808B (zh) 一种单相机结合二维码测量玻璃板不平度的方法
US11783457B2 (en) Multispectral camera dynamic stereo calibration algorithm based on saliency features
US8064687B2 (en) Fine stereoscopic image matching and dedicated instrument having a low stereoscopic coefficient
CN103868524A (zh) 一种基于散斑图案的单目测量系统标定方法及装置
CN105823416A (zh) 多相机测量物体的方法和装置
KR20170063953A (ko) 이미지 처리 방법 및 장치
CN109631796B (zh) 一种基于二维s变换取脊方法的三维面形垂直测量方法
CN107564091A (zh) 一种基于快速对应点搜索的三维重建方法及装置
US20150104097A1 (en) Image processing apparatus and image processing method
CN116129037B (zh) 视触觉传感器及其三维重建方法、系统、设备及存储介质
CN114792345B (zh) 一种基于单目结构光系统的标定方法
CN103905746A (zh) 亚像素级图像偏移定位及叠加方法和装置以及视频设备
CN116188558B (zh) 基于双目视觉的立体摄影测量方法
CN111462246B (zh) 一种结构光测量系统的设备标定方法
CN102903078B (zh) 一种基于多分辨率傅里叶分析理论的运动模糊图像参数估计方法
CN109443250B (zh) 一种基于s变换的结构光三维面形垂直测量方法
CA3206206A1 (en) Device and method for correspondence analysis in images
JP2018179577A (ja) 位置計測装置
CN107941241B (zh) 一种用于航空摄影测量质量评价的分辨率板及其使用方法
CN116935181B (zh) 一种完全二值散斑嵌入脉宽调制模式三维测量方法
CN109373901B (zh) 位于平面上的孔的中心位置的计算方法
CN115546285B (zh) 基于点扩散函数解算的大景深条纹投影三维测量方法
CN111080716A (zh) 基于彩色编码相移条纹的相机标定靶标及标定点提取方法
CN116205961A (zh) 多镜头组合影像和激光雷达点云的自动配准方法及其系统
CN113160393B (zh) 基于大景深的高精度三维重建方法、装置及其相关组件

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant