CN117148378B - 一种基于激光器的光学成像系统 - Google Patents
一种基于激光器的光学成像系统 Download PDFInfo
- Publication number
- CN117148378B CN117148378B CN202311112096.6A CN202311112096A CN117148378B CN 117148378 B CN117148378 B CN 117148378B CN 202311112096 A CN202311112096 A CN 202311112096A CN 117148378 B CN117148378 B CN 117148378B
- Authority
- CN
- China
- Prior art keywords
- laser
- distance
- optical imaging
- image
- imaging system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012634 optical imaging Methods 0.000 title claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 7
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 238000003709 image segmentation Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010304 firing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及光学成像技术领域,特别是涉及一种基于激光器的光学成像系统,包括:图像采集设备、激光器、接收器、数据库、处理器和存储有计算机程序的存储器,计算机程序执行时实现使用激光器在t1向Ui发射激光,使用接收器接收从Ui返回的激光,以接收时刻作为t2,计算测距结果di=v*(t2‑t1)/2,计算di和dj之间的距离差dij,根据dij,对{d1,d2,…,di,…,dI}进行聚类处理,得到M个距离集合{C1,C2,…,Cm,…,CM},计算得到参考距离Sm=(∑Nm n=1Cm n)/Nm,计算模糊次数wm=f(Sm),从A中确定Bi的G邻域为图像子区域Li,根据Bi对应的di所属的距离集合,从{w1,w2,…,wm,…,wM}中确定Bi对应的目标模糊次数wm i,使用预设模糊算子对Li进行wm i次卷积处理,得到A对应的仿景深图像P。
Description
技术领域
本发明涉及光学成像技术领域,特别是涉及一种基于激光器的光学成像系统。
背景技术
在成像领域中,深度信息能够有效地为观察者提供三维空间信息,在现有技术中,若需要包含深度信息的图像,通常需要额外进行深度图像的采集,例如采用双目视觉、单目深度估计、结构光等方式。
但是,包含深度信息的图像仅能够在数据层面体现,相较于常规二维图像,在数据层面多了深度通道的图像,以为二维图像中每个像素点提供深度值,而对于观察者而言,仍然无法直接通过图像获取到深度信息。
在二维图像成像时,由于光圈大小、焦距和被摄物距离等相机属性的影响,会使二维图像包含景深信息,景深是指焦点前后的范围内所呈现的清晰图像的距离,在此范围之外,图像会出现模糊的情况,从而能够一定程度上表征出深度信息,但是,在实际采集图像时,往往难以确定合适的相机属性,以得到能够准确表征深度信息的二维图像。
因此,如何生成包含准确景深信息的二维图像,以通过单一二维图像为观察者提供深度感知成为了亟待解决的问题。
发明内容
针对上述技术问题,本发明采用的技术方案为一种基于激光器的光学成像系统,光学成像系统包括:图像采集设备、激光器、接收器、数据库、处理器和存储有计算机程序的存储器,其中,数据库中包括通过图像采集设备采集到的二维图像A以及A中的对象轮廓点集合B={B1,B2,…,Bi,…,BI}、Bi对应的二维图像坐标Ri=(xi,yi)和三维空间坐标Ui=(mi,ni,ki),其中,Bi是指第i个对象轮廓点,i的取值范围为[1,2,…,I],当计算机程序被处理器执行时,实现以下步骤:
S1,使用激光器在第一时间点t1向Ui发射激光。
S2,使用接收器接收从Ui返回的激光,以接收时刻作为第二时间点t2。
S3,计算测距结果di=v*(t2-t1)/2,其中,v为光速。
S4,计算di和dj之间的距离差dij,j的取值范围为[1,2,…,I],i≠j。
S5,根据dij,对{d1,d2,…,di,…,dI}进行聚类处理,得到M个距离集合{C1,C2,…,Cm,…,CM},其中,Cm为第m个距离集合,m的取值范围为[1,2,…,M],Cm={Cm 1,Cm 2,…,Cm n,…,Cm Nm},Cm n为第m个距离集合中的第n个测距结果,n的取值范围为[1,2,…,Nm],Nm为第m个距离集合中的测距结果个数。
S6,计算得到参考距离Sm=(∑Nm n=1Cm n)/Nm。
S7,计算模糊次数wm=f(Sm),其中f(Sm)为模糊次数映射函数,模糊次数映射函数包括参考距离Sm和模糊次数wm之间的映射关系。
S8,从A中确定Bi的G邻域为图像子区域Li。
S9,根据Bi对应的di所属的距离集合,从{w1,w2,…,wm,…,wM}中确定Bi对应的目标模糊次数i
wm。
S10,使用预设模糊算子对Li进行wm i次卷积处理,得到A对应的仿景深图像P。
本发明与现有技术相比具有明显的有益效果,借由上述技术方案,本发明提供的一种基于激光器的光学成像系统可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有以下有益效果:
本发明提供了一种基于激光器的光学成像系统,包括:图像采集设备、激光器、接收器、数据库、处理器和存储有计算机程序的存储器,其中,数据库中包括通过图像采集设备采集到的二维图像A以及A中的对象轮廓点集合B={B1,B2,…,Bi,…,BI}、Bi对应的二维图像坐标Ri=(xi,yi)和三维空间坐标Ui=(mi,ni,ki),其中,Bi是指第i个对象轮廓点,i的取值范围为[1,2,…,I],当计算机程序被处理器执行时,实现以下步骤:使用激光器在第一时间点t1向Ui发射激光,使用接收器接收从Ui返回的激光,以接收时刻作为第二时间点t2,计算测距结果di=v*(t2-t1)/2,计算di和dj之间的距离差dij,根据dij,对{d1,d2,…,di,…,dI}进行聚类处理,得到M个距离集合{C1,C2,…,Cm,…,CM},计算得到参考距离Sm=(∑Nm n=1Cm n)/Nm,计算模糊次数wm=f(Sm),从A中确定Bi的G邻域为图像子区域Li,根据Bi对应的di所属的距离集合,从{w1,w2,…,wm,…,wM}中确定Bi对应的目标模糊次数wm i,使用预设模糊算子对Li进行wm i次卷积处理,得到A对应的仿景深图像P。
可知,以对象轮廓点确定需要进行激光测距的位置,能够以图像中的对象为单位进行距离信息获取,保证了单一对象在二维图像中清晰度的一致性,通过距离聚类得到不同层次的距离集合,进而计算距离集合内各个测距结果的参考距离,根据参考距离映射得到模糊次数,能够根据真实距离确定模糊次数,进而对二维图像按照不同距离进行不同程度的模糊,得到准确符合真实距离的仿景深图像,从而能够通过单一二维图像为观察者提供深度感知。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于激光器的光学成像系统的计算机程序执行的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种基于激光器的光学成像系统,光学成像系统包括:图像采集设备、激光器、接收器、数据库、处理器和存储有计算机程序的存储器,其中,数据库中包括通过图像采集设备采集到的二维图像A以及A中的对象轮廓点集合B={B1,B2,…,Bi,…,BI}、Bi对应的二维图像坐标Ri=(xi,yi)和三维空间坐标Ui=(mi,ni,ki)。
其中,Bi是指第i个对象轮廓点,i的取值范围为[1,2,…,I],图像采集设备可以选用摄像头、摄影机、录影机、手持摄影设备、具有摄影功能的移动设备等,通过图像采集设备可以采集到二维图像A,A中包含若干个识别对象,二维图像坐标Ri=(xi,yi)可以表示Bi在二维图像中的位置信息,xi是指Bi在二维图像坐标系下的X轴坐标,yi是指Bi在二维图像坐标系下的Y轴坐标,三维空间坐标Ui=(mi,ni,ki)可以表示Bi在三维空间内的位置信息,mi是指Bi在三维空间坐标系下的X轴坐标,ni是指Bi在三维空间坐标系下的Y轴坐标,ki是指Bi在三维空间坐标系下的Z轴坐标。
在一种具体的实施方式中,对象轮廓点集合B通过如下步骤获取:
使用实例分割模型对A进行图像分割处理,得到Q个分割区域{γ1,γ2,…,γq,…,γQ},其中,γq为第q个分割区域,q的取值范围为[1,2,…,Q],一分割区域对应一预设对象;
对γq进行轮廓提取,得到轮廓点子集合Eq={Rq 1,Rq 2,…,Rq u,…,Rq Uq},其中,Rq u为γq的第u个轮廓点,u的取值范围为[1,2,…,Uq],Uq为γq的轮廓点总数量;
将{E1,E2,…,Eq,…,EQ}进行集合合并,得到B。
其中,实例分割模型可以用于提取输入的二维图像A的实例分割图像,实例分割图像中每个像素点对应的像素值可以表示出对应像素点所属的预设对象,同一预设对象对应像素点所属的连通域即为分割区域,连通域可以通过连通域分析获取,本实施例中采用八连通域进行分析。实例分割模型可以采用Mask-RCNN模型、PolarMask模型、BlendMask模型等,预设对象可以由实施者根据实际情况自行设置,相应地,实施者需要根据所设置的预设对象对实例分割模型对应的训练样本进行标注并对实例分割模型进行训练,预设对象可以设置为人员对象、车辆对象、树木对象等。
轮廓提取可以采用边缘检测算子实现,边缘检测算子可以为Roberts算子、Prewitt算子、Sobel算子和Laplacian算子等,一分割区域的轮廓提取结果为若干个轮廓点,轮廓点总数量为一分割区域对应轮廓点的统计数量。
在一种具体的实施方式中,所述将{E1,E2,…,Eq,…,EQ}进行集合合并,得到B包括:
将{E1,E2,…,Eq,…,EQ}进行集合合并,得到初始轮廓点集合α={α1,α2,…,αh,…,αH},其中,αh为第h个初始轮廓点,h的取值范围为[1,2,…,H],H为初始轮廓点集合中轮廓点的数量;
从A中提取各个初始轮廓点的空域描述子,得到空域描述子集合β={β1,β2,…,βh,…,βH},其中,βh为αh对应的空域描述子;
计算βδ和βε之间的空域相似度值ηδε,其中,ε的取值范围为[1,2,…,H],δ的取值范围为[ε,ε+1,…,H];
若ηδε大于预设阈值,从α中删除βδ对应的初始轮廓点,得到B。
其中,初始轮廓点可以是指待进行筛选的轮廓点,空域描述子可以用于表示初始轮廓点的空间邻域信息,空域描述子可以选用SIFT、SURF、ORB等特征描述子进行提取。
空域相似度值可以用于表示空域描述子之间的差异程度,空域相似度值的计算可以采用欧式距离、余弦距离、曼哈顿距离等方式实现。
本实施例中,空域相似度值的计算采用余弦距离实现,则空域相似度值的值域为[-1,1],空域相似度值的取值越接近-1,说明空域描述子之间的差异程度越大,空域相似度值的取值越接近1,说明空域描述子之间的差异程度越小,相应地,预设阈值可以由实施者根据实际情况自行设置,在本实施例中,预设阈值设置为0.5。
本实施例通过空域描述子之间的空域相似度值对初始轮廓点集合α中的初始轮廓点进行筛选,以使得轮廓点尽可能少,同时以少量轮廓点有效表征A中预设对象的轮廓信息,从而降低整体成像过程时计算量,同时保证成像质量较高。
在一种具体的实施方式中,所述激光器为窄线宽激光器。
其中,窄线宽激光器可以是指具有低相位噪声和高光谱纯度的单谐振腔模式上振荡的激光器,窄线宽激光器可以选用DFB激光器、DBR激光器等。
当计算机程序被处理器执行时,实现以下步骤:
S1,使用激光器在第一时间点t1向Ui发射激光。
其中,激光器可以用于发射激光,激光是指原子受激辐射的光,第一时间点可以是指激光器发射激光的时间点,第一时间点可以由实施者自行设置。
特别地,根据激光器的数量不同,第一时间点设置的数量不同,若激光器的数量较多,能够采用面阵排布,则多个Ui可以采用同一第一时间点,若激光器的数量单一,则每个Ui可以采用独立的第一时间点,也即Ui对应其独立的第一时间点t1 i。
S2,使用接收器接收从Ui返回的激光,以接收时刻作为第二时间点t2。
其中,接收器可以用于接收发射器所发射的激光被物体反射后的激光,接收时刻可以是指接收到激光的时刻,一激光器对应一接收器。
S3,计算测距结果di=v*(t2-t1)/2。
其中,v为光速,由于激光发射和返回需要经过重复的路程,因此测距结果表示为v*(t2-t1)/2。
S4,计算di和dj之间的距离差dij。
其中,j的取值范围为[1,2,…,I],i≠j,也即计算任两个测距结果之间的距离差。
S5,根据dij,对{d1,d2,…,di,…,dI}进行聚类处理,得到M个距离集合{C1,C2,…,Cm,…,CM}。
其中,Cm为第m个距离集合,m的取值范围为[1,2,…,M],Cm={Cm 1,Cm 2,…,Cm n,…,Cm Nm},Cm n为第m个距离集合中的第n个测距结果,n的取值范围为[1,2,…,Nm],Nm为第m个距离集合中的测距结果个数。
具体地,dij可以表征测距结果之间的差异度量,进而可以采用聚类算法进行聚类处理,以使得差异度量较小的测距结果聚为一类,聚类算法可以采用Kmeans聚类算法、DBSCAN聚类算法、OPTICS聚类算法等。
在一种具体的实施方式中,聚类处理采用DBSCAN聚类算法。
其中,DBSCAN聚类算法需要设置超参数min和maxr,min可以是指单个距离集合中测距结果的最小数量,maxr可以是指单个距离集合中两个测距结果的最大差异度量。
具体地,在本实施例中,min可以根据轮廓点数量I确定,min=I/tr,tr为第一调整系数,可以设置为10。
maxr可以根据距离差dij确定,maxr=∑I i=1∑I j=1dij/(I2-I)。
S6,计算得到参考距离Sm=(∑Nm n=1Cm n)/Nm。
S7,计算模糊次数wm=f(Sm)。
其中,f(Sm)为模糊次数映射函数,模糊次数映射函数包括参考距离Sm和模糊次数wm之间的映射关系。
在一实施方式中,参考距离Sm和模糊次数wm之间的映射关系也可以通过预存储的映射表实现。
在一种具体的实施方式中,f(Sm)具体为:
其中,λ为次数调节参数,以控制模糊次数的最大值max(wm)=λ-1,在本实施例中设置为4,σ为距离调节参数,在本实施例中设置为0.1,对应Sm的量纲为米。
S8,从A中确定Bi的G邻域为图像子区域Li。
其中,G邻域可以用于确定轮廓点的邻域范围,
在一种具体的实施方式中,G邻域设置为八邻域。
其中,图像子区域Li包含Bi在内的九个像素点。
S9,根据Bi对应的di所属的距离集合,从{w1,w2,…,wm,…,wM}中确定Bi对应的目标模糊次数wm i。
其中,根据Bi对应的di所属的距离集合对应的模糊次数作为Bi对应的目标模糊次数wm i 。
S10,使用预设模糊算子对Li进行wm i次卷积处理,得到A对应的仿景深图像P。
其中,模糊算子可以采用高斯滤波、均值滤波、中值滤波、双边滤波等滤波算子实现,使用预设模糊算子对Li进行wm i次卷积处理是指,使用预设模糊算子对Li进行卷积处理,得到卷积处理结果,以预设模糊算子对卷积处理结果再次进行卷积处理,更新卷积处理结果,返回执行以预设模糊算子对卷积处理结果再次进行卷积处理的步骤,直至卷积次数与wm i相同,得到仿景深图像P。
在一种具体的实施方式中,S10步骤中还包括以下步骤:
S101,针对Li,使用预设模糊算子在A中对Li进行wm i次卷积处理,得到模糊图像Pi;
S102,遍历i=[1,2,…,I],得到模糊图像集合{P1,P 2,…,Pi,…,P I};
S103,计算得到仿景深图像P=(∑I i=1Pi)/I。
本实施例中,采用独立卷积处理的方式得到多张模糊图像,再根据多张模糊图像进行均值计算,以避免在一像素点属于多个图像子区域时,对该像素点的模糊处理会根据多个图像子区域的卷积处理顺序而不同,导致仿景深图像P无法稳定输出的情况,提高仿景深图像P输出的准确率。
本实施例中,以对象轮廓点确定需要进行激光测距的位置,能够以图像中的对象为单位进行距离信息获取,保证了单一对象在二维图像中清晰度的一致性,通过距离聚类得到不同层次的距离集合,进而计算距离集合内各个测距结果的参考距离,根据参考距离映射得到模糊次数,能够根据真实距离确定模糊次数,进而对二维图像按照不同距离进行不同程度的模糊,得到准确符合真实距离的仿景深图像,从而能够通过单一二维图像为观察者提供深度感知。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员还应理解,可以对实施例进行多种修改而不脱离本发明的范围和精神。本发明开的范围由所附权利要求来限定。
Claims (8)
1.一种基于激光器的光学成像系统,其特征在于,所述光学成像系统包括:图像采集设备、激光器、接收器、数据库、处理器和存储有计算机程序的存储器,其中,所述数据库中包括通过所述图像采集设备采集到的二维图像A以及A中的对象轮廓点集合B={B1,B2,…,Bi,…,BI}、Bi对应的二维图像坐标Ri=(xi,yi)和三维空间坐标Ui=(mi,ni,ki),其中,Bi是指第i个对象轮廓点,i的取值范围为[1,2,…,I],当所述计算机程序被处理器执行时,实现以下步骤:
S1,使用所述激光器在第一时间点t1向Ui发射激光;
S2,使用所述接收器接收从Ui返回的所述激光,以接收时刻作为第二时间点t2;
S3,计算测距结果di=v*(t2-t1)/2,其中,v为光速;
S4,计算di和dj之间的距离差dij,j的取值范围为[1,2,…,I],i≠j;
S5,根据dij,对{d1,d2,…,di,…,dI}进行聚类处理,得到M个距离集合{C1,C2,…,Cm,…,CM},其中,Cm为第m个距离集合,m的取值范围为[1,2,…,M],Cm={Cm 1,Cm 2,…,Cm n,…,Cm Nm},Cm n为第m个距离集合中的第n个测距结果,n的取值范围为[1,2,…,Nm],Nm为第m个距离集合中的测距结果个数;
S6,计算得到参考距离Sm=(∑Nm n=1Cm n)/Nm;
S7,计算模糊次数wm=f(Sm),其中f(Sm)为模糊次数映射函数,所述模糊次数映射函数包括参考距离Sm和模糊次数wm之间的映射关系;
S8,从A中确定Bi的G邻域为图像子区域Li;
S9,根据Bi对应的di所属的距离集合,从{w1,w2,…,wm,…,wM}中确定Bi对应的目标模糊次数wm i;
S10,使用预设模糊算子对Li进行wm i次卷积处理,得到A对应的仿景深图像P。
2.根据权利要求1所述的基于激光器的光学成像系统,其特征在于,所述对象轮廓点集合B通过如下步骤获取:
使用实例分割模型对A进行图像分割处理,得到Q个分割区域{γ1,γ2,…,γq,…,γQ},其中,γq为第q个分割区域,q的取值范围为[1,2,…,Q],一分割区域对应一预设对象;
对γq进行轮廓提取,得到轮廓点子集合Eq={Rq 1,Rq 2,…,Rq u,…,Rq Uq},其中,Rq u为γq的第u个轮廓点,u的取值范围为[1,2,…,Uq],Uq为γq的轮廓点总数量;
将{E1,E2,…,Eq,…,EQ}进行集合合并,得到B。
3.根据权利要求2所述的基于激光器的光学成像系统,其特征在于,所述将{E1,E2,…,Eq,…,EQ}进行集合合并,得到B包括:
将{E1,E2,…,Eq,…,EQ}进行集合合并,得到初始轮廓点集合α={α1,α2,…,
αh,…,αH},其中,αh为第h个初始轮廓点,h的取值范围为[1,2,…,H],H为初始轮廓点集合中轮廓点的数量;
从A中提取各个初始轮廓点的空域描述子,得到空域描述子集合β={β1,β2,…,βh,…,βH},其中,βh为αh对应的空域描述子;
计算βδ和βε之间的空域相似度值ηδε,其中,ε的取值范围为[1,2,…,H],δ的取值范围为[ε,ε+1,…,H];
若ηδε大于预设阈值,从α中删除βδ对应的初始轮廓点,得到B。
4.根据权利要求1所述的基于激光器的光学成像系统,其特征在于,所述激光器为窄线宽激光器。
5.根据权利要求1所述的基于激光器的光学成像系统,其特征在于,聚类处理采用DBSCAN聚类算法。
6.根据权利要求1所述的基于激光器的光学成像系统,其特征在于,f(Sm)具体为:
其中,λ为次数调节参数,σ为距离调节参数。
7.根据权利要求1所述的基于激光器的光学成像系统,其特征在于,G邻域设置为八邻域。
8.根据权利要求1所述的基于激光器的光学成像系统,其特征在于,S10步骤中还包括以下步骤:
S101,针对Li,使用预设模糊算子在A中对Li进行wm i次卷积处理,得到模糊图像Pi;
S102,遍历i=[1,2,…,I],得到模糊图像集合{P1,P 2,…,Pi,…,PI};
S103,计算得到仿景深图像P=(∑I i=1Pi)/I。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311112096.6A CN117148378B (zh) | 2023-08-30 | 2023-08-30 | 一种基于激光器的光学成像系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311112096.6A CN117148378B (zh) | 2023-08-30 | 2023-08-30 | 一种基于激光器的光学成像系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117148378A CN117148378A (zh) | 2023-12-01 |
CN117148378B true CN117148378B (zh) | 2024-05-10 |
Family
ID=88907422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311112096.6A Active CN117148378B (zh) | 2023-08-30 | 2023-08-30 | 一种基于激光器的光学成像系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117148378B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105495A (zh) * | 2019-11-26 | 2020-05-05 | 四川阿泰因机器人智能装备有限公司 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
CN116245929A (zh) * | 2022-12-20 | 2023-06-09 | 深圳银星智能集团股份有限公司 | 图像处理方法、系统和存储介质 |
CN116342519A (zh) * | 2023-03-10 | 2023-06-27 | 深圳供电局有限公司 | 一种基于机器学习的图像处理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11164051B2 (en) * | 2020-03-10 | 2021-11-02 | GM Cruise Holdings, LLC | Image and LiDAR segmentation for LiDAR-camera calibration |
-
2023
- 2023-08-30 CN CN202311112096.6A patent/CN117148378B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105495A (zh) * | 2019-11-26 | 2020-05-05 | 四川阿泰因机器人智能装备有限公司 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
CN116245929A (zh) * | 2022-12-20 | 2023-06-09 | 深圳银星智能集团股份有限公司 | 图像处理方法、系统和存储介质 |
CN116342519A (zh) * | 2023-03-10 | 2023-06-27 | 深圳供电局有限公司 | 一种基于机器学习的图像处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117148378A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376667B (zh) | 目标检测方法、装置及电子设备 | |
US9478039B1 (en) | Background modeling and foreground extraction method based on depth image | |
US8179393B2 (en) | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment | |
US8754963B2 (en) | Processing images having different focus | |
CN110349117B (zh) | 一种红外图像与可见光图像融合方法、装置及存储介质 | |
US20140253679A1 (en) | Depth measurement quality enhancement | |
CN110599489A (zh) | 一种目标空间定位方法 | |
CN105957106B (zh) | 三维目标跟踪的方法和装置 | |
CN109063549B (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN113362444A (zh) | 点云数据的生成方法、装置、电子设备及存储介质 | |
KR102073468B1 (ko) | 비전 시스템에서 컬러 이미지에 대해 컬러 후보 포즈들의 점수화를 위한 시스템 및 방법 | |
US11651581B2 (en) | System and method for correspondence map determination | |
CN114120176B (zh) | 远红外与可见光视频图像融合的行为分析方法 | |
Kurmi et al. | Pose error reduction for focus enhancement in thermal synthetic aperture visualization | |
CN115937442A (zh) | 基于隐式神经表达的路面重建方法、车辆及存储介质 | |
CN117315210B (zh) | 一种基于立体成像的图像虚化方法及相关装置 | |
CN114519681A (zh) | 自动标定方法及装置、计算机可读存储介质、终端 | |
CN112085752B (zh) | 一种图像的处理方法、装置、设备及介质 | |
CN117148378B (zh) | 一种基于激光器的光学成像系统 | |
CN116977671A (zh) | 基于图像空间定位的目标跟踪方法、装置、设备及存储介质 | |
CN114331919B (zh) | 深度恢复方法、电子设备及存储介质 | |
CN115656991A (zh) | 车辆外参标定方法、装置、设备以及存储介质 | |
CN112907645B (zh) | 视差图获取方法、装置、训练方法、电子设备和介质 | |
CN114283081A (zh) | 基于金字塔加速的深度恢复方法、电子设备及存储介质 | |
CN113379816A (zh) | 结构变动检测方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |