CN117689859A - 一种高精度的视觉对位方法、装置、设备及存储介质 - Google Patents

一种高精度的视觉对位方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117689859A
CN117689859A CN202410150883.8A CN202410150883A CN117689859A CN 117689859 A CN117689859 A CN 117689859A CN 202410150883 A CN202410150883 A CN 202410150883A CN 117689859 A CN117689859 A CN 117689859A
Authority
CN
China
Prior art keywords
sensor array
target
unit
recording
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410150883.8A
Other languages
English (en)
Other versions
CN117689859B (zh
Inventor
王后方
罗祥祝
黎伟权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Shuangyi Photoelectric Technology Co ltd
Original Assignee
Shenzhen Shuangyi Photoelectric Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Shuangyi Photoelectric Technology Co ltd filed Critical Shenzhen Shuangyi Photoelectric Technology Co ltd
Priority to CN202410150883.8A priority Critical patent/CN117689859B/zh
Publication of CN117689859A publication Critical patent/CN117689859A/zh
Application granted granted Critical
Publication of CN117689859B publication Critical patent/CN117689859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及视觉对位的技术领域,公开了一种高精度的视觉对位方法、装置、设备及存储介质;本发明通过视觉传感器阵列和对位装置,对目标单位进行单一视角观察图像与实际距离的获取,并以此构建出目标单位的实际目标模型,通过实际目标模型与理论目标模型的比对,来进行视觉传感器阵列与目标单位的基础调整参数的测试与计算,根据基础调整参数对视觉传感器阵列的对位移动进行调节以避免移动带来的差异,解决了现有技术中在对位过程中存在微小程度的偏移,导致对接精度下降的问题。

Description

一种高精度的视觉对位方法、装置、设备及存储介质
技术领域
本发明涉及视觉对位技术领域,尤其是一种高精度的视觉对位方法、装置、设备及存储介质。
背景技术
视觉对位技术,是一种基于机器视觉对工业机器进行运动控制的技术,主要用于各类自动化生产中。
在现有技术中,可以通过视觉传感器对目标进行视觉观察,以采集目标的图像,并根据图像来控制运动以实现对位,更为具体地,是预先对准待对位的两个物件,并驱动两个物件进行对接,在这种方式的对接过程中,会放大两个物件之间的对位差异,令物件的位置会发生微小程度的偏移,这个偏移会导致对接精度的下降。
发明内容
本发明的目的在于提供一种高精度的视觉对位方法、装置、设备及存储介质,旨在解决现有技术中在对位过程中存在微小程度的偏移,导致对接精度下降的问题。
本发明是这样实现的,第一方面,本发明提供一种高精度的视觉对位方法,包括:
通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础;所述视觉传感器阵列设置在对位装置上,所述视觉传感器阵列包括待对位单位和若干视觉传感器;
根据对位装置的设定参数获取所述视觉传感器阵列与所述目标单位的实际距离,根据所述实际距离与所述理论模型基础获取所述目标单位的理论目标模型;
获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型;
通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;
驱动所述视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第三记录位置;
将所述第一记录位置与所述第二记录位置之间的距离记录为第一检测距离,将所述第三记录位置与所述第二记录位置之间的距离记录为第一调整距离,根据所述第一检测距离与所述第一调整距离生成基础调整参数,并根据所述基础调整参数驱动所述视觉传感器阵列进行对位。
优选地,通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础的步骤包括:
调整所述视觉传感器阵列与所述目标单位的位置关系,令所述待对位单位与所述目标单位初步对位;
通过所述视觉传感器阵列中的若干视觉传感器,分别对所述目标单位进行图像采集,以生成若干所述单一视角观测图像;
对若干所述单一视角观测图像分别进行特征提取,获取若干目标单位视角特征,并将各个所述目标单位视角特征进行结合,以获取所述目标单位的特征集合;
根据所述特征集合对所述目标单位进行识别,以获取所述目标单位的识别信息,并根据所述识别信息从数据库中调取对应的所述理论模型基础。
优选地,获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型的步骤包括:
根据所述视觉传感器阵列中各视觉传感器的相对位置特征分布获取所述视觉传感器与所述待对位单位之间的相对位置关系,并生成第一模型参数;
根据所述实际距离生成第二模型参数;
构建所述实际目标模型的基础参数轴;所述基础参数轴包括方位参数轴和角度参数轴;
根据所述第一模型参数决定所述单一视角观测图像在所述方位参数轴上的位置,根据所述第二模型参数决定所述单一视角观测图像在所述角度参数轴上的位置,以实现各个所述单一视角观测图像在所述基础参数轴的结合,以获取所述实际目标模型。
优选地,通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置的步骤包括:
将所述实际目标模型与所述理论目标模型对比,计算所述实际目标模型中各部分与所述理论目标模型的近似程度,并选取具有最高近似程度的所述理论目标模型的部分计算所述实际目标模型与所述理论目标模型的偏差数值;
根据所述偏差数值对所述视觉传感器阵列进行调整,并重复上述步骤以获取所述视觉传感器阵列的所述实际目标模型与所述理论目标模型的偏差数值;
若所述偏差数值未达到预定标准时,则根据所述偏差数值对所述视觉传感器阵列再次进行调整;
若所述偏差数值达到预定标准时,则将该位置记录为第一记录位置。
优选地,在获取所述基础调整参数后,可以通过重复驱动所述视觉传感器阵列相对目标单位的移动,根据所述基础调整参数的获取步骤获取若干后续调整参数,所述后续调整参数用于对所述基础调整参数进行优化,其步骤包括:
令所述视觉传感器阵列回复至所述第一记录位置;
驱动所述视觉传感器阵列相对所述目标单位移动,并将移动后的位置记录为第四记录位置,获取所述视觉传感器阵列处于所述第四记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第四记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第五记录位置;
将所述第一记录位置与所述第四记录位置之间的距离记录为第二检测距离,将所述第五记录位置与所述第四记录位置之间的距离记录为第二调整距离,根据所述第二检测距离与所述第二调整距离生成后续调整参数。
第二方面,本发明一种高精度的视觉对位装置,包括:
图像采集单元,用于通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础;所述视觉传感器阵列包括待对位单位和若干视觉传感器;
距离测量单元,用于根据对位装置的设定参数获取所述视觉传感器阵列与所述目标单位的实际距离,根据所述实际距离与所述理论模型基础获取所述目标单位的理论目标模型;
模型生成单元,用于获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型;
初步对位单元,用于通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;
移动测试单元,用于驱动所述视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第三记录位置;
参数计算单元,用于将所述第一记录位置与所述第二记录位置之间的距离记录为第一检测距离,将所述第三记录位置与所述第二记录位置之间的距离记录为第一调整距离,根据所述第一检测距离与所述第一调整距离生成基础调整参数,并根据所述基础调整参数驱动所述视觉传感器阵列进行对位。
第三方面,本发明提供一种高精度的视觉对位设备,包括存储器和运行器,所述存储器用于存储实现第一方面任意一项所述的一种高精度的视觉对位方法的计算机程序,所述运行器用于驱动所述存储器运行所述计算机程序。
第四方面,本发明提供一种高精度的视觉对位存储介质,用于存储计算机程序,所述计算机程序用于实现第一方面任意一项所述的一种高精度的视觉对位方法。
本发明提供了一种高精度的视觉对位方法,具有以下有益效果:
本发明通过视觉传感器阵列和激光测距传感器,对目标单位进行单一视角观察图像与实际距离的获取,并以此构建出目标单位的实际目标模型,通过实际目标模型与理论目标模型的比对,来进行视觉传感器阵列与目标单位的基础调整参数的测试与计算,根据基础调整参数对视觉传感器阵列的对位移动进行调节以避免移动带来的差异,解决了现有技术中在对位过程中存在微小程度的偏移,导致对接精度下降的问题。
附图说明
图1是本发明实施例提供的一种高精度的视觉对位方法的步骤示意图;
图2是本发明实施例提供的一种高精度的视觉对位装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
以下结合具体实施例对本发明的实现进行详细的描述。
参照图1所示,为本发明提供较佳实施例。
第一方面,本发明提供一种高精度的视觉对位方法,包括:
S1:通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础;所述视觉传感器阵列设置在对位装置上,所述视觉传感器阵列包括待对位单位和若干视觉传感器;
S2:根据对位装置的设定参数获取所述视觉传感器阵列与所述目标单位的实际距离,根据所述实际距离与所述理论模型基础获取所述目标单位的理论目标模型;
S3:获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型;
S4:通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;
S5:驱动所述视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第三记录位置;
S6:将所述第一记录位置与所述第二记录位置之间的距离记录为第一检测距离,将所述第三记录位置与所述第二记录位置之间的距离记录为第一调整距离,根据所述第一检测距离与所述第一调整距离生成基础调整参数,并根据所述基础调整参数驱动所述视觉传感器阵列进行对位。
具体地,视觉传感器阵列包括待对位单位和若干视觉传感器,其中,若干视觉传感器环绕待对位单位设置,可以理解的是,待对位单位用于与目标单位进行对位,而若干视觉传感器用于对目标单位进行图像采集。
可以理解的是,当视觉传感器与待对位单位之间的距离固定时,且视觉传感器与目标单位之间的距离固定时,由视觉传感器获取的目标单位的图像也是固定的。
基于上述的论述,不难看出,可以通过对图像的采集与对比,来获取视觉传感器阵列与目标单位之间的对位差异,也就是待对位单位与目标单位之间的对位差异,根据对位差异对传感器阵列进行调整,以使得传感器阵列中的待对位阵列与目标单位实现精准对位。
更具体地,在本发明提供的实施例中,通过视觉传感器阵列对目标单位进行图像采集,从而构建出目标单位的实际目标模型,并将目标单位的实际目标模型与目标单位的理论目标模型进行对比,从而获取待对位单位与目标单位的对位差异。
更具体地,目标单位的理论目标模型需要根据目标单位的具体数据进行预先构建,并存储于数据库中以待调用;需要说明的是,目标单位的理论目标模型是根据目标单位的具体数据,构建出的目标单位的虚拟模型,以推算得出在与待对位单位精准对位时,目标单位在不同距离下被视觉传感器阵列获取到的理论图像。
可以理解的是,当视觉传感器阵列与目标单位精准对位时,视觉传感器阵列与目标单位的距离会影响视觉传感器阵列获取到的图像,因此上述的理论目标模型并非是单纯的几幅图像,而是一个完整的跟随距离变化而进行相应变化的图像集合;需要注意的是,这一技术特点决定了可以在不同距离下进行实际目标模型与理论目标模型的对比。
更具体地,目标单位的实际目标模型是视觉传感器阵列实际获取的目标模型,可以理解的是,实际目标模型受到两个要素的影响:视觉传感器阵列与目标单位的对位差异,和视觉传感器阵列与目标单位的实际距离,也就是说,当视觉传感器阵列与目标单位对位精准时,视觉传感器阵列与目标单位之间的实际距离将决定实际目标模型。
更具体地,在视觉传感器阵列中,若干视觉传感器环绕待对位单位设置,每个视觉传感器均可以采集目标单位的一个单一视角观测图像,可以理解的是,视觉传感器阵列中的待对位单位与目标单位精准对位,视觉传感器与待对位单位的相对位置会影响视觉传感器获取的目标单位的图像,因此在将各个视觉传感器采集的目标单位图像整合生成实际目标模型时,需要预先获取各个视觉传感器相对待对位单位的相对位置关系,在本发明中将其称为相对位置特征分布,根据相对位置特征分布可以将各个单一视角观测图像进行结合,以生成目标单位的实际目标模型。
更具体地,在本发明提供的实施例中,视觉传感器阵列设置在对位装置上,对位装置是用于实现视觉对位方法的装置,其需要实现的结构功能包括装载视觉传感器阵列和目标单位,并驱动视觉传感器阵列与目标单位进行对位;需要说明的是,对位装置可以驱动视觉传感器阵列相对目标单位的移动,在这个驱动的过程中,对位装置上的视觉传感器阵列与目标单位的距离是随着对位装置的驱动而变化的,因此通过对位装置对驱动过程的设定参数可以获取视觉传感器阵列与目标单位之间的实际距离。
更具体地,通过实际目标模型与理想目标模型的对比与调整,可以令待对位单位与目标单位实现初步的精准对位。
需要说明的是,在传统的视觉对位中,实现对位一般分为两个步骤,第一步通过视觉传感器将待对位单位与目标单位对准,第二步驱动待对位单位与目标单位互相抵接实现对位;在第二步中的驱动会放大第一步中的对位差异,从而令待对位单位与目标单位对位时产生了微小的差异。
为了避免上述的对位差异,本发明采用了对驱动过程进行多次差异采集与差异调整,并据此生成调整参数对对位进行控制以避免对位过程中带来的差异。
具体地,通过实际目标模型与理论目标模型的对比,对视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;可以理解的是,这里的第一记录位置是一个初始位置,在第一记录位置时待对位单位与目标单位处于初步精准对位的状态,用于与后续的位置进行比对,以判断驱动过程中产生的对位差异。
更具体地,驱动视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取视觉传感器阵列处于第二记录位置时目标单位的实际目标模型和理论目标模型,并根据实际目标模型和理论目标模型对视觉传感器阵列进行调整,将调整后的位置记录为第三记录位置,将第一记录位置与第二记录位置之间的距离记录为第一检测距离,将第三记录位置与第二记录位置之间的距离记录为第一调整距离,根据第一检测距离与第一调整距离生成基础调整参数。
可以理解的是,当视觉传感器阵列相对目标单位移动第一检测距离时,产生的对位差异为第一调整距离,根据第一检测距离和第一调整距离生成的基础调整参数代表着驱动视觉传感器阵列进行移动时,需要如何对视觉传感器进行调整,以避免对位差异。
更具体地,第一调整距离代表着当视觉传感器阵列移动第一检测距离时视觉传感器阵列所需要进行的位置调整,根据第一调整距离和第一检测距离进行等比例的放大缩小,即可以获得视觉传感器阵列在不同的检测距离下应当进行的位置调整,这就是视觉传感器阵列的基础调整参数。
本发明提供了一种高精度的视觉对位方法,具有以下有益效果:
本发明通过视觉传感器阵列和对位装置,对目标单位进行单一视角观察图像与实际距离的获取,并以此构建出目标单位的实际目标模型,通过实际目标模型与理论目标模型的比对,来进行视觉传感器阵列与目标单位的基础调整参数的测试与计算,根据基础调整参数对视觉传感器阵列的对位移动进行调节以避免移动带来的差异,解决了现有技术中在对位过程中存在微小程度的偏移,导致对接精度下降的问题。
优选地,通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础的步骤包括:
S11:调整所述视觉传感器阵列与所述目标单位的位置关系,令所述待对位单位与所述目标单位初步对位;
S12:通过所述视觉传感器阵列中的若干视觉传感器,分别对所述目标单位进行图像采集,以生成若干所述单一视角观测图像;
S13:对若干所述单一视角观测图像分别进行特征提取,获取若干目标单位视角特征,并将各个所述目标单位视角特征进行结合,以获取所述目标单位的特征集合;
S14:根据所述特征集合对所述目标单位进行识别,以获取所述目标单位的识别信息,并根据所述识别信息从数据库中调取对应的所述理论模型基础。
具体地,待对位单位与目标单位的对位是通过机械结构来实现控制的,因此待对位单位与目标单位的初步对位可以通过机械结构来实现,也就是说获取目标单位的坐标位置,通过机械结构调整待对位单位及周边视觉传感器的位置,即可实现对视觉传感器阵列的调整。
需要说明的是,初步对位并非是精准的对位,只是一个大致的对位,之后会通过视觉传感器阵列中的若干视觉传感器分别对目标单位进行图像采集,以生成若干单一视角观测图像,单一视角观测图像是单一的一个视觉传感器对目标单位获取的图像,由于各个视角传感器与待对位单位的相对位置不同,因此每个视觉传感器获得的单一视角观测图像也是不同的。
更具体地,在这一步骤中,需要根据单一视角观测图像对目标单位进行识别,以从预设数据库中调取对应目标单位的理论模型基础,为此,需要对各个单一视角观测图像分别进行特征提取,获取若干目标单位视角特征,并将各个目标单位视角特征进行结合,以获取目标单位的特征集合,并根据特征集合对目标单位进行识别。
更具体地,目标单位的理论模型基础是预先建立并存储于数据库的,而理论模型基础是一种基于观察距离的变化而给出不同的理论观察图像的模型,因此其可以提供图像特征与特征集合进行对比,从而给出目标单位的识别信息。
更具体地,在一些特殊的情况下,目标单位与待对位单位的种类仅为一个,此时则可以跳过比对步骤直接进行对位。
优选地,获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型的步骤包括:
S31:根据所述视觉传感器阵列中各视觉传感器的相对位置特征分布获取所述视觉传感器与所述待对位单位之间的相对位置关系,并生成第一模型参数;
S32:根据所述实际距离生成第二模型参数;
S33:构建所述实际目标模型的基础参数轴;所述基础参数轴包括方位参数轴和角度参数轴;
S34:根据所述第一模型参数决定所述单一视角观测图像在所述方位参数轴上的位置,根据所述第二模型参数决定所述单一视角观测图像在所述角度参数轴上的位置,以实现各个所述单一视角观测图像在所述基础参数轴的结合,以获取所述实际目标模型。
具体地,在视觉传感器阵列中,各个视觉传感器环绕待对位单位设置,也就是说各个视觉传感器均与待对位单位保持着一定的相对位置,这个相对位置会影响视觉传感器对目标单位的图像获取,因此视觉传感器与待对位单位之间的相对位置关系会被记录为第一模型参数。
更具体地,视觉传感器阵列与目标单位之间的实际距离也会对视觉传感器获取图像造成影响,因此将实际距离记录为第二模型参数。
更具体地,根据第一模型参数和第二模型参数对各个单一视角观测图像进行集合,以获取实际目标模型。
更具体地,基础参数轴是用于整合拼接各个单一视角观测图像,以生成实际目标模型的空间轴坐标体系;基础参数轴包括方位参数轴和角度参数轴。
更具体地,方位参数轴代表着各个单一视角观测图像之间位置关系,例如:待对位单位上方的视觉传感器获取的单一视角观测图像在整合时也会处于上方,因此根据第一模型参数可以决定单一视角观测图像在方位参数轴上的位置。
更具体地,角度参数轴代表着单一视角观测图像在其方位上的倾斜角度,由于视觉传感器阵列与目标单位保持着一定距离,当这个距离变化时,视觉传感器与目标单位之间的角度也会存在变化,这个变化将体现在获取的单一视角观测图像上,因此第二模型参数可以决定单一视角观测图像在角度参数轴上的位置,以控制单一视角观测图像的倾斜程度。
更具体地,不同方位的单一视角观测图像在同一距离的情况下,倾斜程度一致但倾斜方向根据方位的不同会存在差异。
优选地,通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置的步骤包括:
S41:将所述实际目标模型与所述理论目标模型对比,计算所述实际目标模型中各部分与所述理论目标模型的近似程度,并选取具有最高近似程度的所述理论目标模型的部分计算所述实际目标模型与所述理论目标模型的偏差数值;
S42:根据所述偏差数值对所述视觉传感器阵列进行调整,并重复上述步骤以获取所述视觉传感器阵列的所述实际目标模型与所述理论目标模型的偏差数值;
S43:若所述偏差数值未达到预定标准时,则根据所述偏差数值对所述视觉传感器阵列再次进行调整;
S44:若所述偏差数值达到预定标准时,则将该位置记录为第一记录位置。
具体地,实际目标模型中各部分与理论目标模型中对应部分之间的差异是不同的,这是由于图像获取的角度决定的:当待对位单位与目标单位存在对位差异时,一些视觉传感器能够获取到原本应该获取到的图像,以及更多的图像,而一些视觉传感器无法获取到原本应该获取到的图像。
更具体地,通过对实际目标模型与理论目标模型的各部分偏差数值进行比对,根据具有最高近似度的理论目标模型的部分计算实际目标模型与理论目标模型的偏差数值,需要说明的是,由于一些视觉传感器存在着无法获取到原本应该获取到的图像的可能性,因此根据差距最大的部分来进行调整存在着偏差较大的风险,因此根据近似程度最大的部分来进行调整。
更具体地,在完成一次根据偏差数值的调整后,并不代表已经实现对位,需要继续对视觉传感器阵列进行实际目标模型与理论目标模型的偏差数值的获取,并根据偏差数值是否达到预定标准,来推测是否实现对位。
优选地,在获取所述基础调整参数后,可以通过重复驱动所述视觉传感器阵列相对目标单位的移动,根据所述基础调整参数的获取步骤获取若干后续调整参数,所述后续调整参数用于对所述基础调整参数进行优化,其步骤包括:
S71:令所述视觉传感器阵列回复至所述第一记录位置;
S72:驱动所述视觉传感器阵列相对所述目标单位移动,并将移动后的位置记录为第四记录位置,获取所述视觉传感器阵列处于所述第四记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第四记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第五记录位置;
S73:将所述第一记录位置与所述第四记录位置之间的距离记录为第二检测距离,将所述第五记录位置与所述第四记录位置之间的距离记录为第二调整距离,根据所述第二检测距离与所述第二调整距离生成后续调整参数。
具体地,基础调整参数和后续调整参数将共同生成理想调整系数,理想调整系数是视觉传感器阵列在对位过程中的不同距离条件下而应当对视觉传感器阵列造成的调整,其中,基础调整参数的第一次测试获得的调整参数,而后续调整参数的模仿第一次测试进行的后续测试。
可以理解的是,后续测试可以多次进行,因而后续调整参数也可以有多个。
更具体地,测试的内容包括:选定第一记录位置,驱动视觉传感器阵列相对目标单位移动,将移动后的位置记录为第二记录位置,并获取第二记录位置的实际目标模型,并通过模型对比进行位置调整,以得到第三记录位置,通过第一记录位置、第二记录位置、第三记录位置之间的计算,来获得模视觉传感器阵列的调整参数。
可以理解的是,调整参数中包含的内容包括:移动的距离以及在这个距离下需要对视觉传感器阵列进行的对位调整,因此根据这些调整参数进行计算即可构建出一个随距离变化而对于变化的模型,用于得出在不同距离下应该怎样进行对位调整。
更具体地,重复驱动视觉传感器阵列相对目标单位的移动,根据基础调整参数的获取步骤获取若干后续调整参数,需要说明的是,这里的后续调整参数可以分为两种类型,第一种是重复进行第一检测距离的采集,以获得更多次数的第一调整距离,并将这些第一调整距离进行平均计算,第二种是改变第一检测距离的距离长度,获取视觉传感器阵列在不同移动距离下的对位差异。
更具体地,根据各个后续调整参数对基础调整参数进行优化,得到理想的基础调整,可以更加准确地描述视觉传感器阵列的移动距离与位移差异之间的关系,因此根据基础调整参数驱动视觉传感器阵列进行对位,来避免待对位单位在移动时产生的对位差异。
参阅图2,第二方面,本发明提供一种高精度的视觉对位装置,包括:
图像采集单元,用于通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础;所述视觉传感器阵列包括待对位单位和若干视觉传感器;
距离测量单元,用于根据对位装置的设定参数获取所述视觉传感器阵列与所述目标单位的实际距离,根据所述实际距离与所述理论模型基础获取所述目标单位的理论目标模型;
模型生成单元,用于获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型;
初步对位单元,用于通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;
移动测试单元,用于驱动所述视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第三记录位置;
参数计算单元,用于将所述第一记录位置与所述第二记录位置之间的距离记录为第一检测距离,将所述第三记录位置与所述第二记录位置之间的距离记录为第一调整距离,根据所述第一检测距离与所述第一调整距离生成基础调整参数,并根据所述基础调整参数驱动所述视觉传感器阵列进行对位。
在本实施例中,上述装置实施例中的各个单元的具体实现,请参照上述方法实施例中所述,在此不再进行赘述。
第三方面,本发明提供一种高精度的视觉对位设备,包括存储器和运行器,所述存储器用于存储实现第一方面任意一项所述的一种高精度的视觉对位方法的计算机程序,所述运行器用于驱动所述存储器运行所述计算机程序。
第四方面,本发明提供一种高精度的视觉对位存储介质,用于存储计算机程序,所述计算机程序用于实现第一方面任意一项所述的一种高精度的视觉对位方法。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种高精度的视觉对位方法,其特征在于,包括:
通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础;所述视觉传感器阵列设置在对位装置上,所述视觉传感器阵列包括待对位单位和若干视觉传感器;
根据对位装置的设定参数获取所述视觉传感器阵列与所述目标单位的实际距离,根据所述实际距离与所述理论模型基础获取所述目标单位的理论目标模型;
获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型;
通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;
驱动所述视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第三记录位置;
将所述第一记录位置与所述第二记录位置之间的距离记录为第一检测距离,将所述第三记录位置与所述第二记录位置之间的距离记录为第一调整距离,根据所述第一检测距离与所述第一调整距离生成基础调整参数,并根据所述基础调整参数驱动所述视觉传感器阵列进行对位。
2.如权利要求1所述的一种高精度的视觉对位方法,其特征在于,通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础的步骤包括:
调整所述视觉传感器阵列与所述目标单位的位置关系,令所述待对位单位与所述目标单位初步对位;
通过所述视觉传感器阵列中的若干视觉传感器,分别对所述目标单位进行图像采集,以生成若干所述单一视角观测图像;
对若干所述单一视角观测图像分别进行特征提取,获取若干目标单位视角特征,并将各个所述目标单位视角特征进行结合,以获取所述目标单位的特征集合;
根据所述特征集合对所述目标单位进行识别,以获取所述目标单位的识别信息,并根据所述识别信息从数据库中调取对应的所述理论模型基础。
3.如权利要求1所述的一种高精度的视觉对位方法,其特征在于,获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型的步骤包括:
根据所述视觉传感器阵列中各视觉传感器的相对位置特征分布获取所述视觉传感器与所述待对位单位之间的相对位置关系,并生成第一模型参数;
根据所述实际距离生成第二模型参数;
构建所述实际目标模型的基础参数轴;所述基础参数轴包括方位参数轴和角度参数轴;
根据所述第一模型参数决定所述单一视角观测图像在所述方位参数轴上的位置,根据所述第二模型参数决定所述单一视角观测图像在所述角度参数轴上的位置,以实现各个所述单一视角观测图像在所述基础参数轴的结合,以获取所述实际目标模型。
4.如权利要求1所述的一种高精度的视觉对位方法,其特征在于,通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置的步骤包括:
将所述实际目标模型与所述理论目标模型对比,计算所述实际目标模型中各部分与所述理论目标模型的近似程度,并选取具有最高近似程度的所述理论目标模型的部分计算所述实际目标模型与所述理论目标模型的偏差数值;
根据所述偏差数值对所述视觉传感器阵列进行调整,并重复上述步骤以获取所述视觉传感器阵列的所述实际目标模型与所述理论目标模型的偏差数值;
若所述偏差数值未达到预定标准时,则根据所述偏差数值对所述视觉传感器阵列再次进行调整;
若所述偏差数值达到预定标准时,则将该位置记录为第一记录位置。
5.如权利要求1所述的一种高精度的视觉对位方法,其特征在于,在获取所述基础调整参数后,可以通过重复驱动所述视觉传感器阵列相对目标单位的移动,根据所述基础调整参数的获取步骤获取若干后续调整参数,所述后续调整参数用于对所述基础调整参数进行优化,其步骤包括:
令所述视觉传感器阵列回复至所述第一记录位置;
驱动所述视觉传感器阵列相对所述目标单位移动,并将移动后的位置记录为第四记录位置,获取所述视觉传感器阵列处于所述第四记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第四记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第五记录位置;
将所述第一记录位置与所述第四记录位置之间的距离记录为第二检测距离,将所述第五记录位置与所述第四记录位置之间的距离记录为第二调整距离,根据所述第二检测距离与所述第二调整距离生成后续调整参数。
6.一种高精度的视觉对位装置,其特征在于,包括:
图像采集单元,用于通过视觉传感器阵列对目标单位进行图像采集,以获取所述目标单位的若干单一视角观测图像,基于若干所述单一视角观测图像对所述目标单位进行识别,并根据识别的结果从数据库中调取对应的理论模型基础;所述视觉传感器阵列包括待对位单位和若干视觉传感器;
距离测量单元,用于根据对位装置的设定参数获取所述视觉传感器阵列与所述目标单位的实际距离,根据所述实际距离与所述理论模型基础获取所述目标单位的理论目标模型;
模型生成单元,用于获取所述视觉传感器阵列中各视觉传感器的相对位置特征分布,并根据所述相对位置特征分布和所述实际距离对各个所述单一视角观测图像进行结合,以生成所述目标单位的实际目标模型;
初步对位单元,用于通过所述实际目标模型与所述理论目标模型的对比,对所述视觉传感器阵列的位置进行调整,并将调整后的位置记录为第一记录位置;
移动测试单元,用于驱动所述视觉传感器阵列相对目标单位进行移动,并将移动后的位置记录为第二记录位置,获取所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型,并根据所述视觉传感器阵列处于所述第二记录位置时所述目标单位的所述实际目标模型和所述理论目标模型对所述视觉传感器阵列的位置进行调整,将调整后的位置记录为第三记录位置;
参数计算单元,用于将所述第一记录位置与所述第二记录位置之间的距离记录为第一检测距离,将所述第三记录位置与所述第二记录位置之间的距离记录为第一调整距离,根据所述第一检测距离与所述第一调整距离生成基础调整参数,并根据所述基础调整参数驱动所述视觉传感器阵列进行对位。
7.一种高精度的视觉对位设备,其特征在于,包括存储器和运行器,所述存储器用于存储实现权利要求1-5任意一项所述的一种高精度的视觉对位方法的计算机程序,所述运行器用于驱动所述存储器运行所述计算机程序。
8.一种高精度的视觉对位存储介质,其特征在于,用于存储计算机程序,所述计算机程序用于实现权利要求1-5任意一项所述的一种高精度的视觉对位方法。
CN202410150883.8A 2024-02-02 2024-02-02 一种高精度的视觉对位方法、装置、设备及存储介质 Active CN117689859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410150883.8A CN117689859B (zh) 2024-02-02 2024-02-02 一种高精度的视觉对位方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410150883.8A CN117689859B (zh) 2024-02-02 2024-02-02 一种高精度的视觉对位方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN117689859A true CN117689859A (zh) 2024-03-12
CN117689859B CN117689859B (zh) 2024-05-10

Family

ID=90135738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410150883.8A Active CN117689859B (zh) 2024-02-02 2024-02-02 一种高精度的视觉对位方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117689859B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100046550A (ko) * 2008-10-27 2010-05-07 한국항공우주산업 주식회사 로봇 드릴링 시스템 및 그 방법
US20160171700A1 (en) * 2014-12-12 2016-06-16 Airbus Operations S.A.S. Method and system for automatically detecting a misalignment during operation of a monitoring sensor of an aircraft
CN112164018A (zh) * 2020-09-27 2021-01-01 北华航天工业学院 一种机器视觉校准系统及其校准方法
US20210323104A1 (en) * 2018-09-13 2021-10-21 Baoshan Iron & Steel Co., Ltd. Metallurgical technology probe insertion calibration method employing visual measuremetn and insertion system thereof
CN116113164A (zh) * 2023-04-12 2023-05-12 深圳市丰达兴线路板制造有限公司 一种基于视觉标定的pcb板加工纠偏方法及系统
CN116962861A (zh) * 2023-09-21 2023-10-27 深圳市飞鱼星科技有限公司 一种云台相机视觉对位装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100046550A (ko) * 2008-10-27 2010-05-07 한국항공우주산업 주식회사 로봇 드릴링 시스템 및 그 방법
US20160171700A1 (en) * 2014-12-12 2016-06-16 Airbus Operations S.A.S. Method and system for automatically detecting a misalignment during operation of a monitoring sensor of an aircraft
US20210323104A1 (en) * 2018-09-13 2021-10-21 Baoshan Iron & Steel Co., Ltd. Metallurgical technology probe insertion calibration method employing visual measuremetn and insertion system thereof
CN112164018A (zh) * 2020-09-27 2021-01-01 北华航天工业学院 一种机器视觉校准系统及其校准方法
CN116113164A (zh) * 2023-04-12 2023-05-12 深圳市丰达兴线路板制造有限公司 一种基于视觉标定的pcb板加工纠偏方法及系统
CN116962861A (zh) * 2023-09-21 2023-10-27 深圳市飞鱼星科技有限公司 一种云台相机视觉对位装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
W.M.KUO ETAL.: "Precision nano-alignment system using machine vision with motion controlled by piezoelectric motor", 《MECHATRONICS》, vol. 18, no. 1, 29 October 2007 (2007-10-29), pages 21 - 34, XP022398404, DOI: 10.1016/j.mechatronics.2007.07.010 *
吴禄慎 等: "基于机器视觉的太阳能电池板对位系统", 《组合机床与自动化加工技术》, no. 5, 31 May 2018 (2018-05-31), pages 23 - 25 *

Also Published As

Publication number Publication date
CN117689859B (zh) 2024-05-10

Similar Documents

Publication Publication Date Title
CN102818532B (zh) 三维测定方法
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
CN101239469B (zh) 机器人机构的校准装置及方法
CN103358308B (zh) 机器人焊枪取向规范化
EP2033747A2 (en) Robot simulation apparatus
EP1239263B1 (en) Position measuring apparatus and working apparatus using the same
US7502504B2 (en) Three-dimensional visual sensor
WO2008016066A1 (fr) Dispositif et procédé de mesure de forme de lentille, procédé de production de lentille et procédé de production de lunettes
JP2001319219A (ja) 画像測定装置用パートプログラム生成装置及び方法、並びに画像測定装置及びその測定結果表示方法
CN102435138B (zh) 确定机动车辆的车身件的间隙和/或齐平性的方法以及测量装置
EP2551633A1 (en) Three dimensional distance measuring device and method
US20090039285A1 (en) Method and device for controlling and monitoring a position of a holding element
Zhu et al. Noncontact 3-D coordinate measurement of cross-cutting feature points on the surface of a large-scale workpiece based on the machine vision method
US11499817B2 (en) Coordinate measuring machine with vision probe for performing points-from-focus type measurement operations
CN117689859B (zh) 一种高精度的视觉对位方法、装置、设备及存储介质
CN109990734A (zh) 深度信息摄像模组精度自动检测系统及其精度检测方法
CN118397105A (zh) 一种基于机器视觉遍历的定位校准示教方法及系统
US20030185435A1 (en) Data processing method, data processing program and recording medium
EP0395155A2 (en) Apparatus for measuring gear
CN109636859A (zh) 一种基于单相机的三维视觉检测的标定方法
JP2004354320A (ja) 撮像対象物品の認識検定システム
CN116147648A (zh) 定位调节方法、定位工装、装置、设备、存储介质
JP2002534284A (ja) ロボットの使用方法
CN115479548A (zh) 测高方法、装置、系统、点胶方法及计算机可读存储介质
EP4348172A1 (en) Systems and methods for error correction for video extensometers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant