CN117808861A - 一种双目视觉系统的运行方法 - Google Patents

一种双目视觉系统的运行方法 Download PDF

Info

Publication number
CN117808861A
CN117808861A CN202211180463.1A CN202211180463A CN117808861A CN 117808861 A CN117808861 A CN 117808861A CN 202211180463 A CN202211180463 A CN 202211180463A CN 117808861 A CN117808861 A CN 117808861A
Authority
CN
China
Prior art keywords
parallax
current frame
binocular
search range
vision system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211180463.1A
Other languages
English (en)
Inventor
董承梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shending Technology Nanjing Co ltd
Original Assignee
Shending Technology Nanjing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shending Technology Nanjing Co ltd filed Critical Shending Technology Nanjing Co ltd
Priority to CN202211180463.1A priority Critical patent/CN117808861A/zh
Priority to PCT/CN2023/114049 priority patent/WO2024066802A1/zh
Publication of CN117808861A publication Critical patent/CN117808861A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及双目视觉领域,公开了一种双目视觉系统的运行方法,可以动态调整视差搜索范围,并且帧率高延迟低。该方法包括:获取当前帧的双目图像;根据当前帧的双目图像和当前帧的视差搜索范围,以置信度为目标,进行不同视差搜索范围下的视差计算,得到置信度最高的视差结果及其对应的视差搜索范围调整信息;根据视差搜索范围调整信息对当前帧的视差搜索范围进行调整,得到下一帧的视差搜索范围,用于计算下一帧的双目图像的视差结果。

Description

一种双目视觉系统的运行方法
技术领域
本申请涉及双目视觉领域,具体涉及一种双目视觉系统的运行方法。
背景技术
本部分旨在为权利要求书中陈述的本申请的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是已被公开的现有技术。
双目立体视觉(Binocular Stereo Vision)是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。
然而现有的双目立体视觉技术具有一些缺点,第一个缺点在于视差搜索范围有局限,无法随应用场景不同而动态调整视差搜索范围,如果视差搜索范围过小,会导致深度计算精度不足,或者特征点超出视差搜索范围后,计算错误;如果视差搜索范围过大,那么会导致计算时间增长,无法满足实时性、高帧率需求。第二个缺点在于目前双目立体视觉技术不具有对于图像感兴趣区域功能的支持,因此如果需要读取完整图像,对系统带宽占用会较高,并且不同场景下,需要不同的双目摄像模组(不同的基线长度和焦距),使得双目摄像模组通用性不强。
公开号为US10194135B2的专利文本公布了一种三维深度知觉装置和方法,该装置包括预处理模块、块匹配视差计算模块、深度计算模块、深度后处理模块在内的深度计算装置,然而该装置的预处理模块不具有视差搜索范围调整的功能。
发明内容
本申请的目的在于提供一种双目视觉系统的运行方法,能够动态调整视差搜索范围。
本申请公开了一种双目视觉系统的运行方法,包括:
获取当前帧的双目图像;
根据所述当前帧的双目图像和当前帧的视差搜索范围,以置信度为目标,进行不同视差搜索范围下的视差计算,得到置信度最高的视差结果及其对应的视差搜索范围调整信息;
根据所述视差搜索范围调整信息对当前帧的视差搜索范围进行调整,得到下一帧的视差搜索范围,用于计算下一帧的双目图像的视差结果。
在一个优选例中,所述方法还包括:
根据所述置信度最高的视差结果及其对应的视差搜索范围调整信息计算所述当前帧的双目图像的深度信息。
在一个优选例中,所述进行不同视差搜索范围下的视差计算,进一步包括:
根据所述双目图像中目标物体的移动趋势确定不同的视差搜索范围。
在一个优选例中,所述根据所述视差搜索范围调整信息对当前帧的视差搜索范围进行调整,进一步包括:
获取双目视觉系统自身的移动信息;
根据所述移动信息和所述视差搜索范围调整信息对所述当前帧的视差搜索范围进行调整。
在一个优选例中,还包括:预先设定至少N个感兴趣区域,N为正整数;N个感兴趣区域的范围总和小于所述双目图像的范围;
所述获取当前帧的双目图像的步骤之后,还包括:
对所述当前帧的双目图像进行处理,去除所述N个感兴趣区域之外的局部图像。
在一个优选例中,所述获取当前帧的双目图像的步骤之后,还包括:
在近景模式下,通过自动调整感兴趣区域的位置,使得可检测范围靠近双目视觉系统的相机一侧的边界向相机一侧扩展。
在一个优选例中,所述获取当前帧的双目图像之后,还包括:
根据所述当前帧双目图像和当前帧的视差搜索范围计算当前帧的视差结果;
在所述当前帧的视差结果的置信度低于预定门限时,执行所述进行不同视差搜索范围下的视差计算的步骤。
在一个优选例中,根据用户通过输入设备输入的信息,设定视差范围调整模式。
本申请还公开了一种双目视觉系统,包括:
存储器,用于存储计算机可执行指令;以及,
处理器,与所述存储器耦合,用于在执行所述计算机可执行指令时实现如前文描述的方法中的步骤。
本申请还公开了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现如前文描述的方法中的步骤。
本申请的实施方式中,可以获得精确的视差结果并动态调整视差搜索范围,使得对于双目视频的视差搜索范围始终维持在合适的范围,既不会因为视差搜索范围过小而导致深度计算精度不足,也不会因为视差搜索范围过大而导致计算时间增长。
此外,可以根据双目图像中目标物体的移动趋势确定不同的视差搜索范围,从而可以更准确而快速地调整视差搜索范围。
此外,可以根据双目视觉系统自身的移动信息和视差搜索范围调整信息对当前帧的视差搜索范围进行调整,从而可以更准确地调整视差搜索范围。
此外,通过在双目视觉左侧相机获取的左图左侧和右侧相机获取的右图右侧去除相同宽度的像素点以调整ROI区域的范围,从而调整可检测范围,最终实现近景范围扩展。
此外,通过预先定义ROI区域,可以减少数据的传输量。
此外,本申请实施方式还具有多种不同应用场景的选择模式,互不冲突,用户可以根据自己的需要进行选择,还减少了对双目摄像头模组的使用限制。
上述发明内容中公开的各个技术特征、在下文各个实施方式和例子中公开的各技术特征、以及附图中公开的各个技术特征,都可以自由地互相组合,从而构成各种新的技术方案(这些技术方案均应该视为在本说明书中已经记载),除非这种技术特征的组合在技术上是不可行的。例如,在一个例子中公开了特征A+B+C,在另一个例子中公开了特征A+B+D+E,而特征C和D是起到相同作用的等同技术手段,技术上只要择一使用即可,不可能同时采用,特征E技术上可以与特征C相组合,则,A+B+C+D的方案因技术不可行而应当不被视为已经记载,而A+B+C+E的方案应当视为已经被记载。
附图说明
图1是根据本申请的一个实施方式的双目视觉系统的运行方法流程示意图。
图2是根据本申请的一个实施方式的近景模式调整区域示意图。
图3是根据本申请的一个实施方式的近景模式等效焦距示意图。
图4是根据本申请的一个实施方式的目标物追踪模式示意图。
图5是根据本申请的一个实施方式的区域选择模式示意图。
图6是根据本申请的一个实施方式的根据机器人移动调整视差搜索范围的示意图。
图7是根据本申请的一个实施方式的双目视觉系统的结构示意图。
具体实施方式
在以下的叙述中,为了使读者更好地理解本申请而提出了许多技术细节。但是,本领域的普通技术人员可以理解,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
部分概念的说明:
1.视差:是指从两个不同位置观察同一个物体时,此物体在视野中的位置变化与差异。
2.深度:视差与三维空间上的点到投影中心平面的距离成反比,通过某点在不同图像上的视差,即可获知该点举例成像平面的距离,该距离称之为深度。
3.感兴趣区域:机器视觉、图像处理中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域,称为感兴趣区域ROI(Region Of Interest)。
4.视差搜索范围:假设目标物在左图(右图)上成像点的坐标为(x,y),在右图(左图)的(x+Δx,y+Δy)点上进行目标物匹配,(Δx,Δy)构成的集合称之为视察搜索范围。
5.自适应信息:为获得更好视差置信度而对视差搜索范围进行自动调整的过程称之为自适应。视察搜索范围调整的方向、数值等信息称之为自适应信息。
6.置信度:也称为可靠度,或置信水平。一个概率样本的置信区间(Confidenceinterval)是对这个样本的某个总体参数的区间估计。置信区间展现的是这个参数的真实值有一定概率落在测量结果的周围的程度。置信区间给出的是被测量参数测量值的可信程度范围,即前面所要求的“一定概率”,这个概率被称为置信水平。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请的实施方式作进一步地详细描述。
本申请的第一实施方式涉及一种双目视觉系统的运行方法,其流程如图1所示,该方法包括以下步骤:
在步骤101中,获取当前帧的双目图像。
在步骤102中,根据当前帧双目图像和当前帧的视差搜索范围计算当前帧的视差结果。
在步骤103中,判断当前帧的视差结果的置信度是否低于预定门限,如果是则进入步骤104,否则进入步骤107,直接根据步骤102计算所得的当前帧的视差结果和当前帧的视差搜索范围计算当前帧的双目图像的深度信息。
上述步骤102、103和107是可选的。
在步骤104中,根据当前帧的双目图像和当前帧的视差搜索范围,以置信度为目标,进行不同视差搜索范围下的视差计算,得到置信度最高的视差结果及其对应的视差搜索范围调整信息。
在步骤105中,根据视差搜索范围调整信息对当前帧的视差搜索范围进行调整,得到下一帧的视差搜索范围,用于计算下一帧的双目图像的视差结果。
在步骤106中,根据置信度最高的视差结果及其对应的视差搜索范围调整信息计算当前帧的双目图像的深度信息。在另一个实施例中,也可以不使用置信度最高的视差结果进行深度信息的计算,而是仅根据计算所得的视差搜索范围调整信息进行下一帧的视差搜索范围调整,深度信息的计算可以和现有技术相同。
可选的,在一个实施例中,步骤102进一步可以包括:根据双目图像中目标物体的移动趋势确定不同的视差搜索范围。从而可以更准确而快速地调整视差搜索范围。
可选的,在一个实施例中,步骤103进一步可以包括:获取双目视觉系统自身的移动信息。根据移动信息和视差搜索范围调整信息对当前帧的视差搜索范围进行调整。从而可以更准确地调整视差搜索范围。
可选的,在一个实施例中,步骤101之前还可以包括:预先设定至少N个感兴趣区域,N为正整数。N个感兴趣区域的范围总和小于双目图像的范围。在步骤101之后,还可以包括:对当前帧的双目图像进行处理,去除N个感兴趣区域之外的局部图像。预先定义感兴趣区域,可以减少数据的传输量。
可选的,在一个实施例中,还可以根据用户通过输入设备输入的信息,设定视差范围调整模式。调整模式可以包括但不限于近景模式、目标物追踪模式、区域选择模式、移动模式等,多个模式可以同时选择,互不冲突。
在近景模式下,如图2和图3所示,用户选择近景模式后,系统删除感兴趣区域之外(斜虚线以外)的部分,获得新的焦距以及双目摄像头之间的距离,实现近景范围扩展,即通过自动调整感兴趣区域的位置,使得可检测范围靠近双目视觉系统的相机一侧的边界向相机一侧扩展。图2中,OO′=B,O1O1′=B’,焦距为f,图3中图像宽度为R,左边切割宽度为ΔR,截取感兴趣区域后获得的新的焦距为f’,其中Z-Z’=f–f’,(实际深度变化为焦距前移量),D–D’=ΔR,(视差变化为左边切割部分),由此可得到
双目视觉系统有左右两个相机,每帧双目图像包括左侧相机输出的左图和右侧相机输出的右图。通过在左图左侧和右图右侧去除相同宽度的像素点以调整ROI区域的范围,可以调整可检测范围,从而实现近景范围扩展。
目标物追踪模式如图4所示,当目标物逐渐移动过程中,选取特征点,为了防止其移动出原本的视差搜索范围,在用户选定目标物后,本系统会根据物体的移动趋势,调整视差搜索范围,确保目标物落在视差搜索范围内。
区域选择模式如图5所示,当用户仅需对图像中的特定区域进行视差/深度计算时,可通过区域选择模式,用户自行选择感兴趣区域来计算深度,从而忽略不必要像素点的计算。
移动模式如图6所示,当左摄像头在O点处时,目标物深度为Z,OO′=B,焦距为f,目标在左图的成像坐标为(x,y),在右图的坐标为(x-d,y),此处为简化原理说明,不考虑上下方向,d为视差。当左摄像头移动到O′点时,目标在左图的成像坐标为(x′,y),此时需估计该点在右图的成像坐标(x′-d′,y),以便调整视差搜索范围。向量OO′可根据IMU(InertialMeasurement Unit)惯性测量元件计算位姿可知。因此也可得到垂直方向移动距离ΔZ。根据公式Bf=Zd,由于Bf没有变化。因此,即可得到视察搜索范围调整结果Δd=d-d′。
上述实施方式可以获得精确的视差结果并动态调整视差搜索范围,使得对于双目视频的视差搜索范围始终维持在合适的范围,既不会因为视差搜索范围过小而导致深度计算精度不足,也不会因为视差搜索范围过大而导致计算时间增长。
图7是根据本申请的一个实施方式的双目视觉系统的结构示意图。本系统是一个片上系统,包括应用场景侦测单元,图像读取单元,自适应视差引擎,深度计算单元和视差范围调整单元。
应用场景侦测单元:在系统初始化后,根据“用户选择模式”与预期的视差搜索范围,给出所需要的感兴趣区域图像需求,交由图像读取单元读取图像。“用户选择模式”可以有多种来源,如客户根据实际的使用情况,手动配置模式,也可以通过与其他模块的联动,如AI场景识别,将当前识别到的场景告知本系统,本系统再根据场景对感兴趣区域图像需求做出优化。
图像读取单元:根据感兴趣区域图像需求,获取感兴趣区域双目图像(并非完整的原始图像),在高帧率需求下,持续检测图像读取速度,一旦过慢(一般由系统带宽阻塞导致),可自动对感兴趣区域图像需求进行缩点处理,来降低对带宽的需求。将读取到的感兴趣区域双目图像交由自适应视差引擎处理。
自适应视差引擎:自适应视差引擎会计算视差结果,且当视差结果的置信度匹配率过低时,上下左右调整视差范围来寻求更优匹配率,来提高视差结果的准确度,并把自适应信息给到视差范围调整单元。最终将自适应后的视差结算结果与自适应信息给到深度计算单元。
深度计算单元:根据图像读取信息与自适应信息得到最终视差结果,并以此计算深度。
视差范围调整单元:得到自适应信息后,调整下一帧视差的搜索范围,如果是移动系统,可选地,如移动机器人,可进一步根据系统两帧之间的移动信息调整视差搜索范围,并给到应用场景检测单元。
目标物体的移动趋势可以通过对最近若干帧中目标物体的位置变化计算得到。这种移动趋势的估算是现有技术,本申请实施例创造性地将这种移动趋势的估算技术用于视差搜索范围的调整。
需要说明的是,本领域技术人员应当理解,上述双目视觉系统的实施方式中所示的各模块的实现功能可参照前述双目视觉系统的运行方法的相关描述而理解。上述双目视觉系统的实施方式中所示的各模块的功能可通过运行于处理器上的程序(可执行指令)而实现,也可通过具体的逻辑电路而实现。本申请的实施例上述双目视觉系统如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请的各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本申请的实施例不限制于任何特定的硬件和软件结合。
相应地,本申请的实施方式还提供一种计算机可读存储介质,其中存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现本申请的各方法实施方式。计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于,相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读存储介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
此外,本申请的实施方式还提供一种计算机可读存储介质,其中包括用于存储计算机可执行指令的存储器,以及,处理器;该处理器用于在执行该存储器中的计算机可执行指令时实现上述各方法实施方式中的步骤。其中,该处理器可以是中央处理器(CentralProcessing Unit,简称“CPU”)、图像处理器(Graphic Processing Unit,简称“GPU”)、数字信号处理器(Digital Signal Processor,简称“DSP”)、微控制单元(MicrocontrollerUnit,简称“MCU”)、神经网络处理器(简称“NPU”)、专用集成电路(Application SpecificIntegrated Circuit,简称“ASIC”)、现成可编程门阵列(Field Programmable GateArray,简称“FPGA”)或者其他可编程逻辑器件等。前述的存储器可以是只读存储器(read-only memory,简称“ROM”)、随机存取存储器(random access memory,简称“RAM”)、快闪存储器(Flash)、硬盘或者固态硬盘等。本发明各实施方式所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
需要说明的是,在本申请中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。本申请中,如果提到根据某要素执行某行为,则是指至少根据该要素执行该行为的意思,其中包括了两种情况:仅根据该要素执行该行为、和根据该要素和其它要素执行该行为。多个、多次、多种等表达包括2个、2次、2种以及2个以上、2次以上、2种以上。
在描述方法的步骤时使用的序号本身并不对这些步骤的顺序构成任何的限定。例如,序号大的步骤并非一定要在序号小的步骤之后执行,也可以是先执行序号大的步骤再执行序号小的步骤,还可以是并行执行,只要这种执行顺序对于本领域技术人员来说是合理的即可。又如,拥有连续编号序号的多个步骤(例如步骤101,步骤102,步骤103等)并不限制其他步骤可以在其间执行,例如步骤101和步骤102之间可以有其他的步骤。
本说明书包括本文所描述的各种实施例的组合。对实施例的单独提及(例如“一个实施例”或“一些实施例”或“优选实施例”);然而,除非指示为是互斥的或者本领域技术人员很清楚是互斥的,否则这些实施例并不互斥。应当注意的是,除非上下文另外明确指示或者要求,否则在本说明书中以非排他性的意义使用“或者”一词。
在本说明书提及的所有文献都被认为是整体性地包括在本申请的公开内容中,以便在必要时可以作为修改的依据。此外应理解,以上所述仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书一个或多个实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例的保护范围之内。
在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

Claims (10)

1.一种双目视觉系统的运行方法,其特征在于,包括:
获取当前帧的双目图像;
根据所述当前帧的双目图像和当前帧的视差搜索范围,以置信度为目标,进行不同视差搜索范围下的视差计算,得到置信度最高的视差结果及其对应的视差搜索范围调整信息;
根据所述视差搜索范围调整信息对当前帧的视差搜索范围进行调整,得到下一帧的视差搜索范围,用于计算下一帧的双目图像的视差结果。
2.如权利要求1所述的双目视觉系统的运行方法,其特征在于,所述方法还包括:
根据所述置信度最高的视差结果及其对应的视差搜索范围调整信息计算所述当前帧的双目图像的深度信息。
3.如权利要求1所述的双目视觉系统的运行方法,其特征在于,所述进行不同视差搜索范围下的视差计算,进一步包括:
根据所述双目图像中目标物体的移动趋势确定不同的视差搜索范围。
4.如权利要求1所述的双目视觉系统的运行方法,其特征在于,所述根据所述视差搜索范围调整信息对当前帧的视差搜索范围进行调整,进一步包括:
获取双目视觉系统自身的移动信息;
根据所述移动信息和所述视差搜索范围调整信息对所述当前帧的视差搜索范围进行调整。
5.如权利要求1所述的双目视觉系统的运行方法,其特征在于,还包括:预先设定至少N个感兴趣区域,N为正整数;N个感兴趣区域的范围总和小于所述双目图像的范围;
所述获取当前帧的双目图像的步骤之后,还包括:
对所述当前帧的双目图像进行处理,去除所述N个感兴趣区域之外的局部图像。
6.如权利要求1所述的双目视觉系统的运行方法,其特征在于,所述获取当前帧的双目图像的步骤之后,还包括:
在近景模式下,通过自动调整感兴趣区域的位置,使得可检测范围靠近双目视觉系统的相机一侧的边界向相机一侧扩展。
7.如权利要求1-6中任意一项所述的双目视觉系统的运行方法,其特征在于,所述获取当前帧的双目图像之后,还包括:
根据所述当前帧双目图像和当前帧的视差搜索范围计算当前帧的视差结果;
在所述当前帧的视差结果的置信度低于预定门限时,执行所述进行不同视差搜索范围下的视差计算的步骤。
8.如权利要求1-6中任意一项所述的双目视觉系统的运行方法,其特征在于,
根据用户通过输入设备输入的信息,设定视差范围调整模式。
9.一种双目视觉系统,其特征在于,包括:
存储器,用于存储计算机可执行指令;以及,
处理器,与所述存储器耦合,用于在执行所述计算机可执行指令时实现如权利要求1至8中任意一项所述的方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现如权利要求1至8中任意一项所述的方法中的步骤。
CN202211180463.1A 2022-09-26 2022-09-26 一种双目视觉系统的运行方法 Pending CN117808861A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211180463.1A CN117808861A (zh) 2022-09-26 2022-09-26 一种双目视觉系统的运行方法
PCT/CN2023/114049 WO2024066802A1 (zh) 2022-09-26 2023-08-21 一种双目视觉系统的运行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211180463.1A CN117808861A (zh) 2022-09-26 2022-09-26 一种双目视觉系统的运行方法

Publications (1)

Publication Number Publication Date
CN117808861A true CN117808861A (zh) 2024-04-02

Family

ID=90418865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211180463.1A Pending CN117808861A (zh) 2022-09-26 2022-09-26 一种双目视觉系统的运行方法

Country Status (2)

Country Link
CN (1) CN117808861A (zh)
WO (1) WO2024066802A1 (zh)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908230B (zh) * 2010-07-23 2011-11-23 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
KR101763686B1 (ko) * 2010-11-15 2017-08-01 삼성전자 주식회사 입체 영상 처리 장치 및 그 처리 방법
JP2013051637A (ja) * 2011-08-31 2013-03-14 Canon Inc 符号化装置及び符号化方法
CN107071385B (zh) * 2017-04-18 2019-01-25 杭州派尼澳电子科技有限公司 一种基于h265引入视差补偿的立体视频编码方法
CN110060283B (zh) * 2019-04-17 2020-10-30 武汉大学 一种多测度半全局密集匹配方法
CN110766740B (zh) * 2019-10-31 2023-09-01 西安咏圣达电子科技有限公司 一种基于行人跟踪的实时高精度双目测距系统及方法
CN112116639B (zh) * 2020-09-08 2022-06-07 苏州浪潮智能科技有限公司 一种图像配准方法、装置及电子设备和存储介质
CN112040139B (zh) * 2020-09-09 2022-07-29 绍兴埃瓦科技有限公司 一种相机成像的补光方法
WO2022104467A1 (en) * 2020-11-20 2022-05-27 Airy3D Inc. Diffraction-grating-based systems and methods for stereoscopic and multiscopic imaging
CN113965697B (zh) * 2021-10-21 2022-12-16 合肥的卢深视科技有限公司 基于连续帧信息的视差成像方法、电子设备及存储介质
CN114897665A (zh) * 2022-04-01 2022-08-12 中国科学院自动化研究所 可配置实时视差点云计算装置及方法

Also Published As

Publication number Publication date
WO2024066802A1 (zh) 2024-04-04

Similar Documents

Publication Publication Date Title
EP3517997B1 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN111210429B (zh) 点云数据划分方法及装置、障碍物检测方法及装置
US10061182B2 (en) Systems and methods for autofocus trigger
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP4926127B2 (ja) 移動体搭載用前方撮像制御装置
CN111582054B (zh) 点云数据处理方法及装置、障碍物检测方法及装置
WO2022052582A1 (zh) 一种图像配准方法、装置及电子设备和存储介质
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2013539273A (ja) 立体カメラのためのオートフォーカス
US11210842B2 (en) Image processing apparatus, image processing method and storage medium
US11032533B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN111553946B (zh) 用于去除地面点云的方法及装置、障碍物检测方法及装置
CN113572958B (zh) 一种自动触发摄像机聚焦的方法及设备
US10783662B2 (en) Method, a device, and a system for estimating a sub-pixel position of an extreme point in an image
US11985421B2 (en) Device and method for predicted autofocus on an object
JP6116765B1 (ja) 物体検出装置及び物体検出方法
CN111311651A (zh) 点云配准方法和装置
JP2020017173A (ja) 移動体
KR101674298B1 (ko) 카메라 렌즈 초점거리 정보를 이용한 거리계산 방법
US20140327743A1 (en) Auto focus method and auto focus apparatus
CN117808861A (zh) 一种双目视觉系统的运行方法
JP7293100B2 (ja) カメラシステム
CN113838075B (zh) 单目测距方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication