CN115362469A - 复合三维blob工具及其操作方法 - Google Patents
复合三维blob工具及其操作方法 Download PDFInfo
- Publication number
- CN115362469A CN115362469A CN202180025743.2A CN202180025743A CN115362469A CN 115362469 A CN115362469 A CN 115362469A CN 202180025743 A CN202180025743 A CN 202180025743A CN 115362469 A CN115362469 A CN 115362469A
- Authority
- CN
- China
- Prior art keywords
- image data
- camera
- composite
- image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000002131 composite material Substances 0.000 title claims description 16
- 230000008569 process Effects 0.000 claims description 17
- 238000005286 illumination Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 6
- 230000007547 defect Effects 0.000 claims 1
- 238000007670 refining Methods 0.000 claims 1
- 238000003384 imaging method Methods 0.000 abstract description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 230000002950 deficient Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 240000004282 Grewia occidentalis Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Optics & Photonics (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种对图像数据可能丢失的复杂对象执行3D成像的系统和方法。可用的3D图像数据与图像数据的缺失/丢失相结合,允许x、y和z维度的计算。假设数据的缺失/丢失为只是其它类型的图像数据,并且表示存在阻止在主体图像中生成精确数据的事物。数据段可以连接到缺失数据的区域,并生成最大边界框。该对象生成的阴影可以表示为负或缺失数据,但不代表物理对象。估计正数据的高度、基于该高度的对象阴影大小、FOV中的位置以及生成图像的光线角度,并从结果中移除对象阴影大小。
Description
技术领域
本发明涉及分析三维(three-dimensional,3D)空间中的对象的机器视觉系统,更具体地说,涉及用于分析具有复杂形状的对象的系统和方法。
背景技术
执行对象的测量、检查、对齐和/或符号(例如,条形码,也称为“身份标识(Identity document,ID)码”)的解码的机器视觉系统(本文中也称为“视觉系统”),被广泛用于各种应用和行业。这些系统基于图像传感器的使用,该图像传感器采集主体或对象的图像(通常为灰度或彩色,并且是一维、二维或三维),并使用板载或互连的视觉系统处理器来处理这些采集的图像。处理器通常包括处理硬件和非暂时性计算机可读程序指令,该非暂时性计算机可读程序指令执行一个或更多个视觉系统处理以基于图像的处理信息生成期望的输出。该图像信息通常在图像像素阵列内提供,每一个像素具有各种颜色和/或强度。
如上所述,一个或更多个视觉系统相机可用于获取成像场景中对象的二维(two-dimensional,2D)或三维(3D)图像。2D图像通常被表征为在整个N X M图像阵列(通常由相机图像传感器的像素阵列限定)内具有x和y分量的像素。在以3D方式采集图像的情况下,除了x和y分量之外,还存在高度或z轴分量。可以使用包括立体相机、激光雷达、飞行时间传感器和(例如)激光位移剖面的三角测量的各种机制/技术来获取3D图像数据。
当对类似或不同项目的复杂排列进行测量时,3D相机系统出现的一个典型问题是,图像数据可能在排列(例如)为一组中的对象之间丢失。例如,一个典型的复杂对象是一包水瓶,其中,水瓶的盖可能是瓶直径的一半或更小。当用3D图像传感器观察时,得到的图像数据通常来自在图像高度顶部处完全暴露的盖。然而,有用的图像数据(例如瓶和盖之间的空间)在盖之间丢失。这可能是由于照明中的阴影以及光线从照明器传播到对象并返回图像传感器的角度造成的。通常,诸如水瓶、镜面状表面或特定空间频率的小特征的复杂对象会导致视觉系统中3D数据捕获的丢失。在水瓶的示例中,盖/顶部通常提供3D图像数据的固体响应,但由于包裹的水/塑料/塑料包装使正常情况下生成3D图像的光学反馈变得模糊,盖周围的区域可能不提供可用的图像数据。
发明内容
本发明通过提供对图像数据可能丢失的复杂对象执行3D成像的系统和方法来克服现有技术的缺点。该系统和方法结合图像数据的缺失/丢失使用可用的3D图像数据,并且可以将当前和缺失的图像数据的整个集合视为单个对象,这允许精确计算该单个对象的x、y和z维度。通常,本文中的系统和方法将图像数据的缺失/丢失假设为仅是其它类型的数据,并且图像数据的缺失/丢失表示存在阻止在主体图像中生成精确3D图像数据的某些事物。使用该假设,图像数据段可以连接到缺失数据的区域,从而可以生成最大边界框。对于高且复杂的对象,该对象生成的阴影也可以表示为负数据或遗漏数据,但不代表物理对象。使用来自正数据的高度数据,估计基于该高度的对象阴影大小、视场中的位置以及生成图像的光线角度并从结果中移除,以提供更精确的3D图像结果。
在说明性实施例中,可以为视觉系统提供复合3D二进制大对象(binary largeobject,blob)工具及其操作方法。视觉系统可以具有处理器,该处理器使用3D相机组件接收来自对象的获取的3D图像数据。该工具和相关联的方法可以包括blob工具处理,blob工具处理识别所获取的3D图像数据中的正3D图像数据和负3D图像数据,并且将限定z维度高度信息的正3D图像数据和负3D图像数据进行组合,从而限定至少一个连接对象。负3D图像数据可以至少部分地包括限定关于对象的数据缺失和关于对象的阴影的正交的x-y维度。z维度高度信息可用于基于(1)由与3D相机组件相关联的照明所投影的并由3D相机组件的图像传感器接收的射线角度的知识,以及(2)对象在图像传感器的视场中的位置来细化对象的x-y维度,使得阴影对对象的贡献基于对象的细化后的x-y维度而改变。说明性地,blob工具处理可以基于3D相机组件中的校准信息针对获取的3D图像数据的空间意义来分析连接对象。对象可以包括以下中的至少一个:(a)多个并排对象,每一个对象具有大致相似高度的顶部;以及(b)一个或更多个对象,具有分别限定多个不同高度的顶面。3D相机组件可以包括立体相机、基于结构化照明的相机、基于飞行时间的相机和剖面仪中的至少一个。阴影和正3D图像数据可以限定包含驻留于参考表面上方的阴影和正3D图像数据的边界框两者。示例性地,参考表面可以限定对象所驻留的传送带表面。对象可以是包裹,并且3D blob工具的结果被提供给传送带的门控组件,该门控组件基于对象的特征将对象导向多个不同目的地之一。这些特征可以指示缺陷对象,从而由门控传送带引导到缺陷和/或拒绝对象位置。
附图说明
以下发明描述参考附图,其中:
图1是用于获取和处理复杂对象的3D图像的系统的概览,该系统采用复合3D blob工具来提供图像遗漏数据的预测;
图2是示例性对象组的透视图,所述对象组由于阴影和其他影响而缺失图像数据,所述阴影和其他影响可以通过本文中的说明性复合3D blob工具来成像和分析;
图3是图2中的对象的3D点云图像的表示图,示出了沿着伴有图像数据缺失的图像的x-y平面的图像数据;
图4是图3的表示图,示出了沿z维度的相对精确的高度测量;
图5是示出3D相机组件在一组对象上的定位以及产生阴影和导致图像数据缺失的可能性的图;
图6是由图5的相机组件获取的图像的自顶向下视图,示出了在不同方向和不同尺寸中的每一个上的各个对象的阴影;
图7是驻留于相机组件FOV边缘附近的基本矩形对象的3D点云图像的表示图,显示了阴影的投影和取向;
图8是图7的基本矩形对象的3D点云图像的表示图,该基本矩形对象驻留于更靠近相机组件FOV的中间,示出了阴影的更复杂的投影和取向;
图9是根据说明性实施例的用于操作复合3D blob工具的过程步骤的流程图;以及
图10是示出由说明性实施例的复合3D blob工具创建边界框以确定多级对象或对象组中的特征的图。
具体实施方式
I.系统概览
图1示出了布置100的概览,其中,视觉系统相机组件(也简称为“相机”或“传感器”)110在对象122相对于移动的传送带130在其视场(field ofview,FOV)下方通过时获取对象122的示例性分组120的3D图像数据。在此示例中,对象122是一组120成组排列的罐或瓶——例如在板条箱或收缩包装内。应当注意,可以根据本文的系统和方法对对象的任何排列或具有复杂顶部表面的单个对象进行成像和分析。
考虑的3D相机/成像组件110可以是获取对象的3D图像的任何组件,包括但不限于立体相机、飞行时间相机、激光雷达、超声波测距相机、结构化照明系统和激光位移传感器(剖面仪),因此,术语3D相机应当被广泛地理解为包括这些系统以及生成与对象的2D图像相关联的高度信息的任何其他系统。也可以提供单个相机或更多个相机的阵列,并且术语“相机”和/或“相机组件”可以指以生成场景期望3D图像数据的方式获取图像的一个或更多个相机。所描述的相机组件110被示为以检查点或检查站的方式安装在传送带130的表面上方,该检查点或检查站在流动对象经过时对对象进行成像。对象122可以保持运动或暂时停止成像,这取决于传送带的运行速度和相机图像传感器(S)和相关电子器件(部分取决于帧速率和光圈设置)110的采集时间。在替代实施例中,可以省略传送带,并且对象可以位于非移动台或表面上。作为非限制性示例,相机110限定了光轴OA,该光轴大致垂直于传送带130的表面。相机轴OA可替代地在替代布置中相对于传送带的表面以非垂直角度定向。相机的校准可以在内部坐标系和成像场景坐标系之间转换。注意,局部x、y和z轴(或其他坐标系)138以参考的方式示出。在本示例中,传送带表面的平面表示x-y维度,垂直于传送带表面的高度表示z维度。
相机110包括图像传感器S,图像传感器S适于在它的外壳内部生成3D图像数据134。相机组件包括整体照明组件I(例如,LED的环形照明器,其在相对于轴OA的可预测方向上投射光)。可以以替代布置提供外部照明(未示出)。示出了沿着轴OA与传感器S光学通信的适当光学封装O。传感器S与内部和/或外部视觉系统处理(器)140通信,该处理(器)140从相机110接收图像数据134,并根据本文的系统和方法对数据执行各种视觉系统任务。处理(器)140包括底层处理/处理器或功能模块,包括一组视觉系统工具142,该视觉系统工具142可以包括识别和分析图像数据中的特征的各种标准和自定义工具,包括但不限于边缘检测器、blob工具、模式识别工具、深度学习网络等。视觉系统处理(器)140还可以包括根据该系统和方法的尺寸标注处理(器)。该处理(器)144对在3D图像数据中所识别的特征执行各种分析和测量任务,以确定是否存在可计算进一步结果的特定特征。该处理(器)使用各种常规和自定义(例如3D)视觉系统工具142,该视觉系统工具142包括根据示例性实施例的3D blob工具144。系统设置和结果显示可以由单独的计算设备150(诸如服务器(例如基于云或本地)、个人计算机(personal computer,PC)、膝上型计算机、平板电脑和/或智能手机)来处理。(以非限制性示例的方式)将计算设备150描述为具有常规显示器或触摸屏152、键盘154和鼠标156,它们共同提供图形用户界面(graphical userinterface,GUI)功能。可以在设备150的替代实施方式中提供各种接口设备和/或形状要素。GUI可以部分地由网络浏览器应用程序来驱动,该网络浏览器应用程序驻留在设备操作系统上,并根据本文的示例性布置显示具有来自处理(器)140的控制和数据信息的网页。
注意,处理(器)140可以完全或部分地板载于相机组件110的外壳上,并且各种处理模块/工具142和144可以视情况完全或部分地在板载处理(器)140或远程计算设备150中实例化。在示例性实施例中,所有视觉系统和接口功能都可以在板载处理(器)140上被实例化,并且计算设备150可以主要用于训练、监控和与界面网页(例如超文本标记语言(HyperTextMarkup Language,HTML))相关的操作,该界面网页由板载处理(器)140生成并通过有线或无线网络链接发送到计算设备。替代地,处理(器)140的全部或部分可以驻留在计算设备150中。来自处理器的分析的结果可以发送到下游的利用设备或处理160。这样的设备/处理可以使用结果162来处理对象/包裹——例如,基于所分析的特征,对传送带130进行门控以将对象引导到不同的目的地和/或拒绝有缺陷的对象。
II.示例性图像和问题
图2还描述了示例性运行时间对象,或对象组210——在该非限制性示例中,限定玻璃主体212和上覆顶部或盖220的罐或瓶的板条箱。图3和图4示出了来自图1所示类型的上覆3D相机组件的该对象的示例性(例如3D点云)显示表示。特别地,图3示出了显示表示300,其中,沿X-Y平面对罐顶220成像。顶部220由适当尺寸的边界框来界定,该边界框可基于与周围传送带表面320的高度差来限定。感兴趣区域(矩形330)示出了被阴影和其他数据(盖下方的罐体)遮挡的各个顶部,这使得视觉系统工具(例如边缘探测器)难以解析单个盖。相反,在图4的显示表示400中示出了同一区域(外部边界框410内的矩形420)的总体高度数据,并且限定了沿Z方向/维度的相当精确的测量。通过进一步说明,图5中所示的相机组件510生成投影照明扇512,相机组件以从顶部(盖)520生成一系列向外扇形阴影522的方式接收该投影照明扇512作为反射光514(由于照明和光学部件的放置而偏移),该投影照明扇512重叠并模糊场景的最终2D图像。如图6的顶视图所示,每一个顶部520可以显示唯一的尺寸/形状阴影,该阴影也基于与照明角度和光轴OA相比的顶部在场景中的相对位置在离散方向520上偏置。这增加了整个图像的复杂性和不确定性。
进一步参考图7,基本矩形对象720的自顶向下视图中所描述的3D显示表示710示出了解析形状的挑战,其中,对象720离FOV的一个边缘足够远,一侧730上没有阴影,一侧(相对)740上有深阴影,以及两个浅阴影750。类似地,图8的表示810示出了基本对象820(在自顶向下视图中也是矩形)。该对象820更接近FOV的中心,并相对于图7中的对象720略微旋转。在该表示中,对象820限定了整体具有八(8)个角的阴影830,包括与来自相机的四角阴影860重叠的来自照明投影仪的四角阴影850。根据视场中的位置等变化的复杂阴影的存在使得使用2D图像数据(即使与原始高度数据组合)对特征的分辨率具有挑战性,因为一些高度数据可能由于阴影而遗漏。然而,如上所述,可用的高度数据可以相当精确。
III.Blob工具和操作方法
图9是示出根据示例性实施例的过程900的流程图。在步骤910中,由视场(FOV)内的对象或对象组的相机组件获取一个或更多个3D图像。使用该3D图像数据,在步骤920中,一个或更多个感兴趣区域——例如,高度数据在参考平面(例如,传送带表面)上方的区域和其他边界区域(框)被放置在感兴趣区域中的对象周围。在步骤930中,感兴趣区域内缺失图像数据(也称为“反数据”)的区域被识别。这可以通过使用本领域技术人员已知的各种方式(例如,分割工具和/或其他适当的视觉系统工具)实现。通常,它们是不存在高度值和/或x-y像素值的区域。值得注意的是,过程900之后使用缺失图像数据来指示连通性和/或阴影。因此,在步骤940中,过程连接接触的所有(参考平面上方的)数据和所有反数据。在步骤950中,该过程然后确定感兴趣区域中边界框的位置。这给出了对象在整个FOV中的相对参考。基于(在工厂校准步骤和/或设置时的现场校准期间)存储在相机组件中的图1中的校准数据170,该过程了解FOV中不同高度处的每一个点的光线从照明器返回相机的(存储)路径。因此,基于该数据和边界框在FOV中的位置,以及边界框中每一个点的高度数据,该过程可以重新细化边界框以从主体图像数据中移除阴影(步骤960)。这需要遵循连接形状中预期射线的路径,并将它们映射到图像数据中的已知高度。在步骤970中,该计算的结果可以作为细化后图像数据发送到下游利用处理——例如执行尺寸标注、检查等的其它视觉系统工具。
IV.不同高度(多级)对象
图10是示出相机组件1010在它的FOV 1020内获取多个对象或同一对象的不同部分的图像的示意图,在该示例中,具有不同高度的1030和1032彼此相对相邻。注意,预期对象的最大高度由用户预先编程,在本示例中,它们完全驻留于FOV内(如图所示)。进一步假设主体对象1030、1032在形状上是相对立方体的。该假设可以通过在开始任何校正之前观察物品的所有顶部表面(1034和1036)点的质量和形状来验证。
在第一步中,使用由阴影引起的遗漏点数据以及任何观察数据,生成最小边界框1042,该边界框1042包含阴影和位于参考表面A(例如传送带表面1040)上方的任何观察数据。接下来,使用第一边界框1042,生成与边界框1042的最顶部表面1044重合的平面A。然后,从位于参考表面1040上的边界框1042的每一个角/顶点(v[i])(1046和1048),执行以下步骤:
a.沿射线将v[i]投影到照明源,并确定射线和与表面1044重合的顶部平面相交的交点(点B),以及点A和点B之间的距离(距离B);
b.沿射线将v[i]投影到成像器,并确定射线和与最顶部表面1044重合的平面相交的交点(点C),以及点A和点C之间的距离(距离C);
c.在v[i](位于表面A上)正上方的最顶部表面1044上获得框A的顶点(u[i]);
d.比较距离B和距离C;以较大者为准,检查对应点(点B或点C)并确定该点是否位于最顶部表面1044内;
i.如果是,则创建与该点(点B或点C)对应的新点u'[i];以及
ii.如果否,则创建对应于u[i]的新点u'[i]。
所得到的上顶点u'[]1050和1052应基本上形成表示校正阴影的矩形形状;可选地,将最佳拟合矩形应用于这些顶点,并通过将矩形向下投影到表面A来生成最终校正框(1040)。
请注意,完美正方形边界框1060因为平分了上阴影和下框1032,提供了对几何结构的错误估计。因此,初始框1042以拉长方式绘制,以包围参考平面1040上方的整个结构。
V.结论
应清楚的是,上述系统和方法可以有效地在3D图像中提供缺失的图像数据,其中,相机组件的几何结构和照明特性是已知的。该系统和方法有效地工作在相邻的、间隔开的对象和限定不同高度或不同高度部分的对象上。
以上是本发明说明性实施例的详细描述。在不脱离本发明的精神和范围的情况下,可以进行各种修改和添加。上述各种实施例中的每一个的特征可以适当地与其他所述实施例的特征组合,以便在相关联的新实施例中提供多种特征组合。此外,虽然前面描述了本发明的装置和方法的多个单独实施例,但本文所描述的仅是说明性的本发明原理的应用。例如,如本文所使用的,术语“处理”和/或“处理器”应被广泛地理解为包括各种基于电子硬件和/或软件的功能和部件(并且可替代地称为功能“模块”或“元件”)。此外,所描述的处理或处理器可以与其他处理和/或处理器组合,或者被划分为各种子处理或处理器。这些子处理和/或子处理器可以根据本文的实施例进行各种组合。同样,明确考虑,本文中的任何功能、处理和/或处理器可以使用由程序指令的非暂时性计算机可读介质组成的电子硬件、软件、或硬件和软件的组合来实现。此外,如本文所使用的,诸如“垂直”、“水平”、“上”、“下”、“底部”、“顶部”、“侧”、“前”、“后”、“左”、“右”等各种方向和配置术语仅用作相对于固定坐标空间的相对规定,而不用作绝对方向/布置,例如重力的作用方向。此外,当术语“基本”或“大致”用于给定的测量值、数值或特性时,它指的是在正常操作范围内以实现期望的结果的量,但这个量包括由于系统允许公差(例如1-5%)内的固有不精确性和误差引起的一些变化。通过非限制性示例,在3D相机包括线扫描类型的组件(例如轮廓仪)的情况下,编码器或其他运动感测设备与成像器结合使用,以逐行地构建用于FOV的完整3D图像的y维。因此,本描述仅作为示例,而非限制本发明的范围。
所要求保护的是:
Claims (15)
1.一种用于视觉系统的复合3D blob工具,所述复合3D blob工具具有处理器,所述处理器使用3D相机组件接收来自对象的所获取的3D图像数据,包括:
blob工具处理,所述blob工具处理识别所获取的3D图像数据中的正3D图像数据和负3D图像数据,并且所述blob工具处理将限定z维度高度信息的正3D图像数据和所述负3D图像数据组合,从而限定至少一个连接对象,
其中,所述负3D图像数据至少部分地包括正交x-y维度,所述正交x-y维度限定关于所述对象的数据缺失和关于所述对象的阴影,并且
其中,所述z维度高度信息用于基于(1)由与所述3D相机组件相关联的照明所投影的并由所述3D相机组件的图像传感器接收的射线角度的知识,以及(2)所述对象在所述图像传感器的视场中的位置来细化所述对象的x-y维度,使得阴影对所述对象的贡献基于所述对象的细化后的x-y维度而改变。
2.根据权利要求1所述的复合3D blob工具,所述blob工具处理基于所述3D相机组件中的校准信息针对所获取的3D图像数据的空间意义来分析所述连接对象。
3.根据权利要求1所述的复合3D blob工具,其中,所述对象包括以下中的至少一个:(a)多个并排对象,每一个对象的顶部具有大致相似的高度;以及(b)一个或更多个对象,具有分别限定多个不同高度的顶部表面。
4.根据权利要求1所述的复合3D blob工具,其中,所述3D相机组件包括立体相机、基于结构化照明的相机、基于飞行时间的相机和剖面仪中的至少一个。
5.根据权利要求1所述的复合3D blob工具,其中,所述阴影和所述正3D图像数据限定边界框,所述边界框包含驻留在参考表面上方的阴影和正3D图像。
6.根据权利要求5所述的复合3D blob工具,其中,所述参考表面限定所述对象所驻留的传送带表面。
7.根据权利要求6所述的复合3D blob工具,其中,所述对象是包裹,并且所述3D blob工具的结果被提供给所述传送带的门控组件,所述门控组件基于所述对象的特征将所述对象引导到多个不同目的地之一。
8.一种用于操作具有处理器的视觉系统的3D blob工具的方法,包括以下步骤:
提供使用3D相机组件获取的对象的3D图像数据;
识别所获取的3D图像数据中的正3D图像数据和负3D图像数据,并组合所述正3D图像数据和所述负3D图像数据;
限定至少一个连接对象,并基于3D相机中的校准信息针对所获取的3D图像数据的空间意义来分析所述连接对象,
其中,所述正3D图像数据限定z维度高度信息,并且所述负3D图像数据至少部分地包括正交x-y维度,所述正交x-y维度限定关于所述对象的数据缺失并限定关于所述对象的阴影;以及
基于由与所述3D相机组件相关联的照明所投影的并由所述3D相机组件的图像传感器接收的射线角度的知识以及所述对象在视场中的位置,使用所述z维度高度信息来细化所述对象的x-y维度,从而去除阴影对所述对象的贡献。
9.根据权利要求8所述的方法,还包括:基于所述3D相机组件中的校准信息针对所获取的3D图像数据的空间意义来分析所述连接对象。
10.根据权利要求8所述的方法,其中,所述对象包括以下中的至少一个:(a)多个并排对象,每一个对象具有大致相似高度的顶部;以及(b)一个或更多个对象,具有分别限定多个不同高度的顶面。
11.根据权利要求8所述的复合3D blob工具,其中,所述3D相机组件包括立体相机、基于结构化照明的相机、基于飞行时间的相机和剖面仪中的至少一个。
12.根据权利要求8所述的方法,还包括:利用所述阴影和正3D图像来限定边界框,所述边界框包含驻留于参考表面上方的所述阴影和所述正3D图像数据两者。
13.根据权利要求12所述的方法,其中,所述参考表面限定所述对象所驻留的传送带表面。
14.根据权利要求13所述的方法,其中,所述对象是包裹,并且还包括:基于所述对象的特征,对所述传送带进行门控以将所述对象引导到多个不同目的地之一。
15.根据权利要求14所述的方法,还包括:识别所述对象中的缺陷并对所述传送带进行门控以将所述对象引导到拒绝目的地。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062972114P | 2020-02-10 | 2020-02-10 | |
US62/972,114 | 2020-02-10 | ||
PCT/US2021/017498 WO2021163219A1 (en) | 2020-02-10 | 2021-02-10 | Composite three-dimensional blob tool and method for operating the same |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115362469A true CN115362469A (zh) | 2022-11-18 |
Family
ID=74853792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180025743.2A Pending CN115362469A (zh) | 2020-02-10 | 2021-02-10 | 复合三维blob工具及其操作方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11966996B2 (zh) |
EP (2) | EP4104137B1 (zh) |
JP (2) | JP2023505611A (zh) |
KR (1) | KR20220137926A (zh) |
CN (1) | CN115362469A (zh) |
WO (1) | WO2021163219A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11937019B2 (en) | 2021-06-07 | 2024-03-19 | Elementary Robotics, Inc. | Intelligent quality assurance and inspection device having multiple camera modules |
US12051186B2 (en) | 2021-11-03 | 2024-07-30 | Elementary Robotics, Inc. | Automatic object detection and changeover for quality assurance inspection |
US11605159B1 (en) | 2021-11-03 | 2023-03-14 | Elementary Robotics, Inc. | Computationally efficient quality assurance inspection processes using machine learning |
US11675345B2 (en) | 2021-11-10 | 2023-06-13 | Elementary Robotics, Inc. | Cloud-based multi-camera quality assurance architecture |
US12050454B2 (en) | 2021-11-10 | 2024-07-30 | Elementary Robotics, Inc. | Cloud-based multi-camera quality assurance lifecycle architecture |
US11605216B1 (en) * | 2022-02-10 | 2023-03-14 | Elementary Robotics, Inc. | Intelligent automated image clustering for quality assurance |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5831621A (en) * | 1996-10-21 | 1998-11-03 | The Trustees Of The University Of Pennyslvania | Positional space solution to the next best view problem |
US20020186878A1 (en) * | 2001-06-07 | 2002-12-12 | Hoon Tan Seow | System and method for multiple image analysis |
CA2455359C (en) | 2004-01-16 | 2013-01-08 | Geotango International Corp. | System, computer program and method for 3d object measurement, modeling and mapping from single imagery |
KR100612932B1 (ko) * | 2005-12-14 | 2006-08-14 | 주식회사 고영테크놀러지 | 3차원 형상 측정장치 및 방법 |
US7539533B2 (en) | 2006-05-16 | 2009-05-26 | Bao Tran | Mesh network monitoring appliance |
WO2008124397A1 (en) * | 2007-04-03 | 2008-10-16 | David Fishbaine | Inspection system and method |
JP4308319B2 (ja) * | 2007-08-07 | 2009-08-05 | パナソニック株式会社 | 画像処理装置および画像処理方法 |
US7983487B2 (en) | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US8660355B2 (en) | 2010-03-19 | 2014-02-25 | Digimarc Corporation | Methods and systems for determining image processing operations relevant to particular imagery |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
US9370799B2 (en) | 2011-05-17 | 2016-06-21 | Gii Acquisition, Llc | Method and system for optically inspecting a manufactured part at a single inspection station having a measurement axis |
WO2013005815A1 (ja) | 2011-07-01 | 2013-01-10 | 日本電気株式会社 | 物体検出装置、物体検出方法及びプログラム |
US10474858B2 (en) | 2011-08-30 | 2019-11-12 | Digimarc Corporation | Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9530060B2 (en) * | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
US20140378810A1 (en) | 2013-04-18 | 2014-12-25 | Digimarc Corporation | Physiologic data acquisition and analysis |
US10113910B2 (en) | 2014-08-26 | 2018-10-30 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
US10346687B2 (en) | 2015-08-06 | 2019-07-09 | Accenture Global Services Limited | Condition detection using image processing |
RU2669656C2 (ru) | 2015-08-06 | 2018-10-12 | Эксенчер Глобал Сервисез Лимитед | Обнаружение состояния с использованием обработки изображений |
US10074160B2 (en) | 2016-09-30 | 2018-09-11 | Disney Enterprises, Inc. | Point cloud noise and outlier removal for image-based 3D reconstruction |
US10888399B2 (en) | 2016-12-16 | 2021-01-12 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
CN109993046B (zh) * | 2018-06-29 | 2021-04-09 | 长城汽车股份有限公司 | 基于视觉摄像机的自阴影物体边缘识别方法、装置及车辆 |
FI128443B (en) * | 2018-12-21 | 2020-05-15 | Valmet Automation Oy | Contactless thickness measurement |
US10866322B2 (en) * | 2018-12-31 | 2020-12-15 | Datalogic Usa, Inc. | Identification of shadowing on flat-top volumetric objects scanned by laser scanning devices |
-
2021
- 2021-02-10 EP EP21709597.5A patent/EP4104137B1/en active Active
- 2021-02-10 JP JP2022548144A patent/JP2023505611A/ja active Pending
- 2021-02-10 WO PCT/US2021/017498 patent/WO2021163219A1/en unknown
- 2021-02-10 KR KR1020227029879A patent/KR20220137926A/ko not_active Application Discontinuation
- 2021-02-10 US US17/173,032 patent/US11966996B2/en active Active
- 2021-02-10 CN CN202180025743.2A patent/CN115362469A/zh active Pending
- 2021-02-10 EP EP24184389.5A patent/EP4428817A2/en active Pending
-
2024
- 2024-03-04 JP JP2024031908A patent/JP2024069286A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4104137B1 (en) | 2024-06-26 |
US11966996B2 (en) | 2024-04-23 |
KR20220137926A (ko) | 2022-10-12 |
JP2023505611A (ja) | 2023-02-09 |
EP4428817A2 (en) | 2024-09-11 |
US20210350495A1 (en) | 2021-11-11 |
JP2024069286A (ja) | 2024-05-21 |
WO2021163219A1 (en) | 2021-08-19 |
EP4104137A1 (en) | 2022-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115362469A (zh) | 复合三维blob工具及其操作方法 | |
US11720766B2 (en) | Systems and methods for text and barcode reading under perspective distortion | |
US10924729B2 (en) | Method and device for calibration | |
US8290245B2 (en) | Measuring apparatus and method for range inspection | |
CN110189322B (zh) | 平整度检测方法、装置、设备、存储介质及系统 | |
JP6983828B2 (ja) | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 | |
US10380767B2 (en) | System and method for automatic selection of 3D alignment algorithms in a vision system | |
US12067746B2 (en) | Systems and methods for using computer vision to pick up small objects | |
CN107957246A (zh) | 基于双目视觉的传送带上物体几何尺寸测量方法 | |
US20170193340A1 (en) | System, method and computer program product for training a three dimensional object indentification system and identifying three dimensional objects using semantic segments | |
CN113592962B (zh) | 基于机器视觉的批量硅片标识识别方法 | |
KR20230171859A (ko) | 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법 | |
CN114264243A (zh) | 一种检测压接焊点以及测量压接焊点之间线弧高度的方法 | |
JP3823559B2 (ja) | 三次元距離データを変換する方法 | |
So et al. | 3DComplete: Efficient completeness inspection using a 2.5 D color scanner | |
US20220414916A1 (en) | Systems and methods for assigning a symbol to an object | |
Kucukyıldız et al. | Bottle counting system for a re-cycling facility based on processing of depth images | |
CN117892757A (zh) | 圆形二维码生成方法及其在工业生产线中的识别运用方法 | |
EP3376435A1 (en) | Image processing apparatus, image processing system, image processing method, and program | |
He et al. | Length measurement on plane based on monocular vision and OpenCV | |
Wikander | Three dimensional object recognition for robot conveyor picking | |
Szántó | Robot path generation from image recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |