CN108701344B - 在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统 - Google Patents
在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统 Download PDFInfo
- Publication number
- CN108701344B CN108701344B CN201680081638.XA CN201680081638A CN108701344B CN 108701344 B CN108701344 B CN 108701344B CN 201680081638 A CN201680081638 A CN 201680081638A CN 108701344 B CN108701344 B CN 108701344B
- Authority
- CN
- China
- Prior art keywords
- color
- identifying
- identified
- point cloud
- displaying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 69
- 230000006870 function Effects 0.000 claims description 13
- 239000003086 colorant Substances 0.000 claims description 12
- 238000013481 data capture Methods 0.000 claims description 10
- 238000013500 data storage Methods 0.000 claims description 6
- 238000004806 packaging method and process Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000008685 targeting Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Abstract
本文公开了用于在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统。实施例采用方法的形式,该方法包括当深度传感器被定位成使得瞄准指示符出现在物体的第一表面上时,从所述深度传感器获得三维(3D)点云;处理3D点云以识别第一表面的范围;进一步处理所述3D点云以识别与第一表面相邻且垂直于第一表面的第二表面,并且识别第二表面的范围;以及经由用户界面显示3D点云的至少部分,包括以第一颜色显示所识别的第一表面并且以与第一颜色不同的第二颜色显示所识别的第二表面。
Description
本发明的背景
在航运之前准确测量包装体是运输和物流行业的重要任务。对于用户来说,能够从还包括背景数据(例如,其他物体)的图像测量一个或多个包装体的尺寸是有利的。在图形用户界面(“GUI”)中查看图像时,这可以证明是困难的。在确定包装体尺寸时,难以在GUI中将包装体图像与背景图像区分开。包装体图像和背景图像的良好区分对于包装体尺寸的准确测量是重要的。因此,需要在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统。
附图的几个视图的简要说明
附图(其中类同的附图标记在全部单独的视图中表示相同的或功能类似的要素)连同下面的详细描述被纳入于此并形成说明书的一部分,并用来进一步阐述包括所要求保护的发明的构思的实施例,以及解释那些实施例的各种原理和优势。
图1描绘了根据一些实施例的包括若干个示例包装体以及握住示例手持式计算设备的用户的示例场景。
图2描绘了根据一些实施例的图1的计算设备的第一示例前视图。
图3描绘了根据一些实施例的图1的计算设备的示例架构视图。
图4描绘了根据一些实施例的示例方法。
图5描绘了根据一些实施例的图1的示例包装体的第一轮廓视图。
图6描绘了根据一些实施例的图1的示例包装体的第二轮廓视图。
图7描绘了根据一些实施例的图1的计算设备的第二示例前视图。
图8描绘了根据一些实施例的图1的计算设备的第三示例前视图。
图9描绘了根据一些实施例的图1的示例包装体的第三轮廓视图。
图10描绘了根据一些实施例的图1的计算设备的第四示例前视图。
本领域技术人员将理解附图中的要素出于简化和清楚而示出,并且不一定按比例绘制。例如,附图中的要素中的一些要素的尺寸可相对于其他要素被放大以帮助改善对本发明实施例的理解。
已在附图中通过常规符号在适当位置对装置和方法构成进行了表示,所述表示仅示出与理解本发明的实施例有关的那些特定细节以免因得益于本文的描述对本领域技术人员显而易见的细节而混淆本公开。
具体实施方式
本文公开了用于在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统。
一个实施例采用方法的形式,该方法包括(a)当深度传感器被定位成使得瞄准指示符(indicator)出现在物体的第一表面上时,从所述深度传感器获得三维(3D)点云,(b)处理所述3D点云以识别所述第一表面的范围,(c)进一步处理所述3D点云以识别与所述第一表面相邻且垂直于所述第一表面的第二表面,并且识别所述第二表面的范围,以及(d)经由用户界面显示所述3D点云的至少部分,其中显示所述3D点云的至少部分包括以第一颜色显示所识别的第一表面并且以与所述第一颜色不同的第二颜色显示所识别的第二表面。
第二个实施例采用系统的形式,该系统包括用户界面、深度传感器、处理器和数据存储装置,该数据存储装置包含可由所述处理器执行以用于使所述系统执行至少前一段中描述的功能的指令。
在至少一个实施例中,所述深度传感器和所述用户界面两者都是单个手持式设备的部件。
在至少一个实施例中,瞄准指示符出现在物体的第一表面上包括瞄准指示符出现在所述用户界面中以被定位在所述物体的第一表面上。
在至少一个实施例中,所述瞄准指示符的形状像正方形。
在至少一个实施例中,所述瞄准指示符的形状像十字准线(crosshairs)。
在至少一个实施例中,瞄准指示符出现在物体的第一表面上包括瞄准指示符实际上被投射到所述物体的第一表面上。
在至少一个实施例中,所述瞄准指示符出现在所述第一表面上的瞄准指示符位置处,并且识别所述第一表面的范围包括(i)计算在所述瞄准指示符位置处的瞄准指示符单位法向矢量;以及(ii)将所述第一表面的范围识别为在3D点云中的点的第一表面组,其中所述第一表面组是连续的(contiguous)并且包括瞄准指示符位置,并且其中第一表面组中的每个点具有等于所述瞄准指示符单位法向矢量的相应的单位法向矢量。
在至少一个实施例中,识别所述第二表面包括(i)识别(a)与所述第一表面相邻且(b)具有与所述瞄准指示符单位法向矢量垂直的第二表面点单位法向矢量的第二表面点;以及(ii)将包括所述第二表面点的表面识别为所述第二表面。
在至少一个实施例中,识别所述第二表面的范围包括将所述第二表面的范围识别为在所述3D点云中的点的第二表面组,其中所述第二表面组是连续的并且包括所述第二表面点,并且其中所述第二表面组中的每个点具有等于所述第二表面点单位法向矢量的相应的单位法向矢量。
在至少一个实施例中,识别所述第二表面包括(i)识别所述第一表面的第一边缘,(ii)识别多个候选第二表面,(iii)识别所识别的候选第二表面中的至少一个候选第二表面的至少一个边缘;以及(iv)将所述第二表面识别为具有与所识别的第一表面的第一边缘共同延伸的边缘的候选第二表面。
在至少一个实施例中,所述第一颜色和所述第二颜色中的一种颜色是橙色并且所述第一颜色和所述第二颜色中的另一种颜色是蓝色或绿色。
在至少一个实施例中,该方法进一步包括从所识别的第一表面和第二表面中识别至少两个边缘,以及显示所述3D点云的至少部分包括以与所述第一颜色和所述第二颜色两者不同的第三颜色显示所识别的所述至少两个边缘。
在至少一个实施例中,所述第一颜色、所述第二颜色和所述第三颜色中的每个颜色具有与所述第一颜色、所述第二颜色和所述第三颜色中的另外两种颜色中的每个颜色的相互高对比度关系。
在至少一个实施例中,从所识别的第一表面和第二表面中的所述至少两个边缘包括两个第一表面边缘和一个第二表面边缘,所有边缘在所述物体的共同角(commoncorner)处连接。
在至少一个实施例中,第三颜色是黄色。
在至少一个实施例中,所述第一颜色和所述第二颜色中的一种颜色是橙色并且所述第一颜色和所述第二颜色中的另一种颜色是蓝色或绿色。
在至少一个实施例中,所述第一颜色和所述第二颜色具有相互高对比度关系。
在至少一个实施例中,以给定颜色显示给定表面包括以所述给定颜色显示所述给定表面的范围。
在至少一个实施例中,该方法进一步包括当经由所述用户界面以所述第一颜色显示所识别的第一表面并且以所述第二颜色显示所识别的第二表面时,经由所述用户界面接收数据捕获命令,并且响应地存储所述物体的体积数据特性。
并且,本文描述的变型和置换中的任一个可以相对于任何实施例来实现,包括相对于任何方法实施例以及相对于任何系统实施例。此外,尽管使用稍微不同的语言(例如,过程、方法、步骤、功能、功能组等)来描述和/或表征这种实施例,但仍存在实施例的该灵活性和交叉适用性。
在进行该具体描述之前,应注意,描绘在各个附图中(以及组合各个附图来描述的)实体、连接、布置等是作为示例而非作为限制的方式来呈现。由此,关于特定附图“描绘”的内容、在特定的附图中的特定元件或实体“是”或“具有”的内容的任何和所有陈述或其他指示以及(以隔离和脱离上下文的方式可以被理解为绝对的并因此限制的)任何和所有类似的陈述只能被恰当地理解为推定地在前加上诸如“在至少一个实施例中......”之类的语句。并且出于类似于表述的简洁和清晰的原因,这意味着在该具体描述中前导语句不再反复重复。
图1描绘了根据一些实施例的包括若干个示例包装体以及握住示例手持式计算设备的用户的示例场景。特别地,图1描绘了手持式设备102、包装体104和用户106。包装体104是基本上立方体形状(即,每个包装体104的每侧是基本上矩形(例如正方形)形状)并且可以具有如示例104A、104B和104C所描绘的任何数量的不同尺寸。还在图1中标记的是包装体104A的顶部表面108和前表面110,以及(i)顶部表面108A的第一边缘108A和第二边缘108B以及(ii)前表面110的第一边缘110A和第二边缘110B。在所描绘的示例场景中,包装体104A的前表面110面向用户106。
用户106可以定位手持式设备102,使得手持式设备102通常朝向包装体104被瞄准并且被引导到包装体的表面。在所描绘和描述的示例中,用户106定位手持式设备102,使得手持式设备102(特别是手持式设备102的瞄准指示符)被瞄准在包装体104A的第一表面108(即,描绘在图1中的示例场景中的顶部表面)。这是作为示例而非限制,因为用户106可以将手持式设备102瞄准任何包装体的任何表面。
图2描绘了根据一些实施例的图1的计算设备的第一示例前视图。特别地,图2将手持式设备102描绘为具有触摸屏202和瞄准指示符204。在图2中,瞄准指示符204显示在触摸屏202上,使得它对用户106看起来像瞄准指示符204出现在包装体104A的顶部表面108上。在一些实施例中,瞄准指示符204包括实际从手持式设备102投射到包装体的表面上的光束(例如,激光束)。在操作中,任一种方式,对于观看手持式设备102的触摸屏202的用户来说看起来瞄准指示符204(当被适当地瞄准时)出现在包装体的表面上。如所陈述的,在所描绘和描述的示例中,瞄准指示符204看起来在包装体104A的顶部表面108上。
图3描绘了根据一些实施例的图1的示例计算设备的架构视图。手持式设备102可以被配置为执行本文描述的功能,并且如所描绘的包括通信接口302、处理器304、数据存储装置306(包含程序指令308和操作数据310)、用户界面312(包含触摸屏202和数据捕获元件314)、外围设备316(包含深度传感器318)和通信总线320。这种布置是作为示例而非限制来呈现,因为此处可以描述其他示例布置。
通信接口302可以被配置为可操作用于根据一个或多个无线通信协议进行通信,该无线通信协议中的一些示例包括LMR、LTE、APCO P25、ETSI DMR、TETRA、Wi-Fi、蓝牙等。通信接口302还可以或代替地包括一个或多个有线通信接口(用于根据例如以太网、USB和/或一个或多个其他协议进行通信)。通信接口302可以包括用于与如本文所描述的一个或多个其他实体进行一种或多种形式的通信的任何必要的硬件(例如,芯片组、天线、以太网接口等)、任何必要的固件以及任何必要的软件。
处理器304可以包括相关领域的技术人员认为合适的任何类型的一个或多个处理器,一些示例包括通用微处理器和专用数字信号处理器(DSP)。
数据存储装置306可以采用任何非瞬态计算机可读介质或这种介质的组合的形式,一些示例包括闪存、只读存储器(ROM)和随机存取存储器(RAM),仅举几例,因为可以使用相关领域的技术人员认为合适的任何一种或多种类型的非瞬态数据存储技术。如图3中所描绘,数据存储装置306包含由用于执行本文所描述的各种功能的处理器304可执行的程序指令308,并且进一步被描绘为包含操作数据310,该操作数据可包括由手持式设备102在执行本文描述的功能中的一个或多个功能中存储和/或访问的任何一个或多个数据值。在至少一个实施例中,手持式设备102包含矩阵实验室(MATLAB)程序指令308。并且当然可以列出其他示例。
用户界面312可以包括一个或多个输入设备(也称为部件等)和/或一个或多个输出设备(也称为部件等)。关于输入设备,用户界面312可以包括一个或更多触摸屏、按钮、开关、麦克风等。关于输出设备,用户界面312可以包括一个或多个显示器、扬声器、发光二极管(LED)等。而且,用户界面312的一个或多个部件(例如,交互式触摸屏和显示器)可以提供用户输入功能和用户输出功能两者。如图3中所描绘,用户界面312包含触摸屏202和数据捕获元件314。如本领域技术人员已知的,还可以存在其他手持式设备用户界面部件。
外围设备316可以包括在操作期间可由手持式设备102访问和使用的任何手持式设备102附件、部件等。如图3中所描绘,外围设备316包含深度传感器318。存在可以使用的许多类型的深度传感器318,可能为包括RGB传感器的深度传感器、可能为跳跃运动(leapmotion)、可能为英特尔感知计算、可能为微软Kinect以及可以在这里列出的多个其他可能性。还存在可以由深度传感器318实现的多个深度感测技术,可能使用立体三角测量,可能使用飞行时间,可能使用编码孔径以及在这里可以列出的许多其他可能性。该组信息(即,点)在本文中被称为3D点云(或者有时简称为点云);这种云中的每个点对应于深度传感器318的视场中的对应位置处的被感知的包装体104。
图4描绘了根据一些实施例的示例方法。特别地,图4描绘了包括步骤402、404、406和408的方法400,并且在下面通过示例描述为由手持式设备102执行,尽管通常方法400可以由被适当地配备、编程和配置的任何计算设备执行。
在步骤402,在当手持式设备102被定位成使得瞄准指示符204出现在包装体104A的顶部表面108上时的时间,手持式设备102使用深度传感器318获得3D点云。3D点云包括多个点,每个点具有相应的法向矢量。出现在包装体104A的顶部表面108上的瞄准指示符204出现在用户界面202中。瞄准指示符204可以以若干不同方式出现在用户界面202中。在一个实施例中,瞄准指示符204的形状像正方形或十字准线。在另一个实施例中,瞄准指示符204被投射在包装体104A的第一表面上。并且当然,其他示例实现也是可能的。
在步骤404,手持式设备102处理3D点云以识别包装体104A的第一表面的范围。手持式设备102可以通过首先计算如图5中所描绘的瞄准指示符单位法向矢量来这样做。在该实例和本公开的其他地方,术语单位法向矢量用于指代具有单位(即,默认、标准等)长度的法向矢量,以便于在这种法向矢量的取向(即方向)是有关的,并且这种法向矢量的幅度不是特别相关的情境中将各种单位法向矢量彼此比较。
法向矢量是3D表面的局部几何性质,并且对于给定点是特定的。本领域技术人员应该清楚,在点云数据组内的给定点处的法向矢量的可靠估计因此取决于给定点的邻近点的识别。手持式设备102可以有多种不同的方式来识别法向矢量的邻近点并计算3D点云内的点处的法向矢量。在至少一个实施例中,手持式设备102使用固定数量的欧几里得(Euclidean)最近的邻近点来估计3D点云内的给定点处的法向矢量。在另一个实施例中,手持式设备102通过构造多边形网格以根据连接的多边形面识别邻近点来识别法向矢量的邻近点。然后,手持式设备102通过将所识别的邻近点拟合到平面并使用被拟合的平面的法向作为法向矢量来计算法向矢量。并且当然,其他示例实现也是可能的。在一些实施例中,手持式设备102使用库提供的函数来计算给定点处的表面的法向矢量。一个示例是MATLAB提供的“surfnorm”函数。
图5描绘了根据一些实施例的图1的示例包装体的第一轮廓视图。特别地,图5描绘了包装体104的轮廓。该轮廓旨在通常对应于图1中描绘的包装体104,以便帮助读者可视化示例真实世界场景,从该真实世界场景示例3D点云可以被导出、收集等。此外,出于说明的目的,3D点云中的各个点在图5中被示出为具有对应于包装体104A的顶部表面108的相应的单位法向矢量。在实际实现中,可以计算任何数量的单位法向矢量,因为在图5中描绘的各种单位法向矢量用于说明而不意味着是全面的。
如图5中所示,示出了瞄准指示符204、瞄准指示符单位法向矢量502和单位法向矢量的第一表面组504。瞄准指示符单位法向矢量502是对应于表示瞄准指示符204在包装体104A上的位置的点的法向矢量。
返回到图4,在步骤404,关于手持式设备102如何可以识别包装体104A的顶部表面108的范围,在至少一个实施例中,手持式设备102将顶部表面108的范围识别为点的第一表面组,这些点具有等于在3D点云中的瞄准指示符单位法向矢量502的相应的单位法向矢量504,其中点的该第一表面组是连续的并且包括点,在该点处瞄准指示符单位法向矢量502源自包装体104A的顶部表面108。考虑到包装体104A的顶部表面108可能不是完全平坦的,在至少一个实施例中,两个单位法向矢量可以被认为彼此相等,如果它们的方向在彼此的阈值容差内。并且当然,其他示例实现也是可能的。
在步骤406,手持式设备102进一步处理3D点云以识别第二表面-在这种情况下为包装体104A的前表面110。在至少一个实施例中,手持式设备102可以通过首先计算如图6中所描绘的第二表面点单位法向矢量来这样做。
图6描绘了根据一些实施例的图1的示例包装体的第二轮廓视图。特别地,图6描绘了包装体104的轮廓、瞄准指示符单位法向矢量502、顶部表面108、第一表面边缘606、前表面110、第二表面点602、第二表面点单位法向矢量604、以及单位法向矢量的第二表面组608。第二表面点602是在第二表面110上的点。第二表面点单位法向矢量604是对应于第二表面点602的法向矢量。进一步,前表面110与包装体104A的顶部表面108相邻并垂直。单位法向矢量的第二表面组608表示包装体104A的第二表面110的范围。
因此,在操作中,手持式设备102可以在点处计算瞄准指示符单位法向矢量502,在该点处瞄准指示符204出现在用户已选择将瞄准指示符204瞄准在的表面上。在本公开的内容中,该表面被称为第一表面。在所描绘和描述的示例中,第一表面是包装体104A的顶部表面108。因此,瞄准指示符单位法向矢量502为顶部表面108上的所有点建立单位法向矢量。然后,手持式设备102通过在点云数据中在各种不同方向上进行,在每个点处计算该点处的表面的单位法向矢量来确定顶部表面108的范围。如果在给定点处,单位法向矢量与瞄准指示符单位法向矢量502匹配(例如,足够接近),则手持式设备102认为该给定点仍然是顶部表面108的部分,并且向外进行到下一点。
一旦手持式设备102到达在其处计算出的单位法向矢量不等于(例如,不足够接近)瞄准指示符单位法向矢量502的点,手持式设备就确定它已经到达顶部表面108的边缘。在各种不同的实施例中,手持式设备102可能需要在行中的一定数量的点或经过的一定数量的点的特定部分具有不相等的单位法向矢量,以便确定已到达顶部表面108的边缘。这可以防止异常数据被过度解释为边缘。
一旦手持式设备102在足够的方向上已经完成该分析以识别顶部表面108的四个边缘,手持式设备然后就可以看过去那些边缘中的一个边缘以试图识别与已经识别的第一表面即相邻又垂直的第二表面。在理想情况下,这样的第二表面将由用户在视觉上确认为也是用户106感兴趣的包装体104A的表面,尽管它也可以是包装体104A正靠坐的文件柜或墙壁或其他包装体或类似物的表面。在所描绘和描述的示例中,第二表面实际上是包装体104A的另一表面;在这种情况下,它是包装体104A的前表面110。
手持式设备102可以通过前进到点云中的位于包装体104A的顶部表面108的现在所识别的边缘的(从瞄准指示符点的)另一侧的点来寻找第二表面。在图6中,可以看出已经识别出顶部表面108的前边缘606。手持式设备102可以前进超出该边缘606,随着它行进仍计算在每个点处的单位法向矢量,直到它到达具有垂直于瞄准指示符单位法向矢量502的单位法向矢量604的点(诸如点602)。然后,手持式设备102可以遵循如上所述的类似过程以在多个不同方向上前进以识别第二表面的范围。第二表面(即,包装体104A的前表面110)的范围在图6中以图形方式表示为单位法向矢量的组608。
在一些实施例中,手持式设备102将不会将给定表面认为是“第二表面”,因为除非该给定表面与第一表面的所识别的边缘共享边缘,本文才使用该术语。因此,如果手持式设备102初始地在与第一表面相邻且垂直但不共享边缘(即,其自身具有与顶部表面108的所识别的边缘共同延伸的边缘)的表面上计算单位法向矢量,则手持式设备102将拒绝该表面并移动到与第一表面既相邻又垂直的另一表面,并检查该下一表面是否与顶部表面108共享边缘。因此,当前表面110与顶部表面108共享边缘606时,将与顶部表面108相邻且垂直但与顶部表面108不共享边缘的表面的一些示例包括墙壁、地板、文件柜的侧面、其他不同尺寸的盒体的侧面等。在实施例中,对于共享边缘的两个表面,一个表面的边缘必须与另一个表面的边缘共同延伸。并且当然,其他示例实现也是可能的。
回到图4,在步骤408,手持式设备102经由触摸屏202显示3D点云的至少部分,其中显示3D点云的至少部分包括手持式设备102以第一颜色显示包装体104A的所识别的顶部表面108,并且以与第一颜色不同的第二颜色显示包装体104A的所识别的前表面110。
手持式设备102可以以任何数量的颜色显示包装体104A的所识别的顶部表面108。类似地,手持式设备102可以以任何数量的颜色显示包装体104A的所识别的前表面110。然而,包装体104A的顶部表面108和包装体104A的前表面110以不同的颜色显示。在至少一个实施例中,手持式设备102经由触摸屏202以橙色显示包装体104A的顶部表面108并且以蓝色显示包装体104A的前表面110。在另一个实施例中,手持式设备102经由触摸屏102以红色显示包装体104A的顶部表面108并且以紫色显示包装体104A的前表面110。并且当然,其他示例实现也是可能的。
图7描绘了根据一些实施例的图1的计算设备的第二示例前视图。特别地,图7描绘了包括触摸屏202的手持式设备102,该触摸屏202当前正在描绘数据捕获元件314、包括顶部表面108(以顶部表面颜色702显示)和前表面110的包装体104A。顶部表面颜色702被描绘为包装体104A的顶部表面108上的方形网格图案。方形网格图案旨在大体上对应于包装体104A的顶部表面108上的顶部表面颜色702,以便帮助读者可视化示例的真实世界场景。进一步注意到,在一些实施例中,手持式设备102以给定颜色显示给定表面采用手持式设备102以给定颜色显示给定表面的部分的形式;在其他实施例中,手持式设备102以给定颜色显示给定表面采用手持式设备102以给定颜色显示给定表面的全部范围的形式。
图8描绘了根据一些实施例的图1的计算设备的第三示例前视图。特别地,图8描绘了图7中显示的方面中的所有方面,并且另外描绘了正以前表面颜色802显示的包装体104A的前表面110。前表面颜色802被描绘为包装体104A的前表面110上的对角网格图案。对角网格图案旨在大体上对应于前表面110上的前表面颜色802,以便帮助读者可视化示例的真实世界场景。注意到,两种不同的几何图案被用于描绘顶部表面颜色702和前表面颜色802,以强调这两种颜色702和802是彼此不同的。在至少一个实施例中,颜色702和颜色802彼此具有相互高对比度的关系(例如,橙色和绿色)。
在一些实施例中,手持式设备102还从顶部表面108和前表面110的边缘中识别至少两个边缘。在这样的至少一些这样的实施例中,当显示3D点云的至少部分时,手持式设备102以与顶部表面颜色702和前表面颜色802两者不同的第三颜色显示包装体104A的至少两个所识别的边缘。在至少一个这样的实施例中,第三颜色具有与顶部表面颜色702和前表面颜色802两者的相互高对比度关系。在一个实施例中,第三颜色是黄色(例如,明亮的、荧光笔型黄色)。
图9描绘了根据一些实施例的图1的示例包装体的第三轮廓视图。特别地,图9描绘了包装体104的轮廓、包装体104A、顶部表面108、顶部表面的第一边缘108A、顶部表面的第二边缘108B、前表面110、前表面的第一边缘110A、前表面的第二边缘110B、瞄准指示符单位法向矢量502、第二表面点602、第二表面点单位法向矢量604和共同角点902。
如上所述,在至少一个实施例中,一旦手持式设备102到达在其处所计算的单位法向矢量不等于(例如,不足够接近)瞄准指示符单位法向矢量502的点,手持式设备102就通过确定它已到达顶部表面的第一边缘108A来识别顶部表面108的至少两个边缘。在足够的方向上进一步分析之后,手持式设备102识别顶部表面的第二边缘108B。
进一步,如上所述,在至少一个实施例中,手持式设备102通过前进到点云中位于包装体104A的顶部表面的第一边缘108A的(从瞄准指示符点的)另一侧的点来识别前表面110。手持式设备102前进超出包装体104A的顶部表面的第一边缘108A,随着它行进仍计算在每个点处的单位法向矢量,直到它到达具有垂直于瞄准指示符单位法向矢量502的第二表面点单位法向矢量604的点(诸如点602)。然后,手持式设备102遵循如上所述的类似过程以在多个不同方向上前进以识别前表面的第一边缘110A和前表面的第二边缘110B。在实施例中,手持式设备102识别出边缘108A(也是110A)、108B和110B在包装体104A的共同角点902处彼此连接。
手持式设备102可以以任何数量的第三颜色显示包装体104A的至少两个所识别的边缘。然而,三种不同的颜色分别用于(i)包装体104A的该至少两个所识别的边缘,(ii)包装体104A的顶部表面108,以及(iii)包装体104A的前表面110。例如,在一个实施例中,手持式设备102经由触摸屏202(i)以绿色显示边缘108A/110A、108B和110B;(ii)以橙色显示包装体104A的顶部表面108;并且(iii)以蓝色显示包装体104A的前表面110。并且当然,其他示例实现也是可能的。
图10描绘了根据一些实施例的图1的计算设备的第四示例前视图。特别地,图10描绘了手持式设备102、触摸屏202、数据捕获元件314、包装体104A、第一表面108、第一表面颜色702、第二表面110、第二表面颜色802和第三边缘颜色1002。
第三边缘颜色1002被描绘为包装体104A的边缘108A/110A、108B和110B中的每个边缘上的点状图案。点状图案旨在大体上对应于第三边缘颜色1002,以便帮助读者可视化示例的现实世界场景。
在一些实施例中,手持式设备102当显示具有以三种不同颜色突出显示的所识别的表面和边缘的3D点云的至少部分时,可以经由用户界面(例如,经由触摸屏202)接收数据捕获命令。在一些实施例中,这采取检测图10中显示的数据捕获元件(例如,软按钮)314的致动的形式。
在示例情形中,当总结出两个突出显示的表面(108和110)都在用户106感兴趣的(即,用户106使瞄准指示符204瞄准在的)包装体上时,用户可以致动数据捕获元件314。注意到,在手持式设备102突出显示顶部表面108以及还突出显示不是包装体104A的部分的第二表面的情况下,用户可以再次尝试、改变角度、移动包装体104A以使得它不在任何其他事物的附近和/或采取一个或多个其他动作。
在检测到数据捕获元件314的致动时,手持式设备102可以响应地捕获和存储是包装体104的特性的体积数据。该体积数据可以包括包装体104的各种尺寸(例如,长度、宽度、深度)。该体积数据可以包括包装体104的所计算的体积。并且当然,其他示例实现也是可能的。
在一些实施例中,手持式设备102基于所计算的体积执行成本计算,以便向客户收费。在一些实施例中,手持式设备102将体积数据和/或从其导出的一个或多个值(例如,航运成本)传输到一个或多个其他联网计算系统(例如,包装体工作流程跟踪系统)。并且当然,其他示例实现也是可能的。
在上述说明书中已经描述了具体实施例。然而,本领域普通技术人员理解,可做出多种修改和改变而不脱离如下权利要求书所阐述的本发明的范围。因此,说明书和附图被认为是图示性的而非限定性的意义,并且所有这些修改都旨在被包括在本教导的范围内。
这些益处、优势、问题解决方案以及可能使任何益处、优势或解决方案发生或变得更为突出的(多个)任何要素不被解释成任何或所有权利要求的关键的、必需的或必要的特征或要素。本发明单独由所附权利要求书限定,包括在本申请处于未决状态期间做出的任何修改以及公布后这些权利要求的所有等效。
此外,在该文档中,诸如第一和第二、顶部和底部等之类的关系术语可单独地用来将一个实体或动作与另一个实体或动作区别开,而不一定要求或暗示这些实体或动作之间具有任何实际的这种关系或顺序。术语“构成”、“构成有”、“具有”、“具备”、“包括”、“包括有”、“包含”、“含有”或它们的任何其他变型旨在覆盖非排他性包括,以使构成为、具有、包括、包含一要素列表的过程、方法、物品或装置不仅包括那些要素还可包括对该过程、方法、物品或装置未明确列出的或固有的其他要素。以“构成有一”、“具有一”、“包括一”、“包含一”开头的要素,在没有更多约束条件的情形下,不排除在构成有、具有、包括、包含该要素的过程、方法、物品或装置中有另外的相同要素存在。术语“一”和“一个”被定义为一个或多个,除非本文中另有明确声明。术语“基本上”、“本质上”、“近似”、“大约”或这些术语的任何其他版本被定义为如本领域内技术人员理解的那样接近,并且在一个非限定性实施例中,这些术语被定义为在10%以内,在另一实施例中在5%以内,在另一实施例中在1%以内,而在另一实施例中在0.5%以内。本文中使用的术语“耦合的”被定义为连接的,尽管不一定是直接连接的也不一定是机械连接的。以某种方式“配置的”设备或结构至少以该种方式进行配置,但也可以未列出的方式进行配置。
要理解,一些实施例可包括一个或多个通用或专用处理器(或“处理器件”),例如微处理器、数字信号处理器、定制的处理器和现场可编程门阵列(FPGA)以及唯一存储的程序指令(包括软件和固件两者),所述唯一存储的程序指令控制一个或多个处理器以连同某些非处理器电路实现本文所描述的方法和/或装置的一些、多数或全部功能。替代地,一些或全部功能可由无存储程序指令的状态机来实现,或者在一种或多种专用集成电路(ASIC)中实现,其中各种功能或某些功能的某些组合被实现为定制逻辑。当然,也可使用这两种方法的组合。
此外,一个实施例可被实现为计算机可读存储介质,该计算机可读存储介质具有存储在其上的计算机可读代码,用于对(例如包括处理器的)计算机编程以执行如本文所描述和要求保护的方法。这种计算机可读存储介质的示例包括但不限于硬盘、CD-ROM、光存储器件、磁存储器件、ROM(只读存储器)、PROM(可编程只读存储器)、EPROM(可擦除可编程只读存储器)、EEPROM(电可擦除可编程只读存储器)以及闪存。此外,预期本领域普通技术人员虽然做出由例如可用时间、当前技术和经济考虑促动的可能显著的努力以及许多设计选择,但在得到本文所公开的构思和原理指导时,将容易地能以最少的试验产生此类软件指令和程序以及IC。
提供本公开的摘要以使读者快速地确定本技术公开的性质。提交该摘要,并且理解该摘要将不用于解释或限制权利要求书的范围或含义。此外,在上述具体实施方式中,可以看出出于使本公开整体化的目的,各个特征在各实施例中被编组到一起。这种公开方法不应被解释为反映要求保护的实施例与各项权利要求中明确记载的相比需要更多的特征的意图。相反,如以下权利要求所反映,发明主题在于少于单个公开的实施例的全部特征。因此,下面的权利要求在此被纳入详细说明书中,其中每个权利要求独自作为单独要求保护的主题事项。
Claims (19)
1.一种在确定物体的尺寸时突出显示物体表面和边缘的方法,包括:
当深度传感器被定位成使得瞄准指示符出现在物体的第一表面上时,从所述深度传感器获得三维3D点云;
处理所述3D点云以识别所述第一表面的范围;
进一步处理所述3D点云以识别与所述第一表面相邻且垂直于所述第一表面的第二表面,并且识别所述第二表面的范围,其中识别所述第二表面包括:识别所述第一表面的第一边缘;识别多个候选第二表面;识别所识别的候选第二表面中的至少一个候选第二表面的至少一个边缘;以及将所述第二表面识别为具有与所识别的第一表面的第一边缘共同延伸的边缘的候选第二表面;以及
经由用户界面显示所述3D点云的至少部分,其中显示所述3D点云的至少部分包括以第一颜色显示所识别的第一表面并且以与所述第一颜色不同的第二颜色显示所识别的第二表面。
2.根据权利要求1所述的方法,其中所述深度传感器和所述用户界面两者是单个手持式设备的部件。
3.根据权利要求1所述的方法,其中瞄准指示符出现在物体的第一表面上包括瞄准指示符出现在所述用户界面中以被定位在所述物体的第一表面上。
4.根据权利要求3所述的方法,其中所述瞄准指示符的形状像正方形。
5.根据权利要求3所述的方法,其中所述瞄准指示符的形状像十字准线。
6.根据权利要求1所述的方法,其中瞄准指示符出现在物体的第一表面上包括瞄准指示符实际上被投射到所述物体的第一表面上。
7.根据权利要求1所述的方法,其中所述瞄准指示符出现在所述第一表面上的瞄准指示符位置处,并且其中识别所述第一表面的范围包括:
计算在所述瞄准指示符位置处的瞄准指示符单位法向矢量;以及
将所述第一表面的范围识别为在3D点云中的点的第一表面组,其中所述第一表面组是连续的并且包括所述瞄准指示符位置,并且其中所述第一表面组中的每个点具有等于所述瞄准指示符单位法向矢量的相应的单位法向矢量。
8.根据权利要求7所述的方法,其中识别所述第二表面进一步包括:
识别(i)与所述第一表面相邻且(ii)具有与所述瞄准指示符单位法向矢量垂直的第二表面点单位法向矢量的第二表面点;以及
将包括所述第二表面点的表面识别为所述第二表面。
9.根据权利要求8所述的方法,其中识别所述第二表面的范围包括将所述第二表面的范围识别为在所述3D点云中的点的第二表面组,其中所述第二表面组是连续的并且包括所述第二表面点,并且其中所述第二表面组中的每个点具有等于所述第二表面点单位法向矢量的相应的单位法向矢量。
10.根据权利要求1所述的方法,其中:
所述第一颜色和所述第二颜色中的一种颜色是橙色;并且
所述第一颜色和所述第二颜色中的另一种颜色是蓝色或绿色。
11.根据权利要求1所述的方法,进一步包括:
从所识别的第一表面和第二表面中识别至少两个边缘,
其中显示所述3D点云的至少部分包括以与所述第一颜色和所述第二颜色两者不同的第三颜色显示所识别的所述至少两个边缘。
12.根据权利要求11所述的方法,其中所述第一颜色、所述第二颜色和所述第三颜色中的每个颜色具有与所述第一颜色、所述第二颜色和所述第三颜色中的另外两种颜色中的每个颜色的相互高对比度关系。
13.根据权利要求11所述的方法,其中从所识别的第一表面和第二表面中的所述至少两个边缘包括两个第一表面边缘和一个第二表面边缘,所有边缘在所述物体的共同角处连接。
14.根据权利要求11所述的方法,其中所述第三颜色是黄色。
15.根据权利要求14所述的方法,其中:
所述第一颜色和所述第二颜色中的一种颜色是橙色;并且
所述第一颜色和所述第二颜色中的另一种颜色是蓝色或绿色。
16.根据权利要求1所述的方法,其中所述第一颜色和所述第二颜色具有相互高对比度关系。
17.根据权利要求1所述的方法,其中以给定颜色显示给定表面包括以所述给定颜色显示所述给定表面的范围。
18.根据权利要求1所述的方法,进一步包括:
当经由所述用户界面以所述第一颜色显示所识别的第一表面并且以所述第二颜色显示所识别的第二表面时,经由所述用户界面接收数据捕获命令,并且响应地存储所述物体的体积数据特性。
19.一种在确定物体的尺寸时突出显示物体表面和边缘的系统,包括:
用户界面;
深度传感器;
处理器;以及
数据存储装置,包含能由所述处理器执行以用于使所述系统执行一组功能的指令,该组功能包括:
当所述深度传感器被定位成使得瞄准指示符出现在物体的第一表面上时,从所述深度传感器获得三维3D点云;
处理所述3D点云以识别所述第一表面的范围;
进一步处理所述3D点云以识别与所述第一表面相邻且垂直于所述第一表面的第二表面,并且识别所述第二表面的范围,其中识别所述第二表面包括:识别所述第一表面的第一边缘;识别多个候选第二表面;识别所识别的候选第二表面中的至少一个候选第二表面的至少一个边缘;以及将所述第二表面识别为具有与所识别的第一表面的第一边缘共同延伸的边缘的候选第二表面;以及
经由用户界面显示所述3D点云的至少部分,其中显示所述3D点云的至少部分包括以第一颜色显示所识别的第一表面并且以与所述第一颜色不同的第二颜色显示所识别的第二表面。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/041,713 | 2016-02-11 | ||
US15/041,713 US9799111B2 (en) | 2016-02-11 | 2016-02-11 | Methods and systems for highlighting box surfaces and edges in mobile box dimensioning |
PCT/US2016/067509 WO2017139025A1 (en) | 2016-02-11 | 2016-12-19 | Methods and systems for highlighting box surfaces and edges in mobile box dimensioning |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108701344A CN108701344A (zh) | 2018-10-23 |
CN108701344B true CN108701344B (zh) | 2020-09-15 |
Family
ID=57799811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680081638.XA Active CN108701344B (zh) | 2016-02-11 | 2016-12-19 | 在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9799111B2 (zh) |
CN (1) | CN108701344B (zh) |
AU (1) | AU2016392270B2 (zh) |
DE (1) | DE112016006415T5 (zh) |
GB (1) | GB2565435B (zh) |
WO (1) | WO2017139025A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10621746B2 (en) * | 2017-11-07 | 2020-04-14 | Symbol Technologies, Llc | Methods and apparatus for rapidly dimensioning an object |
US10989795B2 (en) * | 2017-11-21 | 2021-04-27 | Faro Technologies, Inc. | System for surface analysis and method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337066A (zh) * | 2013-05-27 | 2013-10-02 | 清华大学 | 3d获取系统的校准方法 |
CN103875004A (zh) * | 2011-08-19 | 2014-06-18 | 高通股份有限公司 | 动态选择真实世界中的表面以用于在上面投影信息 |
US9053547B2 (en) * | 2011-04-13 | 2015-06-09 | Kabushiki Kaisha Topcon | Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program |
CN105190703A (zh) * | 2012-12-28 | 2015-12-23 | 微软技术许可有限责任公司 | 使用光度立体来进行3d环境建模 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7787696B2 (en) | 2000-08-28 | 2010-08-31 | University Of North Carolina At Charlotte | Systems and methods for adaptive sampling and estimating a systematic relationship between a plurality of points |
US6918538B2 (en) | 2002-12-18 | 2005-07-19 | Symbol Technologies, Inc. | Image scanning device having a system for determining distance to a target |
CN101464999B (zh) | 2007-12-19 | 2011-01-05 | 鸿富锦精密工业(深圳)有限公司 | 三维色阶比对系统及方法 |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
CA2954286C (en) | 2014-07-08 | 2023-11-21 | Aila Technologies, Inc. | Imaging and peripheral enhancements for mobile devices |
US9866815B2 (en) * | 2015-01-05 | 2018-01-09 | Qualcomm Incorporated | 3D object segmentation |
US20170124726A1 (en) * | 2015-11-02 | 2017-05-04 | Canon Kabushiki Kaisha | System and method for determining wall thickness |
-
2016
- 2016-02-11 US US15/041,713 patent/US9799111B2/en active Active
- 2016-12-19 CN CN201680081638.XA patent/CN108701344B/zh active Active
- 2016-12-19 WO PCT/US2016/067509 patent/WO2017139025A1/en active Application Filing
- 2016-12-19 DE DE112016006415.2T patent/DE112016006415T5/de active Pending
- 2016-12-19 GB GB201812841A patent/GB2565435B/en active Active
- 2016-12-19 AU AU2016392270A patent/AU2016392270B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9053547B2 (en) * | 2011-04-13 | 2015-06-09 | Kabushiki Kaisha Topcon | Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program |
CN103875004A (zh) * | 2011-08-19 | 2014-06-18 | 高通股份有限公司 | 动态选择真实世界中的表面以用于在上面投影信息 |
CN105190703A (zh) * | 2012-12-28 | 2015-12-23 | 微软技术许可有限责任公司 | 使用光度立体来进行3d环境建模 |
CN103337066A (zh) * | 2013-05-27 | 2013-10-02 | 清华大学 | 3d获取系统的校准方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2017139025A1 (en) | 2017-08-17 |
GB201812841D0 (en) | 2018-09-19 |
US9799111B2 (en) | 2017-10-24 |
CN108701344A (zh) | 2018-10-23 |
AU2016392270B2 (en) | 2019-03-07 |
GB2565435B (en) | 2020-01-01 |
DE112016006415T5 (de) | 2018-11-15 |
AU2016392270A1 (en) | 2018-10-04 |
GB2565435A (en) | 2019-02-13 |
US20170236265A1 (en) | 2017-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9552514B2 (en) | Moving object detection method and system | |
US10456918B2 (en) | Information processing apparatus, information processing method, and program | |
CN103765870B (zh) | 图像处理装置、包括图像处理装置的投影仪和投影仪系统、图像处理方法 | |
CN107687855B (zh) | 机器人定位方法、装置及机器人 | |
US10024653B2 (en) | Information processing apparatus, information processing method, and storage medium | |
CN110807350A (zh) | 用于面向扫描匹配的视觉slam的系统和方法 | |
US20170011378A1 (en) | Pos terminal device, pos system, image processing method, and non-transitory computer readable medium storing program | |
WO2016063484A1 (ja) | 画像処理装置、表示制御装置、画像処理方法、および、記録媒体 | |
US20180150969A1 (en) | Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method | |
EP3115741A1 (en) | Position measurement device and position measurement method | |
US10778902B2 (en) | Sensor control device, object search system, object search method, and program | |
CN108701344B (zh) | 在确定移动盒体的尺寸时突出显示盒体表面和边缘的方法和系统 | |
JP2016532211A (ja) | 物理平面のデジタル表現の拡張 | |
EP2795577B1 (en) | Three dimension measurement method, three dimension measurement program and robot device | |
KR20160068186A (ko) | 증강 현실 컨텐츠 제공 장치 및 방법 | |
US20240005548A1 (en) | Information processing apparatus, three-dimensional position estimation method, and a non-transitory computer-readable medium | |
KR20130142533A (ko) | 스마트폰 실측기 | |
JP2015045919A (ja) | 画像認識方法及びロボット | |
US9948926B2 (en) | Method and apparatus for calibrating multiple cameras using mirrors | |
JP2023157018A (ja) | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム | |
CN104677911A (zh) | 用于机器视觉检验的检验设备和方法 | |
US20160379354A1 (en) | Apparatus and method for measuring position of stereo camera | |
KR20160052256A (ko) | 가상 특징점을 이용하는 3차원 공간 매핑장치 및 그 방법 | |
US10645363B2 (en) | Image-based edge measurement | |
EP3029605A2 (en) | Marker recognition device, marker recognition method, and recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |