CN110268449A - 在对象上定位感兴趣区域 - Google Patents
在对象上定位感兴趣区域 Download PDFInfo
- Publication number
- CN110268449A CN110268449A CN201780086086.6A CN201780086086A CN110268449A CN 110268449 A CN110268449 A CN 110268449A CN 201780086086 A CN201780086086 A CN 201780086086A CN 110268449 A CN110268449 A CN 110268449A
- Authority
- CN
- China
- Prior art keywords
- interest
- area
- threedimensional model
- manufacture
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/386—Data acquisition or data processing for additive manufacturing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/20—Apparatus for additive manufacturing; Details thereof or accessories therefor
- B29C64/205—Means for applying layers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/386—Data acquisition or data processing for additive manufacturing
- B29C64/393—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y10/00—Processes of additive manufacturing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
- B33Y50/02—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Materials Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Optics & Photonics (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
公开了一种方法。所述方法包括定义对象的三维模型上的感兴趣区域。所述方法可以包括捕获根据所述三维模型制造的对象的图像。所述方法可以包括使用处理器确定所述三维模型相对于所述捕获图像中的对象的位置和方向。所述方法可以包括在制造的对象上定位所述感兴趣区域。在所述感兴趣区域内的所述制造的对象的一部分可以包括可识别特征。还公开了一种装置和机器可读介质。
Description
背景技术
可以使用制造工艺来生产三维对象,例如包括在逐层基础上生成对象的增材(additive)制造工艺。可以根据相同的规范生成多个三维对象,使得所有对象看起来基本相同。预期识别每个对象,例如以确定对象的出处(provenance)。
附图说明
现在将参考附图通过非限制性示例描述示例,其中:
图1是在对象上定位感兴趣区域的方法的示例的流程图;
图2是在对象上定位感兴趣区域的方法的另一示例的流程图;
图3是在对象上定位感兴趣区域的方法的另一示例的流程图;
图4是用于在对象上定位感兴趣区域的装置的示例的简化示意图;
图5是用于在对象上定位感兴趣区域的装置的另一示例的简化示意图;以及
图6是具有处理器的示例性机器可读介质的示意图。
具体实施方式
增材制造(additive manufacturing)技术可以通过构建材料的凝固来生成三维对象。在一些示例中,构建材料可以是粉末状的粒状材料,其可以是例如塑料、陶瓷或金属粉末。可以将构建材料沉积在例如印刷床上并逐层处理,例如在制造室内。其他制造技术,包括例如铸造、注塑和机器加工,也可用于生成三维对象。
诸如增材制造系统的制造系统可以基于结构设计数据生成对象。这可能涉及设计者生成要生成的对象的三维模型,例如使用计算机辅助设计(CAD)应用。该模型可以定义对象的实体部分。为了使用增材制造系统从模型生成三维对象,可以处理模型数据以生成模型的平行平面切片。每个切片(slice)可以定义相应的构建材料层的一部分,其将由增材制造系统固化或使其聚结。
制造设备可以使用设计数据来生成全部根据相同规范的多个三维对象。可以预期每个对象是可识别的,使得可以确定特定对象是否是使用特定制造设备生成的对象,或者对象是否是伪造物品。
参考附图,图1是用于定位对象上的感兴趣区域的方法100的示例的流程图。在框102处,方法100包括在对象的三维模型上定义感兴趣区域。三维模型可以是使用制造工艺生成的对象的模型,例如增材制造设备。在一些示例中,三维模型可以包括计算机辅助设计(CAD)模型或三维扫描模型。例如,可以在要生成的对象的CAD模型上定义感兴趣区域。在其他示例中,可以使用扫描仪扫描对象(诸如制造的对象将基于的对象,或者使用制造装置生成的对象)。例如,可以获取对象的三维扫描。在一些示例中,可以使用结构光扫描仪(structured light scanner)获取对象的三维扫描。
可以用一组顶点、边和面来表示三维对象。在一些示例中,感兴趣区域的位置可以根据相对于顶点、边缘和/或面的固定位置来定义。在其他示例中,感兴趣区域的位置可以表示为相对于三维模型的参照系(例如CAD模型)的六自由度(six degree of freedom,DoF)坐标框架的相对位置和方向。
感兴趣区域可以是对象的一部分,其将用作对象的标识符。换句话说,感兴趣区域可以是可以包括可识别的方面或特征的区域或体积,并且可以在稍后的某个时间使用其来识别对象。在一些示例中,可识别特征(identifiable feature)可以包括对象本身的物理结构、特征或特性。例如,可以测量和记录(note)用于在感兴趣区域内生成三维对象的构建材料的特定特征。在其他示例中,可识别特征可以包括来自感兴趣区域内的对象的一部分的表面特性(例如光散射测量)、表面的一部分的形状、表面纹理、颜色测量、化学成分或吸收光谱测量。在一些示例中,可识别特征可以包括在对象中或对象上创建的标记,诸如条形码、QR码、化学标签剂(chemical taggant)、嵌入式标识符或量子点(quantum dot)。在对象的感兴趣区域处测量的量可以在稍后的日期测量并且与先前的测量进行比较以确认该对象是否是相同的对象。以这种方式,感兴趣区域可以被认为是基准(fiducial),并且可以被认为包括物理识别特征。在一些示例中,基准可以被认为是“虚拟的”,因为对象的感兴趣区域可能看起来与对象的相邻区域相同。可识别特征可以是对象本身的属性。可识别特征可以被认为是对象的指纹。可以检查指纹(例如,提取指纹并与存储在数据库或云中的相应指纹进行比较)以确认其身份。
在框104处,方法100可以包括捕获根据三维模型制造的对象的图像。如上所述,可以使用增材制造工艺来制造或生成对象,并且三维模型可以用作制造所基于的输入。在一些示例中,捕获的图像可以包括三维表示。例如,图像可以包括深度和/或颜色信息。
在框106处,方法100可以包括使用处理器确定三维模型相对于捕获图像中的对象的位置和方向。确定位置和方向可以包括将三维模型与捕获的图像配准或对准。通过确定模型相对于图像中的对象的位置和方向,可以确定对象的三维模型的哪个部分与捕获图像中的对象的部分相对应。在一些示例中,可以通过确定将三维模型与捕获图像对准的变换(例如,刚性变换)来实现确定位置和方向。可以将变换应用于模型上的感兴趣区域的定义位置。然后可以确定感兴趣区域相对于捕获的图像中的对象部分的位置。
在一些示例中,在框106处做出的确定可以使得能够相对于捕获的对象图像确定感兴趣区域的位置。一旦已经确定了三维模型相对于捕获图像的方向和位置,则可以相对于捕获的对象图像定位在三维模型中定义的任何点或区域。因此,可以确定关于捕获图像的所定义的感兴趣区域的位置。例如,处理器可以能够确定模型的哪个部分与捕获图像中示出的对象的部分相对应,因此,处理器可以确定感兴趣区域相对于捕获的图像中所示对象的部分的位置。
在框108处,方法100可以包括在制造的对象上定位感兴趣区域。例如,可以基于在框106处做出的确定来确定感兴趣区域的位置。由于已经关于三维对象的模型定义了感兴趣区域的位置,并且可以确定三维模型关于捕获图像中的对象位置和方向,因此可以在制造模型本身上确定感兴趣区域的位置。如上所述,感兴趣区域内的制造的对象的一部分可包括可识别特征。因此,可以定位和检查感兴趣区域内的可识别特征,以便确定制造的对象的起源或出处。以这种方式,可以确定所制造的对象是否是在预期来源制造的真品。类似地,可以确定制造的对象是否是伪造物品,因为对象在感兴趣区域内将不具有有效的可识别特征。
由于制造的对象本身的特征可以用作可识别特征,因此可以通过不向对象应用附加可识别标记来节省时间和成本。由于不会在对象上形成物理标记,因此可以保持对象的美观和结构完整性。此外,由于在对象上没有识别感兴趣区域的区别标记,因此拷贝或复制可识别特征是极其困难的。
图2是用于在对象上定位感兴趣区域的方法200的另一示例的流程图。方法200可以包括上面讨论的方法100的框,并且还可以包括图2中所示的框或多个框。在框202,方法200可以包括将感兴趣区域的位置的细节存储在存储介质中。在框102中,可以在定义了感兴趣区域之后存储细节。存储介质可以是与计算系统相和/或与用于制造的对象的制造设备相关联的存储介质。在一些示例中,感兴趣区域的位置的细节可以被存储为包括对象的三维模型的计算机文件的一部分或与之相关联。例如,感兴趣区域的位置的细节可以存储为对象的模型描述(例如,CAD模型描述)的组成部分。细节可以存储在数据库或查找表中,并且可以与例如标识制造的对象的参考或代码相关联。在一些示例中,制造的对象可以包括对象的组成部分。在这样的示例中,感兴趣区域的位置的细节可以与标识特定对象的唯一部件号、代码或参考一起存储。在一些示例中,感兴趣区域的位置的细节可以被打印到、粘贴到或以其他方式标记在对象上,例如以二维条形码、QR码、RFID代码或其他机器可读标记的形式。
在框204处,方法200可以包括使用增材制造工艺根据三维模型构建对象。增材制造工艺可以例如通过使用构建材料的增材制造设备来执行。在一些示例中,可以在制造之后不久捕获对象的图像,并且可以将其包括在制造工艺的一部分中。这样,可以在制造之后不久(例如,使用方法100)确定制造的对象上感兴趣区域的位置,而不在稍后添加进一步的处理(需要额外的时间和成本支出)。在一些示例中,可以使用不同的制造工艺来构建对象。
已经在制造的对象上定位感兴趣区域之后(框108),可以检查或分析感兴趣区域以便提取对象的可识别特征。
在框206处,方法200可以包括在制造的对象上指示感兴趣区域的位置。例如,可以使用诸如激光的光将感兴趣区域投影到对象上。在一些示例中,可以使用投影仪指示位置。可以做出感兴趣区域的指示,使得用户可以在感兴趣区域处检查对象,并提取指示对象身份的信息。在其他示例中,感兴趣区域的位置可以呈现在显示器上,例如计算机显示器。例如,可以在计算机显示器上在对象的表示上(例如在对象的三维模型上或在对象的图像或视频流上)指示感兴趣区域的位置。以这种方式,观看显示器的用户可以能够确定感兴趣区域的位置而不对对象本身做出任何指示。
因此,在框208处,方法200可以包括测量在感兴趣区域内的制造的对象的一部分的属性。如上所述,该属性可以包括用于生成对象的构建材料的属性、对象的表面的属性、或者允许对象被识别并且与根据相同的三维模型制造的其它对象区分开的另一属性。在一些示例中,可识别特征对于其所位于的特定对象可以是唯一的。在其他示例中,可识别特征可以不是唯一的,但可以是几乎唯一的。
可以使用例如由用户操作的设备来测量属性(框208)。在一些示例中,属性可以由机器(例如机器人机器)测量。一旦定位了感兴趣区域,机器就可以衡量感兴趣区域的特定属性。
在一些示例中,对象可能被定向或定位为使得不能访问感兴趣区域。例如,感兴趣区域可以位于对象的底表面上。如果确定感兴趣区域处于使得无法测量属性的位置(框208),则可以采取行动。在一些示例中,对象可以重新定向,例如通过机械臂。在其他示例中,可以向用户指示无法进行测量。在一些示例中,可以请求用户重新定向对象。例如,可以在显示器上向用户显示消息。在一些示例中,可以指示用户如何重新定向对象。
在框210处,方法200可以包括将测量的属性存储在存储介质中。存储介质可以与计算系统和/或与用于制造的对象的增材制造设备相关联。在一些示例中,感兴趣区域的位置的细节可以被存储为包括对象的三维模型的计算机文件的一部分或与之相关联。在一些示例中,测量的属性可以存储在存储介质中,其中存储了感兴趣区域的位置的细节(在框202处)。测量的属性可以与感兴趣区域的位置的细节相关联。在一些示例中,测量的属性可以存储在附加的对象标识符中或与之相关联,例如代码、参考号或序列号。以这种方式,如果想要检查对象的测量属性是否对应于存储的属性,则可以稍后从存储介质中调用相关信息。
根据本文描述的方法,当根据三维模型生成对象时,所定义的感兴趣区域可以位于对象上,并且可以在该感兴趣区域处测量属性(例如,识别特征)。可以记录(log)对象的测量属性的细节,例如,通过将细节存储在数据库中。稍后,可能想要检查特定制造的对象是否是已记录的对象。为此,可以例如使用本文公开的方法定位感兴趣区域,并且可以在感兴趣区域测量相同属性。如果测量的属性与存储在数据库中的属性相对应(例如,相同),则可以确认该对象是已经记录的对象,因此是真的(genuine)。如果测量的属性与数据库中的属性不对应,则可以确定对象尚未被记录,并且可能不是真的(例如,它可能是伪造的(counterfeit))。
图3是用于在对象上定位感兴趣区域的方法300的另一示例的流程图。方法300可以包括上面讨论的方法100、200的框或多个框,并且还可以包括图3中所示的框。在框302处,方法300可以包括,在对象的三维模型上定义第二感兴趣区域。因此,在框102处定义的感兴趣区域可以包括第一感兴趣区域。换句话说,可以为三维模型定义多个感兴趣区域。因此,除了在框102处定义感兴趣区域之外,还可以在同一模型中定义第二感兴趣区域。在一些示例中,可以定义另外的感兴趣区域。
通过确定三维模型相对于捕获图像中的对象的位置和方向(框106),可以相对于捕获的对象图像定位第二感兴趣区域。在框104处捕获的图像可足以定位第二感兴趣区域。在一些示例中,可以在感兴趣区域(即,第一感兴趣区域)所在的位置定位第二感兴趣区域。
在框304处,方法300可以包括在制造的对象上定位第二感兴趣区域。可以以与在框108处的定位第一感兴趣区域相同的方式执行定位第二感兴趣区域。与上面参考图1讨论的感兴趣区域(即,第一感兴趣区域)一样,在第二感兴趣区域内制造的对象的一部分可以包括可识别特征。通过识别多个感兴趣区域,每个感兴趣区域具有可识别特征,如果包含感兴趣区域的对象的一部分被损坏或不可访问,则可以在不同的感兴趣区域测量可识别特征。因此,方法300还可以包括测量第二感兴趣区域内的制造的对象的一部分的属性。测量的属性可以存储在存储介质中,例如存储了在框206中获取的测量属性的存储介质。包括位于多个感兴趣区域的多个可识别特征可以提供改善的磨损/损坏稳健性和对伪造的耐受性。
在一些示例中,可以尝试测量第一感兴趣区域的属性。如果由于任何原因确定无法在第一感兴趣区域进行测量,或者如果无法在第一感兴趣区域测量该属性,则可以尝试在第二感兴趣区域测量该属性。
如上所述,在一些示例中,制造的对象可以包括较大对象的一部分。例如,多个部件可以连接或附接在一起以形成更大的对象。在一些示例中,可以定义感兴趣区域(框102),使得感兴趣区域位于在制造之后以及在对象已经如预期组装或附接到其他对象之后可访问的位置。以这种方式,即使在对象已经组装或附接到其他对象之后,仍然可以检查感兴趣区域并测量感兴趣区域的属性(以便提取可识别特征)。在其他示例中,感兴趣区域可以位于制造的对象上的当该对象被组装或附接到其他对象时,是不可访问的的位置(即,不能检查感兴趣区域)。在这样的示例中,可以对对象进行分解以显示感兴趣区域,并因此显示可识别特征。这可以用于保护感兴趣区域,例如以降低损害感兴趣区域的风险。
如上所述,在一些示例中,感兴趣区域可能定位为使得其不能被访问,因此,用户、设备或机器人不能检查感兴趣区域以检查对象的识别特征(identifying feature)。例如,如果确定感兴趣区域与执行检查的实体相距太远,或者如果完全阻止访问,则可能发生这种情况。在一些示例中,可以确定感兴趣区域被部分遮挡(例如,感兴趣区域的一部分可以被访问),或者部分损坏。在这种情况下,有可能检查感兴趣区域的部分信息(例如,获取一些识别信息),这可能足以证实所定位的感兴趣区域很可能是正确的感兴趣区域,但不足以提供识别信息的预期的统计置信度。
根据一些示例,可以控制装置以执行上面讨论的方法100、200和300。图4是用于在对象上定位感兴趣区域的装置400的示例的简化示意图。装置400可以包括图像捕获设备402和处理电路404。图像捕获设备402用于捕获根据三维模型制造的对象的图像。捕获的图像可以包括对象的三维表示,或对象的一部分。处理电路404可以在对象的三维模型上定义感兴趣区域。在一些示例中,处理电路404可以在模型上定义多个感兴趣区域。处理电路404可以确定三维模型的相对于捕获图像中的对象的位置和方向。处理电路404可以在制造的对象上定位感兴趣区域。感兴趣区域内的制造的对象的一部分可包括可识别特征。在一些示例中,处理电路404可以在捕获的图像上定位感兴趣区域。
处理电路404可以包括计算设备内的电路,该电路可以用于增材制造设备的一部分或与增材制造装置相关联。在一些示例中,处理电路可以远离图像捕获设备402,使得处理任务可以例如由远程计算设备处的服务器执行。
图5是用于在对象上定位感兴趣区域的装置500的示例的简化示意图。装置500可以包括图像捕获设备402和处理电路404。在一些示例中,装置500还可以包括用户输入设备502,以使用户能够在对象的三维模型上定义感兴趣区域。用户输入设备502可以例如包括键盘、鼠标、触摸板或触摸屏。用户可以使用用户输入设备502来操纵对象的三维模型,并选择要用作感兴趣区域的模型的一部分。在一些示例中,感兴趣区域可以不由用户定义。相反,感兴趣区域可以被定义为设计过程的一部分,例如当生成三维对象的模型时,由处理器执行的自动化任务。
在一些示例中,装置500可以包括存储介质504,以存储感兴趣区域的位置的细节。如上所述,存储介质504可以包括数据库或查找表,在该数据库或查找表中可以记录感兴趣区域的位置的细节。
图6是具有处理器604的示例性机器可读介质602的示意图。机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器执行上面讨论的方法100、200和/或300。机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器在对象的三维模型上定义感兴趣区域。机器可读介质602可以包括感兴趣区域定义指令606以执行所述定义。机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器获取包括感兴趣区域的对象的一部分的图像。机器可读指令可包括图像获取指令608以获取图像。机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器确定三维模型的相对于捕获图像中的对象的位置和方向。机器可读介质602可包括位置和方向确定指令610以确定位置和方向。机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器根据三维模型在制造的对象上定位感兴趣区域。机器可读介质602可以包括对象感兴趣区域定位指令612以定位对象上的区域。感兴趣区域内的制造的对象的一部分可包括可识别特征。
在一些示例中,机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器相对于对象的图像定位感兴趣区域。机器可读介质602可以包括图像感兴趣区域定位指令以相对于图像定位区域。
在一些示例中,机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器在感兴趣区域处测量制造的对象的属性。在一些示例中,该属性可以由与机器可读介质602和处理器604相关联的设备测量,并且由处理器控制。
在一些示例中,机器可读介质602可以包括指令,当由处理器604运行时,该指令使处理器将感兴趣区域的位置的细节存储在存储介质中。存储介质可以包括存储单元。在一些示例中,存储介质可以包括或者类似于上面参考图5讨论的存储介质504。
本公开中的示例可以作为方法、系统或机器可读指令提供,诸如计算机程序代码、硬件等的任何组合。这样的机器可读指令可以包括在其中或其上具有计算机可读程序代码的计算机可读存储介质(包括但不限于盘存储器、CD-ROM、光存储器等)。
参考根据本公开的示例的方法、设备和系统的流程图和/或框图来描述本公开。尽管上述流程图示出了特定的运行顺序,但是运行的顺序可以与所描绘的顺序不同。关于一个流程图描述的框可以与另一个流程图的框组合。应当理解,流程图和/或框图中的每个流程和/或框,以及流程图和/或框图中的流程和/或图表的组合可以通过机器可读指令实现。
机器可读指令可以例如由通用计算机、专用计算机、嵌入式处理器或其他可编程数据处理设备的处理器运行,以实现说明书和图中描述的功能。特别地,处理器或处理装置可以运行机器可读指令。因此,装置和设备的功能模块可以由运行存储在存储器中的机器可读指令的处理器或根据嵌入在逻辑电路中的指令操作的处理器来实现。术语“处理器”将被广义地解释为包括CPU、处理单元、ASIC、逻辑单元或可编程门阵列等。方法和功能模块可全部由单个处理器执行或在若干处理器之间分配。
这样的机器可读指令还可以存储在计算机可读存储器中,该计算机可读存储器可以引导计算机或其他可编程数据处理设备以特定模式操作。
这样的机器可读指令也可以加载到计算机或其他可编程数据处理设备上,使得计算机或其他可编程数据处理设备执行一系列操作以产生计算机实现的处理,从而在计算机上或者其他可编程设备上运行的指令实现流程图中的流程和/或框图中的框指定的功能。
此外,本文的教导可以以计算机软件产品的形式实现,计算机软件产品存储在存储介质中并且包括多个指令,用于使计算机设备实现在本公开的示例中所述的方法。
尽管已经参考某些示例描述了方法、装置和相关方面,但是在不脱离本公开的精神的情况下,可以进行各种修改、改变、省略和替换。因此,预期是该方法、装置和相关方面仅受所附权利要求及其等同物的范围限制。应当注意,上述示例说明而不是限制本文描述的内容,并且本领域技术人员将能够在不脱离所附权利要求的范围的情况下设计许多替代实施方式。关于一个示例描述的特征可以与另一示例的特征组合。
词语“包括”不排除权利要求中列出的元件之外的元件的存在,“一个”或“一”不排除多个,并且单个处理器或其他单元可以实现权利要求中记载的若干单元的功能。
任何从属权利要求的特征可以与任何独立权利要求或其他从属权利要求的特征组合。
Claims (15)
1.一种方法,包括:
定义对象的三维模型上的感兴趣区域;
捕获根据所述三维模型制造的对象的图像;
使用处理器确定所述三维模型相对于捕获的图像中的对象的位置和方向;以及
在所述制造的对象上定位所述感兴趣区域;
其中,在所述感兴趣区域内的所述制造的对象的一部分包括可识别特征。
2.如权利要求1所述的方法,还包括:
将所述感兴趣区域的位置的细节存储在存储介质中。
3.如权利要求1所述的方法,还包括:
使用增材制造工艺根据所述三维模型构建对象。
4.如权利要求1所述的方法,还包括:
在所述制造的对象上指示所述感兴趣区域的位置。
5.如权利要求1所述的方法,还包括:
测量所述感兴趣区域内的所述制造的对象的一部分的属性。
6.如权利要求5所述的方法,还包括:
将所测量的属性存储在存储介质中。
7.如权利要求1所述的方法,其中,所述三维模型包括计算机辅助设计CAD模型和三维扫描模型中的一种。
8.如权利要求1所述的方法,其中,所述捕获的图像包括三维表示。
9.如权利要求1所述的方法,还包括:
定义所述对象的三维模型上的第二感兴趣区域;以及
在所述制造的对象上定位所述第二感兴趣区域;
其中,在所述第二感兴趣区域内的所述制造的对象的一部分包括可识别特征。
10.一种装置,包括:
图像捕获设备,用于捕获根据三维模型制造的对象的图像;以及
处理电路,用于:
定义所述对象的三维模型上的感兴趣区域;
确定所述三维模型相对于捕获的图像中的对象的位置和方向;以及
在所述制造的对象上定位感兴趣区域,
其中,在所述感兴趣区域内的所述制造的对象的一部分包括可识别特征。
11.如权利要求10所述的装置,还包括:
用户输入设备,用于使用户能够在所述对象的所述三维模型上定义所述感兴趣区域。
12.如权利要求10所述的装置,还包括:
存储介质,用于存储所述感兴趣区域的位置的细节。
13.一种机器可读介质,包括指令,当由处理器运行时,所述指令使得处理器:
定义对象的三维模型上的感兴趣区域;
捕获所述对象的图像;
确定所述三维模型相对于所捕获的图像中的对象的位置和方向;以及
在根据所述三维模型制造的对象上定位所述感兴趣区域;
其中,在所述感兴趣区域内的所述制造的对象的一部分包括可识别特征。
14.如权利要求13所述的机器可读介质,包括指令,当由处理器运行时,所述指令使得所述处理器:
测量所述感兴趣区域处的所述制造的对象的属性。
15.如权利要求13所述的机器可读介质,包括指令,当由处理器运行时,所述指令使得所述处理器:
将所述感兴趣区域的位置的细节存储在存储介质中。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2017/029673 WO2018199946A1 (en) | 2017-04-26 | 2017-04-26 | Locating a region of interest on an object |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110268449A true CN110268449A (zh) | 2019-09-20 |
CN110268449B CN110268449B (zh) | 2023-06-16 |
Family
ID=63919977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780086086.6A Active CN110268449B (zh) | 2017-04-26 | 2017-04-26 | 在对象上定位感兴趣区域的方法、装置及机器可读介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11315286B2 (zh) |
EP (1) | EP3616167A4 (zh) |
CN (1) | CN110268449B (zh) |
WO (1) | WO2018199946A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115136204A (zh) * | 2020-02-27 | 2022-09-30 | 通用汽车巡航控股有限责任公司 | 多模态、多技术载具信号检测 |
WO2023113823A1 (en) * | 2021-12-17 | 2023-06-22 | Hewlett-Packard Development Company, L.P. | Generating a three-dimensional representation of an object |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3929806A3 (en) * | 2020-04-06 | 2022-03-09 | Alitheon, Inc. | Local encoding of intrinsic authentication data |
WO2024135335A1 (ja) * | 2022-12-23 | 2024-06-27 | ソニーグループ株式会社 | 情報処理装置および方法 |
WO2024135336A1 (ja) * | 2022-12-23 | 2024-06-27 | ソニーグループ株式会社 | 情報処理装置および方法 |
WO2024135337A1 (ja) * | 2022-12-23 | 2024-06-27 | ソニーグループ株式会社 | 情報処理装置および方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060103853A1 (en) * | 2004-11-12 | 2006-05-18 | The Boeing Company | Optical projection system |
US20130093881A1 (en) * | 2011-10-17 | 2013-04-18 | Canon Kabushiki Kaisha | Three dimensional measurement apparatus, control method therefor, information processing apparatus, control method therefor, and non-transitory computer-readable storage medium |
CN104969262A (zh) * | 2013-03-08 | 2015-10-07 | 英特尔公司 | 用于基于感兴趣的区域的图像编码的技术 |
CN106101522A (zh) * | 2015-04-30 | 2016-11-09 | 汤姆逊许可公司 | 使用非光场成像设备获得光场数据的方法和设备 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5822450A (en) * | 1994-08-31 | 1998-10-13 | Kabushiki Kaisha Toshiba | Method for monitoring equipment state by distribution measurement data, and equipment monitoring apparatus |
FR2802327B1 (fr) * | 1999-12-13 | 2004-10-15 | Marie Odile Camdessus | Procede d'identification des oeuvres d'art et des oeuvres uniques realisees par coulee ou par fonte. |
US9208394B2 (en) * | 2005-09-05 | 2015-12-08 | Alpvision S.A. | Authentication of an article of manufacture using an image of the microstructure of it surface |
US8244025B2 (en) * | 2006-03-20 | 2012-08-14 | Siemens Energy, Inc. | Method of coalescing information about inspected objects |
GB2460625B (en) * | 2008-05-14 | 2010-05-26 | Ingenia Holdings | Two tier authentication |
US9291565B2 (en) | 2008-07-24 | 2016-03-22 | Massachusetts Institute Of Technology | Three dimensional scanning using membrane with optical features |
US8610761B2 (en) * | 2009-11-09 | 2013-12-17 | Prohectionworks, Inc. | Systems and methods for optically projecting three-dimensional text, images and/or symbols onto three-dimensional objects |
US9443298B2 (en) * | 2012-03-02 | 2016-09-13 | Authentect, Inc. | Digital fingerprinting object authentication and anti-counterfeiting system |
US8848201B1 (en) * | 2012-10-20 | 2014-09-30 | Google Inc. | Multi-modal three-dimensional scanning of objects |
US9489738B2 (en) | 2013-04-26 | 2016-11-08 | Navigate Surgical Technologies, Inc. | System and method for tracking non-visible structure of a body with multi-element fiducial |
EP2869241A3 (en) | 2013-11-01 | 2015-10-07 | RAF Technology, Inc. | Digital fingerprinting track & trace system |
US20170026636A1 (en) * | 2013-12-12 | 2017-01-26 | Testo Ag | Method for the positionally accurate projection of a mark onto an object, and projection apparatus |
WO2015112959A1 (en) * | 2014-01-24 | 2015-07-30 | Verrana, Llc | Use of 3d printing for anticounterfeiting |
EP3132919B1 (en) * | 2014-04-14 | 2019-03-27 | Konica Minolta, Inc. | Three-dimensional fabricated object manufacturing apparatus and manufacturing method |
US20150309502A1 (en) | 2014-04-24 | 2015-10-29 | International Business Machines Corporation | Managing provenance and authenticity for digitally manufactured objects |
US10065264B2 (en) * | 2015-02-04 | 2018-09-04 | The Boeing Company | Apparatus and method for manufacturing an anti-counterfeit three-dimensional article |
US10118345B2 (en) | 2015-06-17 | 2018-11-06 | Xerox Corporation | System and method for evaluation of a three-dimensional (3D) object during formation of the object |
US9892558B2 (en) * | 2016-02-19 | 2018-02-13 | The Boeing Company | Methods for localization using geotagged photographs and three-dimensional visualization |
US20180293591A1 (en) * | 2017-04-05 | 2018-10-11 | General Electric Company | System and Method for Authenticating Components Using Dual Key Authentication |
-
2017
- 2017-04-26 US US16/471,081 patent/US11315286B2/en active Active
- 2017-04-26 CN CN201780086086.6A patent/CN110268449B/zh active Active
- 2017-04-26 EP EP17907280.6A patent/EP3616167A4/en active Pending
- 2017-04-26 WO PCT/US2017/029673 patent/WO2018199946A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060103853A1 (en) * | 2004-11-12 | 2006-05-18 | The Boeing Company | Optical projection system |
US20130093881A1 (en) * | 2011-10-17 | 2013-04-18 | Canon Kabushiki Kaisha | Three dimensional measurement apparatus, control method therefor, information processing apparatus, control method therefor, and non-transitory computer-readable storage medium |
CN104969262A (zh) * | 2013-03-08 | 2015-10-07 | 英特尔公司 | 用于基于感兴趣的区域的图像编码的技术 |
CN106101522A (zh) * | 2015-04-30 | 2016-11-09 | 汤姆逊许可公司 | 使用非光场成像设备获得光场数据的方法和设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115136204A (zh) * | 2020-02-27 | 2022-09-30 | 通用汽车巡航控股有限责任公司 | 多模态、多技术载具信号检测 |
WO2023113823A1 (en) * | 2021-12-17 | 2023-06-22 | Hewlett-Packard Development Company, L.P. | Generating a three-dimensional representation of an object |
Also Published As
Publication number | Publication date |
---|---|
US11315286B2 (en) | 2022-04-26 |
EP3616167A1 (en) | 2020-03-04 |
EP3616167A4 (en) | 2020-12-02 |
WO2018199946A1 (en) | 2018-11-01 |
US20200051277A1 (en) | 2020-02-13 |
CN110268449B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110268449A (zh) | 在对象上定位感兴趣区域 | |
Bhatnagar et al. | Combining implicit function learning and parametric models for 3d human reconstruction | |
Hodaň et al. | BOP challenge 2020 on 6D object localization | |
Hou et al. | Blind 3D mesh watermarking for 3D printed model by analyzing layering artifact | |
CN102782723B (zh) | 位置和方位估计方法及其设备 | |
Bae et al. | High-precision vision-based mobile augmented reality system for context-aware architectural, engineering, construction and facility management (AEC/FM) applications | |
US10776978B2 (en) | Method for the automated identification of real world objects | |
US20150347833A1 (en) | Noncontact Biometrics with Small Footprint | |
Hou et al. | 3D print-scan resilient watermarking using a histogram-based circular shift coding structure | |
Arora et al. | Design and fabrication of 3D fingerprint targets | |
JP2011185872A5 (zh) | ||
CN106056183B (zh) | 印刷机器可读图像的印刷介质及扫描该图像的系统和方法 | |
Sang et al. | Pose‐invariant face recognition via RGB‐D images | |
WO2017057448A1 (ja) | 個体識別子抽出装置 | |
Vasiljević et al. | Copyright protection of 3D digitized artistic sculptures by adding unique local inconspicuous errors by sculptors | |
US11409239B2 (en) | Method for determining authenticity using images that exhibit parallax | |
Li et al. | Shape and Pose Estimation for Closely Interacting Persons Using Multi‐view Images | |
WO2019153879A1 (zh) | 复合包装袋及其制备方法、验证方法和系统及设备 | |
Lin et al. | Constructing 3D human model from 2D images | |
JP2004265337A (ja) | ランドマーク抽出装置およびランドマーク抽出方法 | |
US9158956B2 (en) | Reader, reading method and computer program product | |
Fu et al. | State-of-the-art in 3D face reconstruction from a single RGB image | |
JP2014186659A (ja) | 画像照合装置、画像照合方法、画像照合プログラム | |
Su et al. | Robust 2D engineering CAD graphics hashing for joint topology and geometry authentication via covariance-based descriptors | |
Aliaga et al. | Genuinity signatures: Designing signatures for verifying 3d object genuinity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Texas, USA Applicant after: HEWLETT-PACKARD DEVELOPMENT Co.,L.P. Address before: Texas, USA Applicant before: HEWLETT-PACKARD DEVELOPMENT Co.,L.P. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |