CN107038751B - 从2d图像进行3d建模对象的识别的方法、介质与系统 - Google Patents

从2d图像进行3d建模对象的识别的方法、介质与系统 Download PDF

Info

Publication number
CN107038751B
CN107038751B CN201611273096.4A CN201611273096A CN107038751B CN 107038751 B CN107038751 B CN 107038751B CN 201611273096 A CN201611273096 A CN 201611273096A CN 107038751 B CN107038751 B CN 107038751B
Authority
CN
China
Prior art keywords
dimensional
image
computer
dimensional image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611273096.4A
Other languages
English (en)
Other versions
CN107038751A (zh
Inventor
M·布尔克纳福德
F·米歇尔
A·雷耶步斯夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of CN107038751A publication Critical patent/CN107038751A/zh
Application granted granted Critical
Publication of CN107038751B publication Critical patent/CN107038751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Architecture (AREA)

Abstract

该发明特别涉及一种用于从二维图像识别三维建模对象的计算机实现的方法。该方法包括:提供从三维建模对象渲染的二维图像的第一集合,第一集合中的每个二维图像被关联到标签;提供非从三维对象渲染的二维图像的第二集合,第二集合中的每个二维图像被关联到标签;在第一和第二集合两者上训练模型;提供相似度度量;提交描绘至少一个对象的二维图像;以及通过使用训练模型和相似度度量检索与提交的所述二维图像的至少一个对象相似的三维对象。

Description

从2D图像进行3D建模对象的识别的方法、介质与系统
技术领域
本发明涉及计算机程序和系统领域,并且更具体地涉及用于从表示对象的图像或照片中检索3D对象的数据库中的三维(3D)对象的方法、系统和程序。
背景技术
现有的三维(3D)对象检索方法可被归类为:(i)直接在3D内容上操作的方法,以及(ii)提取“2.5D”或2D内容(立体对、图像的多个视图、人工渲染的3D对象、轮廓等)的方法。
现在集中于基于2D图像的“2D到3D”检索框架作为用于执行检索的输入,包括边界分析的一些基于形状的方法已经适于从(一个或多个)2D图像检索3D对象。
例如,T.Napoleon在EURASIP Journal on Image and Video Processing,2010中的“From 2D Silhouettes to 3D Object Retrieval:Contributions and Benchmarking”用多个轮廓图像进行3D对象搜索。查询不仅包括2D轮廓,还包括手绘草图。值得注意的是,本文档介绍包括以用于搜索效率的粗略到精细的方式使用动态程序的轮廓(silhouette)/外形(contour)对准的想法。然而,该方法的重要缺点是性能对由自动迂回造成的外形的质量敏感,这仍然是巨大的挑战。
作为从2D图像进行3D检索的另一个示例,Aono等人在Signal&InformationProcessing Association Annual Summit and Conference(APSIPA ASC),2012中的“3DShape Retrieval from a 2D Image as Query”使用复合特征向量作为用于从单个2D图像进行3D对象检索的Zernike矩和HOG特征的组合。HOG特征是从阴影深度缓冲图像计算的,而Zernike矩是从轮廓图像计算的。这些特征可能不足以区分具有相同整体形状的相似对象。此外,它们经常在部分遮挡的对象的情况下失败。
“2D到3D”匹配的其它方法利用用于有效的对象检测和/或精细姿势估计的3D模型。为此,它们依赖于它们从大量的视点渲染的3D示范模型的集合。渲染的图像然后用于学习部分模板以定位给定图像中的对象并估计其精细姿势。这样的方法的主要缺点是它们需要繁重的注释和计算。因而不可扩展。为了学习有意义的模型,它们需要将每个可用的CAD模型关联到包含相同的CAD模型并且用对象姿势注释的一组图像。
用2D图像查询3D对象的数据库还用于在Q.Huang等人在CVPR 2015中的“Single-View Reconstruction via Joint Analysis of Image and Shape Collections”中的Web图像中描绘的对象的自动3D重建。该方法从单个视图重建对象。关键思想是与现有3D模型的较小集合一起联合地分析不同对象的图像集合。在自然图像和渲染的图像之间建立密集像素级别对应。这些对应用于联合地分割图像和3D模型。计算的分割和对应然后用于构造新模型。然而,这样的方法对分割的质量敏感,并且因此会在具有复杂背景和部分遮挡的对象的图像的情况下失败。
因此,这些方法经受几个缺点。首先,它们可能需要对作为输入提供的图像的约束;例如图像的分割、图像的自动迂回。另外,它们不总是允许检索部分遮挡的对象。此外,这些方法的可扩展性可能受到限制,因为它们依赖于快速达到其学习能力限制的学习机。此外,用于检索对象的签名的辨别力不总是允许相关的3D对象;例如这些方法不能由自己确定什么造成3D模型中的两个对象之间的差异。
在该上下文中,仍然存在对用于从二维图像识别三维建模对象的改进方法的必要。
发明内容
因此,提供一种用于从二维图像识别三维建模对象的计算机实现的方法。该方法包括:提供从三维建模对象渲染的二维图像的第一集合,第一集合的每个二维图像被关联到标签;提供非从三维对象渲染的二维图像的第二集合,第二集合的每个二维图像被关联到标签;在第一和第二集合两者上训练模型;提供相似度度量;提交描绘至少一个对象的二维图像;以及检索与通过使用训练模型和相似度度量提交的二维图像的所述至少一个对象相似的三维对象。
该方法可进一步包括下列中的一个或多个:
-第一集合中的每个二维图像是根据三维对象上的视点计算的,该视点是在三维对象上的多个视点之中选择的;
-三维对象上的多个视点是根据Thomson球获得的;
-在训练模型之后:通过为第一集合的每个二维图像提取(S500)特征向量来建立第一集合的二维图像的索引,其中特征向量是使用训练模型提取;
-提取的特征向量包括训练模型的参数到二维图像的连续应用;
-提取提交的二维图像的特征向量。
-通过使用相似度度量,将提交的二维图像的提取的特征向量与索引的特征向量进行比较;
-用于比较的相似度度量是确定性的;
-用于比较的相似度度量时利用学习过程学习的;
-学习过程包括:在第一和第二集合两者上训练相似度模型,第一集合的每个二维图像与第二集合的二维图像配对,并且与第一和第二集合的二维图像相关联的标签至少包括相似度信息标签;
-特征向量的提取和相似度度量的学习过程是通过使用Siamese网络来同时实施的;
-训练模型是利用深度神经网络获得的。
进一步提供一种用于从二维图像识别三维建模对象的计算机程序,包括使处理电路执行以上方法的指令。
进一步提供一种具有在记录于其上的计算机程序的计算机可读存储介质。
进一步提供一种包括耦合到存储器的处理电路的系统,该存储器具有记录于其上的计算机程序。
附图说明
现在将通过非限制性示例的方式并参考附图来描述该发明的实施例,其中:
-图1示出训练模型的示例的流程图;
-图2示出用于相机位置的Thomson球的示例;
-图3示出基于用于相机位置的Thomson球生成的一个3D对象的视图的示例;
-图4示出深度神经网络架构的示例;
-图5示出索引2D图像的示例的流程图;
-图6示出离线学习和索引的示例;
-图7示出检索对象的示例的流程图;
-图8示出对象的在线检索的示例;
-图9示出深度Siamese架构的示例;以及
-图10示出计算机系统的示例。
具体实施方式
参照图1、5和7的流程图,提出一种用于从二维(2D)图像识别三维(3D)建模对象的计算机实现的方法。该方法包括提供2D图像的第一和第二集合。从3D建模对象渲染第一集合的图像,并且不从3D建模对象渲染第二集合的图像。第一和第二集合的每个2D图像被关联到标签。该方法还包括:在第一和第二集合上训练模型;该模型典型地是神经网络模型。该方法进一步包括提供相似度度量。然后,该方法包括提交描绘至少一个对象的2D图像。接下来,该方法包括检索与由先前提交的3D图像描绘的一个或多个对象相似的至少一个3D对象。检索是通过使用训练模型和相似度度量来执行的。这样的方法改进从2D图像对3D建模对象的识别。
值得注意的是,本发明不需要在用于检索3D建模对象的输入数据(2D图像)上应用任何具体约束。实际上,模型的训练避免为图像内容分析执行分割,并且它还避免利用使用分割的方法遇到的遮挡问题。该方法是鲁棒的,因为模型的识别依赖于基于原始数据而从端到端学习获得的训练模型:所搜索的是系统所已知的。可扩展性也得到改善:实际上,用于训练模型的深度神经网络不具有关于其学习能力的任何限制(除了当系统达到识别100%成功时)。此外,该方法提供高效的方式来使用具有3D对象的深度学习。训练模型的方式允许获得适于被存储的3D对象的类型的签名。签名的辨别力因此用于改善识别的对象的相关性。
该方法是计算机实现的。这意味着该方法的步骤(或者基本上所有步骤)由至少一个计算机或相似的任何系统执行。因此,该方法的步骤可能完全自动地或半自动地由计算机执行。在示例中,可通过用户-计算机交互来执行该方法的步骤中的至少一些的触发。所需的用户-计算机交互的级别可取决于预见的自动化的水平,并且与实现用户的愿望的需要平衡。在示例中,该级别可以是用户定义的和/或预定义的。
该方法的计算机实现方式的典型示例是用适于该目的的系统来执行该方法。该系统包括耦合到存储器的处理器。其可进一步包括图形用户接口(GUI)。典型地,存储器具有记录于其上的计算机程序,该计算机程序包括用于执行该方法的指令。存储器还可存储数据库。存储器是适于这样的存储的任何硬件,可能包括若干物理不同的部件(例如,一个用于程序,并且可能一个用于数据库)。
第一和第二集合的2D图像被典型地存储在“数据库”上。数据库意味着为搜索和检索组织的数据(即信息)的任何集合(例如,关系数据库,例如,基于预定的结构化语言,例如SQL)。当存储在存储器上时,数据库允许由计算机快速搜索和检索。数据库实际上被结构化以便于与各种数据处理操作结合的数据的存储、检索、修改和删除。数据库可由可以被分解成记录的一个文件或一组文件组成,记录中的每一个由一个或多个字段组成。字段是数据存储的基本单位。用户可主要通过查询检索数据。使用关键字和排序命令,用户可以快速搜索、重新排列、分组和选择许多记录中的字段,以根据正在使用的数据库管理系统的规则来检索或创建关于特定数据聚合的报告。
该方法一般操纵自然图像和从建模对象获得的合成图像。建模对象是由例如存储在数据库中的数据定义的任何对象。通过扩展,表达“建模对象”指定数据本身。建模对象可由不同种类的数据定义,这取决于已经用其建模对象的系统。系统可实际上是CAD系统、CAE系统、CAM系统、PDM系统和/或PLM系统中的任何一个(或组合中的任何一个)。在那些不同的系统中,建模对象由对应的数据定义。人们可相应地说CAD对象、PLM对象、PDM对象、CAE对象、CAM对象、CAD数据、PLM数据、PDM数据、CAM数据、CAE数据。然而,这些系统不是彼此独占的,因为建模对象可由对应于这些系统的任何组合的数据定义。系统因此可以很好地是CAD和PLM系统两者,如将从下面提供的这样的系统的定义中显而易见的。
CAD系统另外意味着至少适于在建模对象的图形表示(诸如CATIA)的基础上设计建模对象的任何系统。在这种情况下,定义建模对象的数据包括允许建模对象的表示的数据。在具有面或表面的特定情况下,CAD系统例如可使用边缘或线来提供CAD建模对象的表示。线、边缘或表面可以各种方式表示,例如,非均匀有理B样条(NURBS)。具体地,CAD文件包含规范,从该规范中可生成几何形状,这反过来允许生成表示。建模对象的规范可被存储在单个CAD文件或多个CAD文件中。在CAD系统中表示建模对象的文件的典型大小在每个部件一兆字节的范围内。并且建模对象典型地可以是成千个部件构成的组装件。
在CAD的上下文中,建模对象典型地可以是3D建模对象,例如,表示诸如部件或部件的组装件的产品,或者可能产品的组装件。“3D建模对象”意味着由允许其3D表示的数据建模的任何对象。3D表示允许从所有角度查看部件。例如,3D建模对象当3D表示时可被处理和围绕其任何轴或围绕在其上显示该表示的屏幕中的任何轴旋转。这显著地排除不是3D建模的2D图标。3D表示的显示便于设计(即,增加设计者在统计上完成他们的任务的速度)。这加速工业中的制造过程,因为产品的设计是制造过程的部分。
3D建模对象可表示将在真实世界中制造的产品的几何形状,该制造在利用例如CAD软件解决方案或CAD系统完成其虚拟设计之后,诸如(例如机械)部件或部件的组装件(或者等同地部件的组装件,因为从该方法的视点来看,部件的组装件可被视为部件本身,或者该方法可被独立地应用到该组装件的每个部件),或者更一般地任何刚性体组装件(例如移动机构)。CAD软件解决方案允许各种和无限的工业领域中的产品设计,包括:航空航天、建筑、建造、消费品、高科技设备、工业装置、运输、海洋和/或海上油/气生产或运输。由该方法使用的3D建模对象因此可表示工业产品,该工业产品可以是任何机械部件,例如陆地交通工具(例如包括:汽车和轻型卡车装置、赛车、摩托车、卡车和汽车的装置、卡车和公共汽车、火车)的一部分,空中交通工具(例如包括:机身装置、航空航天装置、推进装置、国防产品、航空装置、空间装置)的一部分,海洋交通工具(例如包括:海军装置、商业船只、海上装置、游艇和工作船、船舶装置)的一部分,一般机械部件(例如包括:工业制造机械、重型移动机械或装置、安装装置、工业装置产品、金属制品、轮胎制造产品),机电或电子部件(例如包括:消费电子产品、安全和/或控制和/或仪器产品、计算和通信装置、半导体、医疗设备和装置),消费品(例如包括:家具、家用和花园产品、休闲用品、时尚产品、硬质商品零售商产品、软质商品零售商产品),包装(例如包括:食品和饮料及烟草、美容和个人护理、家务产品包装)。
PLM系统另外意味着适于表示物理制造产品(或待制造的产品)的建模对象的管理的任何系统。在PLM系统中,建模对象因此由适合于物理对象的制造的数据来定义。这些典型地可以是尺寸值和/或公差值。为了正确地制造对象,确实最好具有这样的值。
CAM解决方案另外意味着适于管理产品的制造数据的任何解决方案、硬件的软件。制造数据一般包括与要制造的产品相关的数据、制造过程和所需的资源。CAM解决方案用于计划和优化产品的整个制造过程。例如,其可以给CAM用户提供制造过程的可行性、持续时间或诸如具体机器人的资源的数量的信息,其可在制造过程的具体步骤中被使用;并且因此允许关于管理或所需投资的决策。CAM是在CAD过程和潜在CAE过程之后的后续过程。这样的CAM解决方案由商标为
Figure GDA0003252044710000071
的Dassault Systèmes提供。
CAE解决方案另外意味着适于建模对象的物理行为的分析的任何解决方案、硬件的软件。公知且广泛使用的CAE技术是有限元方法(FEM),其典型地涉及将建模对象划分成可通过方程式计算和模拟其物理行为的元素。这样的CAE解决方案由商标为
Figure GDA0003252044710000072
的Dassault Systèmes提供。另一个成长的CAE技术涉及由来自不同物理场的多个组件组成的复杂系统的建模和分析,而没有CAD几何数据。CAE解决方案允许仿真,并且因此优化、改进和验证要制造的产品。这样的CAE解决方案由商标为
Figure GDA0003252044710000073
的Dassault Systèmes提供。
PDM代表产品数据管理。PDM解决方案意味着适于管理与特定产品相关的所有类型的数据的任何解决方案、硬件的软件。PDM解决方案可由参与产品生命周期的所有行动者使用:主要是工程师,但也包括项目经理、财务人员、销售人员和购买者。PDM解决方案一般基于面向产品的数据库。它允许行动者共享关于其产品的一致数据,并且因此防止行动者使用发散数据。这样的PDM解决方案由商标为
Figure GDA0003252044710000081
的Dassault Systèmes提供。
图10示出系统的示例,其中该系统是客户端计算机系统,例如用户的工作站。
该示例的客户端计算机包括连接到内部通信总线1000的中央处理单元(CPU)1010、也连接到该总线的随机存取存储器(RAM)1070。客户端计算机进一步提供有与连接到总线的视频随机存取存储器1100相关联的图形处理单元(GPU)1110。视频RAM 1100在本领域中也被称为帧缓冲器。大容量存储设备控制器1020管理对大容量存储器设备(诸如硬盘驱动器1030)的访问。适合于有形地体现计算机程序指令和数据的大容量存储器设备包括所有形式的非易失性存储器,例如包括:半导体存储器设备,诸如EPROM、EEPROM和闪存设备;磁盘,诸如内部硬盘和可移动盘;磁光盘;以及CD-ROM盘1040。任何前述内容可由专门设计的ASIC(专用集成电路)补充或并入其中。网络适配器1050管理对网络1060的访问。客户端计算机还可包括触觉设备1090,诸如光标控制设备、键盘等等。在客户端计算机中使用光标控制设备允许用户将光标选择性地定位在显示器1080上的任何期望位置。另外,光标控制设备允许用户选择各种命令并输入控制信号。光标控制设备包括用于向系统输入控制信号的许多信号生成设备。典型地,光标控制设备可以是鼠标、正用于生成信号的鼠标的按钮。替代地或另外,客户端计算机系统可包括敏感垫和/或敏感屏幕。
计算机程序可包括可由计算机执行的指令,该指令包括用于使以上系统执行方法的装置。程序可以是在任何数据存储介质上可记录的,包括系统的存储器。程序例如可在数字电子电路中、或者在计算机硬件、固件、软件中或者在它们的组合中来实现。程序可被实现为装置,例如在用于由可编程处理器执行的机器可读存储器设备中有形地体现的产品。方法步骤可由可编程处理器执行,该可编程处理器执行指令的程序以通过在输入数据上操作并生成输出来执行方法的功能。处理器因此可以是可编程的并且被耦合以从数据存储系统、至少一个输入设备和至少一个输出设备接收数据和指令,并且向其发送数据和指令。应用程序可以用高级过程或面向对象的编程语言,或者如果期望的话以汇编或机器语言来实现。在任何情况下,语言可以是编译或解释语言。程序可以是完全安装程序或更新程序。程序在系统上的应用在任何情况下导致用于执行该方法的指令。
“从二维图像识别三维建模对象”指定可以是精心制作3D建模对象的过程的至少一部分的动作,例如设计3D建模对象。该方法可包括在制造过程中,该制造过程可包括:在执行该方法之后,生产对应于检索的3D建模对象的物理产品。在任何情况下,由该方法识别的建模对象可表示制造对象,例如,在3D打印机上的。3D建模对象因此可以是建模固体(即,表示固体的建模对象)。制造对象可以是产品,诸如部件或者部件的组装件。因为该方法改进3D建模对象的识别,所以该方法还改进产品的制造,并且从而提高制造过程的生产率。
现在参考图1,讨论训练模型的创建(S180)。训练模型是作为在提供的两组2D图像(S150和S160)上实施的训练(S170)的结果获得的。训练模型的创建是本发明的所谓的离线阶段的一部分,与图7和8上图示的在线阶段相反。表达离线指代当用户查询系统以识别在图片中表示的3D建模对象时不需要实施的预处理操作;当实施在线阶段时,由在线阶段使用的离线阶段的结果已经对于在线步骤可用。将理解的是:离线阶段可以在在线阶段被执行的同时运行;在这种情况下,由在线阶段使用的离线阶段的结果不是当前结果,而是先前执行的离线阶段的结果。在在线阶段期间,用户的查询使用包括将在3D建模对象之中识别的对象的2D图像。离线阶段典型地一次并且全部完成,并且对用户是透明的。替代地,离线阶段可以被运行若干次,例如为了丰富训练模型的目的而再次运行它。
优选地,本发明中的离线阶段严重依赖于深度神经网络,并且对应于其中学习和索引所有特征的阶段。离线阶段可以被认为是使用媒体的集合的两个分层的过程。媒体的集合优选地在几万个单位范围内,并且集合中的媒体的数量越大,训练模型越尖锐。首先,为集合的每一个和每个媒体提取签名。提取过程被典型地重复几万次;重复的数量至少取决于媒体的集合中的媒体的数量。其次,创建构造的列表。此列表通常被称为包含所有签名和到集合中实际媒体的链接的索引。该索引是允许最接近查询的签名的快速检索的数据结构。术语特征可以用于指定签名,即,该特征是提供的媒体的集合的导出值,并且旨在是信息性的、非冗余的,便于随后的学习。
离线阶段提供有效方式来杠杆2D对象归类(也被称为分类)方法(即深度神经网络(DNN))的效率。DNN是用于在神经网络中学习的一组技术,神经网络是使得计算机能够从观察数据学习的生物启发的编程范例。在Rumelhart等人的“Learning internalrepresentation by error backpropagation”,1986中讨论DNN。DNN集中于基于原始数据的端到端学习。换言之,通过完成开始于原始特征且结束于标签的端到端优化,它们远离特征工程移动到最大可能的程度。归类是基于包含其类别从属关系已知的观察(或实例)的一组训练数据来识别新观察属于一组类别中的哪一类别的问题。归类的示例将是:将给定的歌曲分配到其音乐风格中,或者如由观察的患者特性所述的将诊断分配给给定的患者。换言之,给定具有标记的样本的训练集,对未看见的样本分类由学习将精确地恢复其类别(即,标签)的模型的参数组成。
图4示出DNN架构的示例。在DNN的输入上提供数据,并且层1到K-1的级联处理用于特征提取和变换的数据。每层使用来自先前层的输出作为输入,并且可能先前的层可接收下一层的输出。在每层处,较高级特征从较低级特征导出以形成特征的分层表示。可以从特征为每个层提取特征向量。接下来,用连续层K至N获得对DNN的输入处提供的数据的归类。当正确训练DNN的参数时,在输入处提供的数据的标签与归类的结果之间发生匹配。
现在讨论如何在步骤S150和S160处提供用于训练模型的两组2D图像。
步骤S100至S150是用于提供从3D建模对象渲染的2D图像的第一集合的示例,其中每个3D图像被关联到标签。在步骤S100处,提供3D建模对象。提供3D建模对象意味着执行离线阶段的系统可以访问允许对象的3D表示的数据,如上所定义。这例如通过提供对存储至少一个3D建模对象的数据库的访问来执行。
接下来,在步骤S110至S130处,从在步骤S100处提供的3D建模对象计算2D图像。从3D建模对象渲染这些计算的2D图像;换言之在步骤S110至S130处获得的2D图像是合成图像。合成图像(或渲染图像)是由渲染引擎计算的图像。因此合成图像不包括与照片(也被称为自然图像)将包括的噪声相同的噪声,例如衍射、图像传感器的噪声、诸如桶形失真之类的失真、对象和周围对象的照明……。因此,照片的签名取决于拍摄图片的相机而变化,而合成图像的签名在任何计算机上相同。
对于提供的3D建模对象,确定若干视点,因此在3D建模对象上形成多个视点。选择至少一个视点,并且根据选择的视点计算图像。这里,术语视点意味着3D场景(3D建模对象位于并被渲染在3D场景中)中的相机为进行拍照所放置在的具体位置,如本领域中已知的。
如本领域中已知的执行视点的确定。这可以基于用户动作进行,例如,用户通过使用触觉设备选择相机位置。优选地,这可以通过使用空间离散化来执行,空间离散化能够在其中3D建模对象所位于的3D场景中固定用于3D渲染的不同相机位置。
文献中存在几种空间离散化方法。在示例实现方式中,使用Thomson球(步骤S110)。Thomson球是使用Thomson问题离散化的3D建模对象的边界球,如J.J.Thomson,Philosophical Magazine 7,237,1904所讨论的。图2示出由边界框210包围的3D建模对象200(椅子)。3D建模对象200和边界框210被封闭在边界球220中;它们是完全封闭的,这意味着3D建模对象的任何部分都不在边界球之外。将理解的是:边界框210对于使用Thomson球是不强制的。Thomson球包含数量M个相机位置。
一旦已经识别视点,就为每个识别的视点渲染2D图像(S120)。如本领域中已知的执行渲染。
从3D建模对象渲染的2D图像的数量N与视点的数量M相同。然而,该数量M个视点可能是巨大的,并且从视点获得的一些2D图像对于训练可能是嘈杂的,即无用的。为了限制视点的数量,相机的位置可以被包括在对象边界框的顶部和底部面之间以生成2D图像。这允许减少要计算的2D图像的数量,同时仅仅为训练提供相关的2D图像。另外,即使已经减少视点的数量并且已经选择提供较少噪声的2D图像的视点,也仍然可能存在对于训练太嘈杂的2D图像。因此可以在渲染的2D图像上执行选择(S130),以便仅仅保持具有较小噪声的2D图像。这可以由用户执行。在另一个示例中,可以完成2D图像的数量的减少而没有用户的动作。实际上,对于对准的3D建模对象的数据集,人们可以直接考虑位置的具体间隔,即被包括在T/2和B/2之间的相机位置,其中T是对象边界框的顶部面,B是对象边界框的底部面。
图3示出图2的3D建模对象200的十个视图的示例。将理解的是:2D图像的数量一般大于十;例如可为每个3D模型生成大约一百个图像。确切的数量取决于每个对象的大小(即,取决于3D建模对象的边界框或任何其它包围体积)。顶部五个视图被认为是相关的,因为3D建模对象椅子可以被容易地识别,而底部的五个视图不允许容易地识别椅子。因此,仅仅考虑合理的视图。底部的五个视图是不被包括在图2的对象边界框的顶部和底部面之间的那些视图。
接下来,在步骤S140处,每个图像与标签相关联;或者换言之通过使用标签来归类每个图像。标签是有意义的标记、类别或ID,其是信息性的或提供期望知道的关于图像的信息。例如,标签可能是但不限于:图像包含椅子还是桌子,或者在视频中正在执行什么类型的动作。因此标签可以提供图像的内容的描述。在实践中,标签由用户添加,用户归类从3D建模对象渲染的所有2D图像。
从而,在步骤S150处,获得从提供的3D建模对象渲染并且标记的2D图像的第一集合。该第一集合被提供给用于获得训练模型的训练系统。
在步骤S160处,2D图像的第二集合被提供给训练系统,例如,DNN。第二集合中的2D图像是照片,即,自然图像。如上所讨论的,自然图像不是从3D建模对象渲染的,并且它们的签名至少取决于拍摄图片的相机而变化(对于相同的对象)。自然图像的噪声取决于拍摄图像所处的条件。典型地,2D图像或照片是具有不同分辨率、背景和上下文的对象的复杂照片。
然后,在步骤S170处,根据第一和第二集合的图像训练模型。典型地在一般在分类框架内使用的深度神经网络上执行该训练。在示例中,使用卷积神经网络(CNN)。在Y.Lecun等人的“Backpropagation applied to handwritten zip code recognition”,NeuralComput,1989中讨论CNN。卷积神经网络是使用卷积代替一般矩阵乘法的神经网络并且已经证明它们有效地从具有凌乱背景和多个其它对象的图像中的复杂场景识别对象。在另一个示例中,使用的CNN是被称为AlexNet(已经在Alex Krizhevsky,“ImageNetClassification with Deep Convolutional Neural Networks”,NIPS2012中讨论AlexNet)的CNN。优选地,通过修改对应于所考虑的类别的数量的最后一层的神经元的数量,例如1000个神经元,AlexNet CNN适于本发明。AlexNet CNN由五个卷积层(具有池和归一化)和三个完全连接的层组成。
模型的训练显著地包括学习DNN的参数。在DNN的上层中显现的(诸如CNN学习以分类图像的)参数可以用作用于图像检索的良好描述符。在大量的渲染图像(2D图像的第一集合)和未渲染图像(2D图像的第二集合)两者上学习参数。
然后,在步骤S180处,获得训练模型。训练模型是一组学习的DNN参数。DNN参数也被称为神经码,如在Babenko等人的“Neural Codes for Image Retrieval”中所讨论的。
在图6的顶部上表示步骤S100至S180的离线学习。值得注意的是,DNN(在该图的示例中的CNN)的训练集包括由第一和第二集合提供的2D图像。对于两种类型图像不需要任何约束。在实践中,训练数据集由四分之一(1/4)的渲染图像和四分之三(3/4)的图片组成;这允许改进DNN的分类结果。可能考虑图像的其它组合。已经用包括四分之一的渲染图像和四分之三的图片的训练数据集获得最佳结果。训练集被提供给托管DNN的DNN学习机器600,并计算在步骤S180处获得的模型。DNN学习机器600典型地是软件应用,并且如本领域中已知的被实现。
图5示出离线阶段的第二方面:创建从2D图像的第一集合提取的特征向量的索引,即,从3D建模对象渲染的图像。自然图像(第二集合的2D图像)仅仅用于训练模型,而不用于搜索。可以提取每个2D图像的神经码(或特征向量)(S500),并且用作特征向量。使用在步骤S180处的训练模型来提取特征向量。通过使用一组学习的参数来将“前向通过”应用到输入图像而执行特征的提取。即,图像通过用倾斜参数来参数化的不同层。因此,提取的特征向量包括训练模型的参数到给定的二维图像(例如提供的2D渲染图像)的连续应用。神经码可属于DNN的一个或多个隐藏层;考虑DNN的层越多,获得的特征向量越有区别但是越长。对于从2D图像提取的每个特征向量,确定特征向量的大小是否太长。特征向量的大小可以对存储器使用和/或整体系统性能具有影响。特征向量的大小可以高达若干兆字节。在实践中,已经用大小为四千字节的特征向量获得在系统的全局性能和特征向量的有区别的特性之间的最佳折衷。在特征向量的大小被确定为超过给定大小的情况下,可以执行特征向量的减小。如本领域中已知的,可应用不同的维数降低方法来减少特征向量大小;例如可使用如W.Svante,K.Esbensen和P.Geladi的“Principal component analysis”,Chemometricsand Intelligent Laboratory Systems 1987中所述的主成分分析。
一旦已经提取特征向量,通过使用提取的特征向量来索引已经从其渲染对应的2D图像的3D建模对象。将理解的是:对应的2D图像是已经从其提取特征向量的2D渲染图像。索引是允许改进数据的定位速度的数据结构。如本领域中已知的执行数据结构的建立。
在图6的底部表示步骤S500至S510的离线索引。从3D建模对象渲染的2D图像被提供给特征向量提取器610,并且提取的特征向量被发送给建立特征向量的索引的特征向量索引器620。在图6的示例中,提取神经网络的第二到最后一个完全连接层。仍然在该示例中,神经网络是AlexNet CNN,并且,第二到最后一层包含4096个神经元。从每个2D渲染图像提取4096维特征向量。
现在参考图7和图8,讨论执行的在线阶段;在线阶段针对从包含对象的2D图像识别至少一个3D建模对象。
在图7的示例中,在线阶段开始于提供(S700)训练模型,例如在步骤S180处获得的训练模型。
然后,提供相似度度量(S710)。相似度度量允许执行在描绘至少一个对象的2D图像与例如在3D建模对象的数据库中存储的3D建模对象之间的相似度度量。数学上,相似度的概念相当于内积的概念,并且因此与赋范向量空间中的向量之间的距离成正比。相似度和距离的概念往往是可互换的,因为简单的变换从一个得到另一个。
可在用户动作时提供相似度度量,或者其可通过默认来提供(例如相似度度量的自动选择),由系统执行,或者其可通过默认来提供,并且在稍后阶段由用户修改。
相似度度量可以是确定性相似度度量。确定性相似度度量是无参数的相似度度量,或者如果存在相似度度量的参数,它们由操作者而不是通过自动过程选择。在确定性相似度度量之中,人们可以提供欧几里德距离、曼哈顿距离、余弦相似度之中的一个。余弦相似度等同于赋范向量之间的欧几里得距离。
相似度可以是学习的相似度。学习的相似度在文献中被广泛讨论,并且该领域也被称为度量学习。例如,可以在Bellet等人的“A Survey on Metric Learning forFeature Vectors and Structured Data”中找到关于度量学习方法的调查。度量学习方法背后的想法是使用注释对(或甚至有时三元组)的数据库来设置度量的参数。数据库被划分成两种类型的对、相似的对和不相似的对。度量学习方法针对调整度量的参数,以便紧密模拟数据库中的相似度关系,即,两个相似对象之间的距离总是小于两个不相似对象之间的距离。
量度学习中的第一方法中的一个是寻找修改Mahalanobis距离的参数,如在Xing等人的“Distance Metric Learning with Application to Clustering with Side-Information”中所讨论的。在这种情况下,距离由等式l表示:
Figure GDA0003252044710000151
其中d(x,y)是点x和y之间的距离度量,并且其中通过优化过程找到参数∑的矩阵。如果参数∑的矩阵是单位矩阵,则距离d是欧几里得距离。
在度量学习中的另一个方法中,度量学习问题也可以被视为空间嵌入问题,人们执行空间嵌入到其中与关于确定性相似度的不相似元素相比相似元素更接近的空间中。这样的空间嵌入可以在汉明空间中完成——汉明空间是二进制向量的空间,并且它通常是长度N-的所有2N个二进制串组,并且距离然后是汉明距离,汉明距离是在汉明空间估计的曼哈顿距离。空间嵌入则是变换保持数据库中的相似度关系的二进制码向量中的任何特征向量的函数。
在相似度度量的选择之后,2D图像被提供给系统(S720)。2D图像描绘至少一个对象,例如,现实世界的制造对象。2D图像可以是从3D建模对象渲染的自然图像(照片)或2D图像。在用户动作时典型地提供图像;用户选择图像,并且该选择的图像被提供给将执行查询的系统。如本领域中已知的实施图像的选择,例如,用户使用用于选择图像文件的触觉设备。替代地,图像可被自动提供给将执行查询的系统。提供2D图像意味着表示2D图像的数据对查询系统可用。2D图像可以包括光栅图形或向量图形;对于后者,图像的向量图形将被变换成光栅图形。因此,在步骤S720处可以提供所有种类的2D图像。
一旦已经提交描绘至少一个对象的2D图像,系统提取2D图像的特征向量(S730)。如本领域已知的执行提取;在2D图像上应用专用于特征的提取的算法。
接下来,将在步骤S720处提供的2D图像的计算的特征向量与在步骤S500-S510处建立的索引的特征向量比较(S740)。如本领域中已知的进行比较。比较使用提供的相似度度量,以便确定索引的最接近的特征向量是什么。从而,在步骤S720处提供的2D图像的提取的特征向量与索引的一个或多个特征向量之间获得一个或多个匹配。将理解的是:如果在提供的2D图像和索引的3D建模对象之间的差异太重要,可以确定没有任何匹配。例如,非常低的相似度度量值意味着没有匹配。
然后,对于与在步骤S720处提供的2D图像的提取的特征向量匹配的索引的每个特征向量,可以识别一个或多个3D建模对象:索引是包含所有签名(特征向量)的结构化列表以及到集合中的实际媒体(从其已经渲染与签名相关联的2D图像的3D建模对象)的链接。因此,检索与在步骤S720处提交的图像中描绘的对象相似的一个或多个3D对象(S750)。检索意味着至少提供允许系统访问3D对象的最小信息,例如,到3D对象的数据的链接。3D对象的检索可进一步包括在客户端计算机上下载3D对象的数据,或者显示检索的3D对象的一个或多个2D图像。这里,客户端计算机是必须在其上显示检索的结果的计算机化的系统;在实践中,客户端计算机是在其上提供2D图像以用于触发相似的3D建模对象的搜索的计算机。
图8示出在线阶段的示例。通过提供2D图像而触发图像查询。在离线阶段期间通过使用训练模型而提取2D图像的特征向量。提取由可以与图6的特征向量提取器610相同的特征向量提取器800做出。提取的特征向量然后被发送到匹配模块810,匹配模块810负责根据相似度度量计算特征向量之间的相似度。匹配模块810可以访问用于执行比较的特征向量的索引。匹配模块810在其输出处提供一个或多个特征向量的列表(S740);理解的是:如果没有确定任何匹配,列表可以是空的。
现在讨论度量学习的另一个示例,该示例涉及适于并发执行离线索引和度量学习的特定架构。该架构被描绘在图9上,并且依赖于在Chopra等人的“Learning a SimilarityMetric Discriminatively with Application to Face Verification”中讨论的Siamese网络。Siamese网络允许通过神经网络学习相似度。Siamese网络具有然后创建非线性嵌入的两个相同的部分,采用在两个表示之间的欧几里得距离或曼哈顿距离,如果距离不像数据库,则通过优化过程相应地修改神经网络中的权重。如在Zagoruyko等人的“Learning toCompare Image Patches via Convolutional Neural Networks”中讨论的,在图像的上下文中已经并且可以对Siamese网络进行一些添加和修改。
在图9的深度Siamese架构中,集成特征提取过程和距离度量的学习。可能学习距离度量,并且两个学习过程可能与两个不同的学习数据库同时发生,例如,包括图像的第一和第二集合的数据库900和910。在本发明中,通过使用Siamese网络来集成学习过程,在这种情况下仅仅发生一个学习。数据库900和910向它们各自的特征提取网络——层1到K-1的级联提供2D图像。特征提取网络连接到Siamese网络分支的每一个的底部,并且反向传播用于同时学习特征向量和距离度量。这允许为手头的比较任务设计更好的特征。用配对的2D图像训练模型,该对的一个2D图像属于第一集合,并且第二个2D图像属于第二集合。标记一对的两个图像,并且标签至少包括相似度信息。相似度信息可以表示标记,诸如“高度相似”、“高度不相似”。属于相同类别(例如,椅子)的两个图像可以被认为是高度相似的。属于不同类别的图像可以被认为是高度不相似的。当在架构的输出处提供的相似度结果与在2D图像的对的标签中的相似度结果相同时,决策层K至N的参数被正确地调整,并且这些调整的参数是学习的度量。
已经描述了本发明的优选实施例。将理解的是:可以进行各种修改而不脱离该发明的精神和范围。因此,其它实现方式在下列权利要求的范围内。例如,3D对象的集合可以被存储在客户端计算机上,或者其可以被存储在客户端计算机例如通过通信网络连接到的专用服务器上。训练模型优选地被存储在托管3D对象以及索引的服务器上。

Claims (11)

1.一种用于从二维图像识别三维建模对象的计算机实现的方法,包括:
提供从三维建模对象渲染的二维图像的第一集合,所述第一集合中的每个二维图像被关联到标签;
提供非从三维对象渲染的二维图像的第二集合,所述第二集合中的每个二维图像被关联到标签;
在第一集合和第二集合两者上训练神经网络模型;
通过针对所述第一集合中的每个二维图像提取特征向量来建立所述第一集合的二维图像的索引,其中,特征向量是使用所训练的模型提取的;
提供相似度度量;
提交描绘至少一个对象的二维图像;
通过使用所训练的模型提取所提交的二维图像的特征向量;
通过使用所述相似度度量,将所提交的二维图像的所提取的特征向量与所索引的特征向量进行比较;
确定与所提取的特征向量匹配最接近的索引的特征向量;识别链接到所述最接近的索引的特征向量的一个或多个三维建模对象;以及
提取与所述二维图像的所述至少一个对象相似的三维对象。
2.根据权利要求1所述的计算机实现的方法,其中,所述第一集合中的每个二维图像是从三维对象上的视点计算的,所述视点是在所述三维对象上的多个视点之中选择的。
3.根据权利要求2所述的计算机实现的方法,其中,所述三维对象上的多个视点是从Thomson球获得的。
4.根据权利要求1-3中任一个所述的计算机实现的方法,其中,提取的特征向量包括将所训练的模型的参数连续应用到二维图像。
5.根据权利要求1所述的计算机实现的方法,其中,用于比较的相似度度量是确定性的。
6.根据权利要求5所述的计算机实现的方法,其中,用于所述比较的相似度度量是利用学习过程学得的。
7.根据权利要求6所述的计算机实现的方法,其中,所述学习过程包括:
在第一集合和第二集合两者上训练相似度模型,所述第一集合中的每个二维图像与所述第二集合中的二维图像配对,并且与所述第一集合和所述第二集合的二维图像相关联的标签至少包括相似度信息标签。
8.根据权利要求6或7中的一个所述的计算机实现的方法,其中,所述特征向量的提取和所述相似度度量的学习过程是通过使用Siamese网络来同时实施的。
9.根据权利要求1所述的计算机实现的方法,其中,所训练的神经网络模型是利用深度神经网络获得的。
10.一种计算机可读存储介质,其上记录有指令以执行权利要求1-9之一的方法。
11.一种包括耦合到存储器的处理电路的系统,所述存储器具有记录于其上的指令,在由所述处理电路执行时,所述指令使所述处理电路执行权利要求1-9之一的方法。
CN201611273096.4A 2015-12-07 2016-12-06 从2d图像进行3d建模对象的识别的方法、介质与系统 Active CN107038751B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15306952.1A EP3179407B1 (en) 2015-12-07 2015-12-07 Recognition of a 3d modeled object from a 2d image
EP15306952.1 2015-12-07

Publications (2)

Publication Number Publication Date
CN107038751A CN107038751A (zh) 2017-08-11
CN107038751B true CN107038751B (zh) 2022-01-14

Family

ID=55027652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611273096.4A Active CN107038751B (zh) 2015-12-07 2016-12-06 从2d图像进行3d建模对象的识别的方法、介质与系统

Country Status (4)

Country Link
US (1) US10176404B2 (zh)
EP (1) EP3179407B1 (zh)
JP (1) JP7049763B2 (zh)
CN (1) CN107038751B (zh)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6191727B1 (ja) * 2016-05-06 2017-09-06 富士ゼロックス株式会社 造形用画像管理システム、造形用画像管理装置、造形用画像管理プログラム
US10304191B1 (en) * 2016-10-11 2019-05-28 Zoox, Inc. Three dimensional bounding box estimation from two dimensional images
WO2018078590A2 (en) * 2016-10-27 2018-05-03 Voodoo Manufacturing, Inc. Automated manufacturing system
KR20180069452A (ko) * 2016-12-15 2018-06-25 삼성전자주식회사 뉴럴 네트워크의 학습 방법 및 뉴럴 네트워크를 이용한 인식 방법, 및 그 장치
DE102017105174B4 (de) 2017-03-10 2020-04-23 Sick Ag Verfahren zum Erzeugen von Trainingsdaten für die Überwachung einer Gefahrenquelle
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
WO2019021456A1 (ja) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム
CN107562805B (zh) * 2017-08-08 2020-04-03 浙江大华技术股份有限公司 一种以图搜图的方法及装置
WO2019032481A1 (en) * 2017-08-08 2019-02-14 Siemens Aktiengesellschaft GENERATING SYNTHESIS DEPTH IMAGES FROM CAD DATA USING GENERATIVE CONTRASICITY NEURAL NETWORKS FOR ENHANCED ENHANCEMENT
CN107393000B (zh) * 2017-08-24 2020-07-28 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
JP6888484B2 (ja) * 2017-08-29 2021-06-16 富士通株式会社 検索プログラム、検索方法、及び、検索プログラムが動作する情報処理装置
CN107657279B (zh) * 2017-09-26 2020-10-09 中国科学院大学 一种基于少量样本的遥感目标检测方法
KR101916347B1 (ko) 2017-10-13 2018-11-08 주식회사 수아랩 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램
EP3474185B1 (en) * 2017-10-18 2023-06-28 Dassault Systèmes Classification of 2d images according to types of 3d arrangement
WO2019076467A1 (en) * 2017-10-20 2019-04-25 Toyota Motor Europe METHOD AND SYSTEM FOR PROCESSING IMAGE AND DETERMINING POINTS OF VIEW OF OBJECTS
CN108010122B (zh) * 2017-11-14 2022-02-11 深圳市云之梦科技有限公司 一种人体三维模型重建与测量的方法及系统
TWI629647B (zh) * 2017-11-22 2018-07-11 英業達股份有限公司 攝影計數裝置
CN108198145B (zh) * 2017-12-29 2020-08-28 百度在线网络技术(北京)有限公司 用于点云数据修复的方法和装置
JP6641396B2 (ja) * 2018-01-26 2020-02-05 Kpmgコンサルティング株式会社 物品分類装置、物品分類システム、物品分類方法及びプログラム
KR102595787B1 (ko) * 2018-02-27 2023-11-24 삼성전자주식회사 전자 장치 및 그 제어 방법
EP3537447A1 (en) 2018-03-07 2019-09-11 Koninklijke Philips N.V. Display of medical image data
CN112236778B (zh) * 2018-04-06 2024-04-16 西门子股份公司 使用cad模型作为先验的从图像中的对象识别
CN108596221B (zh) * 2018-04-10 2020-12-01 江河瑞通(北京)技术有限公司 标尺读数的图像识别方法及设备
US10878285B2 (en) * 2018-04-12 2020-12-29 Seiko Epson Corporation Methods and systems for shape based training for an object detection algorithm
US20210117648A1 (en) * 2018-05-09 2021-04-22 Hewlett-Packard Development Company, L.P. 3-dimensional model identification
US11403663B2 (en) * 2018-05-17 2022-08-02 Spotify Ab Ad preference embedding model and lookalike generation engine
US11537428B2 (en) 2018-05-17 2022-12-27 Spotify Ab Asynchronous execution of creative generator and trafficking workflows and components therefor
US11195211B2 (en) 2018-05-17 2021-12-07 Spotify Ab Systems, methods and computer program products for generating script elements and call to action components therefor
US10657712B2 (en) 2018-05-25 2020-05-19 Lowe's Companies, Inc. System and techniques for automated mesh retopology
CN109087385A (zh) * 2018-06-27 2018-12-25 山东大学 一种基于3d打印的岸滩生态环境模拟方法与系统
CN108961785B (zh) * 2018-07-10 2020-10-02 杭州利艾智能科技有限公司 一种调整交通控制信号的系统及方法
CN108875080B (zh) * 2018-07-12 2022-12-13 百度在线网络技术(北京)有限公司 一种图像搜索方法、装置、服务器及存储介质
CN108918536B (zh) * 2018-07-13 2021-01-26 广东工业大学 轮胎模具表面字符缺陷检测方法、装置、设备及存储介质
CN109086709B (zh) * 2018-07-27 2023-04-07 腾讯科技(深圳)有限公司 特征提取模型训练方法、装置及存储介质
JP7182969B2 (ja) * 2018-09-20 2022-12-05 ヤフー株式会社 コミュニケーション支援装置、ユーザデバイス、コミュニケーション支援方法、およびプログラム
AU2019349986A1 (en) * 2018-09-26 2021-06-10 Sitesee Pty Ltd Apparatus and method for three-dimensional object recognition
CN110993091B (zh) * 2018-10-02 2024-01-16 皇家飞利浦有限公司 从数据生成向量
RU2707710C1 (ru) * 2018-10-13 2019-11-28 Анатолий Васильевич Попов Способ выделения вектора признаков для распознавания изображений объектов
KR102118519B1 (ko) 2018-11-22 2020-06-15 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109829969A (zh) * 2018-12-27 2019-05-31 北京奇艺世纪科技有限公司 一种数据获取方法、装置及存储介质
EP3675063A1 (en) 2018-12-29 2020-07-01 Dassault Systèmes Forming a dataset for inference of solid cad features
EP3675062A1 (en) 2018-12-29 2020-07-01 Dassault Systèmes Learning a neural network for inference of solid cad features
CN109683699B (zh) * 2019-01-07 2022-03-29 深圳增强现实技术有限公司 基于深度学习实现增强现实的方法、装置及移动终端
CN109886297A (zh) * 2019-01-16 2019-06-14 中德(珠海)人工智能研究院有限公司 一种用于从二维图像识别三维模型对象的方法
CN112488985A (zh) * 2019-09-11 2021-03-12 上海高德威智能交通系统有限公司 图像质量确定方法、装置及设备
KR102273577B1 (ko) 2019-10-30 2021-07-07 한국전자통신연구원 다시점 촬영 가이딩 장치 및 방법
FR3104786B1 (fr) * 2019-12-12 2022-01-21 Retail Vr Procédé et système de génération de modèles numériques 3d
CN111208783B (zh) * 2019-12-30 2021-09-17 深圳市优必选科技股份有限公司 一种动作模仿方法、装置、终端及计算机存储介质
CN111243093B (zh) * 2020-01-07 2023-05-12 腾讯科技(深圳)有限公司 三维人脸网格的生成方法、装置、设备及存储介质
CN111368668B (zh) * 2020-02-25 2023-05-23 北京字节跳动网络技术有限公司 三维手部识别方法、装置、电子设备及存储介质
CN111476870B (zh) * 2020-02-29 2022-08-30 新华三大数据技术有限公司 一种对象渲染方法和装置
KR102343363B1 (ko) * 2020-03-06 2021-12-24 경북대학교 산학협력단 2차원 손뼈 투영 이미지로부터 회전된 2차원 손뼈 투영 이미지 생성 방법, 이를 수행하기 위한 기록 매체 및 장치
WO2021188104A1 (en) * 2020-03-18 2021-09-23 Hewlett-Packard Development Company, L.P. Object pose estimation and defect detection
CN111860225B (zh) * 2020-06-30 2023-12-12 阿波罗智能技术(北京)有限公司 一种图像处理的方法、装置、电子设备及存储介质
JP6932821B1 (ja) * 2020-07-03 2021-09-08 株式会社ベガコーポレーション 情報処理システム、方法及びプログラム
KR20220038996A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 특징 임베딩 방법 및 장치
CN113807164A (zh) * 2021-07-29 2021-12-17 四川天翼网络服务有限公司 一种基于余弦损失函数的人脸识别方法
US20230077516A1 (en) * 2021-09-13 2023-03-16 Verizon Patent And Licensing Inc. Systems and methods for utilizing machine learning for vehicle detection of adverse conditions
WO2023136970A1 (en) * 2022-01-14 2023-07-20 Materialise Nv Object identification based on machine vision and 3d models
IT202200003971A1 (it) * 2022-03-03 2023-09-03 Invrsion S R L Metodo per la generazione automatica di modelli digitali tridimensionali (3D) di oggetti reali tridimensionali (3D), in particolare prodotti commerciali.
CN116662628B (zh) * 2023-08-01 2023-11-10 南京航空航天大学 一种基于复杂薄壁零件的三维cad模型检索方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104952063A (zh) * 2014-03-25 2015-09-30 Metaio有限公司 用于在真实环境的视图中表示虚拟对象的方法和系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240939A (ja) * 1997-02-28 1998-09-11 Meidensha Corp カメラキャリブレーション方法
JP2004164503A (ja) * 2002-11-15 2004-06-10 Olympus Corp 三次元モデル検索方法、三次元モデル検索装置、三次元モデル検索プログラム、及び三次元モデル検索システム
EP1510973A3 (en) * 2003-08-29 2006-08-16 Samsung Electronics Co., Ltd. Method and apparatus for image-based photorealistic 3D face modeling
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
US7970203B2 (en) * 2007-03-19 2011-06-28 General Electric Company Purpose-driven data representation and usage for medical images
JP5352738B2 (ja) * 2009-07-01 2013-11-27 本田技研工業株式会社 3次元モデルを使用した物体認識
US8553973B2 (en) * 2009-07-07 2013-10-08 University Of Basel Modeling methods and systems
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
US8570343B2 (en) * 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
US9111375B2 (en) * 2012-01-05 2015-08-18 Philip Meier Evaluation of three-dimensional scenes using two-dimensional representations
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104952063A (zh) * 2014-03-25 2015-09-30 Metaio有限公司 用于在真实环境的视图中表示虚拟对象的方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Neural Codes for Image Retrieval";Artem Babenko 等;《Computer Vision-ECCV2014》;20141231;摘要,第587-588页 *

Also Published As

Publication number Publication date
EP3179407B1 (en) 2022-07-13
US10176404B2 (en) 2019-01-08
JP2017142780A (ja) 2017-08-17
JP7049763B2 (ja) 2022-04-07
CN107038751A (zh) 2017-08-11
EP3179407A1 (en) 2017-06-14
US20170161590A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
CN107038751B (zh) 从2d图像进行3d建模对象的识别的方法、介质与系统
Xie et al. Point clouds learning with attention-based graph convolution networks
Moreira et al. Image provenance analysis at scale
Wu et al. 3d shapenets for 2.5 d object recognition and next-best-view prediction
US10719549B2 (en) Querying a database based on a parametric view function
CN107545025B (zh) 利用形态学标准查询数据库
JP6888484B2 (ja) 検索プログラム、検索方法、及び、検索プログラムが動作する情報処理装置
Ren et al. 3d-a-nets: 3d deep dense descriptor for volumetric shapes with adversarial networks
CN109886297A (zh) 一种用于从二维图像识别三维模型对象的方法
US20210104071A1 (en) Three-dimensional shape classification and retrieval using convolutional neural networks and majority vote
US20220189070A1 (en) Machine-learning for 3d object detection
Li et al. Large-scale exploration of neuronal morphologies using deep learning and augmented reality
Gao et al. Active exploration of large 3d model repositories
Lu et al. Learning-based bipartite graph matching for view-based 3D model retrieval
JP7017852B2 (ja) 記述子を用いた3dオブジェクトの位置特定
JP6947503B2 (ja) 量子化を用いた3dオブジェクトの位置特定
Tang et al. Two-stage filtering method to improve the performance of object detection trained by synthetic dataset in heavily cluttered industry scenes
Asikainen VIEW-BASED RETRIEVAL FOR SIMILAR 3D ASSEMBLY MODELS USING 2D IMAGES
Zhou et al. Preliminary Study on 3D CAD Model Retrieval
Liu et al. Multi-layers CNNs for 3D Model Retrieval
CN114429169A (zh) 3d聚类导航
Kim Deep Learning for Computer Vision and it's Application to Machine Perception of Hand and Object
JP2024028206A (ja) トポロジー認識cad検索のための機械学習
Dudhe et al. An ABIR and CBIR fusion based techniques for associated image retrieval
Zhou et al. Web 3D Lightweight Learning Framework for Shape Retrieval Based on CNN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant