CN105359190B - 根据单个图像估计深度 - Google Patents
根据单个图像估计深度 Download PDFInfo
- Publication number
- CN105359190B CN105359190B CN201480038069.1A CN201480038069A CN105359190B CN 105359190 B CN105359190 B CN 105359190B CN 201480038069 A CN201480038069 A CN 201480038069A CN 105359190 B CN105359190 B CN 105359190B
- Authority
- CN
- China
- Prior art keywords
- query image
- depth
- image
- depth map
- article
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5862—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
在训练阶段期间,机器访问具有对应深度信息的参考图像。机器根据该信息来计算视觉描述符和对应的深度描述符。然后,机器生成将这些视觉描述符与它们的对应深度描述符进行相关的映射。在训练阶段之后,机器可以基于缺少深度信息的单个查询图像来执行深度估计。机器可以根据单个查询图像来计算一个或多个视觉描述符,并且根据生成的映射来获得针对每个视觉描述符的对应深度描述符。基于获得的深度描述符,机器创建与所提交的单个查询图像相对应的深度信息。
Description
相关申请
本国际申请要求2014年5月27日提交的美国专利申请No.14/288,233(代理人案卷号No.2043.E73US1)以及2013年9月5日提交的美国临时专利申请No.61/874,096(代理人案卷号No.2043.E73PRV)的优先权,这些申请的全部以引用的方式并入本文。
技术领域
本文中公开的主题大体上涉及图像的处理。具体地,本公开涉及用于促进图像处理和根据图像处理获得的图像数据的使用的系统和方法。
背景技术
特别是从用户观察图像或促进电子商务(“e-commerce”)的角度来看,可以使用图像来以更高效地或者以文本不能实现的方式来传递信息。然而,为了基于图像中包含的大量信息来使用图像,执行图像处理以提取、鉴别或以其他方式识别图像的属性。一旦提取出了图像数据,图像数据就可以在各种应用中使用。取决于具体应用,可以优先于其他图像来实现某些类型的图像的处理。
附图说明
在附图的图中以示例的方式而非限制的方式示出了一些实施例。
图1是示出了根据一些示例实施例的适合于根据单个图像来估计深度的网络环境的网络图。
图2是示出了根据一些示例实施例的适合于根据单个图像来估计深度的图像处理机的组件的框图。
图3是示出了根据一些示例实施例的使用图像处理机来根据单个图像估计深度的工作流的框图。
图4-6是示出了根据一些示例实施例的图像处理机在执行根据单个图像估计深度的方法时的操作的流程图。
图7是示出了根据一些示例实施例的、能够从机器可读介质中读取指令并执行本文中讨论的方法中的任意一个或多个方法的机器的组件的框图。
具体实施方式
实例方法和系统涉及根据单个图像估计深度。示例仅仅作为可能的变化的典型例子。除非另行明确声明,否则组件和功能是可选的并可以组合或细分,并且操作可以在次序上变化或者可以组合或者细分。在以下描述中,出于解释的目的,对多个具体细节进行阐述,以提供对示例实施例的透彻理解。然而对于本领域技术人员将显而易见的是:本主题可以在没有这些具体细节的情况下实施。
机器可以(例如通过硬件、软件或二者)被配置为执行包括根据单个图像来估计深度信息的图像处理任务。这样的机器可以形成用于执行这样的图像处理任务的系统的全部或一部分。
在训练阶段期间,机器访问存储了具有对应深度信息的图像的参考集的参考数据库(例如训练数据库)。基于该访问到的信息,机器计算在图像中(例如根据彩色像素数据来计算)和在深度信息中表现的特征的描述符。这些描述符可以被看做是包含这些特征的图像部分或深度图部分的高度压缩的版本。具体地,机器计算视觉描述符(例如根据参考图像中的彩色像素来计算)并且计算它们的对应的深度描述符(例如根据对应的深度信息来计算)。然后,机器生成将这些视觉描述符与它们对应的深度描述符进行相关的数据结构(例如存储在存储器或其它机器可读介质中的矩阵)。这些数据的生成可以被称作构建跨域图,该跨域图用于将视觉描述符的词典翻译成对应的深度描述符的词典,或反之。
在训练阶段之后,机器可以在后训练阶段(例如使用阶段或运行时间阶段)中操作,在该阶段中,机器被配置为基于缺少深度信息的单个图像(例如查询图像)来执行深度估计。具体地,机器可以分析(例如在针对深度信息的查询中提交的或在估计深度信息的请求中提交的)单个图像,并且计算一个或多个视觉描述符(例如根据提交的单个图像中的彩色像素来计算)。然后,机器可以通过访问之前生成的数据结构(例如矩阵)来获取针对每个视觉描述符的对应深度描述符。基于从数据结构中获取的一个或多个深度描述符,机器可以创建与提交的单个图像相对应的深度信息。
机器可以响应于查询或请求来提供该深度信息(例如作为深度图或深度图像)。此后,机器可以向任何机器或软件应用(例如运输应用、视觉化应用、或者它们的任何合适的组合)提供该深度信息。
在训练阶段期间,参考数据库可以存储彩色图像(例如三色图像),该彩色图像是包含像素的二维图像,并且这些像素可通过每个像素三个颜色值来在色彩空间中定义(例如三个三色值,例如红绿蓝(RGB)图像中的红色值、绿色值和蓝色值)。在一些示例实施例中,彩色图像中的一个或多个具有通过每个像素四个颜色值来定义的像素(例如青-洋红-黄-黑(CMYK)图像中的青色值、洋红色值、黄色值以及黑色值)。在其它示例实施例中,针对每个像素的第四颜色值是透明度值(例如红绿蓝alpha(RGBA)图像中的alpha值)。在任意事件中,彩色图像可以与对应的深度图(例如深度图像)一起存储在参考数据库中,该深度图是二维图像或其它数组。这些深度图中的每一个可以包含针对对应彩色图像中的像素的深度(D)值。根据各种示例实施例,图像信息包括亮度信息(例如亮度(luma)(Y)值),亮度信息可以由多个颜色值(例如红绿蓝(RGB)像素中的红色值、绿色值、以及蓝色值)共同定义,并且不需要由单个颜色值(例如YUV像素中的亮度值)来定义。
备选地,由于深度值可以被当做深度像素,参考数据库可以存储将颜色和深度信息二者相结合的参考图像。例如,参考数据库可以存储红-绿-蓝-深度(RGB-D)图像,其中每个RGB-D图像包括针对红、绿、蓝和深度值的通道(例如分别的数组)。为清楚起见,下文的讨论主要集中于RGB色彩空间(例如RGB图像)中的彩色图像。然而,本文中讨论的系统和方法适于其它色彩空间中的彩色图像。
作为说明性的示例,假设在训练阶段使用RGB-D图像的数据库,其中每个图像包括红绿蓝(RGB)和深度(D)通道二者,机器学习从RGB描述符的词典向深度描述符的词典的转换。每个词典可以是整个描述符数据库,或者可以通过将描述符聚类(cluster)来进行二次采样。每个训练图像可以被表示为RGB空间和深度空间中基本元素的稀疏线性组合,其可以分别被称为RGB投影和深度投影。然后,可以估计训练数据库中的所有图像的RGB投影与深度投影之间的转换。
说明性的示例继续进行,假设使用测试时的查询图像,只有该图像的RGB信息可以是可用的。估计查询图像的RGB投影,接下来是应用转换,该转换估计、预测或以其他方式获取对应的深度投影。深度投影与深度词典相结合以创建对应的深度图。可使用查询图像的分段来对产生的深度图进行后期处理,以确保查询图像中描绘的物体之间的深度转变是锐利的。由此,当查询RGB图像到达时,学习到的映射函数能够用于将其RGB像素值转换成深度像素值。
根据物体的单个图像快照估计的深度图可以被用于测量这些物体的尺寸。这在受益于实时测量的运输和产品中得到应用。深度图可以与根据查询图像的头部信息获取的相机参数相结合,以计算物体上的点的三维(3D)坐标。这些点之间的测量到的距离对应于自然物体的物理尺寸的测量。这样的估计出的物体尺寸可以向运输应用提供,以促进一个或多个运输任务(例如针对将要运输的物品来选择合适的运输容器)。
根据单个图像快照估计的深度图可以被用于创建可视化(例如3D飞行图像),该可视化用于对物品查看页面中的电子商务库存进行增强浏览。深度图可以与根据查询图像的头部信息获取的相机参数相结合,以生成对查询图像中描绘的场景和场景中的物体进行建模的3D点云。可以向再现引擎提供该3D点云,以创建场景的令人满意的3D可视化,这可以导致产生和发现新颖的视角(例如,场景从不同角度的修正视角)。可以使用网页浏览器或移动浏览器上的虚拟现实建模语言(VRML)插件来对这样的再现进行可视化。这可以具有在查看场景的单个图像快照时提高用户体验的效果。
图1是示出了根据一些示例实施例的适合于根据单个图像来估计深度的网络环境100的网络示意图。网络环境100包括图像处理机110、数据库115、以及设备130,上述设备全部经由网络190相互通信耦合。图像处理机110可以形成基于网络的系统105(例如被配置为向设备130提供一个或多个图像处理服务的基于云的服务器系统)的全部或一部分。服务器机110和设备130可以各自整体或部分地在计算机系统中实现,如下文参照图7所述。
在图1中还示出了用户132。用户132可以是人类用户(例如人类)、机器用户(例如由软件程序配置的用于与设备130交互的计算机)、或者其任何合适的组合(例如由机器辅助的人类或由人类监督的机器)。用户132并不是网络环境100的一部分,但是可以与设备130相关联,并且可以是设备130的用户。例如,设备130可以是属于用户132的台式计算机、车辆计算机、平板计算机、导航设备、便携式媒体设备、智能电话、或可穿戴设备(例如智能手表或智能眼镜)。
图1中示出的任何机器、数据库或设备可以在通过软件(例如一个或多个软件模块)改进的(例如配置的或编程的)通用计算机中实现,来变成具体被配置为执行针对该机器、数据库或设备的在本文中描述的功能中的一个或多个的专用计算机。例如,在下文中参照图7讨论了能够实现本文中描述的方法中任意一个或多个方法的计算机系统。如本文中使用的,“数据库”是数据存储资源,并且可以存储被构建为文本文件、表格、电子数据表、关系数据库(例如对象关系数据库)、三元组库、分层数据存储、或者其任意合适的组合。此外,图1中示出的机器、数据库或设备中的任意两个或多个可以组合为单个机器,并且针对本文中描述的任意单个机器、数据库或设备的功能可在多个机器、数据库或设备之间细分。
网络190可以是能够在机器、数据库和设备(例如图像处理机110和设备130)之间或之中通信的任意网络。因此,网络190可以是有线网络、无线网络(例如移动网络或蜂窝网络)、或者其任何合适的组合。网络190可以包括构成私人网络、公共网络(例如因特网)、或者其任何合适的组合的一个或多个部分。因此,网络190可以包括一个或多个部分,该一个或多个部分包含局域网(LAN)、广域网(WAN)、因特网、移动电话网络(例如蜂窝网络)、无线电话网络(例如普通老式电话系统(POTS)网络)、无线数据网络(例如WiFi网络或WiMAX网络)、或者其任何合适的组合。网络190的任意一个或多个部分可以经由传输介质来传送信息。如本文中使用的,“传输介质”是指能够传送(例如发送)用于由机器(例如通过这样的机器的一个或多个处理器)执行的指令的任何无形(例如暂时性)介质,并且包括数字或模拟通信信号或其它无形介质,以促进这样的软件的通信。
图2是示出了根据一些示例实施例的图像处理机110的专用组件的框图。图像处理机110被示出为包括访问模块210、描述符模块220、矩阵模块230、查询模块240、分析模块250、创建器模块260、运输模块290、以及视觉化模块295,所有这些模块被配置为(例如经由总线、共享存储器或交换机)相互通信。此外,访问模块210、描述符模块220、矩阵模块230、或者其任何合适的组合可以形成数据库训练器模块270的全部或一部分。此外,查询模块240分析模块250、创建器模块260、或者其任何合适的组合可以形成深度图模块280的全部或一部分。在下文中详细讨论上述模块的功能。
本文描述的模块中的任意一个或多个可以使用硬件(例如机器的一个或多个处理器)或者硬件与软件的组合来实现。例如,本文中描述的任何模块可以配置(例如在机器的一个或多个处理器中的)处理器执行本文中描述的针对该模块的操作。此外,这些模块中的任意两个或两个以上的模块可以组合成单个模块,并且在本文中描述的单个模块的功能可以在多个模块之间细分。此外,根据各种示例实施例,在本文中被描述为在单个机器、数据库或设备中实现的模块可以分布在多个机器、数据库或设备中。
在进一步讨论之前,为清楚地描述本文中的各种示例实施例,需要对符号的初步注释进行解释。考虑L个RGB图像的集合及其对应的深度图。RGB图像的集合表示为并且相应的全局图像描述符可被表示为设计深度转移算法的目标是估计相关性(例如映射或指派)的集合该相关性的集合可以针对即将到来的RGB查询图像来生成深度图。然后,估计出的深度图可以与已知的深度信息(例如地面真实深度)相比较,以对深度转移算法的质量进行量化。用于估计RGB图像与深度图像之间的映射的策略可以归为两大类:监督参数映射和监督非参数映射。
参数转移:当用θ来对RGB与深度之间的转换显式地进行参数化时,映射被认为是参数的,导致的形式的映射。参数深度转移的示例将会是学习由θ来参数化的随机场预测模型,以将输入的RGB查询转换为对应的深度图。
非参数转移:当RGB与深度之间的转换不能显式地进行参数化时,映射被认为是非参数的,导致形式的映射。非参数深度转移的示例将会是检索视觉上最接近的相邻RGB图像并融合其对应的深度图,以得到预测的深度估计。
图3是示出了根据一些示例实施例的使用图像处理机110来根据单个图像估计深度的工作流300的框图。工作流300可以包括两个阶段,具体地,训练阶段301和后训练阶段302(例如运行时间阶段、测试阶段、查询阶段、或使用阶段)。训练阶段301包括方框310、320、330、340和350。在方框310处,图像处理机110(例如从数据库115)访问参考图像(例如RGB训练图像)。在方框320处,图像处理机110从参考图像中提取视觉描述符(例如根据颜色信息计算的内核/稀疏描述符)。(例如通过将视觉描述符聚类为视觉单词或在没有任何聚类的情况下)可以根据提取的视觉描述符来创建词典(例如视觉词典),并且该视觉词典表示为Wr。在方框330处,图像处理机110(例如从数据库115)访问参考深度图(例如深度训练图像)。在方框340处,图像处理机110从参考深度图中提取深度描述符(例如根据深度信息计算的内核/稀疏描述符)。(通过将深度描述符聚类为深度单词或者在没有任何聚类的情况下)基于提取的深度描述符来创建词典(例如深度词典),并且该深度词典表示为Wd。
在方框350处,由于已知并已经(在数据库115中)存储了每个参考图像与其对应的参考深度图之间的相关性,图像处理机110执行跨域映射,以学习并记录提取的视觉描述符(例如视觉描述符的聚类)与其对应的深度描述符(例如深度描述符的聚类)之间的相关性。该跨域映射可以在数据库115中存储为数据结构(例如矩阵),用于之后在训练阶段302中的使用。这样的数据结构可以因此充当能够用于将(例如在视觉词典Wr中表示的)视觉描述符解译成对应的(例如在深度词典Wd中表示的)深度描述符或反之的图。
后训练阶段302包括方框360、370、380和390。在方框360处,图像处理机110访问(作为在深度估计的查询中或在深度估计的请求中经由设备130从用户132接收到的提交的)查询图像(例如RGB查询图像)。在方框370处,图像处理机110从查询图像中提取描述符(例如根据颜色信息计算的内核/稀疏描述符)。在方框380处,针对从查询图像中提取出的每个视觉描述符,图像处理机110获得对应的深度描述符(例如深度信息的内核/稀疏描述符),并且该深度描述符可以基于数据结构(例如跨域映射)来获取。在方框390处,图像处理机创建针对查询图像的深度图(例如对应于查询图像的深度图),并且该深度图可以基于获取的深度描述符来创建。因此,可以通过图像处理机110来创建(例如计算、预测、估计、及其任何合适的组合)查询图像的对应深度图。
关于视觉描述符和深度描述符的提取,图像处理机110可以被配置为将参考图像的各种特征转换为取决于数据的空间,词典元素跨越了该取决于数据的空间。假设存在将要使用全局描述符的集合{ri,di}来表示的第i个图像。图像处理机110可以被配置为将{ri,di}转换为表示为{αi,βi}的取决于数据的空间。基于数据的转换可以由以下方程式来实现:
αi=gr(Wr,ri)βi=gd(Wd,di),(1)
因此,全局描述符可以根据其相应的词典元素来表示。gr和gd的函数形式确定编码为词典元素的关系的类型。
图像处理机110的某些示例实施例实现用于对全局图像描述符与其它词典元素(例如所有的其它词典元素)之间的关系进行编码的两个备选方法中的一个。在第一方法中,使用内核描述符,并且图像处理机110被配置为计算给定的全局描述符与词典Wr中所有其它元素的距离。假设第i个基本元素由词典的Wr(:,i)列表示,则图像处理机110计算输入数据点到词典的所有基本元素的成对距离(例如内核)。这导致各自针对RGB全局特征和深度全局特征的一个描述符,RGB全局特征和深度全局特征可被分别表示为RGB词典内核和深度词典内核。
RGB词典内核:
深度词典内核:
在第二方法中,使用稀疏正描述符,并且图像处理机110被配置为执行稀疏分解,以使用基础元素上的系数的稀疏集来预测基础元素上的权重。该流程可以使用正交匹配追踪来完成。
RGB词典稀疏正:
深度词典稀疏正:
根据各种示例实施例,图像处理机110可以被配置为使用各种技术中的一个或多个来创建词典(例如视觉词典Wr或深度词典Wd)。能够用于词典创建的一个技术是k-means聚类。图像处理机110被配置为将来自整个数据集的描述符(例如视觉描述符或深度描述符)聚类为典型的p质心的集合。然后,图像处理机110选择最接近这些聚类质心的图像(例如彩色图像或深度图像)来作为词典的基础元素。由于聚类选择了数据集的若干代表,所形成的聚类可能表示存在输入数据点的特征空间的不同部分。
用于创建词典(例如视觉词典Wr或深度词典Wd)的另一个技术是使用整个训练数据集来作为词典。该技术与用于面部识别的稀疏编码方法一致。然而,该技术导致了更大的词典和所投影特征的更高的维数,虽然可以通过稀疏矩阵分解技术来处理这样的情形。
如上所述,在图3中的方框350处,图像处理机110执行词典之间的跨域映射。这可以通过确定(例如计算、估计、预测、或者其任何合适的组合)视觉描述符(例如描述RGB特征)与深度描述符(例如描述深度特征)之间的数学转换来执行。根据各种示例实施例,这样的转换可以被建模为由以下方程式表示的线性模型:
假设采用该线性模型,转换矩阵定义从视觉特征空间(例如RGB特征空间)向深度特征空间的映射。在备选示例实施例中,不同的数学映射可以用于将视觉特征空间映射到深度特征空间,包括一个或多个非线性映射。
虽然提取的视觉描述符(例如从参考图像中提取的内核/稀疏描述符)是试图描述整个图像的全局图像描述符,但是图像处理机110可以被配置为在后训练阶段302期间创建(例如计算、估计、或预测)像素级深度信息。这可以被看做是只使用从上到下的信息来执行深度估计。根据某些示例实施例,在工作流300中不使用属于参考图像(例如RGB训练图像)中的局部形状或纹理(texture)的像素级信息。在这样的示例实施例中,导致的深度图可能是粗糙的,并且可能很差地与查询图像中的真实边缘(例如边界或其它分界)相配。
因此,图像处理机110的一些实施例被配置为基于查询图像来执行结构性后期处理。为了改善针对查询图像创建的深度图,图像处理机110可以被配置为执行查询图像(例如输入图像)Ri的超像素划分。超像素划分可以由Si={si1,...si|s|}来表示,其中,|.|表示集合的基数,并且表示超像素sij中第k个像素。需要提醒的是,创建的深度图可以由来表示,在构成超像素的的像素更可能具有相似的深度值的假设之下,可以由图像处理机110来改善所创建的深度图。根据各种示例实施例,使用以下方程式来执行深度图的改善:
该流程使分段的常数值适于整个超像素,导致更能够解释的改善的深度图,因为它与查询图像中的真实边缘(例如边界)很好的对齐。之后,通过使用随机抽样一致(RANSAC)算法(例如通过图像处理机110)可以将在改善的深度图中指示或以其他方式表示的一个或多个平面变形为斜坡,以符合关于平行于相机的平面可具有任意定向的平面,导致更平滑的深度图。
图4-6是示出了根据一些示例实施例的图像处理机110在执行根据单个图像估计深度的方法400时的操作的流程图。方法400中的操作可以使用上文关于图2描述的模块来执行。如图4所示,方法400包括操作410、420、430、440、450、460、以及470。操作410-430可以在训练阶段301期间执行,而操作440-470可以在后训练阶段302期间执行。
在操作410中,(例如数据库训练器模块270中的)访问模块210从数据库115(例如参考数据库)访问参考图像和对应的参考深度图。参考图像可以是彩色图像(例如RGB图像),并且参考图像中的每一个可以对应于参考深度图(例如深度图像)中的一个。例如,具体的参考图像(例如第一参考图像)对应于具体的参考深度图(例如第一参考深度图)。此外,参考图像包括彩色像素,并且参考深度图包括针对彩色像素中的每一个的对应深度值(例如深度像素)。如上所述,每个彩色像素可以由至少三个颜色值(例如三个三色值,例如针对RGB像素的红色值、绿色值、和蓝色值)来定义。在一些示例实施例中,将参考图像及其对应的参考深度图组合为结合了颜色和深度信息二者的参考图像(例如RGB-D图像)。
在操作420中,(例如在数据库训练器模块270中的)描述符模块220基于(例如根据)在操作410中访问的参考图像和对应的参考深度图来计算视觉描述符和对应的深度描述符。在一些示例实施例中,描述符模块220还执行聚类(例如k-means聚类),以构建视觉词典和深度词典。在备选示例实施例中,不执行聚类。
在操作430中,(在数据库训练器模块270中的)矩阵模块230生成将计算出的视觉描述符(例如个体的视觉描述符或视觉描述符的聚类)与其的对应深度描述符(例如与个体的视觉描述符或视觉描述符的聚类相对应的个体的深度描述符)相关的数据结构(例如转换矩阵)。如上所述,该数据结构可以构成视觉词典与深度词典之间的跨域映射。这可以具有将从参考图像中提取出的视觉描述符映射到该相同参考图像的深度描述符的效果。矩阵模块230可以在数据库115中存储该数据结构(例如用于当前使用或之后使用)。
在操作440中,(在数据库训练器模块270中的)查询模块240接收查询图像。具体地,查询图像可以是由用户132从设备130向图像处理设备110提交的单个查询图像。作为深度信息查询的全部或一部分,可以接收查询图像,深度信息是根据查询图像计算、估计或以其他方式导出的。作为用于根据查询图像计算、估计或以其他方式导出深度信息的请求的全部或一部分,可以接收查询图像。在一些示例实施例中,查询图像与向运输应用、视觉化应用、或者其任意合适的组合提供深度信息的请求或命令一起接收。
在操作450中,(例如在深度图模块280中的)分析模块250分析操作440中接收到的查询图像,并且根据接收到的查询图像来计算一个或多个视觉描述符。在各种示例实施例中,分析模块250可以使用与操作420中描述符模块220使用的技术相同的视觉描述符提取技术中的一个或多个。
在操作460中,(例如在深度图模块280中的)创建器模块260访问在操作430中生成的数据结构(例如转换矩阵)。在一些示例实施例中,创建器模块260一开始访问视觉词典和深度词典。可以在数据库115中存储并从数据库115访问数据结构、视觉词典、深度词典或者其任何合适的组合。因此,创建器模块260获取与在操作450中计算出的一个或多个视觉描述符相对应的一个或多个深度描述符。具体地,基于访问的数据结构(例如转换矩阵),创建器模块260可以获取计算出的视觉描述符中的每一个视觉描述符的对应深度描述符。
在操作470中,创建器模块260创建针对之前在操作440中接收到的查询图像的深度图。深度图的创建基于在操作460中获取的一个或多个深度描述符。也就是说,基于通过访问数据结构而获取的深度描述符,创建器模块260可以生成(例如计算、估计、预测、或以其他方式创建)与查询图像相对应的深度图。
如图5所示,方法400可以包括操作511、541、542、543、580、590、591和592中的一个或多个。操作511可以作为操作410的一部分(例如前体任务(precursor task)、子程序、或部分)来执行,在该操作中,访问模块210访问参考图像及其对应的深度图像。在操作511中,访问模块210从数据库115访问参考RGB-D图像。在这样的示例实施例中,每个参考RGB-D图像包括RGB图像及其对应的参考深度图。
操作541、542和543中的一个或多个可以作为操作440中的一部分来执行,在该操作中,查询模块240接收查询图像。在操作541中,查询模块240在没有任何对应的深度图(例如深度图像)的情况下接收查询图像。例如,可以接收查询图像来作为没有相随的深度图像的普通的RGB图像。
在操作542中,查询模块240接收查询图像,并且查询图像(例如在其文件元数据中)缺少任何深度信息。例如,查询图像可以是在其非像素数据(例如其头部或其它隐藏数据)中没有深度信息的普通RGB图像。
在操作543中,查询模块240接收提交中的查询图像(例如从设备130接收),并且该提交可以仅根据查询图像来估计深度信息的请求的全部或一部分。在这样的示例实施例中,可以响应于该请求来执行操作470中的深度图创建。
根据以下示例实施例,操作580和操作590可以在操作470之后执行,在该操作中,创建器模块260创建与查询图像相对应的深度图。操作580和操作590可以形成后期处理活动的集合的全部或一部分,该后期处理活动被用于改善所创建的深度图(例如以将深度图与查询图像中描绘的边缘对齐)。
在操作580中,创建器模块260将查询图像划分为超像素(例如如上文关于图3讨论的)。在操作590中,创建器模块260基于在操作580中(例如如上文关于图3讨论的)划分的超像素来修改所创建的深度图。根据各种示例实施例,可以将操作591和592中的一个或多个操作作为操作590的一部分来执行。
在操作591中,创建器模块260通过向查询图像中的一个或多个超像素内的每个像素指派不变的深度值来修改创建的深度图。如上所述,这可以产生改善的深度图,该改善的深度图更可解释的,因为其与查询图像中的真实边缘(例如边界)很好的对齐。
在操作592中,创建器模块260通过修改由查询图像中的超像素表示的平面的定向来修改创建的深度图。可以针对在深度图中指示或以其他方式表示的一个或多个附加平面来重复该操作。如上所述,可以使用RANSAC算法来将每个平面变形为斜坡,导致更平滑的深度图。
如图6所示,方法400可以包括操作610、620、630和640中的一个或多个。操作610-640中的一些和全部可以在操作470之后执行,在该操作中,创建器模块260创建针对查询图像的深度图。
在操作610中,视觉化模块295生成在查询图像中描绘的自然物体的表面的3D模型。例如,自然物体可以是将要运输的物品。如另一个示例,自然物体可以是查询图像中描绘的场景的一部分(例如墙、地面、天花板、室内家具、室外美化物品、人、用户132、或者其任意合适的组合)。因此,(例如通过操作590的执行所修改的)已创建的深度图可以包括在查询图像中描绘的自然物体的表面的3D表示。生成的3D模型因此可以是,或可以包括点云(例如点的3D阵列),点云包括表示自然物体的表面的点的集合。此外,3D模型的生成可以基于(例如在查询图像中包括的)相机信息、针对查询图像的(例如通过操作590的执行所修改的)已创建的深度图、或者其二者。
在操作620中,视觉化模块295向再现引擎(例如3D再现引擎)提供生成的3D模型。再现引擎可以是设备130的一部分,并且可被经由网络向设备130提供。备选地,再现引擎可以是图像处理机110中的附加模块。无论再现引擎位于哪里,再现引擎可以被配置为基于提供的3D模型来创建3D可视化,因此创建在查询图像中描绘的自然物体的至少表面的3D可视化。这样的3D可视化可被向设备130提供,并因此向用户132展示。
在操作630中,运输模块290基于在操作610中生成的3D模型来计算自然物体的表面的长度。如上所述,生成的3D模型可以是,或可以包括3D点云,在3D点云中存在表示在查询图像中描绘的自然物体的表面的点。运输模块290可以通过计算(例如数学测量)这些点中的两个或多个之间的一个或多个距离来计算所表示的表面的一个或多个长度。这样的计算还可以基于查询图像中包括的相机信息。
在操作640中,运输模块290向运输应用提供计算出的表面的长度。例如,在查询图像中描绘的自然物体可以是可运输物品(例如将要运输的物体),并且运输模块290可以向运输应用提供可运输物品的一个或多个表面的一个或多个计算出的尺寸(例如长度)。根据一些示例实施例,运输应用被配置为基于所提供的尺寸来选择、推荐、或建议运输容器。
根据各种示例实施例,本文中描述的方法中的一个或多个可以促进根据单个图像来估计深度信息。此外,假设给出在视觉词典中表示的视觉描述,本文中描述的方法中的一个或多个可以促进图像处理系统的训练,以(例如经由超像素后期处理)生成并改善能够用来根据深度词典来获取深度描述符的转换矩阵。此外,本文中描述的方法中的一个或多个方法促进了响应于提交缺少深度信息的查询图像来创建对应的深度图。因此,本文中描述的方法中的一个或多个可以使用查询图像来促进用户体验的提高(例如通过提供在查询图像中描绘的物体的备选3D视图),并且提高执行运输活动时的精确度(例如通过提供在查询图像中描绘的可运输物品的尺寸)。
当总体上考虑这些效果时,本文中描述的方法中的一个或多个可以避免将会涉及到从缺少深度信息的单个图像中获取深度信息的某些努力或资源的需求。可以通过本文中描述的方法中的一个或多个来减少用户从单个图像中估计深度信息所花费的努力。可以类似地减少(例如网络环境100中的)一个或多个机器、数据库或设备使用的计算资源。这样的计算资源的示例包括处理器周期、网络业务量、存储器使用、数据存储容量、功率消耗、以及冷却能力。
图7是示出了根据一些示例实施例的机器700的组件的框图,该机器700能够从机器可读介质722(例如非暂时性机器可读介质、机器可读存储介质、计算机可读存储介质、或者其任何合适的组合)中读取指令724并能够整体或部分地执行本文中讨论的方法中的一个或多个。具体地,图7示出了具有计算机系统的示例形式(例如计算机)的机器700,并且在该计算机系统中可以整个地或部分地执行用于使得机器700执行本文描述的任何一个或多个方法的指令724(例如软件、程序、应用、小应用程序、app、或者其它可执行代码)。
在备选实施例中,机器700作为独立设备来工作,或者可以通信耦合(例如连网)到其它机器上。在连网部署中,机器700可以以服务器-客户端网络环境中的服务器机器或客户端机器的身份来工作,或者作为分布式(例如对等)网络环境中的对等端机器来工作。机器700可以是服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、web电器、网络路由器、网络交换机、网桥、或者能够顺序地或以其他方式执行对由该机器采取的特定动作进行规定的指令724的任何机器。此外,虽然只示出了单个机器,术语“机器”还应当指单个地或共同地执行指令724以执行本文描述的一个或多个方法的全部或部分的机器的集合。
机器700包括处理器702(例如中央处理单元(CPU)、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、或者其任何合适的组合)、主存储器704和静态存储器706,上述部件被配置为经由总线708来相互通信。处理器702可以包含能够由指令724中的一些或全部来暂时或永久地配置的微电路,使得处理器702能够被配置为整体或部分地执行本文中描述的方法中的任何一个或多个。例如,处理器702的一个或多个微电路的集合能够被配置为执行本文中描述的一个或多个模块(例如软件模块)。
机器700还可以包括图形显示器710(例如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪、阴极射线管(CRT)、或者任何其它的能够显示图形或视频的显示器)。机器700还可以包括字母数字输入设备712(例如键盘或键区)、光标控制设备714(例如鼠标、触控板、轨迹球、摇杆、运动传感器、眼部追踪设备、或其它指向仪器)、存储单元716、音频生成设备718(例如声卡、放大器、扬声器、耳机插口、或者其任何合适的组合)、以及网络接口设备720。
存储单元716包括机器可读介质722(例如有形且非易暂时性机器可读存储介质),在机器可读介质722上存储了体现本文描述的任何一个或多个方法或功能的指令724。在机器700执行指令724时,指令724还可以完全地或至少部分地位于主存储器704中、位于处理器702(例如位于处理器的高速缓存存储器中)中、或者这二者。因此,主存储器704和处理器702可被视为机器可读介质(例如有形且非易暂时性机器可读存储介质)。指令724可以经由网络接口设备720在网络190上发送或接收。例如,网络接口720可以使用一个或多个传输协议(例如超文本传输协议(HTTP))来传送指令724。
在一些示例实施例中,机器700可以是便携式计算设备,例如智能电话或平板计算机,并且具有一个或多个附加输入组件730(例如传感器或量表)。这样的输入组件730的示例包括:图像输入组件(一个或多个相机)、音频输入组件(例如麦克风)、方向输入组件(例如指南针)、位置输入组件(例如全球定位系统(GPS)接收机)、定向组件(例如陀螺仪)、运动检测组件(例如一个或多个加速度计)、高度检测组件(例如高度计)、以及气体检测组件(气体传感器)。本文中描述的模块中的任何一个可以访问并能够使用通过这些输入组件中的一个或多个接收到的输入。
如本文中使用的,术语“存储器”是指能够暂时或永久地存储数据的机器可读介质,并且存储器是指可以包括但不限于:随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、闪存、以及高速缓冲存储器。虽然在示例实施例中示出机器可读介质722为单个介质,但是术语“机器可读介质”应当指的是包括能够存储指令的单个介质或多个介质(例如集中或分布式数据库,或相关联的高速缓存和服务器)。术语“机器可读介质”还应当指包括任何介质或多个介质的组合,其能够存储由机器700执行的指令724,使得当机器700的一个或多个处理器(例如处理器702)执行指令724时,使机器724整体或部分地执行本文中描述的一个或多个方法。因此,“机器可读介质”指的是单个存储装置或设备,以及包括多个存储装置或设备在内的基于云的存储系统或存储网络。术语“机器可读介质”因此应当指包括但不限于:具有固态存储器形式的一个或多个有形(例如非暂时性)数据仓库、光学介质、磁性介质、或者其任何合适的组合。在一些示例实施例中,可以通过载波介质来携带机器700执行的指令724。这样的载波介质的示例包括存储介质和暂时性介质(例如携带指令724的信号)。
在整个说明书中,多个实例可以实现描述为单个实例的组件、操作或结构。尽管将一个或多个方法的各个操作示出和描述为分开的操作,但是各个操作中的一个或多个可以并发执行,并且不要求按所示出的顺序来执行各操作。在示例配置中作为分开的组件呈现的结构和功能可以作为组合的结构或组件来实现。类似地,作为单一组件呈现的结构和功能可以作为分开的组件来实现。这些和其它的变化、修改、添加和改进在本文主题的范围之内。
某些实施例在本文中被描述为包括逻辑或多个组件、模块或机制。模块可以构成软件模块(例如存储或体现在机器可读介质上的代码或以传输信号体现的代码)、硬件模块、或者其任何合适的组合。“硬件模块”是能够执行某些操作并可以按特定物理方式来配置或布置的有形(例如非暂时性)单元。在各种示例实施例中,一个或多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或多个硬件模块(例如处理器或处理器组)可以由软件(例如,应用或应用部分)配置为进行操作以执行本文描述的某些操作的硬件模块。
在一些实施例中,硬件模块可以用机械方式、电子方式、或者其任何合适的组合方式来实现。例如,硬件模块可以包括永久地被配置为执行某些操作的专用电路或逻辑。例如,硬件模块可以是专用处理器,例如现场可编程门阵列(FPGA)或ASIC。硬件模块还可以包括暂时由软件配置以执行某些操作的可编程逻辑或电路。例如,硬件模块可以包括通用处理器或其它可编程处理器中包含的软件。将会意识到的是:对以机械方式、在专用且永久配置的电路中、或在暂时配置的电路(例如由软件配置)中实现硬件的决定可以受到成本和时间考虑因素的驱动。
因此,短语“硬件模块”应当被理解为包含有形实体,应当是物理构成的、永久配置(例如硬连线的)或暂时配置(例如编程的)以在某种方式下工作或执行本文描述的某些操作的有形实体。如本文中使用的,“硬件实现模块”是指硬件模块。考虑到其中硬件模块是暂时配置(例如编程的)的实施例,每个硬件模块在任何一个时刻上不需要是已配置或已实例化的。例如,在硬件模块包括由软件配置以变为专用处理器的通用处理器的情况下,通用处理器就可以在不同时间被配置为各自不同的专用处理器(例如包括不同的硬件模块)。因此软件(例如软件模块)可以配置处理器以例如在一个时刻构成特定硬件模块并且在不同的时刻构成不同的硬件模块。
硬件模块可以向其它硬件模块提供信息,并且可以从其它硬件模块接收信息。因此,描述的硬件模块可以看做是通信耦合的。在多个硬件模块同时存在的情况下,就可以通过两个或多个硬件模块之间或之中的信号传输(例如在适当的电路和总线上)来实现通信。在其中多个硬件模块在不同的时间被配置或实例化的实施例中,就可以例如通过在多个硬件模块可访问的存储器结构中对信息的存储和检索来实现这样的硬件模块之间的通信。例如,一个硬件模块可以执行操作,并且将该操作的输出存储在与该硬件模块通信耦合的存储设备中。然后另一硬件模块可以在之后的时间访问该存储设备以检索并处理所存储的输出。硬件模块还可以发起与输入或输出设备的通信,并且能够在资源(例如信息的集合)上工作。
本文描述的示例方法的各种操作可以至少部分地由一个或多个处理器执行,该处理器被暂时地配置(例如通过软件)或永久地配置以执行有关的操作。无论是暂时地还是永久地配置,这样的处理器可以构成进行操作以执行本文描述的一个或多个操作或功能的处理器实现的模块。如本文中使用的,“处理器实现的模块”是指使用一个或多个处理器实现的硬件模块。
类似地,本文中描述的方法可以至少部分由处理器实现,处理器是硬件的示例。例如,方法的至少一些操作可以由一个或多个处理器或处理器实现的模块来执行。如本文中使用的,“处理器实现的模块”是指其中硬件包括一个或多个处理器的硬件模块。此外,一个或多个处理器还可以操作以支持在“云计算环境”下的操作的执行或作为“软件即服务”(SaaS)的操作的执行。例如,至少一些操作可以由计算机组(作为包括处理器在内的机器示例)来执行,这些操作能够经由网络(例如互联网)并且经由一个或多个适当的接口(例如应用程序接口(API))来访问。
某些操作的执行可以分布在一个或多个处理器中,并不只位于单个机器中,而且布置在多个机器中。在一些示例实施例中,一个或多个处理器或处理器实现的模块可以位于单个地理位置中(例如在家庭环境、办公室环境或服务器群中)。在其它示例实施例中,一个或多个处理器或处理器实现的模块可以分布在多个地理位置中。
本文描述的主题的一些部分可以用针对数据的操作的算法或符号化表示来呈现,该数据在机器存储器(例如计算机存储器)中存储为比特或二进制数字信号。这样的算法或符号化表示是由数据处理领域中普通技术人员用来向其它本领域技术人员传达他们工作的主旨的技术的示例。如本文中使用的,“算法”是导致期望结果的操作或类似处理的自相容序列。在该上下文中,算法和操作涉及物理量的物理操作。典型地但不是必须地,这样的量可以表现为以下形式:电、磁、或者能够由机器存储、访问、传输、组合、比较或以其他方式操作。有些时候,特别是针对常见用途,使用以下词语来指代这样的信号是方便的:“数据”、“内容”、“比特”、“值”、“要素”、“符号”、“字符”、“项”、“数量”、“数字”等等。然而这些词语仅仅是方便的标签,并且应当与适当的物理量相关联。
除非另行明确声明,否则使用这些词语“处理”、“计算(computing)”、“计算(calculating)”、“确定”、“呈现”、“显示”等等的本文讨论可以指的是机器(例如计算机)的动作或处理,该机器动作或处理对表示为物理(例如电、磁或光)量的数据进行操作或变换,物理量在一个或多个存储器(例如易失性存储器、非易失性存储器,或者其任何合适的组合)、寄存器、或者其它接收、存储、发送或显示信息的机器组件中。此外,除非另行明确声明,否则如在专利文件中常见的,本文中使用的术语“一”或“一个”是用于包括一个或多于一个实例。最后,除非另行明确声明,否则如本文中使用的,连词“或”是指非排他性的“或者”。
下文列举的实施例描述了本文讨论的方法、机器可读介质和系统(例如装置)的各种示例实施例:
第一实施例提供了一种根据单个图像估计深度的方法,包括:
访问参考数据库中的参考图像以及对应的参考深度图,第一参考图像对应于第一参考深度图,并且所述第一参考图像包括由至少三个颜色值定义的彩色像素,所述第一参考深度图包括与所述第一参考图像中的所述彩色像素相对应的深度值;
根据所访问的参考图像以及所述参考图像的对应参考深度图来计算视觉描述符和对应的深度描述符;
生成将计算出的视觉描述符与其计算出的对应的深度描述符进行相关的矩阵,由机器的处理器来执行所述矩阵的生成;
接收描绘物品的表面的查询图像;
根据接收到的查询图像计算视觉描述符;
根据所生成的矩阵获取与根据所述查询图像计算出的视觉描述符相对应的深度描述符;
基于与根据所述查询图像计算出的视觉描述符相对应的获取到的深度描述符来创建与所述查询图像相对应的深度图;
将所述查询图像划分为超像素;以及
修改所述与所述查询图像相对应的深度图,对所述与所述查询图像相对应的深度图的修改包括修改由所述查询图像中的超像素表示的平面的定向。
第二实施例提供了根据第一实施例的方法,其中:
所述接收描绘物品的表面的查询图像包括:接收没有任何对应深度图的查询图像。
第三实施例提供了根据第一实施例的方法,其中:
所述参考图像和所述查询图像是只包含红-绿-蓝(RGB)值并缺少深度值的RGB图像。
第四实施例提供了根据第一实施例的方法,其中:
所述参考图像是参考RGB图像;并且
对所述参考图像和对应的深度图的访问包括:访问所述参考数据库中的参考红-绿-蓝-深度(RGB-D)图像,每个参考RGB-D图像包括所述参考RGB图像中的一个及其对应的参考深度图。
第五实施例提供了根据第一实施例的方法,其中:
所述查询图像的接收对所述查询图像进行接收来作为仅根据所述查询图像来估计深度信息的请求的一部分;以及
所述与所述查询图像相对应的深度图的创建响应于估计深度信息的请求。
第六实施例提供了根据第一实施例的方法,还包括:
对所述与所述查询图像相对应的深度图的修改包括:将不变的深度值分配给所述查询图像中的所述超像素中的每个像素。
第七实施例提供了根据第一实施例的方法,其中:
对由所述查询图像中的超像素表示的平面的定向的修改根据于随机抽样一致“RANSAC”算法。
第八实施例提供了根据第一实施例的方法,其中:
与所述第一参考图像相对应的所述第一参考深度图是包括深度像素的第一参考深度图像,所述深度像素由所述深度值定义并与所述第一参考图像中的所述彩色像素相对应。
第九实施例提供了根据第一实施例的方法,其中:
所述与所述查询图像相对应的深度图包括其表面描绘在所述查询图像中的物品的表面的三维表示,并且所述方法还包括
基于所述查询图像中包括的所述相机信息且基于与描绘所述物品的所述查询图像相对应的深度图,生成所述物品的表面的三维模型。
第十实施例提供了根据第九实施例的方法,还包括:
向三维再现引擎提供生成的三维模型,以创建所述物体的表面的三维可视化。
第十一实施例提供了根据第九实施例的方法,其中:
所述生成的三维模型是三维点云,所述三维点云中包括表示所述物体的表面的点;并且所述方法还包括
基于生成的三维点云来计算所述物体的表面的长度。
第十二实施例提供了根据第十一实施例的方法,其中:
在所述查询图像中描绘的所述物体是可运输物品;并且所述方法还包括
向运输应用提供计算出的所述可运输物品的表面的长度。
第十三实施例提供了一种用于根据单个图像估计深度的系统,包括:
一个或多个处理器;
数据库训练器模块,包括一个或多个处理器中的至少一个处理器,并且被配置为:
访问参考数据库中的参考图像以及对应的参考深度图,第一参考图像对应于第一参考深度图,并且所述第一参考图像包括由至少三个颜色值定义的彩色像素,所述第一参考深度图包括与第一参考图像中的所述彩色像素相对应的深度值;
根据所访问的参考图像以及所述参考图像的对应参考深度图来计算视觉描述符和对应的深度描述符;
生成将计算出的视觉描述符与其计算出的对应的深度描述符进行相关的矩阵;以及
深度图模块,被配置为:
接收描绘物品的表面的查询图像;
根据接收到的查询图像计算视觉描述符;
根据所述数据库训练器模块生成的矩阵获取与根据所述查询图像计算出的视觉描述符相对应的深度描述符;
基于与根据所述查询图像计算出的视觉描述符相对应的获取到的深度描述符来创建与所述查询图像相对应的深度图;
将所述查询图像划分为超像素;以及
修改所述与所述查询图像相对应的深度图,对所述与所述查询图像相对应的深度图的修改包括修改由所述查询图像中的超像素表示的平面的定向。
第十四实施例提供了根据第十三实施例的系统,其中,深度图模块还被配置为:
接收所述查询图像,作为仅根据所述查询图像来估计深度信息的请求的一部分;并且
响应于估计深度信息的请求,创建所述与所述查询图像相对应的深度图。
第十五实施例提供了根据第十三实施例的系统,其中,
所述查询图像包括相机信息;
所述深度图模块被配置为:创建所述与所述查询图像相对应的深度图,所述与所述查询图像相对应的深度图包括其表面描绘在所述查询图像中的物品的表面的三维表示;并且所述系统还包括
视觉化模块,被配置为:基于所述查询图像中包括的所述相机信息且基于与描绘所述物品的所述查询图像相对应的深度图,生成所述物品的表面的三维模型。
第十六实施例提供了根据第十五实施例的系统,其中:
在所述查询图像中描绘的所述物品是可运输物品;
生成的三维模型是三维点云,所述三维点云中包括表示所述物品的表面的点;并且所述系统还包括:
运输模块,被配置为:
基于生成的三维点云来计算所述可运输物品的表面的长度;以及
向运输应用提供计算出的所述可运输物品的表面的长度。
第十七实施例提供了一种包括指令的非暂时性机器可读存储介质,当机器的一个或多个处理器执行所述指令时,使所述机器执行以下操作:
访问参考数据库中的参考图像以及对应的参考深度图,第一参考图像对应于第一参考深度图,并且所述第一参考图像包括由至少三个颜色值定义的彩色像素,所述第一参考深度图包括与所述第一参考图像中的所述彩色像素相对应的深度值;
根据所访问的参考图像以及所述参考图像的对应参考深度图来计算视觉描述符和对应的深度描述符;
生成将计算出的视觉描述符与其计算出的对应深度描述符进行相关的矩阵;
接收描绘物品的表面的查询图像;
根据接收到的查询图像计算视觉描述符;
根据所生成的矩阵获取与根据所述查询图像计算出的视觉描述符相对应的深度描述符;
基于与根据所述查询图像计算出的视觉描述符相对应的获取到的深度描述符来创建与所述查询图像相对应的深度图;
将所述查询图像划分为超像素;以及
修改所述与所述查询图像相对应的深度图,对所述与所述查询图像相对应的深度图的修改包括修改由所述查询图像中的超像素表示的平面的定向。
第十八实施例提供了根据第十七实施例的非暂时性机器可读存储介质,其中:
所述查询图像包括相机信息;
所述与所述查询图像相对应的深度图包括其表面描绘在所述查询图像中的物品的表面的三维表示;并且所述操作还包括
基于所述查询图像中包括的所述相机信息且基于与描绘所述物品的所述查询图像相对应的深度图,生成所述物品的表面的三维模型。
第十九实施例提供了一种载波介质,该载波介质携带用于控制机器来执行根据前述实施例中的任意一个的方法的机器可读指令。
Claims (19)
1.一种根据单个图像估计深度的方法,包括:
访问参考数据库中的参考图像以及对应的参考深度图,第一参考图像对应于第一参考深度图,并且所述第一参考图像包括由至少三个颜色值定义的彩色像素,所述第一参考深度图包括与所述第一参考图像中的所述彩色像素相对应的深度值;
根据所访问的参考图像以及所述参考图像的对应参考深度图来计算视觉描述符和对应的深度描述符;
生成将计算出的视觉描述符与其计算出的对应的深度描述符进行相关的矩阵,由机器的处理器来执行所述矩阵的生成;
接收描绘物品的表面的查询图像;
根据接收到的查询图像计算视觉描述符;
根据所生成的矩阵获取与根据所述查询图像计算出的视觉描述符相对应的深度描述符;
基于与根据所述查询图像计算出的视觉描述符相对应的获取到的深度描述符来创建与所述查询图像相对应的深度图;
将所述查询图像划分为超像素;以及
修改所述与所述查询图像相对应的深度图,对所述与所述查询图像相对应的深度图的修改包括修改由所述查询图像中的超像素表示的平面的定向。
2.根据权利要求1所述的方法,其中:
所述接收描绘物品的表面的查询图像包括:接收没有任何对应深度图的查询图像。
3.根据权利要求1所述的方法,其中:
所述参考图像和所述查询图像是只包含红-绿-蓝“RGB”值并缺少深度值的RGB图像。
4.根据权利要求1所述的方法,其中:
所述参考图像是参考RGB图像;并且
对所述参考图像和对应的深度图的访问包括:访问所述参考数据库中的参考红-绿-蓝-深度“RGB-D”图像,每个参考RGB-D图像包括所述参考RGB图像中的一个及其对应的参考深度图。
5.根据权利要求1所述的方法,其中:
所述查询图像的接收对所述查询图像进行接收来作为仅根据所述查询图像来估计深度信息的请求的一部分;以及
所述与所述查询图像相对应的深度图的创建响应于估计深度信息的请求。
6.根据权利要求1所述的方法,其中:
对所述与所述查询图像相对应的深度图的修改包括:将不变的深度值分配给所述查询图像中的所述超像素中的每个像素。
7.根据权利要求1所述的方法,其中:
对由所述查询图像中的超像素表示的平面的定向的修改根据于随机抽样一致“RANSAC”算法。
8.根据权利要求1所述的方法,其中:
与所述第一参考图像相对应的所述第一参考深度图是包括深度像素的第一参考深度图像,所述深度像素由所述深度值定义并与所述第一参考图像中的所述彩色像素相对应。
9.根据权利要求1所述的方法,其中:
所述查询图像包括相机信息;
所述与所述查询图像相对应的深度图包括其表面描绘在所述查询图像中的物品的表面的三维表示,并且所述方法还包括
基于所述查询图像中包括的所述相机信息且基于与描绘所述物品的所述查询图像相对应的深度图,生成所述物品的表面的三维模型。
10.根据权利要求9所述的方法,还包括:
向三维再现引擎提供生成的三维模型,以创建所述物品的表面的三维可视化。
11.根据权利要求9所述的方法,其中:
所述生成的三维模型是三维点云,所述三维点云中包括表示所述物品的表面的点;并且所述方法还包括
基于生成的三维点云来计算所述物品的表面的长度。
12.根据权利要求11所述的方法,其中:
在所述查询图像中描绘的所述物品是可运输物品;并且所述方法还包括
向运输应用提供计算出的所述可运输物品的表面的长度。
13.一种用于根据单个图像估计深度的系统,包括:
一个或多个处理器;
数据库训练器模块,被配置为:
访问参考数据库中的参考图像以及对应的参考深度图,第一参考图像对应于第一参考深度图,并且所述第一参考图像包括由至少三个颜色值定义的彩色像素,所述第一参考深度图包括与第一参考图像中的所述彩色像素相对应的深度值;
根据所访问的参考图像以及所述参考图像的对应参考深度图来计算视觉描述符和对应的深度描述符;以及
生成将计算出的视觉描述符与其计算出的对应的深度描述符进行相关的矩阵;以及
深度图模块,被配置为:
接收描绘物品的表面的查询图像;
根据接收到的查询图像计算视觉描述符;
根据所述数据库训练器模块生成的矩阵获取与根据所述查询图像计算出的视觉描述符相对应的深度描述符;
基于与根据所述查询图像计算出的视觉描述符相对应的获取到的深度描述符来创建与所述查询图像相对应的深度图;
将所述查询图像划分为超像素;以及
修改所述与所述查询图像相对应的深度图,对所述与所述查询图像相对应的深度图的修改包括修改由所述查询图像中的超像素表示的平面的定向。
14.根据权利要求13所述的系统,其中,所述深度图模块还被配置为:
接收所述查询图像,作为仅根据所述查询图像来估计深度信息的请求的一部分;并且
响应于估计深度信息的请求,创建所述与所述查询图像相对应的深度图。
15.根据权利要求13所述的系统,其中:
所述查询图像包括相机信息;
所述深度图模块被配置为:创建所述与所述查询图像相对应的深度图,所述与所述查询图像相对应的深度图包括其表面描绘在所述查询图像中的物品的表面的三维表示;并且所述系统还包括
视觉化模块,被配置为:基于所述查询图像中包括的所述相机信息且基于与描绘所述物品的所述查询图像相对应的深度图,生成所述物品的表面的三维模型。
16.根据权利要求15所述的系统,其中:
在所述查询图像中描绘的所述物品是可运输物品;
生成的三维模型是三维点云,所述三维点云中包括表示所述物品的表面的点;并且所述系统还包括:
运输模块,被配置为:
基于生成的三维点云来计算所述可运输物品的表面的长度;以及
向运输应用提供计算出的所述可运输物品的表面的长度。
17.一种包括指令的非暂时性机器可读存储介质,当机器的一个或多个处理器执行所述指令时,使所述机器执行以下操作:
访问参考数据库中的参考图像以及对应的参考深度图,第一参考图像对应于第一参考深度图,并且所述第一参考图像包括由至少三个颜色值定义的彩色像素,所述第一参考深度图包括与所述第一参考图像中的所述彩色像素相对应的深度值;
根据所访问的参考图像以及所述参考图像的对应参考深度图来计算视觉描述符和对应的深度描述符;
生成将计算出的视觉描述符与其计算出的对应深度描述符进行相关的矩阵;
接收描绘物品的表面的查询图像;
根据接收到的查询图像计算视觉描述符;
根据所生成的矩阵获取与根据所述查询图像计算出的视觉描述符相对应的深度描述符;
基于与根据所述查询图像计算出的视觉描述符相对应的获取到的深度描述符来创建与所述查询图像相对应的深度图;
将所述查询图像划分为超像素;以及
修改所述与所述查询图像相对应的深度图,对所述与所述查询图像相对应的深度图的修改包括修改由所述查询图像中的超像素表示的平面的定向。
18.根据权利要求17所述的非暂时性机器可读存储介质,其中:
所述查询图像包括相机信息;
所述与所述查询图像相对应的深度图包括其表面描绘在所述查询图像中的物品的表面的三维表示;并且所述操作还包括
基于所述查询图像中包括的所述相机信息且基于与描绘所述物品的所述查询图像相对应的深度图,生成所述物品的表面的三维模型。
19.一种载波介质,所述载波介质携带用于控制机器来执行根据权利要求1至12中任一项所述的方法的机器可读指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810950990.3A CN109242946B (zh) | 2013-09-05 | 2014-09-04 | 根据单个图像估计深度 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361874096P | 2013-09-05 | 2013-09-05 | |
US61/874,096 | 2013-09-05 | ||
US14/288,233 US9275078B2 (en) | 2013-09-05 | 2014-05-27 | Estimating depth from a single image |
US14/288,233 | 2014-05-27 | ||
PCT/US2014/054148 WO2015035089A1 (en) | 2013-09-05 | 2014-09-04 | Estimating depth from a single image |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810950990.3A Division CN109242946B (zh) | 2013-09-05 | 2014-09-04 | 根据单个图像估计深度 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105359190A CN105359190A (zh) | 2016-02-24 |
CN105359190B true CN105359190B (zh) | 2018-09-21 |
Family
ID=52583355
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480038069.1A Expired - Fee Related CN105359190B (zh) | 2013-09-05 | 2014-09-04 | 根据单个图像估计深度 |
CN201810950990.3A Active CN109242946B (zh) | 2013-09-05 | 2014-09-04 | 根据单个图像估计深度 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810950990.3A Active CN109242946B (zh) | 2013-09-05 | 2014-09-04 | 根据单个图像估计深度 |
Country Status (7)
Country | Link |
---|---|
US (3) | US9275078B2 (zh) |
EP (1) | EP3042361B1 (zh) |
KR (4) | KR101662972B1 (zh) |
CN (2) | CN105359190B (zh) |
AU (2) | AU2014315181B2 (zh) |
CA (1) | CA2911522C (zh) |
WO (1) | WO2015035089A1 (zh) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150040072A1 (en) | 2013-08-01 | 2015-02-05 | Ebay Inc. | Three dimensional image dimension mapping |
US9275078B2 (en) | 2013-09-05 | 2016-03-01 | Ebay Inc. | Estimating depth from a single image |
US9928598B2 (en) * | 2014-10-31 | 2018-03-27 | Canon Kabushiki Kaisha | Depth measurement apparatus, imaging apparatus and depth measurement method that calculate depth information of a target pixel using a color plane of which a correlation value is at most a threshold |
US9747636B2 (en) | 2014-12-08 | 2017-08-29 | Bank Of America Corporation | Enhancing information security using an information passport dashboard |
US9792487B2 (en) * | 2014-12-29 | 2017-10-17 | Dell Products, Lp | System and method for determining dimensions of an object in an image |
US9569859B2 (en) | 2014-12-29 | 2017-02-14 | Dell Products, Lp | System and method for redefining depth-based edge snapping for three-dimensional point selection |
CN107438866B (zh) * | 2015-05-13 | 2020-12-01 | 谷歌公司 | 深度立体:学习从现实世界形象预测新视图 |
EP3304425A1 (en) * | 2015-06-04 | 2018-04-11 | Siemens Healthcare GmbH | Medical pattern classification using non-linear and nonnegative sparse representations |
KR102630740B1 (ko) * | 2015-08-03 | 2024-01-29 | 톰톰 글로벌 콘텐트 비.브이. | 위치파악 참조 데이터를 생성하고 사용하는 방법 및 시스템 |
KR101692634B1 (ko) * | 2015-08-28 | 2017-01-03 | 연세대학교 산학협력단 | 2차원 영상의 3차원 변환 장치 및 방법 |
ITUB20153277A1 (it) * | 2015-08-28 | 2017-02-28 | St Microelectronics Srl | Procedimento per ricerche visuali, sistema, apparecchiatura e prodotto informatico corrispondenti |
CA2943068A1 (en) * | 2015-09-25 | 2017-03-25 | Logical Turn Services Inc. | Dimensional acquisition of packages |
US10769806B2 (en) * | 2015-09-25 | 2020-09-08 | Logical Turn Services, Inc. | Dimensional acquisition of packages |
EP3264763A1 (en) * | 2016-06-29 | 2018-01-03 | Thomson Licensing | Method and apparatus for improved significance flag coding using simple local predictor |
US10339497B2 (en) * | 2016-07-21 | 2019-07-02 | Ebay Inc. | System and method for dynamic inventory management |
KR101784620B1 (ko) * | 2016-07-26 | 2017-11-06 | 연세대학교 산학협력단 | 스테레오 매칭을 통한 깊이값의 신뢰도 측정 방법 및 장치 |
CN107025369B (zh) * | 2016-08-03 | 2020-03-10 | 北京推想科技有限公司 | 一种对医疗图像进行转换学习的方法和装置 |
US10574909B2 (en) | 2016-08-08 | 2020-02-25 | Microsoft Technology Licensing, Llc | Hybrid imaging sensor for structured light object capture |
JP6921500B2 (ja) * | 2016-10-24 | 2021-08-18 | キヤノン株式会社 | 距離検出装置および距離検出方法 |
US10332317B2 (en) * | 2016-10-25 | 2019-06-25 | Microsoft Technology Licensing, Llc | Virtual reality and cross-device experiences |
CN106612427B (zh) * | 2016-12-29 | 2018-07-06 | 浙江工商大学 | 一种基于卷积神经网络的时空一致性深度图序列的生成方法 |
KR101947782B1 (ko) | 2017-02-22 | 2019-02-13 | 한국과학기술원 | 열화상 영상 기반의 거리 추정 장치 및 방법. 그리고 이를 위한 신경망 학습 방법 |
CN108510536B (zh) * | 2017-02-28 | 2021-09-21 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
US10628950B2 (en) | 2017-03-01 | 2020-04-21 | Microsoft Technology Licensing, Llc | Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping |
US10096122B1 (en) | 2017-03-28 | 2018-10-09 | Amazon Technologies, Inc. | Segmentation of object image data from background image data |
US9965865B1 (en) * | 2017-03-29 | 2018-05-08 | Amazon Technologies, Inc. | Image data segmentation using depth data |
US10217195B1 (en) | 2017-04-17 | 2019-02-26 | Amazon Technologies, Inc. | Generation of semantic depth of field effect |
CN109118532B (zh) * | 2017-06-23 | 2020-11-20 | 百度在线网络技术(北京)有限公司 | 视觉景深估计方法、装置、设备及存储介质 |
US10425629B2 (en) * | 2017-06-28 | 2019-09-24 | Siemens Healthcare Gmbh | System for dense registration of two-dimensional depth images |
KR102600011B1 (ko) * | 2017-09-15 | 2023-11-09 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들 |
KR102468897B1 (ko) | 2017-10-16 | 2022-11-21 | 삼성전자주식회사 | 깊이 값을 추정하는 방법 및 장치 |
US10739784B2 (en) * | 2017-11-29 | 2020-08-11 | Qualcomm Incorporated | Radar aided visual inertial odometry initialization |
US10740876B1 (en) * | 2018-01-23 | 2020-08-11 | Facebook Technologies, Llc | Systems and methods for generating defocus blur effects |
KR102595787B1 (ko) * | 2018-02-27 | 2023-11-24 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN108537836A (zh) * | 2018-04-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种深度数据获取方法及移动终端 |
US10810754B2 (en) | 2018-04-24 | 2020-10-20 | Ford Global Technologies, Llc | Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation |
CN112534475B (zh) | 2018-05-17 | 2023-01-10 | 奈安蒂克公司 | 深度估计系统的自我监督训练 |
CN109166144B (zh) * | 2018-07-20 | 2021-08-24 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
RU2698402C1 (ru) * | 2018-08-30 | 2019-08-26 | Самсунг Электроникс Ко., Лтд. | Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты) |
CN110909580B (zh) * | 2018-09-18 | 2022-06-10 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
US10699430B2 (en) * | 2018-10-09 | 2020-06-30 | Industrial Technology Research Institute | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof |
US11263751B2 (en) * | 2018-10-26 | 2022-03-01 | Samsung Electronics Co., Ltd. | Method and apparatus for image segmentation using an event sensor |
US10643093B1 (en) * | 2018-11-19 | 2020-05-05 | International Business Machines Corporation | Automated bounding box generation for objects in an image |
EP3744088A1 (en) | 2019-04-01 | 2020-12-02 | Google LLC | Techniques to capture and edit dynamic depth images |
US11094072B2 (en) * | 2019-04-09 | 2021-08-17 | Samsung Electronics Co., Ltd | System and method for providing single image depth estimation based on deep neural network |
US11044462B2 (en) * | 2019-05-02 | 2021-06-22 | Niantic, Inc. | Self-supervised training of a depth estimation model using depth hints |
US11574353B2 (en) * | 2019-10-09 | 2023-02-07 | Target Brands, Inc. | Compatibility based furniture recommendations |
KR20210058320A (ko) | 2019-11-14 | 2021-05-24 | 한국전자통신연구원 | 단일 입력 영상을 이용한 3d 모델 생성 방법 및 이를 위한 장치 |
US11755917B2 (en) * | 2019-11-15 | 2023-09-12 | Waymo Llc | Generating depth from camera images and known depth data using neural networks |
US11847771B2 (en) | 2020-05-01 | 2023-12-19 | Samsung Electronics Co., Ltd. | Systems and methods for quantitative evaluation of optical map quality and for data augmentation automation |
US20220005217A1 (en) * | 2020-07-06 | 2022-01-06 | Toyota Research Institute, Inc. | Multi-view depth estimation leveraging offline structure-from-motion |
US11568642B2 (en) * | 2020-10-12 | 2023-01-31 | Adobe Inc. | Large-scale outdoor augmented reality scenes using camera pose based on learned descriptors |
US11989897B2 (en) | 2021-03-16 | 2024-05-21 | International Business Machines Corporation | Depth map generation from sparse depth samples in an augmented reality environment |
KR102581001B1 (ko) * | 2021-04-06 | 2023-09-21 | 네이버 주식회사 | 기계 학습을 위한 학습 데이터 생성 방법 및 시스템 |
KR20240047701A (ko) | 2022-10-05 | 2024-04-12 | 충북대학교 산학협력단 | 실시간 단일 이미지 깊이 추정 네트워크 시스템 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1946195A (zh) * | 2006-10-26 | 2007-04-11 | 上海交通大学 | 立体视觉系统的场景深度恢复和三维重建方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3976900B2 (ja) * | 1998-07-23 | 2007-09-19 | キヤノン株式会社 | 視点位置姿勢の決定方法及びカメラ装置 |
KR100446635B1 (ko) * | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
KR100917377B1 (ko) | 2007-03-30 | 2009-09-16 | 성균관대학교산학협력단 | 인식/추론 수준에 따른 계층적 구조의 실내 정보를 가지는서비스 로봇의 중앙 정보처리 시스템 및 방법 |
KR101619076B1 (ko) * | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
KR20120001847A (ko) * | 2010-06-30 | 2012-01-05 | 김종배 | 이미지 검색시스템 및 이미지 검색방법 |
KR20120033859A (ko) | 2010-09-30 | 2012-04-09 | 엔에이치엔(주) | 이미지 검색 방법 및 검색 시스템 |
KR101887099B1 (ko) * | 2010-12-29 | 2018-08-09 | 삼성전자주식회사 | 이미지 처리 시스템 및 이미지 처리 방법 |
CN102902807B (zh) * | 2011-10-18 | 2016-06-29 | 微软技术许可有限责任公司 | 使用多个视觉输入模态的视觉搜索 |
US20130101158A1 (en) * | 2011-10-21 | 2013-04-25 | Honeywell International Inc. | Determining dimensions associated with an object |
US9471988B2 (en) * | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
US9275078B2 (en) | 2013-09-05 | 2016-03-01 | Ebay Inc. | Estimating depth from a single image |
-
2014
- 2014-05-27 US US14/288,233 patent/US9275078B2/en not_active Expired - Fee Related
- 2014-09-04 CA CA2911522A patent/CA2911522C/en not_active Expired - Fee Related
- 2014-09-04 WO PCT/US2014/054148 patent/WO2015035089A1/en active Application Filing
- 2014-09-04 KR KR1020157033171A patent/KR101662972B1/ko active IP Right Grant
- 2014-09-04 KR KR1020177024014A patent/KR101823314B1/ko active IP Right Grant
- 2014-09-04 KR KR1020167009451A patent/KR101637871B1/ko active IP Right Grant
- 2014-09-04 EP EP14841884.1A patent/EP3042361B1/en not_active Not-in-force
- 2014-09-04 CN CN201480038069.1A patent/CN105359190B/zh not_active Expired - Fee Related
- 2014-09-04 AU AU2014315181A patent/AU2014315181B2/en not_active Ceased
- 2014-09-04 CN CN201810950990.3A patent/CN109242946B/zh active Active
- 2014-09-04 KR KR1020167026770A patent/KR101774726B1/ko active IP Right Grant
-
2016
- 2016-01-13 US US14/994,459 patent/US9594774B2/en active Active
- 2016-03-16 AU AU2016201655A patent/AU2016201655B2/en not_active Ceased
-
2017
- 2017-01-18 US US15/408,648 patent/US10255686B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1946195A (zh) * | 2006-10-26 | 2007-04-11 | 上海交通大学 | 立体视觉系统的场景深度恢复和三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109242946B (zh) | 2023-05-26 |
AU2014315181B2 (en) | 2015-12-17 |
AU2016201655A1 (en) | 2016-04-07 |
EP3042361B1 (en) | 2019-04-03 |
CN109242946A (zh) | 2019-01-18 |
KR101823314B1 (ko) | 2018-01-29 |
KR20160045911A (ko) | 2016-04-27 |
CA2911522A1 (en) | 2015-03-12 |
KR20170102371A (ko) | 2017-09-08 |
US20150063681A1 (en) | 2015-03-05 |
US9275078B2 (en) | 2016-03-01 |
EP3042361A1 (en) | 2016-07-13 |
KR20150140392A (ko) | 2015-12-15 |
US20160124995A1 (en) | 2016-05-05 |
WO2015035089A1 (en) | 2015-03-12 |
AU2014315181A1 (en) | 2015-11-26 |
CA2911522C (en) | 2017-05-09 |
US9594774B2 (en) | 2017-03-14 |
KR20160116051A (ko) | 2016-10-06 |
KR101774726B1 (ko) | 2017-09-04 |
KR101637871B1 (ko) | 2016-07-07 |
AU2016201655B2 (en) | 2017-04-20 |
EP3042361A4 (en) | 2017-01-04 |
US10255686B2 (en) | 2019-04-09 |
KR101662972B1 (ko) | 2016-10-05 |
CN105359190A (zh) | 2016-02-24 |
US20170193672A1 (en) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105359190B (zh) | 根据单个图像估计深度 | |
CN105354248B (zh) | 基于灰度的分布式图像底层特征识别方法及系统 | |
CN106599805B (zh) | 一种基于有监督数据驱动的单目视频深度估计方法 | |
CN109754417A (zh) | 从图像中无监督学习几何结构的系统与方法 | |
CN114067041B (zh) | 三维模型的材质生成方法、装置、计算机设备和存储介质 | |
WO2021167586A1 (en) | Systems and methods for object detection including pose and size estimation | |
Li | Film and TV animation production based on artificial intelligence AlphaGd | |
Tang et al. | Painting and calligraphy identification method based on hyperspectral imaging and convolution neural network | |
Nguyen et al. | Towards faithful graph visualizations | |
Wang et al. | Application of 3d software virtual reality in interior designing | |
CN112270760A (zh) | 一种定位方法、装置、电子设备及存储介质 | |
Dong et al. | A time-critical adaptive approach for visualizing natural scenes on different devices | |
Orhei | Urban landmark detection using computer vision | |
Xiang et al. | Research on Handicraft Design Based on Artificial Intelligence Technology in Complex Environments | |
Wang | Digital protection and utilization of folk art resources using virtual reality technology | |
Li | A Design Method of Virtual Folk Museum Roaming System Based on Visual Interaction Technology | |
Natarajan et al. | Hybrid synthetic data generation pipeline that outperforms real data | |
Zhao et al. | [Retracted] Exploring the Visual Space Structure of Oil Painting Based on Visual Importance | |
Ma et al. | Depth Estimation from Monocular Images Using Dilated Convolution and Uncertainty Learning | |
Zhang et al. | Optimization of Museum Aging Design Based on Deep Learning and Computer CAD Automatic Generation Technology | |
Zhou | Digital architectural decoration design and production based on computer image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180921 Termination date: 20190904 |
|
CF01 | Termination of patent right due to non-payment of annual fee |