CN110633617B - 使用语义分割的平面检测 - Google Patents

使用语义分割的平面检测 Download PDF

Info

Publication number
CN110633617B
CN110633617B CN201910550165.9A CN201910550165A CN110633617B CN 110633617 B CN110633617 B CN 110633617B CN 201910550165 A CN201910550165 A CN 201910550165A CN 110633617 B CN110633617 B CN 110633617B
Authority
CN
China
Prior art keywords
point cloud
plane
classification set
object classification
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910550165.9A
Other languages
English (en)
Other versions
CN110633617A (zh
Inventor
D·乌布利希
A·布莱希施米特
M·H·贝格
T·巴特拉
E·维尔玛
A·K·凯希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/360,732 external-priority patent/US10824864B2/en
Application filed by Apple Inc filed Critical Apple Inc
Priority to CN202310916660.3A priority Critical patent/CN116778368A/zh
Publication of CN110633617A publication Critical patent/CN110633617A/zh
Application granted granted Critical
Publication of CN110633617B publication Critical patent/CN110633617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及使用语义分割的平面检测。本文公开了在一种具体实施中,由包括一个或多个处理器、非暂态存储器和场景摄像机的头戴式设备(HMD)执行的生成平面假设的方法。该方法包括获取包括多个像素的场景图像。该方法包括基于场景图像获取点云以及基于场景图像生成对象分类集,对象分类集的每个元素包括被分类为场景中的相应对象的相应多个像素。该方法包括基于点云和对象分类集生成平面假设。

Description

使用语义分割的平面检测
相关申请的交叉引用
本专利申请要求2018年6月25日提交的美国临时申请No.62/689,474的优先权,该申请据此全文以引用方式并入本文。
技术领域
本公开整体涉及平面检测,具体地讲,涉及用于基于语义分割的平面检测的系统、方法和设备。
背景技术
物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品,诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
相反,计算机生成现实(CGR)环境是指人们经由电子系统感知和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,所述音频对象创建3D或空间音频环境,所述3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。
虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可以具有透明或半透明显示器,人可以透过它直接查看物理环境。该系统可以被配置为在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在通过不透明显示器呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得修改后的部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除或模糊其部分而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源、或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
将CGR对象放置到未映射的或者动态的场景中至少从用户体验的角度带来了挑战。如果CGR对象被放置到没有适当虚拟衬底的场景当中,那么CGR对象可能未被锚定到场景中的现实世界表面。如此,CGR对象可能漂浮在半空中,遮蔽现实世界对象或者与现实世界对象发生冲突。这会产生既不逼真也不可信的糟糕用户体验。相应地,在各种具体实施中,这一挑战的解决方式是检测场景内的平面并确定其范围,从而提供CGR对象被置于其上的虚拟衬底。
附图说明
因此,本公开可由本领域的普通技术人员理解,更详细的描述可参考一些示例性具体实施的方面,其中一些具体实施在附图中示出。
图1是根据一些具体实施的示例性操作环境的框图。
图2是根据一些具体实施的示例性控制器的框图。
图3是根据一些具体实施的示例性HMD的框图。
图4示出了场景连同勘测场景的手持式电子设备。
图5示出了图4的勘测场景的手持式电子设备。
图6示出了根据一些具体实施的生成平面假设的方法的流程图表示。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
发明内容
本文公开的各种具体实施包括用于场景摄像机重定目标的设备、系统和方法。在各种具体实施中,在包括一个或多个处理器、非暂态存储器和场景摄像机的HMD中执行方法。该方法包括获取包括多个像素的场景图像以及基于场景图像获取点云。该方法包括基于场景图像生成对象分类集,对象分类集的每个元素包括被分类为场景中的相应对象的相应多个像素。该方法包括基于点云和对象分类集生成平面假设。
根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;这一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且这一个或多个程序包括用于执行或导致执行本文所述方法中的任一种的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,当由设备的一个或多个处理器执行时,这些指令使得该设备执行或导致执行本文所述方法中的任一种。根据一些具体实施,一种设备包括:一个或多个处理器、非暂态存储器,以及用于执行或导致执行本文所述方法中的任一种的装置。
具体实施方式
描述了许多细节以便提供对附图中所示的示例性具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将理解,其他有效方面和/或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
为了允许用户将CGR对象放置在CGR环境中,映射场景以生成若干平面假设,这些平面假设将大致描述能够将CGR对象置于其上的现实世界表面。场景映射可能耗时并且/或者具有很高的计算成本。为了降低问题的复杂性,使用来自语义分割(将场景图像的像素分类为属于各种对象)的额外信息来辅助平面检测。
图1是根据一些具体实施的示例性操作环境100的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,操作环境100包括控制器110和HMD 120。
在一些具体实施中,控制器110被配置为管理和协调用户的CGR体验。在一些具体实施中,控制器110包括软件、固件和/或硬件的合适组合。下文参考图2更详细地描述控制器110。在一些具体实施中,控制器110是相对于场景105处于本地或远程位置的计算设备。例如,控制器110是位于场景105内的本地服务器。又如,控制器110是位于场景105之外的远程服务器(例如,云服务器、中央服务器等)。在一些具体实施中,控制器110经由一个或多个有线或无线通信信道144(例如,蓝牙、IEEE 802.11x、IEEE 802.16x、IEEE 802.3x等)与HMD120通信耦接。又如,控制器110包含在HMD 120的外壳内。
在一些具体实施中,HMD 120被配置为向用户提供CGR体验。在一些具体实施中,HMD 120包括软件、固件和/或硬件的合适组合。下文参考图3更详细地描述HMD 120。在一些具体实施中,控制器110的功能由HMD 120提供和/或与HMD 120结合。
根据一些具体实施,当用户虚拟地和/或物理地存在于场景105内时,HMD 120向用户提供CGR体验。在一些具体实施中,在呈现AR体验时,HMD 120被配置为呈现AR内容(例如,一个或多个虚拟对象)以及实现场景105的光学透视。在一些具体实施中,在呈现AR体验时,HMD 120被配置为呈现AR内容(例如,一个或多个虚拟对象),该AR内容与HMD 120的场景摄像机捕获的图像或其部分叠加或以其他方式相结合。在一些具体实施中,在呈现AV内容时,HMD 120被配置为呈现与用户的计算机模拟环境视图相组合或叠加在该视图上的现实世界元素或其表示。在一些具体实施中,在呈现VR体验时,HMD 120被配置为呈现VR内容。
在一些具体实施中,用户将HMD 120戴在头上。因此,HMD 120包括被提供用于显示CGR内容的一个或多个CGR显示器。例如,在各种具体实施中,HMD 120包围用户的视野。在一些具体实施中,使用被配置为呈现CGR内容的手持设备(诸如智能电话或平板电脑)代替HMD120,并且用户不再佩戴HMD 120而是手持该设备,同时使显示器朝向用户视野,并且使摄像机朝向场景105。在一些具体实施中,手持设备可被放置在可被佩戴在使用者的头部的外壳内。在一些具体实施中,采用被配置为呈现CGR内容的CGR舱、外壳或室替代HMD 120,用户在其中不再佩戴或手持HMD 120。
图2是根据一些具体实施的控制器110的示例的框图。尽管示出了某些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。出于该目的,作为非限制性示例,在一些具体实施中,控制器110包括一个或多个处理单元202(例如,微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、中央处理单元(CPU)、处理核心等)、一个或多个输入/输出(I/O)设备206、一个或多个通信接口208(例如,通用串行总线(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、全球移动通信系统(GSM),码分多路访问(CDMA)、时分多路访问(TDMA)、全球定位系统(GPS)、红外(IR)、蓝牙、ZIGBEE和/或相似类型接口)、一个或多个编程(例如,I/O)接口210、存储器220以及用于互连这些部件和各种其他部件的一条或多条通信总线204。
在一些具体实施中,一条或多条通信总线204包括互连和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备206包括键盘、鼠标、触控板、操纵杆、一个或多个麦克风、一个或多个扬声器、一个或多个图像传感器、一个或多个显示器等中的至少一种。
存储器220包括高速随机存取存储器,诸如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、双倍数据速率随机存取存储器(DDR RAM)或者其他随机存取固态存储设备。在一些具体实施中,存储器220包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器220任选地包括相对于一个或多个处理单元202处于远程位置的一个或多个存储设备。存储器220包括非暂态计算机可读存储介质。在一些具体实施中,存储器220或者存储器220的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统230和CGR体验模块240。
操作系统230包括用于处理各种基础系统服务的过程和用于执行硬件相关任务的过程。在一些具体实施中,CGR体验模块240被配置为管理和协调一个或多个用户的单重或多重CGR体验(例如,一个或多个用户的单重CGR体验,或一个或多个用户的相应群组的多重CGR体验)。为此,在各种具体实施中,CGR体验模块240包括数据获取单元242、跟踪单元244、协调单元246和数据传输单元248。
在一些具体实施中,数据获取单元242被配置为至少从HMD 120获取数据(例如,呈现数据、交互数据、传感器数据、位置数据等)。出于该目的,在各种具体实施中,数据获取单元242包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些具体实施中,跟踪单元244被配置为映射场景105并且至少跟踪HMD 120相对于场景105的位置/定位。出于该目的,在各种具体实施中,跟踪单元244包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些具体实施中,协调单元246被配置为管理和协调HMD 120向用户呈现的CGR体验。出于该目的,在各种具体实施中,协调单元246包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些具体实施中,数据传输单元248被配置为至少向HMD 120传输数据(例如,呈现数据、位置数据等)。出于该目的,在各种具体实施中,数据传输单元248包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
尽管数据获取单元242、跟踪单元244、协调单元246和数据传输单元248被示为驻留在单个设备(例如,控制器110)上,但应当理解,在其他具体实施中,数据获取单元242、跟踪单元244、协调单元246和数据传输单元248的任何组合可位于单独计算设备中。
此外,图2更多地用作可以存在于特定实施方案中的各种特征的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图2中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
图3是根据一些具体实施的HMD 120的示例的框图。尽管示出了某些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。出于该目的,作为非限制性示例,在一些具体实施中,HMD 120包括一个或多个处理单元302(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器306、一个或多个通信接口308(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE和/或类似类型的接口)、一个或多个编程(例如,I/O)接口310、一个或多个CGR显示器312、一个或多个任选的面向内部和/或面向外部的图像传感器314、存储器320以及用于互连这些部件和各种其他部件的一条或多条通信总线304。
在一些具体实施中,一条或多条通信总线304包括互连和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备及传感器306包括惯性测量单元(IMU)、加速度计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血液氧传感器、血糖传感器等)、一个或多个传声器、一个或多个扬声器、触觉引擎以及/或者一个或多个深度传感器(例如,结构光、飞行时间等)等。
在一些具体实施中,一个或多个CGR显示器312被配置为向用户提供CGR体验。在一些具体实施中,一个或多个CGR显示器312对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)以/或者类似的显示器类型。在一些具体实施中,一个或多个CGR显示器312对应于衍射、反射、偏振、全息等波导显示器。例如,HMD 120包括单个CGR显示器。又如,HMD 120包括针对用户的每只眼睛的CGR显示器。在一些具体实施中,一个或多个CGR显示器312能够呈现AR和VR内容。在一些具体实施中,一个或多个CGR显示器312能够呈现AR或VR内容。
在一些具体实施中,一个或多个图像传感器314被配置为获取对应于用户面部的至少一部分(包括用户的眼睛)的图像数据(因而可称为眼睛跟踪摄像机)。在一些具体实施中,一个或多个图像传感器314被配置成面向前方,以便获取对应于当不存在HMD 120时用户将看到的场景的图像数据(因而可以被称为场景摄像机)。一个或多个任选图像传感器314可包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、一个或多个红外(IR)相机以及/或者一个或多个基于事件的相机等。
存储器320包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器320包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器320任选地包括相对于一个或多个处理单元302处于远程位置的一个或多个存储设备。存储器320包括非暂态计算机可读存储介质。在一些具体实施中,存储器320或者存储器320的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统330和CGR呈现模块340。
操作系统330包括用于处理各种基础系统服务的过程和用于执行硬件相关任务的过程。在一些具体实施中,CGR呈现模块340被配置为经由一个或多个CGR显示器312向用户呈现CGR内容。出于该目的,在各种具体实施中,CGR呈现模块340包括数据获取单元342、CGR呈现单元344、平面检测单元346和数据传输单元348。
在一些具体实施中,数据获取单元342被配置为至少从控制器110获取数据(例如,呈现数据、交互数据、传感器数据、位置数据等)。出于该目的,在各种具体实施中,数据获取单元342包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些具体实施中,CGR呈现单元344被配置为经由一个或多个CGR显示器312呈现CGR内容。出于该目的,在各种具体实施中,CGR呈现单元344包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些具体实施中,平面检测单元346被配置为基于场景的一幅或多幅图像(例如,使用一个或多个图像传感器314的场景摄像机捕获的)生成一个或多个平面假设。出于该目的,在各种具体实施中,平面检测单元346包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些具体实施中,数据传输单元348被配置为至少向控制器110传输数据(例如,呈现数据、位置数据等)。出于该目的,在各种具体实施中,数据传输单元348包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
尽管数据获取单元342、CGR呈现单元344、平面检测单元346和数据传输单元348被示为驻留在单个设备(例如,HMD 120)上,但应当理解,在其他具体实施中,数据获取单元342、CGR呈现单元344、平面检测单元346和数据传输单元348的任何组合可位于单独计算设备中。
此外,图3更多地用作可能存在于特定实施方案中的各种特征的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图3中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
图4示出了场景405连同勘测场景405的手持式电子设备410。场景405包括悬挂在墙壁407上的画像406和桌子408。
手持式电子设备410显示场景415的表示,包括悬挂在墙壁417的表示上的画像416的表示和桌子418的表示。在勘测场景405时,手持式电子设备410生成场景405的地图,该地图包括CGR坐标系内的若干平面假设。平面假设中的每一个限定CGR坐标系中的平面区域,并且可以按照很多方式中的任何方式来指定。例如,在各种具体实施中,平面假设包括平面方程或对应系数。在各种具体实施中,平面假设包括对平面边界的指示,例如,CGR坐标系中的平面的范围。平面假设中的每一个对应于场景405的平面表面,例如,墙壁407、地板或者桌子408的顶部。
在各种具体实施中,手持式电子设备410基于点云和对象分类集生成平面假设。在各种具体实施中,点云以场景摄像机获取的包括多个像素(例如,像素矩阵)的场景图像为基础。在各种具体实施中,点云包括CGR坐标系内的多个三维点。在各种具体实施中,CGR坐标系是重力对准的,使得坐标之一(例如,z坐标)与重力向量的方向反向延伸。重力向量可通过手持式电子设备410的加速度计来获取。点云中的每个点表示场景405的表面上的点,例如,墙壁407、地板或桌子408上的点。在各种具体实施中,点云是使用VIO(视觉惯性里程计)和/或深度传感器获取的。在各种具体实施中,点云以场景的图像以及按照不同角度拍摄的场景405的先前图像为基础,以提供立体成像。在各种具体实施中,点云中的点与元数据相关联,元数据可以是诸如场景中表面上的点的颜色、纹理、反射率或透射率或者场景405中的表面上的点的位置方面的置信度。
手持式电子设备410可采用各种各样的方法由点云确定一个平面假设(或多个平面假设)。例如,在各种具体实施中,采用RANSAC(随机抽样一致性)方法基于点云生成平面假设。在一种RANSAC方法中,迭代包括选择点云中的三个随机点,确定由这三个随机点限定的平面,以及确定点云中处于平面的预设距离(例如,1cm)以内的点的数量。点的数量形成了平面的评分(或置信度),并且在若干次迭代之后,选择具有最高评分的平面用于平面假设的生成。随着所检测到的该平面上的点被从点云移除,可重复该方法以检测另一平面。在各种具体实施中,手持式电子设备410采用其他确定平面假设的方法,诸如在作为相关申请的2018年1月23日提交的美国临时专利申请No.62/620,971中描述的那些方法,该申请全文以引用方式并入本文。
基于手持式电子设备410的取向,点云中的各个点对应于由手持式电子设备410勘测的场景405的图像的各个相应像素。
在各种具体实施中,对象分类集基于场景405的图像。对象分类集包括一个或多个元素,每个元素包括被分类为场景中的相应对象的多个像素(场景图像的)的相应子集。在各种具体实施中,对象分类集是基于语义分割生成的。在各种具体实施中,对象分类集是使用应用于场景图像的神经网络来生成的。在各种具体实施中,对象分类集的元素包括指示场景中对应于元素的对象(例如,墙壁407、地板或桌子408)的标签。
图5示出了图4的勘测场景405的手持式电子设备410。在图5中,场景415的表示被显示为具有以不同颜色着色的不同元素(多个像素的相应子集)。在图5中,对象分类集包括四个元素,即,包括多个像素中的对应于画像416的表示的子集的第一元素506、包括多个像素中的对应于墙壁417的表示的(不连续)子集的第二元素507A-507C、包括多个像素中的对应于桌子418的顶部的表示的子集的第三元素508以及包括多个像素中的对应于地板的表示的子集的第四元素511。
在各种具体实施中,对象分类集协助手持式电子设备410以各种方式确定平面假设。在各种具体实施中,手持式电子设备410使用对象分类集来减少在平面检测方法(例如,RANSAC)中使用的点云中的点的数量,从而提高计算效率。例如,手持式电子设备410识别点云的点中对应于对象分类集的特定元素的像素的子集(例如,点云的点中对应于第三元素508所示像素的子集),并且仅使用这些点来执行RANSAC平面检测算法,与额外使用来自其他表面的点相比,这种做法可能以快得多的速度收敛。
在各种具体实施中,手持式电子设备410使用对象分类集来修改基于点云所生成的平面假设。例如,手持式电子设备410基于点云生成第一平面假设,第一平面假设具有边界。第一平面假设包括位于某一平面的设定距离以内的点云的点的子集。在各种具体实施中,点云的点的子集包括对应于对象分类集的两个不同元素中的图像的像素的点。相应地,在各种具体实施中,手持式电子设备410可将第一平面假设分割成两个(或更多个)平面假设,每个平面假设与点云的点的子集中对应于对象分类集的相应元素的点相关联。另外,在各种具体实施中,手持式电子设备410可降低第一平面假设的置信度(或其他评分)。在各种具体实施中,点云的点的子集对应于图像中与对象分类集的特定元素相对应的像素,但未能包括点云中对应于该特定元素的图像的像素的一个或多个点。因此,在各种具体实施中,手持式电子设备410可使第一平面假设增长(例如,扩大边界),以包含点云中对应于该特定元素的图像的像素的点。通过这种方式,与使用时间顺序图像来扩展平面假设的其他系统相比,使用单幅图像对平面假设进行了扩展。另外,在各种具体实施中,手持式电子设备410可提高第一平面假设的置信度(或其他评分)。
在各种具体实施中,手持式电子设备410使用对象分类集来标记平面假设。例如,手持式电子设备410基于点云生成平面假设。在各种具体实施中,点云的点的子集对应于图像中与对象分类集的具有特定标签的特定元素相对应的像素。因此,手持式电子设备410可将平面假设修改为包含特定标签。带标签平面为手持式电子设备410的很多不同使用情况提供了条件。在各种具体实施中,特定CGR对象只能被放置到CGR环境中具有特定标签的平面假设上。例如,在各种具体实施中,CGR花瓶只能放置在标记为桌子顶部的平面假设上,CGR画像只能放置在标记为墙壁的平面假设上,或者CGR家具只能放置在标记为地板的平面假设上。
图6是根据一些具体实施的生成平面假设的方法600的流程图表示。在各种具体实施中,方法600由具有一个或多个处理器、非暂态存储器和场景摄像机的设备(例如,图3中的HMD 120)执行。在一些具体实施中,方法600由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法600由执行存储在非暂态计算机可读介质(例如,存储器)中的指令(例如,代码)的处理器执行。简而言之,在一些情况下,方法600包括:获取包括多个像素的场景图像;获取基于场景图像的点云以及基于场景图像的对象分类集,以及基于点云和对象分类集生成平面假设。
在框610中,方法600开始,其中设备获取包括多个像素的场景图像。在各种具体实施中,设备使用场景摄像机捕获场景的图像。
在框620处,方法600继续,其中设备基于场景图像来获取点云。在各种具体实施中,点云包括CGR坐标系内的多个三维点。在各种具体实施中,CGR坐标系是重力对准的,使得坐标之一(例如,z坐标)与重力向量的方向反向延伸。重力向量可通过设备的加速度计来获取。在各种具体实施中,点云是使用VIO(视觉惯性里程计)和/或深度传感器获取的。在各种具体实施中,点云以场景的图像以及按照不同角度拍摄的场景的先前图像为基础,以提供立体成像。在各种具体实施中,点云中的点与元数据相关联,元数据可以是诸如场景中表面上的点的颜色、纹理、反射率或透射率或者场景中的表面上的点的位置方面的置信度。
在框630处,方法600继续,其中,设备基于场景图像生成对象分类集。对象分类集的每个元素包括被分类为场景中的相应对象的相应多个像素。在各种具体实施中,对象分类集是基于语义分割生成的。在各种具体实施中,对象分类集是使用应用于场景图像的神经网络来生成的。在各种具体实施中,对象分类集的元素包括指示场景中对应于元素的对象(例如,墙壁、地板或桌子)的标签。
在框640处,方法600继续,其中设备基于点云和对象分类集生成平面假设。在各种具体实施中,设备通过确定点云的点中对应于对象分类集的特定元素的相应多个像素的子集以及基于点云的点的子集生成平面假设而生成平面假设。例如,在各种具体实施中,设备对点云的点的子集(而非点云的其他点)应用RANSAC平面检测算法。
在各种具体实施中,生成平面假设包括基于点云生成第一平面假设(例如,使用RANSAC平面检测算法)。设备使第一平面假设与对象分类集的特定元素相关联。例如,设备确定点云中对应于对象分类集的特定元素中的图像的像素的大部分或全部点。设备确定点云的点中对应于对象分类集的特定元素的相应多个像素的子集。设备基于点云的点的子集来更新第一平面假设(例如,通过扩展(或收缩)第一平面假设的边界)。
在各种具体实施中,生成平面假设包括基于对象分类集确定与平面假设相关联的置信度。例如,在各种具体实施中,设备基于点云生成包含第一置信度的第一平面假设,并且响应于确定第一平面假设的点云的大部分或全部点都对应于对象分类集的单个元素中的图像的像素而提高第一置信度。
在各种具体实施中,设备获取包括第二多个像素的场景的第二图像(例如,在稍后的第二时间上)。设备基于场景图像获取第二点云,并基于第二场景图像生成第二对象分类集。设备基于第二点云和第二对象分类集来更新平面假设。例如,设备可以将平面更新为包含对应于对象的(如第二对象分类集所指示的)新位置的点云的点,并且去除旧位置的点。
在各种具体实施中,对象分类集的至少一个元素包括标签。相应地,在各种具体实施中,设备基于对象分类集使平面假设与标签相关联。
在各种具体实施中,设备使平面假设与对象分类集的包括标签的特定元素相关联。设备检测对应于CGR对象与平面假设的关联性的用户输入。例如,用户可以从对象选择界面选择对象,并移动对象,使之被显示为靠近CGR坐标系内的平面假设。响应于特定元素的标签符合放置标准,设备使CGR对象与平面假设相关联。通过这种方式,某一对象只能被放置到CGR环境中的特定类型的表面上。
在各种具体实施中,设备使平面假设与对象分类集的包括标签的特定元素相关联。响应于特定元素的标签符合修改标准,设备将CGR对象显示在平面假设的位置处。通过这种方式,可以基于标签施加对某些表面进行修改,例如,将地板改为熔岩,或者将天花板改为天空。
虽然上文描述了在所附权利要求书范围内的具体实施的各个方面,但是应当显而易见的是,上述具体实施的各种特征可通过各种各样的形式体现,并且上述任何特定结构和/或功能仅是例示性的。基于本公开,本领域的技术人员应当理解,本文所述的方面可以独立于任何其他方面来实现,并且这些方面中的两个或更多个可以采用各种方式组合。例如,可以使用本文阐述的任何数量的方面来实现装置和/或可以实践方法。另外,除了本文阐述的一个或多个方面之外或者不同于本文阐述的一个或多个方面,可以使用其他结构和/或功能来实现这样的装置和/或可以实践这样的方法。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元素与另一元素区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件、和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。

Claims (20)

1.一种方法,包括:
获取包括多个像素的场景图像;
基于所述场景图像获取点云;
基于所述场景的所述图像生成对象分类集,所述对象分类集的每个元素包括被分类为所述场景中的相应对象的相应多个像素;以及
基于所述点云和所述对象分类集生成平面假设,其中生成所述平面假设包括:
基于所述点云生成第一平面假设;
使所述第一平面假设与所述对象分类集的特定元素相关联;
确定所述点云的点中对应于所述对象分类集的所述特定元素的所述相应多个像素的子集;以及
基于所述点云的点的所述子集更新所述第一平面假设。
2.根据权利要求1所述的方法,其中生成所述平面假设包括:
确定所述点云的点中对应于所述对象分类集的特定元素的所述相应多个像素的子集;以及
基于所述点云的点的所述子集生成所述平面假设。
3.根据权利要求1所述的方法,其中,基于所述点云中的点的所述子集来更新所述第一平面假设包括扩展所述第一平面假设的边界以包含所述点云中的点的所述子集的额外一个或多个点。
4.根据权利要求1所述的方法,其中,生成所述平面假设包括基于所述对象分类集确定与所述平面假设相关联的置信度。
5.根据权利要求1至4中任一项所述的方法,还包括:
获取包括第二多个像素的所述场景的第二图像;
基于所述场景的所述第二图像获取第二点云;
基于所述场景的所述第二图像生成第二对象分类集,所述第二对象分类集的每个元素包括被分类为所述场景中的相应对象的相应第二多个像素;以及
基于所述第二点云和所述第二对象分类集更新平面假设。
6.根据权利要求1至4中任一项所述的方法,其中,所述对象分类集的至少一个元素还包括标签。
7.根据权利要求6所述的方法,还包括:
使所述平面假设与所述对象分类集的包括标签的特定元素相关联;
检测对应于计算机生成现实对象与所述平面假设的关联性的用户输入;以及
响应于所述特定元素的所述标签符合放置标准,使所述计算机生成现实对象与所述平面假设相关联。
8.根据权利要求6所述的方法,还包括:
使所述平面假设与所述对象分类集的包括标签的特定元素相关联;以及
响应于所述特定元素的所述标签符合修改标准,将计算机生成现实对象显示在所述平面假设的位置处。
9.根据权利要求1至4以及7至8中任一项所述的方法,其中,获取所述点云基于VIO(视觉惯性里程计)和/或来自深度传感器的数据。
10.根据权利要求1至4以及7至8中任一项所述的方法,其中,生成对象分类集基于对所述场景的所述图像应用神经网络。
11.一种设备,包括:
场景摄像机;以及
一个或多个处理器,所述一个或多个处理器用于:
使用所述场景摄像机获取包括多个像素的场景图像;
基于所述场景的所述图像获取点云;
基于所述场景的所述图像生成对象分类集,所述对象分类集的每个元素包括被分类为所述场景中的相应对象的相应多个像素;以及
基于所述点云和所述对象分类集生成平面假设,其中生成所述平面假设包括:
基于所述点云生成第一平面假设;
使所述第一平面假设与所述对象分类集的特定元素相关联;
确定所述点云的点中对应于所述对象分类集的所述特定元素的所述相应多个像素的子集;以及
基于所述点云的点的所述子集更新所述第一平面假设。
12.根据权利要求11所述的设备,其中,所述一个或多个处理器通过下述方式生成所述平面假设:
确定所述点云的点中对应于所述对象分类集的特定元素的所述相应多个像素的子集;以及
基于所述点云的点的所述子集生成所述平面假设。
13.根据权利要求11至12中任一项所述的设备,其中,所述对象分类集的至少一个元素还包括标签,并且所述一个或多个处理器进一步用于:
使所述平面假设与所述对象分类集的包括标签的特定元素相关联;
检测对应于计算机生成现实对象与所述平面假设的关联性的用户输入;以及
响应于所述特定元素的所述标签符合放置标准,使所述计算机生成现实对象与所述平面假设相关联。
14.根据权利要求11至12中任一项所述的设备,其中,所述对象分类集的至少一个元素还包括标签,并且所述一个或多个处理器进一步用于:
使所述平面假设与所述对象分类集的包括标签的特定元素相关联;以及
响应于所述特定元素的所述标签符合修改标准,将计算机生成现实对象显示在所述平面假设的位置处。
15.根据权利要求11所述的设备,其中,基于所述点云的点的所述子集更新所述第一平面假设包括扩展所述第一平面假设的边界以包含所述点云中的点的所述子集的额外一个或多个点。
16.一种用于存储一个或多个程序的非暂态存储器,所述一个或多个程序在由具有一个或多个场景摄像机的设备的一个或多个处理器执行时使得所述设备执行操作,所述操作包括:
获取包括多个像素的场景图像;
基于所述场景的所述图像获取点云;
基于所述场景的所述图像生成对象分类集,所述对象分类集的每个元素包括被分类为所述场景中的相应对象的相应多个像素;以及
基于所述点云和所述对象分类集生成平面假设,其中生成所述平面假设包括:
基于所述点云生成第一平面假设;
使所述第一平面假设与所述对象分类集的特定元素相关联;
确定所述点云的点中对应于所述对象分类集的所述特定元素的所述相应多个像素的子集;以及
基于所述点云的点的所述子集更新所述第一平面假设。
17.根据权利要求16所述的非暂态存储器,其中生成所述平面假设包括:
确定所述点云的点中对应于所述对象分类集的特定元素的所述相应多个像素的子集;以及
基于所述点云的点的所述子集生成所述平面假设。
18.根据权利要求16至17中任一项所述的非暂态存储器,其中,所述对象分类集的至少一个元素还包括标签,并且所述操作还包括:
使所述平面假设与所述对象分类集的包括标签的特定元素相关联;
检测对应于计算机生成现实对象与所述平面假设的关联性的用户输入;以及
响应于所述特定元素的所述标签符合放置标准,使所述计算机生成现实对象与所述平面假设相关联。
19.根据权利要求16至17中任一项所述的非暂态存储器,其中,所述对象分类集的至少一个元素还包括标签,并且所述操作还包括:
使所述平面假设与所述对象分类集的包括标签的特定元素相关联;以及
响应于所述特定元素的所述标签符合修改标准,将计算机生成现实对象显示在所述平面假设的位置处。
20.根据权利要求16所述的非暂态存储器,其中,基于所述点云中的点的所述子集来更新所述第一平面假设包括扩展所述第一平面假设的边界以包含所述点云中的点的所述子集的额外一个或多个点。
CN201910550165.9A 2018-06-25 2019-06-24 使用语义分割的平面检测 Active CN110633617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310916660.3A CN116778368A (zh) 2018-06-25 2019-06-24 使用语义分割的平面检测

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862689474P 2018-06-25 2018-06-25
US62/689,474 2018-06-25
US16/360,732 US10824864B2 (en) 2018-06-25 2019-03-21 Plane detection using semantic segmentation
US16/360,732 2019-03-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202310916660.3A Division CN116778368A (zh) 2018-06-25 2019-06-24 使用语义分割的平面检测

Publications (2)

Publication Number Publication Date
CN110633617A CN110633617A (zh) 2019-12-31
CN110633617B true CN110633617B (zh) 2023-08-08

Family

ID=68968747

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910550165.9A Active CN110633617B (zh) 2018-06-25 2019-06-24 使用语义分割的平面检测
CN202310916660.3A Pending CN116778368A (zh) 2018-06-25 2019-06-24 使用语义分割的平面检测

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202310916660.3A Pending CN116778368A (zh) 2018-06-25 2019-06-24 使用语义分割的平面检测

Country Status (2)

Country Link
US (2) US11610397B2 (zh)
CN (2) CN110633617B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633617B (zh) * 2018-06-25 2023-08-08 苹果公司 使用语义分割的平面检测
WO2021147113A1 (zh) * 2020-01-23 2021-07-29 华为技术有限公司 一种平面语义类别的识别方法以及图像数据处理装置
CN115104135A (zh) * 2020-02-14 2022-09-23 Oppo广东移动通信有限公司 用于增强现实的物体检测系统和方法
KR102551149B1 (ko) * 2020-02-27 2023-07-03 애플 인크. 포인트 클라우드 클러스터들의 공간적 관계들
US11361501B2 (en) * 2020-02-27 2022-06-14 Apple Inc. Semantic labeling of point cloud clusters
US11361508B2 (en) * 2020-08-20 2022-06-14 Qualcomm Incorporated Object scanning using planar segmentation
US11682180B1 (en) * 2021-12-09 2023-06-20 Qualcomm Incorporated Anchoring virtual content to physical surfaces

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018102190A1 (en) * 2016-11-29 2018-06-07 Blackmore Sensors and Analytics Inc. Method and system for classification of an object in a point cloud data set

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US20110025689A1 (en) 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9110163B2 (en) 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US9933264B2 (en) 2015-04-06 2018-04-03 Hrl Laboratories, Llc System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation
US9858683B2 (en) * 2015-08-05 2018-01-02 Intel Corporation Method and system of planar surface detection objects in 3d space generated from captured images for image processing
GB2543749A (en) * 2015-10-21 2017-05-03 Nokia Technologies Oy 3D scene rendering
US10482681B2 (en) * 2016-02-09 2019-11-19 Intel Corporation Recognition-based object segmentation of a 3-dimensional image
US10325409B2 (en) 2017-06-16 2019-06-18 Microsoft Technology Licensing, Llc Object holographic augmentation
US11202006B2 (en) 2018-05-18 2021-12-14 Samsung Electronics Co., Ltd. CMOS-assisted inside-out dynamic vision sensor tracking for low power mobile platforms
CN110633617B (zh) * 2018-06-25 2023-08-08 苹果公司 使用语义分割的平面检测
US10824864B2 (en) * 2018-06-25 2020-11-03 Apple Inc. Plane detection using semantic segmentation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018102190A1 (en) * 2016-11-29 2018-06-07 Blackmore Sensors and Analytics Inc. Method and system for classification of an object in a point cloud data set

Also Published As

Publication number Publication date
CN110633617A (zh) 2019-12-31
CN116778368A (zh) 2023-09-19
US11972607B2 (en) 2024-04-30
US20210406541A1 (en) 2021-12-30
US11610397B2 (en) 2023-03-21
US20230206623A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
CN110633617B (zh) 使用语义分割的平面检测
US11132546B2 (en) Plane detection using semantic segmentation
US20190371072A1 (en) Static occluder
US11928779B2 (en) Multi-resolution voxel meshing
US11100720B2 (en) Depth map generation
US11189054B2 (en) Localization and mapping using images from multiple devices
US11430198B1 (en) Method and device for orientation-based view switching
US11321926B2 (en) Method and device for content placement
US11961195B2 (en) Method and device for sketch-based placement of virtual objects
US11783552B2 (en) Identity-based inclusion/exclusion in a computer-generated reality experience
US11315278B1 (en) Object detection and orientation estimation
US11468611B1 (en) Method and device for supplementing a virtual environment
US20210097729A1 (en) Method and device for resolving focal conflict
CN116583870A (zh) 用于多相机孔填充的方法和设备
US10964056B1 (en) Dense-based object tracking using multiple reference images
US11301035B1 (en) Method and device for video presentation
US11308716B1 (en) Tailoring a computer-generated reality experience based on a recognized object
US11763525B1 (en) Blind object tracking using point clouds
US11948380B1 (en) Camera parameter estimation using semantic labels
US11282171B1 (en) Generating a computer graphic for a video frame
US20220012951A1 (en) Generating Adapted Virtual Content to Spatial Characteristics of a Physical Setting
CN112581628A (zh) 用于解决焦点冲突的方法和设备
CN114556329A (zh) 用于从照片集生成映射图的方法和设备
CN115861412A (zh) 基于检测到的空间特征的定位
CN112148118A (zh) 生成物理环境中的人的姿势信息

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant