CN103477348B - 色彩通道和光学标记 - Google Patents

色彩通道和光学标记 Download PDF

Info

Publication number
CN103477348B
CN103477348B CN201280019306.0A CN201280019306A CN103477348B CN 103477348 B CN103477348 B CN 103477348B CN 201280019306 A CN201280019306 A CN 201280019306A CN 103477348 B CN103477348 B CN 103477348B
Authority
CN
China
Prior art keywords
optical
color
camera
computing device
optical markings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280019306.0A
Other languages
English (en)
Other versions
CN103477348A (zh
Inventor
B·J·苏格登
T·G·萨尔特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN103477348A publication Critical patent/CN103477348A/zh
Application granted granted Critical
Publication of CN103477348B publication Critical patent/CN103477348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

描述了色彩通道光学标记技术。在一个或多个实现中,检查从相机获取的多个色彩通道,这些色彩通道中的每一个色彩通道都描绘了光学标记,该光学标记与在这些色彩通道中的另一色彩通道中描绘的另一光学标记具有不同的尺寸。标识处于多个色彩通道中的相应一个中的至少一个光学标记,并使用标识出的光学标记来计算可用于描述计算设备的一部分的至少位置或定向的光学基础。

Description

色彩通道和光学标记
背景技术
计算设备所利用的显示技术日益发展。例如,最初的计算设备提供有单色监视器。用户通过查看单色监视器上的简单文本并经由键盘输入随后可在该监视器上进行查看的文本来与计算设备进行交互。
显示技术随后被扩展为使用色彩和图形用户界面。例如,这些技术可被利用来使用色彩示出表示文件、连接到计算设备的设备、图像等的图形。随后,用户可使用键盘以及通过使用光标控制设备(诸如,鼠标)来与图形用户界面进行交互。
显示技术已诸如通过使用查看三维电视机的眼镜、使用虚拟技术等而持续发展。然而,在实现这些技术时可发生使得这些技术难以用传统计算设备来实现的复杂性。
发明内容
描述了色彩通道光学标记技术。在一个或多个实现中,检查从相机获取的多个色彩通道,这些色彩通道中的每一个色彩通道都描绘了光学标记,该光学标记与在这些色彩通道中的另一色彩通道中描绘的另一光学标记具有不同的尺寸。标识出处于多个色彩通道中的相应一个中的至少一个光学标记,并且使用标识出的光学标记来计算可用于描述计算设备的一部分的至少位置或定向的光学基础。
在一个或多个实现中,装置包括第一光学标签和第二光学标签,第一光学标签可被计算设备的相机在第一位置处分辨出,并且第一光学标签使用第一色彩来描绘,第二光学标签可被计算设备的相机在第一光学标签不可分辨的第二位置处分辨出,第二光学标签使用与第一色彩不同的第二色彩来描绘。
在一个或多个实现中,装置包括相机、显示设备和一个或多个模块。一个或多个模块被配置为从相机的红色通道获取第一图像,从相机的绿色通道获取第二图像,并从相机的蓝色通道获取第三图像。该一个或多个模块还被配置为:标识第一图像、第二图像或第三图像中的哪个图像描绘了可被该一个或多个模块分辨的光学标记,以确定该装置的至少一部分的位置或定向;计算描述该装置的至少所述部分的位置或定向的基础;以及使用计算到的基础来生成要通过显示设备来显示的增强现实显示。
提供本发明内容以便以简化形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
附图说明
参考附图来描述具体实施方式。在附图中,附图标记最左边的数字标识该附图标记首次出现的附图。在说明书和附图的不同实例中使用相同的附图标记可指示相似或相同的项目。
图1是在一示例实现中的可用于采用在此描述的增强现实技术的环境的图示。
图2是在一示例实现中的更详细地示出图1的增强现实模块的系统的图示,该增强现实模块供计算设备用来实现基础生成。
图3描绘了在一示例实现中的示出由具有不同的大小和色彩的多个增强现实(AR)标签形成的复合AR标签的装置。
图4是描绘了在一示例实现中的利用色彩通道技术来为计算设备的至少一部分计算光学基础的过程的流程图。
图5是描绘了在一示例实现中的基于来自红色色彩通道、绿色色彩通道和蓝色色彩通道的光学标记的分辨率来生成增强现实显示的过程的流程图。
具体实施方式
概览
在此处的各示例中描绘增强现实技术。增强现实技术可用于使用计算机生成的输出(诸如,声音或图形)来增强的现实世界环境的视图。通过这种方式,用户的现实世界视图可包括由计算设备生成的传感输入,因此可增强用户的体验。
在以下讨论中,描述了涉及使用光学标记和色彩通道的增强现实技术。例如,相机可用于捕捉计算设备的物理环境(诸如,用户的媒体室)的图像。随后,可分析该图像以定位给出了相机相对于该物理环境的位置和/或定向的指示的标记。例如,增强现实标签(AR标签)可用于指示相机和标签之间的距离以及相对于标签的定向。通过这种方式,图像可用于计算光学基础,该光学基础用于确定相机在物理环境中的定向和/或位置。
然而,传统的AR标签具有其中这些标签可被相机分辨的非常有限的范围。例如,相机可具有给定的分辨率,而传统的AR标签一般以单一尺寸形成,使得这些标签可在相机和这些AR标签之间的有限距离范围内被相机分辨出。因此,设计者通常被迫确定相机和AR标签的典型操作范围,该操作范围可能以AR标签和计算设备并非设计用于的其他范围来限制对这些技术的使用。
因此,在此描述了多个AR标签可被覆盖的技术。此外,这些标签可采用不同的尺寸和色彩以对应于计算设备可分辨的色彩通道。例如,计算设备可包括支持红色通道、绿色通道和蓝色通道的相机。具有这些色彩的AR标签可作为支持对应于这些色彩的不同尺寸的复合AR标签而被覆盖。例如,大尺寸的AR标签可被着红色,中尺寸的AR标签可被着绿色,并覆盖在红色AR标签之上。同样,小尺寸的AR标签可被着蓝色,并覆盖红色AR标签和绿色AR标签。随后,相机可捕捉复合标签的图像,并使用单独的红色通道、绿色通道和蓝色通道来分辨出大标签、中标签或小标签中的一个或多个。通过这种方式,通过使用这些不同的范围,计算设备使用AR标签的有效范围可被翻三倍,而无需扩展复合标签的总大小。自然地,构想了其他色彩示例和光标标记技术,其进一步讨论可相关于以下部分找到。
在以下讨论中,首先描述可采用本文描述的技术的示例环境。随后描述可在该示例环境以及其他环境中执行的示例过程。因此,各示例过程的执行不限于该示例环境,并且该示例环境不限于执行各示例过程。
示例环境
图1是在一示例实现中的可用于采用此处描述的增强现实技术的环境100的图示。所示环境100包括计算设备102,该计算设备可用各种方式来配置。例如,虽然计算设备102被示为移动通信设备(例如,平板设备、无线电话),但计算设备102可以以各种其他方式来配置。例如,计算设备102可被配置成能够通过网络104通信的计算机,诸如台式计算机、移动站、娱乐设备、通信地耦合至显示设备的机顶盒、游戏控制台、和平板设备等。
因而,计算设备102的范围可以是从具有充足存储器和处理器资源的全资源设备(如个人计算机、游戏控制台)到具有有限存储器和/或处理资源的低资源设备(如传统机顶盒、手持式游戏控制台)。此外,尽管示出了单个计算设备102,但是计算设备102可以表示多个不同设备,比如用户可穿戴的头盔和游戏控制台、被公司用于执行提供“云中”的平台的操作的多个服务器、遥控器、和机顶盒组合等等。
计算设备102还被示为包括增强现实模块106。增强现实模块106表示计算设备102的、用于增强计算设备102的现实世界周围环境的视图的功能。在所示出的示例中,例如,计算设备102被示为物理地存在于房间108中,该房间108具有定位在房间108的某转角处的沙发110、椅子112和桌子114。
计算设备102包括相机116,该相机116被配置为捕捉计算设备102的物理周围环境(例如,在本示例中为房间108)的一个或多个图像。这一个或多个图像可用于捕捉要被增强的“现实”的视图,但是其他输入设备也被构想,诸如话筒。增强现实模块106可以从相机116处接收数据(例如,一个或多个图像)以生成帧118,帧118被示为被存储在计算设备102的帧缓冲器120中。
帧118随后可由计算设备102的显示设备122来显示,虽然显示设备122被示为移动通信设备的一部分,但可采取各种配置。在一个或多个实现中,显示设备122可被包括为头盔的一部分,并被定位为供用户的眼睛中的一个或多个查看。此外,显示设备122可以是或可以不是部分透明的。例如,显示设备122可被配置为显示相机116捕捉到的图像以及增强两者。在另一示例中,显示设备122可被配置为显示增强,而不显示相机116捕捉到的图像的视图,但准许物理周围环境的视图透过显示设备122的至少一部分而被观察。因此,增强现实模块106所生成的增强可以以各种方式被显示。
在所示的示例中,由显示设备122显示的帧118包括相机116捕捉到的图像。帧118还包括由增强现实模块106生成的多个增强。所示的由显示设备122显示的示例包括表现为定位在房间108的墙上的第一图片124和第二图片126,以及表现为被放置在桌子114上的碗128。因此,增强现实模块106可以增强由显示设备122显示的现实的视图。应当容易明白,由增强现实模块106生成的增强可采取多种其他形式,诸如作为游戏的部分的物体和计算设备102的周围环境的视图的其他变化。
为了生成这个视图并知道将这些增强放置在“哪里”,增强现实模块106可利用各种技术来确定计算设备102相对于环境(例如,所示出的房间108)的定向和/或位置。例如,增强现实模块106可利用一个或多个光学标记来确定计算设备102如何定位、定向、和移动等。这些光学标记可采用各种形式。例如,增强现实模块106可将起居室中的一个或多个视点设置成标记,由此用作确定定向和/或定位(诸如,桌子114的转角、椅子112的定向等等)的基础。因此,房间中的物项可用作确定计算设备102位于房间中的哪里的基础。
在另一示例中,增强现实模块106可利用物理地定位在计算设备102的周围环境内的一个或多个增强现实(AR)标签的视图。示例AR标签130被示为定位在房间108内的桌子114上。虽然示出了单个AR标签130,但可在该环境中利用多个AR标签。示例AR标签130(或其他标记)可用作确定深度(例如,AR标签130和相机116之间的距离)、计算设备102相对于AR标签130的三维定向等等的基础。
例如,AR标签130可包括增强现实模块106可识别来确定距AR标签130的距离和/或计算设备102相对于AR标签130的定向的图案。通过这种方式,标记可被增强现实模块106利用来确定计算设备102定位在物理环境中的“哪里”以及计算设备102在物理环境中“如何”定位。增强现实模块106可将该确定用作生成要被输出来供计算设备102的用户查看的增强的基础。
增强现实模块106还可利用一个或多个传感器132来确定和验证计算设备102的位置和/或定向。例如,传感器132可被配置为惯性测量单元(IMU),该惯性测量单元可包括陀螺仪、一个或多个加速计、磁力计、并包括其任何组合等。这些单元可用于生成外部基础,利用该外部基础可验证使用之前描述的光学标记技术来生成的基础。例如,可使用由一个或多个传感器(例如,IMU134)生成的基础来评估使用以上描述的利用相机116的光学标记技术来生成的基础,以得到的差异。通过这种方式,这些技术可用于确定计算设备102相对于其物理周围环境的定向和位置。
增强现实模块106还被示为包括标记标识模块136。标记标识模块136表示采用具有光学标记(诸如,AR标签130)的色彩通道技术的功能。例如,标记标识模块136可以从具有各自处于不同色彩的多个通道的相机116处接收馈源。可通过根据相机116所支持的色彩通道为AR标签130着色来支持AR标签130的不同尺寸。通过这种方式,光学标记技术的有效范围可通过利用不同的尺寸和不同的色彩来扩展,其进一步讨论可相对于图2来发现。
一般而言,本文描述的任何功能可使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或这些实现的组合来实现。如此处所使用的术语“模块”和“功能”一般表示硬件、软件、固件、或其组合。在软件实现的情况中,模块、功能,或逻辑代表指令和执行硬件所指定的操作的硬件,例如,一个或多个处理器和/或功能块。
例如,计算设备102可包括使得计算设备102的硬件执行操作的实体(例如软件),例如处理器、功能块,等。例如,计算设备102可包括计算机可读介质,其被配置用于维护使得计算设备尤其是计算设备102的硬件执行操作的指令。因此,指令用于配置硬件来执行操作,并以此方式致使硬件变换以执行功能。可由计算机可读介质通过各种不同配置将指令提供给计算设备102。
一种这样的计算机可读介质配置是信号承载介质,并因此被配置来将指令(例如,作为载波),例如通过网络104,传送到计算设备的硬件。计算机可读介质还可被配置为计算机可读存储介质,因此不是信号承载介质。计算机可读存储介质的示例包括,随机存取存储器(RAM)、只读存储器(ROM)、光盘、闪存、硬盘存储器,和其他可使用磁、光以及用于存储指令和其他数据的其他技术的存储设备。
图2是在一示例实现中的更详细地示出图1的增强现实模块106的系统200的图示,该增强现实模块供利用多个不同色彩通道的计算设备102用来实现基础生成。本示例中的相机116被示为捕捉AR标签130的图像。
这些图像被示为被分解成多个不同的色彩通道,这些色彩通道的示例包括红色色彩通道202、绿色色彩通道204、和蓝色色彩通道206。这些通道中的每一个被示为包括对应于相应通道的色彩的标记图像。例如,红色色彩通道202包括相对大尺寸的红色AR标签图像,因此被配置为可在相机116和AR标签130之间的相对大距离处被查看到。然而,绿色色彩通道204包括采取与红色AR标签的大尺寸相比相对中尺寸的绿色AR标签图像,并因此被配置为可在相机和AR标签130之间的相对中等距离处被查看到。同样,蓝色色彩通道206包括采取相对小尺寸的蓝色AR标签图像,因此被配置为可在相机116和AR标签130之间的相对近距离处被查看到。通过这种方式,这些色彩通道中的每一个可涉及在相机116和使用相机116的单个分辨率的AR标签130之间、可能(例如,完全或部分地)不同的特定距离范围。
标记标识模块136可随后比较红色通道、绿色通道和蓝色通道206以定位可分辨的一个或多个图像,以确定计算设备102的一部分(例如,包括相机116的那部分)的位置和定向。例如,相机116可位于其中从红色色彩通道202和绿色色彩通道204中获得的图像中的AR标签可分辨、但包括在蓝色色彩通道206中的AR标签不可分辨的距离处。
在这个示例中,标记标识模块136可利用分辨出的AR标签图像中的一个或多个(例如,通过求平均、求加权平均、置信值、及仅使用AR标签的“最清楚的”图像等等)来得到标识出的标记208。随后,标识出的标记208可被基础计算模块210用来计算描述计算设备102的部分的位置或定向的光学基础212。随后,可出于各种目的而使用这个光学基础212,诸如为了生成之前描绘的增强现实显示。
通过这种方式,在此描述的色彩通道技术可以克服使用传统技术而遇到的各种缺点。例如,之前的传统技术因受到用于捕捉AR标签的图像的相机的分辨率的限制而具有有限范围。由于加AR标签一般依赖于标识固定大小的标记,传统的AR标签和相机之间的距离的操作范围受到该组合的制约。例如,一旦相机移出了分辨AR标签的图像的范围,则这一组合可能失效。例如,分辨AR标签的特征的能力可能因相机的像素分辨率不再足以分辨出该特征而丧失。
同样,传统的“大”AR标签可以将其中可分辨AR标签的最小范围限制为通常捕捉到的图像将包括该标签的大部分,以便能够分辨该图像。例如,在近范围处,相机可能无法捕捉大AR标签的、足以标识该标签以计算出光学基础的那部分的图像。
在另一示例中,传统的AR标签可在该AR标签无法被计算设备归类的情况下而被跳过。这可在AR标签不可用于标识的情况下引入错误并可导致缺少对光学基础的确定。在其他示例中,传统的AR标签不可重叠。因此,如果物理环境相对较小但仍可从极微小的距离和巨大的距离处被看见,则在使用传统技术的环境中可能不存在足够的空间来包括要被用来支持这些不同距离的每一AR标签类型。
然而,使用在此描述的色彩通道技术,分开的通道可用于捕捉具有不同尺寸的光学标记的图像,由此增加了相机和标记之间的有效距离范围。例如,来自相机116的传入RGB流可被分解成它的组成部分,即所示的红色通道202、绿色通道204和蓝色通道206。这些通道随后可被转换到灰度级并被处理以标识出标记。因此,可以为不同的色彩通道编码不同尺寸的标记。此外,基于先前的参考位置,标记标识模块136可以为给定帧估计出相对而言哪个图像最可能相关,由此提升足够的像素覆盖。
如所示出地,为了实现与相机的位置或定向的相对较长距离的配准,可使用较大的标记通道(例如,红色色彩通道202)。另一方面,为了与相机116的位置或定向的相对较短距离的配准,可使用较小的标记通道(例如,蓝色色彩通道206)。如果相机116逼近大AR标签到接近的地步,例如相机116的视野可以截去大AR标签的区域,从而可阻止大标签的这部分的图像被标识。因此,在这样的示例中,另一色彩通道可用于标识相应的AR标签(例如,绿色色彩通道204或蓝色色彩通道206)。
此外,标记标识模块136可以利用来自多个色彩通道的AR标签的分辨率。例如,标记标识模块136可能能够标识出包括在多个色彩流中的相应一个中的多个AR标签。随后,可使用这些标识出的AR标签来得到组合值,诸如通过获得加权和、求各置信值的平均等等。通过使用多个不同的色彩,AR标签130还可被组合以形成复合AR标签,由此可利用较少量的空间而仍支持较大的距离范围,此进一步讨论可相对于下图来发现。
图3描绘了在一示例实现中的示出由具有不同大小和色彩的多个AR标签来形成的复合AR标签的装置300。在这个示例中,三个不同大小的标记被示为具有不同的尺寸,红色标记302具有相对大的尺寸,绿色标记304具有中间大小的尺寸,蓝色标记306具有相对小的尺寸。通过使用前向散列来示出由红色标记302使用的红色,通过使用后向散列来示出由绿色标记304使用的绿色,并通过使用垂直散列来示出由蓝色标记306使用的蓝色。
通过使用不同的色彩,可形成包括红色标记、绿色标记和蓝色标记306的复合标记308。例如,复合标记308的各部分可以包括单个色彩、两个色彩、三个色彩、和无色彩等等。因此,这些色彩可被覆盖,使得不同尺寸的标记可被复合标记308支持。随后,通过分解这些通道,这些色彩中的每一个可被分辨出,即使被覆盖。
虽然在这个示例中描述了三种色彩,但应易于明白,各种不同数目的色彩和色彩本身可被利用,而不背离其精神和范围。此外,虽然在这些示例中描述了AR标签,但应易于明白,各种光学标记可被利用,诸如通常在物理环境中发现和可标识的物体,如之前相对于图1所描述的。
示例过程
以下讨论描述了可利用上述系统和设备来实现的增强现实技术。可以使用硬件、固件或软件或其组合来实现每一个过程的各方面。过程被示为一组框,它们指定由一个或多个设备执行的操作,不一定仅限于所示出的用于由相应的框执行操作的顺序。在以下讨论的各部分中,将分别参考图1的环境100及图2和3的系统200和装置300。
图4是描绘了在一示例实现中的其中利用色彩通道技术来为计算设备的至少一部分计算光学基础的过程400的流程图。检查从相机获取的多个色彩通道。这些色彩通道中的每一个描绘了光学标记,该光学标记与在这些色彩通道中的另一个中描绘的另一光学标记具有不同的尺寸(框402)。相机116可例如捕捉AR标签130的图像、以及房间106中的物体(其可能使用了光学标记)等等。
标识出处于多个色彩通道中的相应一个中的各光学标记中的至少一个(框404)。标记标识模块136可例如检查这些不同色彩通道中的图像以确定这些图像中的一个或多个是否足以标识出光学标记。
使用标识出的光学标记来计算可用于描述计算设备的一部分的至少位置或定向的光学基础(框406)。对光学基础的计算可例如基于标识出的处于单个色彩通道中的单个光学标记、从多个通道中获取的图像,并且还可涉及使用先前的光学基础和/或从色彩通道获取的图像的内插。
至少部分地基于光学基础来生成增强现实显示以供计算设备显示(框408)。增强现实显示例如可被配置为包括根据光学基础被定位在显示中的、由增强现实模块106生成的对象。
图5描绘了在一示例实现中的基于来自红色色彩通道、绿色色彩通道和蓝色色彩通道的光学标记的分辨率来生成增强现实显示的过程的流程图。从相机的红色通道获得第一图像,从相机的绿色通道获得第二图像,以及从相机的蓝色通道获得第三图像(框502)。相机116例如可包括被配置成捕捉红色图像、绿色图像和蓝色图形并经由各个色彩通道来提供这些图像的传感器。在另一示例中,RGB馈源可被计算设备102分解成红色通道、绿色通道和蓝色通道。
使用一个或多个模块来标识出第一图像、第二图像或第三图像中的哪个图像描绘了这一个或多个模块可分辨的光学标记,以确定该装置的至少一部分的位置或定向(框504)。如上所述,可以将这些图像转换成灰度级,并对其进行处理以确定是否这些图像中的一个或多个可分辨来标识出光学标记(诸如,AR标签)。
计算描述该装置的至少该部分的位置或定向的基础(框506)。例如,可以例如根据AR标签的单个图像、这些图像中的两个的平均值、及三个色彩通道的加权平均等等来计算该基础。随后,可使用计算出的基础来生成增强现实显示以由显示设备来进行显示(框508)。如之前所讨论的,虽然描述了红色色彩通道、绿色色彩通道和蓝色色彩通道,但可以利用各种不同的色彩,而不背离其精神和范围。
结语
虽然已经用对结构特征和/或方法动作专用的语言描述了本发明,但是应该理解,在所附权利要求中定义的本发明不必限于所述的具体特征或动作。相反,这些具体特征和动作是作为实现所要求保护的本发明的示例形式而公开的。

Claims (10)

1.一种由计算设备实现的方法,所述方法包括:
检查从相机获取的多个色彩通道,每一所述色彩通道都描绘了光学标记,该光学标记与在另一所述色彩通道中描绘的另一光学标记具有不同的尺寸,不同尺寸的所述光学标记能分别在距相机的不同距离处被分辨出;
通过比较所述光学标记的分辨出的图像定位一个或多个光学标记来标识出处于所述多个色彩通道中的相应一个中的至少所述光学标记;以及
使用标识出的光学标记来计算可用于描述计算设备的位置或定向的光学基础。
2.如权利要求1所述的方法,其特征在于,所述多个色彩通道包括红色色彩通道、绿色色彩通道和蓝色色彩通道。
3.如权利要求1所述的方法,其特征在于,所述光学标记的一个或多个光学标签是能分别在距相机的不同距离处被分辨出的复合增强现实标签。
4.如权利要求1所述的方法,其特征在于,还包括将所述多个色彩通道分解成要供所述检查使用的分开的馈源。
5.如权利要求1所述的方法,其特征在于,所述计算包括利用使用来自所述多个色彩通道的相应光学标签而计算出的置信值的加权输出来分辨协调帧。
6.如权利要求1所述的方法,其特征在于,所述标识包括从所述多个色彩通道的图像获取中选择具有足以用于计算所述光学基础的分辨率的至少一个所述光学标记。
7.如权利要求1所述的方法,其特征在于,所述光学标记是由多个不同色彩形成的复合光学标记,这些色彩中的每一个对应于相应的所述色彩通道,并可分辨来以相应的所述尺寸示出相应的所述光学标记。
8.如权利要求1所述的方法,其特征在于,所述计算设备是用户可佩戴的。
9.如权利要求1所述的方法,其特征在于,还包括基于所述光学基础来生成增强现实显示以供所述计算设备显示。
10.一种装置,包括:
第一光学标签,该第一光学标签可被计算设备的相机在第一位置处分辨出,并且该第一光学标签使用第一色彩来描绘;以及
第二光学标签,该第二光学标签可被所述计算设备的所述相机在所述第一光学标签不可分辨的第二位置处分辨出,所述第二光学标签使用与所述第一色彩不同的第二色彩来描绘,
其中所述第一位置与第二位置在距所述相机的不同距离处。
CN201280019306.0A 2011-04-21 2012-04-21 色彩通道和光学标记 Active CN103477348B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/091,575 US8817046B2 (en) 2011-04-21 2011-04-21 Color channels and optical markers
US13/091,575 2011-04-21
PCT/US2012/034597 WO2012145731A2 (en) 2011-04-21 2012-04-21 Color channels and optical markers

Publications (2)

Publication Number Publication Date
CN103477348A CN103477348A (zh) 2013-12-25
CN103477348B true CN103477348B (zh) 2017-11-17

Family

ID=47020976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280019306.0A Active CN103477348B (zh) 2011-04-21 2012-04-21 色彩通道和光学标记

Country Status (9)

Country Link
US (1) US8817046B2 (zh)
EP (1) EP2700040B1 (zh)
JP (1) JP5961249B2 (zh)
KR (1) KR101848959B1 (zh)
CN (1) CN103477348B (zh)
AR (1) AR086470A1 (zh)
ES (1) ES2729102T3 (zh)
TW (1) TWI533027B (zh)
WO (1) WO2012145731A2 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242456B2 (en) * 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
US20130278626A1 (en) * 2012-04-20 2013-10-24 Matthew Flagg Systems and methods for simulating accessory display on a subject
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US8928695B2 (en) * 2012-10-05 2015-01-06 Elwha Llc Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
JP2015001875A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
US9466266B2 (en) * 2013-08-28 2016-10-11 Qualcomm Incorporated Dynamic display markers
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
USD788116S1 (en) * 2014-08-19 2017-05-30 Fujifilm Corporation Display screen for digital camera with animated graphical user interface
US10403019B2 (en) 2015-12-16 2019-09-03 Lucasfilm Entertainment Company Multi-channel tracking pattern
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN107734320B (zh) * 2017-09-29 2019-08-13 成都国翼电子技术有限公司 一种计算vr摄影场地内主动发光标记点光强下限的方法
JP7297891B2 (ja) 2018-07-19 2023-06-26 アクティブ サージカル, インコーポレイテッド 自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法
US11126845B1 (en) * 2018-12-07 2021-09-21 A9.Com, Inc. Comparative information visualization in augmented reality
KR20220122287A (ko) 2021-02-26 2022-09-02 삼성전자주식회사 증강 현실 제공 장치의 포즈 결정 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266652A (zh) * 2007-03-15 2008-09-17 佳能株式会社 信息处理设备、信息处理方法和校准工具

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830977A (ja) * 1994-07-19 1996-02-02 Olympus Optical Co Ltd 情報記録媒体及び情報記録再生システム
IL120175A (en) 1997-02-07 2000-11-21 Tribelsky Zamir Method for optically marking an elongated indication path and devices using this method
JP2001054971A (ja) 1999-08-18 2001-02-27 Funai Electric Co Ltd 印字装置
US7176936B2 (en) * 2001-03-27 2007-02-13 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with modulated guiding graphics
US20030076980A1 (en) * 2001-10-04 2003-04-24 Siemens Corporate Research, Inc.. Coded visual markers for tracking and camera calibration in mobile computing systems
JP4054585B2 (ja) 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US7369101B2 (en) * 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
US7515756B2 (en) 2003-06-23 2009-04-07 Shoestring Research, Llc. Region segmentation and characterization systems and methods for augmented reality
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
US8669936B2 (en) * 2004-04-21 2014-03-11 Wsi Corporation System and method for presenting a dynamically ordered presentation
US7965887B2 (en) 2005-12-01 2011-06-21 Cognex Technology And Investment Corp. Method of pattern location using color image data
US7800628B2 (en) * 2006-06-16 2010-09-21 Hewlett-Packard Development Company, L.P. System and method for generating scale maps
EP1887526A1 (en) 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
JP2008176696A (ja) * 2007-01-22 2008-07-31 Misae Saito Cgキャラクタアニメーション作成装置
US8165345B2 (en) 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
WO2010045271A1 (en) 2008-10-14 2010-04-22 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-d pose of the target
GB2465792A (en) * 2008-11-28 2010-06-02 Sony Corp Illumination Direction Estimation using Reference Object
KR101013751B1 (ko) 2009-07-09 2011-02-14 주식회사 인스프리트 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템
JP5375479B2 (ja) * 2009-09-17 2013-12-25 コニカミノルタ株式会社 三次元測定システムおよび三次元測定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266652A (zh) * 2007-03-15 2008-09-17 佳能株式会社 信息处理设备、信息处理方法和校准工具

Also Published As

Publication number Publication date
JP5961249B2 (ja) 2016-08-02
ES2729102T3 (es) 2019-10-30
WO2012145731A3 (en) 2013-01-17
AR086470A1 (es) 2013-12-18
CN103477348A (zh) 2013-12-25
TWI533027B (zh) 2016-05-11
KR101848959B1 (ko) 2018-05-28
WO2012145731A2 (en) 2012-10-26
EP2700040A4 (en) 2014-10-15
KR20140013034A (ko) 2014-02-04
TW201243387A (en) 2012-11-01
EP2700040A2 (en) 2014-02-26
US8817046B2 (en) 2014-08-26
US20120268491A1 (en) 2012-10-25
JP2014513836A (ja) 2014-06-05
EP2700040B1 (en) 2019-04-10

Similar Documents

Publication Publication Date Title
CN103477348B (zh) 色彩通道和光学标记
US11887312B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
CN103582893B (zh) 用于增强现实表示的二维图像获取
US9355452B2 (en) Camera and sensor augmented reality techniques
CN106355153A (zh) 一种基于增强现实的虚拟对象显示方法、装置以及系统
KR101079925B1 (ko) 마커와 훈련자 손 인식을 통한 증강 현실 상황 훈련 시스템
CN105144240B (zh) 使用深度图像的用户质心和质量分布提取
CN102903142A (zh) 一种实现三维增强现实的方法
US11681910B2 (en) Training apparatus, recognition apparatus, training method, recognition method, and program
US20180247431A1 (en) Process, system and apparatus for machine colour characterisation of digital media
KR101100036B1 (ko) 코드 타입 마커
WO2023195099A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2023095392A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
KR20120049062A (ko) 멀티카메라 기반의 동작인식 처리방법
Khan et al. Optimality of black to white ratio and information complexity for robust marker recognition
Schindler TrACTOr & StARboard: tracking and haptic interaction for learning in AR
Yonemoto et al. Projection Mapping of Animation by Object Recognition
Bochem et al. Acceleration of blob detection in a video stream using hardware
Acharya IMAGE TAGGED INTUITIVE AUGMENTED REALITY
KR20180090140A (ko) 실물 작품을 이용한 모션 기능을 갖는 가상 작품 생성 장치 및 방법
JP2019186588A (ja) コンテンツ表示システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1190486

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150728

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150728

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1190486

Country of ref document: HK