CN109145705A - 使用对象定位信息的增强计算机视觉 - Google Patents

使用对象定位信息的增强计算机视觉 Download PDF

Info

Publication number
CN109145705A
CN109145705A CN201810619250.1A CN201810619250A CN109145705A CN 109145705 A CN109145705 A CN 109145705A CN 201810619250 A CN201810619250 A CN 201810619250A CN 109145705 A CN109145705 A CN 109145705A
Authority
CN
China
Prior art keywords
host
fov
computer vision
location information
vision module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810619250.1A
Other languages
English (en)
Inventor
M.科西克
O.波科尼
M.塞洛夫斯卡
P.莫拉夫克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of CN109145705A publication Critical patent/CN109145705A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/04Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2149Restricted operating environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

呈现了用于增强计算机视觉模块的系统和方法。所述系统接收主机定位信息,并且基于所述主机定位信息确定所述主机的位置和定位。所述系统基于所述主机定位信息确定所述主机的视场(FOV),并且控制与所述主机相关联的被配置成记录包括所述FOV的视频流的摄像机。所述系统和方法通过利用被发射的对象定位信息并且还通过保持学习和固定对象的存储表来提供对常规计算机视觉(CV)系统的改进。所提供的系统和方法改进对象识别和计算机辅助维修(CAM)的效率。

Description

使用对象定位信息的增强计算机视觉
技术领域
技术领域一般地涉及计算机视觉系统,并且更具体地涉及用于使用发射的对象定位信息的增强计算机视觉的系统和相关操作方法。
背景技术
计算机视觉(CV)被以许多形式并跨越各种应用使用。馈送到CV算法中的图像数据可被用于对象识别。利用基于CV的对象识别算法分析图像数据以在图像中的多个对象当中标识对象。例如,能通过CV算法来分析交通工具的图像数据以在组成该交通工具的多个对象当中标识引擎。CV算法可以在处理的附加轮次中分析所标识的对象以标识对象的具体组件。继续引擎示例,能分析引擎图像数据以标识引擎中的具体阀门。
计算机辅助维修(CAM)是将图像数据用于使用CV进行对象识别的应用。一旦图像数据用于标识组件,就可以期望针对组件的维修程序,诸如修理或替换。为了支持这个,CAM应用一般地将CV算法与增强现实(AR)算法组合以在某种类型的显示设备上提供与所标识的组件相关联的信息和/或指令,诸如所期望的维修程序。在一些情况下,CAM应用也记录响应于所提供的指令的活动(即,所执行的维修程序),以供以后检查。
当图像数据复杂或者包括多个对象时呈现技术问题。尽管CV算法不断发展,然而使用计算机视觉来在大量对象当中检测具体对象可能是非常计算和存储器密集的。用户将密集计算体验为长对象识别时间。CV系统将密集计算体验为大功率消耗。除长对象识别时间之外,常规CV系统还缺少其他所期望的技术特征,诸如确定主机与所识别的对象之间的距离或空间关系的能力。所提供的用于增强计算机视觉的系统和方法除了提供其他技术增强功能之外,还通过以非常规方式解决这些技术问题来在现有CV系统上改进。
发明内容
本发明内容被提供来以简化形式描述在具体实施方式中进一步描述的选择构思。本发明内容不旨在标识所要求保护的主题的关键或必要特征,它也不旨在在确定所要求保护的主题的范围时被用作辅助手段。
提供了一种方法。所述方法包括:在增强计算机视觉模块处接收用于主机的主机定位信息;基于所述主机定位信息确定所述主机的视场(FOV);将与所述主机相关联的摄像机配置成记录包括所述FOV的视频流;从发射信号接收用于对象的对象定位信息;基于所述对象定位信息确定所述对象在所述FOV中;以及当所述对象在所述FOV中时激活所述摄像机以记录包括所述对象的视频流。
另外提供的是一种系统。所述系统包括:主机上的增强计算机视觉模块,该增强计算机视觉模块包括处理器、存储器设备和数据库;以及耦合到所述增强计算机视觉模块的接收器,用于接收发射信号;所述增强计算机视觉模块被配置成接收主机定位信息;基于所述主机定位信息确定所述主机的位置和定位;基于所述主机定位信息确定所述主机的视场(FOV);将与所述主机相关联的摄像机配置成记录包括所述FOV的视频流;从发射信号接收用于对象的对象定位信息;基于所述对象定位信息确定所述对象的身份,并且确定所述对象在所述FOV中;以及当所述对象在所述FOV中时激活所述摄像机以记录包括所述对象的视频流。
提供了另一方法。所述方法包括:从与用户相关联的惯性系统获得惯性数据;基于所述惯性数据确定与所述用户相关联的视场(FOV);初始化耦合到所述惯性系统并被配置成记录包括所述FOV的视频流的摄像机;连续地处理接收到的包括对象定位信息的发射信号以确定所述FOV是否包括感兴趣对象;以及当所述FOV包括所述感兴趣对象时,激活所述摄像机以记录包括所述感兴趣对象的视频流;处理所述视频流以标识所述感兴趣对象的组件;而当所述FOV不包括所述感兴趣对象时,停用所述摄像机。
此外,根据结合附图和前面的背景技术进行的后续详细描述和所附权利要求,本系统和方法的其他所期望的特征和特性将变得显而易见。
附图说明
将在下文中结合以下附图描述本申请,其中相同的标号表示相同的元件,并且:
图1是图示了依照各种示例性实施例的增强计算机视觉系统的功能框图;
图2是示出了依照各种示例性实施例的定位发射器的阵列的图示;
图3是示出了依照各种示例性实施例的附接到对象的对象发射器的图示;
图4是示出了依照各种示例性实施例的增强计算机视觉系统和与用户相关联的视场的自顶向下图示;
图5是依照各种示例性实施例的具有突出显示组件的引擎的图示;以及
图6提供了依照各种实施例的用于增强计算机视觉系统的方法的流程图。
具体实施方式
以下详细描述在性质上仅仅是说明性的,而不旨在限制主题的实施例或此类实施例的应用和用途。如本文中所使用的,单词“示例性”意指“用作示例、实例或图示”。因此,在本文中描述为“示例性”的任何实施例不一定将被解释为相比于其他实施例为优选的或有利的。本文中所描述的所有实施例都是为了使得本领域的技术人员能够做出或使用本发明而不是为了限制由权利要求书所限定的本发明的范围而提供的示例性实施例。此外,不存在受到前面的技术领域、背景技术、发明内容或以下详细描述中所呈现的任何表达或暗示的理论束缚的意图。
如本文中所使用的,术语模块单独地或按照任何组合指代任何硬件、软件、固件、电子控制组件、处理逻辑和/或处理器设备,包括但不限于:专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享的、专用的或群组)和存储器、组合逻辑电路和/或提供所期望的功能性的其他适合的组件。所提供的增强计算机视觉系统和方法可以采取计算机视觉模块(图1,104)的形式,并且可以与预先存在的计算机视觉或增强现实系统分离或者被集成在其内。
如所提及的,当来自计算机视觉系统的图像数据包括要分类并执行对象识别的多个对象时呈现技术问题。提供的是基于接收在其中具有对象信息的发射信号和新颖规则处理对此问题的技术解决方案。包括定位和/或对象数据的发射信号由增强计算机视觉系统(图1,102)接收和处理。增强计算机视觉系统(图1,102)执行算法和规则来处理来自发射信号的数据,这优于由常规CV系统提供的对象识别而实现表现为加速对象识别的改进。所提供的增强计算机视觉系统(图1,102)也可以确定哪些识别的对象与主机相关,并且确定主机与各种识别的对象之间的距离和空间关系。进一步地,增强计算机视觉系统(图1,102)可以标识主机的位置和定位、主机的视场(FOV),并且采用这些确定来忽视不在主机的FOV中的对象。忽视不在主机的FOV中的对象可以增强主机的隐私并进一步减少计算时间和功耗。以下描述提供了关于这些功能的更多细节。
现在转向图1,依照各种示例性实施例描绘包括计算机视觉系统102和多个发射器130的CV环境100的功能框图。计算机视觉系统102从多个发射器130接收定位发射信号133和对象发射信号135;定位发射信号133和对象发射信号135被统称为发射信号。在所描绘的实施例中,支撑结构104容纳计算机视觉系统102。如在下面更详细地描述的,其他实施例可以不同地组合或者耦合计算机视觉系统102组件。可以将支撑结构104部署为各种可穿戴平台中的任何一种,诸如眼镜、护目镜、头盔和可穿戴显示设备。在其他实施例中,支撑结构104可以是固定对象、建筑物、交通工具等。
在所描绘的实施例中,计算机视觉系统102包括:用于接收发射信号的接收器112、用于接收并处理所接收到的发射信号的计算机视觉模块140以及用于在外部发送处理的信息(诸如对象标识以及位置和定位)作为发射信息123的数据发射器114。在各种实施例中,计算机视觉系统102可以包括惯性系统116、摄像机118和显示系统120。在计算机视觉系统102的操作中,处理器150和数据发射器114准备数据并执行适当的信号处理以在外部发射信息123,以供由各种外部子系统和组件使用。在下面对这些功能块的操作进行更详细的描述。
可以在输入端125处从各种输入设备(未示出)中的任何一个接收命令和用户输入。经由输入端125输入的非限制性示例包括:键入存储变量164的值、加载或者更新指令和应用160(包括程序162)、提供针对命令的确认和/或取消以及加载并更新数据库156的内容,在下面对其中的每一个进行更详细的描述。
计算机视觉系统102能够连续地:接收多个发射信号(133和135),针对所述多个接收到的发射信号中的每个接收到的发射信号,区分所述多个发射器130中的哪一个以及哪一种类型的发射器(定位发射器132和对象发射器134)提供了所接收到的发射信号。基于此,计算机视觉系统102进一步变换和处理所接收到的发射信号中的信息,如在下面更详细地描述的。
接收器112和数据发射器114各自可支持各种类型的无线通信,并且可执行如本领域中已知的信号处理(例如,数字化、数据编码、调制等)。在一些实施例中,接收器112和数据发射器114被集成为收发器,并且它们可以与计算机视觉模块140进一步集成。
惯性系统116可以包括地理定位系统或全球定位系统。摄像机118可以是具有应用所需要的分辨率的任何图像或视频记录设备。显示系统120被集成在眼镜、护目镜、头盔和其他用户可穿戴显示器内。显示系统120可以使用适合于以可由用户查看的格式渲染文本、图形和/或图标信息的许多已知显示设备中的任何一个来实现。显示设备可以提供三维或二维图像,并且可以提供合成视觉成像。此类显示设备的非限制性示例包括阴极射线管(CRT)显示器,以及诸如LCD(液晶显示器)和TFT(薄膜晶体管)显示器之类的平板显示器。因此,每个显示设备对二维或三维的通信协议做出响应,并且可以支持文本、字母数字信息或视觉符号的覆盖。显示系统120可以在增强计算机视觉模块140的控制下。
增强计算机视觉模块140执行计算机视觉系统102的功能。继续参考图1,在增强计算机视觉模块140内,处理器150和存储器设备152形成执行程序指令并且执行构成在下面所描述的方法步骤的处理活动的引擎。计算机视觉模块140部分地通过在发射信息123和/或命令摄像机118或显示系统之前采用接收到的定位信息和学习/固定对象数据库156(在下面描述)来提供对常规计算机视觉系统的局限性的技术改进。在下面对这些构思进行更详细的描述。
计算机视觉模块140也包括通信地耦合到处理器150和存储器设备152(经由总线155)、数据库156以及可选的存储磁盘158的接口154。处理器150可以包括任何类型的处理器或多个处理器、诸如微处理器之类的单个集成电路,或协同工作以通过操纵表示系统存储器中的存储器定位处的数据位的电信号以及信号的其他处理来执行所描述的操作、任务和功能的任何适合数量的集成电路器件和/或电路板。
在计算机视觉模块140的操作期间,诸如存储器设备152、数据库156或磁盘158之类的计算机可读存储介质可以被用作储存器和暂存器(scratch pad)。数据位被维护所在的存储器定位是具有与数据位相对应的特定电、磁、光学或有机性质的物理定位。存储器设备152可以是任何类型的适合的计算机可读存储介质。例如,存储器设备152可以包括诸如SDRAM之类的各种类型的动态随机存取存储器(DRAM)、各种类型的静态RAM(SRAM)和各种类型的非易失性存储器(PROM、EPROM和闪存)。在某些示例中,存储器设备152位于和/或共同位于与处理器150相同的计算机芯片上。在所描绘的实施例中,存储器设备152包括上面引用的指令和应用160、程序162、存储变量164。程序162包括足以与处理器150协同创建增强计算机视觉模块140的引擎的新颖增强CV和AR规则和指令。在各种实施例中,增强计算机视觉模块140依照图6中所示的方法600的步骤来执行动作和功能。
数据库156是形式为任何适合类型的存储装置的计算机可读存储介质,包括诸如硬盘驱动器、闪存系统、软盘驱动器和光盘驱动器之类的直接存取存储设备。在一个示例性实施例中,数据库156存储包括固定对象及其位置和定位的查找表。固定对象可以包括墙壁、门、台面、搁架等。在各种实施例中,数据库156也可以包括学习对象及其位置和定位。在非限制性示例中,学习对象是停放在机库中的喷气飞机。在另一示例中,学习对象包含禁止对象或禁止区域,诸如出口控制。来自定位和/或对象发射器的信息可以被处理以确定喷气飞机标识以及喷气飞机位置和定位。因此,数据库156在本文中可以被称为学习/固定对象数据库。
总线155用来在计算机视觉模块140的各种组件之间发送程序、数据、状态和其他信息或信号。总线155可以是连接计算机系统和组件的任何适合的物理或逻辑手段。这包括但不限于直接硬连线连接、光纤、红外和无线总线技术。在操作期间,存储在存储器设备152中的程序162由处理器150加载和执行。
接口154使得能实现计算机视觉模块140内的通信,并且可包括一个或多个有线或无线网络接口以与外部系统或组件进行通信。接口154可使用任何适合的方法和装置来实现。例如,接口154使得能实现来自系统驱动程序和/或另一计算机系统的通信。在一个实施例中,接口154直接从用户输入设备106获得命令。接口154也可以包括用于与技术人员通信的一个或多个网络接口,和/或用于连接到计算机可读储存器(诸如数据库156)的一个或多个存储接口。
在操作期间,处理器150加载并执行被具体化为包含在存储器设备152内的指令和应用160的一个或多个程序、算法和规则,并且因此,控制计算机视觉模块140以及计算机视觉系统102的一般操作。在执行本文中所描述的过程(诸如图6的方法600)时,处理器150加载并具体地执行程序162,以从而实现对常规计算机视觉系统的非常规技术改进。附加地,处理器150被配置成处理接收到的发射信号,并且在各种实施例中,处理来自惯性系统116的惯性数据,以及基于此来命令摄像机118和显示系统120。连同图6一起提供了用于计算机视觉系统的方法600。
应了解的是,计算机视觉系统102可以不同于图1中描绘的实施例。作为第一示例,在各种实施例中,惯性系统116和/或摄像机118可以不存在。此外,显示系统120可以不存在,或者可以在计算机视觉系统102外部。不管这些组件的集成状态如何,用户都可以通过在输入端125处提供用户输入来控制计算机视觉系统102的一个或多个特征,并且外部组件可以在123处接收处理和发射的数据。
如所提及的,定位发射信号133和对象发射信号135被统称为发射信号。在操作中,由接收器112接收到的发射信号可以源自所述多个发射器130中的一个或多个。进一步地,所述多个发射器130可以包括一个或多个定位发射器132和/或一个或多个对象发射器134。为了说明这个区别,图2示出了定位发射器132的示例性使用,并且图3示出了对象发射器134的示例性使用。如可以从以下讨论中理解的,所述多个发射器130中的每个发射器130除了包括用于感测和发射的组件之外,还可以包括足以执行在下面描述的功能的用于存储的某个处理容量和存储器。不管它们个体的组件如何,发射器130都执行在下面所描述的功能。
参考图2,定位发射器132(标记为132-1、132-2、132-3、132-4和132-N)包括被布置在诸如天花板、墙壁或地面之类的区域中的已知固定定位中的定位发射器的网络,并且它们发送相应的定位发射信号(统称为“LT信号133”)。在各种实施例中,物理网络(即,多个(N个)定位发射器130在网络中的布置和放置)可以被上传并提前存储在计算机视觉模块140中。在其他实施例中,作为初始化过程的一部分,计算机视觉模块140可以接收一个或多个LT信号133并且由此构建定位发射器130的物理网络。因此,应理解的是,对于所述多个(N个)定位发射器132中的每个定位发射器132来说,LT信号133可以在其中包括一些(i)位置和定位(P和L)信息以及(ii)一些网络成员关系信息。如本文中所使用的,“P和L以及网络成员关系信息”意味着例如定位发射器132-3可以知道它是被布置在各自在地面200上的五列(220、222、224、226和228)的四行(202、204、206和208)中的总共40个定位发射器132中的一个,并且知道132-3在第三行(行206)和第一列(列220)中。进一步地,定位发射器132被理解成包括用于感测其指派的空间体积230内的对象的装置,并且在其LT信号133内发射那个感测到的信息。在图2中,指派给定位发射器132-N的体积被描绘为通常圆形的区域230,但是容易地理解的是,该体积具有第三维度并可以采取其他形状。当所述多个定位发射器132中的定位发射器132在其指派的体积230中感测到对象或其一部分时,它将感测到的信息包括在其相应的LT信号133中。
与定位发射器132对比,对象发射器134被附接在对象上并且该对象可以在空间中四处移动。虽然不是本申请的主题,然而可以采用各种技术中的任何一种来将对象发射器134附接到对象。此类对象的非限制性示例包括飞机、引擎和车轮。图3描绘了作为示例性对象的引擎300,其中对象发射器134-1、134-2、134-3和134-4被按照特定图案固定地布置在引擎300上。对象发射信号(OT信号135)包括足够详细地区分对象和其他类似对象的对象标识。例如,对象标识可以包括牌子、型号、版本、年份等。类似于定位发射器132,对象发射器134可以在OT信号135中附加地发送它自己的P和L信息以及网络成员关系信息。例如,在对象发射器134的特定图案中,对象发射器134-2可以知道它是固定地布置在引擎300上的四个对象发射器134中的一个,以及在对象发射器134的特定图案中它是对象发射器134中的哪一个。
图4提供了依照计算机视觉系统102的实施例的CV查看环境400的简化自顶向下图示。在图4中,用户402是主机。用户402正穿戴着计算机视觉系统102,例如,作为头盔或眼镜的一部分。惯性系统116提供与用户402相关联的惯性数据。计算机视觉模块140执行程序162来处理惯性数据,以从用户402的角度确定用户402的定向和视场(FOV 454)。在实施例中,FOV 454从与用户相关联的中心点404向前延伸长度406。FOV 454的中线405从中心点404向前延伸。在所描绘的实施例中,FOV 454通常是锥形的,围绕中线405按从中线405测量的角度408在三个维度上延伸。在一些实施例中,角度408可以是被预先确定并存储在存储变量164中的可配置变量,而在其他实施例中,角度408可以是在计算机视觉系统102的操作期间被配置和重新配置(例如,响应于用户402中的变化或另一变量)的可配置变量。如果用户402使他的头转向右侧450或左侧452,则FOV 454将保持与所描述的基本上相同的维度,但是连同用户402的头一起旋转。尽管FOV 454被描绘为通常锥形的,然而可以利用各种其他形状。此外,尽管FOV 454被描绘为与用户402正看着的方向相关联,然而在其他实施例中,主机可以不是用户,并且FOV 454可以是相对于除用户402的视点以外的基准而确定的空间的区域。
除了识别对象之外,计算机视觉系统102还可以确定识别的对象是感兴趣对象还是禁止对象或区域;这个确定可以包括参考学习/固定对象数据库156和/或执行被编程到程序产品162中的规则。以这种方式确定对象是感兴趣对象相比于系统地处理图像数据并对它进行分类以识别对象的常规CV系统是高度高效的,因为对这个步骤来说它根本不依赖于图像数据或摄像机118,这被更详细地描述如下。用户402的查看环境400包括对象430、432、434、436、438、440和引擎300。计算机视觉系统102通过如下步骤识别对象而带来对常规CV系统的技术改进:首先,接收包括对象P和L信息的发射信号,并且其次,处理并将对象P和L信息与FOV 454信息相比较。计算机视觉系统102快速地且高效地确定(i)对象432、434、436、438、440和引擎300在FOV 454内,然而对象430不在FOV 454内;(ii)用于每个相应的对象的标识;(iii)在FOV 454中的对象之中,引擎300是FOV 454中的唯一感兴趣对象。值得注意的是,确定(i)至(iii)是空间的并且可以在不用分析任何CV图像数据的情况下被执行。
应理解的是,对于包括摄像机的实施例,摄像机118被配置成记录FOV 454,并且连同FOV 454一起移动。响应于确定在FOV 454中存在感兴趣对象,计算机视觉系统102可以激活摄像机118以开始记录视频流,从而捕获包括引擎300的图像数据。当惯性系统116检测到用户402已经使其头足够转向右侧450或向左侧452使得FOV 454不再基本上围绕引擎300时,(并且假设那时在FOV 454中没有其他感兴趣对象),计算机视觉系统102可以停用摄像机118。
现在参考图5并继续参考图3,示出了在计算机辅助维修(CAM)的领域中提供技术改进的增强计算机视觉系统102。引擎300被示出为具有附接在其上的对象发射器134-5、134-6、134-7和134-8。每个对象发射器(134-5、134-6、134-7和134-8)发射集体OT信号135的相应的OT信号。增强计算机视觉系统102接收OT信号135,并且利用学习/固定数据库156处理来自它们的对象数据以标识或者识别对象,从而减少或者消除密集处理。在各种实施例中,增强计算机视觉系统102也利用对象数据和学习/固定数据库156来处理CV图像数据。在各种实施例中,也可处理LT信号133以更快速地且高效地标识或者识别对象。如可以容易地了解的,基于发射信号的位置和定位信息足以确定对象的定向。
此时,与常规CAM系统的比较是适当的。在常规CAM系统中,视频流提供图像数据,并且图像数据被详尽地分析以标识对象,以及因为对象可以在图像数据中被以不同的方式定向(例如,正面、顶部、侧面、成角度),所以图像数据可能需要进一步处理和分析以确认对象,然而对象的P和L仍未被提供。相比之下,使用增强计算机视觉系统102,发射信号在对图像数据的最小依赖情况下被处理,并且计算机视觉系统102不仅快速地全力研究对象并标识或者识别它,而且也提供对象的P和L并且使对对象的定向的确定加速。
继续进行计算机维修示例,做出了对象(引擎300)包括必须被检查、修理或替换的感兴趣组件(组件502)的确定。响应于确定组件502需要某个动作,增强计算机视觉系统102标识该组件并且命令显示系统120相对于所显示的图像500的其余部分以视觉上可区分的方式渲染该组件。在图5中,组件502被示出为变暗;然而,可以采用用于在视觉上区分组件502和对象(引擎300)的剩余组件的任何技术。
在计算机视觉系统102确定对象(引擎300)在用户的视场(FOV 454)中的持续时间内,摄像机118可以被激活并记录图像数据。响应于从发射信号接收到对象数据,计算机视觉系统102标识对象并确定相应的对象是否是感兴趣对象。如所提及的,响应于确定感兴趣对象在FOV 454中,摄像机118可以被激活,并且只要感兴趣对象在FOV 454中,摄像机118就可以继续活动,从而记录可以被分析、处理和存储的FOV中的图像数据的视频流。返回到CAM引擎示例,摄像机118活动的持续时间可以是机修工正在修理引擎300上的组件502的持续时间。记录机修工进行修理可以有助于培训或质量保证目的。在摄像机118活动的持续时间内,可以显示指示器504以使观看者意识到计算机视觉系统102正在记录视频流。
当在FOV中没有感兴趣对象时,可以停用摄像机118,并且指示器504可以改变颜色或者被从所显示的图像500中移除。也可以在确定了用户“看着”禁止对象(诸如出口控制)、“看着”禁止区域或者“看着”穿戴计算机视觉系统102的另一用户时停用摄像机118。在确定用户随后已“看”别处时,可以重新激活摄像机。在这些情形下,用户“看”的地方被定义为等于FOV 454的空间的体积。此外,可以响应于用户402或系统输入而激活或者停用摄像机118。
显示的图像500可以被显示在结构550上的显示系统120上。在各种实施例中,结构550是一对增强现实眼镜。在其他实施例中,显示系统120利用上面所描述的计算机屏幕或其他显示设备来显示图像500。也可以在所显示的图像500上渲染提供方向和/或定向的一个或多个符号506。
现在参考图6,并且参考图1至图5,依照各种示例性实施例,提供了用于计算机视觉系统102的方法600的流程图。方法600表示与计算机视觉系统102相关联的方法的各种实施例。出于说明性目的,方法600的以下描述可以参考关于图1上面所提及的元件。在实践中,可以通过所描述的系统的不同组件来执行方法600的各部分。应该了解的是,方法600可以包括任何数量的附加或替代任务,不必以所图示的次序执行图6中所示的任务,并且可以将方法600并入到具有在本文中未详细描述的附加功能性的更全面的过程或方法中。而且,只要预期总体功能性保持完好,就能从方法600的实施例中省略图6中所示的任务中的一个或多个。
方法开始,并且在602处计算机视觉模块140被初始化。如上面所提及的,初始化可以包括上传或者更新指令和应用160、程序162、存储变量164以及存储在学习/固定数据库156中的各种学习/固定对象查找表。在602处,方法600可以轮询其自身以标识其组件,诸如以确定是否存在惯性系统116、是否存在摄像机118以及它可以命令什么(若有的话)类型的显示系统120。程序162可以包括当由处理器150执行时确定计算机视觉模块140如何操作的规则和算法。预定变量的非限制性示例可以包括例如用于确定FOV 454的维度、用于何时停用摄像机118的可配置计时器变量等。
在604处接收主机定位信息。如早先顺便提到的,主机包括在可以与其他对象的定位相比较的位置和定位处的参考点。在一些实施例中,主机对应于穿戴计算机视觉系统102的用户402。当用户402穿戴计算机视觉系统102时,惯性系统116和摄像机118的协作配置协助处理器150确定用户402的位置和定位,并且进一步从用户402的角度确定FOV 454。在各种实施例中,支撑结构104提供足以从用户402的角度配置惯性系统116、摄像机118和显示系统120以用于协作操作的支撑表面。在其他实施例中,主机不包括惯性系统116,而是与参与CV环境100的对象发射器或定位发射器132相对应。在此情况下,从发射器130接收到的一个或多个发射信号(定位发射信号133和/或对象发送信号135)可以提供主机定位信息。
在606处,主机的位置和定位(P和L)被确定。这可以通过处理从惯性系统116接收到的惯性数据或者通过处理包括在定位发射(LT)信号133和/或对象发射(OT)信号135中的定位信息来确定。如所提及的,发射信号(LT信号133和/或OT信号135)可以包括定位和成员关系信息,和或与来自数据库156的学习/固定对象相配;基于此,计算机视觉模块140可以处理可用数据并推导出主机定位。
在608处,如果计算机视觉系统102包括摄像机118,则可以在610处执行任何剩余的摄像机初始化,并且可以在612处确定FOV 454。在各种实施例中,确定FOV 454可以包括检索存储在存储变量164中的维度并且基于此构建FOV 454。在其他实施例中,程序162可以包括处理修改FOV 454的附加惯性信息和/或主机信息的规则。在包括摄像机118的计算机视觉系统102的实施例中,应理解的是,摄像机118被配置成使得其记录窗口或透镜与FOV454一致或者包括FOV 454。
在614处,计算机视觉系统102接收对象定位信息。在一些实施例中,可以在OT信号135中接收对象定位信息。在其他实施例中,可以诸如通过将LT信号133信息与数据库156中的学习/固定对象信息相比较经由LT信号133接收对象定位信息。在616处,方法600确定对象相对于主机的位置和定位(P和L)。在616处也基于对象定位信息确定对象的标识(即,对象被识别)。对象相对于主机的P和L可以是绝对或相对的。一旦在616处确定了对象的P和L,过程就可以结束,或者该方法可以选择性地做下列中的一项或多项:在626处更新学习/固定对象数据库156,在628处在外部发射对象以及P和L数据,或者返回到614以便接收附加对象定位信息。
在618处,当已经创建FOV 454时,方法600可以确定对象是否在FOV 454中并且该对象被确定为感兴趣对象。确定对象是感兴趣对象可以基于包括在程序162中的指令,或者使对象标识与存储在存储器152中的预加载的查找表相匹配。如所提及的,这个确定基于来自一个或多个发射信号的定位信息,并且不需要图像处理活动。可将对象的位置和定位与FOV 454的维度、定位和定向相比较,并且可以做出关于对象的确定。在620处,如果对象被确定为在FOV 454中并且该对象被确定为是感兴趣对象,则可以激活摄像机118,所述摄像机118记录包括FOV 454并因此也包括对象的图像数据的视频流。应当理解的是,摄像机118被定向成包括FOV 454,并且因此,所捕获的图像数据至少基本上包括对象。
在622处,可以处理图像数据以标识对象的组件。在626处,可以更新学习/固定对象数据库156,并且在628处,可以在外部发射主机和/或对象的位置和定位。如果例如在624处通过过程标识了对象的组件,则也可以在外部发射该组件。方法步骤622至628对CAM应用有益。例如,如果机修工承担使阀门固定在引擎上的任务,则计算机视觉系统102可以使用发射器来快速地全力研究引擎,然后突出显示阀门。在各种实施例中,响应于624,计算机视觉系统102可以命令显示系统120使用AR系统在显示系统上生成与组件相关联的动作。示例性动作包括以下各项的任何组合:突出显示、制成动画以及显示与组件相关联的字母数字指令以协助高效且准确的引擎维修。
当方法600在618处确定对象不再在FOV 454中(或者,在FOV 454中没有感兴趣对象)时,可以在632处停用摄像机118。停用可以附加地包括暂停记录图像数据。进一步地,可以在630处经过可配置时间量之后发生停用。在632处停用摄像机之后,该方法可以结束或者在628处在外部发射数据。
如容易地了解的是,上述示例是非限制性的,并且可以向计算机视觉模块140提议许多其他示例。因此,已经提供了用于增强计算机视觉系统的系统和方法。
本领域的技术人员将了解的是,可以将连同本文中所公开的实施例一起描述的各种说明性逻辑块、模块、电路和算法步骤实现为电子硬件、计算机软件或两者的组合。上面在功能和/或逻辑块组件(或模块)及各种处理步骤方面对一些实施例和实施方式进行了描述。然而,应该了解的是,可以通过被配置成执行所指定的功能的任何数量的硬件、软件和/或固件组件来实现此类块组件(或模块)。为了清楚地说明硬件和软件的互换性,已经在上面一般地在其功能性方面描述了各种说明性组件、块、模块、电路和步骤。这种功能性被实现为硬件还是软件取决于施加于总体系统的特定应用和设计约束。技术人员可以针对每个特定应用以变化方式实现所描述的功能性,但是此类实施方式决定不应该被解释为导致脱离本发明的范围。例如,系统或组件的实施例可以采用可以在一个或多个微处理器或其他控制设备的控制下执行各种功能的各种集成电路组件,例如,存储器元件、数字信号处理元件、逻辑元件、查找表等。此外,本领域的技术人员将了解的是,本文中所描述的实施例仅仅是示例性实施方式。
连同本文中所公开的实施例一起描述的各种说明性逻辑块、模块和电路可以用被设计来执行本文中所描述的功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立门或晶体管逻辑、分立硬件组件或其任何组合来实现或者执行。通用处理器可以是微处理器,但是在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、结合DSP核心的一个或多个微处理器或任何其他这种配置。
连同本文中所公开的实施例一起描述的方法或算法的步骤可以直接地用硬件、用由控制器或处理器执行的软件模块或者用两者的组合加以具体化。软件模块可以驻留在RAM存储器、闪速存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中已知的任何其他形式的存储介质中。示例性存储介质耦合到处理器,使得处理器可从存储介质读取信息,并且将信息写入到存储介质。在替代方案中,存储介质可以与处理器成一体。处理器和存储介质可以驻留在ASIC中。
在本文档中,诸如第一和第二等的关系术语可以单独用于区分一个实体或动作和另一实体或动作,而不必在此类实体或动作之间要求或者暗示任何实际的这种关系或次序。除非通过权利要求语言具体地限定,否则诸如“第一”、“第二”、“第三”等之类的序数简单地表示多个中的不同单个,而不暗示任何次序或顺序。任何权利要求中的文本的顺序不暗示必须根据这种顺序来以时间或逻辑次序执行过程步骤,除非它通过权利要求的语言来具体地限定。可以在不脱离本发明的范围的情况下以任何次序互换过程步骤,只要这种互换不与权利要求语言相矛盾并且不是逻辑荒谬的即可。
此外,取决于上下文,诸如在描述不同元件之间的关系时使用的“连接”或“耦合到”的单词不暗示必须在这些元件之间做出直接物理连接。例如,两个元件可以通过一个或多个附加元件以物理地、电子地、逻辑地或以任何其他方式彼此连接。
虽然已经在本发明的前述详细描述中呈现了至少一个示例性实施例,但是应该了解的是,存在大量的变型。也应该了解的是,一个或多个示例性实施例仅是示例,而不旨在以任何方式限制本发明的范围、适用性或配置。相反,前述详细描述将给本领域的技术人员提供用于实现本发明的示例性实施例的方便的路线图。应理解的是,在不脱离如所附权利要求中阐述的本发明的范围的情况下,可以在示例性实施例中所描述的元件的功能和布置方面做出各种改变。也应了解的是,虽然在全功能计算机系统的上下文中对所描绘的示例性实施例进行描述,但是本领域的技术人员将认识到,本公开的机制能够作为具有用于存储程序及其指令并执行其分发的一种或多种类型的非暂时性计算机可读信号承载介质的程序产品被分发,所述非暂时性计算机可读信号承载介质诸如承载程序162并包含存储在其中以便使计算机处理器(诸如处理器150)执行并实行程序162的计算机指令的非暂时性计算机可读介质。这种程序产品可以采取各种形式,并且本公开不管用于执行分发的计算机可读信号承载介质的特定类型如何都同样适用。信号承载介质的示例包括:诸如软盘、硬盘驱动器、存储卡和光盘之类的可记录介质以及诸如数字和模拟通信链路之类的传输介质。应了解的是,在某些实施例中也可以利用基于云的存储和/或其他技术。

Claims (10)

1.一种方法,其包括:
在增强计算机视觉模块处接收用于主机的主机定位信息;
基于所述主机定位信息确定所述主机的视场(FOV);
将与所述主机相关联的摄像机配置成记录包括所述FOV的视频流;
从发射信号接收用于对象的对象定位信息;
基于所述对象定位信息确定所述对象在所述FOV中;以及
当所述对象在所述FOV中时激活所述摄像机以记录包括所述对象的视频流。
2.根据权利要求1所述的方法,其中,确定所述主机的视场(FOV)包括确定所述主机的位置和定位。
3.根据权利要求2所述的方法,其中,确定所述对象在所述FOV中包括确定所述对象相对于所述主机的所述位置和定位的位置和定位。
4.根据权利要求3所述的方法,还包括(i)基于所述视频流标识所述对象中的组件;以及(ii)响应于标识所述组件而生成与所述组件相关联的动作。
5.根据权利要求1所述的方法,还包括响应于确定所述对象不再在所述FOV中而停止记录所述视频流。
6.根据权利要求4所述的方法,还包括,继激活所述摄像机以记录视频流之后,响应于确定禁止对象在所述FOV中而停用所述摄像机。
7.一种系统,其包括:
主机上的增强计算机视觉模块,所述增强计算机视觉模块包括处理器、存储器设备和数据库;以及
耦合到所述增强计算机视觉模块的接收器,用于接收发射信号;
所述增强计算机视觉模块被配置成
接收主机定位信息;
基于所述主机定位信息确定所述主机的位置和定位;
基于所述主机定位信息确定所述主机的视场(FOV);
将与所述主机相关联的摄像机配置成记录包括所述FOV的视频流;
从发射信号接收用于对象的对象定位信息;
基于所述对象定位信息确定所述对象的身份,并且确定所述对象在所述FOV中;以及
当所述对象在所述FOV中时激活所述摄像机以记录包括所述对象的视频流。
8.根据权利要求7所述的系统,其中,所述增强计算机视觉模块还被配置成基于所述视频流标识所述对象中的组件。
9.根据权利要求8所述的系统,其中,所述增强计算机视觉模块还被配置成:
响应于标识所述组件而生成与所述组件相关联的动作;以及
响应于所生成的动作而命令显示系统。
10.根据权利要求9所述的系统,其中,所述增强计算机视觉模块还被配置成响应于标识所述对象而更新学习对象的数据库。
CN201810619250.1A 2017-06-19 2018-06-15 使用对象定位信息的增强计算机视觉 Pending CN109145705A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/626,942 US10354163B2 (en) 2017-06-19 2017-06-19 Enhanced computer vision using object location information
US15/626942 2017-06-19

Publications (1)

Publication Number Publication Date
CN109145705A true CN109145705A (zh) 2019-01-04

Family

ID=62684642

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810619250.1A Pending CN109145705A (zh) 2017-06-19 2018-06-15 使用对象定位信息的增强计算机视觉

Country Status (3)

Country Link
US (1) US10354163B2 (zh)
EP (1) EP3418945A1 (zh)
CN (1) CN109145705A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846899B2 (en) 2019-04-17 2020-11-24 Honeywell International Inc. Methods and systems for augmented reality safe visualization during performance of tasks
US20220391625A1 (en) * 2021-06-08 2022-12-08 Kyndryl, Inc. Contextual policy-based computer vision control

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972787B1 (en) * 2002-06-28 2005-12-06 Digeo, Inc. System and method for tracking an object with multiple cameras
US20100226535A1 (en) * 2009-03-05 2010-09-09 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
CN103502999A (zh) * 2011-02-08 2014-01-08 隆沙有限公司 用于使用可视数据流标记和增强地理特定位置的系统
US20140218520A1 (en) * 2009-06-03 2014-08-07 Flir Systems, Inc. Smart surveillance camera systems and methods
GB201505598D0 (en) * 2014-05-28 2015-05-13 Cambridge Silicon Radio Ltd Method for embedding product information in video using radio frequency information
CN105100815A (zh) * 2015-07-22 2015-11-25 电子科技大学 基于时间序列的流式数据分布式元数据管理方法
US20170019581A1 (en) * 2015-07-16 2017-01-19 Symbol Technologies, Llc Arrangement for, and method of, reducing server processing requirements of a host server

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925391B2 (en) * 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
US8872940B2 (en) 2008-03-03 2014-10-28 Videoiq, Inc. Content aware storage of video data
IL199763B (en) * 2009-07-08 2018-07-31 Elbit Systems Ltd Automatic contractual system and method for observation
US9165366B2 (en) * 2012-01-19 2015-10-20 Honeywell International Inc. System and method for detecting and displaying airport approach lights
US9581692B2 (en) * 2012-05-30 2017-02-28 Honeywell International Inc. Collision-avoidance system for ground crew using sensors
US9959774B2 (en) * 2012-05-30 2018-05-01 Honeywell International Inc. Systems and methods for displaying obstacle-avoidance information during surface operations
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
US9734729B2 (en) * 2013-04-11 2017-08-15 Honeywell International Inc. Methods and systems for providing taxiway stop bar information to an aircrew
US9740935B2 (en) 2013-11-26 2017-08-22 Honeywell International Inc. Maintenance assistant system
US20150163764A1 (en) * 2013-12-05 2015-06-11 Symbol Technologies, Inc. Video assisted line-of-sight determination in a locationing system
US9318025B2 (en) * 2013-12-17 2016-04-19 Honeywell International Inc. Ground obstacle collision alert deactivation
US9472109B2 (en) * 2014-01-07 2016-10-18 Honeywell International Inc. Obstacle detection system providing context awareness
US20160116960A1 (en) 2014-10-24 2016-04-28 Ati Technologies Ulc Power management using external sensors and data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972787B1 (en) * 2002-06-28 2005-12-06 Digeo, Inc. System and method for tracking an object with multiple cameras
US20100226535A1 (en) * 2009-03-05 2010-09-09 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
US20140218520A1 (en) * 2009-06-03 2014-08-07 Flir Systems, Inc. Smart surveillance camera systems and methods
CN103502999A (zh) * 2011-02-08 2014-01-08 隆沙有限公司 用于使用可视数据流标记和增强地理特定位置的系统
GB201505598D0 (en) * 2014-05-28 2015-05-13 Cambridge Silicon Radio Ltd Method for embedding product information in video using radio frequency information
US20170019581A1 (en) * 2015-07-16 2017-01-19 Symbol Technologies, Llc Arrangement for, and method of, reducing server processing requirements of a host server
CN105100815A (zh) * 2015-07-22 2015-11-25 电子科技大学 基于时间序列的流式数据分布式元数据管理方法

Also Published As

Publication number Publication date
EP3418945A1 (en) 2018-12-26
US20180365514A1 (en) 2018-12-20
US10354163B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
US9792567B2 (en) Methods and systems for managing large asset fleets through a virtual reality interface
US11568361B1 (en) Merging events in interactive data processing systems
CA2942410C (en) Aircraft information retrieval using onboard rfid tags
US20160140868A1 (en) Techniques for using augmented reality for computer systems maintenance
US10843686B2 (en) Augmented reality (AR) visualization of advanced driver-assistance system
US8098215B2 (en) Information processing device, and transparent display element control method and program
WO2016077779A1 (en) System and method for detecting a vehicle event and generating review criteria
BR112020002340A2 (pt) coleta assistida de realidade aumentada
CN109389026A (zh) 车道检测方法和设备
CN108885492A (zh) 虚拟对象路径控制
US20130135295A1 (en) Method and system for a augmented reality
CN105339868A (zh) 基于眼睛跟踪的视觉增强
CN102591634A (zh) 计算机辅助人机界面显示
KR102481817B1 (ko) 전달 학습을 통한 운전자의 시선 응시영역 추정 방법
CN104102760A (zh) 用于三维可视化的定位系统
CN109690622A (zh) 多相机系统中的相机登记
CN104272371A (zh) 透明显示设备及其方法
US8884988B1 (en) Portable device displaying an augmented reality image and method of controlling therefor
CN110276287A (zh) 车位检测方法、装置、计算机设备以及存储介质
US11887046B1 (en) Updating machine learning systems using previous output data
CN109145705A (zh) 使用对象定位信息的增强计算机视觉
JP2011521348A (ja) 閲覧者のインタフェースの表現場内の起動領域を決定するためのシステム及び方法
US20200250736A1 (en) Systems, method and apparatus for frictionless shopping
US20100068685A1 (en) System for evaluating cognitive ability of a subject
CN108804897A (zh) 屏幕控制方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination