CN112286374A - 使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法 - Google Patents

使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法 Download PDF

Info

Publication number
CN112286374A
CN112286374A CN202010659002.7A CN202010659002A CN112286374A CN 112286374 A CN112286374 A CN 112286374A CN 202010659002 A CN202010659002 A CN 202010659002A CN 112286374 A CN112286374 A CN 112286374A
Authority
CN
China
Prior art keywords
barcode reader
augmented reality
handheld barcode
identifier
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010659002.7A
Other languages
English (en)
Other versions
CN112286374B (zh
Inventor
O·奥泽林
J·R·莫利-史密斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of CN112286374A publication Critical patent/CN112286374A/zh
Application granted granted Critical
Publication of CN112286374B publication Critical patent/CN112286374B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10881Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices constructional details of hand-held scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K2007/10524Hand-held scanners

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法。提供了一种系统,该系统被配置为使用平视显示组件显示用于条形码读取器的增强现实用户界面。具有照相机和呈现生成器的增强现实适配器被配置为标识与手持式条形码读取器相关联的唯一标识符,并基于由手持式条形码读取器捕获的数据提供增强现实显示。呈现生成器可以基于唯一标识符在照相机的视场(FOV)内的位置来定位增强现实显示。

Description

使用与增强现实平视显示器配对的标准条形码扫描仪与用户 界面交互的替代方法
背景技术
本文中所提供的背景描述是出于总体上呈现本公开的上下文的目的。在该背景技术部分所述的程度上的当前提及的发明人的工作,以及在递交时可以不以其他方式作为现有技术的描述的各方面,既不明确地又不隐含地被承认为是对于本公开的现有技术。
在库存环境中,用户可能需要携带并操作坚固的条形码扫描仪。坚固的条形码扫描仪通常是这样的手持式条形码扫描仪,其构建成承受各种极端温度和条件,并且在一些实例中,甚至可以承受掉在地上或水中。然而,这些坚固的条形码扫描仪通常不包括屏幕。特别地,在可以使用坚固的条形码扫描仪的极端条件下,屏幕可能很容易被损坏。然而,因为这些坚固的条形码扫描仪通常不包括屏幕或其他用户界面,因此用户难以获取由此类坚固的条形码扫描仪捕获的实时信息,或者进行与此信息相关的选择。
在一些实例中,平视显示器(HUD)可以向用户提供此信息中的一些。然而,用户在操作坚固的条形码扫描仪时常常难以操作HUD,因为用户常常需要携带坚固的条形码扫描仪和要扫描的对象两者。也就是说,携带坚固的条形码扫描仪和要扫描的对象两者的用户将双手抓满,并且不能同时操作HUD控件(通常是有线或无线触摸板控件)来输入数据或控制由HUD显示的信息。在嘈杂的库存环境中,HUD的语音输入控件也会出现问题。
因此,需要在操作没有屏幕的手持式坚固的条形码扫描仪的情况下,同时输入数据和控制在HUD上显示的信息的方式。
发明内容
本申请通过将手持式条形码扫描仪(也称为“条形码读取器”)与增强现实HUD配对以向操作手持式条形码读取器的用户显示虚拟“屏幕”(即,示出为增强现实显示的用户界面),来解决对输入数据并控制在HUD上显示的信息同时操作没有屏幕的手持式坚固的条形码扫描仪的方式的需要。特别地,当HUD的照相机捕获附接到没有屏幕的手持式条形码读取器的唯一标识符(例如,条形码或QR码)的图像时,HUD可以显示用于手持式条形码读取器的虚拟屏幕。例如,虚拟屏幕可以显示与由手持式条形码读取器捕获的数据相关联的信息,或者可以显示提示,以供用户进行与手持式条形码读取器的操作相关联的各种选择。
虚拟屏幕可被显示成使得其(对用户)看起来像被锚定到附接到手持式条形码读取器上的唯一标识符。例如,当唯一标识符在照相机的视场(FOV)内向上移动时,虚拟屏幕将在HUD上向上移动,并且当唯一标识符在照相机的FOV内向下移动时,虚拟屏幕将在HUD上向下移动。
此外,用户可以使用手持式条形码读取器本身进行选择(例如,响应于显示在虚拟屏幕上的提示)。例如,用户可以将手持式条形码读取器向左或向右倾斜,以在显示在虚拟屏幕的左侧或右侧上的选项之间进行选择。此外,还例如,用户可以将手持式条形码读取器向前倾斜,以进行虚拟屏幕上显示的选择。又例如,用户可以激活手持式条形码读取器的触发器,以使其发射光,以便确认显示在虚拟屏幕上的选择。另外,用户可以用拇指或手指覆盖附接到手持式条形码读取器的左侧部分或以其他方式与手持式条形码读取器的左侧部分相关联的第一目标,或附接到手持式条形码读取器的右侧部分或以其他方式与手持式条形码读取器的右侧部分相关联的第二目标,以便选择显示在虚拟屏幕的左侧部分或右侧部分上的选项。因此,携带手持式条形码读取器和要扫描的对象两者的用户可以使用手持式条形码读取器进行选择并与虚拟屏幕交互。
在实施例中,提供了一种系统。该系统包括:手持式条形码读取器,该手持式条形码读取器具有对该手持式条形码读取器唯一的标识符;以及增强现实适配器,该增强现实适配器具有:照相机,具有视场(FOV);呈现生成器,被配置为基于由该手持式条形码读取器捕获的第一数据提供增强现实显示,其中该呈现生成器上的该增强现实显示的定位是基于该FOV内该标识符的位置;存储器,被配置为存储非瞬态计算机可执行指令;以及处理器,被配置为与该呈现生成器、该照相机和该存储器通过接口连接(interface with),并被配置为执行该非瞬态计算机可执行指令以使该处理器:分析由该照相机捕获的图像,以标识该手持式条形码读取器的该标识符;基于由与该标识符相关联的该手持式条形码读取器捕获的第一数据,接收第二数据;以及基于该第二数据,使该呈现生成器经由该增强现实显示显示第三数据,其中该呈现生成器被配置为在显示时间处显示该第三数据,该显示时间与该第一数据被该手持式条形码读取器捕获的捕获时间基本上同时。
在另一个实施例中,提供了一种增强现实适配器。该增强现实适配器包括:照相机,具有视场(FOV);呈现生成器,被配置为基于由具有唯一标识符的手持式条形码读取器捕获的第一数据提供增强现实显示,其中该呈现生成器上的该增强现实显示的定位是基于该FOV内该标识符的位置;存储器,被配置为存储非瞬态计算机可执行指令;以及处理器,被配置为与该呈现生成器、该照相机和该存储器通过接口连接,并被配置为执行该非瞬态计算机可执行指令以使该处理器:分析由该照相机捕获的图像,以标识该手持式条形码读取器的该标识符;基于由与该标识符相关联的该手持式条形码读取器捕获的第一数据,接收第二数据;以及基于该第二数据,使该呈现生成器经由该增强现实显示显示第三数据,其中该呈现生成器被配置为在显示时间处显示该第三数据,该显示时间与该第一数据被该手持式条形码读取器捕获的捕获时间基本上同时。
在又一个实施例中,提供了一种计算机实现的方法。该计算机实现的方法包括:由处理器分析由增强现实适配器的照相机捕获的图像,该照相机具有视场(FOV),以标识对于手持式条形码读取器唯一的标识符和该FOV内该标识符的位置;由该处理器,基于由与该标识符相关联的该手持式条形码读取器捕获的第一数据,接收第二数据;以及由该处理器,基于该第二数据,使该增强现实适配器的呈现生成器经由增强现实显示显示第三数据,其中该增强现实显示在该呈现生成器上的定位是基于该FOV内该标识符的该位置,并且其中该呈现生成器被配置为在显示时间处显示该第三数据,该显示时间与该第一数据被该手持式条形码读取器捕获的捕获时间基本上同时。
附图说明
附图(其中类同的附图标记在全部单独的视图中表示相同的或功能类似的要素)连同下面的详细描述被纳入于此并形成说明书的一部分,并用来进一步阐述包括所要求保护的发明的构思的实施例,以及解释那些实施例的各种原理和优势。
图1示出了根据一些实施例的用于经由HUD组件显示用于手持式条形码读取器的用户界面的示例系统的框图。
图2A和图2B示出了根据一些实施例的示例HUD组件。
图3示出了根据一些实施例的安装到用户头部的示例HUD组件。
图4示出了根据一些实施例的安装到示例HUD组件的示例光引擎。
图5示出了根据一些实施例的与手持式条形码读取器相关联的示例唯一标识符。
图6示出了根据一些实施例的与手持式条形码读取器相关联的示例第一目标和第二目标。
图7示出了根据实施例的具有在呈现生成器上的定位的示例增强现实显示,该定位基于与手持式条形码读取器相关联的唯一标识符在照相机的FOV内的位置,正如用户将看到的。
图8-图12示出了用户可以使用手持式条形码读取器与增强现实显示交互的方式的示例。
图13示出了根据一些实施例的用于经由HUD显示用于手持式条形码读取器的用户界面的示例性计算机实现的方法1300的流程图。
图14示出了根据一些实施例的用于基于由手持式条形码读取器的移动所指示的用户输入来改变经由HUD显示的用于手持式条形码读取器的用户界面的示例性计算机实现的方法的流程图。
图15示出了根据一些实施例的用于基于由手持式条形码读取器发射的光所指示的用户输入来改变经由HUD显示的用于手持式条形码读取器的用户界面的示例性计算机实现的方法的流程图。
图16示出了根据一些实施例的用于基于对与手持式条形码读取器相关联的目标的阻挡所指示的用户输入来改变经由HUD显示的用于手持式条形码读取器的用户界面的示例性计算机实现的方法的流程图。
本领域技术人员将理解附图中的要素出于简化和清楚而示出,并且不一定按比例绘制。例如,附图中的要素中的一些要素的尺寸可以相对于其他要素被放大以帮助提升对本发明实施例的理解。
已经在附图中通过常规符号在适当位置对装置部件进行了表示,所述表示仅示出与理解本发明的实施例有关的那些特定细节,以免用那些对普通技术人员来说显而易见的细节使本公开模糊。
具体实施方式
图1示出了根据一些实施例的用于经由HUD组件显示用于条形码读取器的用户界面的示例系统100的框图。如图1所示,增强现实适配器102和头戴件104可以共同地形成HUD组件105。头戴件104可以被构造为将增强现实适配器102安装到人的头部,使得该人可以查看由增强现实适配器102生成的增强现实显示。增强现实适配器102、手持式条形码读取器106和/或服务器110可以经由网络112(可以是例如,无线网络)彼此通信。
增强现实适配器102可以包括照相机114,照相机114被配置为在表示HUD组件105周围的环境的FOV 116内捕获图像。特别地,照相机114可以捕获手持式条形码读取器106以及附接到手持式条形码读取器106或以其他方式与手持式条形码读取器106相关联的唯一标识符118的图像。另外,照相机114可以捕获附接到手持式条形码读取器106或以其他方式与手持式条形码读取器106相关联的第一目标119A和第二目标119B的图像。
增强现实适配器102可以进一步包括被配置为生成增强现实显示的呈现生成器120。呈现生成器120可以包括光引擎122和波导124。呈现生成器120可以基于由手持式条形码扫描器106捕获的数据来接收数据,以经由增强现实显示向用户显示,并且光引擎122可以将增强现实显示的元素转换为光的图案和脉冲。光引擎122可以将所生成的光传送到波导124,使得与增强现实显示相对应的图像经由波导124向用户显示。在一些示例中,光引擎122包括在将光提供给波导124之前调节或操纵(例如,偏振和/或准直)所生成的光的光学器件。虽然示例呈现生成器120利用光引擎122和波导124来向用户呈现增强现实显示的视觉分量,但是增强现实适配器102可以采用任何合适的图像生成技术,诸如例如阴极射线管(CRT)设备或扫描激光器。
在图1的示例中,光引擎122基于所接收的数据,利用光源(例如,发光二极管(LED))来生成光。在一些示例中,光引擎122接收处理过的数据,该处理过的数据处于可立即转换为光的状况下。在一些示例中,光引擎122在将图像数据转换为光之前处理原始图像数据。为了执行此类处理,图1的示例光引擎122可以包括被配置为处理图像数据的一个或多个逻辑电路和/或可以与该一个或多个逻辑电路通信。
图1的示例波导124以与图像数据相对应的方向和模式携带从光引擎122接收的光。在本文所公开的示例中,图1的示例波导124在一方向上携带从光引擎接收的光,使得可以基于照相机114的FOV 116内的唯一标识符118的位置来定位增强现实显示。例如,当手持式条形码读取器106在照相机114的整个FOV 116中移动时,附接到手持式条形码读取器106或以其他方式与手持式条形码读取器106相关联的唯一标识符118也可以移动。因此,增强现实显示可以被定位成使得它在用户看来像被“锚定”到手持式条形码读取器106。
在示出的示例中,波导124包括形成光导的多个内表面,以在光从输入到输出行进时内部地反射光。示例波导124在输出端处包括光栅,以使光朝向用户的眼睛衍射,从而向用户显示图像。在示出的示例中,波导124是透明的,使得用户可以同时查看周围环境与所显示的图像,或者当波导124上没有图像显示时仅查看周围环境。图1的示例波导124包括第一透镜和第二透镜,该第一透镜和第二透镜被布置为分别放置在用户的第一眼睛和第二眼睛上方。然而,任何合适的形状或尺寸对于波导124都是可能的。
通过硬件、软件、固件和/或硬件、软件和/或固件的任何组合来实现图1的照相机114、呈现生成器120、示例光引擎122和/或更一般地,增强现实适配器102。例如,在一些示例中,增强现实适配器102包括处理器126和存储器128。
在一些示例中,通过逻辑电路125来实现图1的照相机114、呈现生成器120、示例光引擎122和/或更一般地,增强现实适配器102中的至少一个。逻辑电路125可以是能够执行机器可读指令以,例如,实现与增强现实适配器102相关联的操作的处理平台。
逻辑电路125可以包括处理器126,诸如,例如,一个或多个微处理器、控制器和/或任何合适类型的处理器。逻辑电路125可以进一步包括由处理器126(例如,经由存储器控制器)可访问的存储器128(例如,易失性存储器、非易失性存储器)。示例处理器126与存储器128交互以获取例如,存储在存储器128中的机器可读指令。附加地或替代地,机器可读指令可以存储在一个或多个可移除介质(例如,光盘、数字多功能盘、可移除闪存存储器等)上,该一个或多个可移除介质可以耦合到逻辑电路125以提供对存储在其上的机器可读指令的访问。特别地,存储在存储器128上的机器可读指令可以包括用于执行下文在图13-图16处更详细描述的方法中的任何一个的步骤中的任何一个的指令。
逻辑电路125可以进一步包括网络接口129,以经由例如一个或多个网络实现与其他机器的通信。示例网络接口129包括被配置为根据任何合适的(多个)协议操作的任何合适类型的(多个)通信接口(例如,有线接口和/或无线接口)。
在一些示例中,增强现实适配器102可以与手持式条形码读取器106直接地通信(例如,经由网络112或经由短程无线连接),以便例如,基于由手持式条形码读取器106捕获的数据来接收数据。例如,由手持式条形码读取器106捕获的数据可以包括例如,已扫描的库存项的指示/标识、仍要扫描的库存项的指示/标识、已扫描或要扫描的项的数量等。
附加地或替代地,手持式条形码读取器106可以将所捕获的数据传送到服务器110(例如,经由网络112)。例如,服务器110可以包括处理器130,诸如,例如,一个或多个微处理器、控制器和/或任何合适类型的处理器。服务器110可以进一步包括由处理器126(例如,经由存储器控制器)可访问的存储器132(例如,易失性存储器、非易失性存储器)。示例处理器130与存储器132交互以获取例如,存储在存储器132中的机器可读指令或其他数据。附加地或替代地,机器可读指令可以存储在一个或多个可移除介质(例如,光盘、数字多功能盘、可移除闪存存储器等)上,该一个或多个可移除介质可以耦合到服务器110以提供对存储在其上的机器可读指令的访问。
因此,在一些示例中,服务器110可以将来自手持式条形码读取器106的所捕获的数据存储在存储器132或数据库134中,并且可以进而将所捕获的数据(和/或基于该所捕获的数据的数据)传送到增强现实适配器102。此外,在一些示例中,服务器110可以对来自手持式条形码读取器106的所捕获的数据执行附加处理步骤,例如,以基于来自手持式条形码读取器106的数据来生成增强现实显示以向HUD组件105的用户显示。此外,存储在存储器130上的机器可读指令可以包括用于执行下文在图13-图16处更详细描述的方法中的任何一个的步骤中的任何一个的指令。
现在转向图2A和图2B,示出了根据实施例的示例HUD组件105。图2A和图2B的示例HUD组件105包括增强现实适配器102和示例头戴件104。图2A和图2B的示例增强现实适配器102容纳或携带部件,该部件被配置为生成例如供佩戴图2A和图2B的示例HUD组件105的用户消费的视听呈现。
图3示出了安装到用户头部300的图2A和图2B的示例HUD组件105。
图4示出了向HUD组件的用户显示视觉媒体(例如,如图7所示的增强现实显示)的示例性光引擎122。如上所述,光引擎122生成由波导携带的光。虽然图4的示例光引擎122被定位在每一个目镜的上方,但光引擎122可以被定位在任何合适的位置,诸如,例如,在框架的边缘处。
图5示出了根据一些实施例的与手持式条形码读取器106相关联且附接到手持式条形码读取器106的示例唯一标识符118。例如,唯一标识符118可以是特定的条形码、QR码或与特定的手持式条形码读取器106相关联的其他码。在一些示例中,唯一标识符118可以打印到标签上,或者可以以其他方式可移除地附接到手持式条形码读取器106的外壳。在其他示例中,唯一标识符118可以永久性地附接到或打印到手持式条形码读取器106的外壳上。
图6示出了根据一些实施例的与手持式条形码读取器106相关联且附接到手持式条形码读取器106的示例第一目标119A和示例第二目标119B。在一些示例中,除了唯一标识符118之外,第一目标119A和第二目标119B可以附接到手持式条形码读取器106。例如,第一目标119A和第二目标119B可以包括条形码、QR码或与手持式条形码读取器106相关联的其他码。例如,第一目标119A可以是第一条形码、QR码或与手持式条形码读取器106相关联的其他码,而第二目标119B是第二条形码、QR码或与手持式条形码读取器106相关联的其他码,且唯一标识符118是第三条形码、QR码或与手持式条形码读取器106相关联的其他码。在其他示例中,第一目标119A和第二目标119B可以是手持式条形码读取器106的现有特征。例如,第一目标119A可以是手持式条形码读取器106的第一LED,而第二目标119B是手持式条形码读取器106的第二LED。
图7示出了根据实施例的具有在呈现生成器上的定位的示例增强现实显示702,该定位基于与手持式条形码读取器106相关联的唯一标识符118在照相机的FOV内的位置,正如用户将看到的。如图7所示,从用户的角度来看,增强现实显示702似乎位于唯一标识符118的位置的正上方。特别地,增强现实显示702可以被锚定到唯一标识符118,并且增强现实显示702在呈现生成器上的定位可以随着唯一标识符118的位置在照相机的FOV内变化而改变。
图8-图12示出了用户可以使用手持式条形码读取器106与增强现实显示702交互的方式的示例。例如,如图8所示,用户可以将手持式条形码读取器106分别向左或向右倾斜,以选择显示在增强现实显示702的左侧部分或右侧部分上的选项。作为另一示例,如图9所示,用户可以将手持式条形码读取器106向前和向后倾斜,以确认显示在增强现实显示702上的选择。作为又一示例,如图10所示,用户可以激活手持式条形码读取器106的触发器,以使手持式条形码读取器106发射光,以确认显示在增强现实显示702上的选择。附加地,如图11和图12所示,用户可以分别用拇指或手指覆盖附接到手持式条形码读取器106的左侧部分或以其他方式与手持式条形码读取器106的左侧部分相关联的第一目标119A,或附接到手持式条形码读取器106的右侧部分或以其他方式与手持式条形码读取器106的右侧部分相关联的第二目标119B,以便选择显示在增强现实显示702的左侧部分或右侧部分上的选项。
图13示出了根据一些实施例的用于经由HUD显示用于条形码读取器的用户界面的示例性计算机实现的方法1300的流程图。方法1300中的一个或多个步骤可以实现为存储在计算机可读存储器上并在一个或多个处理器上可执行的一组指令。
在框1302处,增强现实适配器的照相机(例如,与HUD相关联的)可以捕获图像。照相机可以具有FOV并且可以捕获该FOV内的图像。
在框1304处,由照相机捕获的图像可以被分析以标识对于手持式条形码读取器唯一的标识符以及该标识符在照相机的FOV内的位置。例如,标识符可以是与手持式条形码读取器相关联并且附接到手持式条形码读取器的外壳的唯一条形码或QR码,例如,如图5所示。
在框1306处,当与标识符相关联的手持式条形码读取器捕获第一数据时,与增强现实适配器相关联的处理器可以基于第一数据接收第二数据。在一些实例中,手持式条形码读取器和增强现实适配器可以经由短程无线连接通信,并且增强现实适配器可以直接从手持式条形码读取器接收第二数据。在其他实例中,手持式条形码读取器可以与服务器通信,并且可以向服务器传输或以其他方式提供第一数据,该服务器可以进而将第一数据转换为第二数据并将第二数据传输到增强现实适配器。
在框1308处,处理器可以使增强现实适配器的呈现生成器基于第二数据,经由增强现实适配器的增强现实显示来显示第三数据。第三数据可以包括基于由手持式条形码读取器的扫描的信息,诸如已扫描的库存项的指示/标识、仍要扫描的库存项的指示/标识、已扫描或要扫描的项的数量等。附加地,在一些示例中,第三数据可以包括需要用户输入的选项或其他提示。
此外,经由增强现实适配器的增强现实显示所显示的第三数据可以在显示时间处显示,该显示时间与手持式条形码读取器捕获第一数据的捕获时间基本上同时。例如,当手持式条形码读取器扫描条形码时,可以几乎立即经由增强现实显示来显示与这些条形码相关联的信息。
增强现实显示可以是用于手持式条形码读取器的“虚拟屏幕”用户界面,例如,如图7所示。特别地,增强现实显示在呈现生成器上的定位可以基于标识符在照相机的FOV内的位置。例如,当标识符位于照相机的FOV的右上角时,增强现实显示可以被定位在呈现生成器的右上角,并且当标识符在照相机的FOV内移动时,增强现实显示可以在呈现生成器上跟随标识符。换句话说,对于增强现实适配器的用户,增强现实显示可以看起来像被锚定到标识符(并且,通过代理,被锚定到手持式条形码读取器)。
在各种示例中,方法1300可以继续包括如关于图14更详细地讨论的方法1400、如关于图15更详细地讨论的方法1500和/或如关于图16更详细地讨论的方法1600的步骤。
图14示出了根据一些实施例的用于基于由条形码读取器的移动所指示的用户输入来改变经由HUD显示的用于条形码读取器的用户界面的示例性计算机实现的方法1400的流程图。方法1400中的一个或多个步骤可以实现为存储在计算机可读存储器上并在一个或多个处理器上可执行的一组指令。
在框1402处,处理器可以分析由照相机捕获的图像(例如,在框1302处),以检测与手持式条形码读取器相关联的标识符在FOV内的移动。在一些示例中,检测标识符在FOV内的移动可以包括检测标识符的移动的方向。例如,用户可以将手持式条形码读取器向左或向右倾斜(例如,如图8所示),使得标识符随着手持式条形码读取器倾斜而向左或向右移动。又例如,用户可以将手持式条形码读取器向前和向后倾斜(例如,如图9所示),使得标识符随着手持式条形码读取器倾斜而向前和向后移动。
在框1404处,处理器可以确定标识符的移动指示用户选择。例如,确定标识符的移动指示用户选择可以包括将指示用户选择的移动与由于在用户移动手持式条形码读取器以扫描对象时只是移动手持式条形码读取器而导致的移动进行区分。例如,较快的移动可以指示可能的用户选择,而较慢的移动指示用户只是在移动手持式条形码读取器以扫描对象。此外,当正经由增强现实显示来显示提示或选项时的移动可以指示可能的用户选择,而当没有经由增强现实显示来显示提示或选项时的移动可以指示用户只是在移动手持式条形码读取器以扫描对象。
此外,在一些示例中,可以基于标识符的移动的方向确定用户选择。例如,当用户将手持式条形码读取器向左倾斜时,标识符可以向左移动,指示用户正在选择显示在增强现实显示的左侧部分上的选项,并且当用户将手持式条形码读取器向右倾斜时,标识符可以向右移动,指示用户正在选择显示在增强现实显示的右侧部分上的选项。此外,在一些示例中,向前/向后运动(与向右/向左运动相比)可以指示用户正在确认选择。
在框1406处,处理器可以基于用户选择修改增强现实显示,例如,如图8或图9所示。例如,如果处理器确定用户已选择显示在增强现实显示的左侧部分上的选项,则处理器可以修改增强现实显示以示出与显示在增强现实显示的左侧部分上的选项相关的更多信息。类似地,如果处理器确定用户已经确认了选择,则处理器可以修改增强现实显示以显示选择的确认。
图15示出了根据一些实施例的用于基于由条形码读取器发射的光所指示的用户输入来改变经由HUD显示的用于条形码读取器的用户界面的示例性计算机实现的方法1500的流程图。方法1500中的一个或多个步骤可以实现为存储在计算机可读存储器上并在一个或多个处理器上可执行的一组指令。
在框1502处,处理器可以分析由照相机捕获的图像(例如,在框1302处),以检测由手持式条形码读取器发射的光。在一些示例中,检测由手持式条形码读取器发射的光可以包括检测相对于照相机的FOV内的标识符的位置的光的位置。
在框1504处,处理器可以确定由手持式条形码读取器发射的光指示用户选择。例如,用户可以激活手持式条形码读取器的触发器以发射通常用于扫描条形码的光以便做出选择,例如,如图10所示。在一些示例中,用户可以只是激活手持式条形码读取器的触发器以使该手持式条形码读取器发射光,以便确认选择。在其他示例中,可以基于相对于照相机的FOV内的标识符的位置的光的位置来确定用户选择。例如,用户可以将手持式条形码读取器转向左侧并激活该手持式条形码读取器的触发器,以使手持式条形码扫描仪发射朝向左侧的光,对显示在增强现实显示的左侧部分上的选项进行选择,或者可以将手持式条形码读取器转向右侧并激活手持式条形码读取器的触发器,以使手持式条形码扫描仪发射朝向右侧的光,以便对显示在增强现实显示的右侧部分上的选项进行选择。
此外,在一些示例中,确定由手持式条形码读取器发射的光指示用户选择可以包括分析由照相机捕获的图像以确定由手持式条形码读取器发射的光没有撞击在条形码上。例如,用户只是使用手持式条形码来扫描库存项的条形码可能不意指进行选择。
在框1506处,处理器可以基于用户选择修改增强现实显示,例如,如图10所示。例如,处理器确定用户已选择显示在增强现实显示的左侧部分上的选项,则处理器可以修改增强现实显示以示出与显示在增强现实显示的左侧部分上的选项相关的更多信息。类似地,如果处理器确定用户已经确认了选择,则处理器可以修改增强现实显示以显示选择的确认。
图16示出了根据一些实施例的用于基于对与条形码读取器相关联的目标的阻挡所指示的用户输入来改变经由HUD显示的用于条形码读取器的用户界面的示例性计算机实现的方法1600的流程图。方法1600中的一个或多个步骤可以实现为存储在计算机可读存储器上并在一个或多个处理器上可执行的一组指令。
在框1602处,处理器可以分析由照相机捕获的图像(例如,在框1302处)以标识与手持式条形码读取器相关联的第一目标和与手持式条形码读取器相关联的第二目标(例如,在第一时间处)。在一些示例中,第一目标和第二目标可以是粘在手持式条形码读取器上的条形码或QR码,例如,如图6所示。在其他示例中,第一目标和第二目标可以是手持式条形码读取器的第一LED和第二LED,例如,如图12所示。
在框1604处,处理器可以分析由照相机捕获的图像(例如,在第一时间之后的第二时间)以确定第一目标或第二目标中的一个在照相机的FOV内受到阻挡。例如,用户可以用他的或她的手指或拇指覆盖第一目标或第二目标,从而使目标在照相机的FOV内受到阻挡,例如,如图11或图12所示。
在框1606处,处理器可以确定受阻挡的第一目标或第二目标指示用户选择。例如,处理器可以确定位于手持式条形码读取器的左侧部分上的受阻挡的第一目标指示用户已选择呈现在增强现实显示的左侧部分上的选项。类似地,处理器可以确定位于手持式条形码读取器的右侧部分上的受阻挡的第二目标指示用户已选择呈现在增强现实显示的右侧部分上的选项。
在框1608处,处理器可以基于用户选择修改增强现实显示,例如,如图11或图12所示。例如,处理器确定用户已选择显示在增强现实显示的左侧部分上的选项,则处理器可以修改增强现实显示以示出与显示在增强现实显示的左侧部分上的选项相关的更多信息。
在上述说明书中已经描述了具体实施例。然而,本领域普通技术人员理解,可做出各种修改和改变而不脱离如下权利要求书所阐述的本发明的范围。因此,说明书和附图被认为是图示性的而非限定性的意义,并且所有这种修改都旨在被包括在本教导的范围内。另外,所描述的实施例/示例/实现方式不应该被解释为相互排斥的,而应被理解为潜在地可组合的,如果这样的组合以任何方式是允许的。换句话说,前述实施例/示例/实现方式中的任一个公开的任何特征可以包括在其他前述实施例/示例/实现方式中的任一个。
这些益处、优势、问题解决方案以及可能使任何益处、优势或解决方案发生或变得更为突出的任何(多个)要素不被解释成任何或所有权利要求的关键的、必需的或必要的特征或要素。本发明仅由所附权利要求书限定,包括在本申请处于待审状态期间做出的任何修改以及授权公告的这些权利要求的所有等效物。
此外,在该文档中,诸如第一和第二、顶部和底部等之类的关系术语可单独地用来将一个实体或动作与另一个实体或动作区别开,而不一定要求或暗示这些实体或动作之间具有任何实际的这种关系或顺序。术语“包括”、“包括有”、“具有”、“具备”、“包含”、“包含有”、“涵盖”、“涵盖有”或它们的任何其他变型旨在覆盖非排他性包括,以使包括、具有、包含、涵盖一要素列表的过程、方法、物品或装置不仅包括那些要素还可包括对该过程、方法、物品或装置未明确列出的或固有的其他要素。以“包括一”、“具有一”、“包含一”、“涵盖一”开头的要素,在没有更多约束条件的情形下,不排除在包括、具有、包含、涵盖该要素的过程、方法、物品或装置中有另外的相同要素存在。术语“一”和“一个”被定义为一个或更多个,除非本文中另有明确声明。术语“基本上”、“大致上”、“近似”、“约”或这些术语的任何其他版本被定义为如本领域内技术人员理解的那样接近,并且在一个非限定性实施例中,这些术语被定义为在10%以内,在另一实施例中在5%以内,在另一实施例中在1%以内,而在另一实施例中在0.5%以内。本文中使用的术语“耦合的”被定义为连接的,尽管不一定是直接连接的也不一定是机械连接的。以某种方式“配置”的设备或结构至少以该种方式进行配置,但也可以以未列出的方式进行配置。
如本文所使用的,术语“逻辑电路”明确地定义为包括至少一个硬件部件的物理设备,该硬件部件被配置(例如,经由根据预定配置的操作和/或经由存储的机器可读指令的执行)为控制一个或多个机器和/或执行一个或多个机器的操作。逻辑电路的示例包括一个或多个处理器、一个或多个协处理器、一个或多个微处理器、一个或多个控制器、一个或多个数字信号处理器(DSP)、一个或多个专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)、一个或多个微控制器单元(MCU)、一个或多个硬件加速器、一个或多个专用计算机芯片、以及一个或多个片上系统(SoC)设备。一些示例逻辑电路(诸如ASIC或FPGA)是专门配置用于执行操作的硬件。一些示例逻辑电路是执行机器可读指令以执行操作的硬件。一些示例逻辑电路包括专门配置的硬件和执行机器可读指令的硬件的组合。
如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个明确地定义为机器可读指令(例如,以例如软件和/或固件的形式的程序代码)可被存储在其上的存储介质(例如,硬盘驱动器的盘片、数字多功能盘、光盘、闪存、只读存储器、随机存取存储器等)。进一步,如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个被明确地定义为排除传播信号。也就是说,正如在本专利的任何权利要求中所使用的,“有形机器可读介质”不能被理解为通过传播信号来实现。此外,正如在本专利的任何权利要求中所使用的,“非瞬态机器可读介质”不能被理解为通过传播信号来实现。此外,正如在本专利的任何权利要求中所使用的,“机器可读存储设备”不能被理解为通过传播信号来实现。
另外,如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个都被明确定义为存储介质,在该存储介质上,机器可读指令在任何适当的时间段内(例如,永久地,在延长的时间段内(例如,当与机器可读指令相关联的程序正在执行)和/或短时间段内(例如,当机器可读指令被高速缓存和/或在缓冲处理期间)被存储。
本公开的摘要被提供以允许读者快速地明确本技术公开的性质。提交该摘要,并且理解该摘要将不用于解释或限制权利要求书的范围或含义。此外,在上述具体实现方式中,可以看出出于使本公开整体化的目的,各个特征在各实施例中被编组到一起。这种公开方法不应被解释为反映要求保护的实施例与各项权利要求中明确记载的相比需要更多的特征的意图。相反,如以下权利要求所反映,发明主题在于少于单个公开的实施例的全部特征。因此,以下权利要求由此被结合入具体说明中,其中各个权利要求作为单独要求保护的主题代表其自身。

Claims (20)

1.一种系统,包括:
手持式条形码读取器,所述手持式条形码读取器具有对所述手持式条形码读取器唯一的标识符;以及
增强现实适配器,具有:
照相机,具有视场FOV;
呈现生成器,被配置为基于由所述手持式条形码读取器捕获的第一数据提供增强现实显示,其中所述呈现生成器上的所述增强现实显示的定位是基于所述FOV内所述标识符的位置;
存储器,被配置为存储非瞬态计算机可执行指令;以及
处理器,被配置为与所述呈现生成器、所述照相机和所述存储器通过接口连接,并被配置为执行所述非瞬态计算机可执行指令以使所述处理器:
分析由所述照相机捕获的图像,以标识所述手持式条形码读取器的所述标识符;
基于由与所述标识符相关联的所述手持式条形码读取器捕获的第一数据,接收第二数据;以及
基于所述第二数据,使所述呈现生成器经由所述增强现实显示显示第三数据,其中所述呈现生成器被配置为在显示时间处显示所述第三数据,所述显示时间与所述第一数据被所述手持式条形码读取器捕获的捕获时间基本上同时。
2.如权利要求1所述的系统,其特征在于,所述手持式条形码读取器和所述增强现实适配器经由短程无线连接通信。
3.如权利要求1所述的系统,其特征在于,所述非瞬态计算机可执行指令进一步使所述处理器:
分析由所述照相机捕获的所述图像,以检测所述标识符的移动;
确定所述标识符的所述移动指示用户选择;以及
基于所述用户选择,修改所述增强现实显示。
4.如权利要求3所述的系统,其特征在于,检测所述标识符的所述移动包括检测所述标识符的所述移动的方向,并且其中所述用户选择是基于所述标识符的所述移动的所述方向确定的。
5.如权利要求1所述的系统,其特征在于,所述非瞬态计算机可执行指令进一步使所述处理器:
分析由所述照相机捕获的所述图像,以检测由所述手持式条形码读取器发射的光;
确定由所述手持式条形码读取器发射的所述光指示用户选择;以及
基于所述用户选择,修改所述增强现实显示。
6.如权利要求5所述的系统,其特征在于,确定由所述手持式条形码读取器发射的所述光指示用户选择包括分析由所述照相机捕获的所述图像以确定由所述手持式条形码读取器发射的所述光没有撞击在条形码上。
7.如权利要求5所述的系统,其特征在于,检测由所述手持式条形码读取器发射的所述光包括检测相对于所述标识符的所述位置的所述光的位置,并且其中所述用户选择是基于相对于所述标识符的所述位置的所述光的所述位置确定的。
8.如权利要求1所述的系统,其特征在于,所述非瞬态计算机可执行指令进一步使所述处理器:
分析由所述照相机捕获的所述图像,以标识与所述手持式条形码读取器相关联的第一目标和与所述手持式条形码读取器相关联的第二目标;
分析由所述照相机捕获的所述图像,以确定所述第一目标或所述第二目标中的一个在所述FOV内受阻挡;
确定受阻挡的第一目标或受阻挡的第二目标指示用户选择;以及
基于所述用户选择,修改所述增强现实显示。
9.如权利要求1所述的系统,其特征在于,所述第一目标是所述手持式条形码读取器的第一LED并且所述第二目标是所述手持式条形码读取器的第二LED。
10.一种增强现实适配器,包括:
照相机,具有视场FOV;
呈现生成器,被配置为基于由具有唯一标识符的手持式条形码读取器捕获的第一数据提供增强现实显示,其中所述呈现生成器上的所述增强现实显示的定位是基于所述FOV内所述标识符的位置;
存储器,被配置为存储非瞬态计算机可执行指令;以及
处理器,被配置为与所述呈现生成器、所述照相机和所述存储器通过接口连接,并被配置为执行所述非瞬态计算机可执行指令以使所述处理器:
分析由所述照相机捕获的图像,以标识所述手持式条形码读取器的所述标识符;
基于由与所述标识符相关联的所述手持式条形码读取器捕获的第一数据,接收第二数据;以及
基于所述第二数据,使所述呈现生成器经由所述增强现实显示显示第三数据,其中所述呈现生成器被配置为在显示时间处显示所述第三数据,所述显示时间与所述第一数据被所述手持式条形码读取器捕获的捕获时间基本上同时。
11.如权利要求10所述的增强现实适配器,其特征在于,所述非瞬态计算机可执行指令进一步使所述处理器:
分析由所述照相机捕获的所述图像,以检测所述标识符的移动;
确定所述标识符的所述移动指示用户选择;以及
基于所述用户选择,修改所述增强现实显示。
12.一种计算机实现的方法,包括:
由处理器分析由增强现实适配器的照相机捕获的图像,所述照相机具有视场FOV,以标识对于手持式条形码读取器唯一的标识符和所述FOV内所述标识符的位置;
由所述处理器,基于由与所述标识符相关联的所述手持式条形码读取器捕获的第一数据,接收第二数据;以及
由所述处理器,基于所述第二数据,使所述增强现实适配器的呈现生成器经由增强现实显示显示第三数据,
其中所述增强现实显示在所述呈现生成器上的定位是基于所述FOV内所述标识符的所述位置,并且
其中所述呈现生成器被配置为在显示时间处显示所述第三数据,所述显示时间与所述第一数据被所述手持式条形码读取器捕获的捕获时间基本上同时。
13.如权利要求12所述的计算机实现的方法,其特征在于,所述手持式条形码读取器和所述增强现实适配器经由短程无线连接通信。
14.如权利要求12所述的计算机实现的方法,进一步包括:
由所述处理器分析由所述照相机捕获的所述图像,以检测所述标识符的移动;
由所述处理器确定所述标识符的所述移动指示用户选择;以及
由所述处理器基于所述用户选择,修改所述增强现实显示。
15.如权利要求14所述的计算机实现的方法,其特征在于,检测所述标识符的所述移动包括检测所述标识符的所述移动的方向,并且其中基于所述标识符的所述移动的所述方向确定所述用户选择。
16.如权利要求12所述的计算机实现的方法,进一步包括:
由所述处理器分析由所述照相机捕获的所述图像,以检测由所述手持式条形码读取器发射的光;
由所述处理器确定由所述手持式条形码读取器发射的所述光指示用户选择;以及
由所述处理器基于所述用户选择,修改所述增强现实显示。
17.如权利要求16所述的计算机实现的方法,其特征在于,确定由所述手持式条形码读取器发射的所述光指示用户选择包括分析由所述照相机捕获的所述图像以确定由所述手持式条形码读取器发射的所述光没有撞击在条形码上。
18.如权利要求16所述的计算机实现的方法,其特征在于,检测由所述手持式条形码读取器发射的所述光包括检测相对于所述标识符的所述位置的所述光的位置,并且其中基于相对于所述标识符的所述位置的所述光的所述位置确定所述用户选择。
19.如权利要求12所述的计算机实现的方法,进一步包括:
由所述处理器分析由所述照相机捕获的所述图像,以标识与所述手持式条形码读取器相关联的第一目标和与所述手持式条形码读取器相关联的第二目标;
由所述处理器分析由所述照相机捕获的所述图像,以确定所述第一目标或所述第二目标中的一个在所述FOV内受阻挡;
由所述处理器确定受阻挡的第一目标或受阻挡的第二目标指示用户选择;以及
由所述处理器基于所述用户选择,修改所述增强现实显示。
20.如权利要求19所述的计算机实现的方法,其特征在于,所述第一目标是所述手持式条形码读取器的第一LED并且所述第二目标是所述手持式条形码读取器的第二LED。
CN202010659002.7A 2019-07-10 2020-07-09 使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法 Active CN112286374B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/507,900 2019-07-10
US16/507,900 US10699087B1 (en) 2019-07-10 2019-07-10 Alternative method to interact with a user interface using standard barcode scanners paired up with an augmented reality heads up display

Publications (2)

Publication Number Publication Date
CN112286374A true CN112286374A (zh) 2021-01-29
CN112286374B CN112286374B (zh) 2022-07-05

Family

ID=71125235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010659002.7A Active CN112286374B (zh) 2019-07-10 2020-07-09 使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法

Country Status (6)

Country Link
US (1) US10699087B1 (zh)
KR (1) KR102228340B1 (zh)
CN (1) CN112286374B (zh)
CA (1) CA3086019C (zh)
DE (1) DE102020117985B4 (zh)
GB (1) GB2583044B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019118965A1 (de) * 2019-07-12 2021-01-14 Workaround Gmbh Nebengerät für ein Sensor- und/oder Informationssystem sowie Sensor- und/oder Informationssystem
US11855831B1 (en) 2022-06-10 2023-12-26 T-Mobile Usa, Inc. Enabling an operator to resolve an issue associated with a 5G wireless telecommunication network using AR glasses
US11886767B2 (en) 2022-06-17 2024-01-30 T-Mobile Usa, Inc. Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632151A (zh) * 2012-08-21 2014-03-12 康耐视公司 可训练的手持式光学字符识别系统与方法
CN107106905A (zh) * 2015-01-04 2017-08-29 佩美克西斯有限公司 三维彩票
CN109117684A (zh) * 2017-06-26 2019-01-01 手持产品公司 用于在双目增强现实设备上选择性扫描的系统和方法
US20190018992A1 (en) * 2017-07-12 2019-01-17 Hand Held Products, Inc. System and method for augmented reality configuration of indicia readers
US20190101756A1 (en) * 2017-09-29 2019-04-04 Hand Held Products, Inc. Scanning device
CN109814719A (zh) * 2018-07-26 2019-05-28 亮风台(上海)信息科技有限公司 一种基于穿戴眼镜的显示信息的方法与设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018188A (ja) * 2005-07-06 2007-01-25 Hitachi Ltd 拡張現実感による情報提示システム、情報提示方法、情報提示装置およびコンピュータプログラム
US9289018B2 (en) * 2011-01-19 2016-03-22 Tcb Encore, Llc Interactive point of purchase system
US9946963B2 (en) * 2013-03-01 2018-04-17 Layar B.V. Barcode visualization in augmented reality
KR102138511B1 (ko) * 2013-08-28 2020-07-28 엘지전자 주식회사 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법
US10108832B2 (en) * 2014-12-30 2018-10-23 Hand Held Products, Inc. Augmented reality vision barcode scanning system and method
US9390596B1 (en) * 2015-02-23 2016-07-12 Hand Held Products, Inc. Device, system, and method for determining the status of checkout lanes
US10083544B2 (en) * 2015-07-07 2018-09-25 Google Llc System for tracking a handheld device in virtual reality
US20170367124A1 (en) 2016-06-15 2017-12-21 Symbol Technologies, Llc Arrangement for, and method of, establishing a bluetooth® paired connection between a wireless, electro-optical reader and one or more hosts
US10573089B2 (en) * 2017-11-09 2020-02-25 The Boeing Company Systems, methods, and tools for spatially-registering virtual content with physical environment in augmented reality platforms

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632151A (zh) * 2012-08-21 2014-03-12 康耐视公司 可训练的手持式光学字符识别系统与方法
CN107832760A (zh) * 2012-08-21 2018-03-23 康耐视公司 可训练的手持式光学字符识别系统与方法
CN107106905A (zh) * 2015-01-04 2017-08-29 佩美克西斯有限公司 三维彩票
CN109117684A (zh) * 2017-06-26 2019-01-01 手持产品公司 用于在双目增强现实设备上选择性扫描的系统和方法
US20190018992A1 (en) * 2017-07-12 2019-01-17 Hand Held Products, Inc. System and method for augmented reality configuration of indicia readers
US20190101756A1 (en) * 2017-09-29 2019-04-04 Hand Held Products, Inc. Scanning device
CN109814719A (zh) * 2018-07-26 2019-05-28 亮风台(上海)信息科技有限公司 一种基于穿戴眼镜的显示信息的方法与设备

Also Published As

Publication number Publication date
GB202010511D0 (en) 2020-08-19
GB2583044B (en) 2021-08-11
DE102020117985B4 (de) 2022-01-05
CN112286374B (zh) 2022-07-05
DE102020117985A1 (de) 2021-01-14
GB2583044A (en) 2020-10-14
US10699087B1 (en) 2020-06-30
KR102228340B1 (ko) 2021-03-15
KR20210007890A (ko) 2021-01-20
CA3086019C (en) 2021-07-13
CA3086019A1 (en) 2021-01-10

Similar Documents

Publication Publication Date Title
CN112286374B (zh) 使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法
US11029762B2 (en) Adjusting dimensioning results using augmented reality
US9773145B2 (en) Encoded information reading terminal with micro-projector
US8534556B2 (en) Arrangement for and method of reducing vertical parallax between an aiming pattern and an imaging field of view in a linear imaging reader
US9747482B2 (en) Aimer accessory for capturing a coded image
JP2016126797A (ja) 加速度に基づく動き許容および予測符号化
JP6187067B2 (ja) 座標検出システム、情報処理装置、プログラム、記憶媒体、座標検出方法
US9959442B2 (en) Extended depth of field in imaging machine-readable symbol reader using image side telecentric lens
EP2711809A2 (en) Position detection apparatus
US20130126596A1 (en) Methods and apparatus for detecting indicia and projecting images related to the detected indicia
US20160300093A1 (en) System for capturing a coded image
AU2019403819B2 (en) Swipe scanning for variable focus imaging systems
US10762318B2 (en) Light projected feedback for guiding hand movements
US10621398B2 (en) Methods and systems for operating an indicia scanner
US10360424B2 (en) Illuminator for DPM scanner
US20220198163A1 (en) Aim Light Assemblies For Use in Barcode Readers and Methods and Systems Associated Therewith
US9361496B2 (en) Apparatus for and method of audibly guiding a user to a selected target from an array of targets
WO2019094164A1 (en) Methods and apparatus for rapid dimensioning an object
US10380392B2 (en) Variable orientation scan engine
US9704007B2 (en) Illumination with wedge-shaped optical element
US10210366B2 (en) Imaging scanner with positioning and display

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant