CN111316059B - 使用邻近设备确定对象尺寸的方法和装置 - Google Patents
使用邻近设备确定对象尺寸的方法和装置 Download PDFInfo
- Publication number
- CN111316059B CN111316059B CN201880071814.0A CN201880071814A CN111316059B CN 111316059 B CN111316059 B CN 111316059B CN 201880071814 A CN201880071814 A CN 201880071814A CN 111316059 B CN111316059 B CN 111316059B
- Authority
- CN
- China
- Prior art keywords
- image capture
- capture device
- image
- processor
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 239000002131 composite material Substances 0.000 claims abstract description 6
- 230000015654 memory Effects 0.000 claims description 19
- 238000004513 sizing Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000012092 media component Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/012—Dimensioning, tolerancing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/027—Services making use of location information using location based information parameters using movement velocity, acceleration information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了方法和装置,用于通过征集邻近设备以从多个角度获取表示对象的图像数据来确定对象的尺寸。一种示例方法包括由第一图像捕获设备从第一角度捕获表示对象的第一图像数据;确定第二图像捕获设备是否在第一图像捕获设备的邻近;以及当第二图像捕获设备在第一图像捕获设备的邻近时,向第二图像捕获设备发送用于从第二角度表示对象的第二图像数据的请求,其中第一图像数据和第二图像数据可组合以形成对象的复合表示。
Description
背景技术
在库存环境中,诸如零售商店、仓库、运输设施等,了解对象(诸如盒)的尺寸是很有用的。
附图说明
附图(其中相同的附图标记在全部单独的视图中指示相同的或功能类似的要素)连同下面的详细描述被包括于此并形成说明书的一部分,并用来进一步图示本文公开的概念的实施例,以及解释那些实施例的各种原理和优势。
图1是根据本公开的教导构造的示例HUD组件的框图。
图2A和图2B示出了可以实现图1的示例HUD组件的示例HUD组件。
图3示出了安装至用户头部的图2A和图2B的示例HUD组件。
图4示出了安装至示例HUD组件的示例照相机。
图5A示出了佩戴具有安装至示例HUD组件的照相机的示例HUD组件的用户,并且用户正在观看要被确定尺寸的示例盒对象。
图5B示出了佩戴具有安装至示例HUD组件的照相机的示例HUD组件的多个用户,并且每一个用户正在观看要被确定尺寸的示例盒对象。
图5C示出了在示例安装的照相机的视场内要被确定尺寸的示例盒对象,以及佩戴具有安装至示例HUD组件的照相机的示例HUD组件的用户,并且用户正在观看要被确定尺寸的示例盒对象。
图6是表示根据本公开的教导配置的示例逻辑电路的框图。
图7是本文公开的用于征集从多个角度捕获表示对象的图像数据的邻近图像捕获设备的示例方法的流程图。
具体实施方式
本发明提供了一种系统和方法,用于通过征集邻近图像捕获设备以从多个角度获取表示对象的图像数据来确定对象的尺寸。虽然来自单个图像捕获设备的来自单个角度的图像数据可能足以确定对象的一个或多个尺寸,但是仍通过来自例如不同角度的附加图像数据的可用性来增强尺寸确定操作(例如,计算)。也就是说,当确定例如在图像数据中出现的对象的尺寸时,指示对象的不同侧面的信息是有用的。本文公开的示例检测到一个或多个辅助图像捕获设备与主图像捕获设备邻近(例如,在阈值距离内)。作为对(多个)此类检测的响应,本文中公开的示例请求邻近图像捕获设备获取对象的带有时间戳的图像数据,使得相对应的附加信息可以用于(例如)生成对象的复合表示,该复合表示比从单个角度图生成的表示更精细。表示中包含的附加信息提高了确定尺寸操作的准确度和速度。
图1是根据本公开的教导构造的示例HUD组件100的框图。图1的示例HUD组件100的替代实现方式包括一个或多个附加或替代元件、过程和/或设备。在一些示例中,可以组合、分割、重新布置或省略图1的示例HUD组件100的元件、过程和/或设备中的一个或多个。虽然本文公开的示例是结合作为主要图像捕获设备的HUD组件来描述的,但是本文公开的示例可以用于附加或替代设备,诸如配备有显示器和照相机(例如,立体照相机和/或深度传感器)的能够获取图像数据并且确定对象尺寸的手持移动计算机。如本文所使用的,图像数据是指可以用于确定对象尺寸的任何适当类型的数据。例如,在一些示例中,捕获的图像数据是二维图像,诸如由立体照相机捕获的图片和/或一对图片。在一些示例中,捕获的图像数据是坐标处的深度值。在一些示例中,捕获的图像数据是坐标处的RGB值和坐标处的深度值的组合(有时称为体素)。
图1的示例HUD组件100包括呈现生成器102和头戴件104。头戴件104构造为将呈现生成器102安装到人的头部,使得由呈现生成器102生成的呈现可由人消费。该呈现包括可视媒体部件(例如,图像)和/或音频媒体部件。为了生成诸如静态或动画文本和/或图形的图像,图1的示例呈现生成器102包括图像生成器106。图1的示例图像生成器106与一个或多个图像数据源通信。在图像生成器106处接收到的图像数据表示例如,文本、图形和/或增强现实元素(例如,覆盖在视场内的对象上的信息)。
在所示的示例中,呈现生成器106被配置为显示例如与HUD组件100发送到邻近图像捕获设备的多个请求相关联的一个或多个消息或指示器,其中,上述请求是让邻近图像捕获设备获取表示HUD组件100的用户所持有的对象的带时间戳的图像数据。附加地或替代地,呈现生成器106可以被配置为显示表明一个或多个邻近图像捕获设备已接受该请求和/或已捕获所请求的图像数据的一个或多个消息或指示器。
图1的示例图像生成器106利用光源108和显示器/光学器件110来呈现该呈现的视觉部件。在一些示例中,示例性图像生成器106包括利用光源108(例如,发光二极管(LED))基于接收到的数据来生成光的光引擎。在一些示例中,光引擎接收处理过的数据,该处理过的数据处于可立即转换成光的状况下。在其他示例中,光引擎在将图像数据转换成光之前处理原始图像数据。例如,为了执行此类处理,光引擎包括与被配置为处理图像数据的一个或多个逻辑电路和/或与被配置为处理图像数据的一个或多个逻辑电路通信。
光引擎将接收到的图像数据转换成光的模式和脉冲,并将生成的光通信到显示器/光学器件110,使得与接收到的数据相对应的图像经由显示器/光学器件110显示给用户。在一些示例中,光引擎包括在将光提供给显示器/光学器件110之前调节或操纵(例如,偏振和/或准直)所生成的光的光学器件。
在一些示例中,显示器/光学器件110包括波导,该波导将从光引擎接收到的光以与图像数据相对应的方向和模式携带。在一些示例中,该波导包括多个内表面,该内表面形成光导,以在光从输入到输出行进时内部地反射光。例如,波导在输出端处包括光栅,以使光朝向用户的眼睛衍射,从而向用户显示图像。此外,在一些示例中,波导包括第一透镜和第二透镜,该第一透镜和第二透镜被布置成分别放置在用户的第一眼睛和第二眼睛上。然而,任何合适的形状或尺寸对于此类波导都是可能的。在一些示例中,波导是透明的,使得用户可以与显示的图像同时查看周围环境,或者仅当波导上没有图像显示时才查看周围环境。
虽然示例图像生成器106利用光源108和显示器/光学器件110来呈现该呈现的视觉部件,但是图1的示例HUD组件100可以采用任何合适的图像生成技术,诸如阴极射线管(CRT)设备或扫描激光器。
图1的示例呈现生成器102包括音频生成器112,音频生成器112接收音频数据并经由耳机插孔114和/或扬声器116将该音频数据转换成声音。例如,音频生成器112可以生成声音以指示邻近图像捕获设备已接受获取对象的图像数据的请求和/或邻近图像捕获设备已获取所请求的图像数据。在一些示例中,音频生成器112和图像生成器106协同生成视听呈现。
在图1的示例中,示例呈现生成器102包括(例如,容纳)多个传感器118。在图1的示例中,多个传感器118包括光传感器120、运动传感器122(例如,加速计)、陀螺仪124、麦克风126和邻近传感器127。在一些示例中,由示例图像生成器106和/或音频生成器112生成的呈现受由一个或多个传感器118生成的一个或多个测量和/或检测的影响。例如,由图像生成器106生成的显示的特性(例如,不透明度)可以取决于由光传感器120检测到的环境光的强度。附加地或替代地,通过由一个或多个传感器118生成的测量和/或检测来确定一个或多个模式、操作参数或设置。例如,如果运动传感器122在阈值时间量内没有检测到运动,则呈现生成器102可以进入待机模式。
在示出的示例中,邻近传感器127被配置为向例如,位于HUD组件100的范围内的服务器和/或其他图像捕获设备提供与HUD组件100相关联的位置和/或移动信息。在一些示例中,邻近传感器127与由其他图像捕获设备携带的其他邻近传感器协调,以确定图像捕获设备中的一个或多个是否在彼此的阈值距离内(即,彼此邻近)。例如,邻近传感器127可以尝试(例如,经由蓝牙通信设备)与同样配备有类似(例如,根据相同的通信协议操作)传感器的周围的设备进行配对。在一些示例中,HUD组件100和其他图像捕获设备使用基于RFID的定位系统经由邻近传感器127和由其他图像捕获设备携带的其他类似传感器是可定位的。例如,邻近传感器127可以被配置为传输射频(RF)闪烁,该射频(RF)闪烁由能够基于该闪烁来定位HUD组件100的固定RFID读取器来读取(例如,经由三角测量技术)。在一些示例中,邻近传感器127是基于卫星的传感器,该传感器能够基于例如,同样知道其他图像捕获设备的位置的GPS系统来提供定位信息。在此类实例中,可以比较不同图像捕获设备的位置以确定图像捕获设备中的任意一个是否彼此邻近。在一些示例中,邻近传感器127提供与HUD组件100相关联的移动和/或位置信息,例如,俯仰、横滚、偏航、高度和航向信息。在一些示例中,邻近传感器127限定局部几何或坐标系以及与HUD组件100相关联的坐标系上的相对应的位置。例如,当HUD组件100被初始化(例如,通电)时,邻近传感器127可以在坐标系中将HUD组件的起始位置记录为0、0、0。在此类实例中,当用户移动时,邻近传感器127更新HUD组件100的位置。此外,在此类实例中,其他图像捕获设备具有坐标系中的位置(例如,静态图像捕获设备的固定位置和移动图像捕获设备(例如,其他HUD组件或手持移动计算设备)的更新位置)。因此,根据坐标系,在阈值距离内的图像捕获设备被视为邻近设备。在一些示例中,邻近传感器127利用信号强度(例如,WiFi信号的强度)系统来相对于彼此和/或相对于坐标系定位HUD组件100和/或其他图像捕获设备。
如本文中详细描述的,由邻近传感器127提供的数据用于征集邻近图像捕获设备以获取表示由HUD组件100(即,主图像捕获设备)正在进行尺寸确定的对象的附加图像数据。
图1的示例呈现生成器102包括照相机子系统128。在一些示例中,照相机子系统128安装在与呈现生成器102相同的壳体上或由与呈现生成器102相同的壳体携带。在一些示例中,照相机子系统128安装至头戴件104或由头戴件104携带。示例照相机子系统128包括两个照相机130和麦克风132,以分别捕获表示HUD组件100周围的环境的图像数据和音频数据。在一些示例中,照相机子系统128包括一个或多个深度传感器,以检测视场中的对象与HUD组件100之间的距离。在一些示例中,由照相机130和/或麦克风132捕获的图像和/或音频数据与由图像生成器106和/或音频生成器112生成的呈现集成。例如,图1的照相机子系统128将数据通信到图像生成器102,图像生成器102可以处理图像数据以在显示器/光学器件110上生成一个或多个相对应的图像。在一些示例中,分别由照相机130和/或麦克风132捕获的图像数据和/或音频数据存储在示例HUD组件100的存储器135中。在一些示例中,分别由照相机130和/或麦克风132捕获的图像数据和/或音频数据经由例如照相机子系统128的USB接口134通信到HUD组件100外部的设备(例如,服务器或外部存储器)。
图1的示例呈现生成器102包括多个接口136,多个接口136被配置为使得HUD组件100能够与一个或多个外部设备136和一个或多个网络138通信。在图1的示例中,接口136包括将数据从一种格式转换为另一种格式的转换器140(例如,HDMI到LVDS-RGB转换器)、USB接口144和蓝牙音频发射器146。在一些示例中,示例蓝牙音频发射器146与HUD组件100的麦克风126、132中的一个或两个协同以接收来自用户的语音输入并将该语音输入传送到外部设备136中的一个或多个。例如,可以使用蓝牙音频发射器146经由HUD组件100向用户正在佩戴的移动计算设备提供语音输入。示例外部设备136包括键盘、蓝牙点击按钮、智能手表和移动计算设备。
示例图像生成器106、示例光源108、示例音频生成器112、示例照相机子系统128、示例转换器140、示例USB接口134、144和/或更一般地,图1的示例呈现生成器102通过硬件、软件、固件和/或硬件、软件和/或固件的任何组合来实现。在一些示例中,示例图像生成器106、示例光源108、示例音频生成器112、示例照相机子系统128、示例转换器140、示例USB接口134、144和/或更一般地,图1的示例呈现生成器102中的至少一个由逻辑电路实现。如本文所使用的,术语“逻辑电路”明确地定义为包括至少一个硬件部件的物理设备,该硬件部件被配置(例如,经由根据预定配置的操作和/或经由存储的机器可读指令的执行)为控制一个或多个机器和/或执行一个或多个机器的操作。逻辑电路的示例包括一个或多个处理器、一个或多个协处理器、一个或多个微处理器、一个或多个控制器、一个或多个数字信号处理器(DSP)、一个或多个专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)、一个或多个微控制器单元(MCU)、一个或多个硬件加速器、一个或多个专用计算机芯片、以及一个或多个片上系统(SoC)设备。一些示例逻辑电路(诸如ASIC或FPGA)是专门配置用于执行操作的硬件。一些示例逻辑电路是执行机器可读指令以执行操作的硬件。一些示例逻辑电路包括专门配置的硬件和执行机器可读指令的硬件的组合。
如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个明确地定义为机器可读指令(例如,以例如软件和/或固件的形式的程序代码)可被存储在其上的存储介质(例如,硬盘驱动器的盘片、数字多功能盘、光盘、闪存、只读存储器、随机存取存储器等)。进一步,如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个被明确地定义为排除传播信号。也就是说,正如在本专利的任何权利要求中所使用的,“有形机器可读介质”不能被理解为通过传播信号来实现。此外,正如在本专利的任何权利要求中所使用的,“非瞬态机器可读介质”不能被理解为通过传播信号来实现。此外,正如在本专利的任何权利要求中所使用的,“机器可读存储设备”不能被理解为通过传播信号来实现。
如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个都被明确定义为存储介质,在该存储介质上,机器可读指令在任何适当的时间段内(例如,永久地,在延长的时间段内(例如,当与机器可读指令相关联的程序正在执行)和/或短时间段内(例如,当机器可读指令被高速缓存和/或在缓冲处理期间)被存储。
图2A和图2B示出了可以实现图1的示例HUD组件100的示例HUD组件200。图2B的示例HUD组件200包括呈现生成器202和示例头戴件204。图2B的示例呈现生成器202容纳或携带部件,该部件被配置为生成例如供佩戴图2B的示例HUD组件200的用户使用的视听呈现。例如,图2B的呈现生成器202容纳或携带图1的示例呈现生成器102的部件。
图3示出了安装至用户头部300的图2A和图2B的示例HUD组件200。
图4示出了实现例如图1的照相机130的示例照相机402。如上所述,照相机402可以被配置为当佩戴HUD组件200的用户观看盒对象时,捕获表示盒对象和用户的手的图像数据。当图4的示例照相机402被定位在每一个目镜的上方时,照相机可以被定位在任何合适的位置,例如,在框架的边缘。例如,图5A示出了佩戴HUD组件200的用户,并且通过安装在头部安装架的侧面的示例照相机502来观看盒对象,捕获包括盒对象和用户的手的图像数据。
图5B示出了佩戴具有安装至示例HUD组件的照相机的示例HUD组件的多个用户,并且每一个用户正在观看要被确定尺寸的示例盒对象。如图5B所示,佩戴示例HUD组件200的第一用户保持盒对象,而佩戴示例HUD组件510的第二用户观看同一盒对象。当用户面对同一盒对象时,安装到其各自的HUD组件200、510上的照相机(未示出)各自被定位以从多个角度捕获盒对象的图像数据。
图5C示出了在示例安装的照相机的视场内要被确定尺寸的示例盒对象,以及佩戴具有安装至示例HUD组件的照相机的示例HUD组件的用户,并且用户正在观看要被确定尺寸的示例盒对象。如图5C所示,佩戴示例HUD组件200的用户保持盒对象,而照相机520(例如,安装的顶置照相机)朝向同一盒对象。因此,HUD组件200的照相机(未示出)和安装的照相机520各自被定位以从多个角度捕获盒对象的图像数据。
图6是表示可以用于实现例如图1的示例图像生成器106、示例光源108、示例接口136和/或示例音频生成器112中的一个或多个的示例逻辑电路的框图。图6的示例逻辑电路是能够执行例如,实现与图1的示例HUD组件100相关联的操作的机器可读指令的处理平台600。
图6的示例处理平台600包括处理器602,诸如,例如,一个或多个微处理器、控制器和/或任何合适类型的处理器。图6的示例处理平台600包括由处理器602可访问(例如,经由存储器控制器)的存储器(例如,易失性存储器、非易失性存储器)。示例处理器602与存储器604交互以获取例如存储在存储器604中的机器可读指令。附加地或替代地,机器可读指令可以存储在一个或多个可移动介质(例如,光盘、数字多功能盘、可移动闪存等)上,该可移动介质可以耦合到处理平台600以提供对存储在其上的机器可读指令的访问。具体地,存储在存储器604上的机器可读指令可以包括用于执行下文在图7中更详细描述的任何方法的指令。
图6的示例处理平台600进一步包括网络接口606,以实现经由例如一个或多个网络与其他机器的通信。示例网络接口606包括被配置为根据任何合适的(多个)协议操作的任何合适类型的(多个)通信接口(例如,有线接口和/或无线接口)。图6的示例处理平台600包括输入/输出(I/O)接口608,以使得能够接收用户输入并将输出数据通信给用户。
图6的示例处理平台600可以被配置为使用经由本文公开的示例捕获的图像数据执行尺寸确定操作。用于测量对象尺寸的任何合适的技术适用于本文所公开的示例。例如,在2013年12月16日提交的美国专利No.9,741,134中公开了用于使用例如,由HUD组件100和/或附加图像捕获设备捕获的图像数据来确定盒对象尺寸的方法和装置,该专利通过引用并入本文中。可以结合本文公开的用于确定对象尺寸的示例使用的附加或替代方法和装置包括点云生成器和用于测量对象的点云数据分析。
图7是示出根据本发明的教导的示例方法的流程图。虽然结合图1的示例HUD组件100来描述图7的示例,但是图7的示例可以结合附加或替代类型的图像捕获设备来实现,诸如具有图像捕获设备的手持移动计算设备。
在框700处,HUD组件100和/或尺寸确定系统的其他部件(例如,其他移动图像捕获设备,诸如附加HUD组件,和/或固定位置图像捕获设备,诸如安装在尺寸确定区中的照相机)正在起动(例如,通电)。在框702处,起动包括定义用于本文描述的邻近度确定的局部几何体。例如,可以在起点(0,0,0)处初始化坐标系。
在框704处,确定HUD组件100的位置(例如,经由邻近传感器127),并且该位置随着HUD组件100的移动而持续更新。在示出的示例中,收集与HUD组件100相关联的多个位置和移动信息,例如,俯仰、横滚、偏航、高度和航向信息。在一些示例中,确定HUD组件100的位置包括校准HUD组件,例如,如美国专利No.9,952,432所描述。
如果接收到尺寸确定请求(框706)(例如,由用户的输入触发,或由定位传感器检测到对象当前处于目标位置或在用于尺寸确定的目标范围内),则HUD组件100的图像捕获装备捕获表示HUD组件的视场的图像数据(例如,二维和/或三维数据),该图像数据包括要确定尺寸的对象(例如,盒)。在图7的示例中,使用环境中的其他图像捕获设备可访问的参考时钟对捕获的图像数据标记时间戳。
在框710处,识别由邻近传感器127和/或与邻近传感器127和其他图像捕获设备的类似邻近传感器通信的处理部件确定的与HUD组件邻近的图像捕获设备。
在一个示例中,处理器(例如,作为实时定位系统(RTLS)的部分)接收指示HUD组件100的当前位置的数据,以及指示至少一个次要图像捕获设备的当前位置的数据。次要图像捕获设备可以包括例如,其他移动图像捕获设备(诸如附加HUD组件),和/或固定位置图像捕获设备(诸如安装在尺寸确定区中的相机)。在一些示例中,处理器接收指示许多次要图像捕获设备的当前位置的数据。基于来自HUD组件100和各种次要图像捕获设备的位置数据,处理器计算HUD组件100和次要图像捕获设备中的每一个之间的距离,以确定次要图像捕获设备中的任一个是否在HUD组件的邻近距离阈值(例如,5英尺、10英尺、100英尺等)内。
作为附加或替代示例,各种次要图像捕获设备传输可由HUD组件的传感器(例如,邻近传感器)检测到的短程无线信号(例如,蓝牙信号)。基于此类信号的已知范围,当HUD组件接收到信号时,确定次要图像捕获设备在HUD组件的邻近距离阈值内。相反,当HUD组件未能接收到信号时,确定次要图像捕获设备在HUD组件的邻近距离阈值之外。
此外,HUD组件100和/或与HUD组件100(例如,服务器)通信的处理部件向被标识为邻近HUD组件100的次要图像捕获设备中的每一个发送请求。该请求指示HUD组件100正在确定HUD组件100的位置处的对象的尺寸,并且请求该位置处对象的附加图像数据。在一些示例中,次要图像捕获设备是针对在特定点处的固定图像捕获设备。在此类实例中,当对象位于视场内时,图像捕获设备可以对对象进行成像。替代地,当其他图像捕获设备是具有动态视场的移动设备时,图像捕获设备可以确定(例如,基于它们的航向、位置、俯仰、横滚和偏航)对象何时在视场中,并且当对象在动态视场中对对象进行成像。
在框712处,(多个)邻近次要图像捕获设备从与HUD组件100的角度不同的(多个)角度捕获表示对象的图像数据。例如,如图5B所示,第一HUD组件以第一角度面对对象,并从一个角度捕获图像数据,而在第一HUD组件的邻近范围内(即,在阈值距离内)的次要HUD组件以第二角度面对对象,并从另一个角度捕获图像数据。类似地,如图5C所示,HUD组件以第一角度面对对象,并从一个角度捕获图像数据,而在该第一HUD组件的邻近范围内(即,在阈值距离内)的安装的照相机以第二角度面对对象,并从另一个角度捕获图像数据。捕获的图像数据使用与主图像捕获设备相同的参考来标记时间戳,并被提供给数据库。
在框714处,尺寸确定处理器(例如,与HUD组件100通信的服务器或HUD组件100的处理器)接收由HUD组件100和任何邻近图像捕获设备捕获的图像数据。尺寸确定处理器根据公共(例如,在阈值时间量内)时间戳将来自不同源的图像数据关联起来。
在框716处,尺寸确定处理器将来自不同源的图像数据的不同实例进行组合,以形成对象的复合表示。在示出的示例中,尺寸确定处理器生成集成了图像数据的不同实例的组合点云。然而,在图像数据不是点云数据的替代示例中,尺寸确定处理器以替代的方式将图像数据进行组合以形成对象的复合表示。
在框718处,尺寸确定处理器从其他数据(例如,背景数据)分割点云,并基于分割的点云计算对象的一个或多个尺寸。在一些示例中,尺寸确定处理器为一个或多个尺寸分配置信分数。在一些示例中,尺寸确定处理器将一个或多个尺寸通信到HUD组件100,并将结果显示在其上。
在框720处,报告和/或存储一个或多个尺寸。如果对象的尺寸确定过程完成(框722),则控制行进到框724。否则,对象的尺寸确定过程将继续。
在框724处,如果系统断电,则退出该过程(框726)。否则,从块724,控制可以返回到块706以确定是否已经发出另一个尺寸确定的请求。
这些益处、优势、问题解决方案以及可能使任何益处、优势或解决方案发生或变得更为突出的任何(多个)要素不被解释成任何或所有权利要求的关键的、必需的或必要的特征或要素。
此外,在该文档中,诸如第一和第二、顶部和底部等之类的关系术语可单独地用来将一个实体或动作与另一个实体或动作区别开,而不一定要求或暗示这些实体或动作之间具有任何实际的这种关系或顺序。术语“包括”、“包括有”、“具有”、“具备”、“包含”、“包含有”、“涵盖”、“涵盖有”或它们的任何其他变型旨在覆盖非排他性包括,以使包括、具有、包含、涵盖一要素列表的过程、方法、物品或装置不仅包括那些要素还可包括对该过程、方法、物品或装置未明确列出的或固有的其他要素。以“包括一”、“具有一”、“包含一”、“涵盖一”开头的要素,在没有更多约束条件的情形下,不排除在包括、具有、包含、涵盖该要素的过程、方法、物品或装置中有另外的相同要素存在。术语“一”和“一个”被定义为一个或更多个,除非本文中另有明确声明。术语“基本上”、“大致上”、“近似”、“约”或这些术语的任何其他版本被定义为如本领域内技术人员理解的那样接近,并且在一个非限定性实施例中,这些术语被定义为在10%以内,在另一实施例中在5%以内,在另一实施例中在1%以内,而在另一实施例中在0.5%以内。本文中使用的术语“耦合的”被定义为连接的,尽管不一定是直接连接的也不一定是机械连接的。以某种方式“配置”的设备或结构至少以该种方式进行配置,但也可以以未列出的方式进行配置。
要理解,一些实施例可以包括一个或多个通用或专用处理器(或“处理设备”),例如微处理器、数字信号处理器、定制的处理器和现场可编程门阵列(FPGA)以及唯一存储的程序指令(包括软件和固件两者),所述唯一存储的程序指令控制一个或多个处理器以连同某些非处理器电路实现本文所描述的方法和/或装置的一些、多数或全部功能。替代地,一些或全部功能可以由无存储程序指令的状态机来实现,或者在一种或多种专用集成电路(ASIC)中实现,其中各种功能或某些功能的某些组合被实现为定制逻辑。当然,也可以使用这两种方法的组合。
此外,实施例可以实现为计算机可读存储介质,该计算机可读存储介质具有存储在其上的计算机可读代码,用于对(例如包括处理器的)计算机编程以执行如本文所描述和要求保护的方法。这种计算机可读存储介质的示例包括但不限于硬盘、CD-ROM、光存储器件、磁存储器件、ROM(只读存储器)、PROM(可编程只读存储器)、EPROM(可擦除可编程只读存储器)、EEPROM(电可擦除可编程只读存储器)以及闪存。此外,预期本领域普通技术人员虽然做出由例如可用时间、当前技术和经济考虑促动的可能显著的努力以及许多设计选择,但在得到本文所公开的构思和原理指导时,将容易地能以最少的试验产生此类软件指令和程序以及IC。
Claims (20)
1.一种用于征集邻近图像捕获设备以从多个角度捕获表示对象的图像数据的计算机实现的方法,所述方法包括:
通过第一图像捕获设备,从第一角度捕获表示对象的第一图像数据;
通过处理器,确定第二图像捕获设备是否在所述第一图像捕获设备的邻近;以及
当所述第二图像捕获设备在所述第一图像捕获设备的邻近时,向所述第二图像捕获设备发送请求以使得所述第二图像捕获设备捕获从第二角度表示所述对象的第二图像数据,其中,所述第一图像数据和所述第二图像数据能组合以形成所述对象的复合表示。
2.如权利要求1所述的计算机实现的方法,其特征在于,所述第一图像捕获设备是平视显示组件。
3.如权利要求1所述的计算机实现的方法,其特征在于,所述第一图像捕获设备是与第一用户相关联的第一平视显示组件,而所述第二图像捕获设备是与第二用户相关联的第二平视显示组件。
4.如权利要求1所述的计算机实现的方法,其特征在于,所述第一图像捕获设备是与第一用户相关联的移动设备,而所述第二图像捕获设备是静止设备。
5.如权利要求1所述的计算机实现的方法,进一步包括:
接收用户请求以捕获表示所述对象的图像数据;以及
基于所述用户请求,触发所述第一图像捕获设备以捕获所述第一图像数据。
6.如权利要求1所述的计算机实现的方法,进一步包括:
通过传感器,检测所述对象当前处于进行尺寸确定的目标位置或目标范围内;以及
通过所述处理器,触发所述第一图像捕获设备,以基于位于所述目标位置或所述目标范围内的所述对象来捕获所述第一图像数据。
7.如权利要求1所述的计算机实现的方法,其特征在于,确定所述第二图像捕获设备是否在所述第一图像捕获设备的邻近包括:
通过处理器,从所述第一图像捕获设备接收指示所述第一图像捕获设备的位置的数据;
通过处理器,从所述第二图像捕获设备接收指示所述第二图像捕获设备的位置的数据;
通过处理器,基于所述第一图像捕获设备的所述位置和所述第二图像捕获设备的所述位置,计算所述第一图像捕获设备和所述第二图像捕获设备之间的距离;以及
通过处理器,确定所述第一图像捕获设备和所述第二图像捕获设备之间的计算距离是否在邻近距离阈值内。
8.如权利要求1所述的计算机实现的方法,其特征在于,确定所述第二图像捕获设备是否在所述第一图像捕获设备的邻近包括:
通过处理器,从固定RFID读取器接收关于所述固定RFID读取器已接收由所述第一图像捕获设备传输的RF闪烁的指示;
通过处理器,基于来自所述固定RFID读取器的所述指示,来确定所述第一图像捕获设备的位置;
通过处理器,从所述固定RFID读取器接收关于所述固定RFID读取器已接收由所述第二图像捕获设备传输的RF闪烁的指示;
通过处理器,基于来自所述固定RFID读取器的所述指示,来确定所述第二图像捕获设备的所述位置;
通过处理器,基于所述第一图像捕获设备的所述位置和所述第二图像捕获设备的所述位置,计算所述第一图像捕获设备和所述第二图像捕获设备之间的距离;以及
通过处理器,确定所述第一图像捕获设备和所述第二图像捕获设备之间的计算距离是否在邻近距离阈值内。
9.如权利要求1所述的计算机实现的方法,其特征在于,确定所述第二图像捕获设备是否在所述第一图像捕获设备的邻近包括:
通过所述第一图像捕获设备,检测由所述第二图像捕获设备传输的短程无线信号;以及
基于所检测的短程无线信号,确定所述第二图像捕获设备在所述第一图像捕获设备的邻近。
10.如权利要求1所述的计算机实现的方法,进一步包括:
组合所述第一图像数据和所述第二图像数据以渲染三维点云;以及
使用所述三维点云确定所述对象的尺寸。
11.一种用于征集邻近图像捕获设备以从多个角度捕获表示对象的图像数据的系统,所述系统包括:
多个图像捕获设备;
存储器,被配置为存储计算机可执行指令;以及
处理器,被配置为与所述多个图像捕获设备和所述存储器通过接口连接,并且被配置为执行计算机可执行指令以使处理器:
通过第一图像捕获设备,从第一角度捕获表示对象的第一图像数据;
确定第二图像捕获设备是否在所述第一图像捕获设备的邻近;以及
当所述第二图像捕获设备在所述第一图像捕获设备的邻近时,向所述第二图像捕获设备发送请求以使得所述第二图像捕获设备捕获从第二角度表示所述对象的第二图像数据,其中,所述第一图像数据和所述第二图像数据能组合以形成所述对象的复合表示。
12.如权利要求11所述的系统,其特征在于,所述第一图像捕获设备是平视显示组件。
13.如权利要求11所述的系统,其特征在于,所述第一图像捕获设备是与第一用户相关联的第一平视显示组件,而所述第二图像捕获设备是与第二用户相关联的第二平视显示组件。
14.如权利要求11所述的系统,其特征在于,所述第一图像捕获设备是移动设备,所述第二图像捕获设备是静止的。
15.如权利要求11所述的系统,其特征在于,所述计算机可执行指令在执行时使处理器:
接收用户请求以捕获表示所述对象的图像数据;以及
基于所述用户请求,触发所述第一图像捕获设备以捕获所述第一图像数据。
16.如权利要求11所述的系统,其特征在于,所述处理器被配置为与传感器通过接口连接,并且其中所述计算机可执行指令在执行时使所述处理器:
通过所述传感器,检测所述对象当前处于进行尺寸确定的目标位置或在目标范围内;以及
触发所述第一图像捕获设备,以基于位于所述目标位置或所述目标范围内的所述对象来捕获所述第一图像数据。
17.如权利要求11所述的系统,其特征在于,所述计算机可执行指令在执行时使处理器:
从所述第一图像捕获设备接收指示所述第一图像捕获设备的位置的数据;
从所述第二图像捕获设备接收指示所述第二图像捕获设备的位置的数据;
基于所述第一图像捕获设备的所述位置和所述第二图像捕获设备的所述位置,计算所述第一图像捕获设备和所述第二图像捕获设备之间的距离;以及
确定所述第一图像捕获设备和所述第二图像捕获设备之间的计算距离是否在邻近距离阈值内。
18.如权利要求11所述的系统,其特征在于,所述计算机可执行指令在执行时使处理器:
从固定RFID读取器接收关于所述固定RFID读取器已接收由所述第一图像捕获设备传输的RF闪烁的指示;
基于来自所述固定RFID读取器的所述指示,来确定所述第一图像捕获设备的位置;
从所述固定RFID读取器接收关于所述固定RFID读取器已接收由所述第二图像捕获设备传输的RF闪烁的指示;
基于来自所述固定RFID读取器的所述指示,来确定所述第二图像捕获设备的所述位置;
基于所述第一图像捕获设备的所述位置和所述第二图像捕获设备的所述位置,计算所述第一图像捕获设备和所述第二图像捕获设备之间的距离;以及
确定所述第一图像捕获设备和所述第二图像捕获设备之间的计算距离是否在邻近距离阈值内。
19.如权利要求11所述的系统,其特征在于,所述计算机可执行指令在执行时使处理器:
通过所述第一图像捕获设备,检测由所述第二图像捕获设备传输的短程无线信号;以及
基于所检测的短程无线信号,确定所述第二图像捕获设备在所述第一图像捕获设备的邻近。
20.如权利要求11所述的系统,其特征在于,所述计算机可执行指令在执行时使处理器:
组合所述第一图像数据和所述第二图像数据以渲染三维点云;以及
使用所述三维点云确定所述对象的尺寸。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762582908P | 2017-11-07 | 2017-11-07 | |
US62/582,908 | 2017-11-07 | ||
US15/986,136 US11146775B2 (en) | 2017-11-07 | 2018-05-22 | Methods and apparatus for dimensioning an object using proximate devices |
US15/986,136 | 2018-05-22 | ||
PCT/US2018/054158 WO2019094125A1 (en) | 2017-11-07 | 2018-10-03 | Methods and apparatus for dimensioning an object using proximate devices |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111316059A CN111316059A (zh) | 2020-06-19 |
CN111316059B true CN111316059B (zh) | 2021-12-07 |
Family
ID=65408835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880071814.0A Active CN111316059B (zh) | 2017-11-07 | 2018-10-03 | 使用邻近设备确定对象尺寸的方法和装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11146775B2 (zh) |
CN (1) | CN111316059B (zh) |
BE (1) | BE1025917B1 (zh) |
DE (1) | DE112018005351T5 (zh) |
GB (1) | GB2581060B (zh) |
WO (1) | WO2019094125A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460690B (zh) * | 2017-09-01 | 2022-10-14 | 虹软科技股份有限公司 | 一种用于模式识别的方法和装置 |
US10930001B2 (en) * | 2018-05-29 | 2021-02-23 | Zebra Technologies Corporation | Data capture system and method for object dimensioning |
CN115046480B (zh) * | 2021-03-09 | 2023-11-10 | 华为技术有限公司 | 一种测量长度的方法、电子设备以及移动设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5621457A (en) * | 1994-09-26 | 1997-04-15 | Nissan Motor Co., Ltd. | Sighting direction detecting device for vehicle |
CN102139696A (zh) * | 2010-02-02 | 2011-08-03 | 通用汽车环球科技运作有限责任公司 | 疏堵 |
US8253538B1 (en) * | 2008-05-29 | 2012-08-28 | Marvell International Ltd. | Asset management using mobile radio-frequency identification (RFID) readers |
WO2013167901A1 (en) * | 2012-05-09 | 2013-11-14 | Ncam Technologies Limited | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera |
CA2748882C (en) * | 2010-08-17 | 2016-10-11 | Research In Motion Limited | Tagging a location by pairing devices |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7916895B2 (en) | 2007-05-07 | 2011-03-29 | Harris Corporation | Systems and methods for improved target tracking for tactical imaging |
US20120190403A1 (en) | 2011-01-26 | 2012-07-26 | Research In Motion Limited | Apparatus and method for synchronizing media capture in a wireless device |
US20140160157A1 (en) | 2012-12-11 | 2014-06-12 | Adam G. Poulos | People-triggered holographic reminders |
NZ708121A (en) | 2013-02-13 | 2017-08-25 | Philip Morris Products Sa | Evaluating porosity distribution within a porous rod |
US9741134B2 (en) | 2013-12-16 | 2017-08-22 | Symbol Technologies, Llc | Method and apparatus for dimensioning box object |
US10003786B2 (en) * | 2015-09-25 | 2018-06-19 | Intel Corporation | Method and system of 3D image capture with dynamic cameras |
US9952432B2 (en) | 2016-04-08 | 2018-04-24 | Symbol Technologies, Llc | Arrangement for, and method of, calibrating a wearable apparatus to electro-optically read targets |
US10484599B2 (en) * | 2016-10-25 | 2019-11-19 | Microsoft Technology Licensing, Llc | Simulating depth of field |
US20190379749A1 (en) * | 2016-11-22 | 2019-12-12 | Erik D. Ovesny | System and method for location-based image capture between mobile devices |
US10455364B2 (en) * | 2016-12-12 | 2019-10-22 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US10818188B2 (en) * | 2016-12-13 | 2020-10-27 | Direct Current Capital LLC | Method for dispatching a vehicle to a user's location |
US11665308B2 (en) * | 2017-01-31 | 2023-05-30 | Tetavi, Ltd. | System and method for rendering free viewpoint video for sport applications |
US10750083B2 (en) * | 2018-04-06 | 2020-08-18 | Motorola Solutions, Inc. | Systems and methods for processing digital image data representing multiple views of an object of interest |
-
2018
- 2018-05-22 US US15/986,136 patent/US11146775B2/en active Active
- 2018-10-03 GB GB2005391.4A patent/GB2581060B/en active Active
- 2018-10-03 DE DE112018005351.2T patent/DE112018005351T5/de active Pending
- 2018-10-03 WO PCT/US2018/054158 patent/WO2019094125A1/en active Application Filing
- 2018-10-03 CN CN201880071814.0A patent/CN111316059B/zh active Active
- 2018-11-07 BE BE20185781A patent/BE1025917B1/nl active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5621457A (en) * | 1994-09-26 | 1997-04-15 | Nissan Motor Co., Ltd. | Sighting direction detecting device for vehicle |
US8253538B1 (en) * | 2008-05-29 | 2012-08-28 | Marvell International Ltd. | Asset management using mobile radio-frequency identification (RFID) readers |
CN102139696A (zh) * | 2010-02-02 | 2011-08-03 | 通用汽车环球科技运作有限责任公司 | 疏堵 |
CA2748882C (en) * | 2010-08-17 | 2016-10-11 | Research In Motion Limited | Tagging a location by pairing devices |
WO2013167901A1 (en) * | 2012-05-09 | 2013-11-14 | Ncam Technologies Limited | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera |
Also Published As
Publication number | Publication date |
---|---|
DE112018005351T5 (de) | 2020-06-25 |
US20190141312A1 (en) | 2019-05-09 |
CN111316059A (zh) | 2020-06-19 |
BE1025917A1 (nl) | 2019-08-07 |
US11146775B2 (en) | 2021-10-12 |
BE1025917B1 (nl) | 2020-02-07 |
WO2019094125A1 (en) | 2019-05-16 |
GB202005391D0 (en) | 2020-05-27 |
BE1025917A9 (nl) | 2019-12-17 |
GB2581060B (en) | 2022-08-24 |
GB2581060A (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10395116B2 (en) | Dynamically created and updated indoor positioning map | |
US11538224B2 (en) | Safety for wearable virtual reality devices via object detection and tracking | |
US10867450B2 (en) | Augmented reality lighting effects | |
US9661470B1 (en) | Methods and systems for locating an actor within an environment | |
US10102676B2 (en) | Information processing apparatus, display apparatus, information processing method, and program | |
US9341471B2 (en) | Calibrated hardware sensors for estimating real-world distances | |
US20180053352A1 (en) | Occluding augmented reality content or thermal imagery for simultaneous display | |
US20140375541A1 (en) | Eye tracking via depth camera | |
US20150379770A1 (en) | Digital action in response to object interaction | |
CN111316059B (zh) | 使用邻近设备确定对象尺寸的方法和装置 | |
US20200201513A1 (en) | Systems and methods for rfid tag locationing in augmented reality display | |
US20180053055A1 (en) | Integrating augmented reality content and thermal imagery | |
US20170186146A1 (en) | System and method for calibration of a depth camera system | |
US12067157B2 (en) | Drift cancelation for portable object detection and tracking | |
KR20210150881A (ko) | 전자 장치 및 그 동작 방법 | |
CN113661433B (zh) | 头戴式显示设备及其操作方法 | |
CN111316320B (zh) | 用于快速确定对象尺寸的方法和装置 | |
US20200333885A1 (en) | Haptic-feedback presenting apparatus, haptic-feedback presenting system, and haptic-feedback presenting method | |
US12125157B2 (en) | Safety for wearable virtual reality devices via object detection and tracking | |
US20230136269A1 (en) | Systems and methods for dynamic sketching with exaggerated content | |
US20230394688A1 (en) | Information processing apparatus, non-transitory computer readable medium, and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |