CN114586331A - 分布式传感器系统 - Google Patents

分布式传感器系统 Download PDF

Info

Publication number
CN114586331A
CN114586331A CN202080073982.0A CN202080073982A CN114586331A CN 114586331 A CN114586331 A CN 114586331A CN 202080073982 A CN202080073982 A CN 202080073982A CN 114586331 A CN114586331 A CN 114586331A
Authority
CN
China
Prior art keywords
image
subset
mobile device
sensors
image sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080073982.0A
Other languages
English (en)
Inventor
安德鲁·塞缪尔·贝尔科维奇
刘新桥
汉斯·雷瑟霍夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of CN114586331A publication Critical patent/CN114586331A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/22Adaptations for optical transmission
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

在一个示例中,移动设备包括:物理链路;多个图像传感器,每个图像传感器被配置为经由物理链路发送图像数据;以及耦合到物理链路的控制器,由此物理链路、多个图像传感器和控制器形成多分支网络。控制器被配置为:发送控制信号以配置多个图像传感器处的图像感测操作;经由物理链路从多个图像传感器的至少一个子集接收图像数据;组合来自多个图像传感器的至少一个子集的图像数据,以获得扩展的视场(FOV);确定在扩展的FOV内捕获的移动设备的周围环境的信息;并将该信息提供给应用以基于该信息生成内容。

Description

分布式传感器系统
相关申请
本专利申请要求于2019年10月30日提交的标题为“DISTRIBUTED SENSORSYSTEM”、序列号为62,928,233的美国临时专利申请的优先权,该美国临时专利申请已被转让给本受让人,并且以其整体通过引用并入本文以用于所有目的。
领域
本公开总体上涉及传感器网络,更具体地,涉及在诸如头戴式显示器(HMD)的可穿戴电子设备中的传感器网络。
背景
可穿戴电子设备可以包括许多传感器,以支持设备的不同应用。例如,可穿戴虚拟现实(VR)系统、增强现实(AR)系统和混合现实(MR)系统可以包括许多图像传感器、音频传感器、运动传感器等。传感器可用于收集用户所处的物理环境的传感器数据,以支持各种应用,诸如跟踪可穿戴电子设备的用户的定位的即时定位与地图映射(SLAM)算法、对象检测/测量应用等。基于传感器数据,VR/AR/MR系统可以生成和更新例如用于经由近眼显示器显示给用户的虚拟图像数据、用于经由扬声器输出给用户的音频数据等,来为用户提供交互式体验。
为了改善对周围环境的感测,可穿戴电子设备可以包括一个或更多个高分辨率图像传感器模块。每个图像传感器模块可以包括透镜堆叠(lens stack)和高分辨率图像传感器,以捕获高分辨率图像。但是,将高分辨率传感器模块的这样的网络集成到可穿戴电子设备中可能具有挑战性。具体而言,高分辨率传感器模块通常需要具有相对大的形状因子的大的硅区域,而视场(FOV)透镜堆叠可能具有相当大的垂直高度,所有这些使得难以将模块集成在空间非常有限的可穿戴电子设备中。此外,高分辨率图像数据的生成以及高分辨率图像数据的发送和处理通常消耗许多功率,而移动设备通常以非常有限的功率预算操作。所有这些都使得实现一种对周围环境提供高质量感测的可穿戴设备变得具有挑战性。
概述
本公开涉及传感器网络。更具体地,但不限于,本公开涉及可在诸如HMD的可穿戴电子设备中使用的传感器网络。
在一个示例中,一种移动设备包括:物理链路;多个图像传感器,多个图像传感器中的每一个图像传感器被配置为经由物理链路发送图像数据;以及耦合到物理链路的控制器,由此物理链路、多个图像传感器和控制器形成多分支网络(multi-drop network)。控制器被配置为:发送控制信号以配置多个图像传感器处的图像感测操作;经由物理链路从多个图像传感器的至少一个子集接收图像数据;组合来自多个图像传感器的至少一个子集的图像数据,以获得比图像传感器的子集中的每个图像传感器提供的视场(FOV)更大的扩展的FOV;确定在扩展的FOV内捕获的移动设备的周围环境的信息;以及将该信息提供给应用以基于该信息生成内容。
在一些方面,控制器被配置为基于发送控制信号,选择多个图像传感器的子集来发送图像数据,并且禁用多个图像传感器的其余部分。
在一些方面,图像数据是第一图像数据。控制器被配置为基于发送控制信号来:控制多个图像传感器的子集以第一分辨率发送第一图像数据;并且控制多个图像传感器的其余部分以第二分辨率发送第二图像数据。第一分辨率高于第二分辨率。
在一些方面,图像数据是第一图像数据。控制器被配置为基于发送控制信号来:控制多个图像传感器的子集以第一帧速率发送第一图像数据;以及控制多个图像传感器的其余部分以第二帧速率发送第二图像数据,第一帧速率高于第二帧速率。
在一些方面,周围环境的信息包括感兴趣对象的跟踪结果。控制器被配置为:基于确定由多个图像传感器的子集生成的图像数据可能包含对象的一个或更多个图像,来选择多个图像传感器的子集。
在一些方面,控制器被配置为:基于在来自多个图像传感器的子集的先前图像数据中检测到对象的特征,来确定由多个图像传感器的子集生成的图像数据可能包含对象的一个或更多个图像。
在一些方面,控制器被配置为:基于来自多个图像传感器的先前图像数据来确定对象和移动设备之间的相对移动的先前轨迹。控制器被配置为:基于先前轨迹预测对象的轨迹;并且基于预测的轨迹来确定由多个图像传感器的子集生成的图像数据可能包含对象的一个或更多个图像。
在一些方面,多个图像传感器中的每个图像传感器包括像素单元阵列。控制器被配置为基于发送控制信号,选择性地配置多个图像传感器中的一个或更多个图像传感器中的像素单元阵列中的特定像素单元子集的图像捕获操作。
在一些方面,控制器被配置为基于发送控制信号来:启用多个图像传感器中的第一图像传感器的像素单元阵列中的像素单元的第一子集以经由物理链路向控制器发送第一图像数据;以及启用多个图像传感器中的第二图像传感器的像素单元阵列中的像素单元的第二子集以经由物理链路向控制器发送第二图像数据。第一子集和第二子集是不同的。控制器被配置为基于发送控制信号来:启用多个图像传感器中的第一图像传感器的像素单元阵列中的第一像素单元子集来以第一分辨率生成第一图像数据;启用第一图像传感器的像素单元阵列中的第二像素单元子集来以第二分辨率生成第二图像数据。第一分辨率高于第二分辨率。
在一些方面,控制器被配置为基于发送控制信号来:设置多个图像传感器中的第一图像传感器的像素单元阵列中的第一像素单元子集的第一动态范围;以及设置第一图像传感器的像素单元阵列中的第二像素单元子集的第二动态范围。第一动态范围高于第二动态范围。
在一些方面,对于多个图像传感器的子集中的每个图像传感器,控制信号识别像素单元阵列中的特定像素单元子集中的像素单元。
在一些方面,控制信号包括指导信号。多个图像传感器中的第一图像传感器被配置为基于指导信号,在本地确定像素单元阵列中的特定像素单元子集。
在一些方面,指导信号指定感兴趣对象的特征。第一图像传感器被配置为:基于指导信号确定包括感兴趣对象的感兴趣区域;并且基于感兴趣区域确定像素单元阵列中的特定像素单元子集。
在一些方面,基于以下至少一项来确定像素单元阵列中的特定像素单元子集:感兴趣对象的跟踪结果或移动设备的移动。
在一些方面,来自多个图像传感器中的至少第一图像传感器和第二图像传感器的图像数据被组合。第一图像传感器和第二图像传感器面向不同的方向。
在一些方面,来自多个图像传感器中的至少第一图像传感器和第二图像传感器的图像数据被组合。第一图像传感器被配置为捕获第一频率范围的光。第二图像传感器被配置为捕获不同于第一频率范围的第二频率范围的光。
在一些方面,物理链路包括以下至少一种:基于I3C规范的总线或光链路。
在一个示例中,一种方法包括:发送控制信号以配置移动设备的多个图像传感器处的图像感测操作;经由物理链路从多个图像传感器的子集中的每个图像传感器接收图像数据,其中多个图像传感器和物理链路形成多分支网络;组合来自多个图像传感器的至少一个子集的图像数据,以获得比图像传感器的子集中的每个图像传感器提供的视场(FOV)更大的扩展的FOV;确定在扩展的FOV内捕获的移动设备的周围环境的信息;以及将该信息提供给应用,以基于该信息生成要由移动设备输出的内容。
在一些方面,该方法还包括:基于发送控制信号,选择多个图像传感器的子集来发送图像数据,并且禁用多个图像传感器的其余部分。
附图简述
参考以下附图描述说明性实施例。
图1A和图1B是近眼显示器的实施例的示意图。
图2是近眼显示器的横截面的实施例。
图3示出了具有单个源组件的波导显示器的实施例的等轴视图。
图4示出了波导显示器的实施例的横截面。
图5是包括近眼显示器的系统的实施例的框图。
图6A、图6B、图6C和图6D示出了图像传感器及其操作的示例。
图7A、图7B、图7C和图7D示出了具有传感器网络的移动设备及其操作的示例。
图8A、图8B、图8C、图8D和图8E示出了传感器网络以及图7A-图7D的传感器网络及其操作的示例。
图9A、图9B、图9C和图9D示出了图8A-图8E的传感器网络的示例内部部件。
图10示出了用于生成将由移动设备输出的内容的示例过程的流程图。
附图仅出于说明的目的描绘了本公开的实施例。本领域中的技术人员从下面的描述中将容易认识到,示出的结构和方法的替代实施例可以被采用而不偏离本公开的原理或本公开中所推崇的益处。
在附图中,相似的部件和/或特征可以具有相同的附图标记。此外,可以通过在附图标记之后用短划线和在相似部件之间进行区分的第二标记来区分相同类型的各个部件。如果在说明书中仅使用第一附图标记,则该描述适用于具有相同第一附图标记的任何一个相似部件,而与第二附图标记无关。
详细描述
在以下描述中,为了解释的目的而阐述了具体细节,以提供对某些创造性实施例的透彻理解。然而,将明显的是,各种实施例可以在没有这些具体细节的情况下实施。附图和描述不意图是限制性的。
根据本公开的一个示例涉及移动设备,诸如HMD。该移动设备包括物理链路、多个图像传感器和控制器,每个图像传感器在特定方向取向并与物理链路耦合,控制器与物理链路耦合。图像传感器、控制器和物理链路可以形成多分支网络,其中多个图像传感器中的每一个被配置为捕获移动设备的周围环境的图像数据,并且经由物理链路将图像数据发送到控制器。控制器可以确定移动设备的操作条件(例如,定位、取向等)。并且,基于操作条件,控制器可以选择多个图像传感器的子集,并且基于该选择生成控制数据。控制器可以经由物理链路将控制数据发送到图像传感器的子集,以配置图像传感器的子集的图像捕获操作。控制器还可以经由物理链路接收由图像传感器的子集基于该控制数据捕获的第一图像数据,并基于第一图像数据来生成输出。
具体而言,控制器可以执行应用,该应用基于第一图像数据确定关于周围环境的信息并且基于该信息来生成内容(显示内容、音频信号等)。在一个示例中,该应用可以包括即时定位与地图映射(SLAM)算法,以跟踪例如移动设备的用户的定位、用户的取向和/或用户在环境中的移动路径。作为另一个示例,该应用可以包括移动对象跟踪算法,以跟踪移动对象(例如,移动的手)的定位。在又一示例中,该应用可以包括场景上下文(context)理解算法,以检测/跟踪对象(例如,不在用户视线内的其他人)。在所有这些示例中,应用可以在图像数据中检测感兴趣对象(例如,场景中的对象、手、人的脸等)的某些图像特征,并确定它们的图像位置(如果检测到的话),并基于检测到的图像特征生成关于周围环境的信息。
控制器可以配置图像传感器的图像捕获操作,以减少通过多分支网络发送的图像数据量,同时提供应用所需的图像数据。例如,控制器可以基于例如从由图像传感器的子集捕获的先前图像中检测对象的特征,来确定这些图像传感器可能在给定时间捕获一个或更多个感兴趣对象的图像。控制器然后可以启用图像传感器的子集来生成和发送图像数据,同时禁用其余的图像传感器。在感兴趣对象相对于移动设备移动的情况下,控制器可以确定感兴趣对象的预测的移动轨迹,并且基于预测的轨迹,在不同时间启用图像传感器的不同子集。
除了启用图像传感器的子集之外,控制器还可以控制图像传感器的子集来执行稀疏感测操作,以进一步减少通过网络发送的图像数据量。具体而言,每个图像传感器包括像素单元阵列。对于被启用的图像传感器的子集中的每一个图像传感器,控制器可以确定有可能包括感兴趣对象的像素的感兴趣区域(ROI)。在一些示例中,控制器可以控制图像传感器的子集中的每一个图像传感器,以仅启用对应于ROI的像素单元的子集,或者发送来自像素单元的子集的图像数据,而不发送来自其余像素单元的图像数据。此外,控制器还可以配置像素单元的子集的图像捕获操作的其他方面(诸如增加量化分辨率、增加曝光周期和增加动态范围等),以提高图像数据的质量。在一些示例中,控制器可以发送指导信号来指导传感器确定ROI,而不是发送指定要在每个图像传感器处启用的像素单元子集的控制数据。指导信号包括识别感兴趣对象的特征的信息、ROI的定位和大小的粗略估计等。然后,每个图像传感器可以基于指导信号在本地确定ROI。这样的布置可以减少由控制器发送到图像传感器的控制数据的量,因为控制器不需要在图像帧之间将更新的ROI信息发送到图像传感器以考虑移动设备和/或感兴趣对象的移动,这可以进一步降低网络的功率和带宽要求。
多分支网络可以使用各种技术来实现。在一些示例中,多分支网络可以使用共享总线来实现,诸如基于I3C规范实现的总线。具体地,与总线耦合的每个部件(包括图像传感器和控制器)可以轮流驱动总线以经由总线发送数据。每个部件也可以监听总线来接收数据。由于减少了图像数据和控制数据的量,可以使用相对低带宽和低功率的共享总线来发送数据。在一些示例中,多分支网络也可以使用光链路来实现,其中每个图像传感器和控制器经由光调制器与光链路耦合以发送和接收数据。图像传感器可以轮流调制光链路中的光,或者同时调制光的不同分量,以发送图像数据。
利用所公开的示例,移动设备可以包括多个图像传感器,每个图像传感器在特定方向取向,以捕获周围环境的图像数据。由于每个图像传感器具有在特定方向对准的FOV,因此通过组合由图像传感器捕获的图像数据,可以扩展移动设备的有效FOV。这样的布置可以减少对增加每个图像传感器的分辨率和FOV的需求,增加每个图像传感器的分辨率和FOV可能占用大量空间并消耗大量功率,空间和功率两者在移动设备中都非常有限。此外,通过使用多分支网络而不是多个点对点互连来在控制器和图像传感器之间传输图像数据和控制数据,可以进一步减少实现网络所需的空间及其功耗。所有这些都允许可穿戴设备提供对周围环境的高质量感测,这继而可以提高依赖于感测操作的输出的应用的性能。
所公开的技术可以包括人工现实系统或者结合人工现实系统来实现。人工现实是一种在呈现给用户之前已经以某种方式进行了调整的现实形式,其可以包括例如虚拟现实(VR)、增强现实(AR)、混合现实(mixed reality,MR)、混杂现实(hybrid reality)或其某种组合和/或衍生物。人工现实内容可以包括完全生成的内容或者与捕获的(例如,真实世界的)内容相结合的生成的内容。人工现实内容可以包括视频、音频、触觉反馈、或它们的某种组合,其中任何一个都可以在单个通道中或在多个通道中被呈现(例如向观看者产生三维效果的立体视频)。此外,在一些实施例中,人工现实还可以与用于例如在人工现实中创建内容和/或在人工现实中以其他方式被使用(例如,在人工现实中执行活动)的应用、产品、附件、服务或其某种组合相关联。提供人工现实内容的人工现实系统可以在各种平台上实现,这些平台包括连接到主机(host)计算机系统的HMD、独立的HMD、移动设备或计算系统、或者能够向一个或更多个观看者提供人工现实内容的任何其他硬件平台。
图1A是近眼显示器100的实施例的示意图。近眼显示器100向用户呈现媒体。由近眼显示器100呈现的媒体的示例包括一个或更多个图像、视频和/或音频。在一些实施例中,音频经由外部设备(例如,扬声器和/或头戴式耳机(headphone))呈现,该外部设备从近眼显示器100、控制台或两者接收音频信息,并基于音频信息来呈现音频数据。近眼显示器100通常被配置为作为虚拟现实(VR)显示器进行操作。在一些实施例中,近眼显示器100被修改为作为增强现实(AR)显示器和/或混合现实(MR)显示器来进行操作。
近眼显示器100包括框架105和显示器110。框架105耦合到一个或更多个光学元件。显示器110被配置为让用户看到由近眼显示器100呈现的内容。在一些实施例中,显示器110包括波导显示组件,用于将来自一个或更多个图像的光导向用户的眼睛。
近眼显示器100还包括图像传感器120a、120b、120c和120d。图像传感器120a、120b、120c和120d中的每一个可以包括像素阵列,该像素阵列被配置为生成表示沿着不同方向的不同视场的图像数据。例如,传感器120a和120b可以被配置为提供表示沿着Z轴朝向方向A的两个视场的图像数据,而传感器120c可以被配置为提供表示沿着X轴朝向方向B的视场的图像数据,并且传感器120d可以被配置为提供表示沿着X轴朝向方向C的视场的图像数据。
在一些实施例中,传感器120a-120d可以被配置为输入设备,以控制或影响近眼显示器100的显示内容,从而向穿戴近眼显示器100的用户提供交互式VR/AR/MR体验。例如,传感器120a-120d可以生成用户所处物理环境的物理图像数据。物理图像数据可以被提供给定位跟踪系统,以跟踪用户在物理环境中的定位和/或移动路径。然后,系统可以基于例如用户的定位和取向来更新提供给显示器110的图像数据,以提供交互式体验。在一些实施例中,当用户在物理环境内移动时,定位跟踪系统可以运行SLAM算法来跟踪在物理环境中且在用户的视场内的一组对象。定位跟踪系统可以基于该组对象来构建和更新物理环境的地图(map),并且跟踪用户在该地图内的定位。通过提供对应于多个视场的图像数据,传感器120a-120d可以向定位跟踪系统提供物理环境的更全面的视图,这可以导致更多的对象被包括在地图的构建和更新中。利用这种布置,可以提高跟踪用户在物理环境内的定位的精确度和鲁棒性。
在一些实施例中,近眼显示器100还可以包括一个或更多个有源照明器130,以将光投射到物理环境中。投射的光可以与不同的频谱(例如,可见光、红外光、紫外光等)相关联,并且可以用于各种目的。例如,照明器130可以在黑暗环境中(或者在具有低强度的红外光、紫外光等的环境中)投射光,以帮助传感器120a-120d捕获黑暗环境内不同对象的图像,从而例如实现对用户的定位跟踪。照明器130可以将某些标记(marker)投射到环境内的对象上,以帮助定位跟踪系统识别对象用于地图构建/更新。
在一些实施例中,照明器130还可以实现立体成像。例如,传感器120a或120b中的一个或更多个可以包括用于可见光感测的第一像素阵列和用于红外(IR)光感测的第二像素阵列两者。第一像素阵列可以覆盖有彩色滤光器(例如,Bayer滤光器),第一像素阵列的每个像素被配置为测量与特定颜色(例如,红色、绿色或蓝色之一)相关联的光的强度。第二像素阵列(用于IR光感测)也可以覆盖有仅允许IR光通过的滤光器,第二像素阵列的每个像素被配置为测量IR光的强度。像素阵列可以生成对象的红-绿-蓝(RGB)图像和IR图像,其中IR图像的每个像素被映射到RGB图像的每个像素。照明器130可以将一组IR标记投射到对象上,该对象的图像可以被IR像素阵列捕获。基于图像中所示的对象的IR标记的分布,系统可以估计对象的不同部分离IR像素阵列的距离,并基于该距离生成对象的立体图像。基于对象的立体图像,系统可以确定例如对象相对于用户的相对位置,并且可以基于相对位置信息来更新提供给显示器100的图像数据,以提供交互式体验。
如上面所讨论的,近眼显示器100可以在与非常宽的光强度范围相关联的环境中操作。例如,近眼显示器100可以在室内环境或室外环境中和/或在一天中的不同时间操作。近眼显示器100也可以在开启或不开启有源照明器130的情况下操作。结果,图像传感器120a-120d可能需要具有宽的动态范围,以便能够在与近眼显示器100的不同操作环境相关联的非常宽的光强度范围上正确操作(例如,生成与入射光的强度相关的输出)。
图1B是近眼显示器100的另一个实施例的示意图。图1B示出了近眼显示器100的面向穿戴近眼显示器100的用户的眼球135的一侧。如图1B所示,近眼显示器100还可以包括多个照明器140a、140b、140c、140d、140e和140f。近眼显示器100还包括多个图像传感器150a和150b。照明器140a、140b和140c可以朝向方向D(与图1A的方向A相反)发射某个频率范围(例如,近红外(“NIR”))的光。发射的光可以与某种图案相关联,并且可以被用户的左眼球反射。传感器150a可以包括像素阵列,以接收反射的光并生成反射图案的图像。类似地,照明器140d、140e和140f可以发射携带图案的NIR光。NIR光可以被用户的右眼球反射,并且可以被传感器150b接收。传感器150b还可以包括像素阵列,以生成反射图案的图像。基于来自传感器150a和150b的反射图案的图像,系统可以确定用户的凝视点,并基于所确定的凝视点来更新提供给显示器100的图像数据,以向用户提供交互式体验。
如上面所讨论的,为了避免损害用户的眼球,照明器140a、140b、140c、140d、140e和140f通常被配置为输出非常低强度的光。在图像传感器150a和150b包括与图1A的图像传感器120a-120d相同的传感器设备的情况下,当入射光的强度非常低时,图像传感器120a-120d可能需要能够生成与入射光的强度相关的输出,这可能进一步增加图像传感器的动态范围要求。
此外,图像传感器120a-120d可能需要能够以高速度生成输出来跟踪眼球的移动。例如,用户的眼球可以进行非常快速的移动(例如,眼跳运动(saccade movement)),其中可以从一个眼球位置快速跳跃到另一个眼球位置。为了跟踪用户的眼球的快速移动,图像传感器120a-120d需要以高速度生成眼球的图像。例如,图像传感器生成图像帧的速率(帧速率)至少需要匹配眼球的移动速度。高的帧速率要求生成图像帧所涉及的所有像素单元的总曝光时间要短,并且要求将传感器输出转换成用于图像生成的数字值的速度要快。此外,如上面所讨论的,图像传感器也需要能够在具有低光强度的环境下操作。
图2是图1所示的近眼显示器100的横截面200的实施例。显示器110包括至少一个波导显示组件210。出射光瞳(exit pupil)230是当用户穿戴近眼显示器100时,用户的单个眼球220在视窗(eyebox)区域中的定位。为了说明的目的,图2示出了与眼球220和单个波导显示组件210相关联的横截面200,但是第二波导显示器用于用户的第二只眼睛。
波导显示组件210被配置为将图像光导向位于出射光瞳230处的视窗,并导向眼球220。波导显示组件210可以由具有一个或更多个折射率的一种或更多种材料(例如,塑料、玻璃)组成。在一些实施例中,近眼显示器100包括在波导显示组件210和眼球220之间的一个或更多个光学元件。
在一些实施例中,波导显示组件210包括一个或更多个波导显示器的堆叠,该堆叠包括但不限于堆叠式波导显示器、变焦波导显示器等。堆叠式波导显示器是多色显示器(例如,RGB显示器),其通过堆叠波导显示器来创建,这些波导显示器的相应单色源具有不同的颜色。堆叠式波导显示器也是可以被投射在多个平面上的多色显示器(例如,多平面彩色显示器)。在一些配置中,堆叠式波导显示器是可以被投射在多个平面上的单色显示器(例如,多平面单色显示器)。变焦波导显示器是可以调节从波导显示器发射的图像光的焦点位置的显示器。在替代实施例中,波导显示组件210可以包括堆叠式波导显示器和变焦波导显示器。
图3示出了波导显示器300的实施例的等轴视图。在一些实施例中,波导显示器300是近眼显示器100的部件(例如,波导显示组件210)。在一些实施例中,波导显示器300是将图像光导向特定定位的某个其他近眼显示器或其他系统的一部分。
波导显示器300包括源组件310、输出波导320和控制器330。为了说明的目的,图3示出了与单个眼球220相关联的波导显示器300,但是在一些实施例中,与波导显示器300分离或部分分离的另一波导显示器向用户的另一只眼睛提供图像光。
源组件310生成图像光355。源组件310生成图像光355并将其输出到位于输出波导320的第一侧面370-1上的耦合元件350。输出波导320是向用户的眼球220输出扩展的图像光340的光波导。输出波导320在位于第一侧面370-1上的一个或更多个耦合元件350处接收图像光355,并将接收到的输入图像光355引导至导向元件360。在一些实施例中,耦合元件350将来自源组件310的图像光355耦合到输出波导320中。耦合元件350可以是例如衍射光栅、全息光栅、一个或更多个级联反射器、一个或更多个棱柱面元件(prismatic surfaceelement)、和/或全息反射器阵列。
导向元件360将接收到的输入图像光355重定向到去耦元件(decouplingelement)365,使得接收到的输入图像光355经由去耦元件365从输出波导320去耦出去。导向元件360是输出波导320的第一侧面370-1的一部分,或固定到输出波导320的第一侧面370-1。去耦元件365是输出波导320的第二侧面370-2的一部分,或固定到输出波导320的第二侧面370-2,使得导向元件360与去耦元件365相对。导向元件360和/或去耦元件365可以是例如衍射光栅、全息光栅、一个或更多个级联反射器、一个或更多个棱柱面元件、和/或全息反射器阵列。
第二侧面370-2表示沿x维度和y维度的平面。输出波导320可以由有助于图像光355的全内反射的一种或更多种材料组成。输出波导320可以由例如硅、塑料、玻璃和/或聚合物组成。输出波导320具有相对小的形状因子。例如,输出波导320可以沿x维度宽约50mm,沿y维度长约30mm,以及沿z维度厚约0.5mm-1mm。
控制器330控制源组件310的扫描操作。控制器330确定用于源组件310的扫描指令。在一些实施例中,输出波导320将扩展的图像光340以大的FOV输出到用户的眼球220。例如,扩展的图像光340以(x和y中的)60度和/或更大和/或150度和/或更小的对角FOV被提供给用户的眼球220。输出波导320被配置为提供视窗,该视窗长度为20mm或更大和/或等于或小于50mm;和/或宽度为10mm或更大和/或等于或小于50mm。
此外,控制器330还基于由图像传感器370提供的图像数据来控制由源组件310生成的图像光355。图像传感器370可以位于第一侧面370-1上,并且可以包括例如图1A的图像传感器120a-120d。图像传感器120a-120d可以被操作来执行对例如用户前方(例如,面向第一侧面370-1)的对象372的2D感测和3D感测。对于2D感测,图像传感器120a-120d的每个像素单元可以被操作来生成表示由光源376生成并被对象372反射的光374的强度的像素数据。对于3D感测,图像传感器120a-120d的每个像素单元可以被操作来生成表示由照明器325生成的光378的飞行时间测量结果的像素数据。例如,图像传感器120a-120d的每个像素单元可以确定当照明器325被启用以投射光378的第一时间和当像素单元检测到从对象372反射的光378的第二时间。第一时间和第二时间之间的差可以指示图像传感器120a-120d和对象372之间的光378的飞行时间,并且飞行时间信息可以用于确定图像传感器120a-120d和对象372之间的距离。图像传感器120a-120d可以被操作来在不同时间执行2D和3D感测,并且将2D和3D图像数据提供给远程控制台390,远程控制台390可以(或者可以不)位于波导显示器300内。远程控制台可以组合2D和3D图像,以例如生成用户所处环境的3D模型、跟踪用户的定位和/或取向等。远程控制台可以基于从2D和3D图像导出的信息来确定要向用户显示的图像的内容。远程控制台可以向控制器330发送与所确定的内容相关的指令。基于这些指令,控制器330可以控制源组件310生成并输出图像光355,以向用户提供交互式体验。
图4示出了波导显示器300的横截面400的实施例。横截面400包括源组件310、输出波导320和图像传感器370。在图4的示例中,图像传感器370可以包括位于第一侧面370-1上的一组像素单元402,以生成用户前方的物理环境的图像。在一些实施例中,可以在该组像素单元402和物理环境之间插入机械快门404和光学滤波器阵列406。机械快门404可以控制该组像素单元402的曝光。在一些实施例中,如下面将讨论的,机械快门404可以由电子快门(electronic shutter gate)代替。如下所述,光学滤波器阵列406可以控制该组像素单元402暴露于的光的光学波长范围。每个像素单元402可以对应于图像的一个像素。尽管图4中未示出,但应当理解,每个像素单元402也可以覆盖有滤光器,以控制要由像素单元感测的光的光学波长范围。
在从远程控制台接收到指令之后,机械快门404可以在曝光周期中打开并曝光该组像素单元402。在曝光周期期间,图像传感器370可以获得入射到该组像素单元402上的光样本,并且基于由该组像素单元402检测到的入射光样本的强度分布来生成图像数据。图像传感器370然后可以向远程控制台提供图像数据,该远程控制台确定显示内容,并向控制器330提供显示内容信息。控制器330然后可以基于显示内容信息来确定图像光355。
源组件310根据来自控制器330的指令生成图像光355。源组件310包括源410和光学系统415。源410是生成相干光或部分相干光的光源。源410可以是,例如,激光二极管、垂直腔面发射激光器和/或发光二极管。
光学系统415包括一个或更多个光学部件,光学部件调节来自源410的光。调节来自源410的光可以包括例如,根据来自控制器330的指令来扩展、准直和/或调整取向。一个或更多个光学部件可以包括一个或更多个透镜、液体透镜、反射镜、光圈和/或光栅。在一些实施例中,光学系统415包括具有多个电极的液体透镜,该液体透镜允许用阈值的扫描角度来扫描光束,以将光束移到液体透镜外部的区域。从光学系统415(还有源组件310)发射的光被称为图像光355。
输出波导320接收图像光355。耦合元件350将来自源组件310的图像光355耦合到输出波导320中。在耦合元件350是衍射光栅的实施例中,衍射光栅的栅距(pitch)被选择成使得在输出波导320中发生全内反射,并且图像光355在输出波导320中(例如,通过全内反射)朝向去耦元件365进行内部传播。
导向元件360将图像光355重定向到去耦元件365,用于从输出波导320去耦。在导向元件360是衍射光栅的实施例中,衍射光栅的栅距被选择成使得入射图像光355以相对于去耦元件365的表面倾斜的角度离开输出波导320。
在一些实施例中,导向元件360和/或去耦元件365在结构上类似。离开输出波导320的扩展的图像光340沿着一个或更多个维度被扩展(例如,可以沿着x维度被拉长)。在一些实施例中,波导显示器300包括多个源组件310和多个输出波导320。每个源组件310发射对应于原色(例如,红色、绿色、蓝色)的特定波长带的单色图像光。每个输出波导320可以以一定的间隔距离堆叠在一起,以输出多色的扩展的图像光340。
图5是包括近眼显示器100的系统500的实施例的框图。系统500包括近眼显示器100、成像设备535、输入/输出接口540以及图像传感器120a-120d和150a-150b,它们各自耦合到控制电路510。系统500可以被配置为头戴式设备、移动设备、可穿戴设备等。
近眼显示器100是向用户呈现媒体的显示器。由近眼显示器100呈现的媒体的示例包括一个或更多个图像、视频和/或音频。在一些实施例中,音频经由外部设备(例如,扬声器、头戴式耳机)呈现,该外部设备从近眼显示器100和/或控制电路510接收音频信息,并基于音频信息来向用户呈现音频数据。在一些实施例中,近眼显示器100也可以充当AR眼部佩戴物眼镜(AR eyewear glass)。在一些实施例中,近眼显示器100利用计算机生成的元素(例如,图像、视频、声音等)来增强物理、真实世界环境的视图。
近眼显示器100包括波导显示组件210、一个或更多个位置传感器525和/或惯性测量单元(IMU)530。波导显示组件210包括源组件310、输出波导320和控制器330。
IMU 530是一种电子设备,其基于从一个或更多个位置传感器525接收的测量信号生成快速校准数据,该快速校准数据指示相对于近眼显示器100的初始位置的近眼显示器100的估计位置。
成像设备535可以生成用于各种应用的图像数据。例如,成像设备535可以根据从控制电路510接收的校准参数来生成图像数据以提供慢速校准数据。成像设备535可以包括例如图1A的图像传感器120a-120d,用于生成用户所处的物理环境的图像数据,用于执行对用户的定位跟踪。成像设备535可以进一步包括例如图1B的图像传感器150a-150b,用于生成用于确定用户凝视点的图像数据,以识别用户感兴趣的对象。
输入/输出接口540是允许用户向控制电路510发送动作请求的设备。动作请求是执行特定动作的请求。例如,动作请求可以是开始应用或结束应用,或者是在应用内执行特定动作。
控制电路510根据从成像设备535、近眼显示器100和输入/输出接口540中的一个或更多个接收的信息来向近眼显示器100提供媒体以呈现给用户。在一些示例中,控制电路510可以被容纳在被配置为头戴式设备的系统500内。在一些示例中,控制电路510可以是与系统500的其他部件通信耦合的独立控制台设备。在图5所示的示例中,控制电路510包括应用储存器545、跟踪模块550和引擎555。
应用储存器545存储用于由控制电路510执行的一个或更多个应用。应用是一组指令,该组指令当由处理器执行时生成用于显现给用户的内容。应用的示例包括:游戏应用、会议应用、视频回放应用或其他合适的应用。
跟踪模块550使用一个或更多个校准参数来校准系统500,并且可以调整一个或更多个校准参数以减小近眼显示器100的位置确定中的误差。
跟踪模块550使用来自成像设备535的慢速校准信息来跟踪近眼显示器100的移动。跟踪模块550还使用来自快速校准信息的位置信息来确定近眼显示器100的参考点的位置。
引擎555执行系统500内的应用,并从跟踪模块550接收近眼显示器100的位置信息、加速度信息、速度信息和/或预测的未来位置。在一些实施例中,引擎555接收的信息可以用于产生信号(例如,显示指令)给波导显示组件210,该信号确定呈现给用户的内容类型。例如,为了提供交互式体验,引擎555可以基于(例如,由跟踪模块550提供的)用户的定位、(例如,基于由成像设备535提供的图像数据的)用户的凝视点、(例如,基于由成像设备535提供的图像数据的)对象与用户之间的距离来确定要呈现给用户的内容。
图6A、图6B、图6C和图6D示出了图像传感器600及其操作的示例。如图6A所示,图像传感器600可以包括像素单元阵列,包括像素单元601,并且可以生成对应于图像的像素的数字强度数据。像素单元601可以是图4的像素单元402的一部分。如图6A所示,像素单元601可以包括光电二极管602、电子快门开关603、转移开关604、电荷存储设备605、缓冲器606和量化器607。光电二极管602可以包括例如P-N结二极管、P-I-N结二极管、钉扎二极管等,而电荷存储设备605可以是转移开关604的浮置漏极节点。当在曝光周期内接收光时,光电二极管602可以产生并积累剩余电荷。当在曝光周期内剩余电荷饱和时,光电二极管602可以通过转移开关604向电荷存储设备605输出溢出电荷。电荷存储设备605可以将溢出电荷转换成电压,该电压可以由缓冲器606缓冲。量化器607可以对缓冲的电压进行量化,以生成测量数据608,例如表示曝光周期内光电二极管602接收的光的强度。
量化器607可以包括比较器,用于针对与不同强度范围相关联的不同量化操作,将缓冲的电压与不同阈值进行比较。例如,对于由光电二极管602产生的溢出电荷的量超过电荷存储设备605的饱和极限的高强度范围,量化器607可以通过检测缓冲的电压是否超过表示饱和极限的静态阈值来执行饱和时间(TTS)测量操作,并且如果超过,则测量缓冲的电压超过静态阈值所花费的时间。测量到的时间可以与光强度成反比。此外,对于其中光电二极管被剩余电荷饱和但溢出电荷保持低于电荷存储设备605的饱和极限的中等强度范围,量化器607可以执行FD ADC操作来测量存储在电荷存储设备605中的溢出电荷的量。此外,对于光电二极管没有被剩余电荷饱和并且没有溢出电荷累积在电荷存储设备605中的低强度范围,量化器607可以执行PD ADC操作来测量累积在光电二极管602中的剩余电荷的量。TTS、FD ADC或PD ADC操作之一的输出可以作为测量数据608输出,以表示光的强度。
图6B示出了像素单元601的示例操作序列。如图6B所示,可以基于控制电子快门开关603的AB信号的时序(timing)并基于控制转移开关604的TG信号的时序来定义曝光周期,该电子快门开关603可以在被使能时将光电二极管602产生的电荷引导走,该转移开关604被控制以将溢出电荷转移到电荷存储设备605且然后将剩余电荷转移到电荷存储设备605以供读出。例如,参考图6B,AB信号可以在时间T0被宣称无效,以允许光电二极管602产生电荷。T0可以标志曝光周期的开始。在曝光周期内,TG信号可以将转移开关604设置为部分导通状态,以允许光电二极管602累积电荷中的至少一些作为剩余电荷,直到光电二极管602饱和,在光电二极管602饱和之后,溢出电荷可以被转移到电荷存储设备605。在时间T0和T1之间,量化器607可以执行TTS操作以确定电荷存储设备605处的溢出电荷是否超过饱和极限,然后在时间T1和T2之间,量化器607可以执行FD ADC操作以测量电荷存储设备605处的溢出电荷的量。在时间T2和T3之间,TG信号可以被宣称有效以将转移开关604偏置在完全导通状态,从而将剩余电荷转移到电荷存储设备605。在时间T3,TG信号可以被宣称无效以将电荷存储设备605与光电二极管602隔离,而AB信号可以被宣称有效以将光电二极管602产生的电荷引导走。时间T3可以标记曝光周期的结束。在时间T3和T4之间,量化器607可以执行PD操作来测量剩余电荷的量。
AB和TG信号可以由控制器(图6A中未示出)产生,该控制器可以是像素单元601的一部分,以控制曝光周期的持续时间和量化操作的序列。控制器还可以检测电荷存储设备605是否饱和以及光电二极管602是否饱和,以从TTS、FD ADC或PD ADC操作之一中选择输出作为测量数据608。例如,如果电荷存储设备605饱和,控制器可以提供TTS输出作为测量数据608。如果电荷存储设备605未饱和,但是光电二极管602饱和,则控制器可以提供FD ADC输出作为测量数据608。如果光电二极管602不饱和,控制器可以提供PD ADC输出作为测量数据608。在曝光周期内生成的来自图像传感器600的每个像素单元的测量数据608可以形成图像帧。控制器可以在后续曝光周期中重复图6B中的操作序列,以生成后续图像帧。
来自图像传感器600的图像帧数据可以被发送到主机处理器(在图6A-图6D中未示出)以支持不同的应用,例如识别和跟踪对象612、相对于图像传感器600执行对象612的深度感测等。对于所有这些应用,只有像素单元的子集提供相关信息(例如,对象612的像素数据),而其余像素单元不提供相关信息。例如,参考图6C,在时间T0,图像传感器600的一组像素单元620接收由对象612反射的光,而在时间T6,对象612可能已经移位(例如,由于对象612的移动、图像传感器600的移动或两者),并且图像传感器600的一组像素单元630接收由对象612反射的光。
在一些示例中,图像传感器600可以确定包括来自像素单元组620(在时间T0)的像素数据和来自像素单元组630(在时间T6)的像素数据的感兴趣区域(ROI),并且仅将来自ROI的像素数据发送到主机处理器,以减少被传输的像素数据量。在一些示例中,图像传感器600还可以使所有像素发送像素数据,但是对应于ROI的像素单元与ROI外部的像素单元可以具有不同的配置。例如,像素单元组620和630可以以较高的量化分辨率生成和输出像素数据,以表示对象612的图像,而其余像素单元可以以较低的分辨率生成和输出像素数据。作为另一个示例,像素单元组620和630可以具有比其他像素单元更长的曝光周期。作为又一示例,像素单元组620和630可以具有更宽的动态范围(例如,基于执行TTS、FD ADC和PDADC操作),而其余像素单元可以具有更窄的动态范围(例如,基于禁用TTS、FD ADC和PD ADC操作中的一个或更多个)。所有这些布置可以允许生成和发送较高分辨率的图像,而不相应地增加功率和带宽。例如,包括更多像素单元的更大的像素单元阵列可以用于对对象612成像以提高图像分辨率,而当只有包括提供对象612的像素数据的像素单元在内的像素单元的子集生成高质量像素数据并将高分辨率像素数据发送到主机处理器,同时其余像素单元或者不生成/发送像素数据,或者以相对低的质量生成/发送像素数据时,提供提高的图像分辨率所需的带宽和功率可以减少。此外,虽然图像传感器600可以被操作来以较高的帧速率生成图像,但是当每个图像仅包括高分辨率并且由大量的位表示的一小组像素值,而其余的像素值具有非常低的分辨率并且由较少的位表示时,可以减少带宽和功率的增加。
在3D感测的情况下,也可以减少像素数据发送的量。例如,参考图6D,照明器640可以将结构光的图案642投射到对象650上。结构光可以在对象650的表面上反射,并且反射光的图案652可以被图像传感器600捕获以生成图像。主机处理器可以将图案652与图案642匹配,并基于图像中图案652的图像位置来确定对象650相对于图像传感器600的深度。对于3D感测,只有像素单元组660、662、664和666包含相关信息(例如,图案652的像素数据)。为了减少被传输的像素数据量,图像传感器600可以被配置为仅将来自包括像素单元组660、662、664和666的ROI的像素数据发送到主机处理器,或者将来自像素单元组660、662、664和666的像素数据以高分辨率发送到主机处理器,而将其余像素数据以低分辨率发送到主机处理器。
图7A示出了包括多个传感器的移动设备700的示例。移动设备700可以包括图1A的近眼显示器100。图7A的左图示出了移动设备700的示例的三维视图。如图7A的左侧所示,移动设备700可以是头戴式显示器(HMD)的形式。多个传感器可以分布在移动设备700上,其中每个传感器(或传感器组)以特定方向取向。例如,传感器702a和702b可以位于移动设备700的面向方向A的前表面上,传感器704可以位于移动设备700的面向方向B的侧表面上,传感器706可以位于移动设备700的面向方向C的另一侧表面上,而传感器708可以位于移动设备700的面向方向D的后侧上(例如,位于头带710上)。
每组传感器702a、702b、704、706和708可以包括图6A的图像传感器600(包括像素单元阵列)以及其他类型的传感器(例如,音频传感器和运动传感器)和照明器(例如,红外照明器)。每组传感器可以具有面向该组传感器分别面对的方向的视场(FOV),并且由每组传感器捕获的图像可以表示相应FOV内的周围环境的一部分。例如,传感器702a和传感器702b可以分别具有FOV 712a和FOV 712b,FOV 712a和FOV 712b两者都面向方向A。此外,传感器704可以具有面向方向B的FOV 714,传感器706可以具有面向方向C的FOV 716,而传感器708可以具有面向方向D的FOV 718。移动设备700的控制器可以处理由传感器捕获的图像以获得关于周围环境的信息,这允许移动设备具有周围环境的组合的FOV,该组合的FOV组合了FOV 712a、712b、714、716和718。在控制器处理来自传感器702a、702b、704、706和708的图像的情况下,控制器可以获得从移动设备700的正面、背面和两个侧面捕获的图像,这可以导致接近360度的组合的FOV。
在一些示例中,每组传感器702a、702b、704、706和708可以具有相对小的像素单元阵列,该像素单元阵列具有相对低(例如,少于1兆像素)的分辨率。由于像素单元阵列的尺寸减小,每组传感器702a、702b、704、706和708可以具有减小的硅面积和减小的形状因子,这允许传感器分布在可用空间非常有限的移动设备700的不同位置处。另一方面,当来自传感器的图像被组合以组合由每组传感器提供的FOV时,移动设备仍然可以提供宽FOV。
由移动设备700提供的宽FOV可以增强依赖于由图像传感器提供的图像数据的各种应用的性能,诸如SLAM操作、上下文确定应用、手部跟踪应用等,所有这些应用都可以确定要输出给用户的内容,以提供交互式的AR/VR/MR体验。
具体而言,在SLAM操作中,当用户在环境中移动时,可以相对于时间跟踪用户的周围环境中的物理对象的某些显著特征。跟踪可以基于识别跨越由图像传感器在不同时间捕获的多个图像帧的一组特征,并确定特征在那些图像帧中的像素位置。基于跟踪的结果,可以确定具有图像特征的物理对象相对于用户的位置。还可以确定环境的地图以及在那些时间用户在环境内的位置。为了使SLAM操作更有鲁棒性,可以跟踪更显著的特征,以减少特定特征的跟踪误差对SLAM操作的整体准确性的影响。由图像传感器702a、702b、704、706和708提供的扩展的FOV允许更显著的特征被跟踪,以提高SLAM操作的鲁棒性。
图7B示出了示例性SLAM操作720。如图7B所示,为了支持SLAM操作720,图像传感器702a可以捕获包括FOV 712a内的物理对象724及其特征725的图像,图像传感器704可以捕获包括FOV 714内的物理对象726及其特征727的图像,而图像传感器706可以捕获包括FOV716内的物理对象728及其特征729的图像。与移动设备700仅捕获在其前面的物理对象的图像的情况相比,由多个图像传感器提供的扩展的FOV允许移动设备700捕获移动设备周围的物理对象的图像,这继而允许跟踪更显著的特征,以使SLAM操作720更有鲁棒性。在一些示例中,面向相同方向的图像传感器(例如,图像传感器702a和702b)的FOV可以被组合,使得图像传感器形成立体对。立体对的图像传感器可以检测相同频率范围内的光(例如可见光)或不同频率范围内的光(例如可见光和红外线),以支持深度感测。
此外,扩展的FOV还允许移动设备700捕获原本被另一物理对象遮挡的特征。例如,在图7B中,对象724位于图像传感器702a和对象730之间,并且对象724可以遮挡特征731使其不被图像传感器702a捕获。但是特征731也在图像传感器702b的FOV内,这允许特征731被成像和跟踪,以提高SLAM操作720的鲁棒性。
图7C示出了可由移动设备700支持的场景上下文确定操作740的示例。场景上下文确定允许移动设备700获得不在移动设备的用户的视线内的场景的信息,并基于该信息确定场景的上下文。具体而言,在图7C中,移动设备700的用户与站在用户前方(例如,在方向A上)的人742交互,其中人742在用户的视线内。但是场景中有不在用户的视线内的其他人,包括人744、746和748。人744、746和748的图像可以分别由图像传感器704、706和708捕获。在一些示例中,移动设备700可以向用户显示人744、746和748的图像,以使用户能够确定场景的上下文。例如,作为上下文人工智能(AI)操作的一部分,可以确定这些人的姿势、面部表情或其他活动。此外,如果一个人正在说话,则可以确定说话者的位置以进行定向音频处理。作为另一个示例,移动设备700可以执行场景上下文确定应用,该应用基于人744、746和748的图像来确定上下文。基于该上下文,可以生成输出内容。
图7D示出了可由移动设备700支持的对象跟踪操作760的示例。在图7D中,可以执行对象跟踪操作760来跟踪用户762的手(图7D中未示出)的位置。由于图像传感器704、706和708的不同取向,移动设备700可以在多种位置捕获用户的手的图像,而不仅仅是在用户762和移动设备700的前面捕获用户的手的图像。例如,如图7D所示,当用户762将手移动到他/她的头部或身体后面时,或者当用户762将手移动到移动设备700的侧面时,移动设备700可以捕获手的图像。
在一些示例中,由图像传感器704、706和708捕获的手的图像可以被组合以提高对象跟踪操作760的鲁棒性。例如,控制器可以控制图像传感器704、706和708以捕获处于特定位置的手的图像。然后可以在控制器中组合图像以形成用户的手的立体图像,从而改善手相对于用户762的深度估计。作为另一个示例,控制器还可以选择从图像传感器704、706或708之一捕获的图像来执行对象跟踪。选择可以基于各种标准。例如,控制器可以检测到由图像传感器704捕获的图像包括某些目标特征(例如,目标手势),而这些特征在来自其他图像传感器的图像中不太可能检测到,并且控制器可以确定来自图像传感器704的图像将被用于跟踪对象。
移动设备700的传感器(包括图像传感器702a、702b、704、706和708)和控制器可以由多分支网络连接在一起,传感器和控制器通过该多分支网络进行通信。图8A示出了可以是移动设备700的一部分的传感器网络800的示例。如图8A所示,传感器网络800可以包括物理链路802。传感器网络800还包括多个传感器(包括804、806、808和810等)以及主机控制器812,多个传感器和主机控制器812中的每一个都与物理链路802耦合。传感器804、806、808和810可以包括例如图7A的图像传感器702、704、706和708、音频传感器和运动传感器。主机控制器812可以控制传感器804、806、808和810处的感测操作,并处理由传感器获得的传感器数据以支持应用(诸如SLAM操作720、场景上下文确定操作740和对象跟踪操作760)。例如,主机控制器812可以组合由传感器804、806、808和810生成的图像数据,以提供移动设备700的周围环境的扩展的FOV。
传感器网络800可以是多分支网络的形式,其中传感器804-810和主机控制器812使用相同的物理链路802来彼此通信。例如,传感器804、806、808和810中的每一个可以分别生成传感器数据814、816、818和820,并且经由物理链路802将传感器数据发送到主机控制器812。传感器数据814、816、818和820可以包括例如图像数据、音频数据和运动数据。此外,主机控制器812可以生成控制数据822以控制传感器804-810处的感测操作,并且经由物理链路802将控制数据822发送到传感器。
物理链路802可以使用各种技术来实现。图8B示出了物理链路802的示例。在图8B中,物理链路802可以包括总线,该总线可以基于I2C或I3C规范来配置,并且包括串行数据线(SDL)824和串行时钟线(SCL)826。SDL 824和SCL 826中的每一个被配置作为分别与上拉电阻器828和830耦合的开漏极线(open-drain line)。当SDL线和SCL线未被驱动时,可以通过上拉电阻器将它们上拉至电源电压。在I2C/I3C规范中,主节点生成时钟并发起与从节点的通信,而从节点接收时钟并在被主节点寻址时做出响应。在传感器网络800中,主机控制器812被配置为主节点,而传感器804-810被配置为从节点。为了发送控制数据822,主机控制器812可以基于时钟信号模式来下拉SCL 826,并且基于包括控制数据822和目标传感器(一个或更多个目标传感器)的地址的串行数据模式来下拉SDL824。目标传感器(一个或更多个目标传感器)然后可以驱动另一个串行数据模式,该另一个串行数据模式包括SDL 824上的传感器数据。由于传感器共享相同的SDL 824,因此一次只有传感器中的一个传感器可以经由SDL 824向主机控制器812发送传感器数据。当多个传感器试图同时驱动SDL 824时,每个传感器发送传感器数据的时序可以由主机控制器812经由基于预定发送调度而定义的控制数据822来控制,和/或基于退避延迟(back-off delays)来控制。
图8C示出了物理链路802的另一个示例。如图8C所示,物理链路802可以包括光链路840,其可以将光841从光源842传输到与主机控制器812耦合的接收器系统843。光链路840可以包括光纤、波导或传播光的任何介质。传感器804、806、808和810中的每一个可以分别经由光调制器844、846、848和850与光链路840耦合。为了将传感器数据发送到主机控制器812,每个传感器可以控制其各自的光调制器来调制光841。接收器系统843可以包括光检测器(例如,光电二极管)以将调制的光841转换成电信号,该电信号可以被主机控制器812接收和处理以获得传感器数据。在一些示例中,传感器可以基于时分多路复用方案来调制光841,其中每个传感器轮流调制光841以将传感器数据发送到主机控制器812。在一些示例中,传感器还可以在频分多路复用方案中同时调制光841的不同频率分量。此外,主机控制器812和每个传感器可以与总线852耦合,主机控制器812可以通过总线852发送控制数据822。总线852可以包括I2C总线、I3C总线或其他总线技术。这样,光链路840和总线852可以被组合以提供物理链路802。
在一些示例中,为了减少通过物理链路802传输的图像数据量(这可以减少物理链路802的功率和带宽),主机控制器812可以配置传感器804-810的图像捕获操作,以减少通过物理链路802传输的图像数据量,同时提供应用所需的图像数据。图8D示出了传感器804-810的示例配置。如图8D所示,主机控制器812可以选择传感器的子集(包括传感器804和806)来经由物理链路802发送传感器数据814和816,而未被选择的传感器(例如,传感器808和810)被禁用或以其他方式不被允许经由物理链路802发送传感器数据。在一些示例中,主机控制器812可以选择传感器的子集来以较高分辨率和/或较高帧速率发送图像数据,而未被选择的传感器可以以较低分辨率和/或较低帧速率发送图像数据。
主机控制器812通过各种方式来选择传感器的子集。例如,主机控制器812可以基于例如从由传感器的子集捕获的先前图像中检测到感兴趣对象的特征,来确定传感器的子集可能在给定时间捕获感兴趣对象(例如,用户的手、用于定位跟踪的其他物理对象)的图像。在感兴趣对象相对于移动设备700移动的情况下,主机控制器812可以确定对象相对于移动设备700的预测的移动轨迹。基于预测的移动轨迹,主机控制器812可以确定哪些传感器可能在给定时间捕获对象的图像,并在不同时间启用图像传感器的不同子集。预测的轨迹可以基于例如在由传感器相对于时间捕获的先前图像和最近图像中对象的像素位置,以及移动设备700的先前和最近定位和/或取向。例如,基于检测到用户的头部(以及移动设备700)正在旋转以观看飞行对象,主机控制器812可以预测飞行对象相对于移动设备700的传感器的轨迹,并且确定当用户继续旋转他/她的头部时在不同时间点最有可能捕获飞行对象的图像的传感器的子集。主机控制器812然后可以在那些时间点启用传感器的子集,同时禁用其余传感器,以减少通过物理链路802传输的图像数据量。主机控制器812还可以应用类似的技术来选择性地启用/禁用其他类型的传感器数据(诸如音频数据)的发送。
图8E示出了传感器804-810的另一示例配置。如图8E所示,主机控制器812可以控制传感器804-810或者如上所述被选择的传感器804-810的子集(例如,传感器804)来执行稀疏感测操作,以进一步减少通过网络传输的图像数据量。具体而言,主机控制器812可以为被启用发送图像数据的每个传感器确定可能生成感兴趣对象的像素数据的ROI(如图6C和图6D中所述)。ROI的确定可以基于例如,从由那些传感器捕获的先前图像中检测到感兴趣对象的特征,预测对象相对于移动设备700的移动轨迹,如上文在图8D中所述。在图8E中,主机控制器812可以确定包括人的头部和手的像素的ROI 860、862和864。主机控制器812然后可以控制传感器804,以仅启用对应于ROI 860、862和864的像素单元的子集来检测光和/或发送像素数据,而传感器804的其余像素不发送像素数据。结果,传感器数据814仅包括ROI 860、862和864内的像素。
除了稀疏感测之外,主机控制器812还可以改变属于ROI的像素单元和不属于ROI的像素单元之间的图像捕获操作的其他方面。例如,主机控制器812可以相对于其他像素单元增加属于ROI的像素单元的量化分辨率、曝光周期、动态范围等(如上文在图6C和图6D中所述),以提高图像数据的质量。
主机控制器812可以通过各种方式向传感器提供ROI信息。例如,控制数据822可以包括编程图(programming map),该编程图指定作为每个图像帧的ROI的一部分的像素单元(或像素单元块)。在感兴趣对象相对于移动设备700移动的情况下,主机控制器812可以发送更新的控制数据822,更新的控制数据822包括不同图像帧的更新的ROI。在另一个示例中,传感器可以包括某些计算能力,以在本地确定ROI,并且主机控制器812可以将指导信号作为控制数据822的一部分发送到传感器,以在传感器处指导ROI的确定。指导信号可以包括标识以下内容的信息:感兴趣对象的特征、ROI的位置和大小的粗略估计等。基于指导数据,传感器可以基于检测指定的特征、细化ROI的估计等来确定ROI。利用这样的布置,可以减少由主机控制器812发送到传感器的控制数据的量,因为控制器不需要在图像帧之间将更新的ROI信息发送到传感器以考虑移动设备和/或感兴趣对象的移动,这可以进一步降低网络的功率和带宽要求。
图9A、图9B、图9C和图9D示出了主机控制器812和传感器804-810的内部部件的示例。如图9A所示,传感器804包括传感器计算电路906和像素单元阵列908。传感器计算电路906包括图像处理器910和编程图生成器912。在一些示例中,传感器计算电路906可以被实现为专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者执行指令以实现图像处理器910和编程图生成器912的功能的硬件处理器。此外,主机控制器812可以包括可以执行应用914的通用中央处理单元(CPU)。
像素单元阵列908的每个像素单元或像素单元块可以单独可编程,以例如启用/禁用像素值的输出、设置由像素单元输出的像素值的分辨率等。像素单元阵列908可以从传感器计算电路906的编程图生成器912接收第一编程信号920,第一编程信号920可以是包含用于每个像素单元的编程数据的编程图的形式。像素单元阵列908可以感测来自场景的光,并基于第一编程信号920生成场景的第一图像帧922。具体来说,像素单元阵列908可由第一编程信号920控制以在不同稀疏性模式下操作,诸如在第一图像帧922包括完整图像帧的像素的全帧模式下操作,和/或在第一图像帧922仅包括由编程图指定的像素子集的稀疏模式下操作。在一些示例中,编程图生成器912可以是主机控制器812的一部分,其中像素单元阵列908从主机控制器812接收第一编程信号920。
除了生成第一编程信号920之外,传感器计算电路906还可以生成全局信号,该全局信号被发送到像素单元阵列908的每个像素单元。全局信号可以包括例如用于TTS、FDADC和PD ADC操作中的量化操作的阈值电压(例如,用于FD ADC和PD ADC操作的全局电压斜坡(ramp)、用于TTS操作的平坦电压等),以及全局控制信号(诸如图6B的AB和TG信号)。
像素单元阵列908可以将第一图像帧922输出到主机控制器812和传感器计算电路906两者。在一些示例中,像素单元阵列908还可以将具有不同的像素稀疏性的第一图像帧922输出到主机控制器812和传感器计算电路906。例如,像素单元阵列908可以将具有完整图像帧的像素的第一图像帧922输出回传感器计算电路906,并将具有由第一编程信号920限定的稀疏像素的第一图像帧922输出到主机控制器812。
传感器计算电路906和主机控制器812以及图像传感器804可以基于第一图像帧922形成两层反馈系统,以控制图像传感器生成后续图像帧924。在两层反馈操作中,传感器计算电路906的图像处理器910可以对第一图像帧922执行图像处理操作以获得处理结果,并且然后编程图生成器912可以基于处理结果更新第一编程信号920。可以基于被包括在来自主机控制器812的控制数据822中的第二编程信号932来指导/配置图像处理器910处的图像处理操作,主机控制器812可以基于第一图像帧922生成第二编程信号920。像素单元阵列908然后可以基于更新的第一编程信号920生成后续图像帧924。主机控制器812和传感器计算电路906然后可以基于后续图像帧924分别更新第一编程信号920和第二编程信号932。
在前述两层反馈系统中,来自主机控制器812的控制数据822的第二编程信号932可以是以下形式:教导/指导信号、神经网络训练操作的结果(例如,反向传播结果)等,以影响传感器计算电路906处的图像处理操作和/或编程图生成。主机控制器812可以不仅基于第一图像帧,还基于其他传感器数据(例如,由其他图像传感器捕获的其他图像帧、音频信息、运动传感器输出、来自用户的输入等)来确定由图像传感器804进行的光感测操作的上下文,并且然后确定教导/指导信号,从而生成教导/指导信号。该上下文可以包括例如图像传感器804操作的环境条件、图像传感器804的定位、感兴趣对象的特征或应用914的任何其他要求。考虑到上下文通常以比帧速率低得多的速率变化,教导/指导信号可以基于上下文以相对低(例如,低于帧速率)的速率更新,而在传感器计算电路906处的图像处理操作和编程图更新可以以相对高的速率(例如,以帧速率)发生,以适应由像素单元阵列908捕获的图像。
尽管图9A示出了像素单元阵列908将第一图像帧922和第二图像帧924发送到主机控制器812和传感器计算电路906两者,但是在一些情况下,像素单元阵列908可以将不同稀疏性的图像帧发送到主机控制器812和传感器计算电路906。例如,像素单元阵列908可以将具有全像素的第一图像帧922和第二图像帧924发送到图像处理器910,而将两个图像帧的稀疏版本发送到主机控制器812,每个图像帧的稀疏版本包括基于第一编程信号920而选择的像素的子集。
图9B示出了像素单元阵列908的内部部件的示例。如图9B所示,像素单元阵列908可以包括列控制器934、行控制器936和编程信号解析器940。列控制器934与列总线935(例如,935a、935b、...、935n)相连接,而行控制器936与行总线937(例如,937a、937b、...、937n)相连接。列控制器934或行控制器936中的一个也与编程总线942连接,以发送以特定的像素单元或一个像素单元组为目标的像素级编程信号943。标有P00、P01、P0j等的每个方框可以表示一个像素单元或一个像素单元组(例如,2×2像素单元的组)。每个像素单元或像素单元组可以连接到列总线937之一、行总线935之一、编程总线942和用于输出像素数据的输出数据总线(图9B中未示出)。每个像素单元(或每个像素单元组)可通过由列控制器934提供的在列总线937上的列地址信号944和由行控制器936提供的在行总线935上的行地址信号946单独寻址,以一次经由像素级编程总线942接收像素级编程信号943。列地址信号944、行地址信号946以及像素级编程信号943可以基于来自编程图生成器912的第一编程信号920来生成。
此外,像素单元阵列908还包括编程信号解析器940,其可以从第一编程信号920中提取像素级编程信号943。在一些示例中,第一编程信号920可以包括编程图,该编程图可以包括用于像素单元阵列908的每个像素单元或每个像素单元组的编程数据。图9C示出了像素阵列编程图948的示例。如图9C所示,像素阵列编程图948可以包括像素级编程数据的二维阵列,其中二维阵列的每个像素级编程数据以像素单元阵列908的一个像素单元或一个像素单元组为目标。例如,在每个像素级编程数据以像素单元为目标的情况下,并且假设像素单元阵列808具有M个像素的宽度(例如,M列像素)和N个像素的高度(例如,N行像素),像素阵列编程图948还可以具有M个条目的宽度(例如,M列条目)和N个条目的高度(例如,N行条目),其中每个条目存储用于对应的像素单元的像素级编程数据。例如,像素阵列编程图948的条目(0,0)处的像素级编程数据A00以像素单元阵列908的像素位置(0,0)处的像素单元P00为目标,而像素阵列编程图948的条目(0,1)处的像素级编程数据A01以像素单元阵列908的像素位置(0,1)处的像素单元P01为目标。在像素级编程数据以一个像素单元组为目标的情况下,像素阵列编程图948沿高度和宽度的条目数量可以基于每个组中的像素单元数量来按比例缩放。
像素阵列编程图948可以被配置为支持图9B中描述的反馈操作。例如,存储在每个条目处的像素级编程数据可以单独地对每个像素单元(或每个像素单元组)进行编程以例如通电或断电、启用或禁用像素数据的输出、设置量化分辨率、设置输出像素数据的精度、选择量化操作(例如,TTS、FD ADC、PD ADC之一)、设置帧速率等。如上所述,编程图生成器912可以基于例如一个或更多个ROI的预测来生成像素阵列编程图948,其中用于ROI内的像素单元的像素级编程数据不同于用于ROI外部的像素单元的像素级编程数据。例如,像素阵列编程图948可以启用像素单元(或像素单元组)的子集来输出像素数据,而其余像素单元不输出像素数据。作为另一个示例,像素阵列编程图948可以控制像素单元的子集以较高的分辨率输出像素数据(例如,使用较大数量的比特来表示每个像素),而其余像素单元以较低的分辨率输出像素数据。
返回参考图9B,编程图解析器940可以解析可以在串行数据流中的像素阵列编程图948,以识别用于每个像素单元(或每个像素单元组)的像素级编程数据。像素级编程数据的识别可以基于例如预定的扫描模式(通过该扫描模式,二维像素阵列编程图被转换成串行格式)、以及编程信号解析器940从串行数据流接收像素级编程数据的顺序。对于编程数据的每个条目,编程信号解析器940可以生成行地址信号944和列地址信号946,并将行地址信号944和列地址信号946分别发送到行控制器936和列控制器934以选择像素单元,并将像素级编程信号943发送到所选择的像素单元(或像素单元组)。
图9D示出了像素单元阵列908的像素单元950的示例内部部件,像素单元950可以包括图6A的像素单元601的至少一些部件。像素单元950可以包括一个或更多个光电二极管(包括光电二极管952a、952b等),每个光电二极管可以被配置为检测不同频率范围的光。例如,光电二极管952a可以检测可见光(例如,单色,或红色、绿色或蓝色之一),而光电二极管952b可以检测红外光。像素单元950还包括开关954(例如,晶体管、控制器阻挡层)来控制哪个光电二极管输出用于像素数据生成的电荷。
此外,像素单元950还包括如图6A所示的电子快门开关603、转移开关604、电荷存储设备605、缓冲器606、量化器607,以及复位开关951和存储器955。电荷存储设备605可以具有可配置的电容,以设置电荷-电压转换增益。在一些示例中,对于中等光强度,可以增大电荷存储设备605的电容,以存储溢出电荷用于FD ADC操作,从而降低电荷存储设备605被溢出电荷饱和的可能性。对于低光强度,也可以减小电荷存储设备605的电容,以增加电荷-电压转换增益用于PD ADC操作。电荷-电压转换增益的增加可以减少量化误差并增加量化分辨率。在一些示例中,也可以在FD ADC操作期间减小电荷存储设备605的电容,以增加量化分辨率。复位开关951可以在捕获图像帧之前和/或在FD ADC操作和PD ADC操作之间复位电荷存储设备605。缓冲器606包括电流源956和电源门958,电流源956的电流可以由偏置信号BIAS1设置,电源门958可以由PWR_GATE信号控制以打开/关闭缓冲器606。作为禁用像素单元950的一部分,可以关闭缓冲器606。
此外,量化器607包括比较器960和输出逻辑962。比较器960可以将缓冲器的输出与参考电压(VREF)进行比较,以生成输出。根据量化操作(例如,TTS、FD ADC、PD ADC操作),比较器960可以将缓冲的电压与不同的VREF电压进行比较以生成输出,并且输出被输出逻辑962进一步处理以使存储器955存储来自自由运行计数器的值作为像素输出。比较器960的偏置电流可以由偏置信号BIAS2控制,该偏置信号BIAS2可以设置比较器960的带宽,比较器960的带宽可以基于要由像素单元950支持的帧速率来设置。此外,比较器960的增益可以由增益控制信号GAIN控制。比较器960的增益可以基于要由像素单元950支持的量化分辨率来设置。比较器960还包括电源开关961,电源开关961也可以由PWR_GATE信号控制以打开/关闭比较器960。作为禁用像素单元950的一部分,可以关闭比较器960。
此外,输出逻辑962可以选择TTS、FD ADC或PD ADC操作之一的输出,并且基于该选择,确定是否将比较器960的输出转发到存储器955以存储来自计数器的值。输出逻辑962可以包括内部存储器,以基于比较器960的输出来存储光电二极管952(例如,光电二极管952a)是否被剩余电荷饱和以及电荷存储设备605是否被溢出电荷饱和的指示。如果电荷存储设备605被溢出电荷饱和,输出逻辑962可以选择TTS输出来存储在存储器955中,并且防止存储器955用FD ADC/PD ADC输出盖写(overwrite)该TTS输出。如果电荷存储设备605未饱和,但是光电二极管952饱和,则输出逻辑962可以选择FD ADC输出来存储在存储器955中;否则,输出逻辑962可以选择PD ADC输出来存储在存储器955中。在一些示例中,代替计数器值,光电二极管952是否被剩余电荷饱和以及电荷存储设备605是否被溢出电荷饱和的指示可以被存储在存储器955中,以提供最低精度的像素数据。
此外,像素单元950可以包括像素单元控制器970,像素单元控制器970可以包括逻辑电路以产生控制信号,例如AB、TG、BIAS1、BIAS2、GAIN、VREF、PWR_GATE等。像素单元控制器970也可以由像素级编程信号926来编程。例如,为了禁用像素单元950,像素单元控制器970可以由像素级编程信号926编程为宣称PWR_GATE无效,以关闭缓冲器606和比较器960。此外,为了增加量化分辨率,像素单元控制器970可以由像素级编程信号926编程为减小电荷存储设备605的电容、经由GAIN信号增加比较器960的增益等等。为了提高帧速率,像素单元控制器970可以由像素级编程信号926编程为增加BIAS1信号和BIAS2信号,以分别增加缓冲器606和比较器960的带宽。此外,为了控制像素单元950输出的像素数据的精度,像素单元控制器970可以由像素级编程信号926编程为例如,仅将计数器的位的子集(例如,最高有效位)连接到存储器955使得存储器955仅存储位的子集,或者将存储在输出逻辑962中的指示作为像素数据存储到存储器955。另外,像素单元控制器970可以由像素级编程信号926编程为控制AB和TG信号的序列和时序,以例如调整曝光周期和/或选择特定量化操作(例如,TTS、FD ADC或PD ADC之一),同时基于操作条件来跳过其他量化操作,如上所述。
图10示出了生成要由诸如移动设备700的移动设备输出的内容的方法1000。方法1000可以由移动设备的控制器(诸如图8A-图8E的主机控制器812)执行。移动设备可以包括面向不同方向的多个图像传感器(诸如图7A的图像传感器702、704、706和708)以及音频传感器和运动传感器,以收集移动设备的周围环境的传感器数据。控制器和传感器耦合到物理链路并形成多分支网络,多分支网络的示例在图8B和图8C中示出。每个图像传感器或图像传感器组可以被单独编程。例如,可以单独启用或禁用每个图像传感器/图像传感器组。每个图像传感器生成图像数据的分辨率和帧速率也可以是不同的。此外,每个图像传感器包括多个像素单元,并且每个像素单元或像素单元块的图像感测操作可以被单独编程。例如,可以单独启用或禁用每个像素(或像素单元块)。图像传感器的示例在图9A-图9D中示出。
在步骤1002中,控制器可以发送控制信号(例如,控制数据822)来选择移动设备的多个图像传感器的子集。在一些示例中,可以经由物理链路来发送控制信号,物理链路诸如包括串行数据线(SDL)和串行时钟线(SCL)的I3C总线。为了发送控制信号,控制器可以基于时钟信号模式来下拉SCL,并且基于包括控制数据822和目标传感器(一个或更多个目标传感器)的地址的串行数据模式来下拉SDL。在一些示例中,移动设备还可以包括用于传输控制数据的第一物理链路(例如,总线)和用于传输图像数据的第二物理链路(例如,另一条总线、光链路等)。在这种情况下,控制器可以经由第一物理链路发送控制信号。
在一些示例中,控制信号还可以包括像素阵列编程图(例如,像素阵列编程图948),该像素阵列编程图定义用于目标传感器(一个或更多个目标传感器)中的每个像素(或像素块)的编程信息。编程信息可以限定例如要被启用来执行图像感测操作和/或发送像素数据的像素子集、生成和发送像素数据的帧速率以及图像感测操作的分辨率。
在步骤1004中,控制器经由物理链路(可以是与传输控制信号的物理链路相同或不同的物理链路)从多个图像传感器的子集中的每个图像传感器接收图像数据。在一些示例中,控制信号可以启用多个图像传感器中的每个图像传感器。在一些示例中,控制信号可以仅启用图像传感器的子集。每个图像传感器也可以由控制信号控制,以仅选择像素的子集来生成像素数据,使得图像数据包括稀疏图像,其中只有像素的子集包含图像数据,而其余像素不包含图像数据,如图8E所示。像素的子集可以对应于例如感兴趣对象。不同的传感器也可以以不同的分辨率和/或不同的帧速率生成/发送图像数据。
在物理链路是I3C总线的情况下,图像传感器的子集可以驱动包括SDL上的传感器数据的另一个串行数据模式,并且一次只有传感器中的一个传感器可以经由SDL向控制器发送传感器数据。当多个传感器试图同时驱动SDL时,每个传感器发送传感器数据的时序可以基于根据预定发送调度而定义的控制信号、和/或基于退避延迟来控制。在物理链路是光链路的情况下,图像传感器的子集可以同时或顺序地调制光链路中的光,以发送传感器数据。
在步骤1008中,控制器可以组合来自多个图像传感器的至少一个子集的图像数据,以获得比图像传感器的该子集中的每个图像传感器提供的视场(FOV)更大的扩展的FOV。如图7A-图7C所述,多个图像传感器可以包括面向相同方向的图像传感器和面向不同方向的图像传感器。通过组合来自图像传感器的图像数据,可以实现比每个图像传感器的FOV大的扩展的FOV。在一些示例中,立体对的图像传感器可以被配置为捕获不同频率范围的光以支持深度感测。
在步骤1008中,控制器可以确定在扩展的FOV内捕获的移动设备的周围环境的信息。如图7B-图7C所述,该信息可以包括例如场景中的一个或更多个物理对象的定位、用户周围的人(及其姿势)的存在的检测结果、用户的身体部位(例如手)的跟踪结果等。该信息是基于扩展图像传感器的FOV而提供的。
在步骤1010中,控制器可以向应用提供信息,以基于该信息生成内容。例如,为了提供VR/AR/MR体验,应用可以用虚拟对象替换检测到的对象,生成指示有人站在用户后面的音频/显示信号等。
本描述的一些部分从对信息的操作的算法和符号表示方面描述了本公开的实施例。数据处理领域的技术人员通常使用这些算法描述和表示来向本领域的其他技术人员有效地传达他们工作的实质。这些操作虽然在功能上、计算上或逻辑上进行了描述,但应理解为将由计算机程序或等效电路、微代码等来实现。此外,将操作的这些布置称为模块有时候也被证明是方便的而不失一般性。所描述的操作和它们的相关模块可以体现在软件、固件和/或硬件中。
可以利用一个或更多个硬件或软件模块单独地或与其他设备组合地来执行或实现所描述的步骤、操作或过程。在一些实施例中,利用包括包含计算机程序代码的计算机可读介质的计算机程序产品来实现软件模块,计算机程序代码可以由计算机处理器执行,用于执行所描述的任何或全部步骤、操作或过程。
本公开的实施例也可以涉及用于执行所描述操作的装置。该装置可以为所需目的而专门构造,和/或它可以包括由存储在计算机中的计算机程序选择性激活或重新配置的通用计算设备。这种计算机程序可以存储在非暂时性的、有形的计算机可读存储介质中、或者适于存储电子指令的任何类型的介质中,其可以耦合到计算机系统总线。此外,说明书中提到的任何计算系统可以包括单个处理器,或者可以是采用多处理器设计以提高计算能力的架构。
本公开的实施例也可以涉及由本文所述的计算过程产生的产品。这样的产品可以包括从计算过程获得的信息,其中信息被存储在非暂时性的、有形的计算机可读存储介质上并且可以包括计算机程序产品或本文所述的其他数据组合的任何实施例。
在说明书中使用的语言主要出于可读性和指导性的目的而被选择,并且它可以不被选择来描绘或限制发明的主题。因此,意图是本公开的范围不由该详细描述限制,而是由在基于其的申请上发布的任何权利要求限制。因此,实施例的公开意图对本公开的范围是说明性的,而不是限制性的,在所附权利要求中阐述了本公开的范围。

Claims (20)

1.一种移动设备,包括:
物理链路;
多个图像传感器,所述多个图像传感器中的每一个图像传感器被配置为经由所述物理链路发送图像数据;和
控制器,所述控制器耦合到所述物理链路,由此所述物理链路、所述多个图像传感器和所述控制器形成多分支网络;
其中,所述控制器被配置为:
发送控制信号以配置所述多个图像传感器处的图像感测操作;
经由所述物理链路从所述多个图像传感器的至少一个子集接收图像数据;
组合来自所述多个图像传感器的所述至少一个子集的图像数据,以获得比图像传感器的所述子集中的每个图像传感器提供的视场(FOV)更大的扩展的FOV;
确定在所述扩展的FOV内捕获的所述移动设备的周围环境的信息;和
将所述信息提供给应用以基于所述信息生成内容。
2.根据权利要求1所述的移动设备,其中,所述控制器被配置为基于发送所述控制信号,选择所述多个图像传感器的所述子集来发送所述图像数据,并且禁用所述多个图像传感器的其余部分。
3.根据权利要求2所述的移动设备,其中,所述图像数据是第一图像数据;
其中,所述控制器被配置为基于发送所述控制信号来:
控制所述多个图像传感器的所述子集以第一分辨率发送所述第一图像数据;和
控制所述多个图像传感器的其余部分以第二分辨率发送第二图像数据;和
其中,所述第一分辨率高于所述第二分辨率。
4.根据权利要求2所述的移动设备,其中,所述图像数据是第一图像数据;
其中,所述控制器被配置为基于发送所述控制信号来:
控制所述多个图像传感器的所述子集以第一帧速率发送所述第一图像数据;和
控制所述多个图像传感器的其余部分以第二帧速率发送第二图像数据;和
其中,所述第一帧速率高于所述第二帧速率。
5.根据权利要求2所述的移动设备,其中,所述周围环境的信息包括感兴趣对象的跟踪结果;并且
其中,所述控制器被配置为:基于确定由所述多个图像传感器的所述子集生成的图像数据可能包含所述对象的一个或更多个图像,来选择所述多个图像传感器的所述子集。
6.根据权利要求5所述的移动设备,其中,所述控制器被配置为:基于在来自所述多个图像传感器的所述子集的先前图像数据中检测到所述对象的特征,来确定由所述多个图像传感器的所述子集生成的图像数据可能包含所述对象的一个或更多个图像。
7.根据权利要求5所述的移动设备,其中,所述控制器被配置为:基于来自所述多个图像传感器的先前图像数据,来确定所述对象和所述移动设备之间的相对移动的先前轨迹;并且
其中,所述控制器被配置为:
基于所述先前轨迹来预测所述对象的轨迹;和
基于预测的轨迹来确定由所述多个图像传感器的所述子集生成的图像数据可能包含所述对象的一个或更多个图像。
8.根据权利要求1所述的移动设备,其中,所述多个图像传感器中的每个图像传感器包括像素单元阵列;并且
其中,所述控制器被配置为:基于发送所述控制信号,选择性地配置所述多个图像传感器中的一个或更多个图像传感器中的像素单元阵列中的特定像素单元子集的图像捕获操作。
9.根据权利要求8所述的移动设备,其中,所述控制器被配置为基于发送所述控制信号来:
启用所述多个图像传感器中的第一图像传感器的像素单元阵列中的像素单元的第一子集来经由所述物理链路向所述控制器发送第一图像数据;和
启用所述多个图像传感器中的第二图像传感器的像素单元阵列中的像素单元的第二子集来经由所述物理链路向所述控制器发送第二图像数据;并且
其中,所述第一子集与所述第二子集是不同的。
10.根据权利要求8所述的移动设备,其中,所述控制器被配置为基于发送所述控制信号来:
启用所述多个图像传感器中的第一图像传感器的像素单元阵列中的第一像素单元子集来以第一分辨率生成第一图像数据;和
启用所述第一图像传感器的所述像素单元阵列中的第二像素单元子集来以第二分辨率生成第二图像数据;并且
其中,所述第一分辨率高于所述第二分辨率。
11.根据权利要求8所述的移动设备,其中,所述控制器被配置为基于发送所述控制信号来:
设置所述多个图像传感器中的第一图像传感器的像素单元阵列中的第一像素单元子集的第一动态范围;
设置所述第一图像传感器的所述像素单元阵列中的第二像素单元子集的第二动态范围;并且
其中,所述第一动态范围高于所述第二动态范围。
12.根据权利要求8所述的移动设备,其中,对于所述多个图像传感器的所述子集中的每个图像传感器,所述控制信号识别所述像素单元阵列中的所述特定像素单元子集中的像素单元。
13.根据权利要求8所述的移动设备,其中,所述控制信号包括指导信号;并且
其中,所述多个图像传感器中的第一图像传感器被配置为基于所述指导信号,在本地确定所述像素单元阵列中的所述特定像素单元子集。
14.根据权利要求13所述的移动设备,其中,所述指导信号指定感兴趣对象的特征;
其中,所述第一图像传感器被配置为:
基于所述指导信号,确定包括所述感兴趣对象的感兴趣区域;和
基于所述感兴趣区域,确定所述像素单元阵列中的所述特定像素单元子集。
15.根据权利要求8所述的移动设备,其中,所述像素单元阵列中的所述特定像素单元子集是基于以下至少一项来确定的:感兴趣对象的跟踪结果,或所述移动设备的移动。
16.根据权利要求1所述的移动设备,其中,来自所述多个图像传感器中的至少第一图像传感器和第二图像传感器的图像数据被组合;并且
其中,所述第一图像传感器和所述第二图像传感器面向不同的方向。
17.根据权利要求1所述的移动设备,其中,来自所述多个图像传感器中的至少第一图像传感器和第二图像传感器的图像数据被组合;
其中,所述第一图像传感器被配置为捕获第一频率范围的光;并且
其中,所述第二图像传感器被配置为捕获不同于所述第一频率范围的第二频率范围的光。
18.根据权利要求1所述的移动设备,其中,所述物理链路包括以下至少一种:基于I3C规范的总线,或光链路。
19.一种方法,包括:
发送控制信号以配置移动设备的多个图像传感器处的图像感测操作;
经由物理链路从所述多个图像传感器的子集中的每个图像传感器接收图像数据,其中,所述多个图像传感器和所述物理链路形成多分支网络;
组合来自所述多个图像传感器的至少一个子集的图像数据,以获得比图像传感器的所述子集中的每个图像传感器提供的视场(FOV)更大的扩展的FOV;
确定在所述扩展的FOV内捕获的所述移动设备的周围环境的信息;和
将所述信息提供给应用,以基于所述信息生成要由所述移动设备输出的内容。
20.根据权利要求19所述的方法,还包括:基于发送所述控制信号,选择所述多个图像传感器的子集来发送所述图像数据,并且禁用所述多个图像传感器的其余部分。
CN202080073982.0A 2019-10-30 2020-10-30 分布式传感器系统 Pending CN114586331A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962928233P 2019-10-30 2019-10-30
US62/928,233 2019-10-30
US17/083,920 2020-10-29
US17/083,920 US11935291B2 (en) 2019-10-30 2020-10-29 Distributed sensor system
PCT/US2020/058097 WO2021087192A1 (en) 2019-10-30 2020-10-30 Distributed sensor system

Publications (1)

Publication Number Publication Date
CN114586331A true CN114586331A (zh) 2022-06-03

Family

ID=75687433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080073982.0A Pending CN114586331A (zh) 2019-10-30 2020-10-30 分布式传感器系统

Country Status (7)

Country Link
US (2) US11935291B2 (zh)
EP (1) EP4052117A1 (zh)
JP (1) JP2023501856A (zh)
KR (1) KR20220087465A (zh)
CN (1) CN114586331A (zh)
TW (1) TW202127104A (zh)
WO (1) WO2021087192A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10598546B2 (en) 2017-08-17 2020-03-24 Facebook Technologies, Llc Detecting high intensity light in photo sensor
US11906353B2 (en) * 2018-06-11 2024-02-20 Meta Platforms Technologies, Llc Digital pixel with extended dynamic range
US11943561B2 (en) 2019-06-13 2024-03-26 Meta Platforms Technologies, Llc Non-linear quantization at pixel sensor
US11936998B1 (en) 2019-10-17 2024-03-19 Meta Platforms Technologies, Llc Digital pixel sensor having extended dynamic range
US11956560B2 (en) 2020-10-09 2024-04-09 Meta Platforms Technologies, Llc Digital pixel sensor having reduced quantization operation
US12022218B2 (en) 2020-12-29 2024-06-25 Meta Platforms Technologies, Llc Digital image sensor using a single-input comparator based quantizer
TWI806226B (zh) * 2021-11-08 2023-06-21 宏碁股份有限公司 影像感測方法與影像感測裝置
US11995012B2 (en) * 2022-03-15 2024-05-28 Samsung Electronics Co., Ltd. High speed interface for multi image sensor device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106233188A (zh) * 2014-04-24 2016-12-14 Lg电子株式会社 头戴式显示器及其控制方法
CN108139799A (zh) * 2016-04-22 2018-06-08 深圳市大疆创新科技有限公司 基于用户的兴趣区(roi)处理图像数据的系统和方法
CN109298528A (zh) * 2017-07-25 2019-02-01 脸谱科技有限责任公司 传感器组件和头戴式显示器
US20190046044A1 (en) * 2015-06-14 2019-02-14 Facense Ltd. Respiration-based estimation of an aerobic activity parameter

Family Cites Families (212)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4121896A (en) 1976-03-24 1978-10-24 Shepherd Thomas H Apparatus for the production of contact lenses
JPH09142031A (ja) 1995-11-22 1997-06-03 Fujicopian Co Ltd 熱転写記録材料
US6486504B1 (en) 1999-10-26 2002-11-26 Eastman Kodak Company CMOS image sensor with extended dynamic range
US6384905B1 (en) 2000-07-07 2002-05-07 The United States Of America As Represented By The Secretary Of The Navy Optic flow sensor with fused elementary motion detector outputs
US7079178B2 (en) 2001-02-20 2006-07-18 Jaroslav Hynecek High dynamic range active pixel CMOS image sensor and data processing system incorporating adaptive pixel reset
US6854045B2 (en) * 2001-06-29 2005-02-08 Intel Corporation Hardware emulation of parallel ATA drives with serial ATA interface
JP4175828B2 (ja) 2002-04-18 2008-11-05 抱 石井 撮像カメラ装置及びイメージャの画像データ読取り方法
AU2003260400A1 (en) 2003-01-10 2004-08-10 Paul Scherrer Institut Photon counting imaging device
EP1603170B1 (en) 2003-03-10 2018-08-01 Toyoda Gosei Co., Ltd. Method for manufacturing a solid-state optical element device
US7280143B2 (en) 2003-04-14 2007-10-09 Micron Technology, Inc. CMOS image sensor with active reset and 4-transistor pixels
JP4846571B2 (ja) 2003-04-24 2011-12-28 ディスプレイテック,インコーポレイテッド 微小表示装置システム及び画像を表示する方法
US7362355B1 (en) 2003-08-04 2008-04-22 Pixim, Inc. Digital CMOS image sensor incorporating a programmable multi-functional lookup table
JP4241259B2 (ja) 2003-08-06 2009-03-18 セイコーエプソン株式会社 マイクロレンズの製造方法
US6853579B1 (en) 2003-09-09 2005-02-08 Taiwan Semiconductor Manufacturing Co., Ltd. Non-refresh four-transistor memory cell
US6885331B2 (en) 2003-09-15 2005-04-26 Micron Technology, Inc. Ramp generation with capacitors
US6934182B2 (en) 2003-10-03 2005-08-23 International Business Machines Corporation Method to improve cache capacity of SOI and bulk
JP4228876B2 (ja) 2003-10-23 2009-02-25 富士フイルム株式会社 磁気記録媒体
JP4317115B2 (ja) 2004-04-12 2009-08-19 国立大学法人東北大学 固体撮像装置、光センサおよび固体撮像装置の動作方法
CN101820537B (zh) 2004-04-23 2013-04-03 住友电气工业株式会社 活动图像数据的编码方法、终端装置以及双向对话型系统
GB0416496D0 (en) 2004-07-23 2004-08-25 Council Of The Central Lab Of Imaging device
CA2578005A1 (en) 2004-08-23 2006-03-02 Sony Corporation Imaging apparatus, image processing method and integrated circuit
US7603514B2 (en) * 2005-03-31 2009-10-13 Intel Corporation Method and apparatus for concurrent and independent data transfer on host controllers
TW201101476A (en) 2005-06-02 2011-01-01 Sony Corp Semiconductor image sensor module and method of manufacturing the same
JP2006348085A (ja) 2005-06-13 2006-12-28 Nissan Motor Co Ltd イオン性液体を用いたクッションアクチュエータ、及びそれからなる車両用部品
US7359275B1 (en) 2005-09-08 2008-04-15 Integrated Device Technology, Inc. Reduced size dual-port SRAM cell
KR100775058B1 (ko) 2005-09-29 2007-11-08 삼성전자주식회사 픽셀 및 이를 이용한 이미지 센서, 그리고 상기 이미지센서를 포함하는 이미지 처리 시스템
US7659925B2 (en) 2005-10-04 2010-02-09 Alexander Krymski High speed CMOS image sensor circuits with memory readout
JP4238898B2 (ja) 2006-08-30 2009-03-18 ソニー株式会社 光学素子の製造装置
JP2008228232A (ja) 2007-03-15 2008-09-25 Canon Inc 撮像装置、撮像方法、プログラム、及び記憶媒体
JP2008270500A (ja) 2007-04-19 2008-11-06 Sharp Corp 固体撮像素子およびその製造方法、電子情報機器
US7920409B1 (en) 2007-06-05 2011-04-05 Arizona Board Of Regents For And On Behalf Of Arizona State University SRAM cell with intrinsically high stability and low leakage
JP5067850B2 (ja) * 2007-08-02 2012-11-07 キヤノン株式会社 システム、頭部装着型表示装置、その制御方法
US7956914B2 (en) 2007-08-07 2011-06-07 Micron Technology, Inc. Imager methods, apparatuses, and systems providing a skip mode with a wide dynamic range operation
US8441535B2 (en) 2008-03-05 2013-05-14 Omnivision Technologies, Inc. System and method for independent image sensor parameter control in regions of interest
EP2104234B1 (en) 2008-03-21 2011-08-31 STMicroelectronics Limited Analog-to-digital conversion in image sensors
US8098955B2 (en) 2008-03-25 2012-01-17 Point Grey Research Inc. Efficient selection and application of regions of interest in digital imaging
EP2330173B1 (en) 2008-07-04 2016-08-17 LG Chem, Ltd. A radial type liquid crystal compound, and an optical film and liquid crystal display (lcd) device containing compound
WO2010056083A2 (ko) 2008-11-14 2010-05-20 삼성엘이디 주식회사 반도체 발광소자
US7969759B1 (en) 2008-12-19 2011-06-28 Suvolta, Inc. Method and apparatus for improving SRAM write operations
KR20100089389A (ko) 2009-02-03 2010-08-12 삼성전자주식회사 점착 조성물 및 이로부터 제조되는 점착 필름
KR101627725B1 (ko) 2009-02-03 2016-06-07 삼성전자 주식회사 광경화형 화합물
US8625012B2 (en) 2009-02-05 2014-01-07 The Hong Kong University Of Science And Technology Apparatus and method for improving dynamic range and linearity of CMOS image sensor
US8329306B2 (en) 2009-03-03 2012-12-11 Fujifilm Corporation Barrier laminate, gas barrier film, and device using the same
KR101581222B1 (ko) 2009-03-30 2015-12-30 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법 및 컴퓨터 판독가능 저장매체
US8868821B2 (en) 2009-08-26 2014-10-21 Densbits Technologies Ltd. Systems and methods for pre-equalization and code design for a flash memory
CN102334293B (zh) 2009-09-11 2014-12-10 松下电器产业株式会社 模拟/数字变换器、图像传感器系统、照相机装置
US8174868B2 (en) 2009-09-30 2012-05-08 Taiwan Semiconductor Manufacturing Co., Ltd. Embedded SRAM structure and chip
EP2517451B1 (en) 2009-12-24 2015-04-22 Imagerlabs Inc. Adjustable cmos sensor array
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US20120200499A1 (en) * 2010-02-28 2012-08-09 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based control of applications resident on external devices with feedback
KR20110100974A (ko) 2010-03-05 2011-09-15 동우 화인켐 주식회사 착색 감광성 수지 조성물, 이를 포함하는 컬러필터 및 액정표시장치
IT1400749B1 (it) 2010-06-30 2013-07-02 St Microelectronics Srl Cella sram configurabile dinamicamente per funzionamento a bassa tensione
IT1400750B1 (it) 2010-06-30 2013-07-02 St Microelectronics Srl Memoria sram 5t per applicazioni a bassa tensione
JP5630146B2 (ja) 2010-08-23 2014-11-26 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム。
US8183639B2 (en) 2010-10-07 2012-05-22 Freescale Semiconductor, Inc. Dual port static random access memory cell layout
US20120240007A1 (en) 2010-10-20 2012-09-20 Stec, Inc. Ldpc decoding for solid state storage devices
US8773577B2 (en) 2010-10-27 2014-07-08 Qualcomm Incorporated Region of interest extraction
US8698843B2 (en) 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US20120113119A1 (en) 2010-11-05 2012-05-10 Nova Research, Inc. Super resolution infrared imaging system
WO2012069689A1 (en) 2010-11-24 2012-05-31 Nokia Corporation Optically refracting surfaces
TWI462265B (zh) 2010-11-30 2014-11-21 Ind Tech Res Inst 影像擷取裝置
KR101453769B1 (ko) 2010-12-24 2014-10-22 제일모직 주식회사 감광성 수지 조성물 및 이를 이용한 컬러 필터
US8631294B2 (en) 2011-02-02 2014-01-14 Seagate Technology Llc Methods and devices to increase memory device data reliability
US8587501B2 (en) 2011-02-17 2013-11-19 Global Oled Technology Llc Electroluminescent display device with optically communicating chiplets
KR101241704B1 (ko) 2011-04-14 2013-03-19 엘지이노텍 주식회사 픽셀, 픽셀 어레이, 이를 포함하는 이미지센서 및 그 구동방법
US20190331914A1 (en) * 2011-07-20 2019-10-31 Google Llc Experience Sharing with Region-Of-Interest Selection
JP5868065B2 (ja) 2011-08-05 2016-02-24 キヤノン株式会社 撮像装置
JP2013043383A (ja) 2011-08-24 2013-03-04 Fujifilm Corp バリア性積層体、ガスバリアフィルムおよびこれらを用いたデバイス
JP5901186B2 (ja) 2011-09-05 2016-04-06 キヤノン株式会社 固体撮像装置及びその駆動方法
US20130056809A1 (en) 2011-09-07 2013-03-07 Duli Mao Image Sensor with Reduced Noiseby Blocking Nitridation Over Selected Areas
US8890047B2 (en) 2011-09-21 2014-11-18 Aptina Imaging Corporation Stacked-chip imaging systems
US8223024B1 (en) * 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
WO2013047523A1 (ja) 2011-09-26 2013-04-04 富士フイルム株式会社 バリア性積層体および新規な重合性化合物
GB201117319D0 (en) 2011-10-06 2011-11-16 Isis Innovation Active pixel image sensor
US10598929B2 (en) * 2011-11-09 2020-03-24 Google Llc Measurement method and system
KR20130062188A (ko) 2011-12-02 2013-06-12 삼성전자주식회사 이미지 센서 및 이를 포함하는 이미지 처리 장치
KR20130084492A (ko) 2012-01-17 2013-07-25 삼성전자주식회사 비휘발성 메모리 시스템
US20130180841A1 (en) 2012-01-17 2013-07-18 Esat Yilmaz Sensor Stack with Opposing Electrodes
US8735795B2 (en) 2012-01-20 2014-05-27 Omnivision Technologies, Inc. Image sensor with integrated ambient light detection
US9720232B2 (en) 2012-01-24 2017-08-01 The Arizona Board Of Regents On Behalf Of The University Of Arizona Compact eye-tracked head-mounted display
KR101990971B1 (ko) 2012-01-30 2019-06-19 삼성전자 주식회사 메모리, 메모리 시스템, 및 메모리에 대한 에러 검출/정정 방법
JP6110595B2 (ja) 2012-02-07 2017-04-05 イーエイチエス レンズ フィリピン インク 眼鏡用偏光プラスチックレンズの製造方法
US9185307B2 (en) 2012-02-21 2015-11-10 Semiconductor Components Industries, Llc Detecting transient signals using stacked-chip imaging systems
TW201340708A (zh) 2012-03-19 2013-10-01 Sony Corp 固體攝像裝置及電子機器
JP5749678B2 (ja) 2012-03-29 2015-07-15 富士フイルム株式会社 ガスバリアフィルム
JP5934544B2 (ja) 2012-03-29 2016-06-15 富士フイルム株式会社 ガスバリアフィルム
US9723233B2 (en) 2012-04-18 2017-08-01 Brightway Vision Ltd. Controllable gated sensor
US8957358B2 (en) 2012-04-27 2015-02-17 Taiwan Semiconductor Manufacturing Company, Ltd. CMOS image sensor chips with stacked scheme and methods for forming the same
US9350928B2 (en) 2012-05-02 2016-05-24 Semiconductor Components Industries, Llc Image data compression using stacked-chip image sensors
US9233511B2 (en) 2012-05-10 2016-01-12 Optiz, Inc. Method of making stamped multi-layer polymer lens
US8779346B2 (en) 2012-05-14 2014-07-15 BAE Systems Imaging Solutions Inc. Digital pixel sensor with reduced noise
US9058281B2 (en) 2012-06-01 2015-06-16 Seagate Technology Llc Allocating memory usage based on quality metrics
KR20140024707A (ko) 2012-08-21 2014-03-03 삼성전자주식회사 이미지 센서 및 이를 포함하는 전자 기기
KR101384332B1 (ko) 2012-09-06 2014-04-10 현대모비스 주식회사 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템
KR101965632B1 (ko) 2012-09-07 2019-04-05 삼성전자 주식회사 아날로그-디지털 변환 회로, 이를 포함하는 이미지 센서, 및 그 동작 방법
KR20150068429A (ko) 2012-10-05 2015-06-19 램버스 인코포레이티드 조건부-리셋, 멀티-비트 판독 이미지 센서
JP6415454B2 (ja) 2013-01-25 2018-10-31 テレダイン・イノバシオネス・ミクロエレクトロニカス・ソシエダッド・リミターダ・ユニパーソナルTeledyne Innovaciones Microelectronicas,Slu 画像センサ用の高度の関心領域機能
WO2014209441A2 (en) 2013-03-13 2014-12-31 President And Fellows Of Harvard College Solidifiable composition for preparation of liquid-infused slippery surfaces and methods of applying
GB2513579A (en) 2013-04-29 2014-11-05 Tobii Technology Ab Power efficient image sensing apparatus, method of operating the same and eye/gaze tracking system
JP2014236183A (ja) 2013-06-05 2014-12-15 株式会社東芝 イメージセンサ装置及びその製造方法
JP6303297B2 (ja) 2013-06-14 2018-04-04 富士通株式会社 端末装置、視線検出プログラムおよび視線検出方法
JP6188451B2 (ja) 2013-06-27 2017-08-30 オリンパス株式会社 アナログデジタル変換器および固体撮像装置
WO2015038569A2 (en) 2013-09-10 2015-03-19 Rambus Inc. Oversampled image sensor with conditional pixel readout
US9410850B2 (en) 2013-09-20 2016-08-09 Vlad Joseph Novotny Infrared imager readout electronics
WO2015048906A1 (en) 2013-10-03 2015-04-09 Sulon Technologies Inc. Augmented reality system and method for positioning and mapping
KR102210539B1 (ko) 2013-12-26 2021-02-01 삼성전자주식회사 상관 이중 샘플링 회로, 이를 포함하는 아날로그-디지털 컨버터, 및 이미지 센서
US20160018651A1 (en) 2014-01-24 2016-01-21 Osterhout Group, Inc. See-through computer display systems
JP6336286B2 (ja) 2014-01-31 2018-06-06 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法および撮像装置を有する撮影装置
JP6338385B2 (ja) 2014-01-31 2018-06-06 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法および撮像装置を有する撮影装置
WO2015120328A1 (en) 2014-02-07 2015-08-13 Rambus Inc. Feedthrough-compensated image sensor
US20160011422A1 (en) 2014-03-10 2016-01-14 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
EP2924979B1 (en) 2014-03-25 2023-01-18 IMEC vzw Improvements in or relating to imaging sensors
TWI656631B (zh) 2014-03-28 2019-04-11 日商半導體能源研究所股份有限公司 攝像裝置
JP2015195235A (ja) 2014-03-31 2015-11-05 ソニー株式会社 固体撮像素子、電子機器、および撮像方法
US9672416B2 (en) 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US20190307313A1 (en) 2014-05-09 2019-10-10 Jack Wade Systems and methods for medical imaging
US10007350B1 (en) * 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US9247162B2 (en) 2014-06-27 2016-01-26 Omnivision Technologies, Inc. System and method for digital correlated double sampling in an image sensor
KR102192088B1 (ko) 2014-07-18 2020-12-16 삼성전자주식회사 인지센서 및 이의 구동방법
US10165209B2 (en) 2014-07-25 2018-12-25 Rambus Inc. Low-noise, high dynamic-range image sensor
US9489739B2 (en) * 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
KR20160032586A (ko) 2014-09-16 2016-03-24 삼성전자주식회사 관심영역 크기 전이 모델 기반의 컴퓨터 보조 진단 장치 및 방법
US10515284B2 (en) 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
JP6702195B2 (ja) 2014-11-12 2020-05-27 ソニー株式会社 固体撮像装置および電子機器
US10284771B2 (en) 2014-12-03 2019-05-07 Nikon Corporation Image-capturing apparatus, electronic device, and program
US9332200B1 (en) 2014-12-05 2016-05-03 Qualcomm Incorporated Pixel readout architecture for full well capacity extension
WO2016095057A1 (en) 2014-12-19 2016-06-23 Sulon Technologies Inc. Peripheral tracking for an augmented reality head mounted device
US9819882B2 (en) 2015-06-05 2017-11-14 Caeleste Cvba Global shutter high dynamic range sensor
WO2016200635A1 (en) 2015-06-10 2016-12-15 Sxaymiq Technologies Llc Display panel redundancy schemes
US9743024B2 (en) 2015-07-01 2017-08-22 Massachusetts Institute Of Technology Method and apparatus for on-chip per-pixel pseudo-random time coded exposure
WO2017003477A1 (en) 2015-07-01 2017-01-05 Tyrrell Brian M Method and apparatus for on-chip per-pixel pseudo-random time coded exposure
WO2017013806A1 (ja) 2015-07-23 2017-01-26 オリンパス株式会社 固体撮像装置
US10534173B2 (en) 2015-08-03 2020-01-14 Facebook Technologies, Llc Display with a tunable mask for augmented reality
US10607413B1 (en) * 2015-09-08 2020-03-31 Ultrahaptics IP Two Limited Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
GB2558124B (en) 2015-09-16 2022-02-02 Canon Kk Image sensor and image capturing apparatus
US10514526B2 (en) 2015-09-16 2019-12-24 Canon Kabushiki Kaisha Image sensor and image capturing apparatus
US9735131B2 (en) 2015-11-10 2017-08-15 Taiwan Semiconductor Manufacturing Company, Ltd. Multi-stack package-on-package structures
US10096631B2 (en) 2015-11-30 2018-10-09 Semiconductor Energy Laboratory Co., Ltd. Signal processing circuit and semiconductor device including the signal processing circuit
DE102015122055B4 (de) 2015-12-17 2018-08-30 Carl Zeiss Ag Optisches System sowie Verfahren zum Übertragen eines Quellbildes
EP3414702A1 (en) 2016-02-08 2018-12-19 Spero Devices, Inc. Analog co-processor
JP6736911B2 (ja) 2016-02-29 2020-08-05 セイコーエプソン株式会社 光束径拡大素子及び画像表示装置
US10715824B2 (en) 2016-03-17 2020-07-14 Facebook Technologies, Llc System and method for data compressing optical sensor data prior to transferring to a host system
US10420523B2 (en) 2016-03-21 2019-09-24 The Board Of Trustees Of The Leland Stanford Junior University Adaptive local window-based methods for characterizing features of interest in digital images and systems for practicing same
US10003726B2 (en) 2016-03-25 2018-06-19 Microsoft Technology Licensing, Llc Illumination module for near eye-to-eye display system
US10594974B2 (en) 2016-04-07 2020-03-17 Tobii Ab Image sensor for vision based on human computer interaction
WO2017177177A1 (en) 2016-04-07 2017-10-12 Tobii Ab Image sensor for vision based human computer interaction
US9646681B1 (en) 2016-04-25 2017-05-09 Qualcomm Incorporated Memory cell with improved write margin
US9885870B2 (en) 2016-04-25 2018-02-06 Microsoft Technology Licensing, Llc Diffractive optical elements with analog modulations and switching
US9967472B2 (en) * 2016-05-17 2018-05-08 JVC Kenwood Corporation Image sensor combining high dynamic range techniques
US20180027174A1 (en) 2016-07-19 2018-01-25 Qualcomm Incorporated Signaling camera configuration changes using metadata defined for a camera command set
JP6806494B2 (ja) 2016-08-24 2021-01-06 キヤノン株式会社 撮像装置、撮像システム、移動体及び撮像装置の駆動方法
US20210283871A1 (en) 2016-09-06 2021-09-16 The Australian National University Method for fabricating lenses
JP2018046430A (ja) * 2016-09-15 2018-03-22 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9859245B1 (en) 2016-09-19 2018-01-02 Taiwan Semiconductor Manufacturing Co., Ltd. Chip package structure with bump and method for forming the same
US10484628B2 (en) 2016-10-21 2019-11-19 The Johns Hopkins University Flexible pixel-wise exposure control and readout
WO2018094086A1 (en) 2016-11-16 2018-05-24 Magic Leap, Inc. Multi-resolution display assembly for head-mounted display systems
KR20180056962A (ko) 2016-11-21 2018-05-30 삼성전자주식회사 전원 제어 회로를 포함하는 이벤트 기반 센서
GB2556910A (en) 2016-11-25 2018-06-13 Nokia Technologies Oy Virtual reality display
US10395111B2 (en) 2016-12-01 2019-08-27 Varjo Technologies Oy Gaze-tracking system and method
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
US9955091B1 (en) 2016-12-20 2018-04-24 Omnivision Technologies, Inc. High dynamic range image sensor read out architecture using in-frame multi-bit exposure control
KR102621752B1 (ko) 2017-01-13 2024-01-05 삼성전자주식회사 Mram을 포함한 씨모스 이미지 센서
US10218923B2 (en) 2017-02-17 2019-02-26 Semiconductor Components Industries, Llc Methods and apparatus for pixel binning and readout
US10838110B2 (en) 2017-03-03 2020-11-17 Microsoft Technology Licensing, Llc Metasurface optical coupling elements for a display waveguide
JP2018148528A (ja) 2017-03-09 2018-09-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
US10360732B2 (en) 2017-03-23 2019-07-23 Intel Corporation Method and system of determining object positions for image processing using wireless network angle of transmission
CN106955120B (zh) 2017-03-31 2020-12-29 北京东软医疗设备有限公司 成像方法及成像系统
CN110998291B (zh) 2017-06-13 2023-05-09 德林克萨维有限公司 比色传感器及其制造方法
US10395376B2 (en) 2017-07-19 2019-08-27 Qualcomm Incorporated CMOS image sensor on-die motion detection using inter-pixel mesh relationship
US11568609B1 (en) 2017-07-25 2023-01-31 Meta Platforms Technologies, Llc Image sensor having on-chip compute circuit
US20210264679A1 (en) 2017-07-25 2021-08-26 Facebook Technologies, Llc Smart sensor
US10090342B1 (en) 2017-08-01 2018-10-02 Semiconductor Components Industries, Llc Stacked image sensor capacitors and related methods
JP7072362B2 (ja) 2017-09-26 2022-05-20 ブリルニクス シンガポール プライベート リミテッド 固体撮像装置、固体撮像装置の駆動方法、および電子機器
US10506217B2 (en) 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
KR102467845B1 (ko) 2017-10-24 2022-11-16 삼성전자주식회사 적층형 씨모스 이미지 센서
US11039092B2 (en) 2017-11-15 2021-06-15 Nvidia Corporation Sparse scanout for image sensors
JP7179759B2 (ja) 2017-12-06 2022-11-29 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、固体撮像装置の制御方法およびコンピュータプログラム
US11112613B2 (en) 2017-12-18 2021-09-07 Facebook Technologies, Llc Integrated augmented reality head-mounted display for pupil steering
US10708529B2 (en) 2017-12-20 2020-07-07 Semiconductor Components Industries, Llc Image sensors with low-voltage transistors
US10999539B2 (en) 2017-12-26 2021-05-04 Waymo Llc Adjustable vertical field of view
JP6951967B2 (ja) 2017-12-28 2021-10-20 日本電産サンキョー株式会社 レンズユニット及び金型の製造方法
US11430724B2 (en) 2017-12-30 2022-08-30 Intel Corporation Ultra-thin, hyper-density semiconductor packages
US11057581B2 (en) 2018-01-24 2021-07-06 Facebook Technologies, Llc Digital pixel array with multi-stage readouts
US20190246036A1 (en) 2018-02-02 2019-08-08 Futurewei Technologies, Inc. Gesture- and gaze-based visual data acquisition system
KR102469080B1 (ko) 2018-02-13 2022-11-23 에스케이하이닉스 주식회사 비교 장치 및 그에 따른 씨모스 이미지 센서
CN111886533A (zh) 2018-03-12 2020-11-03 奇跃公司 基于倾斜阵列的显示器
KR20190139082A (ko) 2018-06-07 2019-12-17 삼성전자주식회사 메모리 장치의 비트 에러율 균등화 방법
US10684681B2 (en) 2018-06-11 2020-06-16 Fotonation Limited Neural network image processing apparatus
US11067848B1 (en) 2018-06-22 2021-07-20 Facebook Technologies, Llc Switchable reflective devices including first and second optically transparent materials with different refractive indexes and methods and systems for fabrication thereof
US10345447B1 (en) 2018-06-27 2019-07-09 Luminar Technologies, Inc. Dynamic vision sensor to direct lidar scanning
US10897586B2 (en) 2018-06-28 2021-01-19 Facebook Technologies, Llc Global shutter image sensor
JP6725733B2 (ja) 2018-07-31 2020-07-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
US10708522B2 (en) 2018-08-10 2020-07-07 International Business Machines Corporation Image sensor with analog sample and hold circuit control for analog neural networks
JP6638852B1 (ja) 2018-08-31 2020-01-29 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
US10915995B2 (en) 2018-09-24 2021-02-09 Movidius Ltd. Methods and apparatus to generate masked images based on selective privacy and/or location tracking
US11204835B2 (en) 2018-10-12 2021-12-21 Supermem, Inc. Error correcting memory systems
KR102599047B1 (ko) 2018-11-13 2023-11-06 삼성전자주식회사 데이터 신뢰성을 향상한 메모리 컨트롤러, 이를 포함하는 메모리 시스템 및 메모리 컨트롤러의 동작방법
JP2020088723A (ja) 2018-11-29 2020-06-04 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および、撮像装置
US11888002B2 (en) 2018-12-17 2024-01-30 Meta Platforms Technologies, Llc Dynamically programmable image sensor
US11962928B2 (en) 2018-12-17 2024-04-16 Meta Platforms Technologies, Llc Programmable pixel array
US10755128B2 (en) 2018-12-18 2020-08-25 Slyce Acquisition Inc. Scene and user-input context aided visual search
US10867655B1 (en) 2019-07-08 2020-12-15 Micron Technology, Inc. Methods and apparatus for dynamically adjusting performance of partitioned memory
US11010327B2 (en) * 2019-07-23 2021-05-18 Qualcomm Incorporated I3C point to point
US11018113B2 (en) 2019-10-17 2021-05-25 Taiwan Semiconductor Manufacturing Company, Ltd. Memory module, semiconductor package including the same, and manufacturing method thereof
US11948089B2 (en) 2019-11-07 2024-04-02 Meta Platforms Technologies, Llc Sparse image sensing and processing
US11394905B2 (en) 2019-12-13 2022-07-19 Sony Semiconductor Solutions Corporation Dynamic region of interest and frame rate for event based sensor and imaging camera
JP7455588B2 (ja) 2020-01-17 2024-03-26 キヤノン株式会社 撮像装置
US11825228B2 (en) 2020-05-20 2023-11-21 Meta Platforms Technologies, Llc Programmable pixel array having multiple power domains
US11910114B2 (en) 2020-07-17 2024-02-20 Meta Platforms Technologies, Llc Multi-mode image sensor
US10970619B1 (en) 2020-08-21 2021-04-06 Moffett Technologies Co., Limited Method and system for hierarchical weight-sparse convolution processing
US20220076726A1 (en) 2020-09-04 2022-03-10 Micron Technology, Inc. Methods and apparatus for probabilistic refresh in volatile memory devices
US11620818B2 (en) 2020-10-01 2023-04-04 Intel Corporation Spatially sparse neural network accelerator for multi-dimension visual analytics

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106233188A (zh) * 2014-04-24 2016-12-14 Lg电子株式会社 头戴式显示器及其控制方法
US20190046044A1 (en) * 2015-06-14 2019-02-14 Facense Ltd. Respiration-based estimation of an aerobic activity parameter
CN108139799A (zh) * 2016-04-22 2018-06-08 深圳市大疆创新科技有限公司 基于用户的兴趣区(roi)处理图像数据的系统和方法
CN109298528A (zh) * 2017-07-25 2019-02-01 脸谱科技有限责任公司 传感器组件和头戴式显示器

Also Published As

Publication number Publication date
US11935291B2 (en) 2024-03-19
US20210133452A1 (en) 2021-05-06
US11960638B2 (en) 2024-04-16
KR20220087465A (ko) 2022-06-24
US20230080288A1 (en) 2023-03-16
WO2021087192A1 (en) 2021-05-06
TW202127104A (zh) 2021-07-16
EP4052117A1 (en) 2022-09-07
JP2023501856A (ja) 2023-01-20

Similar Documents

Publication Publication Date Title
US11960638B2 (en) Distributed sensor system
US11888002B2 (en) Dynamically programmable image sensor
US11948089B2 (en) Sparse image sensing and processing
US11962928B2 (en) Programmable pixel array
US20210044742A1 (en) Dynamically programmable image sensor
US12034015B2 (en) Programmable pixel array
US20190363118A1 (en) Programmable pixel array
CN114727041A (zh) 利用彩色网格阵列的图像子采样

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: California, USA

Applicant after: Yuan Platform Technology Co.,Ltd.

Address before: California, USA

Applicant before: Facebook Technologies, LLC