CN115804025A - 卷帘快门相机流水线曝光时间戳误差确定 - Google Patents
卷帘快门相机流水线曝光时间戳误差确定 Download PDFInfo
- Publication number
- CN115804025A CN115804025A CN202180046653.1A CN202180046653A CN115804025A CN 115804025 A CN115804025 A CN 115804025A CN 202180046653 A CN202180046653 A CN 202180046653A CN 115804025 A CN115804025 A CN 115804025A
- Authority
- CN
- China
- Prior art keywords
- timestamp
- image
- barcode
- exposure
- rolling shutter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/11—Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
- H04B10/114—Indoor or close-range type systems
- H04B10/116—Visible light communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
- H04N25/531—Control of the integration time by controlling rolling shutters in CMOS SSIS
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Studio Devices (AREA)
- Image Input (AREA)
Abstract
本发明公开了检测卷帘快门相机系统中的延迟的相机流水线曝光时间戳误差确定方法和系统。该曝光时间戳误差确定系统包括被配置为捕获图像的卷帘快门图像传感器和处理器。该处理器通过使用该卷帘快门图像传感器捕获该图像来确定时间戳误差,其中该图像包括用条形码时间戳编码的条形码。然后,该处理器获得与该卷帘快门图像传感器捕获该图像时对应的系统曝光时间戳,并且通过对该条形码进行解码获得该条形码时间戳。然后,通过将所获得的条形码时间戳与该系统曝光时间戳进行比较来确定针对该卷帘快门相机系统的流水线曝光时间戳误差。
Description
相关申请的交叉引用
本申请要求2020年6月30日提交的美国临时专利申请号63/046,383和2021年3月17日提交的美国专利申请号17/204,076的优先权,这两个专利申请的全部内容据此以引用方式并入。
技术领域
本主题涉及成像系统,例如,在眼戴设备中使用的相机,并且具体地涉及确定卷帘快门相机系统中的相机流水线曝光时间戳误差。
背景技术
卷帘快门相机系统通过在成像传感器(例如,CMOS传感器)上扫描图像的整个场景来捕获图像。对于卷帘快门,成像传感器的顶行在底行开始曝光之前开始曝光。当达到曝光时间时,读出顶行,同时其他行仍在被曝光。所有行曝光相同的时间段,但是它们开始和停止曝光的时间不同。这允许成像传感器在获取过程期间在一些行中收集光子,同时读出其他行,从而有效地增加灵敏度。
立体成像系统利用两个或更多个成像传感器来从不同视点捕获图像,以便例如创建三维(3D)图像。所捕获的图像及时同步以产生逼真的3D图像。
附图说明
附图仅以示例的方式而不是以限制的方式描绘了一个或多个具体实施。在这些图中,类似的附图标记是指相同或相似的特征,并添加字母标志来区分相同或相似的特征。当集体指的是相同或相似的特征时,或者当指的是相同或相似的元件中的非特定特征时,可省略字母标志。
图1A是在相机流水线曝光时间戳误差确定系统中使用的眼戴设备的示例性硬件配置的侧视图。
图1B是图1A的眼戴设备的镜腿的右电子外壳的顶部横截面视图,其描绘了深度捕获相机的右可见光相机以及电路板。
图1C是图1A的眼戴设备的示例性硬件配置的左侧视图,其示出了深度捕获相机的左可见光相机1A。
图1D是图1C的眼戴设备的左电子外壳的顶部横截面视图,其描绘了深度捕获相机的左可见光相机以及电路板。
图2A是在相机流水线曝光时间戳误差确定系统中使用的眼戴设备的另一个示例硬件配置的侧视图,其示出了用于生成(例如,在初始视频中的)初始深度图像序列的初始深度图像的深度捕获相机的右可见光相机和深度传感器。
图2B和图2C是包括两种不同类型的图像显示器的眼戴设备的示例性硬件配置的后视图。
图3示出了图2A的眼戴设备的后横截面透视图,其描绘了深度传感器的红外相机、框架前部、框架后部和电路板;
图4是穿过图3的眼戴设备的红外相机和框架截取的横截面视图。
图5示出了图2A的眼戴设备的后透视图,其描绘了深度传感器的红外发射器、深度传感器的红外相机、框架前部、框架后部和电路板。
图6是穿过图5的眼戴设备的红外发射器和框架截取的横截面视图。
图7是描绘用于处理包括条形码的图像以用于确定相机流水线中的曝光时间戳误差的示例性相机流水线的框图。
图8是用于与图7中的相机流水线一起使用的条形码以确定曝光时间戳误差。
图9是示例性相机流水线曝光时间戳误差确定系统的高级功能框图,该系统包括经由各种网络连接的眼戴设备、移动设备和服务器系统。
图10是示出了图9的相机流水线曝光时间戳误差确定系统的移动设备的示例性硬件配置的框图。
图11A、图11B、图11C和图11D是相机曝光时间戳误差确定系统实施来确定卷帘快门相机系统的流水线中的曝光时间戳误差的方法的流程图。
具体实施方式
可见光通信(VLC)在相机系统中用于确定受测设备(DUT,例如,由于卷帘快门图像传感器、图像信号处理器(ISP)、操作系统(OS)或成像应用)的相机流水线内的曝光时间戳误差。测试生成系统(TGS)确定用于通过VLC向DUT传输的当前时间。TGS的光源(发光二极管;LED)定位在DUT的卷帘快门相机系统的图像传感器的前面。电子器件使用非常短的曝光时间(例如,10微秒)以与卷帘快门图像传感器的卷帘快门速率匹配的频率来控制光源,以创建包括白线和黑线的图像。通过改变闪光的长度,条形码在卷帘快门图像传感器被读取时由该卷帘快门图像传感器产生,该条形码被编码为TGS呈现闪光的当前时间。
与嵌入在图像中的时间(即,在条形码中被编码的时间;TGS(1))对应的值和与卷帘快门图像传感器对图像的曝光时间(例如,由卷帘快门相机系统的部件确定;DUT(1))对应的值之间的差表示卷帘快门相机流水线中的曝光时间戳误差。在DUT和TGS的时钟处于相同的时域(即,从相同的时钟或同步的时钟开始操作;DUT(2)=TGS(2))的情况下,流水线曝光时间戳误差是嵌入在图像中的时间和图像的曝光时间之间的差值(例如,TGS(1)-DUT(1))。在DUT和TGS的时钟处于不同的时域(即,DUT(2)<>TGS(2))的情况下,流水线曝光时间戳误差是TGS处的第一差值(TGS(2)-TGS(1))和DUT处的第二差值(DUT(2)-DUT(1))之间的差值。通常,随着误差的减小,计算机视觉(CV)和增强现实系统得到了改善。另外,在具有多个相机的立体系统中,通过减小曝光时间戳误差以及通过对于多个相机中的每个相机具有相似的曝光时间戳误差时间,可实现更逼真的效果。因此,在设计阶段确定这种系统流水线中的误差对于选择部件和在最终产品中补偿延迟/误差是有用的。
在该具体实施方式中,以示例的方式阐述了许多具体细节,以便提供对相关教导内容的透彻理解。然而,对于本领域技术人员应当显而易见的是,本教导内容可在没有此类细节的情况下被实践。在其他情况下,在较高的层次上对公知的方法、过程、部件和电路展开了描述而没有描述细节,以便避免不必要地使本教导内容的各方面晦涩难懂。
如本文所用,术语“耦接”或“连接”指的是任何逻辑、光学、物理或电连接、链路等,由一个系统元件产生或提供的电或磁信号通过这些连接传递到另一耦接或连接的系统元件。除非另外描述,否则耦接或联接的元件或设备不一定直接彼此连接,并且可以由可修改、操纵或承载信号的中间部件、元件或通信介质隔开。术语“上”是指由元件直接支撑或通过集成到元件或由元件支撑的另一元件间接支撑该元件。
出于说明和讨论的目的,仅以示例的方式给出了诸如附图中的任一附图所示的眼戴设备、相关联部件和结合了深度捕获相机的任何完整设备的定向。在用于相机未对准补偿的操作中,眼戴设备可在适于眼戴设备的应用的任何其他方向上定向,例如,向上、向下、侧向或任何其他定向。此外,就本文所用的范围而言,任何方向性术语,诸如前、后、内、外、向、左、右、侧向、纵向、上、下、高、低、顶部、底部、侧面、水平、垂直和对角,仅以示例的方式使用,并且不限于任何深度捕获相机或如本文以其他方式所述那样构造的深度捕获相机的部件的方向或定向。
示例的其他目的、优点和新颖特征将部分地在以下具体实施方式中阐述,并且部分地在本领域技术人员检查以下内容和附图后将变得显而易见,或者可通过示例的产生或操作来了解。本主题的目的和优点可借助于所附权利要求书中特别指出的方法、手段和组合来实现和达成。
现在详细参考附图所示和下文所讨论的示例。
如图1A和图1B所示,眼戴设备100包括右可见光相机114B。眼戴设备100可包括多个可见光相机,例如,右可见光相机114A(图1A和图1B)和左可见光相机114B(图1C和图1D),这两个可见光相机形成了被动类型的深度捕获相机,诸如立体相机,其中右可见光相机114B位于右电子外壳110B上并且左可见光相机114A位于左电子外壳110A上。
左可见光相机114A和右可见光相机114B对可见光范围波长敏感。可见光相机114A和114B中的每个具有不同的前向视场,这些视场重叠以允许生成三维深度图像,例如,右可见光相机114B具有描绘的右视场111B。通常,“视场”是场景的部分,其通过相机在空间中的定位处和定向上是可见的。当可见光相机捕获图像时,视场111A、111B之外的对象或对象特征未被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114A和114B的图像传感器在给定场景的所捕获的图像中拾取给定场景的电磁辐射的角度范围或幅度。视场可以被表示为视锥的角度大小,即,视角。视角可以水平、垂直或对角地测量。
在示例中,可见光相机114A和114B具有视角在15°至110°之间(例如,24°)的视场,并且具有480×480像素或更大的分辨率。“覆盖角度”描述了可见光相机114A和114B或红外相机220(见图2A)的镜头可有效成像的角度范围。通常,由相机镜头产生的成像圈大到足以完全覆盖胶片或传感器,可能包括某种程度的渐晕(即,与图像中心相比,在外围的图像亮度或饱和度降低)。如果相机镜头的覆盖角度未遍及传感器,则成像圈将是可见的,通常具有朝向边缘的强渐晕,并且有效视角将会局限于覆盖角度。
此类可见光相机114A和114B的示例包括高分辨率互补金属氧化物半导体(CMOS)图像传感器和视频图形阵列(VGA)相机,诸如640p(例如,640×480像素,总共0.3兆像素)、720p或1080p。如本文所用,术语“重叠”在涉及视场时意味着场景的所生成的原始图像或红外图像中的像素矩阵重叠30%或更多。如本文所用,术语“基本上重叠”在涉及视场时意味着场景的所生成的原始图像或红外图像中的像素矩阵重叠50%或更多。合适的可见光相机114包括具有卷帘快门读数的互补金属氧化物半导体(CMOS)传感器相机。在一个示例中,相机114包括V空白时段设置,以用于最小化由两个单独的相机获得的特征点之间的时间差T。在另一个示例中,相机114(诸如购自日本港区索尼公司的相机)包括在传感器行中计数的曝光延迟设置,以后置相机中的一个相机的读数,以便基本上同时曝光落在不同行上的特征点。其他合适的相机将由本领域技术人员将从本文的描述中理解。
来自可见光相机114A和114B的图像传感器数据与地理位置数据一起被捕获,被图像处理器数字化,并被存储在存储器中。由相应的可见光相机114A和114B捕获的所捕获的左原始图像和右原始图像在二维空间域中,并且包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平定位的X轴和用于垂直定位的Y轴。每个像素包括颜色属性(例如,红色像素光值、绿色像素光值和蓝色像素光值);和定位属性(例如,X位置坐标和Y位置坐标)。
为了提供立体视野,可见光相机114A和114B可耦接到图像处理器(特征912,图9)以进行数字处理,同时添加曝光或捕获场景图像的时间戳。图像处理器912包括电路,该电路用于接收来自可见光相机114A和114B的信号,并将来自可见光相机114的那些信号处理成适于存储在存储器中的格式。时间戳可由控制可见光相机114A和114B的操作的图像处理器或另一处理器添加。可见光相机114A和114B允许深度捕获相机模拟人类双目视觉。深度捕获相机提供基于来自可见光相机114A和114B的具有相同时间戳的两个所捕获图像来再现三维图像的能力。此类三维图像允许沉浸式逼真体验,例如,用于虚拟现实或视频游戏。三维深度视频可通过将一系列三维深度图像与深度视频中的呈现时间的相关联时间坐标拼接在一起来产生。
对于立体视觉,在某一时刻场景的一对原始红、绿和蓝(RGB)图像—左可见光相机114A和右可见光相机114B中的每一者捕获一个图像被捕获。当(例如,通过图像处理器)处理来自左可见光相机114A和右可见光相机114B的前向左视场111A和前向右视场111B的一对所捕获的原始图像时,生成深度图像且所生成的深度图像可被用户在光学组件180A和180B或(例如,移动设备的)其他图像显示器所感知。所生成的深度图像在三维空间域中并且可包括三维位置坐标系上的顶点矩阵,该三维位置坐标系包括用于水平定位(例如,长度)的X轴、用于垂直定位(例如,高度)的Y轴和用于深度定位(例如,距离)的Z轴。
深度视频还将一系列所生成的深度图像中的每个所生成的深度图像与深度视频中的呈现时间在时间(T)轴上的时间坐标相关联(例如,每个深度图像包括空间分量以及时间分量)。深度视频还可包括一个或多个输入参数分量(例如,音频分量诸如音轨或音频流,生物计量分量诸如心率图等),其可被输入设备诸如麦克风或心率监视器捕获。每个顶点包括颜色属性(例如,红色像素光值、绿色像素光值和蓝色像素光值);定位属性(例如,X位置坐标、Y位置坐标和Z位置坐标);纹理属性;反射率属性;或它们的组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。
通常,深度感知来自于可见光相机114A和114B捕获的左原始图像和右原始图像中的给定3D点的视差。视差是同一3D点在可见光相机114A和114B的视角下投影时的图像位置的差值(d=x左-x右)。对于具有平行光轴、焦距f、基线B以及相应图像点(x左,y左)和(x右,y右)的可见光相机114A和114B,3D点的位置(Z轴位置坐标)可利用根据视差来确定深度的三角测量来导出。通常,3D点的深度与视差成反比。也可以使用各种其他技术。
在示例中,相机流水线曝光时间戳误差确定系统包括眼戴设备100。眼戴设备100包括框架105、从框架105的左侧面170A延伸的左镜腿125A、以及从框架105的右侧面170B延伸的右镜腿125B。眼戴设备100还包括深度捕获相机。深度捕获相机包括:(i)具有重叠视场的至少两个可见光相机;或(ii)至少一个可见光相机114A和114B以及深度传感器(图2A中的特征213)。在一个示例中,深度捕获相机包括连接到框架105或左镜腿125A的具有左视场111A的左可见光相机114A以捕获场景的左图像。眼戴设备100还包括连接到框架105或右镜腿125B的具有右视场111B的右可见光相机114B以捕获(例如,与左可见光相机114A同时捕获)场景的右图像,该右图像与左图像部分重叠。
相机流水线曝光时间戳误差确定系统还包括计算设备,诸如通过网络耦接到眼戴设备100的主计算机(例如,图9和图10中的移动设备990)。相机流水线曝光时间戳误差确定系统还包括用于呈现(例如,显示)包括图像的视频的图像显示器(眼戴设备的光学组件180A和180B;图10的移动设备990的图像显示器1080)。相机流水线曝光时间戳误差确定系统还包括耦接到图像显示器(眼戴设备的光学组件180A和180B;图10的移动设备990的图像显示器1080)以控制图像显示器来呈现初始视频的图像显示驱动器(图9的眼戴设备100的元件942;图10的移动设备990的元件1090)。
在一些示例中,接收用户输入以指示用户期望捕获的图像。例如,相机流水线曝光时间戳误差确定系统还包括用于接收用户输入的用户输入设备。用户输入设备的示例包括触摸传感器(图9的眼戴设备100的元件991)、触摸屏显示器(移动设备1090的图10的元件1091)、视觉检测系统(例如,包括用于处理由一个或多个可见光相机114A收集的图像的机器视觉,V),以及用于个人计算机或笔记本电脑的电脑鼠标。相机流水线曝光时间戳误差确定系统还包括耦接到眼戴设备100的处理器(图9的眼戴设备100的元件932;图10的移动设备990的元件1030)和深度捕获相机。相机流水线曝光时间戳误差确定系统还包括处理器可访问的存储器(图9的眼戴设备100的元件934;图10的移动设备990的元件1040A-B)以及在该存储器中(例如,在眼戴设备100本身、移动设备(图9的元件990)或相机流水线曝光时间戳误差确定系统的另一部分(例如,图9的服务器系统998)的程序(图9的眼戴设备100的元件945;图10的移动设备990的元件945)。
在一个示例中,处理器(图9的元件932)执行相机流水线曝光时间戳误差程序(图9的元件945)将眼戴设备100配置为在处理图像时确定流水线曝光时间戳误差。在另一个示例中,处理器(图10的元件945)执行相机流水线曝光时间戳误差程序(图10的元件945)将相机流水线曝光时间戳误差确定系统的移动设备(图10的元件990)配置为在处理图像时确定流水线曝光时间戳误差。
图1B是图1A的眼戴设备100的镜腿的右电子外壳110B的顶部横截面视图,其描绘了深度捕获相机的右可见光相机114B以及电路板。图1C是图1A的眼戴设备100的示例性硬件配置的左侧视图,其示出了深度捕获相机的左可见光相机114A。图1D是图1C的眼戴设备的左电子外壳110A的顶部横截面视图,其描绘了深度捕获相机的左可见光相机114A以及电路板。除了连接和耦接位于左侧面170A上之外,左可见光相机114A的结构和布置基本上类似于右可见光相机114B。如图1B的示例所示,眼戴设备100包括右可见光相机114B和电路板,该电路板可以是柔性印刷电路板(PCB)140B。右铰链126B将右电子外壳110B连接到眼戴设备100的右镜腿125B上。在一些示例中,右可见光相机114B、柔性PCB 140B或其他电连接器或触点等部件可位于右镜腿125B或右铰链126B上。
右电子外壳110B包括电子外壳主体211和电子外壳盖,其中在图1B的横截面中省略了电子外壳盖。设置在右电子外壳110B内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于右可见光相机114B、麦克风、低功率无线电路(例如,用于经由BluetoothTM的无线短距离网络通信)、高速无线电路(例如,用于经由Wi-Fi的无线局域网通信)的控制器电路。
右可见光相机114B耦接到或设置在柔性PCB 240上且由可见光相机覆盖镜头覆盖,该镜头通过形成在框架105中的开口瞄准。例如,框架105的右边缘107B连接到右电子外壳110B,并且包括用于可见光相机覆盖镜头的开口。框架105包括被配置为远离用户的眼睛面向外的前向侧面。用于可见光相机覆盖镜头的开口形成在前向侧面上并穿过前向侧面。在示例中,在眼戴设备100的用户的右眼的视线或视角中,右可见光相机114B具有面向外的视场111B。可见光相机覆盖镜头也可粘附到右电子外壳110B的面向外的表面,其中开口形成有面向外的覆盖角度,但朝向不同的向外方向上。耦接也可经由居间部件间接实现。
左(第一)可见光相机114A连接到左光学组件180A的左图像显示器,并在左原始图像中捕获眼戴设备100的佩戴者所观察到的左眼观看场景。右(第二)可见光相机114B连接到右光学组件180B的右图像显示器,并在右原始图像中捕获眼戴设备100的佩戴者所观察到的右眼观看场景。左原始图像和右原始图像部分地重叠以在呈现所生成的深度图像的三维可观察空间时使用。
柔性PCB 140B设置在右电子外壳110B的内部,并且耦接到容纳在右电子外壳110B中的一个或多个其他部件。尽管示出为形成在右电子外壳110B的电路板上,但是右可见光相机114B可形成在左电子外壳110A、镜腿125A、125B或框架105的电路板上。
图2A是在相机流水线曝光时间戳误差确定系统中使用的眼戴设备100的另一个示例性硬件配置的侧视图。如图所示,深度捕获相机包括在框架105上的左可见光相机114A和深度传感器213,以生成(例如,在初始视频中的)系列初始深度图像的一张初始深度图像。此处利用单个可见光相机114A和深度传感器213来生成深度图像,而不是利用至少两个可见光相机114A和114B来生成初始深度图像。深度传感器213的红外相机220具有面向外的视场,该面向外的视场对于用户的眼睛的视线而言与左可见光相机114A基本上重叠。如图所示,红外发射器215和红外相机220与左可见光相机114A共同位于左边框107A的上部。
在图2A的示例中,眼戴设备100的深度传感器213包括红外发射器215和捕获红外图像的红外相机220。可见光相机114A和114B通常包括蓝光滤波器以阻挡红外光检测,在示例中,红外相机220是可见光相机,诸如低分辨率视频图形阵列(VGA)相机(例如,640×480像素,总共0.3兆像素),其中删除了蓝光滤镜。红外发射器215和红外相机220共同位于框架105上,例如,两者都被示出为连接到左边框107A的上部部分。如下面进一步详细地描述的,框架105或左电子外壳110A和右电子外壳110B中的一者或多者包括电路板,该电路板包括红外发射器215和红外相机220。红外发射器215和红外相机220可通过例如焊接连接到电路板。
可实施红外发射器215和红外相机220的其他布置,包括以下布置:红外发射器215和红外相机220都在右边缘107A上,或者在框架105上的不同位置中,例如,红外发射器215在左边缘107B上并且红外相机220在右边缘107B上。然而,该至少一个可见光相机114A和深度传感器213通常具有基本上重叠的视场以生成三维深度图像。在另一个示例中,红外发射器215在框架105上,并且红外相机220在电子外壳110A和110B中的一者上,反之亦然。红外发射器215可基本上连接在框架105、左电子外壳110A或右电子外壳110B上的任何位置,以在用户眼睛的视线内发射一种红外图案。类似地,红外相机220可基本上连接在框架105、左电子外壳110A或右电子外壳110B上的任何位置,以捕获在用户眼睛的视线内三维场景的红外光发射图案中的至少一个反射变化。
红外发射器215和红外相机220被布置为面向外,以拾取具有佩戴眼戴设备100的用户观察到的对象或对象特征的一个场景的红外图像。例如,红外发射器215和红外相机220直接定位在眼睛的前面,在框架105的上部,或者在框架105的任一端的电子外壳110A和110B中,具有前向视场,以捕获用户正在注视的场景的图像,用于测量物体深度或物体特征。
在一个示例中,深度传感器213的红外发射器215在场景的前向视场中发射红外光照明,该红外光照明可以是近红外光或其他低能量辐射的短波长光束。另选地或附加地,深度传感器213可包括发射除红外线以外的其他波长的光的发射器,并且深度传感器213进一步包括对该波长敏感的相机,该相机接收并捕获具有该波长的图像。如上所述,眼戴设备100耦接到例如眼戴设备100本身中或相机流水线曝光时间戳误差确定系统的另一部分中的处理器和存储器。眼戴设备100或相机流水线曝光时间戳误差确定系统可以随后对所捕获的红外图像进行处理,生成深度视频的三维深度图像(诸如来自初始视频的初始深度图像)。
图2B和图2C是包括两种不同类型的图像显示器的眼戴设备100的示例性硬件配置的后视图。眼戴设备100呈被配置为由用户配戴的形式,在示例中是眼镜。眼戴设备100可采取其他形式并且可结合其他类型的框架,例如,头戴器、头戴式耳机或头盔。
在眼镜的示例中,眼戴设备100包括框架105,其包括经由适于用户的鼻部的鼻梁架106连接到右边缘107B的左边缘107A。左和右边缘107A-B包括相应的孔口175A和175B,这些孔口设置相应的光学元件180A和180B,诸如镜头和显示设备。如本文所述,术语“镜头”是指透明或半透明玻璃或塑料片,其具有弯曲或平坦表面,使光会聚/发散或几乎或完全不引起会聚或发散。
虽然被示出为具有两个光学元件180A和180B,但是眼戴设备100可包括其他布置(诸如单个光学元件),或者可不包括任何光学元件180A和180B,这取决于眼戴设备100的应用或预期用户。如图进一步所示,眼戴设备100包括与框架105的左侧面170A相邻的左电子外壳110A(其包括左相机114A)以及与框架105的右侧面170B相邻的右电子外壳110B(其包括右相机114B)。电子外壳110A和110B可集成到框架105相应的侧面170A和170B上中(如图所示)或实施为附接到框架105相应的侧面170A和170B上的单独部件。另选地,电子外壳110A和110B可集成到与框架105相连的镜腿(未示出)中。
在一个示例中,光学组件180A和180B的图像显示器包括集成的图像显示器。如图2B所示,光学组件180A和180B包括任何合适类型的合适的显示矩阵170,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器或任何其他此类显示器。光学组件180A和180B还包括一个或多个光学层176,其可以包括镜头、光学涂层、棱镜、反射镜、波导、光学条带和其他光学部件及任意组合。
光学层176A-N可包括棱镜,该棱镜具有合适的尺寸和构造并包括用于接收来自显示矩阵的光的第一表面和用于向用户的眼睛发射光的第二表面。光学层176A-N的棱镜在整个或部分孔口175A、175B上延伸,该孔口形成在左和右边缘107A-B中以在用户的眼睛透过对应的左和右边缘107A-B观看时允许用户看到棱镜的第二表面。光学层176A-N的棱镜的第一表面从框架105面向上方,并且显示矩阵覆盖在棱镜上,使得由显示矩阵发射的光子和光照射在第一表面上。棱镜的尺寸和形状被设计成使得光在棱镜内被折射并且被光学层176A-N的棱镜的第二表面导向用户的眼睛。在这一点而言,光学层176A-N的棱镜的第二表面可以是凸形的以将光导向眼睛的中心。棱镜可选择性的被设计尺寸和形状来放大由显示矩阵170投影的图像,并且光通过棱镜使得从第二表面观察的图像在一个或多个维度上大于从显示矩阵170发射的图像。
在另一示例中,光学组件180A和180B的图像显示设备包括如图2C所示的投影图像显示器。光学组件180A和180B包括激光投影仪150,其是使用扫描镜或检流计的三色激光投影仪。在操作期间,光源(诸如激光投影仪150)被设置在眼戴设备100的镜腿125A和125B中的一个镜腿之中或之上。光学组件180A和180B包括一个或多个光学条带155A-N,其在光学组件180A和180B的镜头的宽度上或在镜头的前表面和后表面之间的镜头的深度上间隔开。
当由激光投影仪150投射的光子行进穿过光学组件180A和180B的镜头时,光子遇到光学条带155A-N。当光子遇到光学条带时,光子要么被重定向到用户的眼睛,要么传递到下一光学条带。激光投影仪150的调制和光学条带的调制的组合可控制特定的光子或光束。在示例中,处理器通过发出机械、声学或电磁信号来控制光学条带155A-N。虽然被示出为具有两个光学组件180A和180B,但是眼戴设备100可包括其他布置,诸如单个或三个光学组件,或者光学组件180A和180B可具有不同的布置,这取决于眼戴设备100的应用或预期用户。
如图2B和图2C进一步所示,电子外壳110A和110B可集成到框架105相应的侧面170A和170B上中(如图所示)或实施为附接到框架105相应的侧面170A和170B上单独部件。另选地,电子外壳110A和110B可集成到附接至框架105的镜腿125A和125B中。
在一个示例中,图像显示器包括第一(左)图像显示器和第二(右)图像显示器。眼戴设备100包括第一孔口175A和第二孔口175B,这些孔口分别容纳相应的第一光学组件180A和第二光学组件180B。第一光学组件180A包括第一图像显示器(例如,图2B的显示矩阵170A;图2C的光学条带155A-N'和投影仪150A)。第二光学组件180B包括第二图像显示器(例如,图2B的显示矩阵170B;图2C的光学条带155A-N”和投影仪150B)。
图3示出了图2A的眼戴设备的后横截面透视图,其描绘了红外相机220、框架前部330、框架后部335和电路板。眼戴设备100的框架105的左边缘107A的上部部分包括框架前部330和框架后部335。框架前部330包括被配置为远离用户的眼睛面向外的前向侧面。框架后部335包括被配置为朝向用户的眼睛面向内的后向侧面。用于红外相机220的开口形成在框架前部330上。
如在框架105的左边缘107A的上部中间部分中圈出的横截面4-4所示,电路板,即柔性印刷电路板(PCB)340,夹在框架前部330和框架后部335之间。还进一步详细示出了左电子外壳110A经由左铰链126A附接到左镜腿325A。在一些示例中,深度传感器213的部件包括红外相机220、柔性PCB 340或其他位于左镜腿325A或左铰链126A上电连接器或触点。
在一个示例中,左电子外壳110A包括电子外壳主体311、电子外壳盖312、面向内的表面391和面向外的表面392(标记出,但不可见)。设置在左电子外壳110A内的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于给电池充电的控制器电路、面向内的发光二极管(LED)和面向外的(前向)LED。尽管示出为形成在左边缘107A的电路板上,但是包括红外发射器215和红外相机220的深度传感器213可以形成在右边缘107B的电路板上,以例如与右可见光相机114B组合,捕获用于生成三维深度图像或深度视频的红外图像。
图4是对应于图3的眼戴设备的圈出的横截面4-4的穿过红外相机220和框架的横截面图。在图4的横截面中眼戴设备100的各种层是可见的。如图所示,柔性PCB340被设置在框架后部335上并连接到框架前部330。红外相机220被设置在柔性PCB340上且由红外相机覆盖镜头445覆盖。例如,红外相机220软熔焊接到柔性PCB 340的背面。软熔焊接通过使柔性PCB 340经受受控加热,从而将红外相机220附接到形成在柔性PCB 340的背面上的电接触焊盘,该受控加热使焊膏熔化以连接两个部件。在一个示例中,软熔焊接用于将红外相机220表面安装在柔性PCB 340上并且将这两个部件电连接。然而,通孔可用于将导线从红外相机220经由例如互连连接到柔性PCB 340。
框架前部330包括用于红外相机覆盖镜头445的红外相机开口450。红外相机开口450形成在框架前部330的前向侧面上,该前向侧面被配置为远离用户的眼睛面向外并且朝向被用户观察的场景。在该示例中,柔性PCB 340可经由柔性PCB粘合剂460连接到框架后部335。红外相机覆盖镜头445可经由红外相机覆盖镜头粘合剂455连接到框架前部330。连接也可经由居间部件间接实现。
图5示出了图2A的眼戴设备的后视图。眼戴设备100包括红外发射器215、红外相机220、框架前部330、框架后部335和电路板340。如图3一样,在图5中可以看到,眼戴设备100的框架的左边缘的上部部分包括框架前部330和框架后部335。用于红外发射器215的开口形成在框架前部330上。
如在框架左边缘的上部中间部分中圈出的横截面6-6所示,电路板,即柔性PCB340,夹在框架前部330和框架后部335之间。还进一步详细示出了左电子外壳110A经由左铰链126A附接到左镜腿325A。在一些示例中,深度传感器213的部件包括红外发射器215、柔性PCB 340或其他位于左镜腿325A或左铰链126A上的电连接器或触点。
图6是对应于图5的眼戴设备的圈出的横截面6-6的穿过红外发射器215和框架的横截面图。在图6的横截面中示出了眼戴设备100的多个层,如图所示,框架105包括框架前部330和框架后部335。柔性PCB 340设置在框架后部335上并连接到框架前部330。红外发射器215设置在柔性PCB 340上且由红外发射器覆盖镜头645覆盖。例如,红外发射器215软熔焊接到柔性PCB 340的背面。软熔焊接通过使柔性PCB 340经受受控加热,从而将红外发射器215附接到形成在柔性PCB 340的背面上的接触焊盘,该受控加热使焊膏熔化以连接两个部件。在一个示例中,软熔焊接用于将红外发射器215表面安装在柔性PCB 340上并且将这两个部件电连接。然而,通孔可通过互联将从红外发射器215的引线连接到柔性PCB 340。
框架前部330包括用于红外发射器覆盖镜头645的红外发射器开口650。红外发射器开口650形成在框架前部330的前向侧面上,该前向侧面被配置为远离用户的眼睛面向外并且朝向被用户观察的场景。在该示例中,柔性PCB 340可经由柔性PCB粘合剂460连接到框架后部335。红外发射器覆盖镜头645可经由红外发射器覆盖镜头粘合剂655连接到框架前部330。耦接也可经由居间部件间接实现。
图7是描绘示例性相机系统704的框图,其包括用于处理包括时间编码条形码的图像以用于确定相机系统704的曝光时间戳误差的部件。相机系统704包括图像传感器114、ISP 706、OS 708和成像应用710,它们构成用于捕获和处理图像的流水线712。
光源702在处理器714(例如,处理器932或测试生成系统TGS的外部处理器)的控制下生成呈现给图像传感器114的光图案。光源702可以是发射白光或其他能被图像传感器114检测光的一个LED。处理器714被配置为在光源702开始呈现用于由图像传感器114曝光的光模式的时间调制光源(例如,经由脉宽调制PWM)。
由常规半透明材料形成的光扩散器(未示出)可定位在光源702和图像传感器114之间,以扩散来自光源702的光,从而在图像传感器114的整个成像表面上方产生均匀的光覆盖。光扩散器及其与光源702的接近度还屏蔽了其他图像信息。
光源702使用传统电子器件驱动,并且具有相对快的反应时间(即,当通过电子器件打开和关闭电源时光源打开和关闭的速度)。通过将图像传感器114的曝光时间设置得非常短(例如,每行10微秒),可以在单个图像中传送多行信息。
图像传感器114包括半导体芯片(CMOS)上的传感器阵列。当光照射到该传感器阵列时,芯片通过将所得信号转换为图像像素来曝光图像,以获得原始图像。在一个示例中,芯片可执行额外的处理,诸如信号调节。在一个示例中,图像传感器114将与芯片发起曝光的时间对应的时间戳(曝光时间戳)添加到原始图像。
ISP 706转换图像和图像格式。ISP 706可以是单独部件,或者可以被集成到片上系统(SoC)中。ISP 706对图像和图像格式执行各种变换,包括但不限于拜耳变换、去马赛克、降噪、图像锐化、聚焦、曝光和白平衡中的一者或多者。本领域技术人员从本文的描述中将理解合适的ISP 706。在一个示例中,作为附加或代替图像传感器114,ISP 706添加了一个与图像被曝光的时间对应的时间戳(曝光时间戳)。
OS 708提供内部硬件和外部硬件之间的接口。在一个示例中,OS 708提供到包括ISP 706和图像传感器114的SoC上的硬件抽象层(HAL)的接口,并且是接收到达的图像的第一软件。OS 708另外向成像应用710提供图像可用的通知。在一个示例中,作为附加或代替图像传感器114或ISP 706,OS 708添加与图像被曝光的时间对应的时间戳(曝光时间戳)。
成像应用710接收并使用该图像。成像应用710是被配置为处理图像以例如用于显示、修改和存储的软件部件。在一个示例中,成像应用添加一个与图像可供使用的时间对应的时间戳(应用时间戳)。
图8是包括时间编码条形码804的图像802,用于与图7的相机系统704一起使用以确定流水线712中的曝光时间戳误差。所示条形码804包括14位二进制值,其包括表示起始位的相对较长的光脉冲806a,随后是编码时间戳的十四个较短脉冲808。相对较短的脉冲包括表示1的较短脉冲808a和表示0的较长脉冲808b。每个编码的时间戳以与该编码的时间戳对应的起始位806开始。如图所示,条形码804可接在前一时间戳的位812之后并且可在以另一起始位806b开始的另一条形码之前。
图9是示例性相机流水线曝光时间戳误差确定系统900的高级功能框图,该系统包括经由各种网络连接的可穿戴设备(例如,眼戴设备100)、移动设备990和服务器系统998。眼戴设备100包括输入参数处理器和深度捕获相机,诸如可见光相机114A和114B中的至少一者;以及深度传感器213,其被示出为红外发射器215和红外相机220。深度捕获相机可选择性地包括至少两个可见光相机114A和114B(一个与左侧面170A相关联,一个与右侧面170B相关联)。深度捕获相机生成初始视频960的初始深度图像961A-N,其是作为红绿蓝(RGB)成像场景的纹理映射图像的渲染三维(3D)模型。可穿戴设备内的变换功能965修正初始图像,例如以促进特征的匹配并且格式化图像以供查看。
移动设备990可以是智能电话、平板电脑、笔记本电脑、任何接入点或能够使用低功率无线连接925和高速无线连接937两者与眼戴设备100连接的其他此类设备。移动设备990连接到服务器系统998和网络995。网络995可包括有线和无线连接的任何组合。
眼戴设备100进一步包括光学组件180A和180B的两个图像显示器(一个与左侧面170A相关联,一个与右侧面170B相关联)。眼戴设备100还包括图像显示驱动器942、图像处理器912、低功率电路920和高速电路930。光学组件180A和180B的图像显示器用于呈现图像和视频,其可以包括一系列深度图像,诸如来自初始视频960的初始深度图像。图像显示驱动器942耦接到光学组件180A和180B的图像显示器,以控制光学组件180A和180B的图像显示器呈现包括图像(诸如初始视频的初始深度图像)的视频。眼戴设备100进一步包括用户输入设备991(例如,触摸传感器)以从用户接收输入和选择。
图9所示的用于眼戴设备100的部件位于边缘或镜腿中的一个或多个电路板(例如,PCB或柔性PCB)上。另选地或附加地,所描绘的部件可位于眼戴设备100的电子外壳、框架、铰链或鼻梁架中。左可见光相机114A和右可见光相机114B可包括数字相机元件,诸如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、镜头、或可用于捕获数据(包括具有未知对象的场景的图像)的任何其他相应的可见或光捕获元件。
眼戴设备100包括存储器934,其包括输入参数程序和相机流水线曝光时间戳误差确定程序945,以执行本文所述的用于相机偏差补偿的所有功能或其子集。
如图所示,眼戴设备100具有定向传感器,其包括例如如图所示的惯性测量单元(IMU)972。通常,惯性测量单元972是一种电子设备,其使用加速度计和陀螺仪的组合来测量并报告身体的比力、角速率,并且有时也使用磁力计来测量并报告身体周围的磁场。在该示例中,惯性测量单元972确定眼戴设备100的佩戴者的头部定向,该头部定向与眼戴设备100的深度捕获相机在捕获相关联深度图像时的相机定向相关。惯性测量单元972通过使用一个或多个加速度计检测线性加速度并且使用一个或多个陀螺仪检测旋转速率来工作。惯性测量单元的典型配置:对于以下三个轴中的每个轴:用于左右移动的水平轴(X)、用于顶底移动的垂直轴(Y)、用于上下移动的深度或距离轴(Z),每轴包含一个加速度计、陀螺仪和磁力计。陀螺仪检测重力向量。磁力计定义磁场(例如,面南、面北等)中的旋转,如同生成航向基准的罗盘。三个加速度计检测沿以上定义的水平(X)、垂直(Y)和深度(Z)轴的加速度,轴可以相对于地面、眼戴设备100、深度捕获相机或佩戴眼戴设备100的用户来定义。
存储器934包括头部定向测量,其与由惯性测量单元972追踪(例如,测量)的水平轴(X轴)、垂直轴(Y轴)和深度或距离轴(Z轴)上的主轴测量对应。头部定向测量用于确定深度捕获相机的对准,该对准可用于识别初始深度图像的底平面。在IMU的某些应用中,主轴被称为俯仰轴、滚转轴和偏航轴。
在图11A至图11D中示出了概述可以在相机流水线曝光时间戳误差确定程序945中实施的功能的流程图。
如图9所示,高速电路930包括高速处理器932、存储器934和高速无线电路936。在该示例中,图像显示驱动器942耦接到高速电路930并且由高速处理器932操作,以便驱动光学组件180A和180B的左和右图像显示器。高速处理器932可以是能够管理眼戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器932包括使用高速无线电路936来管理到无线局域网(WLAN)的高速无线连接937上的高速数据传输所需的处理资源。在一些示例中,高速处理器932执行操作系统,诸如LINUX操作系统或眼戴设备100的其他此类操作系统,并且操作系统被存储在存储器934中以供执行。除了任何其他职责之外,执行眼戴设备100的软件架构的高速处理器932还管理利用高速无线电路936的数据传输。在一些示例中,高速无线电路936被配置为实施电气和电子工程师协会(IEEE)802.11通信标准,本文中也称为Wi-Fi。在其他示例中,高速无线电路936可实施其他高速通信标准。
眼戴设备100的低功率无线电路924和高速无线电路936可包括短距离收发器(BluetoothTM)和无线广域网、局域网或广域网收发器(例如,蜂窝或Wi-Fi)。移动设备990,包括经由低功率无线连接925和高速无线连接937通信的收发器,可像网络995的其他元件一样,使用眼戴设备100的架构的细节来实施。
存储器934包括能够存储各种数据和应用的任何存储设备,所述数据包括由左和右可见光相机114A和114B、红外相机220和图像处理器912生成的相机数据、以及由图像显示驱动器942在光学组件180A和180B的图像显示器生成用于显示的图像和视频。虽然存储器934被示出为与高速电路930集成,但在其他示例中,存储器934可以是眼戴设备100的单独的独立元件。在一些此类示例中,电气布线线路可提供从芯片到存储器934的连接,所述芯片包括图像处理器912的高速处理器932或低功率处理器922。在其他示例中,高速处理器932可管理存储器934的寻址,使得低功率处理器922将在需要涉及存储器934的读或写操作的任何时间启动高速处理器932。
如图9所示,眼戴设备100的处理器932可耦接到深度捕获相机(可见光相机114A和114B;或可见光相机114A、红外发射器215和红外相机220)、图像显示驱动器942、用户输入设备991和存储器934。如图10所示,移动设备990的处理器1030可耦接到深度捕获相机1070、图像显示驱动器1090、用户输入设备1091和存储器1040A。作为由眼戴设备100的处理器932执行存储器934中的相机流水线曝光时间戳误差确定程序945的结果,眼戴设备100可以执行如下所述功能中的任何功能的全部或子集。由于移动设备990的处理器1030在存储器1040A中执行相机流水线曝光时间戳误差确定程序945,移动设备990可以执行如下所述功能中的任何功能的全部或子集。
在一个示例中,眼戴设备100的深度捕获相机包括至少两个可见光相机,包括具有左视场111A的左可见光相机114A和具有右视场111B的右可见光相机114B。左视场111A和右视场111B具有重叠视场。移动设备990的深度捕获相机1070可被类似地构造。
在示例中,眼戴设备100的深度捕获相机包括至少一个可见光相机114A和深度传感器213(例如,红外发射器215和红外相机220)。至少一个可见光相机114A和深度传感器213具有基本上重叠的视场812(见图8A)。深度传感器213包括红外发射器215和红外相机220。红外发射器215连接到框架105或镜腿125A和125B以发射红外光图案。红外相机220连接到框架105或镜腿125A和125B以捕获所发射的红外光图案中的反射变化。移动设备990的深度捕获相机1070可被类似地构造。
在一个示例中,用户输入设备991、1091包括触摸传感器,该触摸传感器包括输入表面和耦接到输入表面以接收从用户输入的至少一个手指接触的传感器阵列。用户输入设备991、1091进一步包括集成到或连接到触摸传感器并连接到处理器932、1030的感测电路。感测电路被配置为测量电压以追踪输入表面上的该至少一个手指接触。经由用户输入设备991、1091从用户接收输入参数标识的功能包括在触摸传感器的输入表面上接收从用户输入的该至少一个手指接触。
基于触摸的用户输入设备991可被集成到眼戴设备100中。如上所述,眼戴设备100包括集成到或连接到眼戴设备100的框架105侧面170A和170B上的电子外壳110A和110B。框架105、镜腿125A和125B或电子外壳110A和110B包括电路板,该电路板包括触摸传感器。电路板包括柔性印刷电路板。触摸传感器设置在柔性印刷电路板上。传感器阵列是电容式阵列或电阻式阵列。电容式阵列或电阻式阵列包括形成二维直角坐标系以追踪X轴和Y轴位置坐标的网格。
服务器系统998可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如包括处理器、存储器和网络通信接口以通过网络995与移动设备990和眼戴设备100通信。眼戴设备100与主机连接。例如,眼戴设备100经由高速无线连接937与移动设备990配对,或者经由网络995连接到服务器系统998。
眼戴设备100的输出部件包括视觉部件,诸如光学组件180A和180B的左和右图像显示器,如图2B和图2C所述(例如,显示器,诸如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导)。光学组件180A和180B的左和右图像显示器可呈现包括初始深度图像序列的初始视频。光学组件180A和180B的图像显示器由图像显示器驱动器942驱动。图像显示器驱动器942耦接到图像显示器以控制图像显示器呈现初始视频。眼戴设备100的输出部件还包括声学部件(例如,扬声器)、触觉部件(例如,振动马达)、其他信号发生器等。眼戴设备100、移动设备990和服务器系统998的输入部件可包括字母数字输入部件(例如,键盘、被配置为接收字母数字输入的触摸屏、摄影光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,物理按钮、提供触摸位置和触摸力或触摸手势的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)、生物识别部件(例如,心率监视器)等。
眼戴设备100可以可选地包括附加的外围设备元件。此类外围设备元件可包括生物识别传感器、附加传感器、或与眼戴设备100集成的显示元件。例如,外围设备元件可包括任何I/O部件,包括输出部件、运动部件、定位部件或本文所述的任何其他此类元件。
例如,生物识别部件包括检测表情(例如,手势、面部表情、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。定位部件包括生成位置坐标的位置传感器部件(例如,全球定位系统(GPS)接收器部件)、生成定位系统坐标的Wi-Fi或BluetoothTM收发器、高度传感器组件(例如,高度计或检测气压的气压计,可从气压导出高度)、定向传感器部件(例如,磁力计)等。还可经由低功率无线电路924或高速无线电路936从移动设备990通过无线连接925和937接收此类定位系统坐标。
图10是移动设备990的示例的高级功能框图。移动设备990包括用户输入设备1091和输入参数处理器1092以接收用户选择。移动设备990包括闪存存储器1040A,其包括用于执行本文所述的所有功能或功能子集的相机流水线曝光时间戳误差确定程序945。移动设备1090可包括深度捕获相机1070,其包括至少两个可见光相机(具有重叠的视场的第一和第二可见光相机)或具有基本上重叠的视场的至少一个可见光相机和深度传感器,如眼戴设备100一样。
存储器1040A进一步包括经由眼戴设备100的深度捕获相机或者经由移动设备990本身的深度捕获相机1070生成的多个初始深度图像。存储器1040A还包括初始视频,该初始视频包括一些列初始深度图像和相关联的时间坐标。在图11A至图11D中示出了概述可以在相机流水线曝光时间戳误差确定程序945中实施的功能的流程图。
如图所示,移动设备990包括图像显示器1080、控制图像显示器的图像显示驱动器1090和用户输入设备1091,如眼戴设备100一样。在图10的示例中,图像显示器1080和用户输入设备1091被一起集成到触摸屏显示器中。
可使用的触摸屏式的移动设备的示例包括(但不限于)智能电话、个人数字助理(PDA)、平板电脑、笔记本电脑或其他便携式设备。然而,触摸屏式的设备的结构和操作是以示例的方式提供的;并且如本文所述的主题技术并不旨在局限于此。出于本讨论的目的,图10提供了具有用于作为用户界面(或作为用户界面的一部分)显示内容并接收用户输入的触摸屏显示器的示例性移动设备990的框图图示。
如图10所示,移动设备990包括用于经由广域无线移动通信网络进行数字无线通信的至少一个数字收发器(XCVR)1010,示为WWAN XCVR。移动设备990还包括额外的数字或模拟收发器,诸如用于诸如经由NFC、VLC、DECT、ZigBee、BluetoothTM或Wi-Fi进行短距离网络通信的短距离XCVR 1020。例如,短距离XCVR1020可采用任何可用双向无线局域网(WLAN)收发器的形式,该类型与在无线局域网中实施的一个或多个标准通信协议(例如,符合IEEE802.11的Wi-Fi标准和WiMAX之一)兼容。
为了生成用于定位移动设备990的位置坐标,移动设备990可包括全球定位系统(GPS)接收器。另选地或附加地,移动设备990可利用短距离XCVR 1020和WWAN XCVR 1010中的任一者或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、Wi-Fi或BluetoothTM的定位系统可生成非常准确的位置坐标,尤其是当它们组合使用时。此类位置坐标可经由XCVR 1010、1020通过一个或多个网络连接传输到眼戴设备。
收发器1010、1020(网络通信接口)符合现代移动网络所利用的各种数字无线通信标准中的一个或多个标准。WWAN收发器1010的示例包括(但不限于)被配置为根据码分多址(CDMA)和第3代合作伙伴计划(3GPP)网络技术操作的收发器,所述技术包括例如但不限于3GPP类型2(或3GPP2)和LTE,有时被称为“4G”。例如,收发器1010、1020提供信息的双向无线通信,所述信息包括数字化音频信号、静止图像和视频信号、用于显示的网页信息以及web相关输入,以及去往/来自移动设备990的各种类型的移动消息通信。
如前所述,通过收发器1010、1020和网络的这些类型的通信中的若干种通信涉及支持与眼戴设备100或服务器系统998的通信的协议和过程。例如,此类通信可以经由短距离XCVR 1020通过无线连接925和937向和从眼戴设备100传输分组数据,如图9所示。例如,此类通信还可以利用IP分组数据传输经由WWAN XCVR 1010通过图9所示的网络(例如,因特网)995传输数据。WWAN XCVR 1010和短距离XCVR1020两者通过射频(RF)发送和接收放大器(未示出)连接到相关联的天线(未示出)。
移动设备990进一步包括微处理器,示出为CPU 1030,有时在本文中称为主控制器。处理器是一种电路,其具有的元件被构造并布置成执行一个或多个处理功能(通常是各种数据处理功能)。尽管可使用离散的逻辑部件,但是这些示例利用形成可编程CPU的部件。微处理器例如包括一个或多个集成电路(IC)芯片,其结合了执行CPU的功能的电子元件。例如,处理器1030可基于任何已知或可用的微处理器架构,诸如使用ARM架构的精简指令集计算(RISC),正如现今在移动设备和其他便携式电子设备中通常使用的。其他处理器电路可用于形成智能电话、膝上型计算机和平板电脑中的CPU 1030或处理器硬件。
通过将移动设备990配置为例如根据处理器1030可执行的指令或程序来执行各种操作,微处理器1030用作移动设备990的可编程主机控制器。例如,此类操作可以包括移动设备的各种一般操作,以及与相机流水线曝光时间戳误差确定程序945的操作和与眼戴设备100和服务器系统998的通信相关的操作。尽管处理器可使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行程序来配置的通用处理电路。
移动设备990包括用于存储数据和程序的存储器或存储设备系统。在示例中,存储器系统可包括闪存存储器1040A和随机存取存储器(RAM)1040B。RAM1040B用作由处理器1030处理的指令和数据的短期存储装置,例如,用作工作数据处理存储器。闪存存储器1040A通常提供长期存储。
因此,在移动设备990的示例中,闪存存储器1040A用于存储由处理器1030执行的程序或指令。根据设备的类型,移动设备990存储并运行移动操作系统,特定应用(包括相机流水线曝光时间戳误差确定程序945)通过该移动操作系统执行。应用诸如相机流水线曝光时间戳误差确定程序945可以是在移动设备990上运行的本地应用或混合应用。移动操作系统的示例包括Google Android、Apple iOS(I-Phone或iPad设备)、Windows Mobile、AmazonFire OS、RIM BlackBerry操作系统等。
图11A、图11B、图11C和图11D分别是流程图1100、1110、1118和1130,其示出眼戴设备100和相机流水线曝光时间戳误差确定系统900的其他部件的操作(例如,处理器912、932中的一者或多者执行存储在存储器934中的指令,诸如相机流水线曝光时间戳误差确定程序945)。参考本文所述的硬件来描述这些步骤,但并不限于这些具体实施。尽管被示出为串行发生,但是图11A、图11B、图11C和图11D的框可根据具体实施被重新排序或并行化。此外,本领域技术人员从本文的描述中将理解,可以省略一个或多个步骤/框,并且可以并入一个或多个附加/替代步骤。
在框1102处,测试生成系统(TGS)的处理器714确定当前时间,并且生成用于编码当前时间以进行传输和检测的调制序列。TGS处理器714可以是受测设备(DUT)的处理器、耦接到DUT的处理器的单独处理器、或与DUT的处理器同步的处理器。在示例中,处理器714运行应用程序,该应用程序从时钟源(例如,系统时钟)不断地生成调制序列,以经由本文所述的VLC方法进行传输。这些调制序列(其导致由卷帘快门传感器114捕获的条形码图像;条形码时间戳)独立于相机系统704(受测设备;DUT)附加到图像的系统曝光时间戳。为了便于描述,分别使用TGS时钟源和DUT时钟源的时间域(如果TGS和DUT是同一设备或共享一个时钟,则二者可以是相同的)来指称条形码时间戳和系统曝光时间戳。
在框1104处,处理器714使用当前时间调制序列来调制光源702。在示例中,处理器714将当前时间调制序列转换为二进制值,并且致动耦接到光源702的开关(未示出),以根据二进制表示选择性地打开和关闭光源702。开关可以是连接在光源702和处理器714的输出之间的场效应晶体管(FET)电路。在一个示例中,处理器714是DUT的一部分(例如,处理器932或处理器1030)。在另一示例中,处理器714被并入到另一设备中。处理器714在重复循环中连续地从源时钟(DUT时钟源或TGS时钟源)捕获时间,将所捕获的时间转换为适当的形式(例如,二进制表示),并且使用光源702传输该二进制表示。
在一个示例中,处理器714使用脉宽调制(PWM)来编码当前时间调制序列。这使得能够确定所得图像在卷帘快门图像传感器的哪一行上开始,这可用于确定卷帘快门相机系统开始图像捕获时与生成基于当前时间调制序列的时间戳时之间的时间差值。在一个示例中,处理器714和光源702通过以下步骤来调制14位二进制值(根据时间粒度的期望水平,其可具有更多或更少的值):使用相对长的光脉冲806a作为起始位,随后是短脉冲(其包括分别表示1和0的较短脉冲808a和较长脉冲808b)。例如,长光脉冲806可以为100微秒,较短脉冲808a可以为20微秒,而较长脉冲808b可以为40微秒。
在框1112处,相机系统704使用卷帘快门图像传感器114(例如,可见光相机114A)来捕获图像。由相机系统704捕获的图像包括响应于光源702用当前时间编码的条形码。
在图像捕获的示例中,卷帘快门图像传感器114将来自光源的光转换为图像像素以获得原始图像,ISP 706将原始图像变换成经处理的图像,OS 708接收经处理的图像并且通知成像应用710经处理的图像可用。图像传感器114、ISP 706或OS 708中的一者或多者可添加与图像传感器114上的图像的曝光对应的时间戳(系统曝光时间戳),其基于DUT的时钟源。成像应用710可以将应用时间戳(其基于DUT的时钟源)添加到表示图像可供使用的时间的图像元数据。另外,成像应用710可以将具有包括系统曝光时间戳和应用时间戳的元数据的图像存储在存储器934中。
在框1114处,处理器714获得与由卷帘快门相机系统704添加的系统曝光时间戳对应的系统曝光时间戳值。在示例中,处理器714从存储器934检索图像以及相关联的元数据,并且解析元数据以检索系统曝光时间戳。
如果DUT的处理器714是TGS的处理器,则系统曝光时间戳将与条形码时间戳在相同的时域中。如果DUT的处理器不是TGS的处理器,则在确定当前时间调制序列之前,DUT的处理器所使用的时钟可以与TGS的处理器所使用的时钟同步(见框1102)。根据这些示例,系统曝光时间戳值等于由卷帘快门相机系统704添加的系统曝光时间戳。
在框1116处,处理器714获得与通过对图像中的条形码进行解码而确定的条形码时间戳对应的条形码时间戳值。在示例中,处理器714通过识别所捕获的图像802内的条形码804确定条形码时间戳,并通过反转用于编码时间戳的过程将图像中的光带解码成二进制时间戳来(见框1102和1104)。
在DUT的处理器714是TGS的处理器的情况下,条形码时间戳将与系统曝光时间戳在相同的时域中。如果DUT的处理器不是TGS的处理器,则在确定当前时间调制序列之前,DUT的处理器所使用的时钟可以与TGS的处理器所使用的时钟同步(见框1102)。根据这些示例,条形码时间戳值等于通过对图像中的条形码进行解码而确定的条形码时间戳。
在框1118处,处理器714通过将所获得的条形码时间戳值(见框1116)与由卷帘快门相机系统704添加到图像802的系统曝光时间戳值(见框1114)进行比较来确定卷帘快门相机系统704的流水线曝光时间戳误差。由卷帘快门相机系统704添加的系统曝光时间戳表示由卷帘快门相机114确定的图像802被卷帘快门相机114捕获的时间。在图像802的起始位806a对应于图像802的第一行(即,没有位812在它之前)的情况下,处理器714从条形码时间戳中减去曝光时间戳以确定流水线曝光时间戳误差。
在图像802的起始位806a不对应于图像802的第一行(即,存在位812在它之前)的情况下,调整条形码时间戳或曝光时间戳中的至少一者以提高准确度。在示例中,传感器的每行的卷帘快门偏移/读出时间被存储在存储器934中以用于调整时间戳。根据该示例,在框1118a处,处理器714确定条形码804在图像808内的定位。然后,处理器714通过处理图像的行并识别图像804中在包括条形码804的第一位806a的第一行之前的行数来确定该定位。
在框1118b处,处理器714根据所确定的定位(框1118a)和图像传感器114的偏移/读出来计算调整时间段。处理器714通过从存储器934检索每行的偏移/读出速率并将检索到的速率乘以所识别的条形码804之前的行数来计算调整时间段(框1118a)。
在框1118c处,处理器714使用调整时间段来调整条形码时间戳或曝光时间戳中的至少一者。在一个示例中,处理器714将调整时间添加到曝光时间戳。在另一示例中,处理器714从条形码时间戳中减去调整时间。在又一示例中,处理器将调整时间的一部分添加到曝光时间戳并且从条形码时间戳中减去剩余部分。
在框1118d处,处理器714将经调整的条形码时间戳与曝光时间戳(框1118c)进行比较。在示例中,在时间戳调整(框1118c)之后,处理器714从条形码时间戳中减去曝光时间戳以确定流水线曝光时间戳误差。
在框1120处,处理器714确定DUT和TGS的当前时间戳。在一个示例中,DUT的当前时间戳由成像应用710生成,并且表示图像可供使用的时间,并且TGS同时生成对应时间戳。
在DUT和TGS具有不同时钟(即,在不同的时域中)的情况下,如下面参考框1122和1124描述的,可以使用DUT和TGS的当前时间戳(框1120)来确定与图像曝光相关联的流水线曝光时间戳误差。从DUT和TGS两者的角度来看的当前时间戳(1120)可以使用传统的时钟同步技术来同步。
在框1122处,处理器714确定针对DUT的第一测量和针对TGS的第二测量。处理器通过将所确定的曝光时间戳与DUT确定的当前时间戳(框1120)进行比较来确定针对DUT的第一测量。根据该示例,系统曝光时间戳值(框1114)等于DUT确定的当前时间戳与由相机系统704添加的系统曝光时间戳之间的差值(例如,DUT(2)-DUT(1))。处理器通过将所获得的条形码时间戳与TGS确定的当前时间戳(框1120)进行比较来确定第二测量。根据该示例,条形码时间戳值(框1116)等于TGS确定的当前时间戳与条形码时间戳之间的差值(例如,TGS(2)-TGS(1))。
在框1124处,处理器714确定流水线曝光时间戳误差。在示例中,处理器714通过将第一测量与第二测量进行比较来确定流水线曝光时间戳误差。处理器714可通过从第二测量中减去第一测量来确定误差,其中差值表示曝光时间戳中的误差。
在框1126处,处理器714检测图像802中的数字规整。在示例中,处理器714通过将图像802中的特征与预期特征进行比较来检测数字规整。例如,处理器714预期条形码810的行在图像802上是水平的。处理器714使用常规图像处理算法将预期结果(例如,水平行)与实际结果(例如,非水平行)进行比较。另外,使用常规图像处理算法,处理器可确定实际结果偏离预期结果的程度。在一个示例中,如果预期结果与实际结果之间的偏离高于阈值,则可以将成像系统识别为有缺陷的。在另一示例中,处理器714可在处理图像802时基于偏离程度来应用校正因子,使得图像802被校正为呈现/描绘预期结果。
在框1132处,处理器714使用另一卷帘快门图像传感器(例如,可见光相机114B)来捕获另一图像。处理器714可如上参考框1112(图11B)所述来捕获图像。在示例中,由另一图像传感器114B捕获的另一图像包括由图像传感器114A在图像中捕获的相同时间编码条形码。在另一示例中,由另一图像传感器114B捕获的另一图像包括另一时间编码条形码。
在框1134处,处理器714确定另一系统曝光时间戳。处理器714可如上文参考框1114所述确定另一捕获图像的另一系统曝光时间戳。
在由另一图像传感器114B捕获的另一图像包括由图像传感器114A在图像中捕获的相同时间编码条形码的示例中,在框1116处获得的条形码时间戳可用于以下步骤。在由另一图像传感器114B捕获的另一图像包括另一时间编码条形码的示例中,可以在以下步骤中使用如上参考框1116和1118所述针对另一图像确定并可选地调整的另一条形码时间戳,从而用由另一图像传感器114B捕获的另一图像中的条形码替代由图像传感器114A捕获的图像中的条形码。
在框1136处,处理器714确定另一流水线曝光时间戳误差。处理器714可如上文参考框1118所述确定另一流水线曝光时间戳误差。在由另一图像传感器114B捕获的另一图像包括由图像传感器114A在图像中捕获的相同时间编码条形码的示例中,在框1116处获得的条形码时间戳用于如参考框1118所述确定另一流水线曝光时间戳误差,从而用另一系统曝光时间戳(框1134)替换系统曝光时间戳(框1114)。在由另一图像传感器114B捕获的另一图像包括另一时间编码条形码的示例中,处理器714通过用另一系统曝光时间戳(框1134)替换系统曝光时间戳(框1114)并且用针对另一图像确定并可选地调整的另一条形码时间戳替换所获得的条形码时间戳(框1116),从而如参考框1118所述确定另一流水线曝光时间戳误差。
在框1138处,处理器714使由一对卷帘快门图像传感器(例如,图像传感器114A和114B)捕获的图像同步。在示例中,处理器714首先确定包括一个图像传感器114A的流水线曝光时间戳误差与包括另一图像传感器114B的流水线曝光时间戳误差之间的差值。在一个示例中,处理器714然后调整具有最小曝光时间戳误差的相机流水线的一个或多个部件以添加所确定的差值来增加其曝光时间戳误差以匹配较慢相机流水线的曝光时间戳误差。曝光时间戳误差可以由处理器714通过对ISP 706的硬件调整或对OS 708或成像应用710的软件调整中的至少一者来添加。在另一示例中,处理器714调整使用一个图像传感器、另一图像传感器或它们的组合获得的图像的元数据时间戳,使得两个图像在共同的时域中,这对于增强现实应用是有利的。
如先前所描述的,本文针对眼戴设备100、移动设备990和服务器系统998所述的相机流水线曝光时间戳误差确定功能可以被体现在一个或多个应用中。根据一些示例,“功能”、“应用”、“指令”或“程序”是执行在程序中定义的功能的程序。可采用各种程序设计语言来创建以各种方式结构化的应用中的一个或多个应用,诸如面向对象的程序设计语言(例如,Objective-C、Java或C++)或过程程序设计语言(例如,C或汇编语言)。在特定示例中,第三方应用(例如,由除特定平台的供应商之外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在移动操作系统(诸如IOSTM、ANDROIDTM、电话或另一移动操作系统)上运行的移动软件。在该示例中,第三方应用可调用由操作系统提供的API调用,以促进本文所述的功能。
因此,机器可读介质可采取许多形式的有形存储介质。非易失性存储介质包括例如光盘或磁盘,诸如任何计算机等中的任何存储设备,诸如可用于实施附图中所示的客户端设备、媒体网关、代码转换器等。易失性存储介质包括动态存储器,诸如此类计算机平台的主存储器。有形传输介质包括同轴电缆;铜线和光纤,包括构成计算机系统内的总线的导线。载波传输介质可采取电信号或电磁信号、或声波或光波的形式,诸如在射频(RF)和红外(IR)数据通信期间生成的那些。因此,计算机可读介质的常见形式包括例如:软盘、软磁盘、硬盘、磁带、任何其他磁介质、CD-ROM、DVD或DVD-ROM、任何其他光学介质、穿孔卡片纸带、任何其他具有孔图案的物理存储介质、RAM、PROM和EPROM、FLASH-EPROM、任何其他存储器芯片或盒、传输数据或指令的载波、传输此类载波的电缆或链路、或计算机可以从其中读取程序代码或数据的任何其他介质。许多这些形式的计算机可读介质可参与将一个或多个指令的一个或多个序列承载到处理器以供执行。
保护范围仅由所附权利要求书限定。当根据本说明书和随后的申请历史解释时,该范围旨在并且应当被解释为与权利要求中使用的语言的普通含义一致的宽泛范围,并且涵盖所有结构和功能等效物。尽管如此,权利要求中没有一个权利要求旨在包含不满足专利法第101、102或103节的要求的主题,也不应以这种方式来解释它们。因此放弃对这种主题的任何无意的包含。
除了上文刚刚陈述的,无论是否在权利要求书中陈述,已陈述或说明的内容都不旨在或不应解释为导致任何部件、步骤、特征、对象、益处、优点或等效物献给公众。
应当理解,除非本文另外阐述了特定的含义,否则本文所用的术语和表达具有与关于它们对应的相应调查和研究领域的此类术语和表达一致的通常含义。诸如“第一”和“第二”等的关系术语仅可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。术语“包括”、“包含”、“含有”、“具有”或其任何其他变型形式旨在涵盖非排他性的包括,使得包括或包含一系列元素或步骤的过程、方法、制品或装置不仅包括那些元素或步骤,而是还可以包括未明确列出的或对于此类过程、方法、制品或装置固有的其他元素或步骤。在没有进一步限制的情况下,前缀为“一”或“一个”的元素并不排除在包括该元素的过程、方法、制品或装置中另外的相同元素的存在。
除非另有说明,否则本说明书中,包括所附权利要求书中阐述的任何和所有测量、值、额定值、定位、量值、尺寸和其他规格是近似的,而不是精确的。此类量旨在具有与它们涉及的功能和它们所属的领域中的惯例一致的合理范围。例如,除非另外明确说明,否则参数值等可以从所述量变化多达±10%。
此外,在前述具体实施方式中,出于使本公开简化的目的,各种特征在各种示例中被组合在一起。公开的本方法不应被解释为反映所要求保护的示例需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如以下权利要求所反映的,要求保护的本主题在于少于任何单个公开的示例的所有特征。因此,将以下权利要求据此并入到具体实施方式中,其中每个权利要求作为独立要求保护的主题而独立存在。
虽然前文已描述了被认为是最佳模式的示例和其他示例,但应当理解,可在其中作出各种修改且本文所公开的主题可以各种形式和示例来实施,并且其可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求书旨在要求保护落入本发明构思的真实范围内的任何和所有修改和变型。
Claims (21)
1.一种用于卷帘快门相机的曝光时间戳误差确定系统,所述系统包括:
受测设备(DUT)的卷帘快门相机流水线,所述DUT包括被配置为捕获从测试生成系统(TGS)的光源生成的图像的卷帘快门图像传感器;和
处理器,所述处理器被配置为:
使用所述卷帘快门图像传感器来捕获所述图像,所述图像包括用条形码时间戳编码的条形码;
获得与系统曝光时间戳对应的系统曝光时间戳值,所述系统曝光时间戳由所述卷帘快门相机流水线针对所捕获的图像确定;
获得与在所捕获的图像的所述条形码中被编码的所述条形码时间戳对应的条形码时间戳值;以及
通过将所述条形码时间戳值与所述系统曝光时间戳值进行比较来确定所述卷帘快门相机系统的曝光时间戳误差。
2.根据权利要求1所述的系统,其中所述条形码时间戳值等于在所捕获的图像的所述条形码中被编码的所述条形码时间戳的值,所述系统曝光时间戳值等于由所述卷帘快门相机流水线确定的所述系统曝光时间戳,并且所述曝光时间戳误差是所述条形码时间戳值与所述系统曝光时间戳值之间的差值。
3.根据权利要求1所述的系统,其中所述处理器被进一步配置为:
从DUT时钟记录与DUT当前时间对应的DUT值;并且
从TGS时钟记录与TGS当前时间对应的TGS值;
其中所述条形码时间戳值等于在所捕获的图像的所述条形码中被编码的所述条形码时间戳与所述TGS当前时间之间的第一差值,所述系统曝光时间戳值等于由所述卷帘快门相机流水线确定的所述系统曝光时间戳与所述DUT当前时间之间的第二差值,并且所述曝光时间戳误差是所述条形码时间戳值与所述系统曝光时间戳值之间的差值。
4.根据权利要求1所述的系统,进一步包括:
光源,所述光源被配置为生成所述图像。
5.根据权利要求4所述的系统,其中所述光源是发光二极管。
6.根据权利要求4所述的系统,进一步包括定位在所述光源与所述卷帘快门图像传感器之间的扩散器。
7.根据权利要求4所述的系统,其中对所述光源进行脉宽调制以生成所述条形码。
8.根据权利要求7所述的系统,其中通过以下步骤对所述光源进行脉宽调制:传输具有第一持续时间的起始脉冲,随后传输一系列第一位型脉冲和第二位型脉冲,其中所述第一位型脉冲具有与所述第一持续时间不同的第二持续时间,并且所述第二位型脉冲具有与所述第二持续时间不同的第三持续时间。
9.根据权利要求1所述的系统,进一步包括:
另一卷帘快门相机流水线,所述另一卷帘快门相机流水线包括另一卷帘快门图像传感器;
其中所述处理器被进一步配置为:
使用所述另一卷帘快门图像传感器来捕获所述条形码的另一图像;
获得与另一系统曝光时间戳对应的另一系统曝光时间戳值,所述另一系统曝光时间戳由所述另一卷帘快门图像流水线确定;
通过将所述条形码时间戳值与所述另一系统曝光时间戳值进行比较来确定所述卷帘快门相机系统的另一曝光时间戳误差;并且
通过校正所述曝光时间戳误差与所述另一曝光时间戳误差之间的偏移使由所述卷帘快门图像传感器捕获的图像同步。
10.根据权利要求1所述的系统,其中为了确定所述曝光时间戳误差,所述处理器被配置为:
确定所述条形码在所述图像内的定位;
根据所确定的定位和所述卷帘快门图像传感器的卷帘快门偏移或读出时间来计算调整时间段;并且
使用所述调整时间段来调整所述条形码时间戳或所述系统曝光时间戳中的至少一者;并且
将由所述调整时间段调整的所述条形码时间戳与所述系统曝光时间戳进行比较以确定所述曝光时间戳误差。
11.根据权利要求1所述的系统,其中所述处理器被进一步配置为:
确定所述卷帘快门相机系统的应用时间戳;
通过将所确定的曝光时间戳与所述应用时间戳进行比较来确定第一延迟测量;并且
通过将所获得的条形码时间戳与所确定的应用时间戳进行比较来确定第二延迟测量;
其中通过将所述第一延迟测量与所述第二延迟测量进行比较来确定所述曝光时间戳误差。
12.根据权利要求1所述的系统,其中所述处理器被进一步配置为:
通过将所述图像的实际方面与所述图像的预期方面进行比较来检测所述图像的数字扭曲。
13.一种用于确定卷帘快门相机中的曝光时间戳误差的方法,所述方法包括:
使用所述卷帘快门相机的卷帘快门图像流水线的卷帘快门图像传感器来捕获图像,所述图像包括用条形码时间戳编码的条形码;
获得与系统曝光时间戳对应的系统曝光时间戳值,所述系统曝光时间戳由所述卷帘快门相机流水线针对所捕获的图像确定;
获得与在所捕获的图像的所述条形码中被编码的所述条形码时间戳对应的条形码时间戳值;以及
通过将所述条形码时间戳值与所述系统曝光时间戳值进行比较来确定所述卷帘快门相机系统的曝光时间戳误差。
14.根据权利要求13所述的方法,进一步包括:
从DUT时钟记录与DUT当前时间对应的DUT值;以及
从TGS时钟记录与TGS当前时间对应的TGS值;
其中所述条形码时间戳值等于在所捕获的图像的所述条形码中被编码的所述条形码时间戳与所述TGS当前时间之间的第一差值,所述系统曝光时间戳值等于由所述卷帘快门相机流水线确定的所述系统曝光时间戳与所述DUT当前时间之间的第二差值,并且所述曝光时间戳误差是所述条形码时间戳值与所述系统曝光时间戳值之间的差值。
15.根据权利要求13所述的方法,进一步包括:
对光源进行脉宽调制以生成包括所述条形码的所述图像。
16.根据权利要求15所述的方法,其中所述脉宽调制包括:
传输具有第一持续时间的起始脉冲;以及
传输一系列第一位型脉冲和第二位型脉冲,其中所述第一位型脉冲具有与所述第一持续时间不同的第二持续时间,并且所述第二位型脉冲具有与所述第二持续时间不同的第三持续时间。
17.根据权利要求13所述的方法,进一步包括:
使用另一卷帘快门图像传感器来捕获所述条形码的另一图像;
获得与另一系统曝光时间戳对应的另一系统曝光时间戳值,所述另一系统曝光时间戳由所述另一卷帘快门图像流水线确定;
通过将所述条形码时间戳值与所述另一曝光时间戳值进行比较来确定所述卷帘快门相机系统的另一曝光时间戳误差;以及
通过校正所述曝光时间戳误差与所述另一曝光时间戳误差之间的偏移使由所述卷帘快门图像传感器捕获的图像同步。
18.根据权利要求13所述的方法,其中所述确定所述曝光时间戳误差包括:
确定所述条形码在所述图像内的定位;
根据所确定的定位和所述卷帘快门图像传感器的卷帘快门偏移或读出时间来计算调整时间段;以及
使用所述调整时间段来调整所述条形码时间戳或所述系统曝光时间戳中的至少一者;以及
将使用所述调整时间段调整的所述条形码时间戳与所述系统曝光时间戳进行比较以确定所述曝光时间戳误差。
19.根据权利要求13所述的方法,进一步包括:
确定所述卷帘快门相机系统的应用时间戳;
通过将所确定的曝光时间戳与所确定的应用时间戳进行比较来确定第一延迟测量;以及
通过将所获得的条形码时间戳与所确定的应用时间戳进行比较来确定第二延迟测量;
其中通过将所述第一延迟测量与所述第二延迟测量进行比较来确定所述曝光时间戳误差。
20.根据权利要求13所述的方法,进一步包括:
通过将所述图像的实际方面与所述图像的预期方面进行比较来检测所述图像的数字规整。
21.一种包括指令的非暂态计算机可读介质,所述指令在被处理器执行时使电子系统:
使用卷帘快门相机的卷帘快门图像流水线的卷帘快门图像传感器来捕获图像,所述图像包括用条形码时间戳编码的条形码;
获得与系统曝光时间戳对应的系统曝光时间戳值,所述系统曝光时间戳由所述卷帘快门相机流水线针对所捕获的图像确定;
获得与在所捕获的图像的所述条形码中被编码的所述条形码时间戳对应的条形码时间戳值;以及
通过将所述条形码时间戳值与所述系统曝光时间戳值进行比较来确定所述卷帘快门相机系统的曝光时间戳误差。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063046383P | 2020-06-30 | 2020-06-30 | |
US63/046,383 | 2020-06-30 | ||
US17/204,076 US11665334B2 (en) | 2020-06-30 | 2021-03-17 | Rolling shutter camera pipeline exposure timestamp error determination |
US17/204,076 | 2021-03-17 | ||
PCT/US2021/037317 WO2022005734A1 (en) | 2020-06-30 | 2021-06-15 | Rolling shutter camera pipeline exposure timestamp error determination |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115804025A true CN115804025A (zh) | 2023-03-14 |
Family
ID=79030762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180046653.1A Pending CN115804025A (zh) | 2020-06-30 | 2021-06-15 | 卷帘快门相机流水线曝光时间戳误差确定 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11665334B2 (zh) |
EP (1) | EP4173279A1 (zh) |
KR (1) | KR20230029920A (zh) |
CN (1) | CN115804025A (zh) |
WO (1) | WO2022005734A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210103541A (ko) | 2018-12-20 | 2021-08-23 | 스냅 인코포레이티드 | 입체 이미지들을 생성하기 위한 듀얼 카메라들을 갖는 가요성 안경류 디바이스 |
US10965931B1 (en) * | 2019-12-06 | 2021-03-30 | Snap Inc. | Sensor misalignment compensation |
US11683450B2 (en) * | 2020-06-04 | 2023-06-20 | FLIR Unmanned Aerial Systems AS | Shutter and light signal synchronization systems and methods |
US11949527B2 (en) | 2022-04-25 | 2024-04-02 | Snap Inc. | Shared augmented reality experience in video chat |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4473337B1 (ja) * | 2009-07-31 | 2010-06-02 | 株式会社オプトエレクトロニクス | 光学的情報読取装置及び光学的情報読取方法 |
EP2940897B1 (en) | 2012-12-27 | 2020-03-11 | Panasonic Intellectual Property Corporation of America | Information communication method |
US11451688B2 (en) * | 2018-09-26 | 2022-09-20 | Zoox, Inc. | Image scan line timestamping |
-
2021
- 2021-03-17 US US17/204,076 patent/US11665334B2/en active Active
- 2021-06-15 KR KR1020237003096A patent/KR20230029920A/ko active Search and Examination
- 2021-06-15 WO PCT/US2021/037317 patent/WO2022005734A1/en unknown
- 2021-06-15 CN CN202180046653.1A patent/CN115804025A/zh active Pending
- 2021-06-15 EP EP21740307.0A patent/EP4173279A1/en active Pending
-
2023
- 2023-05-01 US US18/141,833 patent/US20230269364A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210409678A1 (en) | 2021-12-30 |
EP4173279A1 (en) | 2023-05-03 |
US11665334B2 (en) | 2023-05-30 |
KR20230029920A (ko) | 2023-03-03 |
WO2022005734A1 (en) | 2022-01-06 |
US20230269364A1 (en) | 2023-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11665334B2 (en) | Rolling shutter camera pipeline exposure timestamp error determination | |
US11763420B2 (en) | Creating shockwaves in three-dimensional depth videos and images | |
US11671572B2 (en) | Input parameter based image waves | |
US11575874B2 (en) | Sensor misalignment compensation | |
US11792379B2 (en) | Depth sculpturing of three-dimensional depth images utilizing two-dimensional input selection | |
US11461883B1 (en) | Dirty lens image correction | |
US20230359038A1 (en) | Eyewear having unsynchronized rolling shutter cameras | |
EP4035348A1 (en) | Automated video capture and composition system | |
KR20210052570A (ko) | 분리가능한 왜곡 불일치 결정 | |
EP4035123A1 (en) | Stylized image painting | |
KR20220076483A (ko) | 다차원 렌더링 | |
US11394954B1 (en) | Portable 3D projector with sharing to multiple viewers | |
CN117441147A (zh) | 增强现实体验的扩展视场捕获 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |