CN114764025A - 光学设备 - Google Patents

光学设备 Download PDF

Info

Publication number
CN114764025A
CN114764025A CN202111222989.7A CN202111222989A CN114764025A CN 114764025 A CN114764025 A CN 114764025A CN 202111222989 A CN202111222989 A CN 202111222989A CN 114764025 A CN114764025 A CN 114764025A
Authority
CN
China
Prior art keywords
image
display screen
sensor data
optical device
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111222989.7A
Other languages
English (en)
Inventor
W·D·霍克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Viavi Solutions Inc
Original Assignee
Viavi Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Viavi Solutions Inc filed Critical Viavi Solutions Inc
Publication of CN114764025A publication Critical patent/CN114764025A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/02Diffusing elements; Afocal elements
    • G02B5/0273Diffusing elements; Afocal elements characterized by the use
    • G02B5/0294Diffusing elements; Afocal elements characterized by the use adapted to provide an additional optical effect, e.g. anti-reflection or filter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0275Details making use of sensor-related data, e.g. for identification of sensor parts or optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/003Light absorbing elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/02Diffusing elements; Afocal elements
    • G02B5/0273Diffusing elements; Afocal elements characterized by the use
    • G02B5/0278Diffusing elements; Afocal elements characterized by the use used in transmission
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Vascular Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

一种光学设备,包括:光学传感器;一个或多个漫射光学元件,所述一个或多个漫射光学元件设置在显示屏的表面上并被配置为跨光学传感器的传感器元件阵列漫射和分布与对象相关联的光的第一部分;以及一个或多个处理器。显示屏包括允许光的第一部分经由显示屏的表面穿过显示屏的一个或多个透射部件,以及防止与对象相关联的光的第二部分穿过显示屏的一个或多个阻挡部件。一个或多个处理器被配置为从光学传感器获得与光的第一部分相关联的传感器数据,处理传感器数据以确定对象的图像,并基于对象的图像执行一个或多个动作。

Description

光学设备
背景技术
光学设备可用于捕捉有关光的信息。例如,光学设备可以捕获与一组与光相关联的波长有关的信息。光学设备可包括捕捉信息的一组传感器元件(例如,光学传感器、光谱传感器和/或图像传感器)。例如,传感器元件阵列可用于捕获与多个波长相关的信息。
发明内容
在一些实施方式中,一种光学设备包括:光学传感器,该光学传感器包括传感器元件阵列;一个或多个漫射光学元件,被设置在显示屏的表面上并被配置为跨光学传感器的传感器元件阵列漫射和分布与对象相关联的光的第一部分,其中显示屏包括允许光的第一部分经由显示屏的表面穿过显示屏的一个或多个透射部件,以及其中显示屏包括防止与对象相关联的光的第二部分穿过显示屏的一个或多个阻挡部件;以及一个或多个处理器,其被配置为:从光学传感器获得与光的第一部分相关联的传感器数据;处理传感器数据以确定对象的图像;并根据对象的图像执行一项或多项动作。
在一些实施方式中,一种存储指令的非暂时性计算机可读介质,所述指令包括一个或多个指令,当由光学设备的一个或多个处理器执行时,该一个或多个指令使该一个或多个处理器:从光学设备的光学传感器获得与光的一部分相关联的传感器数据,所述光的一部分与对象相关联并且通过设置在显示屏的表面上的一个或多个漫射光学元件而被跨光学传感器的输入表面漫射和分布,其中显示屏包括允许所述光的一部分穿过显示屏的一个或多个透射部件,并且其中显示屏包括防止与对象相关联的光的不同部分穿过显示屏的一个或多个阻挡部件;处理传感器数据以确定对象的图像;并提供对象的图像。
在一些实施方式中,一种方法包括:通过光学设备并从光学设备的光学传感器获得与光的一部分相关联的传感器数据,所述光的一部分与对象相关联,通过显示屏传递,并且通过一个或多个漫射光学元件而被跨光学传感器的输入表面以焦散图案漫射和分布;由光学设备并基于焦散图案处理传感器数据以确定对象的图像;并且通过光学设备基于对象的图像执行一个或多个动作。。
附图说明
图1A至图1B是本文所描述的示例实施方式的图。
图2是示出结合确定对象的图像来训练和使用机器学习模型的示例的图。
图3是其中可以实现本文描述的系统和/或方法的示例环境的图。
图4是图3的一个或多个设备的示例部件的图。
图5至图7是与光学设备相关的示例过程的流程图。
具体实施方式
以下示例实施方式的详细描述涉及附图。不同附图中的相同附图标记可标识相同或相似的元件。
用户设备(诸如移动电话)包括用于向用户设备的用户显示信息的显示屏(例如,在用户设备的前表面上)。通常,用户设备包括位于用户设备前表面上的显示屏旁边的传统前置摄像头。例如,传统的前置摄像头可以位于用户设备的显示屏和边框之间的前表面上。传统的前置摄像头可用于获取对象的图像,诸如用于识别和/或认证应用程序(例如,以确定是否允许用户设备的用户与用户设备交互)。然而,由于传统前置摄像头的占地面积,将前置摄像头放置在显示屏旁边会增加用户设备的占地面积,并导致用户设备在其显示屏的前表面上包括不具有显示屏的“空白”区域。
此外,最近尝试将传统前置摄像头放置在显示屏后面的尝试并未成功,因为显示屏的电路部件阻碍了传统前置摄像头的部分并减少了传递到前置摄像头的光量。这会导致前置摄像头捕获对象的不完整、不准确和/或低质量图像。这种图像不适合识别和/或认证应用程序使用。此外,传统的前置摄像头包括成像镜头,这要求传统的前置摄像头具有防止传统前置摄像头位于显示屏后面的厚度,以用于需要小尺寸的用户设备。
本文中描述的一些实施方式提供了一种光学设备,其包括:光学传感器;一个或多个漫射光学元件,其设置在(例如,用户设备的)显示屏的表面上并且被配置为跨光学传感器的传感器元件阵列漫射和分布与对象相关联的光的第一部分;以及一个或多个处理器。显示屏可以包括一个或多个透射部件,其允许光的第一部分经由显示屏的表面穿过显示屏;以及一个或多个阻挡部件,其防止与对象相关联的光的第二部分穿过显示屏。一个或多个处理器可以被配置为从光学传感器获得与光的第一部分(例如,已经穿过显示屏的光的一部分)相关联的传感器数据。一个或多个处理器可以处理传感器数据以确定对象的图像。例如,一个或多个处理器可以使用算法来处理传感器数据,该算法被配置为基于诸如焦散(causstic)图案之类的图案构建对象的图像,其中一个或多个漫射光学元件将光的第一部分漫射和分布在光学传感器的传感器元件阵列上,以确定对象的图像。一个或多个处理器可以基于对象的图像执行一个或多个动作(例如,分析图像以识别和/或验证对象)。
这样,本文描述的光学设备能够仅基于穿过显示屏的光的第一部分来确定对象的完整、准确和高质量图像(例如,用于识别和/或认证应用),这是使用传统的前置摄像头无法实现的。此外,不需要修改显示屏的电路架构(例如,降低光学设备上像素部件的密度)以允许光学设备确定对象的图像,这允许在显示屏上的像素部件的一致密度,并由此降低与设计、组装和/或维护显示屏、光学设备和/或用户设备相关联的设计复杂性。此外,光学设备不包括镜头,这使得光学设备比传统的前置摄像头更薄。这允许将光学设备并入需要小外形的用户设备(例如,位于显示屏后面),这对于传统的前置摄像头来说可能是不可能的。
图1A至图1B是本文描述的示例实施方式100的概览图。如图1A所示,示例实施方式100包括显示屏102和光学传感器104。显示屏102可以是液晶显示器(LCD)显示屏、发光二极管(LED)显示屏或有机发光二极管(OLED)显示屏等。显示屏102和/或光学传感器104可以与光学设备相关联,这在本文别处更详细地描述。
如图1A中进一步所示,显示屏102可以包括一个或多个像素部件106。像素部件106可以被配置为发射与特定波长或波长范围相关联的光(例如,经由显示屏102的显示表面)。例如,如图1A所示,具有灰色阴影的第一像素部件106可以被配置为发射与第一波长范围相关联的光(例如,红光),具有菱形图案的第二像素部件106可以被配置为发射与第二波长范围相关联的光(例如,蓝光),并且具有对角图案化的第三像素部件106可以被配置为发射与第三波长范围相关联的光(例如,绿光)。在一些实施方式中,像素部件106可经配置以允许光(例如,环境光)穿过像素部件106(例如,当像素部件106正在发光或不发光时)。例如,环境光可以经由像素部件106透射通过显示屏102的显示表面(例如,到达光学传感器104)。
一个或多个像素部件106可以布置在显示屏102上的像素部件配置中。例如,图1A示出了像素部件配置108和像素部件配置110,但是其他像素部件配置也被考虑。如图1A所示,像素部件配置108可以使显示屏102上的区域中的一组像素部件106(例如,包括第一像素部件106、第二像素部件106和第三像素部件106)形成分组。在该区域内的一组像素部件106之间可以存在一个或多个间隙112。
在一些实施方式中,间隙112可以是透明的或以其他方式配置为允许光(例如,环境光)穿过间隙112。例如,环境光可以经由间隙112透射通过显示屏102的显示表面(例如,到光学传感器104)。
如在像素部件配置108中所进一步所示的,显示屏102可包括一个或多个电路部件114。电路部件114可包括被配置以促进显示屏102和/或一个或多个像素部件106的操作的电路或其他结构和/或元件。在一些实施方式中,电路部件114可以阻挡或以其他方式被配置为防止光(例如,环境光)穿过电路部件114。例如,电路部件114可以防止环境光经由电路部件114透射通过显示屏102的显示表面(例如,到达光学传感器104)。
如图1A进一步所示,像素部件配置110可使一组像素部件106(例如,包括第一像素部件106、第二像素部件106和第三像素部件106)与显示屏102上的区域中一个或多个窗口部件116形成分组。窗口部件116可以是透明的或以其他方式配置为允许光(例如,环境光)穿过窗口部件116。例如,环境光可以经由窗口部件116透射通过显示屏102的表面(例如,到光学传感器104)。在一些实施方式中,窗口部件116可以被配置为允许与一个或多个波长或波长范围相关联的光通过窗口部件116和/或防止与一个或多个不同波长或不同波长范围相关联的光通过窗部件116。在一些实施方式中,窗口部件116可以包括一个或多个漫射光学元件(例如,被包括在本文所述的一个或多个漫射光学元件122中或与其分开)以漫射穿过窗口部件116的光。
如图1B所示,显示屏102可包括一个或多个透射部件118和/或一个或多个阻挡部件120。一个或多个透射部件118可包括一个或多个像素部件106、一个或多个间隙112、一个或多个窗口部件116和/或显示屏102的允许光穿过显示屏102(例如,经由显示屏102的显示表面)的其他部件。一个或多个阻挡部件120可包括防止光穿过显示屏102(例如,经由显示屏102的显示表面)的显示屏102的一个或多个电路部件和/或其他部件。
在一些实施方式中,一个或多个漫射光学元件122可以设置在显示屏102和光学传感器104(例如,光学传感器104的输入表面)之间。漫射光学元件122可以包括光漫射器和/或任何其他类型的用于漫射光的光学结构。例如,一个或多个漫射光学元件122可以被配置为使通过一个或多个透射部件118而穿过显示屏102的光跨光学传感器104的输入表面漫射和分布。在一些实施方式中,一个或多个漫射光学元件122可以被配置为以图案(例如,与至少一个点扩散函数(PSF)相关联的焦散图案)跨光学传感器104的输入表面漫射和分布光。如图1B所示,一个或多个漫射光学元件122可以设置在显示屏102的表面上,诸如显示屏102的“后”表面(例如,非显示表面)。在一些实施方式中,一个或多个漫射光学元件122可以设置在显示屏102的显示表面上或者可以集成到显示屏102中(例如,在显示屏102的外壳内的一个或多个像素部件106、一个或多个间隙112、一个或多个窗口部件和/或类似物上)。
如图1B进一步所示,光学传感器104可以包括一个或多个传感器元件124(例如,传感器元件阵列,在本文中也称为传感器阵列),每个传感器元件被配置为获得信息。例如,传感器元件124可以提供入射在传感器元件124上的光强度的指示(例如,活动/非活动或更细粒度的强度指示)。作为另一示例,传感器元件124可以提供入射在传感器元件124上的光的波长或波长范围的指示(例如,红光、蓝光、绿光、紫外光、红外光和/或类似物)。光学传感器104可被配置为收集由一个或多个传感器元件124获得的信息以生成传感器数据。
在一个示例中,光学设备(例如,包括显示屏102、一个或多个漫射光学元件122和/或光学传感器104)可以被配置为捕获与对象126(例如,盆栽植物,如图1B所示)有关的信息。如图1B所示,光128可以源自对象126的一个或多个点(例如,来自光源的从对象126的一个或多个点反射的光)并且可以被光学设备接收(例如,对象126可以在光学设备的视场中)。光128的第一部分可以经由显示屏102的显示表面进入显示屏102并且可以借助于一个或多个透射部件118而穿过显示屏102(例如,可以被允许透射通过显示屏102到显示屏的后表面)。光128的第二部分可被一个或多个阻挡部件120阻挡而不能穿过显示屏102。
光的第一部分128可以被一个或多个漫射光学元件122漫射(例如,在光的第一部分穿过显示屏102之前,随着光的第一部分穿过显示屏102,和/或在光的第一部分穿过显示屏102之后,等)以形成漫射光130。漫射光130可以通过一个或多个漫射光学元件122而跨光学传感器104的一个或多个传感器元件124分布。在一些实施方式中,漫射光130可以以图案(例如,图1B中所示的漫射光图案)跨一个或多个传感器元件124分布,上述图案例如焦散图案。
如图1B进一步所示,光学设备可以与一个或多个处理器132相关联并且可以如附图标记134所示向一个或多个处理器132提供传感器数据。传感器数据可以指示与源自对象126的光128和/或跨一个或多个传感器元件124分布的漫射光130有关的信息。例如,一个或多个传感器元件124可以基于接收漫射光来生成传感器数据。光130并且光学传感器104可以将传感器数据发送到一个或多个处理器132。
如图1B和附图标记136进一步所示,一个或多个处理器132可以处理传感器数据以确定(例如,生成、构建、和/或创建,等)对象126的图像(例如,盆栽植物的图像)。例如,一个或多个处理器132可以识别(例如,通过搜索与一个或多个处理器132相关联的数据结构)用于基于由一个或多个漫射光学元件122漫射的光来构建图像的算法,并且可以使用算法处理传感器数据以确定对象126的图像。在一些实施方式中,算法可以被配置为基于图案(例如,焦散图案)构建对象126的图像,其中一个或多个漫射光学元件122以该图案将漫射光130分布在一个或多个传感器元件124上。
在一些实施方式中,一个或多个处理器132可以确定与显示屏102的电路架构相关联的校准信息。校准信息可以指示与一个或多个透射部件118、和/或一个或多个阻挡部件120等相关联的位置信息,和/或可以指示一个或多个漫射光学元件122如何基于位置信息将漫射光跨一个或多个传感器元件124分布。因此,一个或多个处理器132可基于校准信息优化算法。例如,一个或多个处理器132可以基于校准信息识别与传感器数据的数据子集相关联的一组传感器元件124,该数据子集与一个或多个传感器元件124中的其他传感器元件124更可能有助于准确构建图像的图像。因此,一个或多个处理器132可以优化算法以支持该一组传感器元件124而不是其他传感器元件124,以基于传感器数据确定对象126的图像。以此方式,一个或多个处理器132可以生成比使用未优化算法更准确的对象126的图像和/或可以节省计算资源(例如,处理资源、存储器资源、通信资源和/或电力资源,等等),这些计算资源否则会在使用未优化算法时消耗。
在一些实施方式中,传感器数据可以包括与漫射光130相关联的第一组数据和与附加光相关联的第二组数据,附加光诸如由显示屏的一个或多个像素部件106发射的光102。一个或多个处理器132可以处理传感器数据以识别第一组传感器数据和第二组传感器数据,并且可以处理第一组传感器数据(例如,使用上述算法),而不处理第二组传感器数据,以确定对象126的图像。例如,一个或多个处理器132可以在处理传感器数据以确定对象126的图像之前计算上移除(例如,与由一个或多个像素部件106发射的光相关联的)第二组传感器数据。以此方式,一个或多个处理器132可以基于源自对象126的光128生成对象126的图像,并且由此提供对象126的、相对于否则基于由一个或多个传感器元件124接收的所有光所确定的对象126的图像而言更准确的图像。
在一些实施方式中,一个或多个处理器132可以使用机器学习模型来处理传感器数据以确定对象126的图像。机器学习模型可能已经基于训练数据而被训练,该训练数据可以包括示例传感器的数据、与跨与示例传感器数据相关联的传感器元件分布的漫射光的示例图案(例如,焦散图案)相关的信息、和/或与示例传感器数据相关联的示例图像。使用训练数据作为机器学习模型的输入,机器学习模型可以被训练来识别(例如,在示例传感器数据、与示例图案相关的信息、和/或示例图像之间的)一种或多种关系,以确定对象的图像。机器学习模型可以以类似于以下关于图2描述的方式来训练和/或使用。一个或多个处理器132可以包括一个或多个设备(例如,一个或多个数据存储设备),其存储机器学习模型。
在一些实施方式中,一个或多个处理器132可以使对象126的图像显示在显示屏102上。例如,一个或多个处理器132可以将对象126的图像发送到显示屏102,以使显示屏102显示对象126的图像。作为另一示例,当显示屏102被包括在诸如用户设备之类的另一设备中时,一个或多个处理器132可以发送对象的图像126到用户设备,以使用户设备在显示屏102上显示对象126的图像。
在一些实施方式中,一个或多个处理器132可以使用生物特征分析来处理对象126的图像。例如,一个或多个处理器132可以使用面部识别分析来处理对象126的图像(例如,当对象126是光学设备用户的面部时)。附加地或替代地,一个或多个处理器132可以使用(例如,身体部分的)静脉识别分析和/或手部识别分析等来处理对象126的图像。在一些实施方式中,一个或多个处理器132可以获得对象126的多个图像并且可以使用姿势分析、和/或运动分析等来处理这些图像。在一些实施方式中,一个或多个处理器132可以将对象126的一个或多个图像发送到另一设备,诸如与显示屏102相关联的用户设备,以如上所述地分析一个或多个图像。以此方式,一个或多个处理器132可以促进光学设备的用户的识别和/或认证(例如,以允许用户与显示屏102和/或与显示屏102相关联的用户设备交互)。
在一些实施方式中,当机器学习模型用于确定对象126的图像时,一个或多个处理器132可以基于对象126的图像重新训练机器学习模型。例如,内容系统可以使用对象126的图像作为额外的训练数据来重新训练和/或更新机器学习模型。这样,一个或多个处理器132可以提高机器学习模型的准确性,这可以提高机器学习模型的速度和/或效率,从而节省一个或多个处理器132的计算资源。
如上所述,图1A和1B被提供作为一个或多个示例。其他示例可能与关于图1A和图1B所描述的不同。
图2是示出结合确定对象的图像来训练和使用机器学习模型的示例200的图。可以使用机器学习系统来执行这里描述的机器学习模型的训练和使用。机器学习系统可以包括或可以被包括在计算设备、服务器、或云计算环境等中,例如一个或多个处理器132和/或在本文别处更详细描述的用户设备。
如附图标记205所示,可以使用观察集来训练机器学习模型。可以从训练数据(例如,历史数据),诸如在本文描述的一个或多个过程期间收集的数据,来获得该观察集。在一些实施方式中,机器学习系统可以从光学传感器104接收该观察集(例如,作为输入),如本文别处所述的。
如附图标记210所示,观察集包括特征集。特征集可以包括变量集,并且变量可以被称为特征。特定观察可以包括对应于变量集的变量值(或特征值)的集合。在一些实施方式中,机器学习系统可以基于从光学传感器104接收的输入来确定观察集的变量和/或特定观察的变量值。例如,机器学习系统可以通过从结构化数据中提取特征集,通过执行自然语言处理从非结构化数据中提取特征集,和/或通过从操作员接收输入,来识别特征集(例如,一个或多个特征和/或特征值)。
作为示例,用于观察集的特征集可以包括(例如,一个或多个传感器元件124的)传感器元件组1的第一特征、传感器元件组2的第二特征、第三特征传感器元件组3的第三特征,依此类推。如图所示,对于第一观察,第一特征可以具有传感器数据1A的值,第二特征可以具有传感器数据2A的值,第三特征可以具有传感器数据3A的值,等等。这些特征和特征值作为示例提供,并且在其他示例中可能不同。
如附图标记215所示,该观察集可以与目标变量相关联。目标变量可以表示具有数值的变量,可以表示具有落在值范围内或具有一些离散可能值的数值的变量,可以表示可从多个选项之一(例如,多个类别、多个分类或多个标签中之一)选择的变量、和/或可以表示具有布尔值的变量。目标变量可以与目标变量值相关联,并且目标变量值可以特定于观察。在示例200中,目标变量是(例如,与特征集相关联的)对象的图像,其对于第一观察具有图像A的值。
目标变量可以表示机器学习模型被训练来预测的值,并且特征集可以表示被输入到被训练的机器学习模型以预测目标变量的值的变量。该观察集可以包括目标变量值,从而可以训练机器学习模型以识别特征集中导致目标变量值的模式。被训练来预测目标变量值的机器学习模型可以被称为监督学习模型。
在一些实施方式中,机器学习模型可以在不包括目标变量的观察集上进行训练。这可以称为无监督学习模型。在这种情况下,机器学习模型可以在没有标记或监督的情况下从观察集中学习模式,并且可以提供指示这种模式的输出,例如通过使用聚类和/或关联来识别观察集中的相关项目组。
如附图标记220所示,机器学习系统可以使用观察集和一个或多个机器学习算法来训练机器学习模型,这些算法诸如回归算法、决策树算法、神经网络算法、k-最近邻算法、支持向量机算法等。在训练之后,机器学习系统可以将机器学习模型存储为经训练的机器学习模型225以用于分析新观察。
如附图标记230所示,机器学习系统可以将经训练的机器学习模型225应用于新观察,例如通过接收新观察并将新观察输入到经训练的机器学习模型225。如图所示,作为示例,新观察可以包括传感器数据的第一特征1X、传感器数据的第二特征2X、传感器数据的第三特征3X等。机器学习系统可以将经训练的机器学习模型225应用于新的观察以生成输出(例如,结果)。输出的类型可能取决于机器学习模型的类型和/或正在执行的机器学习任务的类型。例如,输出可以包括目标变量的预测值,诸如当采用监督学习时。附加地或替代地,输出可以包括识别新观察所属的聚类的信息和/或指示新观察与一个或多个其他观察之间的相似度的信息,诸如在采用无监督学习时。
作为示例,经训练的机器学习模型225可以预测新观察的对象的图像的目标变量的图像值X,如附图标记235所示。基于该预测,机器学习系统可以提供第一推荐,可以提供用于确定第一推荐的输出,可以执行第一自动动作,和/或可以使得第一自动动作被执行(例如,通过指示另一设备来执行该自动动作),等等。第一自动动作可以包括例如在显示屏102上显示对象的图像。
在一些实施方式中,经训练的机器学习模型225可以分类(例如,聚类)在聚类中的新观察,如附图标记240所示。聚类内的观察可以具有阈值相似度。例如,如果机器学习系统将新观察分类在第一聚类(例如,脸部图像)中,则机器学习系统可以提供第一推荐。附加地或替代地,机器学习系统可以基于对第一聚类中的新观察进行分类来执行第一自动动作和/或可以使得第一自动动作被执行(例如,通过指示另一设备执行该自动动作),该第一自动动作诸如为上面所述的第一自动动作。
在一些实施方式中,与新观察相关联的推荐和/或自动动作可以基于具有特定标签(例如,分类或归类)的目标变量值,可以基于目标变量值是否满足一个或多个阈值(例如,目标变量值是否大于阈值、小于阈值、等于阈值、落入阈值范围等),和/或可以基于对新观察进行分类的聚类。
以这种方式,机器学习系统可以应用严格的自动化过程来根据传感器数据确定对象的图像。机器学习系统能够识别和/或标识数十、数百、数千或数百万个特征和/或数十、数百、数千或数百万个观察的特征值,从而提高准确性和一致性,并与为数十、数百或数千个操作人员使用特征或特征值手动确定对象的图像所分配的计算资源相比,减少与从传感器数据确定对象的图像相关联的延迟。
如上所述,图2是作为示例提供的。其他示例可能与结合图2所描述的不同。
图3是示例环境300的图,其中可以实现本文描述的系统和/或方法。如图3所示,环境300可包括光学设备310,该光学设备310可包括一个或多个处理器320(例如,对应于本文关于图1A和1B描述的一个或多个处理器126)和光学传感器330(例如,对应于本文关于图1A和1B描述的光学传感器104)。环境300还可以包括用户设备340和网络350。环境300的设备可以通过有线连接、无线连接或有线和无线连接的组合互连。
光学设备310可以包括能够确定、存储、处理和/或路由与对象相关联的图像的光学设备。在一些实施方式中,光学设备310可以被并入用户设备340中。在一些实施方式中,光学设备310可以从环境300中的另一设备(诸如,用户设备340)接收信息和/或向其发送信息。光学设备310可以包括结合图4更详细地描述的一个或多个处理器320,和/或光学传感器330。
光学传感器330包括能够感测光的器件。例如,光学传感器330可以包括图像传感器、多光谱传感器、和/或光谱传感器等。在一些实施方式中,光学传感器330可以包括基于硅(Si)的传感器、基于铟镓砷(InGaAs)的传感器、基于硫化铅(PbS)的传感器或基于锗(Ge)的传感器,可以利用一种或多种传感器技术,例如互补金属氧化物半导体(CMOS)技术或电荷耦合器件(CCD)技术等。在一些实施方式中,光学传感器330可以包括正面照射(FSI)传感器、和/或背面照射(BSI)传感器,等。在一些实施方式中,光学传感器330可以被包括在光学设备310和/或用户设备340的相机中。
用户设备340包括一个或多个能够接收、生成、存储、处理和/或提供与对象相关联的图像的设备。例如,用户设备340可以包括通信和/或计算设备,诸如移动电话(例如,智能电话、和/或无线电话等)、计算机(例如,膝上型计算机、平板计算机、和/或手持计算机等)、游戏设备、可穿戴通信设备(例如,智能手表、和/或一副智能眼镜等)、或类似类型的设备。在一些实施方式中,用户设备可以包括用于显示与对象相关联的图像的显示屏(例如,显示屏102)。在一些实施方式中,用户设备340可以从环境300中的另一设备(诸如,光学设备310)接收信息和/或向其发送信息。
网络350包括一个或多个有线和/或无线网络。例如,网络350可以包括蜂窝网络(例如,长期演进(LTE)网络、码分多址(CDMA)网络、3G网络、4G网络、5G网络、和/或另一种类型的下一代网络,等)、公共陆地移动网络(PLMN)、局域网(LAN)、广域网(WAN)、城域网(MAN)、电话网络(例如,公共交换电话网络(PSTN))、专用网络、自组织网络、内联网、互联网、基于光纤的网络、云计算网络等,和/或这些或其他类型的网络的组合。
图3中所示的设备和网络的数量和布置是作为示例提供的。实际上,与图3中所示的那些相比,可能存在额外的设备和/或网络、更少的设备和/或网络、不同的设备和/或网络、或不同布置的设备和/或网络。此外,图3中示出的两个或更多个设备的设备可以在单个设备中实现,或者图3中所示的单个设备可以实现为多个分布式设备。例如,虽然光学设备310和用户设备340被描述为单独的设备,但是光学设备310和用户设备340可以被实现为单个设备。附加地或替代地,环境300的一组设备(例如,一个或多个设备)可以执行被描述为由环境300的另一组设备执行的一个或多个功能。
图4是设备400的示例部件的图,其可以对应于光学设备310和/或用户设备340。在一些实施方式中,光学设备310和/或用户设备340可以包括一个或多个设备400和/或设备400的一个或多个部件。如图4所示,设备400可以包括总线410、处理器420、存储器430、存储部件440、输入部件450、输出部件460、以及通信部件470。
总线410包括能够在设备400的部件之间进行有线和/或无线通信的部件。处理器420包括中央处理单元、图形处理单元、微处理器、控制器、微控制器、数字信号处理器、现场可编程门阵列、专用集成电路和/或另一类型的处理部件。处理器420以硬件、固件或硬件和软件的组合来实现。在一些实施方式中,处理器420包括能够被编程以执行功能的一个或多个处理器。存储器430包括随机存取存储器、只读存储器和/或另一类型的存储器(例如,闪存、磁存储器和/或光存储器)。
存储部件440存储与设备400的操作相关的信息和/或软件。例如,存储部件440可以包括硬盘驱动器、磁盘驱动器、光盘驱动器、固态磁盘驱动器、光盘、数字多功能盘和/或另一类型的非暂时性计算机可读介质。输入部件450使设备400能够接收输入,诸如用户输入和/或感测到的输入。例如,输入部件450可以包括触摸屏、键盘、小键盘、鼠标、按钮、麦克风、开关、传感器、全球定位系统部件、加速度计、陀螺仪和/或致动器。输出部件460使设备400能够提供输出,例如经由显示器、扬声器和/或一个或多个发光二极管。通信部件470使设备400能够与其他设备通信,例如通过有线连接和/或无线连接。例如,通信部件470可以包括接收器、发送器、收发器、调制解调器、网络接口卡和/或天线。
设备400可以执行这里描述的一个或多个过程。例如,非暂时性计算机可读介质(例如,存储器430和/或存储部件440)可以存储指令集(例如,一个或多个指令、代码、软件代码和/或程序代码)以供处理器420执行。处理器420可以执行该指令集以执行这里描述的一个或多个过程。在一些实施方式中,由一个或多个处理器420执行的指令集使一个或多个处理器420和/或设备400执行这里描述的一个或多个过程。在一些实施方式中,可以使用硬连线电路代替指令或与指令结合使用以执行在此描述的一个或多个过程。因此,这里描述的实施方式不限于硬件电路和软件的任何特定组合。
图4中所示的部件的数量和布置是作为示例提供的。设备400可以包括与图4中所示的那些相比而言的附加部件、更少的部件、不同的部件或不同布置的部件。另外或替代地,设备400的一组部件(例如,一个或多个部件)可以执行被描述为由设备400的另一组部件执行的一个或多个功能。
图5是与光学设备(例如,光学设备310)相关联的示例过程500的流程图。在一些实施方式中,图5的一个或多个处理框可由光学设备的一个或多个处理器(例如,一个或多个处理器132或一个或多个处理器320)执行。在一些实施方式中,图5的一个或多个过程框可由另一设备,或者与一个或多个处理器分离或包括一个或多个处理器的一组设备执行,上述设备诸如用户设备(例如,用户设备340)。附加地或替代地,图5的一个或多个过程框可由设备400的一个或多个部件执行,这些部件诸如处理器420、存储器430、存储部件440、输入部件450、输出部件460和/或通信部件470。
在一些实施方式中,光学设备除了包括一个或多个处理器之外,还可以包括光学传感器,该光学传感器包括设置在显示屏的表面上的一个或多个漫射光学元件和传感器元件阵列。一个或多个漫射光学元件可以被配置为跨光学传感器的传感器元件阵列漫射和分布与对象相关联的光的第一部分。显示屏可以包括一个或多个透射部件,其允许光的第一部分经由显示屏的表面穿过显示屏;以及一个或多个阻挡部件,其防止与对象相关联的光的第二部分穿过显示屏。
如图5所示,过程500可以包括从光学传感器获得与光的第一部分相关联的传感器数据(框510)。例如,一个或多个处理器可以从光学传感器获得与光的第一部分相关联的传感器数据,如上所述的。
如图5进一步所示,过程500可以包括处理传感器数据以确定对象的图像(框520)。例如,一个或多个处理器可以处理传感器数据以确定对象的图像,如上所述的。
如图5进一步所示,过程500可以包括基于对象的图像执行一个或多个动作(框530)。例如,一个或多个处理器可以基于对象的图像执行一个或多个动作,如上所述的。
过程500可以包括附加的实施方式,例如下面描述的和/或结合本文别处描述的一个或多个其他过程的任何单个实施方式或实施方式的任何组合。
在第一实施方式中,一个或多个透射部件包括显示屏的一个或多个像素部件。
在第二实施方式中,单独的或与第一种实施方式结合的,一个或多个透射部件包括显示屏的一个或多个窗口部件,其中窗口部件位于显示屏的第一像素部件和显示屏的第二个像素部件。
在第三实施方式中,单独或与第一和第二实施方式中的一个或多个组合,一个或多个透射部件包括显示屏的像素部件之间的一个或多个间隙。
在第四实施方式中,单独或与第一至第三实施方式中的一个或多个结合,一个或多个阻塞部件包括显示屏的一个或多个电路部件。
在第五实施方式中,单独或结合第一至第四实施方式中的一个或多个,处理传感器数据以确定对象的图像包括:处理传感器数据以识别传感器数据的与光的第一部分相关联的第一组传感器数据;处理传感器数据以识别传感器数据的与由显示屏的一个或多个像素部件发射的光相关联的第二组传感器数据;以及处理第一组传感器数据传感器数据,而不是第二组传感器数据,以确定主体的图像。
在第六实施方式中,单独或结合第一至第五实施方式中的一个或多个,处理传感器数据以确定对象的图像包括:确定与显示屏的电路架构相关联的校准信息,使得用于基于由一个或多个漫射光学元件漫射的光构建图像的算法,以根据校准信息进行优化;以及使用该算法处理传感器数据,以确定对象的图像。
在第七实施方式中,单独或结合第一至第六实施方式中的一个或多个,处理传感器数据以确定对象的图像包括:使用机器学习模型处理传感器数据以确定对象的图像。
在第八实施方式中,单独或结合第一至第七实施方式中的一个或多个,执行一个或多个动作包括基于对象的图像重新训练机器学习模型。
在第九实施方式中,单独或与第一至第八实施方式中的一个或多个结合,对象是光学设备的用户的脸并且执行一个或多个动作包括:使用脸部识别分析处理对象的图像。
在第十实施方式中,单独或与第一至第九实施方式中的一个或多个结合,执行一个或多个动作包括:使对象的图像显示在显示屏上。
虽然图5示出了过程500的示例框,但是在一些实施方式中,过程500可以包括与图5中所描绘的那些相比附加的框、更少的框、不同的框或不同布置的框。另外地或替代地,过程500的两个或更多框可以并行执行。
图6是与光学设备(例如,光学设备310)相关联的示例过程600的流程图。在一些实施方式中,图6的一个或多个处理框可由光学设备的一个或多个处理器(例如,一个或多个处理器132或一个或多个处理器320)执行。在一些实施方式中,图6的一个或多个过程框可由另一设备、或者与一个或多个处理器分离或包括一个或多个处理器的一组设备执行,上述设备诸如用户设备(例如,用户设备340)。附加地或替代地,图6的一个或多个过程框可由设备400的一个或多个部件执行,这些部件诸如处理器420、存储器430、存储部件440、输入部件450、输出部件460和/或通信部件470。
如图6所示,过程600可以包括:从光学设备的光学传感器获得与光的一部分相关联的传感器数据,该光的一部分与对象相关联并且通过设置在显示屏的表面上的一个或多个漫射光学元件跨光学传感器的输入表面漫射和分布(框610)。例如,一个或多个处理器可以从光学设备的光学传感器获得与光的一部分相关联的传感器数据,该光的一部分与对象相关联并且通过设置在显示屏表面上的一个或多个漫射光学元件跨光学传感器的输入表面漫射和分布,如上所述的。在一些实施方式中,显示屏包括允许部分光穿过显示屏的一个或多个透射部件。在一些实施方式中,显示屏包括防止与对象相关联的不同部分光穿过显示屏的一个或多个阻挡部件。
如图6中进一步所示,过程600可包括处理传感器数据以确定对象的图像(框620)。例如,一个或多个处理器可以处理传感器数据以确定对象的图像,如上所述的。
如图6进一步所示,过程600可以包括提供对象的图像(框630)。例如,一个或多个处理器可以提供对象的图像,如上所述的。
过程600可以包括附加的实施方式,例如下面描述的和/或结合本文别处描述的一个或多个其他过程的任何单个实施方式或实施方式的任何组合。
在第一实施方式中,提供对象的图像包括使对象的图像显示在显示屏上。
在第二实施方式中,单独或结合第一实施方式,提供对象的图像包括:将对象的图像发送到另一设备以使得另一设备使用面部识别分析来处理对象的图像。
在第三实施方式中,单独或与第一和第二实施方式中的一个或多个结合,处理传感器数据以确定对象的图像包括:识别用于基于由设置在显示屏的表面上的一个或多个漫射光学元件所漫射的光来构建图像的算法,并使用该算法处理传感器数据以确定对象的图像。
在第四实施方式中,单独或结合第一至第三实施方式中的一个或多个,处理传感器数据以确定对象的图像包括:使用机器学习模型处理传感器数据以确定对象的图像。
虽然图6示出了过程600的示例框,但是在一些实施方式中,过程600可以包括与图6中所描绘的那些相比附加的框、更少的框、不同的框或不同布置的框。另外地或替代地,过程600的两个或更多框可以并行执行。
图7是与光学设备(例如,光学设备310)相关联的示例过程700的流程图。在一些实施方式中,图7的一个或多个过程框可由光学设备执行。在一些实施方式中,图7的一个或多个过程框可由另一设备、或与光学设备分离或包括光学设备的一组设备执行,上述设备诸如用户设备(例如,用户设备340)。附加地或替代地,图7的一个或多个过程框可由设备400的一个或多个部件执行,这些部件例如处理器420、存储器430、存储部件440、输入部件450、输出部件460和/或通信部件470。
如图7所示,过程700可以包括从光学设备的光学传感器获得与光的一部分相关联的传感器数据,该光的一部分与对象相关联,通过显示屏传递,并且通过一个或多个漫射光学元件以焦散图案被跨光学传感器的输入表面漫射和分布(框710)。例如,光学设备可以从光学设备的光学传感器获得与光的一部分相关联的传感器数据,该光的一部分与对象相关联,通过显示屏传递,并且通过一个或多个漫射光学元件以焦散图案跨光学传感器的输入表面被漫射和分布,如上所述的。
如图7中进一步所示,过程700可包括基于焦散图案处理传感器数据以确定对象的图像(框720)。例如,光学设备可以基于焦散图案处理传感器数据以确定对象的图像,如上所述的。
如图7进一步所示,过程700可以包括基于对象的图像执行一个或多个动作(框730)。例如,如上所述的,光学设备可以基于对象的图像执行一个或多个动作。
过程700可以包括附加的实施方式,诸如下面描述的和/或结合本文别处描述的一个或多个其他过程的任何单个实施方式或实施方式的任何组合。
在第一种实施方式中,显示屏包括:允许部分光通过显示屏的一个或多个透射部件,和防止与对象相关联的不同部分光通过显示屏的一个或多个阻挡部件。
在第二实施方式中,单独或结合第一实施方式,处理传感器数据以确定对象的图像包括:使用算法处理传感器数据以确定对象的图像中的至少一个,其中算法被配置为基于焦散图案构建图像,或使用机器学习模型处理传感器数据以基于焦散图案确定对象的图像。
在第三实施方式中,单独或结合第一和第二实施方式中的一个或多个,执行一个或多个动作包括以下至少一者:使对象的图像显示在显示屏上、使对象的图像使用面部识别分析技术来处理,或使基于对象的图像重新训练机器学习模型,其中机器学习模型被用于处理传感器数据以确定对象的图像。
虽然图7示出了过程700的示例框,但是在一些实施方式中,过程700可以包括与图7中所描绘的那些相比附加的框、更少的框、不同的框或不同布置的框。另外地或替代地,过程700的两个或更多框可以并行执行。
上述公开提供了说明和描述,但并非旨在穷举或将实施方式限制为所公开的精确形式。可以根据上述公开进行修改和变化,或者也可以从实施方式的实践中获得这些修改和变化。
如本文所使用的,术语“部件”旨在广义地解释为硬件、固件或硬件和软件的组合。显然,这里描述的系统和/或方法可以以不同形式的硬件、固件和/或硬件和软件的组合来实现。用于实施这些系统和/或方法的实际专用控制硬件或软件代码并不对实施方式进行限制。因此,系统和/或方法的操作和行为在此处不参考特定软件代码而被描述,应当理解,可以基于本文的描述使用软件和硬件来实现系统和/或方法。
即使在权利要求中陈述和/或在说明书中公开了特征的特定组合,这些组合并不旨在限制各种实施方式的公开。事实上,这些特征中的许多特征可以以权利要求中未具体记载和/或说明书中未具体公开的方式组合。尽管下面列出的每个从属权利要求可能仅直接从属于一个权利要求,但是各种实施方式的公开包括每个从属权利要求与权利要求书中的每一个其他权利要求的组合。如本文所用,提及项目列表中的“至少一个”的短语是指那些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖a、b、c、a-b、a-c、b-c和a-b-c,以及与多个相同项目的任意组合。
除非明确说明,否则此处使用的任何元素、行为或指令均不应被解释为关键或必要的。此外,如本文所用,冠词“一”和“一个”旨在包括一个或多个项目,并且可以与“一个或多个”互换使用。此外,如本文所用,用词“所述”旨在包括与用词“所述”相关的一个或多个项目,并且可以与“所述一个或多个”互换使用。此外,如本文所用,术语“集”旨在包括一个或多个项目(例如,相关项目、不相关项目、或相关和不相关项目的组合),并且可以与“一个或多个”互换使用。如果仅打算一项,则使用短语“仅一项”或类似语言。此外,如本文所用,术语“具有”、“含有”、“拥有”等旨在是开放式术语。此外,除非另有明确说明,否则短语“基于”旨在表示“至少部分基于”。此外,如本文所使用的,除非另有明确说明(例如,如果与“任一”或“只有其中之一”结合使用),则术语“或”在串联使用时旨在是包容性的,并且可与“和/或”互换使用。

Claims (20)

1.一种光学设备,包括:
光学传感器,包括传感器元件阵列;和
一个或多个漫射光学元件,被设置在显示屏的表面上并且被配置为跨所述光学传感器的传感器元件阵列漫射和分布与对象相关联的光的第一部分,
其中所述显示屏包括一个或多个透射部件,所述一个或多个透射部件允许所述光的第一部分经由所述显示屏的表面穿过所述显示屏,并且
其中所述显示屏包括一个或多个阻挡部件,所述一个或多个阻挡部件防止与所述对象相关联的光的第二部分穿过所述显示屏。
2.根据权利要求1所述的光学设备,其中所述一个或多个透射部件包括所述显示屏的一个或多个像素部件。
3.根据权利要求1所述的光学设备,其中所述一个或多个透射部件包括所述显示屏的一个或多个窗口部件,
其中窗口部件定位于所述显示屏的第一像素部件和所述显示屏的第二像素部件之间。
4.根据权利要求1所述的光学设备,其中所述一个或多个透射部件包括所述显示屏的像素部件之间的一个或多个间隙。
5.根据权利要求1所述的光学设备,其中所述一个或多个阻挡部件包括所述显示屏的一个或多个电路部件。
6.根据权利要求1所述的光学设备,还包括一个或多个处理器,
其中所述一个或多个处理器被配置为:
从所述光学传感器获得与所述光的第一部分相关联的传感器数据;
处理所述传感器数据以确定所述对象的图像;和
基于所述对象的图像执行一个或多个动作。
7.根据权利要求6所述的光学设备,其中所述一个或多个处理器被配置为在处理所述传感器数据以确定所述对象的图像时:
处理所述传感器数据,以标识所述传感器数据中的、与所述光的第一部分相关联的第一组传感器数据;
处理所述传感器数据,以标识所述传感器数据中的、与由所述显示屏的一个或多个像素部件发射的光相关联的第二组传感器数据;和
处理所述第一组传感器数据,而不是所述第二组传感器数据,以确定所述对象的图像。
8.根据权利要求6所述的光学设备,其中所述一个或多个处理器被配置为在处理所述传感器数据以确定所述对象的图像时:
确定与所述显示屏的电路架构相关联的校准信息;
基于所述校准信息,使得基于由所述一个或多个漫射光学元件漫射的光来构建图像的算法被优化;以及
使用所述算法处理所述传感器数据以确定所述对象的图像。
9.根据权利要求6所述的光学设备,其中所述一个或多个处理器被配置为在处理所述传感器数据以确定所述对象的图像时:
使用机器学习模型处理所述传感器数据以确定所述对象的图像。
10.根据权利要求6所述的光学设备,其中所述对象是所述光学设备的使用者的脸,
其中所述一个或多个处理器被配置为在执行所述一个或多个动作时:
使用面部识别分析处理所述对象的图像。
11.根据权利要求6所述的光学设备,其中所述一个或多个处理器被配置为在执行所述一个或多个动作时:
使所述对象的图像显示在所述显示屏上。
12.一种存储指令的非暂时性计算机可读介质,所述指令包括:
一个或多个指令,当由光学设备的一个或多个处理器执行时,所述一个或多个指令使所述一个或多个处理器:
从所述光学设备的光学传感器获得与光的一部分相关联的传感器数据,所述光的一部分与对象相关联并且通过一个或多个漫射光学元件而跨所述光学传感器的输入表面被漫射和分布,所述一个或多个漫射光学元件被设置在显示屏的表面上,
其中所述显示屏包括一个或多个透射部件,所述一个或多个透射部件允许所述光的一部分穿过所述显示屏,并且
其中所述显示屏包括一个或多个阻挡部件,一个或多个阻挡部件防止与所述对象相关联的光的不同部分穿过所述显示屏;
处理所述传感器数据以确定所述对象的图像;以及
提供所述对象的图像。
13.根据权利要求12所述的非暂时性计算机可读介质,其中使所述光学设备提供所述对象的图像的所述一个或多个指令,使所述光学设备:
使所述对象的图像显示在所述显示屏上。
14.根据权利要求12所述的非暂时性计算机可读介质,其中使所述光学设备提供所述对象的图像的所述一个或多个指令,使所述光学设备:
将所述对象的图像发送到另一设备,以使所述另一设备使用面部识别分析处理所述对象的图像。
15.根据权利要求12所述的非暂时性计算机可读介质,其中使所述光学设备处理所述传感器数据以确定所述对象的图像的所述一个或多个指令,使所述光学设备:
标识基于由设置在所述显示屏的所述表面上的所述一个或多个漫射光学元件漫射的光来构建图像的算法;和
使用所述算法处理所述传感器数据,以确定所述对象的图像。
16.根据权利要求12所述的非暂时性计算机可读介质,其中使所述光学设备处理所述传感器数据以确定所述对象的图像的所述一个或多个指令,使所述光学设备:
使用机器学习模型处理所述传感器数据,以确定所述对象的图像。
17.一种方法,包括:
由光学设备并且从所述光学设备的光学传感器处,获得与光的一部分相关联的传感器数据,所述光的一部分与对象相关联,通过显示屏被传递,并且通过一个或多个漫射光学元件而跨所述光学传感器的输入表面以焦散图案被漫射和分布;
由所述光学设备并且基于所述焦散图案,处理所述传感器数据以确定所述对象的图像;以及
由所述光学设备基于所述对象的图像,执行一个或多个动作。
18.根据权利要求17所述的方法,其中所述显示屏包括:允许所述光的一部分穿过所述显示屏的一个或多个透射部件,和防止与所述对象相关联的光的不同部分穿过所述显示屏的一个或多个阻挡部件。
19.根据权利要求17所述的方法,其中处理所述传感器数据以确定所述对象的图像包括以下至少一项:
使用算法处理所述传感器数据以确定所述对象的图像,其中所述算法被配置为基于所述焦散图案构建图像;或者
使用机器学习模型处理所述传感器数据,以基于所述焦散图案确定所述对象的图像。
20.根据权利要求17所述的方法,其中执行所述一个或多个动作包括以下至少一项:
使所述对象的图像显示在所述显示屏上;
使所述对象的图像使用面部识别分析技术被处理;或者
使机器学习模型基于所述对象的图像被重新训练,其中所述机器学习模型被用于处理所述传感器数据以确定所述对象的图像。
CN202111222989.7A 2021-01-14 2021-10-20 光学设备 Pending CN114764025A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/248,212 2021-01-14
US17/248,212 US12014528B2 (en) 2021-01-14 2021-01-14 Optical device

Publications (1)

Publication Number Publication Date
CN114764025A true CN114764025A (zh) 2022-07-19

Family

ID=78598691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111222989.7A Pending CN114764025A (zh) 2021-01-14 2021-10-20 光学设备

Country Status (4)

Country Link
US (1) US12014528B2 (zh)
EP (1) EP4030202A3 (zh)
KR (1) KR20220103018A (zh)
CN (1) CN114764025A (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUE064993T2 (hu) * 2012-09-13 2024-04-28 Ecole Polytechnique Fed Lausanne Epfl Fényvisszaverõ vagy fénytörõ felület gyártási eljárása
US9521497B2 (en) * 2014-08-21 2016-12-13 Google Technology Holdings LLC Systems and methods for equalizing audio for playback on an electronic device
US10614283B2 (en) * 2017-03-07 2020-04-07 Shenzhen GOODIX Technology Co., Ltd. Devices with peripheral task bar display zone and under-LCD screen optical sensor module for on-screen fingerprint sensing
CN107590463A (zh) 2017-09-12 2018-01-16 广东欧珀移动通信有限公司 人脸识别方法及相关产品
CN112888993B (zh) 2018-09-26 2023-05-05 Oppo广东移动通信有限公司 成像设备和电子设备

Also Published As

Publication number Publication date
EP4030202A2 (en) 2022-07-20
US20220222478A1 (en) 2022-07-14
EP4030202A3 (en) 2022-08-17
KR20220103018A (ko) 2022-07-21
US12014528B2 (en) 2024-06-18

Similar Documents

Publication Publication Date Title
US10943126B2 (en) Method and apparatus for processing video stream
US20230385640A1 (en) Misuse index for explainable artificial intelligence in computing environments
US10579860B2 (en) Learning model for salient facial region detection
Li et al. An efficient and robust iris segmentation algorithm using deep learning
US9380224B2 (en) Depth sensing using an infrared camera
US20180157899A1 (en) Method and apparatus detecting a target
US20190147340A1 (en) Machine Learning via Double Layer Optimization
US20190228276A1 (en) License plate reader using optical character recognition on plural detected regions
US10692089B2 (en) User classification using a deep forest network
US20200104568A1 (en) Method and Device for Face Image Processing, Storage Medium, and Electronic Device
US11418773B2 (en) Method and apparatus for camera calibration
CN112116525B (zh) 换脸识别方法、装置、设备和计算机可读存储介质
US9256780B1 (en) Facilitating dynamic computations for performing intelligent body segmentations for enhanced gesture recognition on computing devices
CN115496976B (zh) 多源异构数据融合的视觉处理方法、装置、设备及介质
Shi et al. Smart cameras: Fundamentals and classification
Ebihara et al. Efficient face spoofing detection with flash
CN107423663A (zh) 一种图像处理方法及终端
CN111563541B (zh) 图像检测模型的训练方法和装置
US12014528B2 (en) Optical device
KR102299250B1 (ko) 복합 영상 데이터를 이용한 입출력 인원 계수 장치 및 방법
TWI745808B (zh) 狀況認知系統與方法
JP2018005505A (ja) 画像認識パラメータ設定装置、画像認識パラメータ設定方法、および画像認識パラメータ設定プログラム
Lakshmanan et al. A novel deep facenet framework for real-time face detection based on deep learning model
CN113168541B (zh) 用于成像系统的深度学习推理系统和方法
US20230162534A1 (en) Liveliness detection using a device comprising an illumination source

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information

Address after: Arizona

Applicant after: VIAVI Solutions Inc.

Address before: California

Applicant before: VIAVI Solutions Inc.

CB02 Change of applicant information
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40069637

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination