ES2928489T3 - Conjuntos de visualización con transparencia emulada electrónicamente - Google Patents

Conjuntos de visualización con transparencia emulada electrónicamente Download PDF

Info

Publication number
ES2928489T3
ES2928489T3 ES19706808T ES19706808T ES2928489T3 ES 2928489 T3 ES2928489 T3 ES 2928489T3 ES 19706808 T ES19706808 T ES 19706808T ES 19706808 T ES19706808 T ES 19706808T ES 2928489 T3 ES2928489 T3 ES 2928489T3
Authority
ES
Spain
Prior art keywords
display
layer
circuit board
microlenses
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19706808T
Other languages
English (en)
Inventor
Mark A Lamkin
Kyle Martin Ringgenberg
Jordan David Lamkin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lockheed Martin Corp
Original Assignee
Lockheed Corp
Lockheed Martin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lockheed Corp, Lockheed Martin Corp filed Critical Lockheed Corp
Application granted granted Critical
Publication of ES2928489T3 publication Critical patent/ES2928489T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • G02F1/133526Lenses, e.g. microlenses or Fresnel lenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/16Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different main groups of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. forming hybrid circuits
    • H01L25/167Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different main groups of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. forming hybrid circuits comprising optoelectronic devices, e.g. LED, photodiodes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0062Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between
    • G02B3/0068Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between arranged in a single integral body or plate, e.g. laminates or hybrid structures with other optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13336Combining plural substrates to produce large-area displays, e.g. tiled displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L33/00Semiconductor devices having potential barriers specially adapted for light emission; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L33/48Semiconductor devices having potential barriers specially adapted for light emission; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof characterised by the semiconductor body packages
    • H01L33/58Optical field-shaping elements

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Power Engineering (AREA)
  • Nonlinear Science (AREA)
  • Theoretical Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Electromagnetism (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Electroluminescent Light Sources (AREA)

Abstract

En una realización f, un conjunto de pantalla electrónica incluye una placa de circuito, una primera capa de microlente en un primer lado de la placa de circuito; y una segunda capa de microlente en un lado opuesto de la placa de circuito de la primera capa de microlente. La primera capa de microlentes incluye una primera pluralidad de microlentes, y la segunda capa de microlentes incluye una segunda pluralidad de microlentes. El conjunto de pantalla electrónica incluye además una capa de sensor de imagen adyacente a la primera capa de microlentes y una capa de visualización adyacente a la segunda matriz de microlentes. . La capa de sensor de imagen incluye píxeles de sensor para detectar la luz entrante a través de las primeras microlentes, y la capa de visualización incluye píxeles de visualización para emitir luz a través de las segundas microlentes. El conjunto de pantalla electrónica emula la transparencia emitiendo luz desde las segundas microlentes en ángulos que corresponden a los ángulos de la luz entrante detectada a través de las primeras microlentes. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Conjuntos de visualización con transparencia emulada electrónicamente
Campo técnico
Esta descripción se refiere en general a visualizadores y cámaras de campo de luz, y más particularmente a conjuntos de visualización con transparencia emulada electrónicamente.
Antecedentes
Los visualizadores electrónicos se utilizan en una variedad de aplicaciones. Por ejemplo, los visualizadores se usan en teléfonos inteligentes, ordenadores portátiles y cámaras digitales. Algunos dispositivos, tales como teléfonos inteligentes y cámaras digitales, pueden incluir un sensor de imagen además de un visualizador electrónico. Mientras que algunas cámaras y visualizadores electrónicos captan y reproducen por separado campos de luz, los visualizadores de campo de luz y las cámaras de campo de luz generalmente no están integrados unos con otros. Los documentos US 2015/054734 A1, US 2016/041663 A1, WO 2015/100714 A1 y EP 3 085 082 A1 describen conjuntos de visualización electrónicos según la técnica anterior. En particular, el documento EP 3 085 082 A1 describe un sistema óptico para mostrar imágenes mejoradas de una escena que comprende una primera y una segunda capas de microlentes, un detector óptico y un visualizador, no obstante, dicho sistema óptico no comprende una placa de circuito.
Compendio de realizaciones particulares
En una realización, un conjunto de visualización electrónico incluye una placa de circuito, una primera capa de microlente en un primer lado de la placa de circuito y una segunda capa de microlente en un lado opuesto de la placa de circuito de la primera capa de microlente. La primera capa de microlente incluye una primera pluralidad de microlentes, y la segunda capa de microlente incluye una segunda pluralidad de microlentes. El conjunto de visualización electrónico incluye además una capa de sensor de imagen adyacente a la primera capa de microlente. La capa de sensor de imagen incluye una pluralidad de píxeles de sensor configurados para detectar la luz entrante a través de la primera pluralidad de microlentes. El conjunto de visualización electrónico incluye además una capa de visualización adyacente a la segunda matriz de microlentes. La capa de visualización incluye una pluralidad de píxeles de visualización configurados para emitir luz a través de la segunda pluralidad de microlentes. El conjunto de visualización electrónico incluye además una capa de unidad lógica acoplada a la placa de circuito. La capa de unidad lógica incluye una o más unidades lógicas configuradas para emular la transparencia dirigiendo señales desde la pluralidad de píxeles de sensor a la pluralidad de píxeles de visualización, emitiendo por ello luz desde la segunda pluralidad de microlentes en ángulos que corresponden a ángulos de la luz entrante detectada a través de la primera pluralidad de microlentes.
En otra realización, un conjunto de visualización electrónico incluye una placa de circuito y una primera capa de microlente en un primer lado de la placa de circuito. La primera capa de microlente incluye una primera pluralidad de microlentes. El conjunto de visualización electrónico incluye además una segunda capa de microlente en un lado opuesto de la placa de circuito de la primera capa de microlente. La segunda capa de microlente incluye una segunda pluralidad de microlentes. El conjunto de visualización electrónico incluye además una capa de sensor de imagen adyacente a la primera capa de microlente. La capa de sensor de imagen incluye una pluralidad de píxeles de sensor configurados para detectar la luz entrante a través de la primera pluralidad de microlentes. El conjunto de visualización electrónico incluye además una capa de visualización adyacente a la segunda matriz de microlentes. La capa de visualización incluye una pluralidad de píxeles de visualización configurados para emitir luz a través de la segunda pluralidad de microlentes. El conjunto de visualización electrónico está configurado para emular la transparencia emitiendo luz desde la segunda pluralidad de microlentes en ángulos que corresponden a ángulos de la luz entrante detectada a través de la primera pluralidad de microlentes.
En otra realización, un método de fabricación de un visualizador electrónico incluye formar una pluralidad de ubicaciones de fijación de unidad en una placa de circuito, acoplar una pluralidad de unidades de detección a un primer lado de la placa de circuito y acoplar una pluralidad de unidades de visualización a un segundo lado de la placa de circuito que es opuesto al primer lado. Cada ubicación de fijación de unidad corresponde a una de una pluralidad de unidades de visualización y una de una pluralidad de unidades de detección. Cada unidad de detección está acoplada a una respectiva de las ubicaciones de fijación de unidad, y cada unidad de visualización está acoplada a una respectiva de las ubicaciones de fijación de unidad. El método de fabricación del visualizador electrónico incluye además acoplar una primera pluralidad de microlentes a la pluralidad de unidades de detección y acoplar una segunda pluralidad de microlentes a la pluralidad de unidades de visualización.
La presente descripción presenta varias ventajas técnicas. Algunas realizaciones proporcionan una recreación completa y precisa de un campo de luz objetivo mientras que siguen siendo ligeras y cómodas de llevar para un usuario. Algunas realizaciones proporcionan un sistema electrónico delgado que ofrece tanto opacidad como transparencia emulada unidireccional controlable, así como capacidades de visualización digital tales como realidad virtual (VR), realidad aumentada (AR) y realidad mixta (MR). Algunas realizaciones proporcionan un sistema directo de sensor a visualizador que utiliza una asociación directa de píxeles de entrada con píxeles de salida corolarios para eludir la necesidad de transformación de imagen. Esto reduce la complejidad, el coste y los requisitos de energía para algunos sistemas. Algunas realizaciones proporcionan configuraciones de procesamiento de señales en capas que proporcionan procesamiento local distribuido de grandes cantidades de datos (por ejemplo, 160k de datos de imagen o más), eludiendo por ello los cuellos de botella así como los problemas de rendimiento, potencia y línea de transmisión asociados con las soluciones existentes. Algunas realizaciones utilizan capas de microlentes con matrices de células plenópticas para captar y mostrar con precisión un volumen de luz a un observador. Las células plenópticas incluyen paredes de célula opacas para eliminar la diafonía óptica entre células, mejorando por ello la precisión del campo de luz replicado.
Algunas realizaciones proporcionan electrónica tridimensional mediante facetas geodésicas. En tales realizaciones, una placa de circuito flexible con una matriz de superficies rígidas pequeñas (por ejemplo, facetas de visualización y/o sensor) se puede formar en cualquier forma 3D, lo que es especialmente útil para acomodarse a los radios de curvatura estrechos (por ejemplo, 30-60 mm) necesarios paro visualizadores envolventes para cerca del ojo montados en la cabeza. Algunas realizaciones proporcionan matrices de múltiples pantallas distribuidas para visualizadores de alta densidad. En tales realizaciones, se forma una matriz de microvisualizadores pequeños de alta resolución (por ejemplo, facetas de visualización) de tamaños y formas personalizados y luego se ensamblan en una placa de circuito flexible más grande que luego se puede formar en una forma 3D (por ejemplo, una superficie semiesférica). Cada microvisualizador puede actuar independientemente de cualquier otro visualizador, proporcionando por ello una matriz grande de muchos visualizadores de alta resolución con contenido único en cada uno, de manera que el conjunto completo junto forme esencialmente un único visualizador de resolución extremadamente alta. Algunas realizaciones proporcionan una matriz de cámaras de múltiples aperturas distribuidas. Tales realizaciones proporcionan una matriz de sensores de imagen pequeños (por ejemplo, facetas de sensor) de tamaños y formas personalizados, todos los cuales se ensamblan en una placa de circuito flexible más grande que luego se forma en una forma 3D (por ejemplo, semiesférica). Cada sensor de imagen discreto puede actuar independientemente de cualquier otro sensor de imagen con el fin de proporcionar una matriz grande de muchas aperturas que captan contenido único en cada una, de manera que el conjunto completo llegue a ser esencialmente una cámara de múltiples nodos sin interrupciones de resolución muy alta.
Otras ventajas técnicas serán fácilmente evidentes para un experto en la técnica a partir de las FIGURAS 1A a 42, sus descripciones y las reivindicaciones. Además, aunque se han enumerado anteriormente ventajas específicas, diversas realizaciones pueden incluir todas, algunas o ninguna de las ventajas enumeradas.
Breve descripción de los dibujos
Para una comprensión más completa de la presente descripción y sus ventajas, ahora se hace referencia a la siguiente descripción, tomada junto con los dibujos que se acompañan, en los que:
Las FIGURAS 1A-1C ilustran una escena de referencia con diversos objetos tridimensionales (3D) y diversas posiciones de visualización, según ciertas realizaciones;
Las FIGURAS 2A-2C ilustran la visualización de los objetos 3D de las FIGURAS 1A-1C a través de un panel transparente, según ciertas realizaciones;
Las FIGURAS 3A-3C ilustran la visualización de los objetos 3D de las FIGURAS 1A-1C a través de un panel de imágenes de cámara, según ciertas realizaciones;
Las FIGURAS 4A-4C ilustran la visualización de los objetos 3D de las FIGURAS 1A-1C a través de un panel electrónico de transparencia emulada, según ciertas realizaciones;
Las FIGURAS 5A-5C ilustran la visualización de los objetos 3D de las FIGURAS 1A-1C a través del panel de imágenes de cámara de las FIGURAS 3A-3C desde un ángulo alternativo, según ciertas realizaciones;
Las FIGURAS 6A-6C ilustran la visualización de los objetos 3D de las FIGURAS 1A-1C a través del panel electrónico de transparencia emulada de las FIGURAS 4A-4C desde un ángulo alternativo, según ciertas realizaciones;
La FIGURA 7 ilustra una vista en corte de un conjunto de transparencia emulada, según ciertas realizaciones;
La FIGURA 8 ilustra una vista de despiece del conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones;
La FIGURA 9 ilustra un método de fabricación del conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones;
La FIGURA 10 ilustra un sistema directo de sensor a visualizador que se puede usar por el conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones;
La FIGURA 11 ilustra un método de fabricación del sistema directo de sensor a visualizador de la FIGURA 10, según ciertas realizaciones;
Las FIGURAS 12-13 ilustran diversas configuraciones de procesamiento de señales en capas que se pueden usar por el conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones;
La FIGURA 14 ilustra un método de fabricación de los sistemas de procesamiento de señales en capas de las FIGURAS 12-13, según ciertas realizaciones;
La FIGURA 15 ilustra un conjunto de células plenópticas que se puede usar por el conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones;
La FIGURA 16 ilustra una sección transversal de una parte del conjunto de células plenópticas de la FIGURA 15, según ciertas realizaciones;
Las FIGURAS 17A-17C ilustran secciones transversales de una parte del conjunto de células plenópticas de la FIGURA 15 con diversos campos de luz entrantes, según ciertas realizaciones;
Las FIGURAS 18A-18B ilustran un método de fabricación del conjunto de células plenópticas de la FIGURA 15, según ciertas realizaciones;
Las FIGURAS 19A-19B ilustran otro método de fabricación del conjunto de células plenópticas de la FIGURA 15, según ciertas realizaciones;
Las FIGURAS 20-21 ilustran un conjunto de células plenópticas que se puede fabricar mediante los métodos de las FIGURAS 18A-19B, según ciertas realizaciones;
La FIGURA 22 ilustra una placa de circuito flexible que se puede usar por el conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones;
La FIGURA 23 ilustra detalles adicionales de la placa de circuito flexible de la FIGURA 22, según ciertas realizaciones;
La FIGURA 24 ilustra un flujo de datos a través de la placa de circuito flexible de la FIGURA 22, según ciertas realizaciones;
La FIGURA 25 ilustra un método de fabricación de un conjunto electrónico usando la placa de circuito flexible de la FIGURA 22, según ciertas realizaciones;
La FIGURA 26 ilustra una vista en corte de una matriz de múltiples visualizadores curva, según ciertas realizaciones; La FIGURA 27 ilustra una vista de despiece de la matriz de múltiples visualizadores curva de la FIGURA 26, según ciertas realizaciones;
Las FIGURAS 28-29 ilustran facetas lógicas y facetas de visualización de la matriz de múltiples visualizadores curva de la FIGURA 26, según ciertas realizaciones;
La FIGURA 30 ilustra un lado posterior de la placa de circuito flexible de la FIGURA 22, según ciertas realizaciones; La FIGURA 31 ilustra un flujo de datos a través de la placa de circuito flexible de la FIGURA 30, según ciertas realizaciones;
La FIGURA 32 ilustra la placa de circuito flexible de la FIGURA 30 que se ha formado en una forma semiesférica, según ciertas realizaciones;
La FIGURA 33 ilustra un flujo de datos a través de la placa de circuito flexible de la FIGURA 32, según ciertas realizaciones;
La FIGURA 34 ilustra una matriz de facetas lógicas que se han formado en una forma semiesférica, según ciertas realizaciones;
La FIGURA 35 ilustra las comunicaciones entre las facetas lógicas de la FIGURA 34, según ciertas realizaciones; La FIGURA 36 ilustra un método de fabricación de la matriz de múltiples visualizadores curva de la FIGURA 26, según ciertas realizaciones;
La FIGURA 37 ilustra una vista de corte de una matriz de múltiples cámaras curva, según ciertas realizaciones; Las FIGURAS 38-39 ilustran vistas de despiece de la matriz de múltiples cámaras curva de la FIGURA 37, según ciertas realizaciones;
La FIGURA 40 ilustra una vista posterior de la placa de circuito flexible de la FIGURA 32, según ciertas realizaciones;
La FIGURA 41 ilustra un flujo de datos a través de la placa de circuito flexible de la FIGURA 40, según ciertas realizaciones; y
La FIGURA 42 ilustra un método de fabricación de la matriz de múltiples cámaras curva de la FIGURA 37, según ciertas realizaciones.
Descripción detallada de realizaciones de ejemplo
Los visualizadores electrónicos se utilizan en una variedad de aplicaciones. Por ejemplo, los visualizadores se usan en teléfonos inteligentes, ordenadores portátiles y cámaras digitales. Algunos dispositivos, tales como teléfonos inteligentes y cámaras digitales, pueden incluir un sensor de imagen además de un visualizador electrónico. No obstante, los dispositivos con visualizadores y sensores de imagen generalmente están limitados en su capacidad de captar y mostrar con precisión el entorno fotónico completo.
Para abordar los problemas y limitaciones asociados con los visualizadores electrónicos existentes, las realizaciones de la descripción proporcionan diversos conjuntos electrónicos para captar y mostrar campos de luz. Las FIGURAS 1A-9 están dirigidas a conjuntos de visualización con transparencia emulada electrónicamente, las FIGURAS 10-11 están dirigidas a sistemas directos de cámara a visualizador, las FIGURAS 12-14 están dirigidas a procesamiento de señales en capas, las FIGURAS 15-21 están dirigidas a sistemas de formación de imágenes celulares plenópticos, las FIGURAS 22-25 están dirigidas a distribución electrónica tridimensional (3D) por facetas geodésicas, las FIGURAS 26-36 están dirigidas a matrices de múltiples pantallas distribuidas para visualizadores de alta densidad, y las FIGURAS 37-42 están dirigidas a matrices de cámaras de múltiples aperturas distribuidas.
Para facilitar una mejor comprensión de la presente descripción, se dan los siguientes ejemplos de ciertas realizaciones. Los siguientes ejemplos no se han de leer para limitar o definir el alcance de la descripción. Las realizaciones de la presente descripción y sus ventajas se entienden mejor haciendo referencia a las FIGURAS 1A-42, donde se usan números similares para indicar partes similares y correspondientes.
Las FIGURAS 1A-9 ilustran diversos aspectos de un conjunto con transparencia emulada electrónicamente, según ciertas realizaciones. En general, el conjunto electrónico ilustrado en detalle en las FIGURAS 7-8 se puede usar en diferentes aplicaciones para proporcionar características tales como realidad virtual (VR), realidad aumentada (AR) y la realidad mixta (MR). Para aplicaciones de VR, se requiere un visualizador digital que pueda sustituir por completo una vista del mundo real, similar a cómo un monitor de ordenador estándar bloquea la vista de la escena detrás de él. No obstante, para las aplicaciones de AR, se requiere un visualizador digital que pueda superponer datos encima de esa vista del mundo real, tal como un visualizador de visualización frontal de un piloto en un puesto de conducción moderno. Las aplicaciones de MR requieren una combinación de ambos. Los sistemas típicos usados para proporcionar algunas de o todas estas características no son deseables por una serie de razones. Por ejemplo, las soluciones típicas no proporcionan una recreación precisa o completa de un campo de luz objetivo. Como otro ejemplo, las soluciones existentes típicamente son voluminosas y no son cómodas para los usuarios.
Para abordar los problemas y las limitaciones de los visualizadores electrónicos existentes, las realizaciones de la descripción proporcionan un sistema electrónico delgado que ofrece tanto opacidad como transparencia emulada unidireccional controlable, así como capacidades de visualización digital. Por un lado, la superficie parece opaca, pero desde el lado opuesto, la superficie puede parecer completamente transparente, parecer completamente opaca, actuar como un visualizador digital o cualquier combinación de estos. En algunas realizaciones, las tecnologías de detección y visualización plenópticas simultáneas se combinan dentro de una estructura de una única capa para formar lo que parece ser una superficie visualmente transparente unidireccional. El sistema puede incluir múltiples capas de electrónica y óptica con el propósito de recrear artificialmente la transparencia que se puede aumentar y/o controlar digitalmente. Los píxeles de sensor de imagen individuales en un lado se pueden disponer espacialmente para que coincidan con las posiciones de los píxeles de visualización en el lado opuesto del conjunto. En algunas realizaciones, toda la circuitería de control electrónica, así como algo de la circuitería lógica de visualización, se pueden intercalar entre la capa de sensor y la capa de visualización, y la señal de salida de cada píxel de sensor se puede canalizar a través de la circuitería hasta el píxel de visualización correspondiente en el lado opuesto. En algunas realizaciones, esta señal procesada centralmente se agrega con la señal entrante de la matriz de sensores de imágenes plenópticas en el lado opuesto, y se maneja según los siguientes modos de operación. En el modo de VR, la alimentación de video externa anula los datos de cámara, sustituyendo por completo la vista del usuario del mundo exterior con la vista entrante del video. En el modo de AR, la alimentación de video externa se superpone sobre los datos de cámara, dando como resultado una vista combinada tanto del mundo externo como de la vista del video (por ejemplo, los datos de video simplemente se añaden a la escena). En modo de MR, la alimentación de video externa se mezcla con los datos de cámara, permitiendo que los objetos virtuales parezcan interactuar con objetos reales en el mundo real, alterando el contenido virtual para hacerlo parecer integrado con el entorno real a través de la oclusión, iluminación, etc., de objetos.
Algunas realizaciones combinan un sensor de alto rango dinámico (HDR) transparente apilado y píxeles de visualización en una única estructura, con píxeles de sensor en un lado del conjunto y píxeles de visualización en el otro, y con alineación píxel por píxel entre la cámara y el visualizador. Las matrices de píxeles tanto de sensor como de visualización se pueden enfocar mediante grupos de microlentes para captar y mostrar campos de luz de cuatro dimensiones. Esto significa que la vista completa del mundo real se capta en un lado del conjunto y se reproduce electrónicamente en el otro, permitiendo la alteración parcial o completa de la imagen entrante mientras que se mantiene la claridad de imagen, la luminancia y la resolución angular suficiente para que el lado del visualizador parezca transparente, incluso cuando se ve en ángulos oblicuos.
Las FIGURAS 1A-6C se proporcionan para ilustrar las diferencias entre la transparencia emulada electrónicamente proporcionada por las realizaciones de la descripción y las imágenes de cámara típicas (tales como a través de un visor de cámara o usando un teléfono inteligente para mostrar su imagen de cámara actual). Las FIGURAS 1A-1C ilustran una escena de referencia con diversos objetos 3D 110 (es decir, 110A-C) y una posición de visualización frontal, según ciertas realizaciones. La FIGURA 1A es una vista superior de una disposición de objetos 3D 110 y una dirección de visualización frontal de objetos 3D 110. La FIGURA 1B es una vista en perspectiva de la misma disposición de objetos 3D 110 y dirección de visualización frontal que la FIGURA 1A. La FIGURA 1C es la vista frontal resultante de objetos 3D 110 desde la posición ilustrada en las FIGURAS 1A y 1B. Como se puede ver, la vista en la FIGURA 1C de los objetos 3D 110 es una vista esperada normal de los objetos 3D 110 (es decir, la vista de los objetos 3D 110 no se altera en absoluto porque no hay nada entre el observador y los objetos 3D 110).
Las FIGURAS 2A-2C ilustran la visualización de los objetos 3D 110 de las FIGURAS 1A-1C a través de un panel transparente 210, según ciertas realizaciones. El panel transparente 210 puede ser, por ejemplo, una pieza de vidrio transparente. La FIGURA 2A es una vista superior de una dirección de visualización frontal de objetos 3D 110 a través del panel transparente 210, y la FIGURA 2B es una vista en perspectiva de la misma disposición de objetos 3D 110 y dirección de visualización frontal que la FIGURA 2A. La FIGURA 2C es la vista frontal resultante de objetos 3D 110 a través del panel transparente 210 desde la posición ilustrada en las FIGURAS 2A y 2B. Como se puede ver, la vista en la FIGURA 2C de los objetos 3D 110 a través del panel transparente 210 es una vista esperada normal de los objetos 3D 110 (es decir, la vista de los objetos 3D 110 no se altera en absoluto porque el observador esté mirando a través de un panel transparente 210). En otras palabras, la vista de objetos 3D 110 a través del panel transparente 210 en la FIGURA 2C es la misma que la vista en la FIGURA 1C donde ningún objeto está entre el observador y los objetos 3D 110 (es decir, transparencia “percibida”). Dicho de otra forma, los bordes de la imágenes proyectadas en el panel transparente 210 se alinean con la vista de los objetos 3D 110 reales detrás del panel transparente 210 para crear una imagen alineada con la vista 220A del objeto 3d 110A, una imagen alineada con la vista 220B del objeto 3D 110B, y una vista imagen alineada con la vista 220c del objeto 3D 110C.
Las FIGURAS 3A-3C ilustran la visualización de los objetos 3D 110 de las FIGURAS 1A-1C a través de un panel de imagen de cámara 310, según ciertas realizaciones. El panel de imagen de cámara 310 puede ser, por ejemplo, un visor de cámara o un visualizador de un teléfono inteligente que muestra su imagen de cámara actual. En estas imágenes, el panel de imagen de cámara 310 está en un ángulo (por ejemplo, 30 grados) con respecto al observador para ilustrar cómo tales sistemas no proporcionan una transparencia emulada verdadera. La FIGURA 3A es una vista superior de una dirección de visualización frontal de objetos 3D 110 a través del panel de imagen de cámara 310, y la FIGURA 3B es una vista en perspectiva de la misma disposición de objetos 3D 110 y dirección de visualización frontal que la FIGURA 3A. La FIGURA 3C es la vista frontal resultante de objetos 3D 110 a través del panel de imagen de cámara 310 desde la posición ilustrada en las FIGURAS 3A y 3B. Como se puede ver, la vista en la FIGURA 3C de objetos 3D 110 a través del panel de imagen de cámara 310 es diferente de una vista de objetos 3D 110 a través del panel transparente 210. Aquí, el panel de imagen de cámara 310 redirige las líneas de vista que son normales al panel de imagen de cámara 310, no mostrando por ello ninguna transparencia percibida (es decir, la imagen en el panel de imagen de cámara 310 no está alineada con la vista, sino que, en su lugar, representa la imagen adquirida por las líneas de vista redirigidas). Dicho de otra forma, los bordes de las imágenes proyectadas en el panel de imagen de cámara 310 no se alinean con la vista de los objetos 3D 110 reales detrás del panel de imagen de cámara 310. Esto se ilustra mediante una imagen no alineada 320A del objeto 3D 110A y una imagen no alineada 320B del objeto 3D 110B en el panel de imagen de cámara 310 en la FIGURA 3C.
Las FIGURAS 4A-4C ilustran la visualización de los objetos 3D 110 de las FIGURAS 1A-1C a través de un panel electrónico de transparencia emulada 410, según ciertas realizaciones. En estas imágenes, el panel de transparencia emulada 410 está en ángulo (por ejemplo, 30 grados) con respecto al observador para ilustrar cómo el panel de transparencia emulada 410 proporciona una transparencia emulada verdadera a diferencia de los paneles de imagen de cámara 310. La FIGURA 4A es una vista superior de una dirección de visualización frontal de objetos 3D 110 a través del panel de transparencia emulada 410, y la FIGURA 4B es una vista en perspectiva de la misma disposición de objetos 3D 110 y dirección de visualización frontal que la FIGURA 4A. La FIGURA 4C es la vista frontal resultante de objetos 3D 110 a través del panel de transparencia emulada 410 desde la posición ilustrada en las FIGURAS 4A y 4B. Como se puede ver, la vista en la FIGURA 4C de objetos 3D 110 a través del panel de transparencia emulada 410 es diferente de una vista de objetos 3D 110a través del panel de imagen de cámara 310 pero es similar a una vista de objetos 3D 110 a través del panel transparente 210. Aquí, el panel de transparencia emulada 410 no redirige las líneas de vista del observador a través del panel de transparencia emulada 410, sino que las permite que permanezcan virtualmente sin cambios y, por ello, proporcionando una transparencia emulada (es decir, la imagen en el panel de transparencia emulada 410 está alineada con la vista como en el panel transparente 210). Como el panel transparente 210, los bordes de las imágenes proyectadas en el panel de transparencia emulada 410 se alinean con la vista de los objetos 3D 110 reales detrás del panel de transparencia emulada 410 para crear una imagen alineada con la vista 220A del objeto 3D 110A, una imagen alineada con la vista 220B del objeto 3D 110B, y una imagen alineada con la vista 220C del objeto 3D 110C.
Las FIGURAS 5A-5C ilustran la visualización de los objetos 3D 110 de las FIGURAS 1A-1C a través del panel de imagen de cámara 310 de las FIGURAS 3A-3C, pero desde un ángulo alternativo. En estas imágenes, el panel de imagen de cámara 310 está en un ángulo diferente de 30 grados con respecto al observador para ilustrar además cómo tales sistemas no proporcionan una transparencia emulada verdadera. Como en las FIGURAS 3A-3C, los bordes de las imágenes proyectadas en el panel de imagen de cámara 310 no se alinean con la vista de los objetos 3D 110 reales detrás del panel de imagen de cámara 310. Esto se ilustra mediante una imagen no alineada 320C del objeto 3D 110C y una imagen no alineada 320B del objeto 3D 110B en el panel de imagen de cámara 310 en la FIGURA 5C.
Las FIGURAS 6A-6C ilustran la visualización de los objetos 3D 110 de las FIGURAS 1A-1C a través del panel electrónico de transparencia emulada 410 de las FIGURAS 4A-4C, pero desde un ángulo alternativo. Como en las FIGURAS 4A-4C, los bordes de las imágenes proyectadas en el panel de transparencia emulada 410 en la FIGURA 6C se alinean con la vista de los objetos 3D 110 reales detrás del panel de transparencia emulada 410 para crear una imagen alineada con la vista 220B del objeto 3D 110B y una imagen alineada con la vista 220C del objeto 3D 110C.
Como se ilustró anteriormente en las FIGURAS 4A-4C y 6A-6C, el panel de transparencia emulada 410 proporciona imágenes alineadas con la vista 220 de objetos 3D 110 detrás del panel de transparencia emulada 410, proporcionando por ello transparencia emulada electrónicamente. Las FIGURAS 7-8 ilustran una realización de ejemplo del panel de transparencia emulada 410. La FIGURA 7 ilustra una vista en corte de un conjunto de transparencia emulada 710 que puede ser un panel de transparencia emulada 410, y la FIGURA 8 ilustra una vista de despiece del conjunto de transparencia emulada 710 de la FIGURA 7, según ciertas realizaciones.
En algunas realizaciones, el conjunto de transparencia emulada 710 incluye dos matrices de microlentes 720 (es decir, una matriz de microlentes del lado del sensor 720A y una matriz de microlentes del lado del visualizador 720B), una capa de sensor de imagen 730, una placa de circuito 740 y una capa de visualización electrónica 760. En general, el campo de luz entrante 701 entra en la matriz de microlentes del lado del sensor 720A donde se detecta por la capa de sensor de imagen 730. El campo de luz saliente 702 replicado electrónicamente luego se genera por la capa de visualización electrónica 760 y se proyecta a través de la matriz de microlentes del lado del visualizador 720B. Como se explica con más detalle a continuación, la disposición y las características únicas del conjunto de transparencia emulada 710 le permiten proporcionar transparencia emulada electrónicamente a través del campo de luz saliente 702 replicado electrónicamente, así como otras características descritas a continuación. Aunque una forma específica del conjunto de transparencia emulada 710 se ilustra en las FIGURAS 7-8, el conjunto de transparencia emulada 710 puede tener cualquier forma apropiada, incluyendo cualquier forma poligonal o no poligonal, y configuraciones tanto planas como no planas.
Las matrices de microlentes 720 (es decir, la matriz de microlentes del lado del sensor 720A y la matriz de microlentes del lado del visualizador 720B) son generalmente capas de microlentes. En algunas realizaciones, cada microlente de las matrices de microlentes 720 es una célula plenóptica 1510 como se describe con más detalle a continuación en referencia a la FIGURA 15. En general, cada microlente de la matriz de microlentes del lado del sensor 720A está configurada para captar una parte del campo de luz entrante 701 y dirigirlo a píxeles dentro de la capa de sensor de imagen 730. De manera similar, cada microlente de la matriz de microlentes del lado del visualizador 720B está configurada para emitir una parte del campo de luz saliente 702 replicado electrónicamente que se genera por píxeles de la capa de visualización electrónica 760. En algunas realizaciones, cada microlente de la matriz de microlentes del lado del sensor 720A y la matriz de microlentes del lado del visualizador 720B tiene una forma 3D con una lente colimadora en un extremo de la forma 3D. La forma 3D puede ser, por ejemplo, un poliedro triangular, un paralelepípedo rectangular, un poliedro pentagonal, un poliedro hexagonal, un poliedro heptagonal o un poliedro octogonal. En algunas realizaciones, cada microlente de la matriz de microlentes del lado del sensor 720A y la matriz de microlentes del lado del visualizador 720B incluye paredes opacas tales como las paredes de células 1514 (tratadas a continuación en referencia a la FIGURA 15) que están configuradas para evitar que la luz penetre en las microlentes adyacentes. En algunas realizaciones, cada microlente del conjunto de microlentes del lado del sensor 720A y la matriz de microlentes del lado del visualizador 720B incluye además o alternativamente un recubrimiento de rechazo de ángulo de incidencia de la luz tal como la capa de filtro 1640 descrita a continuación para evitar que la luz penetre en las microlentes adyacentes.
En algunas realizaciones, las microlentes de la matriz de microlentes del lado del sensor 720A están orientadas hacia una primera dirección, y las microlentes de la matriz de microlentes del lado del visualizador 720B están orientadas hacia una segunda dirección que está a 180 grados de la primera dirección. En otras palabras, algunas realizaciones del conjunto de transparencia emulada 710 incluyen una matriz de microlentes del lado del sensor 720A que está orientada exactamente opuesta de la matriz de microlentes del lado del visualizador 720B. En otras realizaciones, es posible cualquier otra orientación de la matriz de microlentes del lado del sensor 720A y la matriz de microlentes del lado del visualizador 720B.
En general, la capa de sensor de imagen 730 incluye una pluralidad de píxeles de sensor que están configurados para detectar el campo de luz entrante 701 después de que pase a través de la matriz de microlentes del lado del sensor 720A. En algunas realizaciones, la capa de sensor de imagen 730 incluye una matriz de unidades de detección 735 (por ejemplo, las unidades de detección 735A-C como se ilustra en la FIGURA 8). Cada unidad de detección 735 puede ser una parte definida de la capa de sensor de imagen 730 (por ejemplo, un área específica tal como una parte de una cuadrícula rectangular) o un número o patrón específico de píxeles de sensor dentro de la capa de sensor de imagen 730. En algunas realizaciones, cada unidad de detección 735 corresponde a una unidad lógica 755 específica de la capa de unidad lógica 750 como se describe a continuación. En algunas realizaciones, la capa de sensor de imagen 730 está acoplada o de otro modo es inmediatamente adyacente a la matriz de microlentes del lado del sensor 720A. En algunas realizaciones, la capa de sensor de imagen 730 está entre la matriz de microlentes del lado del sensor 720A y la placa de circuito 740. En otras realizaciones, la capa de sensor de imagen 730 está entre la matriz de microlentes del lado del sensor 720A y la capa de unidad lógica 750. En algunas realizaciones, se pueden incluir otras capas apropiadas en el conjunto de transparencia emulada 710 a cada lado de la capa de sensor de imagen 730. Además, aunque se ilustran un número y patrón específico de unidades de detección 735, se pueden usar cualquier número (incluyendo solamente uno) y patrón apropiados de unidades de detección 735.
La placa de circuito 740 es cualquier placa de circuito rígida o flexible apropiada. En general, la placa de circuito 740 incluye diversas almohadillas y pistas que proporcionan conexiones eléctricas entre diversas capas del conjunto de transparencia emulada 710. Como ejemplo, en realizaciones que incluyen la placa de circuito 740, la placa de circuito 740 se puede situar entre la capa de sensor de imagen 730 y la capa de unidad lógica 750 como se ilustra en las FIGURAS 7-8 con el fin de proporcionar conexiones eléctricas entre la capa de sensor de imagen 730 y la capa de unidad lógica 750. En otras realizaciones, la placa de circuito 740 se puede situar entre la capa de unidad lógica 750 y la capa de visualización electrónica 760 con el fin de proporcionar conexiones eléctricas entre la capa de unidad lógica 750 y la capa de visualización electrónica 760. En algunas realizaciones, la placa de circuito 740 incluye una matriz de ubicaciones de fijación de unidad 745 (por ejemplo, las ubicaciones de fijación de unidad 745A-C como se ilustra en la FIGURA 8). Cada ubicación de fijación de unidad 745 puede ser una parte definida de la placa de circuito 740 (por ejemplo, un área específica tal como una parte de una rejilla rectangular) y puede incluir una pluralidad de almohadillas (por ejemplo, almohadilla de matriz de rejilla de bolas (BGA)) y/o vías. En algunas realizaciones, cada ubicación de fijación de unidad 745 corresponde a una unidad de detección 735 específica de la capa de sensor de imagen 730 y una unidad de visualización 765 específica de la capa de visualización electrónica 760 (por ejemplo, la ubicación de fijación de unidad 745A corresponde a la unidad de detección 735A y la unidad de visualización 765A) y está configurada para permitir la comunicación eléctrica entre la unidad de detección 735 específica y la unidad de visualización 765 específica correspondientes.
La capa de unidad lógica 750 proporciona lógica y/o procesamiento opcional/adicional para el conjunto de transparencia emulada 710. En general, la capa de unidad lógica 750 emula la transparencia dirigiendo señales desde la pluralidad de píxeles de sensor de la capa de sensor de imagen 730 a la pluralidad de píxeles de visualización de la capa de visualización electrónica 760, emitiendo por ello un campo de luz saliente 702 replicado electrónicamente desde la matriz de microlentes del lado del visualizador 720B en ángulos que corresponden a los ángulos del campo de luz entrante 701 detectado a través de la matriz de microlentes del lado del sensor 720A. Emitiendo un campo de luz saliente 702 replicado electrónicamente desde la matriz de microlentes del lado del visualizador 720B en ángulos que corresponden a los ángulos del campo de luz entrante 701 detectado a través de la matriz de microlentes del lado del sensor 720A, se muestra una imagen que coincide con lo que se vería si el conjunto de transparencia emulada 710 no estuviera presente (es decir, la transparencia emulada). En algunas realizaciones, la capa de unidad lógica 750 incluye una matriz de unidades lógicas 755 (por ejemplo, unidades lógicas 755A-C como se ilustra en la FIGURA 8). Cada unidad lógica 755 puede ser una parte definida de la capa de unidad lógica 750 (por ejemplo, un área específica tal como una parte de una cuadrícula rectangular). En algunas realizaciones, cada unidad lógica 755 es una unidad física rígida separada que más tarde se une o acopla a otras unidades lógicas 755 con el fin de formar la capa de unidad lógica 750. En algunas realizaciones, cada unidad lógica 755 corresponde a una unidad de detección 735 específica de la capa de sensor de imagen 730 y una unidad de visualización 765 específica de la capa de visualización electrónica 760 (por ejemplo, la unidad lógica 755A corresponde a (y está acoplada eléctricamente a) la unidad de detección 735A y unidad de visualización 765A). En algunas realizaciones, la capa de unidad lógica 750 está situada entre la placa de circuito 740 y la capa de visualización electrónica 760. En otras realizaciones, la capa de unidad lógica 750 está entre la capa de sensor de imagen 730 y placa de circuito 740. En algunas realizaciones, se pueden incluir otras capas apropiadas en el conjunto de transparencia emulada 710 a cada lado de la capa de unidad lógica 750. Además, mientras que se ilustra un número y un patrón específicos de unidades lógicas 755, se puede usar cualquier número (incluyendo ninguno o solamente uno) y patrón apropiados de unidades lógicas 755.
En general, la capa de visualización electrónica 760 incluye una pluralidad de píxeles de visualización que están configurados para generar y proyectar un campo de luz saliente 702 replicado electrónicamente a través de la matriz de microlentes del lado del visualizador 720B. En algunas realizaciones, la capa de visualización electrónica 760 incluye una matriz de unidades de visualización 765 (por ejemplo, unidades de visualización 765A-C como se ilustra en la FIGURA 8). Cada unidad de visualización 765 puede ser una parte definida de la capa de visualización electrónica 760 (por ejemplo, un área específica tal como una parte de una cuadrícula rectangular) o un número o patrón específico de píxeles de visualización dentro de la capa de visualización electrónica 760. En algunas realizaciones, cada unidad de visualización 765 corresponde a una unidad lógica 755 específica de la capa de unidad lógica 750. En algunas realizaciones, la capa de visualización electrónica 760 está acoplada o de otro modo es inmediatamente adyacente a la matriz de microlentes del lado de visualización 720B. En algunas realizaciones, la capa de visualización electrónica 760 está entre la matriz de microlentes del lado del visualizador 720B y la placa de circuito 740. En otras realizaciones, la capa de visualización electrónica 760 está entre la matriz de microlentes del lado del visualizador 720B y la capa de unidad lógica 750. En algunas realizaciones, se pueden incluir otras capas apropiadas en el conjunto de transparencia emulada 710 a cada lado de la capa de visualización electrónica 760. Además, aunque se ilustran un número y patrón específicos de unidades de visualización 765, se puede usar cualquier número (incluyendo solamente uno) y patrón apropiados de unidades de visualización 765.
En algunas realizaciones, los píxeles de sensor de la capa de sensor de imagen 730 pueden ser píxeles de sensor 1800 como se describe en las FIGURAS 18-20 y sus descripciones asociadas en la Solicitud de Patente de EE.UU. N° 15/724.027 titulada “Stacked Transparent Pixel Structures for Image Sensors”, que se incorpora en la presente memoria por referencia en su totalidad. En algunas realizaciones, los píxeles de visualización de la capa de visualización electrónica 760 son píxeles de visualización 100 como se describe en las FIGURAS 1-4 y sus descripciones asociadas en la Solicitud de Patente de EE.UU N° 15/724.004 titulada “Stacked Transparent Pixel Structures for Electronic Displays”, que se incorpora en la presente memoria por referencia en su totalidad.
Mientras que las FIGURAS 7-8 representan el conjunto de transparencia emulada 710 como que tiene matrices de sensores, visualizadores y componentes electrónicos, otras realizaciones pueden tener configuraciones de una única unidad. Además, aunque las realizaciones ilustradas del conjunto de transparencia emulada 710 representan la transparencia emulada unidireccional (es decir, que permite la captura del campo de luz entrante 701 desde una única dirección y que muestra un campo de luz saliente 702 replicado electrónicamente correspondiente en la dirección opuesta), otras realizaciones pueden incluir disposiciones y combinaciones del conjunto de transparencia emulada 710 que permiten la transparencia bidireccional.
La FIGURA 9 ilustra un método 900 de fabricación del conjunto de transparencia emulada 710 de la FIGURA 7, según ciertas realizaciones. El método 900 puede comenzar en el paso 910 donde se forman una pluralidad de ubicaciones de fijación de unidad en una placa de circuito. En algunas realizaciones, la placa de circuito es la placa de circuito 740 y las ubicaciones de fijación de unidad son las ubicaciones de fijación de unidad 145. En algunas realizaciones, cada ubicación de fijación de unidad corresponde a una de una pluralidad de unidades de visualización tales como las unidades de visualización 765 y una de una pluralidad de unidades de detección tales como las unidades de detección 735.
En el paso 920, una pluralidad de unidades de detección se acopla a un primer lado de la placa de circuito. En algunas realizaciones, las unidades de detección son las unidades de detección 735. En algunas realizaciones, cada unidad de detección se acopla en el paso 920 a una respectiva de las ubicaciones de fijación de unidad del paso 910. En algunas realizaciones, las unidades de detección primero se forman en una capa de sensor imagen tal como la capa de sensor de imagen 730, y la capa de sensor de imagen se acopla al primer lado de la placa de circuito en este paso.
En el paso 930, una pluralidad de unidades de visualización se acopla a un segundo lado de la placa de circuito que es opuesto al primer lado. En algunas realizaciones, las unidades de visualización son las unidades de visualización 765. En algunas realizaciones, cada unidad de visualización se acopla a una respectiva de las ubicaciones de fijación de unidad. En algunas realizaciones, las unidades de visualización se forman primero en una capa de visualización tal como la capa de visualización electrónica 760, y la capa de visualización se acopla al segundo lado de la placa de circuito en este paso.
En el paso 940, una primera pluralidad de microlentes se acopla a la pluralidad de unidades de detección del paso 920. En algunas realizaciones, las microlentes son células plenópticas 1510. En algunas realizaciones, las microlentes se forman primero en una capa de matriz de microlentes tal como la matriz de microlentes del lado del sensor 720A, y la capa de matriz de microlentes se acopla a las unidades de detección.
En el paso 950, una segunda pluralidad de microlentes se acopla a la pluralidad de unidades de visualización del paso 930. En algunas realizaciones, las microlentes son células plenópticas 1510. En algunas realizaciones, las microlentes se forman primero en una capa de matriz de microlentes tal como la matriz de microlentes del lado del visualizador 720B, y la capa de matriz de microlentes se acopla a las unidades de visualización. Después del paso 950, el método 900 puede finalizar.
En algunas realizaciones, el método 900 puede incluir además acoplar una pluralidad de unidades lógicas entre la placa de circuito del paso 910 y la pluralidad de unidades de visualización del paso 930. En algunas realizaciones, las unidades lógicas son unidades lógicas 755. En algunas realizaciones, la pluralidad de unidades lógicas se acopla entre la placa de circuito y la pluralidad de unidades de detección del paso 920.
Realizaciones particulares pueden repetir uno o más pasos del método 900, cuando sea apropiado. Aunque esta descripción describe e ilustra pasos particulares del método 900 como que ocurren en un orden particular, esta descripción contempla que cualquier paso adecuado del método 900 ocurra en cualquier orden adecuado (por ejemplo, cualquier orden temporal). Además, aunque esta descripción describe e ilustra un método de fabricación de conjunto de transparencia emulada de ejemplo que incluye los pasos particulares del método 900, esta descripción contempla cualquier método de fabricación de conjunto de transparencia emulada adecuado que incluye cualquier paso adecuado, que puede incluir todos, algunos o ninguno de los pasos del método 900, cuando sea apropiado. Además, aunque esta descripción describe e ilustra componentes, dispositivos o sistemas particulares que llevan a cabo pasos particulares del método 900, esta descripción contempla cualquier combinación adecuada de cualquier componente, dispositivo o sistema adecuado que lleve a cabo cualquier paso adecuado del método 900.
La FIGURA 10 ilustra un sistema directo de sensor a visualizador 1000 que se puede implementar por el conjunto de transparencia emulada de la FIGURA 7, según ciertas realizaciones. En general, la FIGURA 10 ilustra cómo las realizaciones del conjunto de transparencia emulada 710 utilizan una asociación directa de píxeles de entrada a píxeles de salida de corolario. En algunas realizaciones, esto se logra usando un planteamiento en capas, de manera que la capa de sensor de imagen 730 y la capa de visualización electrónica 760 estén en estrecha proximidad entre sí, montadas en lados opuestos de un sustrato compartido (por ejemplo, la placa de circuito 740) como se ilustra en FIGURAS 7-8. Las señales de la capa de sensor de imagen 730 se pueden propagar directamente a la capa de visualización electrónica 760 a través de la placa de circuito 740 (y capa de unidad lógica 750 en algunas realizaciones). La capa de unidad lógica 750 proporciona un procesamiento simple con entrada opcional para cualquier control o aumento necesario. Los pares de sensor/visualizador electrónicos típicos (por ejemplo, una cámara digital) no expresan una relación de uno a uno en el sentido de que el visualizador no está acoplado directamente con el sensor de entrada y, de este modo, requiere cierto grado de transformación de imagen. Ciertas realizaciones de la descripción, no obstante, implementan un mapeo uno a uno entre los píxeles de entrada y salida (es decir, los diseños de píxel de sensor y de píxel de visualización son idénticos), eludiendo por ello la necesidad de cualquier transformación de imagen. Esto reduce la complejidad y los requisitos de energía del conjunto de transparencia emulada 710.
Como se ilustra en la FIGURA 10, cada unidad de detección 735 está directamente acoplada a una unidad de visualización 765 correspondiente. Por ejemplo, la unidad de detección 735A se puede acoplar directamente a la unidad de visualización 765A, la unidad de detección 735B se puede acoplar directamente a la unidad de visualización 765B, y así sucesivamente. En algunas realizaciones, la señalización entre las unidades de detección 735 y las unidades de visualización 765 puede ser cualquier señalización diferencial apropiada, tal como señalización diferencial de bajo voltaje (LVDS). Más específicamente, cada unidad de detección 735 puede emitir unas primeras señales en un formato específico (por ejemplo, LVDS) que corresponde al campo de luz entrante 701. En algunas realizaciones, las primeras señales se envían a través de una unidad lógica 755 correspondiente, que a su vez envía segundas señales a la unidad de visualización 765 en el mismo formato que las primeras señales (por ejemplo, LVDS). En otras realizaciones, las primeras señales se envían directamente a las unidades de visualización 765 desde las unidades de detección 735 (por ejemplo, las unidades de detección 735 y las unidades de visualización 765 se acoplan directamente a los lados opuestos de la placa de circuito 740). La unidad de visualización 765 recibe las segundas señales de la unidad lógica 755 (o las primeras señales directamente de la unidad de detección 735 a través de la placa de circuito 740) y las usa para generar el campo de luz saliente 702.
Debido a que no se necesita conversión en la señalización entre las unidades de detección 735 y las unidades de visualización 765, el conjunto de transparencia emulada 710 puede proporcionar muchos beneficios de las combinaciones de visualizador/sensor típicas. Primero, no se necesitan procesadores de señal para convertir las señales de las unidades de detección 735 a las unidades de visualización 765. Por ejemplo, no se necesitan procesadores de señal fuera de placa para realizar la transformación de imagen entre las unidades de detección 735 y las unidades de visualización 765. Esto reduce los requisitos de espacio, complejidad, peso y coste para el conjunto de transparencia emulada 710. En segundo lugar, el conjunto de transparencia emulada 710 puede proporcionar resoluciones mayores que las que típicamente serían posibles para combinaciones de visualizador/sensor. Acoplando directamente las unidades de detección 735 con las unidades de visualización 765 y no requiriendo ningún procesamiento o transformación de datos entre las unidades, la resolución de las unidades de detección 735 y las unidades de visualización 765 puede ser mucho mayor de lo que sería posible típicamente. Además, el conjunto de transparencia emulada 710 puede proporcionar resoluciones heterogéneas a través de las unidades de detección 735 y las unidades de visualización 765 en cualquier momento particular. Es decir, una unidad de detección 735 particular y la unidad de visualización 765 correspondiente pueden tener una resolución particular que es diferente de otras unidades de detección 735 y unidades de visualización 765 en un momento particular, y las resoluciones de cada unidad de detección 735 y unidad de visualización 765 se pueden cambiar en cualquier momento.
En algunas realizaciones, cada píxel de sensor particular de una unidad de detección 735 se mapea a un único píxel de visualización de una unidad de visualización 765 correspondiente, y el píxel de visualización muestra la luz correspondiente a la luz captada por su píxel de sensor mapeado. Esto se ilustra mejor en las FIGURAS 17A-17B. Como ejemplo, cada píxel de sensor 1725 central de una célula plenóptica 1510 particular de la matriz de microlentes del lado del sensor 720A (por ejemplo, la célula plenóptica inferior 1510 de la matriz de microlentes del lado del sensor 720A en la FIGURA 17A) se mapea a un píxel de visualización 1735 central de una célula plenóptica 1510 correspondiente de la matriz de microlentes del lado del visualizador 720B (por ejemplo, la célula plenóptica inferior 1510 de la matriz de microlentes del lado del visualizador 720B en la FIGURA 17A). Como otro ejemplo, cada píxel de sensor 1725 superior de una célula plenóptica 1510 particular de la matriz de microlentes del lado del sensor 720A (por ejemplo, la célula plenóptica 1510 superior de la matriz de microlentes del lado del sensor 720A en la FIGURA 17B) se mapea a un píxel de visualización 1735 inferior de una célula plenóptica 1510 correspondiente de la matriz de microlentes del lado del visualizador 720B (por ejemplo, la célula plenóptica 1510 superior de la matriz de microlentes del lado del visualizador 720B en la FIGURA 17B).
En algunas realizaciones, las unidades de detección 735 se acoplan directamente a la placa de circuito 740 mientras que las unidades de visualización 765 se acoplan a las unidades lógicas 755 (que a su vez se acoplan a la placa de circuito 740) como se ilustra en la FIGURA 8. En otras realizaciones, las unidades de visualización 765 se acoplan directamente a la placa de circuito 740 mientras que las unidades de detección 735 se acoplan a las unidades lógicas 755 (que a su vez se acoplan a la placa de circuito 740). En otras realizaciones, tanto las unidades de detección 735 como las unidades de visualización 765 se acoplan directamente a la placa de circuito 740 (es decir, sin ninguna unidad lógica 755 intermedia). En tales realizaciones, las unidades de detección 735 y las unidades de visualización 765 se acoplan a lados opuestos de la placa de circuito 740 en las ubicaciones de fijación de unidad 745 (por ejemplo, la unidad de detección 735A y la unidad de visualización 765A se acoplan a lados opuestos de la placa de circuito 740 en la ubicación de fijación de unidad 745A).
La FIGURA 11 ilustra un método 1100 de fabricación del sistema directo de sensor a visualizador 1000 de la FIGURA 10, según ciertas realizaciones. El método 1100 puede comenzar en el paso 1110 donde una pluralidad de ubicaciones de fijación de unidad se forma en una placa de circuito. En algunas realizaciones, la placa de circuito es la placa de circuito 740 y las ubicaciones de fijación de unidad son las ubicaciones de fijación de unidad 745. En algunas realizaciones, cada ubicación de fijación de unidad corresponde a una de una pluralidad de unidades de visualización y una de una pluralidad de unidades de detección. Las unidades de visualización pueden ser las unidades de visualización 765 y las unidades de detección pueden ser las unidades de detección 735. En algunas realizaciones, cada ubicación de fijación de unidad particular incluye almohadillas de BGA que están configuradas para acoplarse a una de la pluralidad de unidades de detección y/o una de la pluralidad de unidades lógicas. En algunas realizaciones, cada ubicación de fijación de unidad particular incluye una pluralidad de almohadillas de interconexión configuradas para acoplar eléctricamente la ubicación de fijación de unidad particular a una o más ubicaciones de fijación de unidad adyacentes. En algunas realizaciones, las ubicaciones de fijación de unidad se disponen en una pluralidad de columnas y una pluralidad de filas como se ilustra en la FIGURA 8.
En el paso 1120, una pluralidad de unidades de detección se acopla a un primer lado de la placa de circuito. En algunas realizaciones, cada unidad de detección se acopla a una respectiva de las ubicaciones de fijación de unidad del paso 1110. En el paso 1130, una pluralidad de unidades de visualización se acopla a un segundo lado de la placa de circuito que es opuesto al primer lado. En algunas realizaciones, cada unidad de visualización se acopla a una respectiva de las ubicaciones de fijación de unidad del paso 1110 de manera que cada una particular de la pluralidad de unidades de píxeles de sensor se mapea a una correspondiente de la pluralidad de unidades de píxeles de visualización. Mapeando cada unidad de píxeles de sensor particular a una de las unidades de píxeles de visualización, los píxeles de visualización de cada una particular de la pluralidad de unidades de píxeles de visualización se configuran para mostrar la luz correspondiente a la luz captada por los píxeles de sensor de su unidad de píxeles de sensor mapeada. Después del paso 1130, el método 1100 puede finalizar.
Realizaciones particulares pueden repetir uno o más pasos del método 1100, cuando sea apropiado. Aunque esta descripción describe e ilustra pasos particulares del método 1100 que ocurren en un orden particular, esta descripción contempla que cualquier paso adecuado del método 1100 ocurra en cualquier orden adecuado (por ejemplo, cualquier orden temporal). Además, aunque esta descripción describe e ilustra un método de fabricación del sistema directo de sensor a visualizador de ejemplo que incluye los pasos particulares del método 1100, esta descripción contempla cualquier método de fabricación del sistema directo de sensor a visualizador adecuado que incluye cualquier paso adecuado, que puede incluir todos, algunos o ninguno de los pasos de método 1100, cuando sea apropiado. Además, aunque esta descripción describe e ilustra componentes, dispositivos o sistemas particulares que llevan a cabo pasos particulares del método 1100, esta descripción contempla cualquier combinación adecuada de cualquier componente, dispositivo o sistema adecuado que lleve a cabo cualquier paso adecuado del método 1100.
Las FIGURAS 12-13 ilustran diversas configuraciones de procesamiento de señales en capas que se pueden usar por el conjunto de transparencia emulada 710 de la FIGURA 7, según ciertas realizaciones. En general, las configuraciones de las FIGURAS 12-13 utilizan una capa de lógica digital (por ejemplo, la capa de unidad lógica 750) que se intercala entre la cámara y el visualizador (es decir, entre la capa de sensor de imagen 730 y la capa de visualización electrónica 760). Estas configuraciones permiten el procesamiento local distribuido de grandes cantidades de datos (por ejemplo, 160k de datos de imagen o más), eludiendo por ello los cuellos de botella así como los problemas de rendimiento, potencia y línea de transmisión asociados con las configuraciones típicas. La agudeza visual humana representa una tremenda cantidad de datos que se deben procesar en tiempo real. Los sistemas de formación de imágenes típicos propagan un único flujo de datos hacia/desde un procesador de alta potencia (por ejemplo, una CPU o GPU), que puede o no serializar los datos para su manipulación. El ancho de banda requerido para este planteamiento con una agudeza visual humana de 20/20 supera con creces el de cualquier protocolo de transmisión conocido. Los sistemas típicos también usan un controlador maestro que es responsable o bien de procesar todos los datos entrantes/salientes o bien de gestionar la distribución a nodos de procesamiento más pequeños. Independientemente, todos los datos se deben transportar fuera del sistema/fuera del chip, manipular y luego devolver al dispositivo o dispositivos de visualización. No obstante, este planteamiento típico es incapaz de manejar la enorme cantidad de datos requeridos por la agudeza visual humana. Las realizaciones de la descripción, no obstante, aprovechan la naturaleza facetada de una combinación de sensor/visualizador como se describe en la presente memoria para descentralizar y localizar el procesamiento de señales. Esto permite el procesamiento de imágenes digitales en tiempo real anteriormente inalcanzable.
Como se ilustra en las FIGURAS 12-13, ciertas realizaciones del conjunto de transparencia emulada 710 incluyen la capa de unidad lógica 750 que contiene la lógica necesaria para manipular las señales de entrada desde la capa de sensor de imagen 730 y proporcionar señales de salida a la capa de visualización electrónica 760. En algunas realizaciones, la capa de unidad lógica 750 está situada entre la capa de sensor de imagen 730 y la placa de circuito 740, como se ilustra en la FIGURA 12. En otras realizaciones, la capa de unidad lógica 750 está situada entre la placa de circuito 740 y la capa de visualización electrónica 760 como se ilustra en la FIGURA 13. En general, la capa de unidad lógica 750 es una capa de procesamiento de imágenes especializada que es capaz de mezclar una señal de entrada directamente desde la capa de sensor de imagen 730 y realizar una o más operaciones matemáticas (por ejemplo, transformadas de matriz) en la señal de entrada antes de emitir una señal resultante directamente a la capa de visualización electrónica 760. Dado que cada unidad lógica 755 de la capa de unidad lógica 750 es responsable solamente de su faceta asociada (es decir, la unidad de detección 735 o la unidad de visualización 765), los datos de la unidad lógica 755 particular se pueden manipular sin un impacto apreciable en la I/O de nivel del sistema. Esto elude de manera eficaz la necesidad de paralelizar cualquier dato de sensor entrante para un procesamiento centralizado. El planteamiento distribuido permite que el conjunto de transparencia emulada 710 proporcione múltiples características, tales como ampliación/zoom (cada faceta aplica una transformación de escala a su entrada), corrección de visión (cada faceta aplica una transformación óptica simulada que compensa los problemas de visión comunes tales como miopía, hipermetropía, astigmatismo, etc.), corrección de daltonismo (cada faceta aplica una transformación de color que compensa problemas de daltonismo común), polarización (cada faceta aplica una transformación que simula la polarización de ondas que permite la reducción del deslumbramiento) y reducción del rango dinámico (cada faceta aplica una transformación que oscurece regiones de alta intensidad (por ejemplo, el sol) y aclara las regiones de baja intensidad (por ejemplo, sombras)). Además, dado que cualquier transformación de datos permanece localizada en la capa de unidad lógica 750 de cada faceta, puede que no haya necesidad de líneas de transmisión largas. Esto elude problemas de diafonía, integridad de señal, etc. Además, dado que las realizaciones descritas no requieren transparencia óptica (sino que, en su lugar, aprovechan la transparencia emulada), no hay impacto funcional al colocar una capa de procesamiento opaca entre las facetas de sensor y de visualización.
En algunas realizaciones, la capa de unidad lógica 750 contiene unidades lógicas discretas (por ejemplo, transistores) que se forman directamente en la placa de circuito 740. Por ejemplo, se pueden usar técnicas de fotolitografía estándar para formar la capa de unidad lógica 750 directamente en la placa de circuito 740. En otras realizaciones, cada unidad lógica 755 es un circuito integrado (IC) separado que está acoplado o bien a una faceta de sensor o bien a una faceta de visualización, o directamente a la placa de circuito 740. Como se usa en la presente memoria, “faceta” se refiere a una unidad discreta que se fabrica por separado y luego se acopla a la placa de circuito 740. Por ejemplo, una “faceta de visualización” puede referirse a una unidad que incluye una combinación de una capa de visualización electrónica 760 y una matriz de microlentes del lado de visualización 720B, y una “faceta de sensor” puede referirse a una unidad que incluye una combinación de una capa de sensor de imagen 730 y una matriz de microlentes del lado del sensor 720A. En algunas realizaciones, una faceta de visualización puede incluir una única unidad de visualización 765, o puede incluir múltiples unidades de visualización 765. De manera similar, una faceta de sensor puede incluir una única unidad de detección 735, o puede incluir múltiples unidades de detección 735. En algunas realizaciones, se puede incluir una unidad lógica 755 o bien en una faceta de sensor o bien en una faceta de visualización. En realizaciones donde una unidad lógica 755 es un IC separado que se acopla directamente a una faceta o bien de visualizador o bien de sensor (al contrario de que se forme directamente en la placa de circuito 740), se puede usar cualquier técnica apropiada, tal como el diseño de IC 3D con vías de silicio pasantes, para acoplar el IC de la unidad lógica 755 a una oblea de la faceta.
En algunas realizaciones, la capa de unidad lógica 750 es un circuito integrado de aplicaciones específicas (ASIC) o una unidad aritmético lógica (ALU), pero no un procesador de propósito general. Esto permite que la capa de unidad lógica 750 sea eficiente en potencia. Además, esto permite que la capa de unidad lógica 750 opere sin refrigeración, reduciendo aún más el coste y los requisitos de energía del conjunto de transparencia emulada 710.
En algunas realizaciones, las unidades lógicas 755 están configuradas para comunicarse usando el mismo protocolo que las unidades de detección 735 y las unidades de visualización 765. Por ejemplo, en realizaciones donde las unidades lógicas 755 son IC discretos, los IC se pueden configurar para comunicarse en un mismo protocolo que las facetas de sensor y de visualización (por ejemplo, LVDS o Circuito Interintegrado (I2C)). Esto elimina el problema de tener que traducir entre la faceta de sensor y de visualizador, reduciendo por ello la energía y el coste.
En algunas realizaciones, la capa de unidad lógica 750 realiza una o más operaciones sobre las señales recibidas desde la capa de sensor de imagen 730 antes de transmitir las señales de salida a la capa de visualización electrónica 760. Por ejemplo, la capa de unidad lógica 750 puede transformar las señales recibidas desde la capa de sensor de imagen 730 para incluir información aumentada para visualización en la capa de visualización electrónica 760. Esto se puede usar, por ejemplo, para proporcionar AR a un observador. En algunas realizaciones, la capa de unidad lógica 750 puede sustituir completamente las señales recibidas de la capa de sensor de imagen 730 con información alternativa para visualización en la capa de visualización electrónica 760. Esto se puede usar, por ejemplo, para proporcionar VR a un observador.
La FIGURA 14 ilustra un método 1400 de fabricación de los sistemas de procesamiento de señales en capas de las FIGURAS 12-13, según ciertas realizaciones. El método 1400 puede comenzar en el paso 1410 donde una pluralidad de unidades de detección se acopla a un primer lado de una placa de circuito. En algunas realizaciones, las unidades de detección son las unidades de detección 735, y la placa de circuito es la placa de circuito 740. En algunas realizaciones, cada unidad de detección se acopla a una de una pluralidad de ubicaciones de fijación de unidad tales como las ubicaciones de fijación de unidad 745. Cada unidad de detección incluye una pluralidad de píxeles de sensor.
En el paso 1420, se forma una pluralidad de unidades de visualización. En algunas realizaciones, las unidades de visualización son una combinación de unidades de visualización 765 y unidades lógicas 755. Cada unidad de visualización se puede formar combinando un visualizador electrónico y una unidad lógica en un único circuito integrado 3D utilizando vías de silicio pasantes. Cada unidad de visualización incluye una pluralidad de píxeles de visualización.
En el paso 1430, la pluralidad de unidades de visualización del paso 1420 se acopla a un segundo lado de la placa de circuito que es opuesto al primer lado. En algunas realizaciones, cada unidad lógica se acopla a una respectiva de las ubicaciones de fijación de unidad. Después del paso 1430, el método 1400 puede finalizar.
Realizaciones particulares pueden repetir uno o más pasos del método 1400, cuando sea apropiado. Aunque esta descripción describe e ilustra pasos particulares del método 1400 como que ocurren en un orden particular, esta descripción contempla que cualquier paso adecuado del método 1400 ocurra en cualquier orden adecuado (por ejemplo, cualquier orden temporal). Además, aunque esta descripción describe e ilustra un método de fabricación de sistema de procesamiento de señales en capas de ejemplo que incluye los pasos particulares del método 1400, esta descripción contempla cualquier método de fabricación de sistema de procesamiento de señales en capas adecuado que incluya cualquier paso adecuado, que puede incluir todos, algunos, o ninguno de los pasos del método 1400, cuando sea apropiado. Además, aunque esta descripción describe e ilustra componentes, dispositivos o sistemas particulares que llevan a cabo pasos particulares del método 1400, esta descripción contempla cualquier combinación adecuada de cualquier componente, dispositivo o sistema adecuado que lleve a cabo cualquier paso adecuado del método 1400.
Las FIGURAS 15-17C ilustran diversas vistas de una matriz 1500 de células plenópticas 1510 que se pueden usar dentro de las matrices de microlentes 720A-B del conjunto de transparencia emulada 710. La FIGURA 15 ilustra un conjunto de células plenópticas 1500, la FIGURA 16 ilustra una sección transversal de una parte del conjunto de células plenópticas 1500 de la FIGURA 15, y las FIGURAS 17A-17C ilustran secciones transversales de una parte del conjunto de células plenópticas 1500 de la FIGURA 15 con diversos campos de luz entrantes y salientes.
Los visualizadores electrónicos estándar típicamente incluyen disposiciones planas de píxeles que forman una imagen rasterizada bidimensional, que traslada datos inherentemente bidimensionales. Una limitación es que la imagen plana no se puede girar con el fin de percibir una perspectiva diferente dentro de la escena que se traslada. Con el fin de ver claramente esta imagen, independientemente de lo que se represente dentro de la imagen en sí misma, o bien los ojos del observador o bien la lente de una cámara deben enfocar sobre la pantalla. Por el contrario, un volumen de luz que entra en los ojos desde el mundo real permite que los ojos se enfoquen naturalmente sobre cualquier punto dentro de ese volumen de luz. Este “campo” plenóptico de luz contiene rayos de luz de la escena en la medida que entran naturalmente en el ojo, a diferencia de una imagen virtual enfocada por una lente externa en un único plano focal. Si bien los visualizadores de campo de luz existentes pueden ser capaces de replicar este fenómeno, presentan compromisos sustanciales entre las resoluciones espacial y angular, dando como resultado que el volumen de luz percibido parezca borroso o escaso en detalle.
Para superar los problemas y limitaciones con los visualizadores de campo de luz existentes, las realizaciones de la descripción proporcionan un sistema de captura y visualización de campo de luz acoplado que es capaz de registrar y luego recrear electrónicamente el volumen plenóptico de luz entrante. El proceso tanto de captura como de visualización se logran mediante una disposición de células plenópticas 1510 responsables de registrar o mostrar vistas más pequeñas de una imagen compuesta más grande. Cada célula plenóptica 1510 del sensor está compuesta en sí misma por un grupo denso de píxeles de sensor de imagen, y cada célula plenóptica del visualizador está compuesta en sí misma por un grupo denso de píxeles de visualización. En ambos casos, los rayos de luz que entran en las células del sensor o salen de las células de visualización se enfocan por una o más lentillas transparentes 1512 para producir una distribución sintonizada con precisión de rayos casi colimados. Esencialmente, esto registra un campo de luz entrante y lo reproduce en el lado opuesto del conjunto. Más específicamente, para el sensor, el volumen de luz que entra en la lente (o serie de lentes) de esta célula se enfoca sobre los píxeles de imagen de manera que cada píxel recoja luz solamente de una dirección, según se determina por su posición dentro de la célula y el perfil de la lente. Esto permite la codificación rasterizada de los diversos rayos angulares dentro del campo de luz, con el número de píxeles en la célula que determina la resolución angular registrada. Para el visualizador, la luz emitida desde los píxeles se enfoca por una lente idéntica (o una serie de lentes) para crear un volumen de luz que coincida con lo que se registró por el sensor, además de cualquier aumento o alteración electrónica (por ejemplo, de la capa de unidad lógica 750 descrita anteriormente). El cono de luz emitida desde esta célula contiene un subconjunto de rayos en suficientes ángulos de intervalo para permitir la formación de un campo de luz para el observador, donde cada dirección de rayo de salida se determina por la posición de su píxel de origen dentro de la célula y el perfil de la lente.
Las células plenópticas 1510 se pueden utilizar tanto por la matriz de microlentes del lado del sensor 720A como por la matriz de microlentes del lado del visualizador 720B. Por ejemplo, se pueden incluir múltiples células plenópticas 1510A en la matriz de microlentes del lado del sensor 720A, y cada célula plenóptica 1510A se puede acoplar o de otro modo puede ser adyacente a un sensor de imagen 1520. El sensor de imagen 1520 puede ser una parte de la capa de sensor de imagen 730 y puede incluir una matriz de píxeles de sensor 1525 que incluye píxeles de detección 1725. De manera similar, se pueden incluir múltiples células plenópticas 1510B en la matriz de microlentes del lado del visualizador 720B, y cada célula plenóptica 1510B se puede acoplar o de otro modo puede ser adyacente a un visualizador 1530. El visualizador 1530 puede ser una parte de la capa de visualización electrónica 760 y puede incluir una matriz de píxeles de visualización 1625 que incluye los píxeles de visualización 1735. Los píxeles de detección 1725 pueden ser píxeles de sensor 1800 como se describe en las FIGURAS 18-20 y sus descripciones asociadas en la Solicitud de Patente de EE.UU. N° 15/724.027 titulada “Stacked Transparent Pixel Structures for Image Sensors”, que se incorpora en la presente memoria por referencia en su totalidad. Los píxeles de visualización 1735 pueden ser píxeles de visualización 100 como se describe en las FIGURAS 1-4 y sus descripciones asociadas en la Solicitud de Patente de EE.UU. N° 15/724.004 titulada “Stacked Transparent Pixel Structures for Electronic Displays”, que se incorpora en la presente memoria por referencia en su totalidad.
En algunas realizaciones, la célula plenóptica 1510 incluye una lentilla transparente 1512 y las paredes de célula 1514. Específicamente, la célula plenóptica 1510A incluye la lentilla transparente 1512A y las paredes de célula 1514A, y la célula plenóptica 1510B incluye la lentilla transparente 1512B y las paredes de célula 1514B. En algunas realizaciones, la lentilla transparente 1512 contiene una forma 3D con una lente colimadora en un extremo de la forma 3D. Por ejemplo, como se ilustra en la FIGURA 15, la lentilla transparente 1512 puede ser un paralelepípedo rectangular con una lente colimadora en un extremo del paralelepípedo rectangular. En otras realizaciones, la forma 3D de la lentilla transparente 1512 puede ser un poliedro triangular, un poliedro pentagonal, un poliedro hexagonal, un poliedro heptagonal, un poliedro octogonal, un cilindro o cualquier otra forma apropiada. Cada célula plenóptica 1510A incluye un campo de visión de entrada (FOV) 1610 (por ejemplo, 30 grados), y cada célula plenóptica 1510B incluye un FOV de salida 1620 (por ejemplo, 30 grados). En algunas realizaciones, el FOV de entrada 1610 coincide con el FOV de salida 1620 para las células plenópticas 1510 correspondientes.
La lentilla transparente 1512 se puede formar a partir de cualquier material óptico transparente apropiado. Por ejemplo, la lentilla transparente 1512 se puede formar a partir de un polímero, vidrio de sílice o zafiro. En algunas realizaciones, la lentilla transparente 1512 se puede formar a partir de un polímero tal como policarbonato o acrílico. En algunas realizaciones, las lentillas transparentes 1512 se pueden sustituir con guías de ondas y/o cristales fotónicos con el fin de captar y/o producir un campo de luz.
En general, las paredes de célula 1514 son barreras para evitar la diafonía óptica entre células plenópticas 1510 adyacentes. Las paredes de célula 1514 se pueden formar a partir de cualquier material apropiado que sea opaco a la luz visible cuando se endurece. En algunas realizaciones, las paredes de célula 1514 se forman a partir de un polímero. La prevención de la diafonía óptica usando paredes de célula 1514 se describe con más detalle a continuación con referencia a las FIGURAS 17A y 17C.
En algunas realizaciones, el sensor de imagen 1520 incluye o se acopla a la circuitería de panel posterior 1630A, y el visualizador 1530 incluye o se acopla a la circuitería de panel posterior 1630B. En general, la circuitería de panel posterior 1630A-B proporciona conexiones eléctricas para permitir que los datos de imagen fluyan desde el sensor de imagen 1520 hasta el visualizador 1530. En algunas realizaciones, la circuitería de panel posterior 1630A y la circuitería de panel posterior 1630B son los lados opuestos de un único panel posterior. En algunas realizaciones, la circuitería de panel posterior 1630A y la circuitería de panel posterior 1630B son la placa de circuito 740.
En algunas realizaciones, se puede incluir una capa de filtro 1640 en uno o ambos extremos de la lentilla transparente 1512 con el fin de restringir la entrada o salida de luz a un ángulo de incidencia específico. Por ejemplo, una primera capa de filtro 1640A se puede incluir en el extremo convexo de la lentilla transparente 1512, y/o una segunda capa de filtro 1640B se puede incluir en el extremo opuesto de la lentilla transparente 1512. Similar a las paredes de célula 1514, tal recubrimiento o película también puede limitar la penetración de la imagen entre las lentillas transparentes 1512 adyacentes hasta una cantidad aceptable. La capa de filtro 1640 se puede usar además o en lugar de las paredes de célula 1514.
Las FIGURAS 17A-17C ilustran, cada una, una vista en sección transversal de siete células plenópticas 1510 adyacentes para una matriz de microlentes del lado del sensor 720A y una matriz de microlentes del lado del visualizador 720B correspondiente. Estas figuras muestran cómo los campos de luz entrantes 701 se captan por los sensores de imagen 1520 y replican electrónicamente en el visualizador 1530 para emitir un campo de luz virtualmente idéntico. En la FIGURA 17A, un campo de luz entrante 1710 de objetos directamente enfrente de las células plenópticas de sensor 1510 se enfoca por las lentillas transparentes 1512 de las células plenópticas de sensor 1510 sobre los píxeles de detección 1725 centrales. La luz correspondiente se transmite luego por los píxeles de visualización 1735 centrales correspondientes de las células plenópticas de visualizador 1510 correspondientes. La luz transmitida se enfoca y emite como el campo de luz emitido 1711 por las lentillas transparentes 1512 de las células plenópticas de visualizador 1510. El campo de luz emitido 1711 coincide con precisión con el campo de luz de origen de cero grados (es decir, el campo de luz entrante 1710). Además, los rayos de luz emitidos que golpean las paredes de célula 1514 en la ubicación 1740 que, de otro modo, penetrarían en las células plenópticas 1510 de visualización adyacentes, se bloquean por las paredes de célula 1514 opacas, evitando por ello la diafonía óptica.
En la FIGURA 17B, un campo de luz entrante 1720 de objetos catorce grados fuera del eje de las células plenópticas de sensor 1510 se enfoca por las lentillas transparentes 1512 de las células plenópticas de sensor 1510 sobre píxeles de detección 1725 superiores. La luz correspondiente se transmite luego por los píxeles de visualización 1735 opuestos (es decir, inferiores) correspondientes de las células plenópticas 1510 de visualización correspondientes. La luz transmitida se enfoca y se emite como el campo de luz emitido 1721 por las lentillas transparentes 1512 de las células plenópticas 1510 de visualización. El campo de luz emitido 1721 coincide con precisión con el campo de luz de origen a 14 grados (es decir, el campo de luz entrante 1720).
En la FIGURA 17C, un campo de luz entrante 1730 de objetos 25 grados fuera del eje de las células plenópticas de sensor 1510 se enfoca por las lentillas transparentes 1512 de las células plenópticas de sensor 1510 totalmente sobre las paredes de célula 1514. Debido a que el campo de luz entrante 1730 se enfoca totalmente sobre paredes de célula 1514 de las células plenópticas de sensor 1510 en lugar de los píxeles de sensor 1725, no se transmite la luz correspondiente por las células plenópticas 1510 de visualizador correspondientes. Además, los rayos de luz entrantes que golpean las paredes de célula 1514 en la ubicación 1750 que, de otro modo, penetrarían en las células plenópticas 1510 de sensor adyacente se bloquean por las paredes de célula 1514 opacas, evitando por ello la diafonía óptica.
Las FIGURAS 18A-18B ilustran un método de fabricación del conjunto de células plenópticas de la FIGURA 15, según ciertas realizaciones. En la FIGURA 18A, se forma u obtiene una lámina de matriz de microlentes (MLA) 1810. La lámina de MLA 1810 incluye una pluralidad de lentillas, como se ilustra. En la FIGURA 18B, se corta una pluralidad de surcos 1820 alrededor de cada una de la pluralidad de lentillas de la lámina de MLA 1810 hasta una profundidad predeterminada. En algunas realizaciones, los surcos 1820 se pueden cortar usando múltiples pasadas para lograr la profundidad deseada. En algunas realizaciones, los surcos 1820 se pueden cortar usando procesos de ablación láser, grabado, litografía o cualquier otro método apropiado. Después de que se cortan los surcos 1820 a la profundidad deseada, se rellenan con un material configurado para evitar que la luz penetre a través de los surcos 1820. En algunas realizaciones, el material es cualquier material absorbente de luz (por ejemplo, nanotubos de carbono) u opaco (por ejemplo, un material opaco no reflectante o un polímero tintado) cuando se endurece. El conjunto de células plenópticas resultante después de que los surcos 1820 se llenen y se permitan que se endurezcan se ilustra en las FIGURAS 20-21.
Las FIGURAS 19A-19B ilustran otro método de fabricación del conjunto de células plenópticas de la FIGURA 15, según ciertas realizaciones. En la FIGURA 19A, se obtiene o se forma una retícula preformada 1830 que tiene vacíos 1840. La retícula 1830 está hecha de cualquier material adecuado como se describió anteriormente para las paredes de célula 1514. La retícula 1830 se puede formar a partir de cualquier método adecuado incluyendo, pero no limitado a, fabricación de aditivos y ablación de materia de célula.
En la FIGURA 19B, los vacíos 1840 se llenan con un polímero óptico 1850. El polímero óptico 1850 puede ser cualquier material adecuado como se describió anteriormente para la lentilla transparente 1512. Después de que los vacíos 1840 se llenan con el polímero óptico 1850, el perfil de la lente final se crea usando moldeo o ablación. Un ejemplo del conjunto de células plenópticas resultante después de que se formen las lentes se ilustra en las FIGURAS 20-21.
La FIGURA 22-23 ilustra una placa de circuito flexible 2210 que se puede usar como placa de circuito 740 por el conjunto de transparencia emulada 710 de la FIGURA 7, según ciertas realizaciones. En general, envolver la electrónica alrededor de una forma 3D, tal como una superficie esférica o semiesférica, no es una tarea trivial. Aunque actualmente están disponibles diversos ejemplos de circuitería flexible e incluso extensible, hay varios obstáculos que superar cuando se colocan tales productos electrónicos en una superficie esférica o semiesférica de radio pequeño (por ejemplo, 30 - 60 mm). Por ejemplo, la flexión de sustratos electrónicos flexibles en una dirección no indica inherentemente la adaptabilidad a la curvatura compuesta, en la medida que las fuerzas de torsión requeridas para tal curvatura pueden ser dañinas para las películas delgadas involucradas. Como otro ejemplo, las preguntas se mantienen alrededor del grado de capacidad de estiramiento y la vida útil de los productos electrónicos extensibles actualmente disponibles.
Para abordar los problemas y las limitaciones de las soluciones actuales, las realizaciones de la descripción presentan un método de fabricación de productos electrónicos 3D (por ejemplo, esféricos o semiesféricos) usando un planteamiento de facetas geodésicas que consiste en una matriz de superficies rígidas pequeñas construidas en un único circuito flexible. En algunas realizaciones, el circuito flexible se corta en una forma de red específica y luego se envuelve en una forma 3D (por ejemplo, una forma esférica o semiesférica) y se bloquea en su lugar para evitar el desgaste y rasgado de una flexión repetida.
El método es especialmente útil para acomodarse a los radios de curvatura estrechos (por ejemplo, 30-60 mm) necesarios paro visualizadores envolventes para cerca del ojo montados en la cabeza. En algunas realizaciones, el conjunto incluye una única capa de circuitería impresa flexible fundamental, con matrices de sensor y de visualización rígidas dispuestas en capas en lados opuestos del circuito flexible. Todo el conjunto, incluyendo las capas de sensor y de visualizador, se puede fabricar mediante procesos de semiconductores planos estándar (por ejemplo, recubrimientos por rotación, fotolitografía, etc.). Las capas de productos electrónicos rígidas se pueden grabar para formar unidades (es decir, “facetas”) de sensor y de visualización individuales y luego conectar a la circuitería flexible mediante almohadillas de conexión y adherir a través de adhesivos conductores y no conductores estampados. Esto permite que la circuitería flexible se pliegue ligeramente en los bordes entre las facetas rígidas. En algunas realizaciones, después de la fabricación plana, la pila electrónica funcional y completamente curada se forma con la forma 3D final deseada usando un lado de una carcasa de polímero rígido final como molde. De esta forma, las matrices de facetas de productos electrónicos rígidas no se deforman sino que simplemente caen en su lugar en su molde, con la circuitería flexible que se dobla en pliegues/huecos definidos para coincidir con el interior facetado de la carcasa. El conjunto se puede tapar finalmente y sellar utilizando un lado opuesto coincidente de la carcasa rígida.
Las realizaciones de la descripción no se limitan solamente a formas esféricas o semiesféricas, aunque ciertamente se contemplan tales formas. Las realizaciones descritas se pueden formar con cualquier curvatura compuesta o cualquier otra forma de revolución. Además, las realizaciones descritas se pueden formar en cualquier curvatura no uniforme, así como en superficies no curvas (es decir, planas).
La FIGURA 22 ilustra la placa de circuito flexible 2210 en dos estados diferentes: una placa de circuito flexible plana 2210A y una placa de circuito flexible en forma 3D 2210B. La placa de circuito flexible 2210 incluye ubicaciones de facetas 2220, que en general son ubicaciones en las que las facetas (por ejemplo, facetas de sensor 3735, facetas de visualización 2665 o facetas lógicas 2655 tratadas a continuación) se pueden instalar en la placa de circuito flexible 2210. En algunas realizaciones, la placa de circuito flexible 2210 incluye huecos 2215. Como se ilustra en la parte inferior de la FIGURA 22, cuando la placa de circuito flexible 2210 es plana, al menos algunas de las ubicaciones de facetas 2220 están separadas de una o más ubicaciones de facetas 2220 adyacentes por uno o más huecos 2215. Como se ilustra en la parte superior de la FIGURA 22, cuando la placa de circuito flexible 2210 se forma en una forma 3D, los huecos 2215 se pueden eliminar sustancialmente, formando por ello una superficie continua a través de al menos algunas de las facetas que están acopladas en ubicaciones de faceta 2220 (por ejemplo, una superficie de detección continua a través de múltiples facetas de sensor 3735 o una superficie de visualización continua a través de múltiples facetas de visualización 2665).
En general, las ubicaciones de facetas 2220 pueden tener cualquier forma. En algunas realizaciones, las ubicaciones de facetas 2220 tienen la forma de un polígono (por ejemplo, un triángulo, un cuadrado, un rectángulo, un pentágono, un hexágono, un heptágono o un octógono). En algunas realizaciones, las ubicaciones de facetas 2220 son todas idénticas. En otras realizaciones, no obstante, las ubicaciones de facetas 2220 comparten todas la misma forma de polígono (por ejemplo, todas son hexagonales), pero tienen diferentes dimensiones. En algunas realizaciones, las ubicaciones de facetas 2220 tienen formas heterogéneas (por ejemplo, algunas son rectangulares y algunas son hexagonales). Se puede usar cualquier forma apropiada de ubicaciones de faceta 2220.
En algunas realizaciones, las ubicaciones de facetas 2220 están dispuestas en las columnas 2201. En algunas realizaciones, las ubicaciones de facetas 2220 están dispuestas además o alternativamente en las filas 2202. Aunque se ilustra un patrón específico de ubicaciones de facetas 2220, se puede usar cualquier patrón apropiado de ubicaciones de facetas 2220.
La FIGURA 23 ilustra detalles adicionales de la placa de circuito flexible 2210, según ciertas realizaciones. En algunas realizaciones, cada ubicación de faceta 2220 incluye almohadillas y/o vías para acoplar facetas de sensor o de visualización a la placa de circuito flexible 2210. Como ejemplo, algunas realizaciones de la placa de circuito flexible 2210 incluyen almohadillas de BGA 2240 en cada ubicación de faceta 2220. Cualquier patrón y número de almohadillas/vías apropiado se pueden incluir en cada ubicación de faceta 2220.
En general, cada ubicación de faceta 2220 particular está configurada para transmitir señales entre una faceta de sensor particular acoplada a la ubicación de faceta particular y una faceta de visualización particular acoplada a un lado opuesto de la ubicación de faceta particular. Por ejemplo, una ubicación de faceta particular 2220 puede tener una faceta de sensor 3735 acoplada a un lado, y una faceta de visualización 2665 acoplada a su lado opuesto. La ubicación de faceta 2220 particular proporciona las conexiones eléctricas necesarias para permitir que las señales de la faceta de sensor 3735 discurran directamente a la faceta de visualización 2665, permitiendo por ello que la faceta de visualización 2665 muestre la luz que corresponde a la luz captada por la faceta de sensor 3735.
En algunas realizaciones, se incluyen pistas de cable 2230 en la placa de circuito flexible 2210 para conectar eléctricamente las ubicaciones de faceta 2220. Por ejemplo, las pistas de cable 2230 pueden conectarse a las almohadillas de interconexión 2250 de cada ubicación de faceta 2220 con el fin de conectar eléctricamente las ubicaciones de faceta 2220 adyacentes. En algunas realizaciones, las ubicaciones de faceta 2220 se conectan en serie a través de las pistas de cable 2230. Por ejemplo, la FIGURA 24 ilustra un flujo de datos en serie a través de una placa de circuito flexible 2210, según ciertas realizaciones. En este ejemplo, a cada ubicación de faceta 2220 se le asigna un identificador único (por ejemplo, “1”, “2”, y así sucesivamente), y los datos fluyen en serie a través de ubicaciones de facetas 2220 a través de pistas de cable 2230 como se ilustra. De esta manera, cada ubicación de faceta 2220 se puede direccionar por un único procesador o unidad lógica usando su identificador único. Se puede usar cualquier esquema de direccionamiento y patrón de flujo de datos apropiado.
La FIGURA 25 ilustra un método 2500 de fabricación de un conjunto electrónico usando la placa de circuito flexible 2210 de la FIGURA 22, según ciertas realizaciones. En el paso 2510, una pluralidad de ubicaciones de facetas se forma en una placa de circuito flexible. En algunas realizaciones, las ubicaciones de facetas son las ubicaciones de facetas 2220, y la placa de circuito flexible es la placa de circuito flexible 2210. Cada ubicación de facetas corresponde a una de una pluralidad de facetas de sensor y a una de una pluralidad de facetas de visualización. Las facetas de sensor pueden ser las facetas de sensor 3735, y las facetas de visualización pueden ser las facetas de visualización 2665. En algunas realizaciones, la pluralidad de ubicaciones de facetas se dispone en una pluralidad de columnas de facetas tales como las columnas 2201. En algunas realizaciones, la pluralidad de ubicaciones de facetas se dispone además o alternativamente en una pluralidad de filas de facetas, tales como las filas 2202.
En el paso 2520, la placa de circuito flexible del paso 2510 se corta o se le da forma de otro modo en un patrón que permite que la placa de circuito flexible se forme más adelante en una forma 3D tal como una forma esférica o semiesférica. Cuando la placa de circuito flexible es plana, al menos algunas de las ubicaciones de facetas se separan de una o más ubicaciones de facetas adyacentes por una pluralidad de huecos tales como los huecos 2215. Cuando la placa de circuito flexible se forma en forma 3D, se elimina sustancialmente la pluralidad de huecos.
En el paso 2530, el conjunto electrónico se ensambla acoplando una primera pluralidad de facetas rígidas a un primer lado de la placa de circuito flexible. La primera pluralidad de facetas rígidas pueden ser facetas de sensor 3735 o facetas de visualización 2665. Cada faceta rígida se acopla a una respectiva de las ubicaciones de facetas. En algunas realizaciones, la primera pluralidad de facetas rígidas se acopla a almohadillas de conexión en el primer lado de la placa de circuito flexible usando adhesivos conductores y no conductores estampados.
En algunas realizaciones, la primera pluralidad de facetas rígidas del paso 2530 son facetas de sensor rígidas, tales como la faceta de sensor 3735, y el método 2500 incluye además acoplar una pluralidad de facetas de visualización rígidas, tales como la faceta de visualización 2665, a un segundo lado de la placa de circuito flexible que es opuesto al primer lado. En este caso, cada ubicación de faceta particular está configurada para transmitir señales entre una faceta de sensor rígido particular acoplada eléctricamente a la ubicación de faceta particular y una faceta de visualización rígida particular acoplada eléctricamente a la misma ubicación de faceta particular. Esto permite que la luz sea mostrada desde la faceta de visualización rígida particular que corresponde a la luz captada por la faceta de sensor rígida correspondiente.
En el paso 2540, el conjunto electrónico ensamblado se forma en la forma 3D deseada. En algunas realizaciones, este paso implica colocar la placa de circuito flexible con sus facetas rígidas acopladas en un lado de una carcasa rígida que tiene la forma deseada. Esto permite que las facetas rígidas caigan en espacios definidos en la carcasa y que la placa de circuito flexible se doble en pliegues/huecos definidos entre las facetas rígidas. Después de colocar la placa de circuito flexible con sus facetas rígidas acopladas en un lado de la carcasa rígida, un lado coincidente opuesto de la carcasa rígida se puede unir al primer lado, sellando por ello el conjunto en la forma deseada.
Realizaciones particulares pueden repetir uno o más pasos del método 2500, cuando sea apropiado. Aunque esta descripción describe e ilustra pasos particulares del método 2500 como que ocurren en un orden particular, esta descripción contempla que cualquier paso adecuado del método 2500 ocurra en cualquier orden adecuado (por ejemplo, cualquier orden temporal). Además, aunque esta descripción describe e ilustra un método de fabricación de un conjunto electrónico de ejemplo usando una placa de circuito flexible, esta descripción contempla cualquier método adecuado de fabricación de un conjunto electrónico usando una placa de circuito flexible, que puede incluir todos, algunos o ninguno de los pasos de método 2500, cuando sea apropiado. Además, aunque esta descripción describe e ilustra componentes, dispositivos o sistemas particulares que llevan a cabo los pasos particulares del método 2500, esta descripción contempla cualquier combinación adecuada de cualquier componente, dispositivo o sistema adecuado que lleve a cabo cualquier paso adecuado del método 2500.
Las FIGURAS 26-36 ilustran matrices de múltiples pantallas distribuidas paro visualizadores de alta densidad, según ciertas realizaciones. En general, para proporcionar un visualizador cercano al ojo capaz de emular todo el campo visual de un único ojo humano, se requiere un visualizador de imagen de alto rango dinámico con una resolución de órdenes de magnitud mayores que las pantallas de visualización comunes actuales. Tales visualizadores deberían ser capaces de proporcionar un visualizador de campo de luz con suficiente resolución angular y espacial para acomodarse a una agudeza visual humana de 20/20. Esta es una enorme cantidad de información, equivalente a un recuento total de píxeles horizontales de 100K a 200K. Estos visualizadores también deberían envolverse alrededor de todo el campo de visión de un ojo humano (aproximadamente 160° horizontalmente y 130° verticalmente). Para representar la visión binocular, sería necesario que un par de tales visualizadores abarquen la totalidad de una superficie curva alrededor de cada ojo. No obstante, los visualizadores típicos disponibles hoy en día son incapaces de cumplir estos requisitos.
Para abordar estas y otras limitaciones de los visualizadores actuales, las realizaciones de la descripción proporcionan una matriz de microvisualizadores de alta resolución pequeños (por ejemplo, las facetas de visualización 2665) de tamaños y formas personalizados, todos de los cuales se forman y luego se ensamblan en una placa de circuito flexible 2210 más grande que se puede formar en una forma 3D (por ejemplo, una superficie semiesférica). Los microvisualizadores se pueden montar en el lado interior de circuitería semiesférica, donde se puede incluir otra capa que contiene una matriz de unidades lógicas de TFT (por ejemplo, las unidades lógicas 755) para manejar toda la gestión de potencia y señal. Típicamente, se puede incluir una unidad lógica 755 para cada microvisualizador. Cada microvisualizador opera como una unidad discreta, mostrando datos de la unidad lógica detrás de él. Cualquier información adicional (por ejemplo, tal como video externo para aplicaciones de AR, VR o MR) se puede pasar a toda la matriz a través de un procesador de control central. En algunas realizaciones, la señal de datos externa avanza en serie de un microvisualizador al siguiente como un flujo múltiplex empaquetado, mientras que la unidad lógica de TFT para cada visualizador determina el origen y la sección de la señal a leer. Esto permite que cada unidad actúe independientemente de cualquier otro visualizador, proporcionando una gran matriz de muchos visualizadores de alta resolución con contenido único en cada uno, de manera que todo el conjunto forme esencialmente un único visualizador de resolución extremadamente alta.
Para cumplir los requisitos de resolución, claridad de color y salida de luminancia, cada microvisualizador puede tienen una arquitectura de píxeles de alto rendimiento única. Por ejemplo, cada micropantalla de visualización puede incluir matrices de píxeles de visualización 100 como se describe en las FIGURAS 1-4 y sus descripciones asociadas en la Solicitud de Patente de EE.UU. N° 15/724.004 titulada “Stacked Transparent Pixel Structures for Electronic Displays”. Las micropantallas de visualización se pueden ensamblar sobre el mismo sustrato usando cualquier método apropiado. Tal fabricación simultánea usando capas de semiconductores estándar y procesos fotolitográficos elimina virtualmente los gastos generales y costes asociados con la producción y el empaquetado de muchas pantallas individuales, mejorando en gran medida la asequibilidad.
La FIGURA 26 ilustra una vista de corte de una matriz de múltiples visualizadores curva 2600, según ciertas realizaciones. La FIGURA 26 es esencialmente la parte posterior de la placa de circuito flexible 2210B de la FIGURA 22 con la adición de facetas lógicas 2655 y facetas de visualización 2665 acopladas a la placa de circuito flexible 2210B en ubicaciones de facetas 2220. En general, cada faceta lógica 2655 es una unidad lógica 755 individual de la capa de unidad lógica 750. De manera similar, cada faceta de visualización 2665 es una unidad de visualización 765 individual de la capa de visualización 760 acoplada con una parte de la matriz de microlentes 720.
En algunas realizaciones, cada faceta lógica 2655 individual se acopla a la placa de circuito flexible 2210, y cada faceta de visualización 2665 individual se acopla luego a una de las facetas lógicas 2655. En otras realizaciones, cada faceta lógica 2655 se acopla primero a una de las facetas de visualización 2665, y la faceta combinada se acopla luego a la placa de circuito flexible 2210. En tales realizaciones, se puede hacer referencia a la faceta lógica 2655 y la faceta de visualización 2665 combinadas como faceta de visualización 2665 por simplicidad. Como se usa en la presente memoria, “faceta de visualización” puede referirse a ambas realizaciones (es decir, una faceta de visualización 2665 individual o una combinación de una faceta de visualización 2665 con una faceta lógica 2655). En general, cada faceta de visualización 2665 se puede abordar individualmente (por ejemplo, mediante un procesador de control central no mostrado), y una colección de facetas de visualización 2665 puede representar una colección heterogénea dinámica que forma un colectivo singular. En otras palabras, la matriz de múltiples visualizadores 2600 proporciona un sistema de visualización electrónica en mosaico que muestra imágenes a través de facetas de visualización 2665 individuales que juntas forman un todo completo. Cada faceta de visualización 2665 individual es capaz de proporcionar múltiples resoluciones de visualización diferentes y se puede personalizar sobre la marcha para ejecutar una resolución, rango de colores, tasa de cuadros, etc. diferentes. Por ejemplo, una faceta de visualización 2665 puede tener una resolución de visualización de 512x512 mientras que una faceta de visualización 2665 adyacente (de igual tamaño) tiene una resolución de visualización de 128x128, en donde la primera representa una concentración más alta de datos de imágenes. En este ejemplo, estos dos visualizadores son heterogéneos, pero son controlables individualmente y funcionan al unísono para formar una imagen de visualización singular.
La colección general de facetas de visualización 2665 puede seguir cualquier estructura de superficie curva o plana. Por ejemplo, las facetas de visualización 2665 se pueden formar en una superficie semiesférica, una superficie cilíndrica, una superficie esférica oblonga o cualquier otra superficie con forma.
Las facetas lógicas 2655 y la faceta de visualización 2665 pueden tener cualquier forma apropiada. En algunas realizaciones, las formas de las facetas lógicas 2655 y las facetas de visualización 2665 coinciden entre sí y la forma de las ubicaciones de facetas 2220. En algunas realizaciones, las facetas lógicas 2655 y las facetas de visualización 2665 tienen forma de polígono tal como un triángulo, un cuadrilátero, un pentágono, un hexágono, un heptágono o un octógono. En algunas realizaciones, algunas o todas las facetas lógicas 2655 y las facetas de visualización 2665 tienen formas no poligonales. Por ejemplo, las facetas de visualización 2665 en los bordes de la placa de circuito flexible 2210 pueden no ser poligonales en la medida que pueden tener cortes curvos para mejorar la estética del conjunto general.
Además de tener una resolución de visualización seleccionable/controlable, cada faceta de visualización 2665 en algunas realizaciones también puede tener un rango de colores seleccionable de una pluralidad de rangos de colores y/o una tasa de cuadros seleccionable de una pluralidad de tasas de cuadros. En tales realizaciones, las facetas de visualización 2665 de una placa de circuito flexible 2210 particular son configurables para proporcionar tasas de cuadros heterogéneas y rango de colores heterogéneo. Por ejemplo, una faceta de visualización 2665 puede tener un rango de colores particular mientras que otra faceta de visualización 2665 tiene un rango de colores diferente. De manera similar, una faceta de visualización 2665 puede tener una tasa de cuadros particular mientras que otra faceta de visualización 2665 tiene una tasa de cuadros diferente.
La FIGURA 27 ilustra una vista de despiece de la matriz de múltiples visualizadores curva 2600 de la FIGURA 26, y las FIGURAS 28-29 ilustran detalles adicionales de la faceta lógica 2655 y la faceta de visualización 2665, según ciertas realizaciones. Como se ilustra en estas figuras, cada faceta lógica 2655 puede incluir almohadillas de interconexión 2850 que se pueden acoplar eléctricamente a almohadillas de interconexión 2250 de facetas lógicas 2655 adyacentes. Esto puede permitir que las facetas de visualización 2665 se acoplen en serie a través de pistas de cable 2230. Además, cada faceta lógica 2655 puede incluir almohadillas 2840 en un patrón que coincida con las almohadillas 2940 en el lado posterior de la faceta de visualización 2665. Esto permite que la faceta lógica 2655 y la faceta de visualización 2665 se acoplen entre sí usando cualquier técnica apropiada en la técnica. En algunas realizaciones, las almohadillas 2840 y las almohadillas 2940 son almohadillas de BGA o cualquier otra almohadilla para montaje superficial apropiada.
Las FIGURAS 30 y 32 ilustran el lado posterior de la placa de circuito flexible 2210 de la FIGURA 22 y muestran detalles similares a los descritos en referencia a la FIGURA 23. Las FIGURAS 31 y 33 ilustran un flujo de datos en serie a través de la placa de circuito flexible 2210 y muestran detalles similares a los descritos en referencia a la FIGURA 24. La FIGURA 34 ilustra una matriz de facetas lógicas 2655 que se han formado en una forma semiesférica, según ciertas realizaciones. En esta figura, la placa de circuito flexible 2210 y la faceta de visualización 2665 se han eliminado por claridad. La FIGURA 35 ilustra las comunicaciones entre las facetas lógicas 2655 de la FIGURA 34, según ciertas realizaciones. Como se ilustra en esta figura, cada faceta lógica 2655 puede comunicarse con las facetas lógicas 2655 adyacentes usando las almohadillas de interconexiones 2850. Además, cada faceta lógica 2655 puede tener una identificación única como se ilustra en la FIGURA 35. Esto permite que cada faceta lógica 2655 sea direccionada de manera única, por ejemplo, por una unidad central de procesamiento.
La FIGURA 36 ilustra un método 3600 de fabricación de la matriz de múltiples visualizadores curva de la FIGURA 26, según ciertas realizaciones. El método 3600 puede comenzar en el paso 3610 donde una pluralidad de ubicaciones de facetas se forma en una placa de circuito. En algunas realizaciones, las ubicaciones de facetas son las ubicaciones de facetas 2220 y la placa de circuito es una placa de circuito flexible 2210. En algunas realizaciones, cada ubicación de faceta corresponde a una de una pluralidad de facetas de visualización, tales como las facetas de visualización 2665.
En el paso 3620, la placa de circuito flexible se corta o se forma de otro modo en un patrón que permite que la placa de circuito flexible se forme más adelante en una forma 3D. Cuando la placa de circuito flexible es plana, al menos algunas de las ubicaciones de facetas están separadas de una o más ubicaciones de facetas adyacentes por una pluralidad de huecos, tales como los huecos 2215. Cuando la placa de circuito flexible se forma en la forma 3D, la pluralidad de huecos se eliminan sustancialmente.
En el paso 3630, una pluralidad de facetas lógicas se acopla a un primer lado de la placa de circuito flexible. Cada faceta lógica se acopla a una respectiva de las ubicaciones de facetas del paso 3610. En el paso 3640, una pluralidad de facetas de visualización se acopla a una respectiva de la pluralidad de facetas lógicas del paso 3630. En realizaciones alternativas, las facetas de visualización se pueden montar en las facetas lógicas del paso 3630 al nivel de la oblea antes de acoplar las facetas lógicas al primer lado de la placa de circuito flexible. En el paso 3650, el conjunto de visualización electrónico ensamblado se forma en forma 3D. En algunas realizaciones, este paso puede ser similar al paso 2540 del método 2500 descrito anteriormente. Después del paso 3650, el método 3600 puede finalizar.
Realizaciones particulares pueden repetir uno o más pasos del método 3600, cuando sea apropiado. Aunque esta descripción describe e ilustra pasos particulares del método 3600 como que ocurren en un orden particular, esta descripción contempla que cualquier paso adecuado del método 3600 ocurra en cualquier orden adecuado (por ejemplo, cualquier orden temporal). Además, aunque esta descripción describe e ilustra un método de ejemplo de fabricación de una matriz de múltiples visualizadores curva, esta descripción contempla cualquier método adecuado de fabricación de una matriz de múltiples visualizadores curva, que puede incluir todos, algunos o ninguno de los pasos del método 3600, cuando sea apropiado. Además, aunque esta descripción describe e ilustra componentes, dispositivos o sistemas particulares que llevan a cabo pasos particulares del método 3600, esta descripción contempla cualquier combinación adecuada de cualquier componente, dispositivo o sistema adecuado que lleve a cabo cualquier paso adecuado del método 3600.
Las FIGURAS 37-42 ilustran una matriz de cámaras de múltiples aperturas distribuidas 3700, según ciertas realizaciones. En general, para captar el campo de luz completo de todo el campo visual de un único ojo humano, se necesita un sensor de imagen de alto rango dinámico grande con una resolución mucho más alta que la disponible actualmente. Tal sensor de imagen habilitaría una cámara de campo de luz con suficiente resolución angular y espacial para acomodar una agudeza visual humana de 20/20. Esta es una enorme cantidad de información, equivalente a un recuento total de píxeles horizontales de 100K a 200K. Este sensor de imagen de múltiples aperturas también debe envolverse alrededor de todo el campo de visión de un ojo humano (aproximadamente 160° horizontalmente y 130° verticalmente). Para formación de imágenes de visión binocular, son necesarias un par de tales cámaras que abarquen la totalidad de una superficie curva alrededor de cada ojo. Los conjuntos de sensores de imagen típicos disponibles hoy en día son incapaces de cumplir estos requisitos.
Para superar estas y otras limitaciones de los sensores de imagen típicos, las realizaciones de la descripción proporcionan una matriz de sensores de imagen pequeños de tamaños y formas personalizados, todos los cuales se ensamblan en una placa de circuito flexible 22l0 más grande que tiene una forma 3D (por ejemplo, semiesférica). Los sensores de imagen (por ejemplo, las facetas de sensor 3735) están montados en el lado exterior de la placa de circuito flexible 2210, donde se puede proporcionar otra capa que contiene una matriz de unidades lógicas de TFT (por ejemplo, las unidades lógicas 755) para manejar toda la gestión de energía y señal - una unidad lógica para cado visualizador. Cada sensor de imagen opera como una unidad discreta que pasa datos de lectura a la unidad lógica detrás de ella (en realizaciones que incluyen unidades lógicas), donde se maneja y encamina en consecuencia (por ejemplo, a una faceta de visualización 2665 correspondiente en algunas realizaciones). Esto permite que cada faceta de sensor 3735 actúe independientemente de cualquier otra faceta de sensor 3735, proporcionando una gran matriz de muchas aperturas que captan contenido único en cada una, de manera que el conjunto completo llegue a ser esencialmente una cámara de múltiples nodos sin fisuras de resolución muy alta. Se debería observar que, si bien los sensores de imagen pueden pasar datos a sus unidades lógicas emparejadas en algunas realizaciones, la funcionalidad de los sensores de imagen en sí mismos no requiere necesariamente el acoplamiento de unidades lógicas.
Para cumplir los requisitos de resolución, claridad de color y salida de luminancia, cada microsensor puede tener una arquitectura de píxeles única de alto rendimiento. Por ejemplo, cada microsensor puede incluir matrices de píxeles de sensor 1800 como se describe en las FIGURAS 18-20 y sus descripciones asociadas en la Solicitud de Patente de EE.UU. N° 15/724.027 titulada “Stacked Transparent Pixel Structure for Image Sensors”.
El microsensor se puede ensamblar en el mismo sustrato usando cualquier método apropiado. Tal fabricación simultánea usando capas de semiconductores estándar y procesos fotolitográficos elimina virtualmente los gastos generales y los costes asociados con la producción y el empaquetado de muchas pantallas individuales, mejorando en gran medida la asequibilidad.
Otra característica de ciertas realizaciones de la matriz de cámaras de múltiples aperturas distribuidas 3700 es la percepción de profundidad integrada basada en la paralaje entre diferentes células plenópticas. Las imágenes producidas por células en lados opuestos de un sensor dado se pueden usar para calcular el desplazamiento del detalle de la imagen, donde la distancia de desplazamiento se correlaciona directamente con la proximidad del detalle a la superficie del sensor. Esta información de escena se puede usar por un procesador central cuando se superpone cualquier señal de video aumentada, dando como resultado contenido de AR/MR colocado enfrente del observador a la profundidad apropiada. La información también se puede usar para una variedad de tareas de difuminado de enfoque artificial y detección de profundidad, incluyendo la profundidad de campo simulada, la detección de bordes espaciales y otros efectos visuales.
La FIGURA 37 ilustra una vista de corte de la matriz de cámaras de múltiples aperturas distribuidas 3700, según ciertas realizaciones. La FIGURA 37 es esencialmente la placa de circuito flexible 2210B de la FIGURA 22 con la adición de la faceta de sensor 3735 acoplada a la placa de circuito flexible 2210B en las ubicaciones de facetas 2220. En algunas realizaciones, cada faceta de sensor 3735 es una unidad de detección 735 individual de la capa de sensor de imagen 730.
En algunas realizaciones, cada faceta de sensor 3735 individual está acoplada a la placa de circuito flexible 2210. En otras realizaciones, cada faceta de sensor 3735 individual está acoplada a una de las facetas lógicas 2655 que se ha acoplado a la placa de circuito flexible 2210. En otras realizaciones, cada faceta lógica 2655 se acopla primero a una de las facetas de sensor 3735, y la faceta combinada se acopla luego a la placa de circuito flexible 2210. En tales realizaciones, se puede hacer referencia a la faceta lógica 2655 y a la faceta de sensor 3735 combinadas como faceta de sensor 3735 por simplicidad. Como se usa en la presente memoria, “faceta de sensor” puede referirse a ambas realizaciones (es decir, una faceta de sensor 3735 individual o una combinación de una faceta de sensor 3735 con una faceta lógica 2655).
En general, cada faceta de sensor 3735 se puede abordar individualmente (por ejemplo, mediante un procesador de control central no mostrado), y una colección de facetas de sensor 3735 puede representar una colección dinámica heterogénea que forma un colectivo singular. En otras palabras, la matriz de cámaras de múltiples aperturas distribuidas 3700 proporciona un sistema de sensor electrónico en mosaico que proporciona imágenes captadas a través de facetas de sensor 3735 individuales que juntas forman un todo completo. Cada faceta de sensor 3735 individual es capaz de captar imágenes en múltiples resoluciones diferentes y se puede personalizar sobre la marcha para captar una resolución, rango de colores, tasa de cuadros, etc., diferentes. Por ejemplo, una faceta de sensor 3735 puede tener una resolución de captura de 512x512 mientras que una faceta de sensor 3735 adyacente (de igual tamaño) tiene una resolución de captura de 128x128, en donde la primera representa una concentración de datos de imágenes más alta. En este ejemplo, estos dos sensores son heterogéneos, pero son controlables individualmente y funcionan al unísono para captar un campo de luz singular.
La colección general de facetas de sensor 3735 puede seguir cualquier estructura de superficie curva o plana. Por ejemplo, las facetas de sensor 3735 se pueden formar en una superficie semiesférica, una superficie cilíndrica, una superficie esférica oblonga o cualquier otra superficie con forma.
Las facetas de sensor 3735 pueden tener cualquier forma apropiada. En algunas realizaciones, las formas de las facetas de sensor 3735 coinciden con las formas de las facetas de visualización 2665 y la forma de las ubicaciones de facetas 2220. En algunas realizaciones, las facetas de sensor 3735 tienen la forma de un polígono, tal como un triángulo, un cuadrilátero, un pentágono, hexágono, heptágono u octógono. En algunas realizaciones, algunas o todas las facetas de sensor 3735 tienen formas no poligonales. Por ejemplo, las facetas de sensor 3735 en los bordes de la placa de circuito flexible 2210 pueden no ser poligonales, en la medida que pueden tener cortes curvos para mejorar la estética del conjunto general.
Además de tener una resolución seleccionable/controlable, cada faceta de sensor 3735 en algunas realizaciones también puede tener un rango de colores seleccionable a partir de una pluralidad de rangos de colores y/o una tasa de cuadros seleccionable a partir de una pluralidad de tasas de cuadros. En tales realizaciones, las facetas de sensor 3735 de una placa de circuito flexible 2210 particular son configurables para proporcionar tasas de cuadros heterogéneas y rango de colores heterogéneo. Por ejemplo, una faceta de sensor 3735 puede tener un rango de colores particular mientras que otra faceta de sensor 3735 tiene un rango de colores diferente. De manera similar, una faceta de sensor 3735 puede tener una tasa de cuadros particular, mientras que otra faceta de sensor 3735 tiene una tasa de cuadros diferente.
Las FIGURAS 38-39 ilustran vistas de despiece de la matriz de cámaras de múltiples aperturas distribuidas 3700 de la FIGURA 37, según ciertas realizaciones. Como se ilustra en estas figuras, cada faceta de sensor 3735 puede incluir almohadillas 3940 en un patrón que coincida con las almohadillas 2240 en la placa de circuito flexible 2210 o las almohadillas 2940 en la faceta lógica 2655. Esto permite que la faceta de sensor 3735 se acople a la faceta lógica 2655 o a la placa de circuito flexible 2210 usando cualquier técnica apropiada en la técnica. En algunas realizaciones, las almohadillas 3940 son almohadillas de BGA o cualquier otra almohadilla para montaje superficial apropiada. Las FIGURAS 40-40 ilustran vistas similares de la placa de circuito flexible 2210 como se muestra en las FIGURAS 23-24, excepto que la placa de circuito flexible 2210 se ha formado en una forma 3D.
La FIGURA 42 ilustra un método 4200 de fabricación de una matriz de cámaras de múltiples aperturas distribuidas 3700, según ciertas realizaciones. El método 4200 puede comenzar en el paso 4210 donde una pluralidad de ubicaciones de facetas se forma en una placa de circuito. En algunas realizaciones, las ubicaciones de facetas son ubicaciones de facetas 2220 y la placa de circuito es una placa de circuito flexible 2210. En algunas realizaciones, cada ubicación de faceta corresponde a una de una pluralidad de facetas de sensor, tales como las facetas de sensor 3735.
En el paso 4220, la placa de circuito flexible se corta o se forma de otro modo en un patrón que permite que la placa de circuito flexible se forme más adelante en una forma 3D. Cuando la placa de circuito flexible es plana, al menos algunas de las ubicaciones de facetas están separadas de una o más ubicaciones de facetas adyacentes por una pluralidad de huecos, tales como los huecos 2215. Cuando la placa de circuito flexible se forma en la forma 3D, la pluralidad de huecos se eliminan sustancialmente.
En el paso 4230, una pluralidad de facetas de sensor se acopla a un primer lado de la placa de circuito flexible. Cada faceta de sensor se acopla a una respectiva de las ubicaciones de faceta del paso 4210. En el paso 4240, el conjunto de cámaras electrónicas ensamblado se forma en la forma 3D. En algunas realizaciones, este paso puede ser similar al paso 2540 del método 2500 descrito anteriormente. Después del paso 4240, el método 4200 puede finalizar.
Realizaciones particulares pueden repetir uno o más pasos del método 4200, cuando sea apropiado. Aunque esta descripción describe e ilustra pasos particulares del método 4200 como que ocurren en un orden particular, esta descripción contempla que cualquier paso adecuado del método 4200 ocurra en cualquier orden adecuado (por ejemplo, cualquier orden temporal). Además, aunque esta descripción describe e ilustra un método de ejemplo de fabricación de una matriz de cámaras de múltiples aperturas distribuidas, esta descripción contempla cualquier método adecuado de fabricación de una matriz de cámaras de múltiples aperturas distribuidas, que puede incluir todos, algunos o ninguno de los pasos del método 4200, cuando sea apropiado. Además, aunque esta descripción describe e ilustra componentes, dispositivos o sistemas particulares que llevan a cabo pasos particulares del método 4200, esta descripción contempla cualquier combinación adecuada de componentes, dispositivos o sistemas adecuados que llevan a cabo cualquier paso adecuado del método 4200.
En la presente memoria, “o” es inclusivo y no exclusivo, a menos que se indique expresamente de otro modo o se indique de otro modo por el contexto Por lo tanto, en la presente memoria, “A o B” significa “A, B o ambos”, a menos que se indique expresamente de otro modo o se indique de otro modo por el contexto. Además, “y” es tanto conjunto como varios, a menos que se indique expresamente de otro modo o se indique de otro modo por el contexto. Por lo tanto, en la presente memoria, “A y B” significa “A y B, conjunta o individualmente”, a menos que se indique expresamente de otro modo o se indique de otro modo por el contexto.
El alcance de la invención está definido por las reivindicaciones.

Claims (14)

REIVINDICACIONES
1. Un conjunto de visualización electrónico (710) que comprende:
una placa de circuito (740);
una primera capa de microlente (720A) en un primer lado de la placa de circuito, la primera capa de microlente que comprende una primera pluralidad de microlentes;
una segunda capa de microlente (720B) en un lado opuesto de la placa de circuito de la primera capa de microlente, la segunda capa de microlente que comprende una segunda pluralidad de microlentes;
una capa de sensor de imagen (730) adyacente a la primera capa de microlente, la capa de sensor de imagen que comprende una pluralidad de píxeles de sensor configurados para detectar la luz entrante a través de la primera pluralidad de microlentes;
una capa de visualización (760) adyacente a la segunda matriz de microlentes, la capa de visualización que comprende una pluralidad de píxeles de visualización configurados para emitir luz a través de la segunda pluralidad de microlentes;
una capa de unidad lógica (750) acoplada a la placa de circuito, la capa de unidad lógica que comprende una o más unidades lógicas configuradas para emular la transparencia dirigiendo señales desde la pluralidad de píxeles de sensor a la pluralidad de píxeles de visualización, emitiendo por ello luz desde la segunda pluralidad de microlentes en ángulos que corresponden a los ángulos de la luz entrante detectada a través de la primera pluralidad de microlentes.
2. Un conjunto de visualización electrónico (710) que comprende:
una placa de circuito (740);
una primera capa de microlente (720A) en un primer lado de la placa de circuito, la primera capa de microlente que comprende una primera pluralidad de microlentes;
una segunda capa de microlente (720B) en un lado opuesto de la placa de circuito de la primera capa de microlente, la segunda capa de microlente que comprende una segunda pluralidad de microlentes;
una capa de sensor de imagen (730) adyacente a la primera capa de microlente, la capa de sensor de imagen que comprende una pluralidad de píxeles de sensor configurados para detectar la luz entrante a través de la primera pluralidad de microlentes; y
una capa de visualización (760) adyacente a la segunda matriz de microlentes, la capa de visualización que comprende una pluralidad de píxeles de visualización configurados para emitir luz a través de la segunda pluralidad de microlentes;
en donde el conjunto de visualización electrónico está configurado para emular la transparencia emitiendo luz desde la segunda pluralidad de microlentes en ángulos que corresponden a ángulos de la luz entrante detectada a través de la primera pluralidad de microlentes.
3. El conjunto de visualización electrónico de la reivindicación 1 o de la reivindicación 2, en donde:
la primera pluralidad de microlentes está orientada hacia una primera dirección; y
la segunda pluralidad de microlentes está orientada hacia una segunda dirección que está a 180 grados de la primera dirección.
4. El conjunto de visualización electrónico de la reivindicación 1 o de la reivindicación 2, en donde:
la capa de sensor de imagen está dispuesta dentro de la primera capa de microlente; y
la capa de visualización está dispuesta dentro de la segunda capa de microlente.
5. El conjunto de visualización electrónico de la reivindicación 1 o de la reivindicación 2, en donde la placa de circuito es flexible.
6. El conjunto de visualización electrónico de la reivindicación 1 o de la reivindicación 2, en donde emular la transparencia comprende emitir la luz desde la segunda pluralidad de microlentes de manera que se muestre una imagen que coincida con lo que se vería si el conjunto de visualización electrónico no estuviera presente.
7. El conjunto de visualización electrónico de la reivindicación 1, en donde la capa de unidad lógica está entre la capa de sensor de imagen y la placa de circuito.
8. El conjunto de visualización electrónico de la reivindicación 1, en donde la capa de unidad lógica está entre la capa de visualización y la placa de circuito.
9. El conjunto de visualización electrónico de la reivindicación 1 o de la reivindicación 2, en donde cada microlente de la primera y segunda pluralidad de microlentes comprende una forma tridimensional con una lente colimadora en un extremo de la forma tridimensional, la forma tridimensional que comprende:
un poliedro triangular;
un paralelepípedo rectangular;
un poliedro pentagonal;
un poliedro hexagonal;
un poliedro heptagonal; o
un poliedro octogonal.
10. El conjunto de visualización electrónico de la reivindicación 9, en donde cada una de la primera y segunda pluralidad de microlentes comprende además una pluralidad de paredes opacas configuradas para evitar que luz penetre en las microlentes adyacentes.
11. Un método de fabricación de un visualizador electrónico, el método que comprende:
formar una pluralidad de ubicaciones de fijación de unidad en una placa de circuito, cada ubicación de fijación de unidad correspondiente a una de una pluralidad de unidades de visualización y una de una pluralidad de unidades de detección;
acoplar una pluralidad de unidades de detección a un primer lado de la placa de circuito, cada unidad de detección que está acoplada a una respectiva de las ubicaciones de fijación de unidad; y
acoplar una pluralidad de unidades de visualización a un segundo lado de la placa de circuito que es opuesto al primer lado, cada unidad de visualización que está acoplada a una respectiva de las ubicaciones de fijación de unidad;
acoplar una primera pluralidad de microlentes a la pluralidad de unidades de detección; y
acoplar una segunda pluralidad de microlentes a la pluralidad de unidades de visualización.
12. El método de fabricación del visualizador electrónico de la reivindicación 11, que comprende además acoplar una pluralidad de unidades lógicas entre la placa de circuito y la pluralidad de unidades de visualización.
13. El método de fabricación del visualizador electrónico de la reivindicación 11, que comprende además acoplar una pluralidad de unidades lógicas entre la placa de circuito y la pluralidad de unidades de detección.
14. El método de fabricación del visualizador electrónico de la reivindicación 11, en donde cada microlente de la primera y segunda pluralidad de microlentes comprende:
una forma tridimensional con una lente colimadora en un extremo de la forma tridimensional, la forma tridimensional que comprende:
un poliedro triangular;
un paralelepípedo rectangular;
un poliedro pentagonal;
un poliedro hexagonal;
un poliedro heptagonal; o
un poliedro octogonal; y opcionalmente
una pluralidad de paredes opacas configuradas para evitar que la luz penetre en las microlentes adyacentes.
ES19706808T 2018-02-07 2019-01-23 Conjuntos de visualización con transparencia emulada electrónicamente Active ES2928489T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/890,892 US10838250B2 (en) 2018-02-07 2018-02-07 Display assemblies with electronically emulated transparency
PCT/US2019/014655 WO2019156805A1 (en) 2018-02-07 2019-01-23 Display assemblies with electronically emulated transparency

Publications (1)

Publication Number Publication Date
ES2928489T3 true ES2928489T3 (es) 2022-11-18

Family

ID=65516746

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19706808T Active ES2928489T3 (es) 2018-02-07 2019-01-23 Conjuntos de visualización con transparencia emulada electrónicamente

Country Status (10)

Country Link
US (1) US10838250B2 (es)
EP (1) EP3750183B1 (es)
JP (1) JP7489160B2 (es)
KR (1) KR102467346B1 (es)
CN (1) CN111868926A (es)
AU (1) AU2019218739B2 (es)
CA (1) CA3090660A1 (es)
ES (1) ES2928489T3 (es)
SG (1) SG11202007478RA (es)
WO (1) WO2019156805A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10930709B2 (en) 2017-10-03 2021-02-23 Lockheed Martin Corporation Stacked transparent pixel structures for image sensors
US11616941B2 (en) 2018-02-07 2023-03-28 Lockheed Martin Corporation Direct camera-to-display system

Family Cites Families (233)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7075501B1 (en) 1990-12-31 2006-07-11 Kopin Corporation Head mounted display system
US5475514A (en) 1990-12-31 1995-12-12 Kopin Corporation Transferred single crystal arrayed devices including a light shield for projection displays
US6548956B2 (en) 1994-12-13 2003-04-15 The Trustees Of Princeton University Transparent contacts for organic devices
US5719706A (en) * 1995-03-15 1998-02-17 Matsushita Electric Industrial Co., Ltd. Illuminating apparatus, projection lens, and display apparatus including the illumination apparatus and the projection lens
US6744912B2 (en) 1996-11-29 2004-06-01 Varian Medical Systems Technologies, Inc. Multiple mode digital X-ray imaging system
US5731899A (en) 1996-12-20 1998-03-24 Eastman Kodak Company Lenslet array system incorporating an integral field lens/reimager lenslet array
JPH11272209A (ja) 1998-01-30 1999-10-08 Hewlett Packard Co <Hp> 表示用集積回路ビデオ・タイル
AU6182200A (en) * 1999-08-02 2001-02-19 Comoc Corporation Microlens array and display comprising microlens array
WO2001080204A2 (en) 2000-04-14 2001-10-25 C-360, Inc. Illuminated viewing assembly, viewing system including the illuminated viewing assembly, and method of viewing therefor
JP2002062818A (ja) * 2000-08-16 2002-02-28 Sony Corp マイクロレンズおよび画像表示装置の製造方法
US6724012B2 (en) 2000-12-14 2004-04-20 Semiconductor Energy Laboratory Co., Ltd. Display matrix with pixels having sensor and light emitting portions
JP2003114403A (ja) * 2001-07-25 2003-04-18 Canon Inc 画像表示素子及びこれを用いた投射表示装置
US7387913B2 (en) 2001-08-08 2008-06-17 Jsr Corporation 3D optoelectronic micro system
TWI289896B (en) 2001-11-09 2007-11-11 Semiconductor Energy Lab Laser irradiation apparatus, laser irradiation method, and method of manufacturing a semiconductor device
US7233354B2 (en) 2002-10-11 2007-06-19 Hewlett-Packard Development Company, L.P. Digital camera that adjusts resolution for low light conditions
US7015639B2 (en) 2002-10-22 2006-03-21 Osram Opto Semiconductors Gmbh Electroluminescent devices and method of making transparent cathodes
FR2852147B1 (fr) 2003-03-06 2005-09-30 Commissariat Energie Atomique Matrice de pixels detecteurs integree sur circuit de lecture de charges
JP2004363049A (ja) * 2003-06-06 2004-12-24 Seiko Epson Corp 有機エレクトロルミネッセンス表示装置の製造方法及び、有機エレクトロルミネッセンス表示装置並びに、有機エレクトロルミネッセンス表示装置を備える表示装置
US6909233B2 (en) 2003-06-11 2005-06-21 Eastman Kodak Company Stacked OLED display having improved efficiency
US8884845B2 (en) 2003-10-28 2014-11-11 Semiconductor Energy Laboratory Co., Ltd. Display device and telecommunication system
DE102004003013B3 (de) 2004-01-20 2005-06-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und dessen Verwendung
US20050206755A1 (en) 2004-03-17 2005-09-22 Fuji Photo Film Co., Ltd. Solid-state imaging device
US20050205879A1 (en) 2004-03-17 2005-09-22 Fuji Photo Film Co., Ltd. Photoelectric converting film stack type solid-state image pickup device
JP2005268609A (ja) 2004-03-19 2005-09-29 Fuji Photo Film Co Ltd 多層積層型多画素撮像素子及びテレビカメラ
US7352415B1 (en) 2004-04-23 2008-04-01 Geronimi Heather A Electronic image display systems
US20050242712A1 (en) 2004-04-29 2005-11-03 Chao-Chin Sung Multicolor electroluminescent display
SG155167A1 (en) * 2004-08-03 2009-09-30 Silverbrook Res Pty Ltd Walk-up printing
US20060054782A1 (en) 2004-08-25 2006-03-16 Olsen Richard I Apparatus for multiple camera devices and method of operating same
TW200628921A (en) * 2004-09-17 2006-08-16 Hitachi Maxell Microlens array, method of fabricating microlens array, and liquid crystal display apparatus with microlens array
GB2420536A (en) 2004-11-27 2006-05-31 Tom Vlaming Automotive head up display system
FR2884338B1 (fr) * 2005-04-11 2007-10-19 Valeo Vision Sa Procede, dispositif et camera pour la detection d'objets a partir d'images numeriques
JP2007012359A (ja) 2005-06-29 2007-01-18 Hitachi Displays Ltd 有機el表示装置
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070123133A1 (en) 2005-11-30 2007-05-31 Eastman Kodak Company OLED devices with color filter array units
US9101279B2 (en) 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
TW200803606A (en) 2006-06-13 2008-01-01 Itc Inc Ltd The fabrication of full color OLED panel using micro-cavity structure
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US7714923B2 (en) 2006-11-02 2010-05-11 Eastman Kodak Company Integrated display and capture apparatus
US7697053B2 (en) 2006-11-02 2010-04-13 Eastman Kodak Company Integrated display having multiple capture devices
US7808540B2 (en) 2007-01-09 2010-10-05 Eastman Kodak Company Image capture and integrated display apparatus
US20080218331A1 (en) 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US8456392B2 (en) 2007-05-31 2013-06-04 Nthdegree Technologies Worldwide Inc Method of manufacturing a light emitting, photovoltaic or other electronic apparatus and system
US7952059B2 (en) 2007-06-13 2011-05-31 Eyes Of God, Inc. Viewing system for augmented reality head mounted display with rotationally symmetric aspheric lenses
CN101345248B (zh) 2007-07-09 2010-07-14 博立码杰通讯(深圳)有限公司 多光谱感光器件及其制作方法
KR20090038242A (ko) 2007-10-15 2009-04-20 삼성전자주식회사 전하를 트랩하는 광전 발생부를 포함하는 이미지 센서
JP4548475B2 (ja) * 2007-11-20 2010-09-22 ソニー株式会社 液晶表示素子および投射型液晶表示装置
KR100916321B1 (ko) 2007-12-17 2009-09-11 한국전자통신연구원 유기 발광 다이오드 터치스크린 장치 및 그 제조 방법
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8339429B2 (en) 2008-07-24 2012-12-25 International Business Machines Corporation Display monitor electric power consumption optimization
US7948547B2 (en) 2008-08-05 2011-05-24 Eastman Kodak Company Apparatus and method for capturing and viewing images
US8610650B2 (en) 2009-05-20 2013-12-17 Dialog Semiconductor Gmbh Advanced multi line addressing
JP2011118324A (ja) * 2009-11-06 2011-06-16 Sony Corp 液晶表示素子及びその製造方法、並びに液晶表示素子を備えた投射型液晶表示装置
DE102010000925B4 (de) 2010-01-14 2012-04-19 Kreyenborg Beteiligungen Und Verwaltungen Gmbh & Co. Kg Siebträgerelement für eine Filtriereinrichtung mit wenigstens einer Siebkavität
US8749620B1 (en) 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
KR101848526B1 (ko) 2010-06-11 2018-04-12 백 인 포커스 사용자의 시각적인 장애를 보상하기 위해 디스플레이를 렌더링하는 시스템 및 방법
JP2012043939A (ja) * 2010-08-18 2012-03-01 Sony Corp 撮像素子および撮像装置
US8163581B1 (en) 2010-10-13 2012-04-24 Monolith IC 3D Semiconductor and optoelectronic devices
US20130194244A1 (en) * 2010-10-12 2013-08-01 Zeev Tamir Methods and apparatuses of eye adaptation support
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
TWI462265B (zh) 2010-11-30 2014-11-21 Ind Tech Res Inst 影像擷取裝置
BR112013014975A2 (pt) 2010-12-16 2020-08-11 Lockheed Martin Corporation exibição de colimação com lentes de pixel
WO2012082825A2 (en) 2010-12-17 2012-06-21 Dolby Laboratories Licensing Corporation Quantum dots for display panels
US9179134B2 (en) 2011-01-18 2015-11-03 Disney Enterprises, Inc. Multi-layer plenoptic displays that combine multiple emissive and light modulating planes
WO2012117670A1 (ja) 2011-03-01 2012-09-07 パナソニック株式会社 固体撮像装置
JP2012205015A (ja) 2011-03-24 2012-10-22 Casio Comput Co Ltd 画像処理装置及び画像処理方法、並びにプログラム
US8605082B2 (en) 2011-04-18 2013-12-10 Brian K. Buchheit Rendering adjustments to autocompensate for users with ocular abnormalities
US8508830B1 (en) 2011-05-13 2013-08-13 Google Inc. Quantum dot near-to-eye display
US20150077312A1 (en) 2011-05-13 2015-03-19 Google Inc. Near-to-eye display having adaptive optics
US9454851B2 (en) 2011-06-24 2016-09-27 Intel Corporation Efficient approach to estimate disparity map
US20130175557A1 (en) 2011-09-02 2013-07-11 The Procter & Gamble Company Light emitting apparatus
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US20130188045A1 (en) 2012-01-20 2013-07-25 Nokia Corporation High Resolution Surveillance Camera
US8848006B2 (en) 2012-01-25 2014-09-30 Massachusetts Institute Of Technology Tensor displays
US9368546B2 (en) * 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US9025111B2 (en) * 2012-04-20 2015-05-05 Google Inc. Seamless display panel using fiber optic carpet
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
KR101260287B1 (ko) 2012-04-27 2013-05-03 (주)뷰아이텍 증강 현실을 이용한 안경 렌즈 비교 시뮬레이션 방법
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9001427B2 (en) 2012-05-30 2015-04-07 Microsoft Technology Licensing, Llc Customized head-mounted display device
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US9494797B2 (en) 2012-07-02 2016-11-15 Nvidia Corporation Near-eye parallax barrier displays
US9841537B2 (en) * 2012-07-02 2017-12-12 Nvidia Corporation Near-eye microlens array displays
CN103576351A (zh) 2012-07-23 2014-02-12 天津富纳源创科技有限公司 具有触控功能的液晶模组
EP2690483A1 (en) 2012-07-25 2014-01-29 Johnson Controls Automotive Electronics SAS Head-up display and method for operating it
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
US9250445B2 (en) 2012-08-08 2016-02-02 Carol Ann Tosaya Multiple-pixel-beam retinal displays
US9349769B2 (en) 2012-08-22 2016-05-24 Taiwan Semiconductor Manufacturing Company, Ltd. Image sensor comprising reflective guide layer and method of forming the same
JP2014048652A (ja) 2012-09-04 2014-03-17 Japan Display Inc 液晶表示装置
US9237263B2 (en) 2012-10-05 2016-01-12 Vidinoti Sa Annotation method and apparatus
EP2915156A4 (en) 2012-11-01 2015-10-28 Lellan Inc MODULAR PANEL LIGHTED WITHOUT INTERRUPTION
US9933684B2 (en) 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
JP6220125B2 (ja) * 2012-12-28 2017-10-25 キヤノン株式会社 撮像装置およびその制御方法
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
EP2975909A4 (en) 2013-03-13 2016-06-01 Panasonic Ip Man Co Ltd ORGANIC ELECTROLUMINESCENT ELEMENT AND LIGHTING DEVICE USING THE SAME
KR102318391B1 (ko) 2013-03-15 2021-10-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
CN105165122A (zh) 2013-05-01 2015-12-16 柯尼卡美能达株式会社 有机电致发光元件
US9036078B1 (en) 2013-05-14 2015-05-19 Google Inc. Reducing light damage in shutterless imaging devices
DE112014002456B4 (de) 2013-05-17 2017-07-13 Panasonic Intellectual Property Management Co., Ltd. Organisches elektrolumineszierendes Element und Beleuchtungs-Einrichtung
US9519144B2 (en) 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
KR20140140861A (ko) 2013-05-30 2014-12-10 영남대학교 산학협력단 유기발광표시장치
JP6098375B2 (ja) 2013-05-31 2017-03-22 日本精機株式会社 ヘッドアップディスプレイ装置
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
KR20150006731A (ko) 2013-07-09 2015-01-19 삼성디스플레이 주식회사 표시장치 및 그 구동 방법
EP3022898B1 (en) 2013-07-19 2020-04-15 Google Technology Holdings LLC Asymmetric sensor array for capturing images
GB201314984D0 (en) 2013-08-21 2013-10-02 Sony Comp Entertainment Europe Head-mountable apparatus and systems
US9158115B1 (en) 2013-09-16 2015-10-13 Amazon Technologies, Inc. Touch control for immersion in a tablet goggles accessory
US9454008B2 (en) 2013-10-07 2016-09-27 Resonance Technology, Inc. Wide angle personal displays
TWI498769B (zh) 2013-11-18 2015-09-01 Quanta Comp Inc 頭戴式顯示裝置及其登入方法
CN107315249B (zh) 2013-11-27 2021-08-17 奇跃公司 虚拟和增强现实系统与方法
US8958158B1 (en) 2013-12-03 2015-02-17 Google Inc. On-head detection for head-mounted display
CA2934528C (en) * 2013-12-17 2022-06-28 Marsupial Holdings Inc. Integrated microoptic imager, processor, and display
US10274731B2 (en) 2013-12-19 2019-04-30 The University Of North Carolina At Chapel Hill Optical see-through near-eye display using point light source backlight
WO2015098334A1 (ja) 2013-12-24 2015-07-02 ソニー株式会社 調光装置、撮像素子及び撮像装置
JP6352426B2 (ja) 2013-12-27 2018-07-04 インテル コーポレイション ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム
WO2015100714A1 (en) 2014-01-02 2015-07-09 Empire Technology Development Llc Augmented reality (ar) system
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
KR102055840B1 (ko) * 2014-02-20 2019-12-17 삼성전자 주식회사 이미지 센서 패키지
KR102291619B1 (ko) 2014-02-26 2021-08-23 삼성디스플레이 주식회사 유기 발광 표시 장치
AU2015227092B2 (en) * 2014-03-05 2019-07-04 Arizona Board Of Regents On Behalf Of The University Of Arizona Wearable 3D augmented reality display
US9568727B2 (en) 2014-03-25 2017-02-14 Amazon Technologies, Inc. Electrowetting display pixel architecture
WO2015144565A1 (en) * 2014-03-26 2015-10-01 Essilor International (Compagnie Generale D'optique) Methods and systems for augmented reality
US9710881B2 (en) 2014-04-05 2017-07-18 Sony Interactive Entertainment America Llc Varying effective resolution by screen location by altering rasterization parameters
US9895057B2 (en) 2014-04-24 2018-02-20 Carl Zeiss Meditec, Inc. Functional vision testing using light field displays
US9843787B2 (en) * 2014-04-24 2017-12-12 Qualcomm Incorporated Generation and use of a 3D radon image
US10171770B2 (en) 2014-05-09 2019-01-01 Maxell, Ltd. Image playback device, display device, and transmission device
JP2017524281A (ja) 2014-05-20 2017-08-24 ユニヴァーシティ オブ ワシントン 媒介現実の外科用視覚化のためのシステム及び方法
US9706910B1 (en) 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
KR102205856B1 (ko) 2014-06-11 2021-01-21 삼성디스플레이 주식회사 센서를 포함하는 유기 발광 표시 장치
CA2952321A1 (en) 2014-06-16 2015-12-23 B.G. Negev Technologies And Applications Ltd., At Ben-Gurion University Swir to visible image up-conversion integrated device
US20160267851A1 (en) 2014-06-17 2016-09-15 Nato Pirtskhlava One Way Display
US9581821B2 (en) 2014-06-24 2017-02-28 Fakespace Labs, Inc. Head mounted augmented reality display
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US9596456B2 (en) 2014-07-16 2017-03-14 Quanta Computer Inc. Head mounted display system
EP3129980B1 (en) 2014-07-18 2021-08-25 Vuzix Corporation Near-eye display with self-emitting microdisplay engine
CN104166259B (zh) 2014-07-30 2017-02-08 京东方科技集团股份有限公司 显示基板及其驱动方法和显示装置
US10739882B2 (en) 2014-08-06 2020-08-11 Apple Inc. Electronic device display with array of discrete light-emitting diodes
JP6501462B2 (ja) 2014-08-08 2019-04-17 キヤノン株式会社 光電変換装置及び光電変換装置の駆動方法
US9465991B2 (en) 2014-08-11 2016-10-11 Microsoft Technology Licensing, Llc Determining lens characteristics
US9626936B2 (en) 2014-08-21 2017-04-18 Microsoft Technology Licensing, Llc Dimming module for augmented and virtual reality
KR102271817B1 (ko) 2014-09-26 2021-07-01 삼성전자주식회사 증강현실을 위한 스마트 콘택렌즈와 그 제조 및 동작방법
GB2532003A (en) * 2014-10-31 2016-05-11 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image
EP3029931A1 (en) * 2014-12-04 2016-06-08 Thomson Licensing Image sensor unit and imaging apparatus
CN105744257B (zh) * 2014-12-08 2018-06-12 北京蚁视科技有限公司 一种光学隐形装置
CN105739093B (zh) * 2014-12-08 2018-02-06 北京蚁视科技有限公司 透过式增强现实近眼显示器
US9824498B2 (en) 2014-12-30 2017-11-21 Sony Interactive Entertainment Inc. Scanning display system in head-mounted display for virtual reality
US10049495B2 (en) 2015-01-14 2018-08-14 Hashplay Inc. System and method for providing virtual reality content
KR102311741B1 (ko) 2015-01-14 2021-10-12 삼성디스플레이 주식회사 머리 장착형 디스플레이 장치
WO2016138428A1 (en) 2015-02-27 2016-09-01 LAFORGE Optical, Inc. Augmented reality eyewear
US9734554B2 (en) 2015-02-27 2017-08-15 Charter Communications Operating, Llc Compensation for viewing with common vision abnormalities
US10290156B2 (en) 2015-03-11 2019-05-14 Facebook Technologies, Llc Display device with dual data drivers
US20160269720A1 (en) 2015-03-11 2016-09-15 Oculus Vr, Llc Flexible substrate display panel and panel geometry for ergonomics
ES2795400T3 (es) 2015-03-17 2020-11-23 Kunshan Yunyinggu Electronic Tech Co Ltd Disposición de subpíxeles para pantallas y circuito de excitación de la misma
WO2016162606A1 (en) 2015-04-08 2016-10-13 Dispelix Oy Optical see-through display element and device utilizing such element
US10085005B2 (en) 2015-04-15 2018-09-25 Lytro, Inc. Capturing light-field volume image and video data using tiled light-field cameras
JP2018524952A (ja) 2015-04-21 2018-08-30 ユニバーシティー オブ ロチェスター クローキングシステム及び方法
US10152906B2 (en) 2015-04-26 2018-12-11 Mems Start, Llc Near-eye display system and method
US9912897B2 (en) 2015-05-11 2018-03-06 Semiconductor Energy Laboratory Co., Ltd. Imaging device and electronic device
EP3294243A4 (en) 2015-05-12 2019-01-02 Agency For Science, Technology And Research A system and method for displaying a video image
CN104795026A (zh) 2015-05-13 2015-07-22 京东方科技集团股份有限公司 全彩有机发光二极管像素的驱动电路及其驱动方法
JP2016225221A (ja) 2015-06-02 2016-12-28 コニカミノルタ株式会社 電界発光素子
US9728143B2 (en) 2015-06-29 2017-08-08 Amazon Technologies, Inc. System and method for driving electrowetting display device
WO2017058322A2 (en) 2015-06-30 2017-04-06 Massachusetts Institute Of Technology Apparatus and methods for augmented reality
KR102593113B1 (ko) 2015-07-03 2023-10-25 에씰로 앙터나시오날 증강 현실을 위한 방법 및 시스템
KR102348760B1 (ko) 2015-07-24 2022-01-07 삼성전자주식회사 이미지 센서 및 그에 따른 신호 처리 방법
CN105093532A (zh) 2015-08-03 2015-11-25 京东方科技集团股份有限公司 虚拟现实眼镜及显示方法
US10437061B2 (en) 2015-08-03 2019-10-08 Facebook Technologies, Llc Near-ocular display based on hologram projection
US20170038607A1 (en) 2015-08-04 2017-02-09 Rafael Camara Enhanced-reality electronic device for low-vision pathologies, and implant procedure
US9983337B2 (en) * 2015-08-07 2018-05-29 Samsung Electronics Co., Ltd. Light emitting diode display apparatus
KR101808852B1 (ko) 2015-08-18 2017-12-13 권혁제 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법
US20170061696A1 (en) 2015-08-31 2017-03-02 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
CN105192982B (zh) 2015-09-07 2018-03-23 北京小鸟看看科技有限公司 可调节式虚拟现实头盔的图像矫正方法和系统
KR20170033462A (ko) 2015-09-16 2017-03-27 삼성디스플레이 주식회사 전자 기기 및 헤드 마운트 디스플레이 장치의 영상 표시 방법
KR102404648B1 (ko) 2015-09-21 2022-05-31 엘지디스플레이 주식회사 표시장치
US20170084231A1 (en) * 2015-09-23 2017-03-23 Intel Corporation Imaging system management for camera mounted behind transparent display
US20170090194A1 (en) 2015-09-24 2017-03-30 Halo Augmented Reality Ltd. System And Method For Subtractive Augmented Reality And Display Contrast Enhancement
WO2017053966A1 (en) 2015-09-24 2017-03-30 Tobii Ab Eye-tracking enabled wearable devices
WO2017059386A1 (en) 2015-09-30 2017-04-06 Daqri, Llc Optical true time delay circuit
KR102521944B1 (ko) * 2015-10-02 2023-04-18 삼성디스플레이 주식회사 머리 탑재형 표시 장치 및 이의 제조 방법
KR102406606B1 (ko) 2015-10-08 2022-06-09 삼성디스플레이 주식회사 유기 발광 소자, 이를 포함하는 유기 발광 표시 장치, 및 이의 제조 방법
US11609427B2 (en) 2015-10-16 2023-03-21 Ostendo Technologies, Inc. Dual-mode augmented/virtual reality (AR/VR) near-eye wearable displays
US10247858B2 (en) * 2015-10-25 2019-04-02 Facebook Technologies, Llc Liquid crystal half-wave plate lens
US10416454B2 (en) * 2015-10-25 2019-09-17 Facebook Technologies, Llc Combination prism array for focusing light
US20170123488A1 (en) 2015-10-28 2017-05-04 Microsoft Technology Licensing, Llc Tracking of wearer's eyes relative to wearable device
US10338677B2 (en) 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
KR102448611B1 (ko) 2015-10-30 2022-09-27 엘지디스플레이 주식회사 유기 발광 표시 장치
KR102516054B1 (ko) 2015-11-13 2023-03-31 삼성디스플레이 주식회사 유기발광표시장치 및 유기발광표시장치의 제조 방법
KR20170061602A (ko) 2015-11-26 2017-06-05 가부시키가이샤 한도오따이 에네루기 켄큐쇼 반도체 장치 및 전자 기기
US10204451B2 (en) 2015-11-30 2019-02-12 Microsoft Technology Licensing, Llc Multi-optical surface optical design
US10445860B2 (en) 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
EP3179334A1 (en) 2015-12-09 2017-06-14 Airbus Defence and Space GmbH Device and method for testing function or use of a head worn see through augmented reality device
KR20170070693A (ko) 2015-12-14 2017-06-22 삼성전자주식회사 이미지 센서
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
US10438410B2 (en) 2015-12-22 2019-10-08 Intel Corporation Text enhancements for head-mounted displays
JP6641987B2 (ja) 2015-12-25 2020-02-05 セイコーエプソン株式会社 虚像表示装置
KR102570950B1 (ko) 2015-12-28 2023-08-25 엘지디스플레이 주식회사 개인 몰입형 장치의 표시장치
JP6607777B2 (ja) 2015-12-28 2019-11-20 ルネサスエレクトロニクス株式会社 半導体装置およびその製造方法
US10241319B2 (en) 2015-12-28 2019-03-26 Amazon Technologies, Inc. Electrowetting display pixels with fluid motion initiator
KR102458645B1 (ko) 2015-12-28 2022-10-25 엘지디스플레이 주식회사 표시장치와 그 구동 방법
US10038033B2 (en) 2015-12-29 2018-07-31 Industrial Technology Research Institute Image sensor
KR102470377B1 (ko) 2015-12-31 2022-11-23 엘지디스플레이 주식회사 개인 몰입형 기기의 표시장치
US9946073B2 (en) 2015-12-31 2018-04-17 Oculus Vr, Llc Methods and systems for eliminating strobing by switching display modes in response to detecting saccades
US10043305B2 (en) 2016-01-06 2018-08-07 Meta Company Apparatuses, methods and systems for pre-warping images for a display system with a distorting optical component
WO2017120660A1 (en) 2016-01-12 2017-07-20 Esight Corp. Language element vision augmentation methods and devices
US9998695B2 (en) * 2016-01-29 2018-06-12 Ford Global Technologies, Llc Automotive imaging system including an electronic image sensor having a sparse color filter array
US9836652B2 (en) 2016-02-02 2017-12-05 International Business Machines Corporation Showing danger areas associated with objects using augmented-reality display techniques
CN105572877B (zh) 2016-02-03 2018-11-09 上海群英软件有限公司 一种头戴式增强现实智能显示装置
EP3442827A4 (en) 2016-04-14 2019-02-20 Gentex Corporation VEHICLE DISPLAY SYSTEM WITH DEEP INFORMATION
US10209070B2 (en) * 2016-06-03 2019-02-19 Nxp Usa, Inc. MEMS gyroscope device
CN109788901B (zh) 2016-07-25 2024-01-02 奇跃公司 光场处理器系统
CN106309089B (zh) 2016-08-29 2019-03-01 深圳市爱思拓信息存储技术有限公司 Vr视力矫正方法及装置
EP3293959A1 (en) 2016-09-07 2018-03-14 Thomson Licensing Plenoptic imaging device equipped with an enhanced optical system
US11160688B2 (en) 2016-11-10 2021-11-02 Samsung Electronics Co., Ltd. Visual aid display device and method of operating the same
US20190057957A1 (en) * 2016-12-21 2019-02-21 PhantaField, Inc. Augmented reality display system
US9977248B1 (en) * 2016-12-21 2018-05-22 PhantaField, Inc. Augmented reality display system
DE102017200112B4 (de) 2017-01-05 2021-03-18 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Erzeugung eines dynamischen Lichtfeldes
US20180269260A1 (en) 2017-01-29 2018-09-20 Emagin Corporation Quantum dot array on directly patterned amoled displays and method of fabrication
CN107260505A (zh) 2017-02-14 2017-10-20 合肥中感微电子有限公司 视力保护方法、装置及具有视力保护功能的vr眼镜
US10163963B2 (en) 2017-04-05 2018-12-25 Semiconductor Components Industries, Llc Image sensors with vertically stacked photodiodes and vertical transfer gates
US10638069B2 (en) 2017-04-07 2020-04-28 Raytheon Company System for and method of configurable line scan array imaging
US10178334B2 (en) 2017-04-07 2019-01-08 Raytheon Company System for and method of configurable diagonal and multi-mission line scan array imaging
US10930709B2 (en) 2017-10-03 2021-02-23 Lockheed Martin Corporation Stacked transparent pixel structures for image sensors
US10249800B1 (en) 2017-10-03 2019-04-02 Lockheed Martin Corporation Stacked transparent pixel structures for electronic displays
US10510812B2 (en) * 2017-11-09 2019-12-17 Lockheed Martin Corporation Display-integrated infrared emitter and sensor structures
US10129984B1 (en) 2018-02-07 2018-11-13 Lockheed Martin Corporation Three-dimensional electronics distribution by geodesic faceting

Also Published As

Publication number Publication date
WO2019156805A1 (en) 2019-08-15
SG11202007478RA (en) 2020-09-29
AU2019218739A1 (en) 2020-08-27
AU2019218739B2 (en) 2021-09-16
JP7489160B2 (ja) 2024-05-23
KR102467346B1 (ko) 2022-11-14
US10838250B2 (en) 2020-11-17
JP2021513112A (ja) 2021-05-20
CN111868926A (zh) 2020-10-30
CA3090660A1 (en) 2019-08-15
KR20200118111A (ko) 2020-10-14
US20190243186A1 (en) 2019-08-08
EP3750183A1 (en) 2020-12-16
EP3750183B1 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
EP3750184B1 (en) Three-dimensional electronics distribution by geodesic faceting
US10690910B2 (en) Plenoptic cellular vision correction
US10594951B2 (en) Distributed multi-aperture camera array
US10866413B2 (en) Eccentric incident luminance pupil tracking
US11146781B2 (en) In-layer signal processing
US10698201B1 (en) Plenoptic cellular axis redirection
ES2953632T3 (es) Sistema de formación imágenes celulares plenópticas
ES2928489T3 (es) Conjuntos de visualización con transparencia emulada electrónicamente
US10951883B2 (en) Distributed multi-screen array for high density display
US11616941B2 (en) Direct camera-to-display system
WO2020101917A1 (en) Plenoptic cellular vision correction