ES2894728T3 - Sistemas y métodos para la regularización de profundidad híbrida - Google Patents

Sistemas y métodos para la regularización de profundidad híbrida Download PDF

Info

Publication number
ES2894728T3
ES2894728T3 ES18756418T ES18756418T ES2894728T3 ES 2894728 T3 ES2894728 T3 ES 2894728T3 ES 18756418 T ES18756418 T ES 18756418T ES 18756418 T ES18756418 T ES 18756418T ES 2894728 T3 ES2894728 T3 ES 2894728T3
Authority
ES
Spain
Prior art keywords
depth
map
image
depth map
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18756418T
Other languages
English (en)
Inventor
Ankit Jain
Priyam Chatterjee
Kartik Venkataraman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fotonation Ltd
Original Assignee
Fotonation Ireland Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fotonation Ireland Ltd filed Critical Fotonation Ireland Ltd
Application granted granted Critical
Publication of ES2894728T3 publication Critical patent/ES2894728T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Sistema de detección de profundidad, que comprende: una pluralidad de cámaras; un procesador; una memoria que contiene una aplicación de procesamiento de imágenes; en el que la aplicación de procesamiento de imágenes dirige el procesador para: obtener datos de imagen para una pluralidad de imágenes desde múltiples puntos de vista utilizando la pluralidad de cámaras, comprendiendo los datos de imagen para la pluralidad de imágenes una imagen de referencia y por lo menos una imagen de vista alternativa; generar un mapa de profundidad en crudo que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen de la imagen de referencia y los datos de imagen de dicha por lo menos una imagen de vista alternativa utilizando un primer proceso de estimación de profundidad y un mapa de confianza que describa la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad en crudo; y generar un mapa de profundidad regularizado mediante: el cálculo de un mapa de profundidad secundario que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando un segundo proceso de estimación de profundidad, en el que el segundo proceso de estimación de profundidad calcula la profundidad utilizando los datos de imagen de la imagen de referencia y los datos de imagen de dicha por lo menos una imagen de vista alternativa, mediante la utilización de una técnica de estimación distinta a la del primer proceso de estimación de profundidad; y el cálculo de un mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y del mapa de profundidad secundario, siendo una estimación de profundidad seleccionada para un píxel de la imagen de referencia del mapa de profundidad en crudo cuando la estimación de profundidad es indicada como fiable por el mapa de confianza.

Description

DESCRIPCIÓN
Sistemas y métodos para la regularización de profundidad híbrida
Campo de la invención
La presente invención se refiere generalmente a la estimación de profundidad de las imágenes y, más concretamente, a sistemas y métodos para la regularización de profundidad híbrida.
Antecedentes
La visión estéreo por ordenador se utiliza en una variedad de contextos para obtener información tridimensional (3D) de una escena utilizando datos de imagen desde dos puntos de vista diferentes. Las aplicaciones de la visión estéreo incluyen elementos de visualización en 3D en entretenimiento, robótica, realidad aumentada y otros contextos para distinguir entre las posiciones de los objetos. Utilizando los principios de paralaje o comparando las posiciones de los objetos dentro de dos vistas diferentes de una escena, puede extraerse información de profundidad relativa para formar un mapa de profundidad que indique las distancias de los objetos de una escena desde un punto de vista.
El documento US 2015/254868 divulga la realización de regularización de profundidad y matificación interactiva semiautomática utilizando imágenes. La aplicación de canalización de procesamiento de imágenes dirige a un procesador para recibir (i) una imagen y (ii) un mapa de profundidad inicial correspondiente a las profundidades de píxeles dentro de la imagen, para regularizar el mapa de profundidad inicial para dar un mapa de profundidad denso que utiliza valores de profundidad de píxeles conocidos para calcular los valores de profundidad de píxeles desconocidos, para determinar un objeto de interés que va a extraerse de la imagen, para generar un trimapa inicial utilizando el mapa de profundidad denso y el objeto de interés que va a extraerse de la imagen y para aplicar matificación de imagen en color a regiones desconocidas del trimapa inicial para generar un mate para la matificación de la imagen.
El documento US 2014/079336 A1 analiza una corrección jerárquica computarizada de artefactos para estéreo multivisión como parte de imágenes de campo luminoso utilizando coincidencia sobre un volumen de coste. Se refinan los valores de profundidad menos seguros. La restauración de imagen de profundidad se realiza en las proximidades, incluido el filtrado bilateral.
Sumario de la invención
Se divulgan sistemas y métodos para la regularización de profundidad híbrida según diversas formas de realización de la invención.
En un aspecto de la invención, se proporciona un sistema de detección de profundidad según la reivindicación 1.
En una forma de realización, el mapa de profundidad compuesto es un primer mapa de profundidad compuesto y la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para generar un mapa de profundidad regularizado calculando un segundo mapa de profundidad compuesto. El segundo mapa de profundidad compuesto se calcula aplicando un filtro de suavizado a las estimaciones de profundidad en el primer mapa de profundidad compuesto; calcular un mapa de bordes utilizando el primer mapa de profundidad compuesto filtrado, en donde el mapa de bordes indica píxeles dentro de la imagen de referencia que forman parte de un borde; y calcular un segundo mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y el primer mapa de profundidad compuesto filtrado, en donde se selecciona una estimación de profundidad para un píxel de la imagen de referencia del mapa de profundidad en crudo cuando el mapa de bordes indica que la estimación de profundidad se refiere a un píxel de la imagen de referencia que forma parte de un borde.
En otra forma de realización, el filtro de suavizado es un filtro de mediana.
En todavía otra forma de realización, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para generar un mapa de profundidad regularizado aplicando un filtro de conservación de bordes al segundo mapa de profundidad compuesto.
En todavía otra realización, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para aplicar un filtro de conservación de bordes a al menos una región del segundo mapa de profundidad compuesto indicado como que contiene una discontinuidad de profundidad por parte del mapa de bordes.
En todavía otra forma de realización, el filtro de conservación de bordes es un filtro bilateral con pesos determinados utilizando el mapa de profundidad en crudo y la imagen de referencia.
En todavía otra forma de realización, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para calcular el segundo mapa de profundidad compuesto aplicando la detección de bordes al primer mapa de profundidad compuesto filtrado para dar como resultado un mapa de profundidad de bordes detectados; y dilatar el mapa de profundidad de bordes detectados para dar como resultado el mapa de bordes.
En otra forma de realización adicional, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para generar un mapa de profundidad regularizado identificando un primer conjunto de bordes en la imagen de referencia; identificar un segundo conjunto de bordes en el mapa de bordes, indicando los conjuntos de bordes primero y segundo regiones con discontinuidades de profundidad; calcular un conjunto de pesos para las zonas del segundo mapa de profundidad compuesto sobre la base de los conjuntos de bordes primero y segundo; y aplicar el filtro de conservación de bordes al segundo mapa de profundidad compuesto utilizando el conjunto de pesos.
En otra forma de realización adicional, la aplicación de procesamiento de imágenes también dirige el procesador para generar un mapa de profundidad en crudo que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen de la imagen de referencia y los datos de imagen para dicha por lo menos una imagen de vista alternativa, y un mapa de confianza que describe la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad, midiendo el paralaje observable entre la imagen de referencia y dicha por lo menos una imagen de vista alternativa.
En otra forma de realización adicional, la aplicación de procesamiento de imágenes también dirige el procesador para estimar la profundidad sobre la base del paralaje medido observable entre la imagen de referencia y al menos una imagen de vista alternativa midiendo el paralaje comparando la similitud de un píxel en la imagen de referencia con píxeles en dicha por lo menos una imagen de vista alternativa determinada sobre la base de una pluralidad de muestras de profundidad utilizando una función de coste; estimar la profundidad del píxel de la imagen de referencia mediante la identificación de la profundidad muestreada a la que la función de coste de un píxel de la imagen de referencia indica que la coincidencia más fuerte es la profundidad estimada del píxel.
En todavía otra forma de realización adicional, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para construir un volumen de coste en la memoria utilizando costes determinados utilizando la función de coste en cada profundidad muestreada.
En todavía otra forma de realización adicional, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para calcular el mapa de profundidad secundario sobre la base del volumen de coste.
En todavía otra forma de realización, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para calcular el mapa de profundidad secundario utilizando un segundo proceso de estimación de profundidad que comprende el submuestreo de la imagen de referencia y el volumen de coste; y estimar las profundidades para forzar transiciones de profundidad suaves dentro del mapa de profundidad secundario en regiones sin textura de la imagen de referencia utilizando el volumen de coste.
En una forma de realización adicional de nuevo, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para calcular el mapa de profundidad compuesto determinando que una estimación de profundidad para un píxel del mapa de profundidad en crudo es fiable cuando un valor de confianza para el píxel del mapa de confianza se encuentra por encima de un umbral.
En otra forma de realización de nuevo, la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para identificar al menos una región correspondiente dentro de la imagen de referencia y dicha por lo menos una imagen de vista alternativa utilizando al menos un criterio; generar imágenes binarias con respecto a la imagen de referencia y dicha por lo menos una imagen de vista alternativa sobre la base de la identificación de al menos una región correspondiente; sustraer versiones desplazadas de la imagen de referencia y dicha por lo menos una imagen de vista alternativa cuando los desplazamientos corresponden a una pluralidad de muestras de profundidad para producir una imagen desplazada y sustraída para cada una de entre la pluralidad de muestras de profundidad; identificar los límites dentro de las imágenes desplazadas y sustraídas; identificar zonas de los límites dentro de las imágenes desplazadas y sustraídas; y determinar las estimaciones de profundidad para píxeles en un límite de una región identificada de la imagen de referencia sobre la base de la muestra de profundidad en la que se minimiza la zona del límite de la imagen desplazada y sustraída.
Según un segundo aspecto, se proporciona un método de detección de profundidad según la reivindicación 11.
En todavía otra forma de realización, el mapa de profundidad compuesto es un primer mapa de profundidad compuesto y generar un mapa de profundidad regularizado comprende además calcular un segundo mapa de profundidad compuesto mediante la aplicación de un filtro de suavizado a las estimaciones de profundidad en el primer mapa de profundidad compuesto; calcular un mapa de bordes utilizando el primer mapa de profundidad compuesto filtrado, donde el mapa de bordes indica píxeles dentro de la imagen de referencia que forman parte de un borde; y calcular un segundo mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y el primer mapa de profundidad compuesto filtrado, donde se selecciona una estimación de profundidad para un píxel de la imagen de referencia del mapa de profundidad en crudo cuando el mapa de bordes indica que la estimación de profundidad se refiere a un píxel de la imagen de referencia que forma parte de un borde.
En todavía una forma de realización adicional de nuevo, el filtro de suavizado es un filtro de mediana.
En todavía otra forma de realización de nuevo, generar un mapa de profundidad regularizado comprende además la aplicación de un filtro de conservación de bordes al segundo mapa de profundidad compuesto.
En otra forma de realización adicional de nuevo, el método de detección de profundidad comprende además la aplicación de un filtro de conservación de bordes a al menos una región del segundo mapa de profundidad compuesto indicado como que contiene una discontinuidad de profundidad por parte del mapa de bordes.
En otra forma de realización adicional de nuevo, el filtro de conservación de bordes es un filtro bilateral con pesos determinados utilizando el mapa de profundidad en crudo y la imagen de referencia.
En otra forma de realización adicional de nuevo, la generación de un mapa de profundidad regularizado comprende además la identificación de un primer conjunto de bordes en la imagen de referencia; identificar un segundo conjunto de bordes en el mapa de bordes, indicando los conjuntos de bordes primero y segundo regiones con discontinuidades de profundidad; calcular un conjunto de pesos para las zonas del segundo mapa de profundidad compuesto sobre la base de los conjuntos de bordes primero y segundo; y aplicar el filtro de conservación de bordes al segundo mapa de profundidad compuesto utilizando el conjunto de pesos.
En todavía otra forma de realización adicional de nuevo, generar un mapa de profundidad en crudo que contenga estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen de la imagen de referencia y los datos de imagen para al menos una imagen de vista alternativa, y un mapa de confianza que describe la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad, comprende además la medición del paralaje observable entre la imagen de referencia y al menos una imagen de vista alternativa.
En todavía otra forma de realización adicional de nuevo, el método de detección de profundidad comprende además la estimación de profundidad sobre la base del paralaje medido observable entre la imagen de referencia y dicha por lo menos una imagen de vista alternativa midiendo el paralaje comparando la similitud de un píxel en la imagen de referencia con los píxeles en dicha por lo menos una imagen de vista alternativa determinada sobre la base de una pluralidad de muestras de profundidad utilizando una función de coste; y estimar la profundidad del píxel de la imagen de referencia identificando la profundidad muestreada a la que la función de coste de un píxel de la imagen de referencia indica que la coincidencia más fuerte es la profundidad estimada del píxel.
En todavía otra forma de realización de nuevo, el método de detección de profundidad comprende además la generación de volúmenes de coste utilizando los costes determinados utilizando la función de coste en cada profundidad muestreada.
En una forma de realización adicional, el método de detección de profundidad comprende además calcular el mapa de profundidad secundario sobre la base del volumen de coste.
En otra forma de realización, calcular el mapa de profundidad secundario utilizando un segundo proceso de estimación de profundidad comprende submuestrear la imagen de referencia y el volumen de coste; y estimar las profundidades para forzar transiciones de profundidad suaves dentro del mapa de profundidad secundario en regiones sin textura de la imagen de referencia utilizando el volumen de coste.
En todavía una forma de realización adicional, calcular el mapa de profundidad compuesto comprende además determinar que una estimación de profundidad para un píxel del mapa de profundidad en crudo es fiable cuando un valor de confianza para el píxel del mapa de confianza se encuentra por encima de un umbral.
En todavía otra forma de realización, el cálculo del segundo mapa de profundidad compuesto comprende además la aplicación de detección de bordes al primer mapa de profundidad compuesto filtrado para dar como resultado un mapa de profundidad de bordes detectados; y dilatar el mapa de profundidad de bordes detectados para dar como resultado el mapa de bordes.
En todavía otra forma de realización adicional, el método de detección de profundidad comprende además la identificación de al menos una región correspondiente dentro de la imagen de referencia y dicha por lo menos una imagen de vista alternativa utilizando al menos un criterio; generar imágenes binarias con respecto a la imagen de referencia y dicha por lo menos una imagen de vista alternativa sobre la base de la identificación de al menos una región correspondiente; sustraer versiones desplazadas de la imagen de referencia y dicha por lo menos una imagen de vista alternativa cuando los desplazamientos corresponden a una pluralidad de muestras de profundidad para producir una imagen desplazada y sustraída para cada una de la pluralidad de muestras de profundidad; identificar límites dentro de las imágenes desplazadas y sustraídas; identificar zonas de los límites dentro de las imágenes desplazadas y sustraídas; y determinar las estimaciones de profundidad para píxeles en un límite de una región identificada de la imagen de referencia sobre la base de la muestra de profundidad en la que se minimiza la zona del límite de la imagen desplazada y sustraída.
Breve descripción de los dibujos
Las figuras 1A-B ilustran una imagen y un mapa de profundidad correspondiente.
La figura 2 ilustra un diagrama conceptual de un método de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 3 es un diagrama de flujo que ilustra un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4A muestra una imagen de referencia después de las fases de normalización en una implementación de un proceso de regularización de profundidad híbrida según una forma de realización de la invención. La figura 4B muestra un mapa de profundidad en crudo desde una fase de paralaje en una implementación de un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4C muestra un mapa de confianza binario desde una fase de paralaje en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4D muestra un mapa de profundidad con estimaciones de profundidad secundarias que utiliza la coincidencia semiglobal (SGM) en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4E muestra un primer mapa de profundidad compuesto en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4F muestra un mapa de profundidad con filtrado de mediana en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4G muestra un mapa de bordes binario de las discontinuidades de profundidad en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4H muestra un segundo mapa de profundidad compuesto en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 4I muestra un mapa de profundidad regularizado final en un proceso de regularización de profundidad híbrida según una forma de realización de la invención.
La figura 5A es un diagrama de flujo que ilustra un proceso para calcular un primer mapa de profundidad compuesto según una forma de realización de la invención.
La figura 5B es un diagrama de flujo que ilustra un proceso para obtener estimaciones de profundidad fiables en los límites de las regiones planas que pueden estar parcialmente ocluidas según una forma de realización de la invención.
La figura 5C es un diagrama de flujo que ilustra un proceso para obtener estimaciones de profundidad fiables en regiones ocluidas de datos de imágenes a partir de un conjunto de cámaras según una forma de realización de la invención.
La figura 5D muestra un ejemplo de división de dirección según una forma de realización de la invención. La figura 5E muestra una imagen captada según una forma de realización de la invención.
La figura 5F muestra un mapa de profundidad en crudo y un mapa de profundidad regularizado para la imagen captada de la figura 5E, utilizando una técnica de SGM genérica según una forma de realización de la invención. La figura 5G muestra un mapa de profundidad en crudo y un mapa de profundidad regularizado para la imagen captada de la figura 5E, utilizando SGM con manipulación de oclusión según una forma de realización de la invención.
La figura 6 es un diagrama de flujo que ilustra un proceso para calcular un segundo mapa de profundidad compuesto según una forma de realización de la invención.
La figura 7 es un diagrama de flujo que ilustra otro proceso para calcular un segundo mapa de profundidad compuesto según una forma de realización de la invención.
La figura 8 es un diagrama de flujo que ilustra un proceso para crear un mapa de profundidad regularizado según una forma de realización de la invención.
La figura 9 ilustra conceptualmente un sistema que incluye sistemas de procesamiento de imágenes configurados para llevar a cabo la regularización de profundidad híbrida según una forma de realización de la invención.
La figura 10 ilustra conceptualmente un sistema de procesamiento de imágenes configurado para llevar a cabo la regularización de profundidad híbrida según una forma de realización de la invención.
Descripción detallada
Ahora, haciendo referencia a los dibujos, se ilustran sistemas y métodos para la regularización de profundidad híbrida según diversas formas de realización de la invención. En varias aplicaciones, es conveniente que los elementos de visualización en 3D se compongan en tiempo real. Como ejemplo y no a modo de limitación, la realidad aumentada (RA) puede utilizarse para proporcionar vídeo, gráficos y/o sonido generados por ordenador en el contexto de un entorno físico del mundo real. La RA puede utilizarse para entretenimiento, tal como, pero sin limitarse a juegos, y puede emplear una o diversas tecnologías de visualización, tales como elementos de visualización montados en la cabeza, monitores y/o dispositivos de mano. A efectos de RA en directo, los datos de profundidad correspondientes para una escena también deben calcularse en tiempo real para proporcionar la información pertinente para componer elementos de visualización en 3D. Sin embargo, los datos de profundidad utilizados para aplicaciones en tiempo real suelen ser ruidosos y menos que precisos.
La regularización es una técnica mediante la cual se imponen restricciones a un modelo computacional, sobre la base de información secundaria o anterior, para resolver una variable en el modelo a partir de un conjunto de mediciones ruidosas o incompletas. En concreto, en el caso de la estimación de profundidad a partir de un sistema estéreo pasivo, las mediciones de paralaje solo pueden estar bien definidas en presencia de características inequívocas. Los patrones periódicos de manera espacial o las regiones sin textura están mal planteados porque un número posiblemente grande de disparidades podría producir la reducción del coste de una búsqueda de correspondencia local. Las superficies no lambertianas, las oclusiones y las características de lente que varían de manera espacial, entre muchos otros factores, también pueden introducir errores en las estimaciones de profundidad obtenidas observando el paralaje evidente en múltiples imágenes de una escena. La regularización de profundidad busca mitigar el ruido y los errores en la estimación de paralaje resultante tanto de las características de la escena como del sistema.
En muchas formas de realización de la invención, los procesos para mejorar la calidad del mapa de profundidad son capaces de realizarse en tiempo real y, por ejemplo, pueden ejecutarse a velocidades de hasta y superando 25 fotogramas/segundo en un procesador móvil en modo de baja potencia. En una serie de formas de realización de la invención, los procesos de regularización de profundidad emplean un híbrido de regularización de profundidad (que tradicionalmente optimiza todos los píxeles simultáneamente) y diversas técnicas de filtrado adicionales basadas en las características de diferentes regiones de una escena para aumentar la eficacia computacional. En una serie de formas de realización, las regiones dentro de una escena se clasifican en diferentes tipos de regiones y se tratan utilizando técnicas específicas de región, y solo procesándose determinadas regiones utilizando técnicas de regularización de profundidad computacionalmente intensivas. Las funciones de coste, filtros y parámetros analizados en la presente memoria son ejemplos particulares, y el alcance de la invención no se limita a estas limitaciones particulares. Los sistemas y métodos para realizar la regularización de profundidad híbrida según diversas formas de realización de la invención se comentan a continuación.
Procesos para realizar la regularización de profundidad híbrida
Un mapa de profundidad es un canal de imagen o una imagen que contiene información relativa a las distancias desde un punto de vista hasta las superficies de objetos visibles dentro de una escena. A modo de ejemplo, se muestra una imagen en la figura 1A con su mapa de profundidad correspondiente que se muestra en la figura 1B. Si bien gran parte del siguiente análisis implica correspondencia entre una imagen en color y un mapa de profundidad, los datos de imagen pueden adquirirse con el único fin de obtener datos de profundidad. Por consiguiente, los procesos de regularización de profundidad híbrida según muchas formas de realización de la invención generan mapas de profundidad para los que no se genera ninguna imagen en color correspondiente. El mapa de profundidad de la figura 1B indica las distancias a diversos objetos de la escena y del fondo. Existen diversos sistemas de obtención de imágenes que emplean conjuntos de dos o más cámaras que son capaces de captar datos de imagen de la luz visible y/o del espectro infrarrojo cercano y producir un mapa de profundidad correspondiente que incluye (pero no se limita a) los sistemas de conjuntos de cámaras descritos en la publicación de patente estadounidense n.° 2016/0309134 titulada “Multi-Baseline Camera Array System Architecture for Depth Augmentation in VR/AR Applications”, de Venkataraman et al., y la publicación de patente estadounidense n.° 2011/0069189 titulada “Capturing and Processing of Images Using Monolithic Camera Array with Heterogeneous Imagers”, de Venkataraman et al.
Se utilizan procesos para la regularización de profundidad híbrida según muchas formas de realización de la invención para mejorar la precisión de los mapas de profundidad. En muchas formas de realización, los procesos de regularización de profundidad híbrida son capaces de ejecutarse en tiempo real para proporcionar información de profundidad con una variedad de fines, que incluyen (pero no se limitan a) la vista previa de imágenes generadas mediante fusión y/u otras técnicas de obtención de imágenes computacionales, y/o la generación de interfaces de usuario para elementos de visualización de realidad aumentada y realidad mixta. Los procesos de regularización de profundidad similares a los descritos en la publicación de patente estadounidense n.° 2015/0091900 titulada “Systems and Methods for Depth-Assisted Perspective Distortion Correction”, de Yang et al., estiman la profundidad globalmente, aumentando una función de coste de correlación con una homogeneidad previa y otras restricciones, y resolviendo el problema de optimización resultante para todos los píxeles simultáneamente. En situaciones con determinadas limitaciones de ancho de banda y memoria computacionales, este enfoque puede no resultar práctico. Además, los diferentes componentes de un conjunto de chips móvil, tal como el procesador de señal digital/de imagen (DSP/ISP), la unidad central de procesamiento (CpU) o la unidad de procesamiento gráfico (GPU), pueden ser más adecuados para diferentes tareas y disponer de diversos recursos para realizar distintos módulos de un proceso general.
La figura 2 ilustra un diagrama conceptual de un método de regularización de profundidad híbrida 200 con entradas y salidas, según una forma de realización de la invención. Cada una de las tres fases 210, 220 y 230, representadas por una hilera en el diagrama, trata los píxeles de una escena con características similares. Según determinadas formas de realización de la invención, la primera fase 210 determina profundidades para regiones sin textura en una imagen (es decir, regiones que no poseen rasgos distintivos). En la segunda fase 220, se elimina el ruido del mapa de profundidad resultante y se detectan discontinuidades de profundidad. Finalmente, en la tercera fase 230, los bordes detectados en profundidad se procesan para que sean coherentes con los bordes de imagen.
En una serie de formas de realización de la invención, las fases pueden ejecutarse secuencialmente en lugar de en paralelo para una calidad de mapa de profundidad relativamente mejor. A modo de ejemplo y no a modo de limitación, la utilización de la salida de la primera fase 210 en la segunda fase 220 puede dar como resultado un mejor rendimiento que requiera menos etapas, menos parametrización y reducción de la tasa de falsas alarmas de detección de discontinuidad de profundidad. Estos beneficios, a su vez, pueden reducir los cálculos requeridos en la tercera fase 230, que puede considerarse una parte computacionalmente intensiva del proceso.
En la figura 3, se muestra un diagrama de flujo que ilustra un proceso de regularización de profundidad híbrida 300 según otra forma de realización de la invención. El proceso 300 incluye la obtención (302) de datos de imagen que describen una imagen captada desde múltiples puntos de vista, tal como mediante una configuración estéreo de cámaras. Los datos de imagen pueden incluir una imagen de referencia, un mapa de profundidad en crudo y un mapa de confianza. Habitualmente, la imagen de referencia es una imagen captada desde uno de los múltiples puntos de vista (a diferencia de una imagen sintetizada desde un punto de vista virtual), calculándose el mapa de profundidad en crudo y el mapa de confianza basándose en los principios del paralaje. El mapa de profundidad describe la distancia desde un punto de vista dado hasta superficies de objetos visibles dentro de los datos de imagen y el mapa de confianza describe la intensidad de las predicciones de profundidad en el mapa de profundidad en crudo. En diversas formas de realización, los datos de imagen pueden estar contenidos dentro de un archivo de imagen similar a cualquiera de los formatos de archivo de imagen descritos en la patente estadounidense 8.542.933 titulada “Systems and Methods for Decoding Light Field Image Files” de Venkataraman et al. En otras formas de realización, puede utilizarse cualquiera de las diversas técnicas para almacenar datos de imágenes según sea apropiado en función de los requisitos de aplicaciones específicas. En las figuras 4a-c se muestran ejemplos de una imagen de referencia 400, un mapa de profundidad en crudo 410 y un mapa de confianza 420.
En la primera fase del proceso 300, pueden obtenerse estimaciones de profundidad para las regiones sin textura de la imagen. Puede calcularse (304) un primer mapa de profundidad compuesto 440 tal como el que se muestra en la figura 4E sobre la base del mapa de profundidad en crudo 410 y en las estimaciones de profundidad secundarias, tal como en el mapa 430 que se muestra en la figura 4D para la imagen de referencia 400, utilizando el mapa de confianza 420. En muchas formas de realización, las estimaciones de profundidad secundarias se generan utilizando los costes de coincidencia utilizados en la generación del primer mapa de profundidad (a menudo denominado volumen de coste) para generar estimaciones de profundidad sometidas a una restricción de coherencia. En una serie de formas de realización, las estimaciones de profundidad secundarias priorizan la homogeneidad en las transiciones de disparidad. En otras formas de realización, puede utilizarse cualquiera de una variedad de procesos para generar estimaciones de profundidad secundarias que han aumentado la confianza en las regiones sin textura. En la segunda fase del proceso 300, puede calcularse (306) un segundo mapa de profundidad compuesto 470 tal como el que se muestra en la figura 4H sobre la base del primer mapa de profundidad compuesto 440. Esto puede realizarse utilizando un filtro de mediana que da como resultado un mapa con filtrado de mediana 450, tal como el que se muestra en la figura 4F, y un mapa de bordes 460 tal como el que se muestra en la figura 4G sobre la base de la detección de bordes. Por último, en la tercera fase del proceso 300, puede crearse (308) un mapa de profundidad regularizado 480 tal como el que se muestra en la figura 4I aplicando un filtro bilateral al segundo mapa de profundidad compuesto 470 en regiones con discontinuidades de profundidad identificadas utilizando la imagen de referencia 400 y el mapa de bordes 460. Las figuras 4A-I muestran posibles entradas y salidas para un proceso de regularización de profundidad híbrida según una forma de realización de la invención, pero actúan simplemente como ejemplo y no pretenden limitar el alcance de la invención. Tal como se indicó anteriormente, puede utilizarse una imagen de referencia durante la regularización de profundidad híbrida y luego descartarse antes de emitir un mapa de profundidad regularizado. Los resultados específicos de los procesos de regularización de profundidad híbrida según diversas formas de realización de la invención dependen en gran medida de los requisitos de una aplicación dada. En las siguientes secciones se describen más detalles de los procesos que pueden realizarse en diversas fases según una serie de formas de realización.
Aunque los procesos específicos se describen anteriormente para la regularización de profundidad híbrida con referencia a las figuras 1A-B a 4A-I, puede utilizarse cualquiera de una variedad de procesos para mejorar la calidad de mapa de profundidad en tiempo real según las formas de realización de la invención. Los procesos para la primera fase de un proceso de regularización de profundidad híbrida según formas de realización de la invención se comentan a continuación.
Fase 1: Regiones planas
La responsabilidad de la primera fase del proceso de regularización de profundidad híbrida según muchas formas de realización de la invención es obtener estimaciones de profundidad para las grandes regiones sin textura de la imagen. En muchas regiones, en donde faltan datos fiables y proximidad a estimaciones de profundidad fiables, un enfoque global puede resultar muy adecuado para esta fase.
En la primera fase de regularización de profundidad híbrida según una forma de realización de la invención, puede calcularse un primer mapa de profundidad compuesto utilizando el proceso 500 que se muestra en la figura 5A. Cuando el mapa de profundidad en crudo incluye estimaciones de profundidad iniciales y el mapa de confianza incluye valores de confianza para las estimaciones de profundidad iniciales, puede determinarse (502) si el valor de confianza para la estimación de profundidad inicial de un píxel se encuentra por encima de un umbral. El umbral puede estar predeterminado y puede ajustarse según los requisitos específicos de una aplicación. Cuando el valor de confianza se encuentra por encima del umbral, puede seleccionarse (504) la estimación de profundidad inicial para el píxel. Cuando el valor de confianza no se encuentra por encima del umbral, puede seleccionarse (506), en su lugar, una estimación de profundidad secundaria para el píxel.
Las estimaciones de profundidad secundarias pueden calcularse utilizando uno o más de una variedad de procesos. En algunas formas de realización de la invención, los datos de imagen incluyen un volumen de coste que indica valores de coste coincidentes de píxeles durante la etapa de paralaje, y las estimaciones de profundidad secundarias pueden calcularse sobre la base de la imagen de referencia y el volumen de coste. En este contexto, el término volumen de coste hace referencia a las métricas de similitud (también denominadas costes) de cada píxel en cada muestra de profundidad tenida en consideración para ese píxel. Se genera un mapa de profundidad habitual sobre la base del coste de cada píxel que indica la mejor coincidencia. El volumen de coste proporciona información sobre otras profundidades para las que un píxel tenía funciones de coste similares. En una región plana, es probable que el volumen de coste indique una serie de profundidades a las que se observan píxeles similares desde un punto de vista alternativo. Es probable que una ubicación de píxel para la que se determina la profundidad con alta confianza tenga una única profundidad a la que la métrica coincidente sea significativamente más fuerte que en otras profundidades muestreadas durante el proceso de estimación de profundidad inicial.
En determinadas formas de realización, las estimaciones de profundidad secundarias se obtienen utilizando versiones submuestreadas de los datos de imagen para aumentar la eficacia. Pueden emplearse diversos enfoques para calcular las estimaciones de profundidad secundarias. A modo de ejemplo y no a modo de limitación, uno de tales enfoques es la técnica de coincidencia semiglobal (SGM), tal como se comenta en H. Hirschmuller, “Accurate and efficient stereo processing by semi-global matching and mutual information”, en Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), (Washington, DC, EE. UU.), páginas 807-814, IEEE Computer Society, 2005. Este método utiliza una serie de optimizaciones unidimensionales en lugar de resolver un problema bidimensional totalmente global con el fin de economizar el cálculo.
Con el fin de rellenar las regiones planas de la escena, en algunas formas de realización de la invención, puede realizarse SGM con submuestreo, tal como (pero no limitado a) 1/16 de la resolución de la cámara (submuestreo 4x en cada dirección), para reducir adicionalmente la cantidad de cálculo que implica rellenar estas regiones. El volumen de coste de la etapa de paralaje de la tubería y la imagen de referencia normalizada pueden someterse a submuestreo y procesarse mediante la técnica SGM. El mapa de profundidad resultante puede ampliarse utilizando interpolación próxima más cercana. La salida de SGM resultante puede actuar como un conjunto de estimaciones de profundidad secundarias. Tal como se señaló anteriormente, el proceso forma un mapa de profundidad compuesto al determinar si se utiliza una estimación de profundidad secundaria producida a través de un proceso tal como (pero no limitado a) SGM o la estimación de profundidad original a partir del mapa de profundidad en crudo sobre la base de un criterio que incluye (pero no se limita a) el valor de confianza de la estimación de profundidad que supera un nivel de confianza umbral. Cuando una estimación de profundidad en crudo para un píxel particular presenta una alta medida de confianza asociada, normalmente, se utiliza ese valor inicial. En otras regiones, las estimaciones de SGM pueden considerarse más fiables. Este primer mapa de profundidad compuesto puede actuar como una entrada a la segunda fase del proceso de regularización de profundidad híbrida. Aunque la utilización de SGM para generar estimaciones secundarias puede ser eficaz para lograr regularización de profundidad en tiempo real a altas velocidades de fotograma, puede utilizarse cualquiera de una variedad de técnicas para producir estimaciones de profundidad para píxeles en el mapa de profundidad en crudo que presentan estimaciones de profundidad en crudo determinadas con un bajo nivel de confianza. Por ejemplo, los procesos de regularización de profundidad híbrida según muchas formas de realización de la invención utilizan un enfoque con base en laplaciano similar al enfoque descrito en la publicación de patente estadounidense n.° 2015/0254868 titulada “System and Methods for Depth Regularization and Semiautomatic Interactive Matting Using RGB-D Images”, de Srikanth et al.
Un problema que puede encontrarse al intentar determinar estimaciones de profundidad fiables para regiones planas o sin textura es que enfoques tales como SGM y/o enfoques laplacianos se basan en estimaciones de profundidad fiables en los bordes de las regiones sin textura. Cuando una región sin textura forma parte del primer plano de una imagen, las estimaciones de profundidad en los bordes de la región sin textura suelen ser suficientemente fiables. Cuando una región sin textura se ubica detrás de un objeto de primer plano, entonces una parte de la región sin textura puede no ser visible en todas las imágenes de la escena utilizadas para generar una estimación de profundidad. El problema puede ser particularmente grave cuando el mapa de profundidad en crudo se estima a partir de un pequeño número de cámaras, tal como un par estéreo. Cuando se estima la profundidad utilizando un único par de imágenes, una parte de la región sin textura que es visible en la imagen de referencia puede no ser visible en la segunda imagen (a menudo denominada imagen de vista alternativa) debido a la oclusión de un objeto de primer plano. Cuando una región de la imagen de referencia se ocluye en la imagen de vista alternativa, las estimaciones de profundidad para esa región de la imagen de referencia no son fiables, ya que una región correspondiente no existe en la imagen de vista alternativa. Por consiguiente, un proceso que intenta estimar la profundidad en regiones planas utilizando estimaciones de profundidad de una región ocluida (es decir, una región que no es visible en una imagen/imágenes de vista alternativa) probablemente propague los errores de la región ocluida a al menos algunas de las estimaciones de profundidad generadas para el resto de la región plana. En diversas formas de realización, las regiones ocluidas se identifican y las estimaciones de profundidad de las regiones ocluidas se excluyen del proceso utilizado para generar las estimaciones de profundidad secundarias. De este modo, pueden ignorarse las estimaciones de profundidad muy poco fiables, aumentando la precisión de un mapa de profundidad compuesto producido utilizando las estimaciones de profundidad fiables a partir del mapa de profundidad en crudo y las estimaciones de profundidad secundarias.
En diversas formas de realización, pueden identificarse partes de regiones planas que se ocluyen y pueden obtenerse estimaciones de profundidad fiables para las partes de las regiones planas que se ocluyen mediante la forma de realización de un proceso de estimación de profundidad adicional tal como el que se muestra en la figura 5B. En una serie de formas de realización, el proceso de estimación de profundidad implica identificar regiones planas y entonces determinar la disparidad entre las regiones planas identificadas comparando las ubicaciones de las regiones planas en la imagen de referencia y al menos una imagen de vista alternativa. Tal como se señaló anteriormente, las regiones planas que son superficies de objetos de primer plano presentarán formas similares en imágenes de referencia y de vista alternativa (las fuentes de variación pueden incluir, pero no se limitan a la curvatura de las superficies, lo que da como resultado diferentes cascos visuales). Cuando un objeto de primer plano ocluye parcialmente una región plana, las regiones planas presentarán formas diferentes en cada una de las imágenes. En muchas formas de realización, los píxeles que forman una región plana ocluida pueden utilizarse para generar una máscara binaria para cada una de las imágenes de referencia y de vista alternativa. Sustraer la imagen de referencia y una imagen de vista alternativa con distintos desplazamientos de disparidad producirá una imagen binaria que muestra la medida en que las regiones planas no se superponen en cada desplazamiento de disparidad (es decir, cada profundidad que se muestrea). Cuando el desplazamiento (es decir, la profundidad que se muestrea) corresponde a la profundidad real de la región plana dentro de la escena, se reducirán las regiones que no se superponen. La presencia de oclusiones significa que las regiones planas presentan formas diferentes. Por tanto, las regiones no superpuestas se reducirán al mínimo a la profundidad real de la región plana, pero probablemente no se eliminarán por completo. Al aproximarse a la profundidad real de la región plana, las regiones no superpuestas formarán límites en los bordes de las regiones planas. En diversas formas de realización, las estimaciones de profundidad en múltiples límites de una región plana se obtienen determinando los desplazamientos de disparidad que minimizan las partes no superpuestas del límite en cada uno de los bordes. Los bordes pueden determinarse explorando a lo largo de la dirección del desplazamiento para identificar distintas regiones no superpuestas separadas por una región superpuesta dentro de la imagen sustraída. De esta forma, el proceso puede determinar estimaciones de profundidad fiables en los límites de las regiones planas que no presentan profundidades uniformes.
En la figura 5B se ilustra un proceso para determinar estimaciones de profundidad fiables en los bordes de una región plana visible en una imagen de referencia y que puede estar parcialmente ocluida en una imagen de vista alternativa. El proceso 550 incluye identificar (555) la(s) región/regiones plana(s) de cada una de la imagen de referencia y la imagen de vista alternativa y, a continuación, generar (557) máscaras binarias para las regiones planas identificadas en cada una de las imágenes de referencia y de vista alternativa. Se realiza una comparación en cada una de una pluralidad de desplazamientos de disparidad (correspondientes a muestras de profundidad discretas) que implican sustraer (560) las máscaras binarias desplazadas de las imágenes de referencia y de vista alternativa. El número de píxeles que no se superponen en cada límite puede entonces determinarse (565) en cada desplazamiento de disparidad.
En diversas formas de realización, las imágenes de referencia y de vista alternativa se rectifican de modo que las hileras de las imágenes de referencia y de vista alternativa correspondan a líneas epipolares entre las dos cámaras que captaron las imágenes. Cuando se rectifica de esta forma, el número de píxeles no superpuestos asociados con un límite puede determinarse sumando los píxeles no superpuestos de cada columna. Los bordes pueden identificarse sobre la base de las columnas que incluyen un número de píxeles por debajo de un umbral. Por consiguiente, puede sumarse el número total de píxeles no superpuestos en columnas adyacentes que constituyen un borde. El desplazamiento de disparidad en el que se minimiza la suma puede utilizarse como una estimación de profundidad fiable para los píxeles situados en el borde de la región plana. En otras formas de realización, el número de píxeles no superpuestos correspondientes a un borde de una región plana puede determinarse de una variedad de formas apropiadas a los requisitos de una aplicación dada.
Haciendo referencia de nuevo al proceso 550 que se muestra en la figura 5B, las estimaciones de profundidad para los píxeles en los bordes de la región plana de la imagen de referencia pueden determinarse sobre la base del desplazamiento de disparidad que produce la suma más pequeña de los píxeles no superpuestos en el borde de la región plana. Estas estimaciones de profundidad pueden utilizarse entonces para modificar (570) estimaciones de profundidad del mapa de profundidad en crudo antes de generar (575) las estimaciones de profundidad secundarias de una manera similar a los procesos descritos anteriormente.
Aunque los procesos específicos para obtener estimaciones de profundidad fiables en los bordes de las regiones planas se describen anteriormente con referencia a la figura 5B, cualquiera de una variedad de procesos que determinan estimaciones de profundidad fiables pueden utilizarse entonces como semillas para determinar estimaciones de profundidad para otros píxeles dentro de una región plana (incluidos los procesos que implican la utilización de imágenes de reducción de muestra) pueden utilizarse según sea apropiado en función de los requisitos de una aplicación dada.
En diversas formas de realización de la invención, la técnica de SGM puede modificarse para manipular oclusiones con conjuntos de cámaras, que incluyen tres o más cámaras, dividiendo el conjunto en grupos de cámaras y calculando un volumen de coste independiente para cada grupo, en donde se incluye una cámara de referencia en todos los grupos. Para cada grupo, puede calcularse un volumen de coste con respecto a la medida en que coinciden los píxeles de diferentes imágenes a diferentes profundidades desde el punto de vista de la cámara de referencia. Mediante la utilización de SGM, los costes pueden agregarse para cada volumen de coste en un subconjunto de direcciones sobre la base de la disposición de las cámaras de cada grupo de cámaras. Por ejemplo, si la mitad izquierda de un conjunto se utiliza como un grupo de cámaras, entonces los costes pueden agregarse a partir de direcciones que se originan en el lado izquierdo de un píxel. Una vez agregados los costes para cada grupo de cámaras, pueden combinarse los volúmenes de coste agregados. Esto puede realizarse utilizando diversos métodos, tales como (pero no limitados a) determinar el coste mínimo de cada grupo de cámaras para cada píxel y nivel de profundidad, o de manera no lineal sumando los costes coincidentes de cada grupo de cámaras si se encuentran por debajo de un umbral determinado y tomando el mínimo de lo contrario.
En SGM, cuando el término de datos o el volumen de coste coincidente de paralaje para el píxel x a la profundidad d (siendo x el índice posicional en 2D de un píxel y siendo d el índice de profundidad o disparidad), puede indicarse mediante
C(x, d)
y el término anterior, u homogeneidad de profundidad en píxeles con intensidades similares, puede indicarse mediante
Figure imgf000010_0001
en donde yeN(x) indica la proximidad de x, y
( í ,q es verdadero
T(q) = {0,q es falso
el término de función de coste global se indica mediante
Figure imgf000011_0001
La figura 5C muestra un proceso para obtener estimaciones de profundidad fiables en regiones ocluidas de datos de imágenes a partir de un conjunto de cámaras según una forma de realización de la invención. El proceso 580 incluye el procesamiento de oclusión realizado en dos etapas principales, que incluyen el cálculo de coste de coincidencia de paralaje y la estimación de profundidad densa a través de SGM. En la primera etapa, para aumentar la probabilidad de que el volumen de coste de coincidencia de paralaje proporcione información útil en zonas de oclusión, el conjunto de cámaras puede subdividirse (582) en dos grupos Gi y G2 con respecto a una cámara de referencia. Entonces, pueden calcularse (584) dos costes de coincidencia respectivos (C1 y C2), en donde
Figure imgf000011_0002
en donde 5n(d) indica el desplazamiento inducido por paralaje para la cámara n a la profundidad d.
Pueden determinarse (586) los pesos para cada profundidad como
Ci(x,d) < y ( / re/(x)),V i
C¿(x, d) = min(C,(x,d))
Figure imgf000011_0003
i 1
0, de lo contrario
en donde bi es la línea base más grande del subgrupo Gi e y es un umbral basado en la intensidad Iref(x) del píxel de referencia en x.
Entonces, puede obtenerse (588) el volumen de coste final como
en donde a 1 a2 = 1.
En muchas formas de realización de la invención, SGM puede emplearse entonces para manipular oclusiones utilizando división de dirección. En la versión genérica de SGM, se suman las energías de todas las direcciones. A modo de ejemplo y no a modo de limitación, suponiendo que existen ocho direcciones 0-7,
7
E(x,d) = ^ Ek(x,d)
k = 0
en donde
d(x) = argm d in£'(x,d).
Con la división de dirección según algunas formas de realización de la invención, la técnica de SGM puede modificarse para agregar (590) costes para un subconjunto de direcciones correspondientes a grupos de cámaras, y entonces combinar (592) los volúmenes de coste agregados. A modo de ejemplo y no a modo de limitación, suponiendo que existen ocho divisiones de dirección 0-7 tales como las que se muestran en la figura 5D, en donde D0 = {0 ,1 ,2 ,3 ,4 }
Di = {0,4,5, 6,7}
la energía mínima puede elegirse entre D0y D1. Por tanto,
El(x,d) = ^ Ek(x,d)
kED ¿
en donde
E(x,d) = m in£í(x,(i)
i
d(x) = argmin£'(xJíi)
d
Aunque el análisis anterior supone la utilización de SGM en 8 direcciones, tal como puede apreciarse fácilmente, puede utilizarse cualquier número de direcciones y las direcciones divididas de una manera apropiada con respecto a las ubicaciones relativas de las cámaras dentro de un conjunto de cámaras. En una serie de formas de realización de la invención, el método anterior puede proporcionar estimaciones de profundidad mejoradas en regiones ocluidas con una pequeña sobrecarga de memoria para realizar la comparación de costes. Los altos costes debidos a las oclusiones pueden producirse en una dirección predecible desde un borde de profundidad sobre la base de la disposición de cámara, de modo que este conocimiento puede utilizarse en la agregación de costes con SGM u otros métodos de optimización. Además, el volumen de coste puede incorporar automáticamente los mejores costes de correspondencia para todas las regiones ocluidas. En muchas formas de realización, métodos similares a los descritos anteriormente pueden utilizar vectorización, y, por tanto, es posible realizar la optimización utilizando instrucciones vectoriales en una CPU.
En una forma de realización alternativa de la invención, pueden conservarse costes independientes (por ejemplo, C1 y C2) para cada subgrupo, y pueden obtenerse dos términos energéticos utilizando C sobre la base de una división de dirección. En otras formas de realización de la invención, las alternativas para manipular la visibilidad en coincidencias de paralaje pueden incluir, por ejemplo, pero no a modo de limitación, aceptar solo el coste mínimo en cada profundidad, aceptar todo el cubo de coste ci (x) para el subgrupo con el menor coste mínimo en cada x, o aceptar el cubo de costes completo para un subgrupo que estima una profundidad de fondo. Los procesos para determinar subgrupos con costes mínimos que pueden utilizarse según diversas formas de realización de la invención se describen en la patente estadounidense 8.619.082.
La figura 5G ilustra ejemplos de un mapa de profundidad en crudo 595d y un mapa de profundidad regularizado 595e para una imagen captada 595a (que se muestra en la figura 5E) utilizando SGM con manipulación de oclusión según una forma de realización de la invención. En comparación con el mapa de profundidad en crudo 595b y el mapa de profundidad regularizado 595c de la figura 5F creado utilizando una implementación de SGM genérica para la misma imagen captada 595a, puede observarse que la estimación de profundidad en las regiones ocluidas mejora considerablemente con la reducción de la sangría de profundidad utilizando manipulación de oclusión.
Aunque los procesos específicos para manipular oclusiones en los datos de imágenes de un conjunto de cámaras se describen anteriormente con referencia a las figuras 5C-5G, puede utilizarse cualquiera de una variedad de procesos que proporcionan estimaciones de profundidad en regiones ocluidas a partir de una configuración de un conjunto de cámaras según sea apropiado en función de los requisitos de una aplicación dada. Además, aunque los procesos específicos se han descrito anteriormente para una primera fase de un proceso de regularización de profundidad híbrida con referencia a la figura 5A, puede utilizarse cualquiera de una variedad de procesos de manera apropiada a los requisitos de una aplicación específica según formas de realización de la invención. Los procesos para la segunda fase de un proceso de regularización de profundidad híbrida según diversas formas de realización de la invención se comentan adicionalmente a continuación.
Fase 2: Regiones con textura
En una segunda fase de procesos de regularización de profundidad híbrida según diversas formas de realización de la invención, el ruido puede eliminarse del mapa de profundidad y posteriormente detectarse discontinuidades de profundidad. El ruido puede provenir de errores de paralaje, tal como se mencionó anteriormente, artefactos del proceso de estimación de profundidad secundario tal como, pero no limitado al proceso utilizado para generar las estimaciones de profundidad secundarias (por ejemplo, SGM) y la composición inconexa en la primera fase. Las estimaciones de profundidad seguras también pueden ser ruidosas debido a errores en la propia estimación de confianza. Además, a efectos de la detección de bordes de profundidad, puede ser deseable eliminar el ruido para evitar detecciones falsas. Dado que la información de profundidad a menudo es de muy baja frecuencia, excepto para discontinuidades de profundidad, algunas formas de realización de la invención pueden suavizar demasiado con el fin de mejorar el rendimiento, tratándose las discontinuidades de profundidad de manera independiente.
Al recibir un primer mapa de profundidad compuesto como entrada de la primera fase, la segunda fase puede calcular un segundo mapa de profundidad compuesto utilizando un proceso similar al proceso 600 que se muestra en la figura 6. Puede aplicarse (602) un filtro de mediana al primer mapa de profundidad compuesto, lo que da como resultado un mapa de profundidad con filtrado de mediana. A continuación, puede aplicarse (604) la detección de bordes a este mapa de profundidad con filtrado de mediana para dar como resultado un mapa de profundidad de bordes detectados. Este mapa de profundidad de bordes detectados puede dilatarse (606) para formar un mapa de bordes. El proceso de dilatación puede implicar determinar una región que rodea los bordes del mapa de bordes. En muchos casos, las estimaciones de profundidad de los bordes próximos de los objetos de primer plano pueden ser poco fiables debido a que la parte de la escena visible junto al borde de la imagen de referencia está ocluida en una imagen de vista alternativa. Tal como se comenta más adelante, la falta de fiabilidad de estas estimaciones de profundidad puede provocar una sangría de profundidad a partir de las estimaciones de profundidad fiables del objeto de primer plano. Por tanto, dilatar el mapa de bordes permite identificar píxeles próximos a un borde que pueden sufrir una sangría de bordes de estimaciones de profundidad de alta confianza y evitar que se procesen durante el filtrado de mediana del primer mapa de profundidad compuesto. En muchas formas de realización, el mapa de bordes se utiliza para formar (608) un segundo mapa de profundidad compuesto sobre la base del mapa de profundidad con filtrado de mediana y el mapa de profundidad en crudo, utilizando el mapa de bordes.
Cuando el mapa de profundidad en crudo incluye estimaciones de profundidad iniciales y el mapa de profundidad con filtrado de mediana incluye estimaciones de profundidad filtradas por mediana, el segundo mapa de profundidad compuesto puede formarse adicionalmente utilizando un proceso 700 que se muestra en la figura 7 según determinadas formas de realización de la invención. Puede determinarse (702) si un píxel se encuentra dentro de un borde sobre la base del mapa de bordes. Si es así, puede seleccionarse (704) la estimación de profundidad inicial para el píxel; si no, puede seleccionarse (706) la estimación de profundidad filtrada por mediana para el píxel.
A modo de ejemplo y no a modo de limitación, el primer mapa de profundidad compuesto de entrada de la fase anterior puede filtrarse con un filtro tal como (pero no limitado a) un filtro de mediana 9 * 9. Puede aplicarse la detección de bordes de Sobel, seguida de dilatación con un elemento estructural de caja de 5 * 5. La máscara binaria resultante puede indicar píxeles que deben procesarse en la tercera y última fase del proceso de regularización. Según algunas formas de realización de la invención, dilatar el mapa de bordes para obtener la máscara binaria puede permitir la corrección de la sangría de profundidad, o la desalineación de la profundidad y los bordes de imagen. Tal como se señaló anteriormente, la sangría de profundidad a menudo se manifiesta como la asignación de profundidad de primer plano a píxeles en el fondo más allá del límite del objeto de oclusión. La sangría de profundidad puede producirse debido a la agregación de coste en la fase de paralaje y al filtrado de mediana en la fase actual de regularización de profundidad. Por tanto, el mapa de bordes puede dilatarse con el fin de asignar píxeles en las proximidades de un borde, cuyas estimaciones no son necesariamente fiables, para procesarse utilizando filtrado bilateral en una fase posterior.
En determinadas formas de realización de la invención, el elemento de dilatación puede establecerse en la mitad del tamaño de ventana de mediana, de modo que se tenga en cuenta la sangría a cada lado del borde de profundidad detectado. El aumento del tamaño de ventana de mediana puede reducir el número de aristas que se detectan, pero el tamaño aumentado del elemento de dilatación requerido puede equilibrar este efecto ampliando la región de cada borde detectado. Por tanto, el número total de píxeles de la máscara permanece aproximadamente constante con el tamaño de ventana de mediana. Tal como puede apreciarse fácilmente, puede utilizarse cualquiera de una variedad de técnicas para detectar bordes y para dilatar una máscara de borde a cada lado de un borde según sea apropiado en función de los requisitos de una aplicación dada según diversas formas de realización de la invención.
Una vez obtenida la máscara binaria que indica los bordes de profundidad, el segundo mapa de profundidad compuesto puede formarse a partir de los mapas de profundidad en crudo y con filtrado de mediana, utilizando la máscara binaria de borde de profundidad para seleccionar el origen de la estimación de profundidad que va a utilizarse dentro del segundo mapa de profundidad compuesto. Esta composición pinta en las estimaciones en crudo en zonas que aún no se han regularizado en la siguiente fase, y utiliza los valores filtrados por mediana (de las estimaciones de profundidad iniciales secundarias y seguras) en el resto de lugares.
Aunque los procesos específicos se describen anteriormente para una segunda fase de un proceso de regularización de profundidad híbrida con referencia a las figuras 6-7, puede utilizarse cualquiera de una variedad de procesos de manera adecuada en función de los requisitos de una aplicación específica según formas de realización de la invención. Los procesos para regularizar las profundidades alrededor de los bordes (es decir, discontinuidades de profundidad en mapas de profundidad) utilizados en el proceso de regularización de profundidad híbrida según diversas formas de realización de la invención se comentan adicionalmente a continuación.
Fase 3: Discontinuidades de profundidad
En muchas formas de realización, el proceso de regularización de profundidad híbrida procesa por separado regiones de la imagen que contienen cambios relativamente grandes en profundidad (a menudo denominadas discontinuidades de profundidad). En general, estas zonas contienen el contenido de alta frecuencia del mapa de profundidad y pueden requerir un gran procesamiento para forzar la correlación de borde de luminancia y profundidad en el mismo.
En una serie de formas de realización, puede utilizarse un mapa de profundidad que ya se ha procesado para regularizar las estimaciones de profundidad en diversas regiones del mapa de profundidad tales como (pero no se limitan a) el segundo mapa de profundidad compuesto generado utilizando procesos similares a los procesos descritos anteriormente con referencia a las figuras 7 y 8 como entrada para un proceso 800 que realiza la regularización de profundidad en regiones que rodean discontinuidades de profundidad. Tal como se muestra en la figura 8, puede identificarse (802) un primer conjunto de bordes en la imagen de referencia y se identifica (804) un segundo conjunto de bordes en el mapa de bordes. Estos conjuntos de bordes primero y segundo pueden indicar regiones con discontinuidades de profundidad. A continuación, puede calcularse (806) un conjunto de pesos para las zonas del segundo mapa de profundidad compuesto sobre la base del conjunto de bordes primero y segundo. Estos pesos indican la similitud de profundidad e intensidad y/o información de color entre un píxel y sus píxeles circundantes. Mediante la utilización del conjunto calculado de pesos, puede aplicarse (808) un filtro de conservación de bordes tal como (pero no limitado a) un filtro bilateral al segundo mapa de profundidad compuesto, para crear el mapa de profundidad regularizado final.
A modo de ejemplo, y no a modo de limitación, para lograr la alineación de bordes, puede utilizarse un filtro de mediana ponderado bilateral conjunto. Los pesos bilaterales calculados a partir de la imagen pueden permitir el filtrado guiado por bordes de dominio de imágenes en el mapa de profundidad. La elección del valor de mediana sobre la base de estos pesos puede proporcionar robustez al ruido de las estimaciones de profundidad en crudo subyacentes y conservar adicionalmente los bordes. Pueden emplearse técnicas de Z. Ma, K. He, Y. Wei, J. Sun y E. Wu, “Constant time weighted median filtering for stereo matching and beyond”, en la IEEE International Conference on Computer Vision de 2013, páginas 49-56, diciembre de 2013.
El tamaño de ventana de filtro bilateral puede establecerse en, por ejemplo, 17 * 17, aproximadamente el doble del tamaño de ventana de mediana del ejemplo de la sección anterior. Esto puede realizarse de modo que cuando la ventana esté centrada en el borde de profundidad, su región de soporte siga incluyendo aproximadamente el 50% de los datos filtrados previamente, no ruidosos. Otros parámetros, tales como las desviaciones estándar de rango y dominio utilizados en las ponderaciones gaussianas, pueden determinarse empíricamente.
En algunas formas de realización de la invención, la mediana y/u otras estadísticas se calculan a una resolución inferior para reducir el cálculo. Es posible que las estadísticas de la medición de profundidad en una ventana dada no cambien significativamente con la resolución, de modo que es posible calcular una estimación de alta resolución en píxeles de borde de profundidad sin analizar cada píxel de la ventana. Por ejemplo, en una ventana de 17x17, la mediana puede calcularse sobre la base de % de los 289 píxeles de la ventana. Esto puede permitir un aumento significativo de la velocidad de cálculo al tiempo que se sacrifica poca calidad de profundidad.
En muchos casos, el 10-20% de los píxeles se procesan en esta fase. Sin embargo, debido a los grandes tamaños de ventanas, el cálculo del peso de píxeles y el número de accesos de memoria, los cálculos de esta fase pueden ser una parte costosa del proceso de regularización de profundidad general. La alineación de los bordes de imagen y profundidad proporcionados por esta fase puede ser significativa para aplicaciones tales como agregar efectos bokeh e insertar objetos virtuales en una escena.
Aunque los procesos específicos que implican tipos específicos de filtros de conservación de bordes se describen anteriormente para una fase final de un proceso de regularización de profundidad híbrida con referencia a la figura 8, puede utilizarse cualquiera de una variedad de procesos, que incluyen cualquiera de una variedad de técnicas para suavizar el ruido al tiempo que se conservan las discontinuidades de profundidad según sea apropiado en función de los requisitos de aplicaciones específicas según diversas formas de realización de la invención. Los resultados de diversos procesos de regularización de profundidad híbrida según formas de realización de la invención se comentan más adelante.
Resultados
En las figuras 4A-4I se ilustra un ejemplo de los resultados obtenidos mediante la forma de realización del proceso de regularización de profundidad híbrida según una forma de realización de la invención que muestran diversos productos computacionales intermedios obtenidos durante diversas fases del proceso de regularización de profundidad híbrida. Las figuras 4A-4I muestran las entradas, los resultados intermedios y la salida final de la regularización de profundidad híbrida en tiempo real para el conjunto de datos. La escena consiste en una mesa texturizada que retrocede en profundidad, tres cajas frontales paralelas encima de la misma diferentes distancias y un fondo en gran medida sin textura. La imagen de referencia normalizada 400 también revela que se proyectó un patrón infrarrojo (IR) por toda la escena, aunque parece tenue en el fondo. En este ejemplo particular, puede ignorarse la parte inferior aproximadamente el 10% de las imágenes de las figuras 4A-I. Se trata de una región que carece de superposición de campo visual entre las cámaras del conjunto, de modo que los datos en este caso pueden considerarse carentes de sentido.
El mapa de profundidad en crudo 410 de la etapa de paralaje de la tubería es el mapa de profundidad inicial sobre el que la regularización de la profundidad híbrida busca mejorar. Puede observar que las estimaciones en las regiones texturizadas parecen plausibles, mientras que las estimaciones en la mayoría de los demás lugares son ruidosas y la profundidad en la gran región de fondo es errónea. El mapa de confianza 420, también de la etapa de paralaje de la tubería, marca píxeles en los que se cree que la estimación de profundidad en crudo es fiable. Las tres imágenes de las figuras 4A-4C, junto con el volumen de coste de la etapa de paralaje (no se representa), forman entradas para una primera fase de la regularización de profundidad híbrida.
La figura 4D muestra un ejemplo de un conjunto de estimaciones de profundidad secundarias 430 como salida (y con aumento de la muestra) del procesamiento utilizando una técnica de SGM similar a los procesos de SGM descritos anteriormente. Aunque la profundidad puede considerarse insuficientemente formada alrededor de las cajas y las partes distantes de la mesa, ha logrado su fin de proporcionar estimaciones coherentes en la región de fondo plano. En el fondo se han introducido algunos artefactos de imagen espuria, lo que es típico de SGM en regiones planas. El resultado de la primera fase, el primer mapa de profundidad compuesto 440, es más coherente que el mapa de profundidad en crudo 410.
El resultado del filtrado de mediana de la salida de la primera fase se muestra en la figura 4F. En este mapa de profundidad de filtrado de mediana 450, se ha eliminado gran parte del ruido y se han mitigado los artefactos de SGM. El mapa binario de los bordes de profundidad 460, obtenido mediante la detección de bordes en el mapa de profundidad de filtrado de mediana seguido por una dilatación, se muestra en la figura 4G. En este ejemplo, la mayoría de los bordes de profundidad se han detectado de manera fiable con pocos falsos positivos. Se han marcado los bordes de las cajas y la mesa, y se ha ignorado la recesión gradual de la mesa. En este caso, puede observarse la importancia del filtro de mediana para la reducción del ruido, ya que la detección de bordes en la figura 4E (antes del filtrado de mediana) suele contener más falsos positivos. El resultado de la segunda fase, un segundo mapa de profundidad compuesto 470 formado a partir de las figuras 4B, 4F y 4G, se muestra en la figura 4H. Este resultado presenta mucho menos ruido que el primer mapa de profundidad compuesto 440 de la figura 4E.
En la fase final, la segunda salida de mapa de profundidad compuesto de la segunda fase se filtra en ubicaciones de píxeles definidas por valores positivos en el mapa de borde 460. El mapa de profundidad regularizado final 480 se muestra en la figura 4I. El filtro bilateral fuerza principalmente la coherencia de bordes entre la imagen y el mapa de profundidad, lo que puede considerarse una diferencia principal entre el mapa de profundidad con filtrado de mediana 450 y la salida final 480. También puede corregir errores debidos a falsos positivos en la detección de bordes de profundidad, tal como puede observarse al comparar la salida final 480 con la del segundo mapa de profundidad compuesto 470, el primer mapa de profundidad compuesto 440 y el mapa de profundidad en crudo original 410.
Aunque las entradas específicas, los resultados intermedios y las salidas finales se han descrito anteriormente para una implementación particular de un proceso de regularización de profundidad híbrida con referencia a las figuras 4A-4I, puede observarse cualquiera de una variedad de resultados en la implementación de procesos apropiados en función de los requisitos de una aplicación específica según formas de realización de la invención. Los sistemas para realizar la regularización de profundidad híbrida según formas de realización de la invención se comentan más adelante.
Sistemas para realizar la regularización de profundidad híbrida
Los sistemas para realizar la regularización de profundidad híbrida según diversas formas de realización de la invención pueden ubicarse en cualquier lugar dentro de una red. Tal como se señaló anteriormente, las técnicas para realizar la regularización de profundidad híbrida son particularmente eficaces con respecto a la mejora de la calidad del mapa de profundidad y, por tanto, los elementos de visualización en 3D, en contextos de RA con configuraciones de cámara estéreo. Por consiguiente, las propias cámaras que captan las imágenes pueden configurarse mediante software como sistemas de procesamiento de imágenes capaces de realizar una regularización de profundidad híbrida en las imágenes captadas o bien automáticamente y/o en la dirección del usuario. En una serie de formas de realización, las imágenes y/o entornos en 3D pueden compartirse a través de redes utilizando una serie de técnicas de comunicación diferentes, que incluyen (pero no se limitan a) un sistema de gestión de contenido sincronizado (es decir, un servidor que coordina automáticamente la copia de imágenes de un dispositivo a otro) en el contexto de, por ejemplo, juegos de múltiples jugadores en línea. En muchas formas de realización, un servidor que recibe imágenes estéreo captadas por cámaras puede configurarse mediante software para realizar la regularización de profundidad híbrida. Tal como puede apreciarse fácilmente, casi cualquier dispositivo informático dentro de una red puede configurarse para realizar la corrección de distorsión de perspectiva según sea apropiado en función de los requisitos de aplicaciones específicas según diversas formas de realización de la invención.
Los dispositivos informáticos configurados para captar imágenes y realizar regularización de profundidad híbrida según diversas formas de realización de la invención se ilustran en la figura 9. El sistema 900 incluye varias cámaras 906 y 908 configuradas para captar datos de imagen y datos de mapas de profundidad correspondientes. Aunque se ilustran cámaras independientes, puede apreciarse fácilmente que puede utilizarse cualquier dispositivo para captar dos o más imágenes de una escena desde diferentes puntos de vista, tal como, pero no limitándose a, un teléfono móvil, una cámara web y/o un auricular o gafas con dos cámaras para captar, transmitir y/o procesar imágenes según diversas formas de realización de la invención. Las cámaras 906 y 908 pueden incluir dos cámaras similares, una cámara en color y una cámara en blanco y negro; la cámara en blanco y negro también puede obtener imágenes dentro de al menos una parte del espectro infrarrojo cercano, dos cámaras similares con diferentes campos de visión y/o cualquier otra configuración de cámaras capaces de captar imágenes estéreo. Además, los procesos de regularización de profundidad similares a los descritos anteriormente pueden aplicarse a mapas de profundidad que utilizan una única cámara móvil y/o cualquiera de una variedad de sistemas de cámaras que puedan captar información de profundidad y datos de imágenes.
Las cámaras 907 y 908 pueden transmitir los datos de imagen y los datos del mapa de profundidad a un servidor de procesamiento de imágenes 904 a través de una red 902. Cualquiera de los dispositivos informáticos dentro del sistema 900 posiblemente puede utilizarse para realizar una regularización de profundidad híbrida. En una serie de formas de realización, las cámaras 906 y 908 (o dispositivo que abarca ambas cámaras) incluyen software que configura las cámaras para realizar la regularización de profundidad híbrida en imágenes captadas o almacenadas por las cámaras. En diversas formas de realización, el servidor de procesamiento de imágenes 904 puede realizar regularización de profundidad híbrida en imágenes recibidas de cámaras. El mapa de profundidad regularizado final, y/o el elemento de visualización creado utilizando el mapa de profundidad regularizado, pueden transmitirse directa o indirectamente a un elemento de visualización del servidor 904, o de manera remota a otros dispositivos, tales como, pero no limitados a, auriculares u otro dispositivo, incluido el conjunto de cámaras.
En la figura 10, se ilustra un sistema de procesamiento de imágenes que puede utilizarse para realizar automáticamente la regularización de profundidad híbrida según una forma de realización de la invención. El sistema de procesamiento de imágenes 1000 incluye un procesador 1010, una memoria 1020, una interfaz de red 1030, una interfaz de visualización (opcional) 1040 y una interfaz de cámara (opcional) 1050. Normalmente, los servidores no requieren una interfaz de visualización ni una interfaz de cámara y muchos dispositivos informáticos que incluyen elementos de visualización no incluyen interfaces de cámara. La memoria 1020 incluye una aplicación de procesamiento de imágenes 1060, datos de mapas de imagen y profundidad 1070, resultados de regularización intermedios 1075 y un mapa de profundidad regularizado final 1080. La aplicación de procesamiento de imágenes puede configurar el procesador para realizar la regularización de profundidad híbrida utilizando cualquiera de las técnicas descritas anteriormente para producir un mapa de profundidad regularizado para su utilización en elementos de visualización en 3D.
Aunque se han descrito sistemas específicos para compartir imágenes y sistemas de procesamiento de imágenes anteriormente con referencia a las figuras 9 y 10, puede utilizarse cualquiera de una variedad de dispositivos informáticos para adquirir, compartir y/o realizar una regularización de profundidad híbrida en imágenes según sea apropiado en función de los requisitos de aplicaciones específicas según formas de realización de la invención.

Claims (15)

REIVINDICACIONES
1. Sistema de detección de profundidad, que comprende:
una pluralidad de cámaras;
un procesador;
una memoria que contiene una aplicación de procesamiento de imágenes;
en el que la aplicación de procesamiento de imágenes dirige el procesador para:
obtener datos de imagen para una pluralidad de imágenes desde múltiples puntos de vista utilizando la pluralidad de cámaras, comprendiendo los datos de imagen para la pluralidad de imágenes una imagen de referencia y por lo menos una imagen de vista alternativa;
generar un mapa de profundidad en crudo que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen de la imagen de referencia y los datos de imagen de dicha por lo menos una imagen de vista alternativa utilizando un primer proceso de estimación de profundidad y un mapa de confianza que describa la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad en crudo; y
generar un mapa de profundidad regularizado mediante:
el cálculo de un mapa de profundidad secundario que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando un segundo proceso de estimación de profundidad, en el que el segundo proceso de estimación de profundidad calcula la profundidad utilizando los datos de imagen de la imagen de referencia y los datos de imagen de dicha por lo menos una imagen de vista alternativa, mediante la utilización de una técnica de estimación distinta a la del primer proceso de estimación de profundidad; y
el cálculo de un mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y del mapa de profundidad secundario, siendo una estimación de profundidad seleccionada para un píxel de la imagen de referencia del mapa de profundidad en crudo cuando la estimación de profundidad es indicada como fiable por el mapa de confianza.
2. Sistema de detección de profundidad según la reivindicación 1, en el que el mapa de profundidad compuesto es un primer mapa de profundidad compuesto y la aplicación de procesamiento de imágenes dirige adicionalmente el procesador para generar un mapa de profundidad regularizado mediante:
el cálculo de un segundo mapa de profundidad compuesto mediante:
la aplicación de un filtro de suavizado a las estimaciones de profundidad en el primer mapa de profundidad compuesto;
el cálculo de un mapa de bordes utilizando el primer mapa de profundidad compuesto filtrado, donde el mapa de bordes indica unos píxeles dentro de la imagen de referencia que forman parte de un borde; y el cálculo de un segundo mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y el primer mapa de profundidad compuesto filtrado, siendo una estimación de profundidad seleccionada para un píxel en la imagen de referencia del mapa de profundidad en crudo cuando el mapa de bordes indica que la estimación de profundidad es con respecto a un píxel de la imagen de referencia que forma parte de un borde.
3. Sistema de detección de profundidad según la reivindicación 2, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para aplicar un filtro de conservación de bordes a por lo menos una región del segundo mapa de profundidad compuesto indicado como conteniendo una discontinuidad de profundidad por parte del mapa de bordes.
4. Sistema de detección de profundidad según la reivindicación 2, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para calcular el segundo mapa de profundidad compuesto mediante: la aplicación de detección de bordes al primer mapa de profundidad compuesto filtrado para dar como resultado un mapa de profundidad de bordes detectados; y
la dilatación del mapa de profundidad de bordes detectados para dar como resultado el mapa de bordes.
5. Sistema de detección de profundidad según la reivindicación 1, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para generar un mapa de profundidad en crudo que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen de la imagen de referencia y los datos de imagen para dicha por lo menos una imagen de vista alternativa, y un mapa de confianza que describe la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad, midiendo el paralaje observable entre la imagen de referencia y dicha por lo menos una imagen de vista alternativa.
6. Sistema de detección de profundidad según la reivindicación 5, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para estimar la profundidad sobre la base del paralaje medido observable entre la imagen de referencia y dicha por lo menos una imagen de vista alternativa mediante:
la medición del paralaje comparando la similitud de un píxel de la imagen de referencia con los píxeles de dicha por lo menos una imagen de vista alternativa determinada sobre la base de una pluralidad de muestras de profundidad utilizando una función de coste; y
la estimación de la profundidad para el píxel en la imagen de referencia mediante la identificación de la profundidad muestreada a la que la función de coste para un píxel de la imagen de referencia indica que la coincidencia más fuerte es la profundidad estimada del píxel.
7. Sistema de detección de profundidad según la reivindicación 6, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para:
construir un volumen de coste en la memoria utilizando los costes determinados utilizando la función de coste en cada profundidad muestreada; y
calcular el mapa de profundidad secundario sobre la base del volumen de coste.
8. Sistema de detección de profundidad según la reivindicación 7, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para calcular el mapa de profundidad secundario utilizando un segundo proceso de estimación de profundidad que comprende:
submuestrear la imagen de referencia y el volumen de coste; y
estimar profundidades para forzar transiciones de profundidad suaves dentro del mapa de profundidad secundario en regiones sin textura de la imagen de referencia utilizando el volumen de coste.
9. Sistema de detección de profundidad según la reivindicación 1, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para calcular el mapa de profundidad compuesto mediante la determinación de que una estimación de profundidad para un píxel del mapa de profundidad en crudo es fiable cuando un valor de confianza para el píxel del mapa de confianza está por encima de un umbral.
10. Sistema de detección de profundidad según la reivindicación 1, en el que la aplicación de procesamiento de imágenes dirige asimismo el procesador para:
identificar por lo menos una región correspondiente dentro de la imagen de referencia y dicha por lo menos una imagen de vista alternativa utilizando por lo menos un criterio;
generar imágenes binarias con respecto a la imagen de referencia y dicha por lo menos una imagen de vista alternativa sobre la base de la identificada de entre por lo menos una región correspondiente;
sustraer versiones desplazadas de la imagen de referencia y dicha por lo menos una imagen de vista alternativa cuando los desplazamientos corresponden a una pluralidad de muestras de profundidad para producir una imagen desplazada y sustraída para cada una de entre la pluralidad de muestras de profundidad; identificar los límites dentro de las imágenes desplazadas y sustraídas;
identificar zonas de los límites dentro de las imágenes desplazadas y sustraídas; y
determinar las estimaciones de profundidad para píxeles en un límite de una región identificada en la imagen de referencia sobre la base de la muestra de profundidad en la que se minimiza la zona del límite en la imagen desplazada y sustraída.
11. Método de detección de profundidad implementado por ordenador, que comprende:
obtener datos de imagen para una pluralidad de imágenes desde múltiples puntos de vista utilizando la pluralidad de cámaras, comprendiendo los datos de imagen para la pluralidad de imágenes una imagen de referencia y por lo menos una imagen de vista alternativa;
generar un mapa de profundidad en crudo que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen de la imagen de referencia y los datos de imagen para dicha por lo menos una imagen de vista alternativa utilizando un primer proceso de estimación de profundidad y un mapa de confianza que describe la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad en crudo; y
generar un mapa de profundidad regularizado mediante:
el cálculo de un mapa de profundidad secundario que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando un segundo proceso de estimación de profundidad, en el que el segundo proceso de estimación de profundidad calcula la profundidad utilizando los datos de imagen de la imagen de referencia y los datos de imagen de dicha por lo menos una imagen de vista alternativa, mediante la utilización de una técnica de estimación distinta a la del primer proceso de estimación de profundidad; y
el cálculo de un mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y del mapa de profundidad secundario, siendo una estimación de profundidad para un píxel en la imagen de referencia seleccionada del mapa de profundidad en crudo cuando la estimación de profundidad es indicada como fiable por el mapa de confianza.
12. Método de detección de profundidad según la reivindicación 11, en el que el mapa de profundidad compuesto es un primer mapa de profundidad compuesto y generar un mapa de profundidad regularizado comprende asimismo:
el cálculo de un segundo mapa de profundidad compuesto mediante:
la aplicación de un filtro de suavizado a las estimaciones de profundidad en el primer mapa de profundidad compuesto;
el cálculo de un mapa de bordes utilizando el primer mapa de profundidad compuesto filtrado, indicando el mapa de bordes píxeles dentro de la imagen de referencia que forman parte de un borde; y
el cálculo de un segundo mapa de profundidad compuesto mediante la selección de estimaciones de profundidad del mapa de profundidad en crudo y el primer mapa de profundidad compuesto filtrado, siendo una estimación de profundidad seleccionada para un píxel de la imagen de referencia del mapa de profundidad en crudo cuando el mapa de bordes indica que la estimación de profundidad es con respecto a un píxel de la imagen de referencia que forma parte de un borde.
13. Método de detección de profundidad según la reivindicación 12, que comprende asimismo la aplicación de un filtro de conservación de bordes a dicha por lo menos una región del segundo mapa de profundidad compuesto indicado como que contiene una discontinuidad de profundidad por parte del mapa de bordes.
14. Método de detección de profundidad según la reivindicación 12, en el que el cálculo del segundo mapa de profundidad compuesto comprende asimismo:
la aplicación de una detección de bordes al primer mapa de profundidad compuesto filtrado para dar como resultado un mapa de profundidad de bordes detectados; y
la dilatación del mapa de profundidad de bordes detectados para dar como resultado el mapa de bordes.
15. Método de detección de profundidad según la reivindicación 11, en el que la generación de un mapa de profundidad en crudo que contiene estimaciones de profundidad para píxeles dentro de la imagen de referencia utilizando los datos de imagen para la imagen de referencia y los datos de imagen de dicha por lo menos una imagen de vista alternativa, y un mapa de confianza que describe la fiabilidad de las estimaciones de profundidad contenidas dentro del mapa de profundidad, comprende asimismo la medición del paralaje observable entre la imagen de referencia y dicha por lo menos una imagen de vista alternativa.
ES18756418T 2017-08-21 2018-08-17 Sistemas y métodos para la regularización de profundidad híbrida Active ES2894728T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/682,295 US10482618B2 (en) 2017-08-21 2017-08-21 Systems and methods for hybrid depth regularization
PCT/EP2018/072303 WO2019038193A1 (en) 2017-08-21 2018-08-17 SYSTEMS AND METHODS FOR REGULARIZING HYBRID DEPTH

Publications (1)

Publication Number Publication Date
ES2894728T3 true ES2894728T3 (es) 2022-02-15

Family

ID=63259521

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18756418T Active ES2894728T3 (es) 2017-08-21 2018-08-17 Sistemas y métodos para la regularización de profundidad híbrida

Country Status (5)

Country Link
US (4) US10482618B2 (es)
EP (2) EP3971825B1 (es)
CN (2) CN118212141A (es)
ES (1) ES2894728T3 (es)
WO (1) WO2019038193A1 (es)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271033B2 (en) * 2016-10-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating depth data by converging independently-captured depth maps
TWI672938B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 可校正遮蔽區的深度圖產生裝置
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10708486B2 (en) * 2018-02-15 2020-07-07 Qualcomm Incorporated Generation of a depth-artificial image by determining an interpolated supplementary depth through interpolation based on the original depths and a detected edge
EP3598389A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for detecting occlusions in an image, corresponding device and computer program product
US10832487B1 (en) * 2018-09-27 2020-11-10 Apple Inc. Depth map generation
CN111193918B (zh) * 2018-11-14 2021-12-28 宏达国际电子股份有限公司 影像处理系统及影像处理方法
EP3696773A1 (en) * 2019-02-15 2020-08-19 Koninklijke Philips N.V. Apparatus and method for generating a light intensity image
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
CN114746717A (zh) 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的系统和方法
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
CN111091601B (zh) * 2019-12-17 2023-06-23 香港中文大学深圳研究院 一种实时白天室外手机图像的pm2.5指数估计方法
US11618167B2 (en) * 2019-12-24 2023-04-04 X Development Llc Pixelwise filterable depth maps for robots
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
CN111754537A (zh) * 2020-06-15 2020-10-09 玖壹叁陆零医学科技南京有限公司 一种病理组织图像的处理方法、装置及存储介质
US11425324B2 (en) * 2020-06-22 2022-08-23 Samsung Electronics Co., Ltd. Time-of-flight down-up sampling using a compressed guide
US11783550B2 (en) * 2020-09-17 2023-10-10 Apple Inc. Image composition for extended reality systems
CN112102411B (zh) * 2020-11-02 2021-02-12 中国人民解放军国防科技大学 一种基于语义误差图像的视觉定位方法及装置
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11494926B1 (en) * 2021-07-01 2022-11-08 Himax Technologies Limited Method for performing hybrid depth detection with aid of adaptive projector, and associated apparatus
CN113487514A (zh) * 2021-07-22 2021-10-08 Oppo广东移动通信有限公司 图像处理方法、装置、终端和可读存储介质
CN113808063A (zh) * 2021-09-24 2021-12-17 土豆数据科技集团有限公司 用于大规模场景重建的深度图优化方法、装置及存储介质
TWI825566B (zh) * 2022-01-24 2023-12-11 宏碁股份有限公司 立體影像產生裝置與立體影像產生方法
WO2023235273A1 (en) * 2022-06-02 2023-12-07 Leia Inc. Layered view synthesis system and method
CN116520915B (zh) * 2023-06-28 2023-09-05 泰山学院 基于热红外图像的网络中心机房温度预警控制系统

Family Cites Families (766)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4124798A (en) 1965-12-09 1978-11-07 Thompson Kenneth B Optical viewing apparatus
US4198646A (en) 1978-10-13 1980-04-15 Hughes Aircraft Company Monolithic imager for near-IR
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
JPS5769476A (en) 1980-10-16 1982-04-28 Fuji Xerox Co Ltd Reader control system
JPS5925483A (ja) 1982-08-04 1984-02-09 Hitachi Denshi Ltd 固体撮像装置
US4652909A (en) 1982-09-14 1987-03-24 New York Institute Of Technology Television camera and recording system for high definition television having imagers of different frame rate
US4460449A (en) 1983-01-03 1984-07-17 Amerace Corporation Apparatus for making a tool
EP0289885A1 (de) 1987-05-08 1988-11-09 Siemens Aktiengesellschaft Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt
JPS6437177A (en) 1987-08-03 1989-02-07 Canon Kk Image pickup device
DE58902538D1 (de) 1988-05-19 1992-12-03 Siemens Ag Verfahren zur beobachtung einer szene und einrichtung zur durchfuehrung des verfahrens.
US5070414A (en) 1988-09-20 1991-12-03 Kabushiki Kaisha Toshiba Method and apparatus for reading image information formed on material
JPH02285772A (ja) 1989-04-26 1990-11-26 Toshiba Corp 画像読取装置
US5157499A (en) 1990-06-29 1992-10-20 Kabushiki Kaisha N A C High-speed video camera using solid-state image sensor
US5144448A (en) 1990-07-31 1992-09-01 Vidar Systems Corporation Scanning apparatus using multiple CCD arrays and related method
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
JP3032382B2 (ja) 1992-07-13 2000-04-17 シャープ株式会社 デジタル信号のサンプリング周波数変換装置
US5659424A (en) 1993-05-25 1997-08-19 Hitachi, Ltd. Projecting lens and image display device
JPH0715457A (ja) 1993-06-18 1995-01-17 Hitachi Ltd ディジタル通信切替方式
EP0677821A3 (en) 1994-04-14 1996-03-06 Hewlett Packard Co Enlargement of a digital image by slaving.
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US5629524A (en) 1995-02-21 1997-05-13 Advanced Scientific Concepts, Inc. High speed crystallography detector
US5933190A (en) 1995-04-18 1999-08-03 Imec Vzw Pixel structure, image sensor using such pixel structure and corresponding peripheral circuitry
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US5880691A (en) 1995-11-07 1999-03-09 California Institute Of Technology Capacitively coupled successive approximation ultra low power analog-to-digital converter
JPH09181913A (ja) 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US6124974A (en) 1996-01-26 2000-09-26 Proxemics Lenslet array systems and methods
US5973844A (en) 1996-01-26 1999-10-26 Proxemics Lenslet array systems and methods
US6493465B2 (en) 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5832312A (en) 1996-02-22 1998-11-03 Eastman Kodak Company Watertight body for accommodating a photographic camera
US5911008A (en) 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
US6002743A (en) 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
GB9616262D0 (en) 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US6141048A (en) 1996-08-19 2000-10-31 Eastman Kodak Company Compact image capture device
US6137535A (en) 1996-11-04 2000-10-24 Eastman Kodak Company Compact digital camera with segmented fields of view
US5808350A (en) 1997-01-03 1998-09-15 Raytheon Company Integrated IR, visible and NIR sensor and methods of fabricating same
JPH10232626A (ja) 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US6515701B2 (en) 1997-07-24 2003-02-04 Polaroid Corporation Focal plane exposure control system for CMOS area image sensors
US6563537B1 (en) 1997-07-31 2003-05-13 Fuji Photo Film Co., Ltd. Image signal interpolation
JP3430935B2 (ja) 1997-10-20 2003-07-28 富士ゼロックス株式会社 画像読取装置及びレンズ
NO305728B1 (no) 1997-11-14 1999-07-12 Reidar E Tangen Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme
JP4243779B2 (ja) 1997-11-14 2009-03-25 株式会社ニコン 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ
US6069365A (en) 1997-11-25 2000-05-30 Alan Y. Chow Optical processor based imaging system
JPH11242189A (ja) 1997-12-25 1999-09-07 Olympus Optical Co Ltd 像形成法、像形成装置
US6721008B2 (en) 1998-01-22 2004-04-13 Eastman Kodak Company Integrated CMOS active pixel digital camera
JPH11223708A (ja) 1998-02-09 1999-08-17 Nikon Corp 圧子およびマイクロ光学素子アレイの製造方法
US6054703A (en) 1998-03-20 2000-04-25 Syscan, Inc. Sensing module for accelerating signal readout from image sensors
US6160909A (en) 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
JP3931936B2 (ja) 1998-05-11 2007-06-20 セイコーエプソン株式会社 マイクロレンズアレイ基板及びその製造方法並びに表示装置
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US6137100A (en) 1998-06-08 2000-10-24 Photobit Corporation CMOS image sensor with different pixel sizes for different colors
US6069351A (en) 1998-07-16 2000-05-30 Intel Corporation Focal plane processor for scaling information from image sensors
US6903770B1 (en) 1998-07-27 2005-06-07 Sanyo Electric Co., Ltd. Digital camera which produces a single image based on two exposures
US6340994B1 (en) 1998-08-12 2002-01-22 Pixonics, Llc System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems
US6269175B1 (en) 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6879735B1 (en) 1998-09-14 2005-04-12 University Of Utah Reasearch Foundation Method of digital image enhancement and sharpening
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3875423B2 (ja) 1999-01-19 2007-01-31 日本放送協会 固体撮像素子およびそれ用の映像信号出力装置
US6603513B1 (en) 1999-02-16 2003-08-05 Micron Technology, Inc. Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device
US6563540B2 (en) 1999-02-26 2003-05-13 Intel Corporation Light sensor with increased dynamic range
US20020063807A1 (en) 1999-04-19 2002-05-30 Neal Margulis Method for Performing Image Transforms in a Digital Display System
US6819358B1 (en) 1999-04-26 2004-11-16 Microsoft Corporation Error calibration for digital image sensors and apparatus using the same
US6292713B1 (en) 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
JP2001008235A (ja) 1999-06-25 2001-01-12 Minolta Co Ltd 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
JP2001042042A (ja) 1999-07-27 2001-02-16 Canon Inc 撮像装置
US6801653B1 (en) 1999-08-05 2004-10-05 Sony Corporation Information processing apparatus and method as well as medium
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6647142B1 (en) 1999-08-19 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Badge identification system
US6771833B1 (en) 1999-08-20 2004-08-03 Eastman Kodak Company Method and system for enhancing digital images
US6628330B1 (en) 1999-09-01 2003-09-30 Neomagic Corp. Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera
US6358862B1 (en) 1999-09-02 2002-03-19 Micron Technology, Inc Passivation integrity improvements
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US6774941B1 (en) 1999-10-26 2004-08-10 National Semiconductor Corporation CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels
US6671399B1 (en) 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
JP2001195050A (ja) 1999-11-05 2001-07-19 Mitsubishi Electric Corp グラフィックアクセラレータ
US7161614B1 (en) 1999-11-26 2007-01-09 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP3950926B2 (ja) 1999-11-30 2007-08-01 エーユー オプトロニクス コーポレイション 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US7068851B1 (en) 1999-12-10 2006-06-27 Ricoh Co., Ltd. Multiscale sharpening and smoothing with wavelets
FI107680B (fi) 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
US6502097B1 (en) 1999-12-23 2002-12-31 Microsoft Corporation Data structure for efficient access to variable-size data objects
US6476805B1 (en) 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
US6523046B2 (en) 2000-02-25 2003-02-18 Microsoft Corporation Infrastructure and method for supporting generic multimedia metadata
JP2001264033A (ja) 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US6571466B1 (en) 2000-03-27 2003-06-03 Amkor Technology, Inc. Flip chip image sensor package fabrication method
JP2001277260A (ja) 2000-03-30 2001-10-09 Seiko Epson Corp マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置
KR20020084288A (ko) 2000-04-04 2002-11-04 주식회사 아도반테스토 다축전자렌즈를 이용한 멀티빔 노광장치, 반도체소자제조방법
US20020015536A1 (en) 2000-04-24 2002-02-07 Warren Penny G. Apparatus and method for color image fusion
JP2001337263A (ja) 2000-05-25 2001-12-07 Olympus Optical Co Ltd 測距装置
KR20030028553A (ko) 2000-07-21 2003-04-08 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지 모자이크 방법 및 장치
US7154546B1 (en) 2000-08-07 2006-12-26 Micron Technology, Inc. Pixel optimization for color
DE60115789T2 (de) 2000-08-25 2006-08-31 Fuji Photo Film Co., Ltd., Minami-Ashigara Vorrichtung zur Parallaxbildaufnahme und Parallaxbildverarbeitung
US7085409B2 (en) 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6734905B2 (en) 2000-10-20 2004-05-11 Micron Technology, Inc. Dynamic range extension for CMOS image sensors
US7262799B2 (en) 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
US6476971B1 (en) 2000-10-31 2002-11-05 Eastman Kodak Company Method of manufacturing a microlens array mold and a microlens array
JP3918499B2 (ja) 2000-11-01 2007-05-23 セイコーエプソン株式会社 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法
US6788338B1 (en) 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
US7490774B2 (en) 2003-11-13 2009-02-17 Metrologic Instruments, Inc. Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein
JP2002171537A (ja) 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
ATE552572T1 (de) 2000-12-01 2012-04-15 Imax Corp Verfahren und vorrichtung zum erzeugen hochauflösender bilder
AU2002221023A1 (en) 2000-12-05 2002-06-18 Yeda Research And Development Co..Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
JP2002252338A (ja) 2000-12-18 2002-09-06 Canon Inc 撮像装置及び撮像システム
JP2002195910A (ja) 2000-12-26 2002-07-10 Omron Corp 光学部品の検査装置
JP2002209226A (ja) 2000-12-28 2002-07-26 Canon Inc 撮像装置
US7805680B2 (en) 2001-01-03 2010-09-28 Nokia Corporation Statistical metering and filtering of content via pixel-based metadata
JP3957460B2 (ja) 2001-01-15 2007-08-15 沖電気工業株式会社 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム
US6635941B2 (en) 2001-03-21 2003-10-21 Canon Kabushiki Kaisha Structure of semiconductor device with improved reliability
JP2002324743A (ja) 2001-04-24 2002-11-08 Canon Inc 露光方法及び装置
US6443579B1 (en) 2001-05-02 2002-09-03 Kenneth Myers Field-of-view controlling arrangements
US20020167537A1 (en) 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera
US7235785B2 (en) 2001-05-11 2007-06-26 Irvine Sensors Corp. Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array
US20020190991A1 (en) 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
WO2002098112A2 (en) 2001-05-29 2002-12-05 Transchip, Inc. Patent application cmos imager for cellular applications and methods of using such
US7738013B2 (en) 2001-05-29 2010-06-15 Samsung Electronics Co., Ltd. Systems and methods for power conservation in a CMOS imager
US6482669B1 (en) 2001-05-30 2002-11-19 Taiwan Semiconductor Manufacturing Company Colors only process to reduce package yield loss
US6525302B2 (en) 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
US20030025227A1 (en) 2001-08-02 2003-02-06 Zograph, Llc Reproduction of relief patterns
WO2003014796A1 (en) 2001-08-09 2003-02-20 The Trustees Of Columbia University In The City Of New York Adaptive imaging using digital light processing
EP1289309B1 (en) 2001-08-31 2010-04-21 STMicroelectronics Srl Noise filter for Bayer pattern image data
JP3978706B2 (ja) 2001-09-20 2007-09-19 セイコーエプソン株式会社 微細構造体の製造方法
JP2003139910A (ja) 2001-10-30 2003-05-14 Sony Corp 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置
DE10153237A1 (de) 2001-10-31 2003-05-15 Lfk Gmbh Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras
JP3705766B2 (ja) 2001-11-28 2005-10-12 独立行政法人科学技術振興機構 画像入力装置
AU2002357321A1 (en) 2001-12-18 2003-06-30 University Of Rochester Multifocal aspheric lens obtaining extended field depth
US7302118B2 (en) 2002-02-07 2007-11-27 Microsoft Corporation Transformation of images
US20030179418A1 (en) 2002-03-19 2003-09-25 Eastman Kodak Company Producing a defective pixel map from defective cluster pixels in an area array image sensor
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2003298920A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd デジタルカメラ
US20030188659A1 (en) 2002-04-05 2003-10-09 Canadian Bank Note Company Limited Method and apparatus for reproducing a color image based on monochrome images derived therefrom
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
JP3567327B2 (ja) 2002-05-08 2004-09-22 富士写真光機株式会社 撮像レンズ
US6783900B2 (en) 2002-05-13 2004-08-31 Micron Technology, Inc. Color filter imaging array and method of formation
JP2004048644A (ja) 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2003347192A (ja) 2002-05-24 2003-12-05 Toshiba Corp エネルギービーム露光方法および露光装置
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
JP2004088713A (ja) 2002-06-27 2004-03-18 Olympus Corp 撮像レンズユニットおよび撮像装置
JP4147059B2 (ja) 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP2004037924A (ja) 2002-07-04 2004-02-05 Minolta Co Ltd 撮像装置
EP1537550A2 (en) 2002-07-15 2005-06-08 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
US20040012689A1 (en) 2002-07-16 2004-01-22 Fairchild Imaging Charge coupled devices in tiled arrays
JP2004078296A (ja) 2002-08-09 2004-03-11 Victor Co Of Japan Ltd 画像生成装置
US7447380B2 (en) 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
US20040050104A1 (en) 2002-09-18 2004-03-18 Eastman Kodak Company Forming information transfer lens array
US20040207836A1 (en) 2002-09-27 2004-10-21 Rajeshwar Chhibber High dynamic range optical inspection system and method
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US7477781B1 (en) 2002-10-10 2009-01-13 Dalsa Corporation Method and apparatus for adaptive pixel correction of multi-color matrix
US20040075654A1 (en) 2002-10-16 2004-04-22 Silicon Integrated Systems Corp. 3-D digital image processor and method for visibility processing for use in the same
JP4171786B2 (ja) 2002-10-25 2008-10-29 コニカミノルタホールディングス株式会社 画像入力装置
US7742088B2 (en) 2002-11-19 2010-06-22 Fujifilm Corporation Image sensor and digital camera
AU2003298681A1 (en) 2002-11-21 2004-06-18 Vision Iii Imaging, Inc. Critical alignment of parallax images for autostereoscopic display
US20040105021A1 (en) 2002-12-02 2004-06-03 Bolymedia Holdings Co., Ltd. Color filter patterns for image sensors
US20040114807A1 (en) 2002-12-13 2004-06-17 Dan Lelescu Statistical representation and coding of light field data
US6878918B2 (en) 2003-01-09 2005-04-12 Dialdg Semiconductor Gmbh APS pixel with reset noise suppression and programmable binning capability
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
DE10301941B4 (de) 2003-01-20 2005-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US7379592B2 (en) 2003-01-21 2008-05-27 United States Of America As Represented By The Secretary Of The Navy System and method for significant dust detection and enhancement of dust images over land and ocean
US7005637B2 (en) 2003-01-31 2006-02-28 Intevac, Inc. Backside thinning of image array devices
WO2004068862A1 (ja) 2003-01-31 2004-08-12 The Circle For The Promotion Of Science And Engineering 高解像度カラー画像生成方法,高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム
US7308157B2 (en) 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
US7595817B1 (en) 2003-02-12 2009-09-29 The Research Foundation Of State University Of New York Linear system based, qualitative independent motion detection from compressed MPEG surveillance video
US20040165090A1 (en) 2003-02-13 2004-08-26 Alex Ning Auto-focus (AF) lens and process
JP2004266369A (ja) 2003-02-21 2004-09-24 Sony Corp 固体撮像装置およびその駆動方法
US7106914B2 (en) 2003-02-27 2006-09-12 Microsoft Corporation Bayesian image super resolution
US7148861B2 (en) 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US8218052B2 (en) 2003-03-07 2012-07-10 Iconix Video, Inc. High frame rate high definition imaging system and method
US7218320B2 (en) 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US6801719B1 (en) 2003-03-14 2004-10-05 Eastman Kodak Company Camera using beam splitter with micro-lens image amplification
US7206449B2 (en) 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7425984B2 (en) 2003-04-04 2008-09-16 Stmicroelectronics, Inc. Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions
US7373005B2 (en) 2003-04-10 2008-05-13 Micron Technology, Inc. Compression system for integrated sensor devices
US7097311B2 (en) 2003-04-19 2006-08-29 University Of Kentucky Research Foundation Super-resolution overlay in multi-projector displays
US6958862B1 (en) 2003-04-21 2005-10-25 Foveon, Inc. Use of a lenslet array with a vertically stacked pixel array
US7428330B2 (en) 2003-05-02 2008-09-23 Microsoft Corporation Cyclopean virtual imaging via generalized probabilistic smoothing
SE525665C2 (sv) 2003-05-08 2005-03-29 Forskarpatent I Syd Ab Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar
JP2007515842A (ja) 2003-05-13 2007-06-14 エクシード イメージング リミテッド 解像度を向上させるための光学的方法およびシステム
JP2004348674A (ja) 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
KR20040103786A (ko) 2003-06-02 2004-12-09 펜탁스 가부시키가이샤 다초점 촬상 장치 및 다초점 촬상 장치를 가진 모바일 장치
JP2004363478A (ja) 2003-06-06 2004-12-24 Sanyo Electric Co Ltd 半導体装置の製造方法
KR100539234B1 (ko) 2003-06-11 2005-12-27 삼성전자주식회사 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법
US7362918B2 (en) 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
US6818934B1 (en) 2003-06-24 2004-11-16 Omnivision International Holding Ltd Image sensor having micro-lens array separated with trench structures and method of making
US7388609B2 (en) 2003-07-07 2008-06-17 Zoran Corporation Dynamic identification and correction of defective pixels
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US20050007461A1 (en) 2003-07-11 2005-01-13 Novatek Microelectronic Co. Correction system and method of analog front end
JP3731589B2 (ja) 2003-07-18 2006-01-05 ソニー株式会社 撮像装置と同期信号発生装置
US7233737B2 (en) 2003-08-12 2007-06-19 Micron Technology, Inc. Fixed-focus camera module and associated method of assembly
US7643703B2 (en) 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
US7161606B2 (en) 2003-09-08 2007-01-09 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
JP4020850B2 (ja) 2003-10-06 2007-12-12 株式会社東芝 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法
US7079251B2 (en) 2003-10-16 2006-07-18 4D Technology Corporation Calibration and error correction in multi-channel imaging
EP2466871A3 (en) 2003-10-22 2017-05-03 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and method for producing the same, portable equipment, and imaging sensor and method for producing the same.
US7840067B2 (en) 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
WO2005046248A1 (ja) 2003-11-11 2005-05-19 Olympus Corporation マルチスペクトル画像撮影装置
JP4235539B2 (ja) 2003-12-01 2009-03-11 独立行政法人科学技術振興機構 画像構成装置及び画像構成方法
US7328288B2 (en) 2003-12-11 2008-02-05 Canon Kabushiki Kaisha Relay apparatus for relaying communication from CPU to peripheral device
US7453510B2 (en) 2003-12-11 2008-11-18 Nokia Corporation Imaging device
US20050128509A1 (en) 2003-12-11 2005-06-16 Timo Tokkonen Image creating method and imaging device
JP3859158B2 (ja) 2003-12-16 2006-12-20 セイコーエプソン株式会社 マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ
US7511749B2 (en) 2003-12-18 2009-03-31 Aptina Imaging Corporation Color image sensor having imaging element array forming images on respective regions of sensor elements
US7123298B2 (en) 2003-12-18 2006-10-17 Avago Technologies Sensor Ip Pte. Ltd. Color image sensor with imaging elements imaging on respective regions of sensor elements
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7496293B2 (en) 2004-01-14 2009-02-24 Elbit Systems Ltd. Versatile camera for various visibility conditions
US7773143B2 (en) 2004-04-08 2010-08-10 Tessera North America, Inc. Thin color camera having sub-pixel resolution
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
SE527889C2 (sv) 2004-03-17 2006-07-04 Thomas Jeff Adamo Apparat för avbildning av ett objekt
JP2006047944A (ja) 2004-03-24 2006-02-16 Fuji Photo Film Co Ltd 撮影レンズ
WO2005096218A1 (en) 2004-03-31 2005-10-13 Canon Kabushiki Kaisha Imaging system performance measurement
US7633511B2 (en) 2004-04-01 2009-12-15 Microsoft Corporation Pop-up light field
JP4665422B2 (ja) 2004-04-02 2011-04-06 ソニー株式会社 撮像装置
US8634014B2 (en) 2004-04-05 2014-01-21 Hewlett-Packard Development Company, L.P. Imaging device analysis systems and imaging device analysis methods
US7091531B2 (en) 2004-04-07 2006-08-15 Micron Technology, Inc. High dynamic range pixel amplifier
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
US7620265B1 (en) 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
US7292735B2 (en) 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7773404B2 (en) 2005-01-07 2010-08-10 Invisage Technologies, Inc. Quantum dot optical devices with enhanced gain and sensitivity and methods of making same
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US20060034531A1 (en) 2004-05-10 2006-02-16 Seiko Epson Corporation Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method
US7355793B2 (en) 2004-05-19 2008-04-08 The Regents Of The University Of California Optical system applicable to improving the dynamic range of Shack-Hartmann sensors
US20050265633A1 (en) 2004-05-25 2005-12-01 Sarnoff Corporation Low latency pyramid processor for image processing systems
JP2005354124A (ja) 2004-06-08 2005-12-22 Seiko Epson Corp 複数の低画素密度画像からの高画素密度画像の生成
US7330593B2 (en) 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
JP4408755B2 (ja) 2004-06-28 2010-02-03 Necエレクトロニクス株式会社 デインタリーブ装置、移動通信端末及びデインタリーブ方法
JP4479373B2 (ja) 2004-06-28 2010-06-09 ソニー株式会社 イメージセンサ
US7447382B2 (en) 2004-06-30 2008-11-04 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation
JP2006033228A (ja) 2004-07-14 2006-02-02 Victor Co Of Japan Ltd 画像撮像装置
JP2006033493A (ja) 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 撮像装置
US7189954B2 (en) 2004-07-19 2007-03-13 Micron Technology, Inc. Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers
JP2006033570A (ja) 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
US8027531B2 (en) 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
GB0416496D0 (en) 2004-07-23 2004-08-25 Council Of The Central Lab Of Imaging device
US20060023197A1 (en) 2004-07-27 2006-02-02 Joel Andrew H Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media
US7068432B2 (en) 2004-07-27 2006-06-27 Micron Technology, Inc. Controlling lens shape in a microlens array
DE102004036469A1 (de) 2004-07-28 2006-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung
US20060028476A1 (en) 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
US7333652B2 (en) 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
JP2006050263A (ja) 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
US7430339B2 (en) 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
US7609302B2 (en) 2004-08-11 2009-10-27 Micron Technology, Inc. Correction of non-uniform sensitivity in an image array
US7061693B2 (en) 2004-08-16 2006-06-13 Xceed Imaging Ltd. Optical method and system for extended depth of focus
US7645635B2 (en) 2004-08-16 2010-01-12 Micron Technology, Inc. Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages
EP1797523A4 (en) 2004-08-23 2009-07-22 Sarnoff Corp METHOD AND DEVICE FOR PRODUCING A CONDENSED IMAGE
US7795577B2 (en) 2004-08-25 2010-09-14 Richard Ian Olsen Lens frame and optical focus assembly for imager module
EP1812968B1 (en) 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Apparatus for multiple camera devices and method of operating same
US7916180B2 (en) 2004-08-25 2011-03-29 Protarius Filo Ag, L.L.C. Simultaneous multiple field of view digital cameras
US7564019B2 (en) 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
US8124929B2 (en) 2004-08-25 2012-02-28 Protarius Filo Ag, L.L.C. Imager module optical focus and assembly method
JP4057597B2 (ja) 2004-08-26 2008-03-05 独立行政法人科学技術振興機構 光学素子
CN100489599C (zh) 2004-08-26 2009-05-20 财团法人秋田企业活性化中心 液晶透镜
US20060046204A1 (en) 2004-08-31 2006-03-02 Sharp Laboratories Of America, Inc. Directly patternable microlens
US20060055811A1 (en) 2004-09-14 2006-03-16 Frtiz Bernard S Imaging system having modules with adaptive optical elements
US7145124B2 (en) 2004-09-15 2006-12-05 Raytheon Company Multispectral imaging chip using photonic crystals
JP3977368B2 (ja) 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
DE102004049676A1 (de) 2004-10-12 2006-04-20 Infineon Technologies Ag Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
JP2006119368A (ja) 2004-10-21 2006-05-11 Konica Minolta Opto Inc 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器
JP4534715B2 (ja) 2004-10-22 2010-09-01 株式会社ニコン 撮像装置および画像処理プログラム
DE102004052994C5 (de) 2004-11-03 2010-08-26 Vistec Electron Beam Gmbh Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung
US7598996B2 (en) 2004-11-16 2009-10-06 Aptina Imaging Corporation System and method for focusing a digital camera
US7538326B2 (en) 2004-12-03 2009-05-26 Fluke Corporation Visible light and IR combined image camera with a laser pointer
US7483065B2 (en) 2004-12-15 2009-01-27 Aptina Imaging Corporation Multi-lens imaging systems and methods using optical filters having mosaic patterns
US8854486B2 (en) 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
US7073908B1 (en) 2005-01-11 2006-07-11 Anthony Italo Provitola Enhancement of depth perception
US7767949B2 (en) 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US7671321B2 (en) 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US7965314B1 (en) 2005-02-09 2011-06-21 Flir Systems, Inc. Foveal camera systems and methods
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
EP2278271B1 (en) 2005-03-11 2012-05-23 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
JP2006258930A (ja) 2005-03-15 2006-09-28 Nikon Corp マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法
US7692147B2 (en) 2005-03-21 2010-04-06 Massachusetts Institute Of Technology Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array
JPWO2006100903A1 (ja) 2005-03-23 2008-08-28 松下電器産業株式会社 車載撮像装置
US7297917B2 (en) 2005-03-24 2007-11-20 Micron Technology, Inc. Readout technique for increasing or maintaining dynamic range in image sensors
WO2006101064A1 (ja) 2005-03-24 2006-09-28 Matsushita Electric Industrial Co., Ltd. 撮像装置及びそれに用いられるレンズアレイ
US7683950B2 (en) 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US7656428B2 (en) 2005-05-05 2010-02-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Imaging device employing optical motion sensor as gyroscope
US7876874B2 (en) 2005-05-18 2011-01-25 Hitachi Medical Corporation Radiographing apparatus and image processing program
US8411182B2 (en) 2005-06-02 2013-04-02 Xerox Corporation System for controlling integration times of photosensors in an imaging device
US7968888B2 (en) 2005-06-08 2011-06-28 Panasonic Corporation Solid-state image sensor and manufacturing method thereof
JP2006345233A (ja) 2005-06-09 2006-12-21 Fujifilm Holdings Corp 撮像装置及びデジタルカメラ
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
JP4826152B2 (ja) 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
JP4577126B2 (ja) 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP4903705B2 (ja) 2005-07-26 2012-03-28 パナソニック株式会社 複眼方式の撮像装置及びその製造方法
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7969488B2 (en) 2005-08-03 2011-06-28 Micron Technologies, Inc. Correction of cluster defects in imagers
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070041391A1 (en) 2005-08-18 2007-02-22 Micron Technology, Inc. Method and apparatus for controlling imager output data rate
US20070040922A1 (en) 2005-08-22 2007-02-22 Micron Technology, Inc. HDR/AB on multi-way shared pixels
US20070258006A1 (en) 2005-08-25 2007-11-08 Olsen Richard I Solid state camera optics frame and assembly
US7964835B2 (en) 2005-08-25 2011-06-21 Protarius Filo Ag, L.L.C. Digital cameras with direct luminance and chrominance detection
US20070083114A1 (en) 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
JP4804856B2 (ja) 2005-09-29 2011-11-02 富士フイルム株式会社 単焦点レンズ
WO2007036055A1 (en) 2005-09-30 2007-04-05 Simon Fraser University Methods and apparatus for detecting defects in imaging arrays by image analysis
WO2007044725A2 (en) 2005-10-07 2007-04-19 The Board Of Trustees Of The Leland Stanford Junior University Microscopy arrangements and approaches
JP4773179B2 (ja) 2005-10-14 2011-09-14 富士フイルム株式会社 撮像装置
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100730406B1 (ko) 2005-11-16 2007-06-19 광운대학교 산학협력단 중간 요소 영상을 이용한 입체 영상 표시 장치
JP4389865B2 (ja) 2005-11-17 2009-12-24 ソニー株式会社 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
US8275195B2 (en) 2005-11-30 2012-09-25 Telecom Italia S.P.A. Method for determining scattered disparity fields in stereo vision
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
JP4501855B2 (ja) 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP2007180730A (ja) 2005-12-27 2007-07-12 Eastman Kodak Co デジタルカメラおよびデータ管理方法
US7855786B2 (en) 2006-01-09 2010-12-21 Bae Systems Spectral Solutions Llc Single camera multi-spectral imager
US7675080B2 (en) 2006-01-10 2010-03-09 Aptina Imaging Corp. Uniform color filter arrays in a moat
JP4147273B2 (ja) 2006-01-20 2008-09-10 松下電器産業株式会社 複眼方式のカメラモジュール及びその製造方法
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
JP4834412B2 (ja) 2006-02-03 2011-12-14 富士フイルム株式会社 固体撮像装置およびこれを用いた電子内視鏡
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US7391572B2 (en) 2006-03-01 2008-06-24 International Business Machines Corporation Hybrid optical/electronic structures fabricated by a common molding process
US7924483B2 (en) 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
US7616254B2 (en) 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US8360574B2 (en) 2006-03-20 2013-01-29 High Performance Optics, Inc. High performance selective light wavelength filtering providing improved contrast sensitivity
US7606484B1 (en) 2006-03-23 2009-10-20 Flir Systems, Inc. Infrared and near-infrared camera hyperframing
JP4615468B2 (ja) 2006-03-23 2011-01-19 富士フイルム株式会社 撮影装置
US7342212B2 (en) 2006-03-31 2008-03-11 Micron Technology, Inc. Analog vertical sub-sampling in an active pixel sensor (APS) image sensor
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7916934B2 (en) 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
TW200740212A (en) 2006-04-10 2007-10-16 Sony Taiwan Ltd A stitching accuracy improvement method with lens distortion correction
CN101064780B (zh) 2006-04-30 2012-07-04 台湾新力国际股份有限公司 利用透镜失真校正的影像接合准确度改善方法及装置
US20070263114A1 (en) 2006-05-01 2007-11-15 Microalign Technologies, Inc. Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging
US7580620B2 (en) 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns
US9736346B2 (en) 2006-05-09 2017-08-15 Stereo Display, Inc Imaging system improving image resolution of the system with low resolution image sensor
US7889264B2 (en) 2006-05-12 2011-02-15 Ricoh Co., Ltd. End-to-end design of superresolution electro-optic imaging systems
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US20070177004A1 (en) 2006-06-08 2007-08-02 Timo Kolehmainen Image creating method and imaging device
JP4631811B2 (ja) 2006-06-12 2011-02-16 株式会社日立製作所 撮像装置
JP5106870B2 (ja) 2006-06-14 2012-12-26 株式会社東芝 固体撮像素子
FR2902530A1 (fr) 2006-06-19 2007-12-21 St Microelectronics Rousset Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme
TWI362550B (en) 2007-06-21 2012-04-21 Ether Precision Inc The method for manufacturing the image captures unit
US7925117B2 (en) 2006-06-27 2011-04-12 Honeywell International Inc. Fusion of sensor data and synthetic data to form an integrated image
KR100793369B1 (ko) 2006-07-06 2008-01-11 삼성전자주식회사 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법
US20080024683A1 (en) 2006-07-31 2008-01-31 Niranjan Damera-Venkata Overlapped multi-projector system with dithering
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
JP2008039852A (ja) 2006-08-01 2008-02-21 Agc Techno Glass Co Ltd ガラス光学素子及びその製造方法
US8406562B2 (en) 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
EP1892688B1 (fr) 2006-08-24 2010-09-01 Valeo Vision Procédé de détermination de passage d'un véhicule dans un goulet
US8306063B2 (en) 2006-08-29 2012-11-06 EXFO Services Assurance, Inc. Real-time transport protocol stream detection system and method
US8687087B2 (en) 2006-08-29 2014-04-01 Csr Technology Inc. Digital camera with selectively increased dynamic range by control of parameters during image acquisition
KR100746360B1 (ko) 2006-08-31 2007-08-06 삼성전기주식회사 스템퍼 제조방법
NO326372B1 (no) 2006-09-21 2008-11-17 Polight As Polymerlinse
US7918555B2 (en) 2006-09-25 2011-04-05 Ophthonix, Inc. Methods and lenses for correction of chromatic aberration
JP4403162B2 (ja) 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
US20080080028A1 (en) 2006-10-02 2008-04-03 Micron Technology, Inc. Imaging method, apparatus and system having extended depth of field
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
KR101360545B1 (ko) 2006-10-11 2014-02-10 포라이트 에이에스 조정 가능한 렌즈의 제조 방법
WO2008044937A1 (en) 2006-10-11 2008-04-17 Ignis Display As Design of compact adjustable lens
US8073196B2 (en) 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7702229B2 (en) 2006-10-18 2010-04-20 Eastman Kodak Company Lens array assisted focus detection
JP4349456B2 (ja) 2006-10-23 2009-10-21 ソニー株式会社 固体撮像素子
JP4942221B2 (ja) 2006-10-25 2012-05-30 国立大学法人東京工業大学 高解像度仮想焦点面画像生成方法
US7888159B2 (en) 2006-10-26 2011-02-15 Omnivision Technologies, Inc. Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating
JP4452951B2 (ja) 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
KR20080043106A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 광학렌즈 및 그 제조방법
US8059162B2 (en) 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
US20080118241A1 (en) 2006-11-16 2008-05-22 Tekolste Robert Control of stray light in camera systems employing an optics stack and associated methods
EP2084491A2 (en) 2006-11-21 2009-08-05 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
KR20080047002A (ko) 2006-11-24 2008-05-28 엘지이노텍 주식회사 카메라모듈의 렌즈 어셈블리 및 그 제작 방법
JP4406937B2 (ja) 2006-12-01 2010-02-03 富士フイルム株式会社 撮影装置
US8570426B2 (en) 2008-11-25 2013-10-29 Lytro, Inc. System of and method for video refocusing
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US8242426B2 (en) 2006-12-12 2012-08-14 Dolby Laboratories Licensing Corporation Electronic camera having multiple sensors for capturing high dynamic range images and related methods
US7646549B2 (en) 2006-12-18 2010-01-12 Xceed Imaging Ltd Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
US8213500B2 (en) 2006-12-21 2012-07-03 Sharp Laboratories Of America, Inc. Methods and systems for processing film grain noise
TWI324015B (en) 2006-12-22 2010-04-21 Ind Tech Res Inst Autofocus searching method
US8103111B2 (en) 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US20080158259A1 (en) 2006-12-28 2008-07-03 Texas Instruments Incorporated Image warping and lateral color correction
US20080158698A1 (en) 2006-12-29 2008-07-03 Chao-Chi Chang Lens barrel array and lens array and the method of making the same
US7973823B2 (en) 2006-12-29 2011-07-05 Nokia Corporation Method and system for image pre-processing
US20080165257A1 (en) 2007-01-05 2008-07-10 Micron Technology, Inc. Configurable pixel array system and method
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP5024992B2 (ja) 2007-02-02 2012-09-12 株式会社ジャパンディスプレイセントラル 表示装置
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
CN100585453C (zh) 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP4386083B2 (ja) 2007-02-27 2009-12-16 トヨタ自動車株式会社 駐車支援装置
JP4153013B1 (ja) 2007-03-06 2008-09-17 シャープ株式会社 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末
US7755679B2 (en) 2007-03-07 2010-07-13 Altasens, Inc. Apparatus and method for reducing edge effect in an image sensor
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US7676146B2 (en) 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
JP4915859B2 (ja) 2007-03-26 2012-04-11 船井電機株式会社 物体の距離導出装置
JP2008242658A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 立体物体の撮像装置
US7738017B2 (en) 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems
US8165418B2 (en) 2007-03-30 2012-04-24 Brother Kogyo Kabushiki Kaisha Image processor
WO2008120217A2 (en) 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
US8098941B2 (en) 2007-04-03 2012-01-17 Aptina Imaging Corporation Method and apparatus for parallelization of image compression encoders
US8213711B2 (en) 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
CN101281282A (zh) 2007-04-04 2008-10-08 鸿富锦精密工业(深圳)有限公司 镜头模组
JP2008258885A (ja) 2007-04-04 2008-10-23 Texas Instr Japan Ltd 撮像装置および撮像装置の駆動方法
CN103839955B (zh) 2007-04-18 2016-05-25 因维萨热技术公司 用于光电装置的材料、系统和方法
US8467628B2 (en) 2007-04-24 2013-06-18 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
KR100869219B1 (ko) 2007-05-03 2008-11-18 동부일렉트로닉스 주식회사 이미지 센서 및 그 제조방법
US8462220B2 (en) 2007-05-09 2013-06-11 Aptina Imaging Corporation Method and apparatus for improving low-light performance for small pixel image sensors
US7812869B2 (en) 2007-05-11 2010-10-12 Aptina Imaging Corporation Configurable pixel array system and method
JP4341695B2 (ja) 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
JP4337911B2 (ja) 2007-05-24 2009-09-30 ソニー株式会社 撮像装置、撮像回路、および撮像方法
US20080298674A1 (en) 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
US7733575B2 (en) 2007-05-31 2010-06-08 Artificial Muscle, Inc. Optical systems employing compliant electroactive materials
US8290358B1 (en) 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
EP2163103B1 (en) 2007-06-26 2017-05-03 Koninklijke Philips N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
JP5160643B2 (ja) 2007-07-12 2013-03-13 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
US8125619B2 (en) 2007-07-25 2012-02-28 Eminent Electronic Technology Corp. Integrated ambient light sensor and distance sensor
JP5006727B2 (ja) 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
US8019215B2 (en) 2007-08-06 2011-09-13 Adobe Systems Incorporated Method and apparatus for radiance capture by multiplexing in the frequency domain
EP2034338A1 (en) 2007-08-11 2009-03-11 ETH Zurich Liquid Lens System
EP2026563A1 (en) 2007-08-14 2009-02-18 Deutsche Thomson OHG System and method for detecting defective pixels
US7782364B2 (en) 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
US20090086074A1 (en) 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
US7940311B2 (en) 2007-10-03 2011-05-10 Nokia Corporation Multi-exposure pattern for enhancing dynamic range of images
JP5172267B2 (ja) 2007-10-09 2013-03-27 富士フイルム株式会社 撮像装置
US8049289B2 (en) 2007-10-11 2011-11-01 Dongbu Hitek Co., Ltd. Image sensor and method for manufacturing the same
US7956924B2 (en) 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US7920193B2 (en) 2007-10-23 2011-04-05 Aptina Imaging Corporation Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers
US7777804B2 (en) 2007-10-26 2010-08-17 Omnivision Technologies, Inc. High dynamic range sensor with reduced line memory for color interpolation
WO2009061814A2 (en) 2007-11-05 2009-05-14 University Of Florida Research Foundation, Inc. Lossless data compression and real-time decompression
US20090128644A1 (en) 2007-11-15 2009-05-21 Camp Jr William O System and method for generating a photograph
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8126279B2 (en) 2007-11-19 2012-02-28 The University Of Arizona Lifting-based view compensated compression and remote visualization of volume rendered images
JP5010445B2 (ja) 2007-11-29 2012-08-29 パナソニック株式会社 マイクロレンズアレイ用金型の製造方法
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
WO2009073950A1 (en) 2007-12-13 2009-06-18 Keigo Izuka Camera system and method for amalgamating images to create an omni-focused image
TWI353778B (en) 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
US7880807B2 (en) 2007-12-26 2011-02-01 Sony Ericsson Mobile Communications Ab Camera system with mirror arrangement for generating self-portrait panoramic pictures
US20110031381A1 (en) 2007-12-28 2011-02-10 Hiok-Nam Tay Light guide array for an image sensor
TWI362628B (en) 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
JP4413261B2 (ja) 2008-01-10 2010-02-10 シャープ株式会社 撮像装置及び光軸制御方法
JP5198295B2 (ja) 2008-01-15 2013-05-15 富士フイルム株式会社 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
US8824833B2 (en) 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
GB0802290D0 (en) 2008-02-08 2008-03-12 Univ Kent Canterbury Camera adapter based optical imaging apparatus
US8319301B2 (en) 2008-02-11 2012-11-27 Omnivision Technologies, Inc. Self-aligned filter for an image sensor
JP2009206922A (ja) 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
US9094675B2 (en) 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
CN101520532A (zh) 2008-02-29 2009-09-02 鸿富锦精密工业(深圳)有限公司 复合镜片
GB2471036B (en) 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
JPWO2009119229A1 (ja) 2008-03-26 2011-07-21 コニカミノルタホールディングス株式会社 3次元撮像装置及び3次元撮像装置の校正方法
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
US7843554B2 (en) 2008-04-25 2010-11-30 Rockwell Collins, Inc. High dynamic range sensor system and method
US8155456B2 (en) 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8724921B2 (en) 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
US8633996B2 (en) 2008-05-09 2014-01-21 Rambus Inc. Image sensor having nonlinear response
US8208543B2 (en) 2008-05-19 2012-06-26 Microsoft Corporation Quantization and differential coding of alpha image data
EP3876510A1 (en) 2008-05-20 2021-09-08 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8125559B2 (en) 2008-05-25 2012-02-28 Avistar Communications Corporation Image formation for large photosensor array surfaces
US8131097B2 (en) 2008-05-28 2012-03-06 Aptina Imaging Corporation Method and apparatus for extended depth-of-field image restoration
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
JP2009300268A (ja) 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
KR101539935B1 (ko) 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
WO2009157273A1 (ja) 2008-06-25 2009-12-30 コニカミノルタオプト株式会社 撮像光学系及び撮像用レンズの製造方法
US7710667B2 (en) 2008-06-25 2010-05-04 Aptina Imaging Corp. Imaging module with symmetrical lens system and method of manufacture
KR101000531B1 (ko) 2008-06-26 2010-12-14 에스디씨마이크로 주식회사 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템
US7916396B2 (en) 2008-06-27 2011-03-29 Micron Technology, Inc. Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same
US8326069B2 (en) 2008-06-30 2012-12-04 Intel Corporation Computing higher resolution images from multiple lower resolution images
US7773317B2 (en) 2008-07-01 2010-08-10 Aptina Imaging Corp. Lens system with symmetrical optics
US7920339B2 (en) 2008-07-02 2011-04-05 Aptina Imaging Corporation Method and apparatus providing singlet wafer lens system with field flattener
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
KR101445185B1 (ko) 2008-07-10 2014-09-30 삼성전자주식회사 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법
CN101656259A (zh) 2008-08-20 2010-02-24 鸿富锦精密工业(深圳)有限公司 影像感测器封装结构、封装方法及相机模组
CN102138102A (zh) 2008-09-01 2011-07-27 兰斯维克托公司 液晶光电装置的晶片级制造
JP5105482B2 (ja) 2008-09-01 2012-12-26 船井電機株式会社 光学的条件設計方法及び複眼撮像装置
JP5233781B2 (ja) 2008-09-02 2013-07-10 株式会社リコー 液体容器及び画像形成装置
US8098297B2 (en) 2008-09-03 2012-01-17 Sony Corporation Pre- and post-shutter signal image capture and sort for digital camera
KR20100028344A (ko) 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
JP5238429B2 (ja) 2008-09-25 2013-07-17 株式会社東芝 立体映像撮影装置および立体映像撮影システム
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
US9064476B2 (en) 2008-10-04 2015-06-23 Microsoft Technology Licensing, Llc Image super-resolution using gradient profile prior
US8310525B2 (en) 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
GB2476397B (en) 2008-10-15 2014-04-30 Spinella Ip Holdings Inc Digital processing method and system for determination of optical flow
JP2010096723A (ja) 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
US8436909B2 (en) 2008-10-21 2013-05-07 Stmicroelectronics S.R.L. Compound camera sensor and related method of processing digital images
EP2348733A4 (en) 2008-10-27 2012-09-12 Lg Electronics Inc METHOD AND APPARATUS FOR THE SYNTHESIS OF VIRTUAL VISUALIZATION IMAGES
US8063975B2 (en) 2008-10-29 2011-11-22 Jabil Circuit, Inc. Positioning wafer lenses on electronic imagers
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
WO2010057081A1 (en) 2008-11-14 2010-05-20 The Scripps Research Institute Image analysis platform for identifying artifacts in samples and laboratory consumables
AU2008246243B2 (en) 2008-11-19 2011-12-22 Canon Kabushiki Kaisha DVC as generic file format for plenoptic camera
US8289440B2 (en) 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8013904B2 (en) 2008-12-09 2011-09-06 Seiko Epson Corporation View projection matrix based high performance low latency display pipeline
US8149323B2 (en) 2008-12-18 2012-04-03 Qualcomm Incorporated System and method to autofocus assisted by autoexposure control
JP4631966B2 (ja) 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN101770060B (zh) 2008-12-27 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组及其组装方法
US8405742B2 (en) 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US8259212B2 (en) 2009-01-05 2012-09-04 Applied Quantum Technologies, Inc. Multiscale optical system
WO2010081010A2 (en) 2009-01-09 2010-07-15 New York University Methods, computer-accessible medium and systems for facilitating dark flash photography
US20100177411A1 (en) 2009-01-09 2010-07-15 Shashikant Hegde Wafer level lens replication on micro-electrical-mechanical systems
CN102272796B (zh) 2009-01-09 2014-03-12 柯尼卡美能达控股株式会社 运动向量生成装置以及运动向量生成方法
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8300108B2 (en) 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
US8290301B2 (en) 2009-02-06 2012-10-16 Raytheon Company Optimized imaging system for collection of high resolution imagery
KR101776955B1 (ko) 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
WO2010095440A1 (ja) 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8520970B2 (en) 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
KR20100099896A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
US8207759B2 (en) 2009-03-12 2012-06-26 Fairchild Semiconductor Corporation MIPI analog switch for automatic selection of multiple inputs based on clock voltages
US8542287B2 (en) 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
US8450821B2 (en) 2009-03-26 2013-05-28 Micron Technology, Inc. Method and apparatus providing combined spacer and optical lens element
US8106949B2 (en) 2009-03-26 2012-01-31 Seiko Epson Corporation Small memory footprint light transport matrix capture
US7901095B2 (en) 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
JP4529010B1 (ja) 2009-03-30 2010-08-25 シャープ株式会社 撮像装置
US8896697B2 (en) 2009-04-07 2014-11-25 Chen Golan Video motion compensation and stabilization gimbaled imaging system
US20100259610A1 (en) 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8294099B2 (en) 2009-04-10 2012-10-23 Bae Systems Information And Electronic Systems Integration Inc. On-wafer butted microbolometer imaging array
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
JP5463718B2 (ja) 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
US20120249550A1 (en) 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
US8908058B2 (en) 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
EP2244484B1 (en) 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
CN101527046B (zh) 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
KR101671021B1 (ko) 2009-04-30 2016-11-10 삼성전자주식회사 스테레오스코픽 영상 데이터 전송 장치 및 방법
US8271544B2 (en) 2009-05-01 2012-09-18 Creative Technology Ltd Data file having more than one mode of operation
US8203633B2 (en) 2009-05-27 2012-06-19 Omnivision Technologies, Inc. Four-channel color filter array pattern
KR20100130423A (ko) 2009-06-03 2010-12-13 삼성전자주식회사 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈
CN101931742B (zh) 2009-06-18 2013-04-24 鸿富锦精密工业(深圳)有限公司 影像感测模组及取像模组
US20100321640A1 (en) 2009-06-22 2010-12-23 Industrial Technology Research Institute Projection display chip
WO2011008443A2 (en) 2009-06-29 2011-01-20 Lensvector Inc. Wafer level camera module with active optical element
JP2011030184A (ja) 2009-07-01 2011-02-10 Sony Corp 画像処理装置、及び、画像処理方法
US8212197B2 (en) 2009-07-02 2012-07-03 Xerox Corporation Image sensor with integration time compensation
JP2011017764A (ja) 2009-07-07 2011-01-27 Konica Minolta Opto Inc 撮像レンズ,撮像装置及び携帯端末
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US20110019243A1 (en) 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
CN101964866B (zh) 2009-07-24 2013-03-20 鸿富锦精密工业(深圳)有限公司 计算摄像型数码相机
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US8577183B2 (en) 2009-08-05 2013-11-05 Raytheon Company Resolution on demand
US8773652B2 (en) 2009-08-11 2014-07-08 Ether Precision, Inc. Method and device for aligning a lens with an optical system
CA2771018C (en) 2009-08-14 2017-06-13 Genesis Group Inc. Real-time image and video matting
JP2011044801A (ja) 2009-08-19 2011-03-03 Toshiba Corp 画像処理装置
US8154632B2 (en) 2009-08-24 2012-04-10 Lifesize Communications, Inc. Detection of defective pixels in an image sensor
KR101680300B1 (ko) 2009-08-31 2016-11-28 삼성전자주식회사 액체 렌즈 및 그 제조방법
US9274699B2 (en) 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US8411146B2 (en) 2009-09-04 2013-04-02 Lockheed Martin Corporation Single camera color and infrared polarimetric imaging
FR2950153B1 (fr) 2009-09-15 2011-12-23 Commissariat Energie Atomique Dispositif optique a membrane deformable a actionnement piezoelectrique
US20140076336A1 (en) 2009-09-17 2014-03-20 Ascentia Health, Inc. Ear insert for relief of tmj discomfort and headaches
US8754941B1 (en) 2009-09-22 2014-06-17 Altia Systems, Inc. Multi-imager video camera with frame-by-frame view switching
BR112012007115A2 (pt) 2009-10-02 2020-02-27 Koninklijke Philips Electronics N.V. Método de codificação de um sinal de dados de vídeo 3d, método de decodificação de um sinal de vídeo 3d, codificador para codificar um sinal de dados de vídeo 3d, decodificador para decodificar um sinal de dados de vídeo 3d, produto de programa de computador para codificar um sinal de dados de vídeo, produto de programa de computador para decodificar um sinal de vídeo, sinal de dados de vídeo 3d, e portador de dados digitais
US8199165B2 (en) 2009-10-14 2012-06-12 Hewlett-Packard Development Company, L.P. Methods and systems for object segmentation in digital images
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
WO2011046607A2 (en) 2009-10-14 2011-04-21 Thomson Licensing Filtering and edge encoding
US8502909B2 (en) 2009-10-19 2013-08-06 Pixar Super light-field lens
KR20120084775A (ko) 2009-10-30 2012-07-30 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 입체 디스플레이 시스템
US8546737B2 (en) 2009-10-30 2013-10-01 Invisage Technologies, Inc. Systems and methods for color binning
WO2011055655A1 (ja) 2009-11-05 2011-05-12 コニカミノルタオプト株式会社 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法
JP5214811B2 (ja) 2009-11-13 2013-06-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
JP5399215B2 (ja) 2009-11-18 2014-01-29 シャープ株式会社 多眼カメラ装置および電子情報機器
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US8730338B2 (en) 2009-12-01 2014-05-20 Nokia Corporation Set of camera modules hinged on a body and functionally connected to a single actuator
JP5446797B2 (ja) 2009-12-04 2014-03-19 株式会社リコー 撮像装置
US8446492B2 (en) 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5387377B2 (ja) 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9030530B2 (en) 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
US20110153248A1 (en) 2009-12-23 2011-06-23 Yeming Gu Ophthalmic quality metric system
US8885067B2 (en) 2009-12-24 2014-11-11 Sharp Kabushiki Kaisha Multocular image pickup apparatus and multocular image pickup method
JP4983905B2 (ja) 2009-12-25 2012-07-25 カシオ計算機株式会社 撮像装置、3dモデリングデータ生成方法、および、プログラム
KR101643607B1 (ko) 2009-12-30 2016-08-10 삼성전자주식회사 영상 데이터 생성 방법 및 장치
CN102118551A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 成像装置
CN102131044B (zh) 2010-01-20 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组
WO2011097508A2 (en) 2010-02-04 2011-08-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
US8648918B2 (en) 2010-02-18 2014-02-11 Sony Corporation Method and system for obtaining a point spread function using motion information
CN103210641B (zh) 2010-02-19 2017-03-15 双光圈国际株式会社 处理多孔径像数据
KR20110097690A (ko) 2010-02-23 2011-08-31 삼성전자주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
KR101802238B1 (ko) 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
WO2011112633A1 (en) 2010-03-09 2011-09-15 Flir Systems, Inc. Imager with multiple sensor arrays
US20110221950A1 (en) 2010-03-12 2011-09-15 Doeke Jolt Oostra Camera device, wafer scale package
KR20130004505A (ko) 2010-03-17 2013-01-10 펠리칸 이매징 코포레이션 이미징 렌즈 어레이를 마스터링하기 위한 제작 공정
EP2391142B1 (en) 2010-03-19 2013-12-25 FUJIFILM Corporation Imaging device, method and program, and recording medium using same
US8736733B2 (en) 2010-03-19 2014-05-27 Invisage Technologies, Inc. Dark current reduction in image sensors via dynamic electrical biasing
JP5679978B2 (ja) 2010-03-19 2015-03-04 パナソニックIpマネジメント株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
US8285033B2 (en) 2010-04-01 2012-10-09 Seiko Epson Corporation Bi-affinity filter: a bilateral type filter for color images
US9001227B2 (en) 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US8600186B2 (en) 2010-04-26 2013-12-03 City University Of Hong Kong Well focused catadioptric image acquisition
US9053573B2 (en) 2010-04-29 2015-06-09 Personify, Inc. Systems and methods for generating a virtual camera viewpoint for an image
US20130250150A1 (en) 2010-05-03 2013-09-26 Michael R. Malone Devices and methods for high-resolution image and video capture
US9256974B1 (en) 2010-05-04 2016-02-09 Stephen P Hines 3-D motion-parallax portable display software application
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
US20130147979A1 (en) 2010-05-12 2013-06-13 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
JP5545016B2 (ja) 2010-05-12 2014-07-09 ソニー株式会社 撮像装置
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
WO2011142774A1 (en) 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods
US8576293B2 (en) 2010-05-18 2013-11-05 Aptina Imaging Corporation Multi-channel imager
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US20120062697A1 (en) 2010-06-09 2012-03-15 Chemimage Corporation Hyperspectral imaging sensor for tracking moving targets
US20110310980A1 (en) 2010-06-22 2011-12-22 Qualcomm Mems Technologies, Inc. Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id
KR20120000485A (ko) 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
CN101883291B (zh) 2010-06-29 2012-12-19 上海大学 感兴趣区域增强的视点绘制方法
EP2403234A1 (en) 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
US8493432B2 (en) 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
GB2482022A (en) 2010-07-16 2012-01-18 St Microelectronics Res & Dev Method for measuring resolution and aberration of lens and sensor
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US20120019700A1 (en) 2010-07-26 2012-01-26 American Technologies Network Corporation Optical system with automatic mixing of daylight and thermal vision digital video signals
US20120026342A1 (en) 2010-07-27 2012-02-02 Xiaoguang Yu Electronic system communicating with image sensor
US20120026451A1 (en) 2010-07-29 2012-02-02 Lensvector Inc. Tunable liquid crystal lens with single sided contacts
US8795246B2 (en) * 2010-08-10 2014-08-05 Spiracur Inc. Alarm system
CN102375199B (zh) 2010-08-11 2015-06-03 鸿富锦精密工业(深圳)有限公司 相机模组
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9013550B2 (en) 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
US9013634B2 (en) 2010-09-14 2015-04-21 Adobe Systems Incorporated Methods and apparatus for video completion
JP2013538534A (ja) 2010-09-14 2013-10-10 トムソン ライセンシング オクルージョンデータのための圧縮方法および圧縮装置
US8780251B2 (en) 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment
JP5392415B2 (ja) 2010-09-22 2014-01-22 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US9137503B2 (en) 2010-11-03 2015-09-15 Sony Corporation Lens and color filter arrangement, super-resolution camera system and method
US9065991B2 (en) 2010-11-04 2015-06-23 Lensvector Inc. Methods of adjustment free manufacture of focus free camera modules
MY150361A (en) 2010-12-03 2013-12-31 Mimos Berhad Method of image segmentation using intensity and depth information
US20130258067A1 (en) 2010-12-08 2013-10-03 Thomson Licensing System and method for trinocular depth acquisition with triangular sensor
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5963422B2 (ja) 2010-12-17 2016-08-03 キヤノン株式会社 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US9177381B2 (en) 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US8682107B2 (en) 2010-12-22 2014-03-25 Electronics And Telecommunications Research Institute Apparatus and method for creating 3D content for oriental painting
US8565709B2 (en) 2010-12-30 2013-10-22 Apple Inc. Digital signal filter
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
EP2666048A4 (en) 2011-01-20 2014-06-04 Fivefocal Llc PASSIV ATHERMALIZED INFRARED IMAGING SYSTEM AND MANUFACTURING METHOD THEREFOR
US8717467B2 (en) 2011-01-25 2014-05-06 Aptina Imaging Corporation Imaging systems with array cameras for depth sensing
US8581995B2 (en) 2011-01-25 2013-11-12 Aptina Imaging Corporation Method and apparatus for parallax correction in fused array imaging systems
JP5594477B2 (ja) 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
US9235894B2 (en) 2011-01-27 2016-01-12 Metaio Gmbh Method for determining correspondences between a first and a second image, and method for determining the pose of a camera
CA2767023C (en) 2011-02-09 2014-09-09 Research In Motion Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US20120200726A1 (en) 2011-02-09 2012-08-09 Research In Motion Limited Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF
US8698885B2 (en) 2011-02-14 2014-04-15 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
US20140176592A1 (en) 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
US8406548B2 (en) 2011-02-28 2013-03-26 Sony Corporation Method and apparatus for performing a blur rendering process on an image
CN103974044B (zh) 2011-02-28 2016-06-08 富士胶片株式会社 镶嵌图像处理方法
US8537245B2 (en) 2011-03-04 2013-09-17 Hand Held Products, Inc. Imaging and decoding device with quantum dot imager
CA2769358C (en) 2011-03-08 2016-06-07 Research In Motion Limited Quantum dot image sensor with dummy pixels used for intensity calculations
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
KR101792501B1 (ko) 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US8824821B2 (en) 2011-03-28 2014-09-02 Sony Corporation Method and apparatus for performing user inspired visual effects rendering on an image
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
FR2974449A1 (fr) 2011-04-22 2012-10-26 Commissariat Energie Atomique Circuit integre imageur et dispositif de capture d'images stereoscopiques
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
JP5797016B2 (ja) 2011-05-30 2015-10-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
JP2013005259A (ja) 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013003276A1 (en) 2011-06-28 2013-01-03 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8773513B2 (en) 2011-07-01 2014-07-08 Seiko Epson Corporation Context and epsilon stereo constrained correspondence matching
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US9264689B2 (en) 2011-08-04 2016-02-16 Semiconductor Components Industries, Llc Systems and methods for color compensation in multi-view video
JP2014529214A (ja) 2011-08-09 2014-10-30 サムスン エレクトロニクス カンパニー リミテッド 多視点ビデオデータの深度マップ符号化方法及びその装置、復号化方法及びその装置
US8432435B2 (en) 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
US8866951B2 (en) 2011-08-24 2014-10-21 Aptina Imaging Corporation Super-resolution imaging systems
US8704895B2 (en) 2011-08-29 2014-04-22 Qualcomm Incorporated Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
CN103119516B (zh) 2011-09-20 2016-09-07 松下知识产权经营株式会社 光场摄像装置和图像处理装置
JP5544047B2 (ja) 2011-09-21 2014-07-09 富士フイルム株式会社 画像処理装置、方法及びプログラム並びに立体撮像装置、携帯電子機器、プリンタ及び立体画像再生装置
US8724893B2 (en) 2011-09-27 2014-05-13 Thomson Licensing Method and system for color look up table generation
CN104081414B (zh) 2011-09-28 2017-08-01 Fotonation开曼有限公司 用于编码和解码光场图像文件的系统及方法
US8908083B2 (en) 2011-09-28 2014-12-09 Apple Inc. Dynamic autofocus operations
JP5831105B2 (ja) 2011-09-30 2015-12-09 ソニー株式会社 撮像装置及び撮像方法
CN104185808A (zh) 2011-10-11 2014-12-03 派力肯影像公司 包括自适应光学元件的透镜堆叠阵列
EP2592823A3 (en) 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Image-capturing device
US20130107061A1 (en) 2011-10-31 2013-05-02 Ankit Kumar Multi-resolution ip camera
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
JP5149435B1 (ja) 2011-11-04 2013-02-20 株式会社東芝 映像処理装置および映像処理方法
EP2590138B1 (en) 2011-11-07 2019-09-11 Flir Systems AB Gas visualization arrangements, devices, and methods
WO2013072875A2 (en) 2011-11-15 2013-05-23 Technion Research & Development Foundation Ltd. Method and system for transmitting light
US20130121559A1 (en) 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality
WO2013119706A1 (en) 2012-02-06 2013-08-15 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
US9172889B2 (en) 2012-02-09 2015-10-27 Semiconductor Components Industries, Llc Imaging systems and methods for generating auto-exposed high-dynamic-range images
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP5860304B2 (ja) 2012-02-23 2016-02-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6112824B2 (ja) 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
EP2637139A1 (en) 2012-03-05 2013-09-11 Thomson Licensing Method and apparatus for bi-layer segmentation
CN104350408B (zh) 2012-04-13 2018-04-06 自动化工程机械公司 使用连续运动扫描和时间插值的主动对准
KR102214789B1 (ko) 2012-04-16 2021-02-09 칠드런스 내셔널 메디컬 센터 수술 및 중재 시술에서 추적 및 제어를 위한 듀얼-모드 스테레오 이미징 시스템
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9300932B2 (en) 2012-05-09 2016-03-29 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
KR101195927B1 (ko) * 2012-07-06 2012-10-30 한국기계연구원 박막 태양전지 및 그 제조방법
US8792710B2 (en) * 2012-07-24 2014-07-29 Intel Corporation Stereoscopic depth reconstruction with probabilistic pixel correspondence search
US9147251B2 (en) 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
US8988566B2 (en) 2012-08-09 2015-03-24 Omnivision Technologies, Inc. Lens array for partitioned image sensor having color filters
EP4296963A3 (en) 2012-08-21 2024-03-27 Adeia Imaging LLC Method for depth detection in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
WO2014034444A1 (ja) 2012-08-31 2014-03-06 ソニー株式会社 画像処理装置および画像処理方法、並びに情報処理装置
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
KR101937323B1 (ko) 2012-09-18 2019-01-11 한국전자통신연구원 위장 얼굴 판별 장치 및 방법
US9143673B2 (en) 2012-09-19 2015-09-22 Google Inc. Imaging device with a plurality of pixel arrays
CN104685860A (zh) 2012-09-28 2015-06-03 派力肯影像公司 利用虚拟视点从光场生成图像
TW201415879A (zh) 2012-10-12 2014-04-16 Wintek Corp 影像擷取裝置
JP6189028B2 (ja) 2012-10-22 2017-08-30 株式会社東芝 電力用開閉装置、及びその操作機構
US9609190B2 (en) 2012-10-31 2017-03-28 Invisage Technologies, Inc. Devices, methods, and systems for expanded-field-of-view image and video capture
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
CN113472989A (zh) 2012-11-28 2021-10-01 核心光电有限公司 多孔径成像系统以及通过多孔径成像系统获取图像的方法
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9088369B2 (en) 2012-12-28 2015-07-21 Synergy Microwave Corporation Self injection locked phase locked looped optoelectronic oscillator
US9671595B2 (en) 2013-01-05 2017-06-06 Light Labs Inc. Methods and apparatus for using multiple optical chains in paralell
KR20140094395A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014160142A1 (en) 2013-03-13 2014-10-02 Pelican Imaging Corporation Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014144157A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US20140267286A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and Methods for Providing an Array Projector
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US20150104101A1 (en) 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
GB2523149A (en) * 2014-02-14 2015-08-19 Nokia Technologies Oy Method, apparatus and computer program product for image-driven cost volume aggregation
JP6211435B2 (ja) 2014-02-26 2017-10-11 株式会社アドバンテスト 半導体装置の製造方法
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN108307675B (zh) 2015-04-19 2020-12-25 快图有限公司 用于vr/ar应用中的深度增强的多基线相机阵列系统架构
CN105335968A (zh) * 2015-10-13 2016-02-17 南京邮电大学 一种基于置信度传播算法的深度图提取方法及装置
CN105719285A (zh) * 2016-01-19 2016-06-29 东南大学 一种基于方向倒角距离特征的行人检测方法
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN106340041B (zh) * 2016-09-18 2018-12-25 杭州电子科技大学 一种基于级联遮挡滤除滤波器的光场相机深度估计方法
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization

Also Published As

Publication number Publication date
US11983893B2 (en) 2024-05-14
US20230334687A1 (en) 2023-10-19
US20190057513A1 (en) 2019-02-21
EP3971825A1 (en) 2022-03-23
WO2019038193A1 (en) 2019-02-28
US10818026B2 (en) 2020-10-27
CN111066065B (zh) 2024-04-16
US10482618B2 (en) 2019-11-19
US20200151894A1 (en) 2020-05-14
US20210042952A1 (en) 2021-02-11
US11562498B2 (en) 2023-01-24
EP3673461B1 (en) 2021-09-08
CN118212141A (zh) 2024-06-18
EP3971825B1 (en) 2024-04-24
CN111066065A (zh) 2020-04-24
EP3673461A1 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
ES2894728T3 (es) Sistemas y métodos para la regularización de profundidad híbrida
US11830141B2 (en) Systems and methods for 3D facial modeling
JP7403528B2 (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
US9317970B2 (en) Coupled reconstruction of hair and skin
WO2015142446A1 (en) Augmented reality lighting with dynamic geometry
Berent et al. Plenoptic manifolds
Bleyer et al. A stereo approach that handles the matting problem via image warping
Zhao et al. Cross-scale reference-based light field super-resolution
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
US20150145861A1 (en) Method and arrangement for model generation
Camplani et al. Accurate depth-color scene modeling for 3D contents generation with low cost depth cameras
WO2016058359A1 (zh) 生成三维图像的方法和装置
CN107610070B (zh) 基于三摄像采集的自由立体匹配方法
EP4064193A1 (en) Real-time omnidirectional stereo matching using multi-view fisheye lenses
WO2022036338A2 (en) System and methods for depth-aware video processing and depth perception enhancement
KR20230072170A (ko) 3차원 지도에 대한 모델링 데이터의 경량화 방법
Jang et al. Depth video based human model reconstruction resolving self-occlusion
Ivan et al. Synthesizing a 4D spatio-angular consistent light field from a single image
KR20060021566A (ko) 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템
Liu et al. Fusion of depth maps based on confidence
KR20190072742A (ko) 캘리브레이션된 멀티 카메라 입력 기반 실시간 초다시점 중간시점 영상 합성 방법 및 시스템
Pohl et al. Spatio-temporal video background inpainting
Abd Manap et al. Disparity Depth Map Layers Representation for Image View Synthesis
GB2624542A (en) Stabilised 360 degree depth imaging system without image rectification
CN113658202A (zh) 边缘模糊定位联合mrf优化的单目视频虚拟视图合成方法