DE112020005932T5 - Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen - Google Patents

Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen Download PDF

Info

Publication number
DE112020005932T5
DE112020005932T5 DE112020005932.4T DE112020005932T DE112020005932T5 DE 112020005932 T5 DE112020005932 T5 DE 112020005932T5 DE 112020005932 T DE112020005932 T DE 112020005932T DE 112020005932 T5 DE112020005932 T5 DE 112020005932T5
Authority
DE
Germany
Prior art keywords
polarization
tensors
computer
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020005932.4T
Other languages
English (en)
Inventor
Agastya KALRA
Vage Taamazyan
Supreeth Krishna RAO
Kartik Venkataraman
Ramesh Raskar
Achuta Kadambi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INTRINSIC INNOVATION LLC, MOUNTAIN VIEW, US
Original Assignee
Boston Polarimetrics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Polarimetrics Inc filed Critical Boston Polarimetrics Inc
Publication of DE112020005932T5 publication Critical patent/DE112020005932T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Vascular Medicine (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Ein computerimplementiertes Verfahren zum Berechnen einer Vorhersage für Bilder einer Szene umfassend: Empfangen eines oder mehrerer Polarisationsrohbilder einer Szene, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel aufgenommen wurden; Extrahieren eines oder mehrerer erster Tensoren in einem oder mehrere Polarisationsdarstellungsräume aus den Polarisationsrohbildern; und Berechnen einer Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG(EN)
  • Diese Anmeldung beansprucht die Priorität und die Vorteile der vorläufigen US-Patentanmeldung Nr. 63/001,445 , die am 29. März, 2020 beim US-Patent- und Markenamt eingereicht wurde, und deren gesamte Offenbarung durch Bezugnahme hierin aufgenommen ist.
  • GEBIET
  • Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf computerbasiertes Sehen und die Segmentierung von Bildern in verschiedene Objekte, die auf den Bildern abgebildet sind.
  • HINTERGRUND
  • Semantische Segmentierung bezieht sich auf ein computerbasiertes Sehverfahren, bei dem ein oder mehrere zweidimensionale (2-D) Bilder einer Szene erfasst und verschiedene Bereiche des Bildes (z. B. jedes Pixel des Bildes) algorithmisch als zu bestimmten Objektklassen gehörend klassifiziert werden. Beispielsweise kann die Anwendung der semantischen Segmentierung auf ein Bild von Menschen in einem Garten einzelnen Pixeln des Eingangsbildes Klassen zuweisen, wobei die Klassen Typen von Objekten der realen Welt umfassen können, wie z. B.: Person, Tier, Baum, Boden, Himmel, Felsen, Gebäude und dergleichen. Die Instanzsegmentierung bezieht sich auf das weitere Anwenden von eindeutigen Kennzeichnungen auf jede der verschiedenen Instanzen von Objekten, z. B. durch separates Kennzeichnen jeder Person und jedes Tieres im Eingangsbild mit einem anderen Identifikator.
  • Eine mögliche Ausgabe eines semantischen Segmentierungs- oder Instanzsegmentierungsprozesses ist eine Segmentierungskarte oder Segmentierungsmaske, bei der es sich um ein 2D-Bild mit denselben Abmessungen wie das Eingangsbild handeln kann und bei der der Wert jedes Pixels einer Kennzeichnung entspricht (z. B. einer bestimmten Klasse im Fall der semantischen Segmentierung oder einer bestimmten Instanz im Fall der Instanzsegmentierung).
  • Segmentierung von Bildern transparenter Objekte ist ein schwieriges, offenes Problem in computerbasiertem Sehen. Transparenten Objekten fehlt die Textur (z. B. Oberflächenfarbinformationen, wie beim „Texture Mapping“, wie dieser Begriff im Bereich der Computergrafik verwendet wird), stattdessen wird die Textur oder das Aussehen der Szene hinter diesen transparenten Objekten übernommen (z. B. der Hintergrund der Szene, der durch die transparenten Objekte sichtbar ist). Infolgedessen sind unter Umständen transparente Objekte (und andere optisch schwierige Objekte) in einer aufgenommenen Szene für den semantischen Segmentierungsalgorithmus im Wesentlichen unsichtbar oder können basierend auf den Objekten klassifiziert werden, die durch diese transparenten Objekte sichtbar sind.
  • ZUSAMMENFASSUNG
  • Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Segmentierung von transparenten Objekten in Bildern unter Verwendung der Lichtpolarisation (der Drehung von Lichtwellen), um zusätzliche Informationskanäle für die semantische Segmentierung oder andere maschinelle Bildverarbeitungsprozesse bereitzustellen. Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auch auf die Erkennung und/oder Segmentierung anderer optisch schwieriger Objekte in Bildern durch die Verwendung von Lichtpolarisation, wobei optisch schwierige Objekte eine oder mehrere Bedingungen aufweisen können, darunter: nicht lambertsch, durchscheinend, mehrweginduzierend oder nicht reflektierend. In einigen Ausführungsformen wird eine Polarisationskamera zur Erfassung von Polarisationsrohbildern verwendet, um multimodale Bilder (z. B. mehrdimensionale Polarisationsinformationen) zu erzeugen. Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Architektur eines neuronalen Netzes, das ein Deep Learning-Backbone zur Verarbeitung der multimodalen Polarisationseingangsdaten verwendet. Dementsprechend führen Ausführungsformen der vorliegenden Offenbarung zuverlässig eine Instanzsegmentierung bei unübersichtlichen, transparenten und anderweitig optisch schwierigen Objekten in verschiedenen Szenen- und Hintergrundbedingungen durch, wodurch eine Verbesserung gegenüber vergleichbaren Ansätzen, die nur auf Intensitätsbildern basieren, aufgezeigt wird.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung weist ein computerimplementiertes Verfahren zum Berechnen einer Vorhersage für Bilder einer Szene auf: Empfangen von einem oder mehreren Polarisationsrohbildern einer Szene, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel erfasst wurden; Extrahieren von einem oder mehreren ersten Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern; und Berechnen einer Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder mehreren ersten Tensoren in dem einen oder mehreren Polarisationsdarstellungsräumen.
  • Der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen können umfassen: ein Bild eines linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild eines linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum.
  • Der eine oder die mehreren ersten Tensoren können ferner einen oder mehrere Nicht-Polarisations-Tensoren in einem oder mehreren Nicht-PolarisationsDarstellungsräumen enthalten, und der eine oder die mehreren Nicht-Polarisations-Tensoren können ein oder mehrere Intensitätsbilder in einem IntensitätsDarstellungsraum enthalten.
  • Das eine oder die mehreren Intensitätsbilder können umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild.
  • Die Vorhersage kann eine Segmentierungsmaske enthalten.
  • Das Berechnen der Vorhersage kann das Zuführen des einen oder der mehreren ersten Tensoren zu einem oder mehreren entsprechenden faltenden neuronalen Netz (CNN) Backbones umfassen, und jedes der einen oder mehreren CNN Backbones kann so konfiguriert sein, dass es eine Vielzahl von Modustensoren bei einer Vielzahl von verschiedenen Skalierungen berechnet.
  • Die Berechnung der Vorhersage kann ferner umfassen: Fusionieren der Modustensoren, die mit einer gleichen Skalierung von dem einen oder den mehreren CNN-Backbones berechnet wurden.
  • Das Fusionieren der Modustensoren mit der gleichen Skalierung kann Verknüpfen der Modustensoren mit der gleichen Skalierung beinhalten; Zuführen der Modustensoren zu einem Aufmerksamkeits-Teilnetz, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und Gewichten der Modustensoren basierend auf der einen oder den mehreren Aufmerksamkeitskarten, um einen fusionierten Tensor mit der Skalierung zu berechnen.
  • Das Berechnen der Vorhersage kann ferner das Liefern der fusionierten Tensoren, die bei jeder Skalierung berechnet wurden, an ein Vorhersagemodul umfassen, das konfiguriert ist, um die Segmentierungsmaske zu berechnen.
  • Die Segmentierungsmaske kann an eine Steuerung eines Entnahmeroboters geliefert werden.
  • Die Vorhersage kann eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten beinhalten.
  • Die Vorhersage kann ein oder mehrere detektierte Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte enthalten, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind.
  • Das Berechnen der Vorhersage kann ein Liefern des einen oder der mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen an ein statistisches Modell umfassen, und das statistische Modell kann mittels Trainingsdaten trainiert werden, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen enthalten.
  • Die Trainingsdaten können umfassen: erste Ausgangs-Trainingstensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen, die aus von einer Polarisationskamera erfassten Daten berechnet wurden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen einschließlich einer Drehung erzeugt wurden.
  • Wenn die zusätzlichen ersten Trainings-Tensoren ein Bild eines linearen Polarisationswinkels (AOLP) enthalten, kann das Erzeugen der zusätzlichen ersten Trainings-Tensoren Folgendes umfassen: Drehen der zusätzlichen ersten Trainings-Tensoren um einen Winkel; und Gegendrehen von Pixelwerten des AOLP-Bildes um den Winkel.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung enthält ein computerbasiertes Sehsystem: eine Polarisationskamera mit einem Polarisationsfilter; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, der Befehle speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen ein oder mehrere Polarisationsrohbilder einer Szene zu empfangen, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel erfasst wurden; einen oder mehrere erste Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern zu extrahieren; und eine Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen zu berechnen.
  • Der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen können umfassen: ein Bild eines linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild eines linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum.
  • Der eine oder die mehreren ersten Tensoren können ferner einen oder mehrere Nicht-Polarisations-Tensoren in einem oder mehreren Nicht-PolarisationsDarstellungsräumen enthalten, und wobei der eine oder die mehreren Nicht-Polarisations-Tensoren ein oder mehrere Intensitätsbilder in einem IntensitätsDarstellungsraum enthalten.
  • Das eine oder die mehreren Intensitätsbilder können umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild.
  • Die Vorhersage kann eine Segmentierungsmaske enthalten.
  • Der Speicher kann ferner Befehle speichern, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, die Vorhersage zu berechnen, indem der eine oder die mehreren ersten Tensoren an ein oder mehrere entsprechende faltende neuronale Netz (CNN) Backbones geliefert werden, wobei jedes von dem einen oder den mehreren CNN-Backbones so konfiguriert ist, dass es eine Vielzahl von Modustensoren bei einer Vielzahl von verschiedenen Skalierungen berechnet.
  • Der Speicher kann ferner Befehle speichern, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, die Modustensoren, die von dem einen oder den mehreren CNN-Backbones mit derselben Skalierung berechnet wurden, zu fusionieren.
  • Die Befehle, die den Prozessor veranlassen, die Modustensoren mit der gleichen Skalierung zu fusionieren, können Befehle enthalten, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen: die Modustensoren mit der gleichen Skalierung zu verknüpfen; die Modustensoren an ein Aufmerksamkeits-Teilnetz zu liefern, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und die Modustensoren basierend auf der einen oder mehreren Aufmerksamkeitskarten zu gewichten, um einen fusionierten Tensor für die Skalierung zu berechnen.
  • Die Befehle, die den Prozessor veranlassen, die Vorhersage zu berechnen, können ferner Befehle enthalten, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen, die bei jeder Skalierung berechneten fusionierten Tensoren an ein Vorhersagemodul zu liefern, das zum Berechnen der Segmentierungsmaske konfiguriert ist.
  • Die Segmentierungsmaske kann an eine Steuerung eines Robotergreifarms geliefert werden.
  • Die Vorhersage kann eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten beinhalten.
  • Die Vorhersage kann ein oder mehrere erfasste Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte enthalten, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind.
  • Die Befehle zum Berechnen der Vorhersage können Befehle enthalten, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, den einen oder die mehreren ersten Tensoren an ein statistisches Modell zu liefern, und das statistische Modell kann unter Verwendung von Trainingsdaten trainiert werden, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen enthalten.
  • Die Trainingsdaten können umfassen: erste Ausgangs-Trainingstensoren, die aus von einer Polarisationskamera erfassten Daten berechnet werden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen einschließlich einer Drehung erzeugt wurden.
  • Wenn die zusätzlichen Trainings-Ersttensoren ein Bild eines linearen Polarisationswinkels (AOLP) enthalten, umfasst das Erzeugen der zusätzlichen Trainings-Ersttensoren: Drehen der zusätzlichen Trainings-Ersttensoren um einen Winkel; und Gegendrehen von Pixelwerten des AOLP-Bildes um den Winkel.
  • Figurenliste
  • Die beigefügten Zeichnungen veranschaulichen zusammen mit der Beschreibung beispielhafte Ausführungsformen der vorliegenden Erfindung und dienen zusammen mit der Beschreibung zur Erläuterung der Prinzipien der vorliegenden Erfindung.
    • 1 ist ein schematisches Blockdiagramm eines Systems gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 2A ist ein Bild oder ein Intensitätsbild einer Szene mit einer echten transparenten Kugel, die auf einem Fotoausdruck platziert ist, der eine andere Szene mit zwei transparenten Kugeln („Spoofs“) und einigem Hintergrundgewirr zeigt.
    • 2B zeigt das Intensitätsbild von 2A mit einer überlagerten Segmentierungsmaske, wie sie von einem vergleichenden maskenregionenbasierten faltenden neuronalen Netz (Mask R-CNN) berechnet wird, das Instanzen von transparenten Kugeln identifiziert, wobei die echte transparente Kugel korrekt als eine Instanz identifiziert wird und die beiden Spoofs fälschlicherweise als Instanzen identifiziert werden.
    • 2C ist ein Polarisationswinkelbild, das aus Polarisationsrohbildern berechnet wurde, die gemäß einer Ausführungsform der vorliegenden Erfindung von der Szene aufgenommen wurden.
    • 2D zeigt das Intensitätsbild von 2A mit einer überlagerten Segmentierungsmaske, die unter Verwendung von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung berechnet wurde, wobei der echte transparente Ball korrekt als Instanz identifiziert wird und die beiden Fälschungen korrekt als Instanzen ausgeschlossen werden.
    • 3 ist ein Blockdiagramm einer Verarbeitungsschaltung zum Berechnen von Segmentierungskarten basierend auf Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 4 ist ein Flussdiagramm eines Verfahrens zur Durchführung einer Segmentierung von Eingangsbildern zum Berechnen einer Segmentierungskarte gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 5 ist eine Übersichtsdarstellung der Interaktion von Licht mit transparenten Objekten und nicht-transparenten (z.B. diffusen und/oder reflektierenden) Objekten.
    • 6A, 6B und 6C zeigen beispielhafte erste Merkmalskarten, die von einem Merkmalsextraktor berechnet wurden, der so konfiguriert ist, dass er abgeleitete Merkmalskarten in ersten Darstellungsräumen extrahiert, einschließlich einer Intensitätsmerkmalskarte I in 6A im Intensitätsdarstellungsraum, eine Merkmalkarte des linearen Polarisationsgrades (DOLP) ρ in 6B im DOLP-Darstellungsraum und eine Merkmalkarte des linearen Polarisationswinkels (AOLP) ϕ in 6C im Darstellungsraum, gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 7A und 7B sind jeweils erweiterte Ansichten der mit (a) und (b) gekennzeichneten Bereiche in 6A, 6B und 6C. 7C ist ein Diagramm, das einen Querschnitt einer in 7B gekennzeichneten Kante in der Intensitätsmerkmalskarte von 6A, der DOLP-Merkmalskarte von 6B und der AOLP-Merkmalskarte von 6C darstellt.
    • 8A ist ein Blockdiagramm eines Merkmalsextraktors gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 8B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zum Extrahieren von Merkmalen aus Polarisationsrohbildern darstellt.
    • 9 ist ein Blockdiagramm, das eine polarisierte CNN-Architektur gemäß einer Ausführungsform der vorliegenden Erfindung zeigt, die auf ein maskenregionsbasiertes faltendes neuronales Netz (Mask R-CNN) angewendet wird.
    • 10 ist ein Blockdiagramm eines Aufmerksamkeitsmoduls, das mit einem polarisierten CNN gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann.
    • 11 zeigt Beispiele von Aufmerksamkeitsgewichten, die von einem Aufmerksamkeitsmodul gemäß einer Ausführungsform der vorliegenden Erfindung für verschiedene Modustensoren (in ersten Darstellungsräumen) berechnet werden, die aus Polarisationsrohbildern extrahiert wurden, die von einer Polarisationskamera erfasst wurden.
    • 12A, 12B, 12C und 12D zeigen Segmentierungskarten, die von einem vergleichenden Bildsegmentierungssystem berechnet wurden, Segmentierungskarten, die von einem polarisierten faltenden neuronalen Netz gemäß einer Ausführungsform der vorliegenden Offenbarung berechnet wurden, und Bodenwirklichkeit-Segmentierungskarten (z. B. manuell erzeugte Segmentierungskarten).
  • DETAILLIERTE BESCHREIBUNG
  • In der folgenden detaillierten Beschreibung werden nur bestimmte beispielhafte Ausführungsformen der vorliegenden Erfindung zur Veranschaulichung gezeigt und beschrieben. Wie der Fachmann erkennt, kann die Erfindung in vielen verschiedenen Formen verwirklicht werden und ist nicht als auf die hier dargestellten Ausführungsformen beschränkt zu verstehen. Gleiche Bezugsziffern bezeichnen gleiche Elemente in der gesamten Beschreibung.
  • Transparente Objekte kommen in vielen realen Anwendungen von computerbasiertem Sehen oder maschinellen Bildverarbeitungssystemen vor, insbesondere bei der Automatisierung und Analyse in der Fertigung, den Biowissenschaften und der Automobilindustrie. In der Fertigung können Bildverarbeitungssysteme beispielsweise zum Automatisieren des Sortierens, Auswählens und Platzierens von Teilen, zum Überprüfen der Platzierung von Komponenten während der Fertigung sowie zur Endkontrolle und Fehlererkennung eingesetzt werden. In den Biowissenschaften können Bildverarbeitungssysteme beispielsweise zum Automatisieren des Messens von Reagenzien, des Vorbereitens von Proben, des Ablesens von Instrumenten, des Charakterisierens von Proben und des Entnehmens und Platzierens von Probenbehältern eingesetzt werden. Weitere Beispiele aus der Automobilindustrie sind das Erkennen von transparenten Objekten in Straßenszenen zur Unterstützung des Fahrers oder zum Betrieb selbstfahrender Fahrzeuge. Weitere Beispiele sind Hilfstechnologien wie selbstfahrende Rollstühle, die in der Lage sind, Glastüren und andere durchsichtige Hindernisse zu erkennen, und Geräte zum Unterstützen von Menschen mit Sehbehinderung, die in der Lage sind, durchsichtige Trinkgläser zu erkennen und zwischen echten Objekten und ausgedruckten Fälschungen zu unterscheiden.
  • Im Gegensatz zu opaken Objekten haben transparente Objekte keine eigene Textur (z. B. Oberflächenfarbinformationen, wie der Begriff im Bereich der Computergrafik verwendet wird, wie z. B. beim „Texture Mapping“). Infolgedessen können Vergleichssysteme transparente Objekte in Szenen, die mit Standard-Bildgebungssystemen (z. B. Kameras, die monochrome Intensitätsbilder oder Farbintensitätsbilder wie Rot-, Grün- und Blaubilder oder RGB-Bilder aufnehmen) aufgenommen wurden, in der Regel nicht korrekt identifizieren. Dies kann darauf zurückzuführen sein, dass die transparenten Objekte keine konsistente Textur (z. B. Oberflächenfarbe) aufweisen, an der sich die Algorithmen orientieren oder deren Erkennung sie erlernen können (z. B. während des Trainingsprozesses eines maschinellen Lernalgorithmus). Ähnliche Probleme können bei teilweise transparenten oder durchscheinenden Objekten sowie bei einigen Arten von reflektierenden Objekten (z. B. glänzendes Metall) und sehr dunklen Objekten (z. B. mattschwarze Objekte) auftreten.
  • Dementsprechend beziehen sich Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die Verwendung der Polarisationsbildgebung, um Informationen für Segmentierungsalgorithmen zur Erkennung transparenter Objekte in Szenen bereitzustellen. Darüber hinaus gelten Aspekte der vorliegenden Offenbarung auch für die Erkennung anderer optisch anspruchsvoller Objekte wie transparente, durchscheinende und reflektierende Objekte sowie dunkle Objekte.
  • Wie hierin verwendet, bezieht sich der Begriff „optisch anspruchsvoll“ auf Objekte, die aus Materialien bestehen, die eine oder mehrere der folgenden vier Eigenschaften mit einem ausreichenden Schwellenwert oder Grad erfüllen: nicht lambertsch (z. B. nicht matt); durchscheinend; mehrweginduzierend; und/oder nicht reflektierend. Unter bestimmten Umständen kann ein Objekt, das nur eines der vier Merkmale aufweist, optisch schwer zu erkennen sein. Darüber hinaus können Objekte oder Materialien mehrere Merkmale gleichzeitig aufweisen. Ein lichtdurchlässiges Objekt kann beispielsweise eine Oberflächenreflexion und eine Hintergrundreflexion aufweisen, so dass es sowohl wegen der Lichtdurchlässigkeit als auch wegen des Mehrwegeffekts eine Herausforderung darstellt. Unter bestimmten Umständen kann ein Objekt eines oder mehrere der vier oben genannten Merkmale aufweisen, aber dennoch optisch nicht schwierig zu erkennen sein, weil diese Bedingungen nicht in einem Ausmaß auftreten, das für ein vergleichendes computerbasiertes Sehsystem ein Problem darstellen würde. Ein Objekt kann zum Beispiel durchscheinend sein, aber dennoch eine ausreichende Oberflächenstruktur aufweisen, um erkannt und von anderen Objekten in einer Szene unterschieden werden zu können. Ein anderes Beispiel ist eine Oberfläche, die so wenig lambertinisch sein muss, dass sie für andere Bildverarbeitungssysteme problematisch ist. In einigen Ausführungsformen wird der Grad oder das Ausmaß, in dem ein Objekt optisch anspruchsvoll ist, anhand der Halbwertsbreite (FWHM) der Spiegelkeule der bidirektionalen Reflexionsverteilungsfunktion (BRDF) des Objekts bestimmt. Liegt diese FWHM unter einem Schwellenwert, gilt das Material als optisch anspruchsvoll.
  • 1 ist ein schematisches Blockdiagramm eines Systems gemäß einer Ausführungsform der vorliegenden Erfindung. Die in 1 gezeigte Anordnung enthält eine Szene 1 mit transparenten Objekten 2 (z. B. eine Kugel wie eine Glasmurmel, ein Zylinder wie ein Trinkglas oder ein Becher und eine Ebene wie eine Scheibe aus transparentem Acryl), die vor undurchsichtigen matten Objekten 3 (z. B. ein Baseball und ein Tennisball) angeordnet sind. Eine Polarisationskamera 10 hat ein Objektiv 12 mit einem Sichtfeld, wobei das Objektiv 12 und die Kamera 10 so ausgerichtet sind, dass das Sichtfeld die Szene 1 umfasst. Das Objektiv 12 ist konfiguriert, um Licht (z. B. fokussiertes Licht) von der Szene 1 auf ein lichtempfindliches Medium wie einen Bildsensor 14 (z. B. einen CMOS-Bildsensor (Complementary Metal Oxide Semiconductor) oder einen CCD-Bildsensor (Charge-Coupled Device)) zu richten.
  • Die Polarisationskamera 10 weist ferner einen Polarisator oder Polarisationsfilter oder eine Polarisationsmaske 16 auf, der/die im optischen Pfad zwischen der Szene 1 und dem Bildsensor 14 angeordnet ist. Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung ist der Polarisator oder die Polarisationsmaske 16 konfiguriert, um die Polarisationskamera 10 in die Lage zu versetzen, Bilder der Szene 1 zu erfassen, wobei der Polarisator in verschiedenen spezifizierten Winkeln eingestellt ist (z.B. bei 45°-Drehungen oder bei 60°-Drehungen oder bei ungleichmäßig beabstandeten Drehungen).
  • Als ein Beispiel zeigt 1 eine Ausführungsform, bei der die Polarisationsmaske 16 ein Polarisationsmosaik ist, das mit dem Pixelraster des Bildsensors 14 in einer Weise ausgerichtet ist, die einem Rot-Grün-Blau (RGB)-Farbfilter (z. B. einem Bayer-Filter) einer Farbkamera ähnelt. Ähnlich wie ein Farbfilter-Mosaik das einfallende Licht basierend auf der Wellenlänge filtert, so dass jedes Pixel im Bildsensor 14 Licht in einem bestimmten Teil des Spektrums (z. B., Rot, Grün oder Blau) entsprechend dem Muster der Farbfilter des Mosaiks empfängt, filtert eine Polarisationsmaske 16, die ein Polarisationsmosaik verwendet, Licht basierend auf der linearen Polarisation, so dass verschiedene Pixel Licht in verschiedenen Winkeln der linearen Polarisation empfangen (z. B. bei 0°, 45°, 90° und 135° oder bei 0°, 60° Grad und 120°). Dementsprechend kann die Polarisationskamera 10 mit einer Polarisationsmaske 16, wie sie in 1 dargestellt ist, Licht mit vier verschiedenen linearen Polarisationen simultan oder gleichzeitig erfassen. Ein Beispiel für eine Polarisationskamera ist die Blackfly® S Polarisationskamera, die von FLIR® Systems, Inc. in Wilsonville, Oregon, hergestellt wird.
  • Während sich die obige Beschreibung auf einige mögliche Implementierungen einer Polarisationskamera unter Verwendung eines Polarisationsmosaiks bezieht, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und umfassen andere Arten von Polarisationskameras, die in der Lage sind, Bilder mit mehreren verschiedenen Polarisationen zu erfassen. Beispielsweise kann die Polarisationsmaske 16 weniger oder mehr als vier verschiedene Polarisationen aufweisen oder Polarisationen in verschiedenen Winkeln haben (z. B. in Polarisationswinkeln von: 0°, 60° Grad und 120° oder in Polarisationswinkeln von 0°, 30°, 60°, 90°, 120° und 150°). Als weiteres Beispiel kann die Polarisationsmaske 16 unter Verwendung einer elektronisch gesteuerten Polarisationsmaske, wie z. B. einem elektrooptischen Modulator (der z. B. eine Flüssigkristallschicht enthalten kann), implementiert werden, wobei die Polarisationswinkel der einzelnen Pixel der Maske unabhängig voneinander gesteuert werden können, so dass verschiedene Teile des Bildsensors 14 Licht mit unterschiedlichen Polarisationen empfangen. Als weiteres Beispiel kann der elektrooptische Modulator konfiguriert sein, um Licht verschiedener linearer Polarisationen zu transmittieren, wenn verschiedene Bilder aufgenommen werden, z. B. so dass die Kamera Bilder aufnimmt, bei denen die Gesamtheit der Polarisationsmaske nacheinander auf verschiedene lineare Polarisationswinkel eingestellt ist (z. B. nacheinander eingestellt auf: 0 Grad; 45 Grad; 90 Grad; oder 135 Grad). Als weiteres Beispiel kann die Polarisationsmaske 16 einen Polarisationsfilter enthalten, der sich mechanisch dreht, so dass unterschiedliche Polarisationsrohbilder von der Polarisationskamera 10 aufgenommen werden, wenn der Polarisationsfilter mechanisch in Bezug auf das Objektiv 12 gedreht wird, um Licht mit unterschiedlichen Polarisationswinkeln zum Bildsensor 14 zu transmittieren.
  • Infolgedessen nimmt die Polarisationskamera mehrere Eingangsbilder 18 (oder Polarisationsrohbilder) der Szene 1 auf, wobei jedes der Polarisationsrohbilder 18 einem Bild entspricht, das hinter einem Polarisationsfilter oder Polarisator unter einem anderen Polarisationswinkel ϕ_pοl (z. B. 0 Grad, 45 Grad, 90 Grad oder 135 Grad) aufgenommen wurde. Jedes der Polarisationsrohbilder wird im Wesentlichen aus der gleichen Pose in Bezug auf die Szene 1 aufgenommen (z. B. werden die Bilder, die mit dem Polarisationsfilter bei 0 Grad, 45 Grad, 90 Grad oder 135 Grad aufgenommen werden, alle von derselben Polarisationskamera aufgenommen, die sich am gleichen Ort und in der gleichen Ausrichtung befindet), im Gegensatz zur Aufnahme der Polarisationsrohbilder von unterschiedlichen Orten und Ausrichtungen in Bezug auf die Szene. Die Polarisationskamera 10 kann konfiguriert sein, um Licht in einer Vielzahl verschiedener Bereiche des elektromagnetischen Spektrums zu erfassen, z. B. den für den Menschen sichtbaren Bereich des elektromagnetischen Spektrums, rote, grüne und blaue Bereiche des für den Menschen sichtbaren Spektrums sowie unsichtbare Bereiche des elektromagnetischen Spektrums wie Infrarot und Ultraviolett.
  • In einigen Ausführungsformen der vorliegenden Offenbarung, wie z. B. in einigen der oben beschriebenen Ausführungsformen, werden die verschiedenen Polarisationsrohbilder von derselben Polarisationskamera 10 erfasst und können daher im Wesentlichen aus derselben Pose (z. B. Position und Ausrichtung) in Bezug auf die Szene 1 erfasst werden. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Beispielsweise kann sich eine Polarisationskamera 10 in Bezug auf die Szene 1 zwischen verschiedenen Polarisationsrohbildern bewegen (z. B. wenn verschiedene Polarisationsrohbilder, die verschiedenen Polarisationswinkeln entsprechen, zu verschiedenen Zeiten aufgenommen werden, wie im Fall eines mechanisch rotierenden Polarisationsfilters), entweder weil sich die Polarisationskamera 10 bewegt hat oder weil sich Objekte in der Szene 1 bewegt haben (z. B. wenn sich die Objekte auf einem sich bewegenden Förderband befinden). Dementsprechend werden in einigen Ausführungsformen der vorliegenden Offenbarung verschiedene Polarisationsrohbilder mit der Polarisationskamera 10 in verschiedenen Posen in Bezug auf die Szene 1 aufgenommen.
  • Die Polarisationsrohbilder 18 werden einer Verarbeitungsschaltung 100 zugeführt, die im Folgenden näher beschrieben wird und die basierend auf den Polarisationsrohbildern 18 eine Segmentierungskarte 20 berechnet. Wie in 1 gezeigt, sind in der Segmentierungskarte 20 die transparenten Objekte 2 und die undurchsichtigen Objekte 3 der Szene alle einzeln gekennzeichnet, wobei die Kennzeichnungen in 1 unter Verwendung verschiedener Farben oder Muster (z. B. vertikale Linien, horizontale Linien, Karomuster usw.) dargestellt sind, wobei jedoch in der Praxis jede Kennzeichnung durch einen anderen Wert (z. B. einen ganzzahligen Wert, wobei die verschiedenen in den Figuren gezeigten Muster verschiedenen Werten entsprechen) in der Segmentierungskarte dargestellt werden kann.
  • Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung wird der Verarbeitungsschaltkreis 100 mit einem oder mehreren elektronischen Schaltkreisen implementiert, die konfiguriert sind, um verschiedene Operationen durchzuführen, wie im Folgenden näher beschrieben. Zu den Arten von elektronischen Schaltungen können eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), ein Beschleuniger für künstliche Intelligenz (AI) (z. B. ein Vektorprozessor, der vektorarithmetische Logikeinheiten enthalten kann, die konfiguriert sind, um gemeinsame Operationen mit neuronalen Netzen, wie Punktprodukte und Softmax, effizient durchzuführen), ein Field Programmable Gate Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), ein digitaler Signalprozessor (DSP) oder Ähnliches gehören. Beispielsweise sind unter bestimmten Umständen Aspekte von Ausführungsformen der vorliegenden Offenbarung in Programmbefehlen implementiert, die in einem nichtflüchtigen, computerlesbaren Speicher gespeichert sind, wo sie bei Ausführung durch die elektronische Schaltung (z. B. eine CPU, eine GPU, einen KI-Beschleuniger oder Kombinationen davon) die hierin beschriebenen Operationen durchführen, um eine Segmentierungskarte 20 aus eingegebenen Polarisationsrohbildern 18 zu berechnen. Die von der Verarbeitungsschaltung 100 durchgeführten Operationen können von einer einzelnen elektronischen Schaltung (z. B. einer einzelnen CPU, einer einzelnen GPU o. Ä.) durchgeführt werden oder auf mehrere elektronische Schaltungen (z. B. mehrere GPUs oder eine CPU in Verbindung mit einer GPU) verteilt werden. Die mehreren elektronischen Schaltungen können lokal zueinander sein (z. B. auf demselben Chip, in demselben Gehäuse oder in demselben eingebetteten Gerät oder Computersystem) und/oder können voneinander entfernt sein (z. B. in Kommunikation über ein Netzwerk wie ein lokales persönliches Netzwerk wie Bluetooth®, über ein lokales Netzwerk wie ein lokales drahtgebundenes und/oder drahtloses Netzwerk und/oder über ein Weitverkehrsnetzwerk wie das Internet, z. B. in einem Fall, in dem einige Operationen lokal ausgeführt werden und andere Operationen auf einem Server ausgeführt werden, der von einem Cloud-Computing-Dienst gehostet wird). Eine oder mehrere elektronische Schaltungen, die die Verarbeitungsschaltung 100 implementieren, können hier als Computer oder Computersystem bezeichnet werden, das einen Speicher enthalten kann, in dem Befehle gespeichert sind, die, wenn sie von der einen oder den mehreren elektronischen Schaltungen ausgeführt werden, die hier beschriebenen Systeme und Verfahren implementieren.
  • 2A, 2B, 2C und 2D bieten einen Hintergrund zur Veranschaulichung der Segmentierungskarten, die durch einen vergleichenden Ansatz und semantische Segmentierung oder Instanzsegmentierung gemäß den Ausführungsformen der vorliegenden Offenbarung berechnet werden. 2A ist ein Bild oder ein Intensitätsbild einer Szene mit einer echten transparenten Kugel, die auf einem Fotoausdruck liegt, der eine andere Szene mit zwei transparenten Kugeln („Spoofs“) und etwas Hintergrundgerümpel zeigt. 2B zeigt eine Segmentierungsmaske, wie sie von einem vergleichenden Masken-basierten faltenden neuralen Netz (Mask R-CNN) berechnet wird, das Instanzen von transparenten Kugeln identifiziert, die über das Intensitätsbild von 2A gelegt werden, wobei verschiedene Linienmuster verwendet werden, und wobei die echte transparente Kugel korrekt als Instanz identifiziert wird, während die beiden Spoofs fälschlicherweise als Instanzen identifiziert werden. Mit anderen Worten, der Masken-R-CNN-Algorithmus wurde dazu verleitet, die beiden gefälschten transparenten Kugeln als Instanzen der tatsächlichen transparenten Kugeln in der Szene zu identifizieren.
  • 2C ist ein Bild eines linearen Polarisationswinkels (AOLP), das aus Polarisationsrohbildern berechnet wurde, die gemäß einer Ausführungsform der vorliegenden Erfindung von der Szene aufgenommen wurden. Wie in 2C gezeigt, haben transparente Objekte eine sehr einzigartige Textur im Polarisationsraum wie der AOLP-Domäne, wo es eine geometrieabhängige Signatur an Kanten und ein ausgeprägtes oder einzigartiges oder besonderes Muster gibt, das auf den Oberflächen transparenter Objekte im Winkel der linearen Polarisation entsteht. Mit anderen Worten: Die intrinsische Textur des transparenten Objekts (z. B. im Gegensatz zur extrinsischen Textur, die von den durch das transparente Objekt sichtbaren Hintergrundflächen übernommen wird) ist im Polarisationswinkelbild von 2C besser sichtbar als im Intensitätsbild von 2A.
  • 2D zeigt das Intensitätsbild von 2A mit einer überlagerten Segmentierungsmaske, wie sie unter Verwendung von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung berechnet wird, wobei der echte transparente Ball korrekt als Instanz identifiziert wird, indem ein überlagertes Linienmuster verwendet wird, und die beiden Fälschungen korrekt als Instanzen ausgeschlossen werden (z. B. enthält 2D im Gegensatz zu 2B keine überlagerten Linienmuster über den beiden Fälschungen). Während die 2A, 2B, 2C und 2D ein Beispiel für die Erkennung eines echten transparenten Objekts bei Vorhandensein von gefälschten transparenten Objekten zeigen, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf andere optisch anspruchsvolle Objekte angewandt werden, wie z.B. transparente, durchscheinende und nicht matte oder nicht lambertsche Objekte sowie nicht reflektierende (z.B. matte schwarze Objekte) und mehrweginduzierende Objekte.
  • Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf das Extrahieren von Tensoren im Darstellungsraum (oder ersten Tensoren in ersten Darstellungsräumen, wie Polarisationsmerkmalskarten) aus den Polarisationsrohbildern, die als Eingabe für semantische Segmentierungsalgorithmen oder andere computerbasierte Sehalgorithmen bereitgestellt werden. Diese ersten Tensoren im ersten Darstellungsraum können Polarisationsmerkmalskarten enthalten, die Informationen über die Polarisation des von der Szene empfangenen Lichts kodieren, wie das in 2C gezeigte AOLP-Bild, Merkmalskarten des linearen Polarisationsgrads (DOLP) und dergleichen (z. B. andere Kombinationen aus Stokes-Vektoren oder Transformationen einzelner Polarisationsrohbilder). In einigen Ausführungsformen werden diese Polarisationsmerkmalskarten zusammen mit Nicht-Polarisationsmerkmalskarten (z. B. Intensitätsbilder wie das in 2A gezeigte Bild) verwendet, um zusätzliche Informationskanäle für die Verwendung durch semantische Segmentierungsalgorithmen bereitzustellen.
  • Während Ausführungsformen der vorliegenden Erfindung nicht auf die Verwendung mit bestimmten semantischen Segmentierungsalgorithmen beschränkt sind, beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Erfindung auf Deep-Learning-Frameworks für die polarisationsbasierte Segmentierung von transparenten oder anderen optisch anspruchsvollen Objekten (z. B. transparente, transluzente, nicht- lambertsche, mehrweginduzierende Objekte und nicht-reflektierende (z. B. sehr dunkle) Objekte), wobei diese Frameworks als polarisierte faltende neuronale Netze (Polarized CNNs) bezeichnet werden können. Dieses polarisierte CNN-Framework enthält einen Backbone, der für die Verarbeitung der besonderen Textur der Polarisation geeignet ist und mit anderen computerbasierten Seh-Architekturen wie Mask R-CNN (z. B. zur Bildung einer Polarized Mask R-CNN-Architektur) gekoppelt werden kann, um eine Lösung für die genaue und robuste Instanzsegmentierung transparenter Objekte zu schaffen. Darüber hinaus kann dieser Ansatz auf Szenen mit einer Mischung aus transparenten und nicht-transparenten (z.B. undurchsichtigen Objekten) angewendet werden und kann verwendet werden, um Instanzen von transparenten, durchscheinenden, nicht-lambertschen, merhweginduzierenden, dunklen und undurchsichtigen Objekten in der Szene zu identifizieren.
  • 3 ist ein Blockdiagramm der Verarbeitungsschaltung 100 zum Berechnen von Segmentierungskarten basierend auf Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung. 4 ist ein Flussdiagramm eines Verfahrens zum Durchführen einer Segmentierung an Eingabebildern, um eine Segmentierungskarte gemäß einer Ausführungsform der vorliegenden Erfindung zu berechnen. Wie in 3 gezeigt, umfasst eine Verarbeitungsschaltung 100 in einigen Ausführungsformen einen Merkmalsextraktor oder ein Merkmalsextraktionssystem 800 und einen Prädiktor 900 (z. B. einen klassischen Computer-Vision-Vorhersagealgorithmus oder ein trainiertes statistisches Modell), der konfiguriert ist, um eine Vorhersageausgabe 20 (z. B. eine statistische Vorhersage) bezüglich eines oder mehrerer transparenter Objekte in der Szene basierend auf der Ausgabe des Merkmalsextraktionssystems 800 zu berechnen. Während einige Ausführungsformen der vorliegenden Offenbarung hier im Zusammenhang mit dem Training eines Systems zum Erkennen von transparenten Objekten beschrieben werden, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf Techniken für andere optisch anspruchsvolle Objekte oder Objekte aus Materialien angewendet werden, deren Erkennung optisch anspruchsvoll ist, wie z. B. lichtdurchlässige Objekte, Objekte, die Mehrwegeffekte induzieren, Objekte, die nicht vollständig oder im Wesentlichen matt oder lambertsch sind, und/oder sehr dunkle Objekte. Zu diesen optisch anspruchsvollen Objekten gehören Objekte, die durch die Verwendung von Bildern, die von Kamerasystemen erfasst werden, die nicht empfindlich für die Polarisation des Lichts sind, schwer aufzulösen oder zu erkennen sind (z. B. basierend auf Bildern, die von Kameras ohne einen Polarisationsfilter im optischen Pfad erfasst werden, oder bei denen verschiedene Bilder keine Bilder basierend auf verschiedenen Polarisationswinkeln erfassen).
  • In der in den 3 und 4 dargestellten Ausführungsform extrahiert das Merkmalsextraktionssystem 800 des Verarbeitungssystems 100 in Verfahrensschritt 410 eine oder mehrere erste Merkmalskarten 50 in einem oder mehreren ersten Darstellungsräumen (einschließlich Polarisationsbildern oder Polarisationsmerkmalskarten in verschiedenen Polarisationsdarstellungsräumen) aus den eingegebenen Polarisationsrohbildern 18 einer Szene. Die extrahierten abgeleiteten Merkmalskarten 50 (einschließlich Polarisationsbildern) werden als Eingabe für den Prädiktor 900 des Verarbeitungssystems 100 bereitgestellt, der ein oder mehrere Vorhersagemodelle implementiert, um in Verfahrensschritt 450 eine erkannte Ausgabe 20 zu berechnen. In dem Fall, in dem der Prädiktor ein Bildsegmentierungs- oder Instanzsegmentierungssystem ist, kann die Vorhersage eine Segmentierungskarte wie die in 3 gezeigte sein, in der jedes Pixel mit einer oder mehreren Konfidenzwerten verbunden sein kann, wonach das Pixel verschiedenen möglichen Klassen (oder Typen) von Objekten entspricht. In dem Fall, in dem der Prädiktor ein Klassifizierungssystem ist, kann die Vorhersage eine Vielzahl von Klassen und entsprechende Konfidenzwerte enthalten, dass das Bild ein Beispiel für jede der Klassen darstellt. Handelt es sich bei dem Prädiktor 900 um einen klassischen computerbasierten Seh-Vorhersagealgorithmus, kann der Prädiktor ein Erkennungsergebnis berechnen (z. B. Erkennung von Kanten, Schlüsselpunkten, Basiskoeffizienten, Haar-Wavelet-Koeffizienten oder anderen Merkmalen transparenter Objekte und/oder anderer optisch anspruchsvoller Objekte, wie z. B. lichtdurchlässiger Objekte, mehrweginduzierender Objekte, nicht lambertscher Objekte und nicht reflektierender Objekte im Bild als Ausgangsmerkmale).
  • In der in 3 gezeigten Ausführungsform implementiert der Prädiktor 900 ein Instanzsegmentierungssystem (oder ein semantisches Segmentierungssystem) und berechnet im Verfahrensschritt 450 eine Ausgabe 20, die eine Segmentierungskarte für die Szene basierend auf den extrahierten ersten Tensoren 50 in ersten Darstellungsräumen enthält, die aus den eingegebenen Polarisationsrohbildern 18 extrahiert wurden. Wie oben erwähnt, werden das Merkmalsextraktionssystem 800 und der Prädiktor 900 unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert, die konfiguriert sind, um ihre Verfahrensschritte durchzuführen, wie im Folgenden näher beschrieben.
  • Extrahieren erster Tensoren wie Polarisationsbilder und abgeleitete Merkmalskarten in ersten Darstellungsräumen aus Polarisationsrohbildern
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren zum Extrahieren von Merkmalen im Verfahrensschritt 410, wobei diese extrahierten Merkmale bei der robusten Erkennung von transparenten Objekten im Verfahrensschritt 450 verwendet werden. Im Gegensatz dazu können vergleichende Verfahren, die sich allein auf Intensitätsbilder stützen, bei der Erkennung transparenter Objekte versagen (z. B. beim Vergleich des Intensitätsbildes von 2A mit dem AOLP-Bild von 2C, wie oben beschrieben). Der Begriff „erste Tensoren“ in „ersten Darstellungsräumen“ wird hier verwendet, um sich auf Merkmale zu beziehen, die aus Polarisationsrohbildern 18, die von einer Polarisationskamera aufgenommen wurden, berechnet (z. B. extrahiert) wurden, wobei diese ersten Darstellungsräume zumindest Polarisationsmerkmalsräume umfassen (z. B., (z. B. Merkmalsräume wie AOLP und DOLP, die Informationen über die Polarisation des vom Bildsensor erfassten Lichts enthalten) und können auch Nicht-Polarisations-Merkmalsräume umfassen (z. B. Merkmalsräume, die keine Informationen über die Polarisation des den Bildsensor erreichenden Lichts erfordern, wie z. B. Bilder, die nur basierend auf Intensitätsbildern berechnet werden, die ohne jegliche Polarisationsfilter erfasst wurden).
  • Die Wechselwirkung zwischen Licht und transparenten Objekten ist vielfältig und komplex, aber das Material eines Objekts bestimmt seine Transparenz bei sichtbarem Licht. Bei vielen transparenten Haushaltsgegenständen geht der größte Teil des sichtbaren Lichts direkt hindurch und ein kleiner Teil (-4% bis -8%, je nach Brechungsindex) wird reflektiert. Dies liegt daran, dass das Licht im sichtbaren Teil des Spektrums nicht genügend Energie hat, um die Atome im transparenten Gegenstand anzuregen. Infolgedessen dominiert die Textur (z. B. das Aussehen) von Objekten, die sich hinter dem transparenten Objekt befinden (oder durch das transparente Objekt sichtbar sind), das Aussehen des transparenten Objekts. Betrachtet man beispielsweise eine transparente Glastasse oder einen Becher auf einem Tisch, so dominiert im Allgemeinen das Aussehen der Objekte auf der anderen Seite des Bechers (z. B. die Oberfläche des Tisches) das, was man durch die Tasse sieht. Diese Eigenschaft führt zu einigen Schwierigkeiten, wenn versucht wird, eine Instanzsegmentierung allein basierend auf Intensitätsbildern durchzuführen:
  • Unordnung: Klare Kanten (z. B. die Kanten von transparenten Objekten) sind in dicht überladenen Szenen mit transparenten Objekten schwer zu erkennen. In Extremfällen sind die Kanten überhaupt nicht sichtbar (siehe z. B. Region (b) in 6A, die weiter unten näher beschrieben wird), was zu Unklarheiten hinsichtlich der genauen Form der transparenten Objekte führt.
  • Neuartige Umgebungen: Geringes Reflexionsvermögen im sichtbaren Spektrum führt dazu, dass transparente Objekte in neuartigen Umgebungen (z. B. in Umgebungen, die sich von den zum Trainieren des Segmentierungssystems verwendeten Trainingsdaten unterscheiden, z. B. wenn sich die durch die transparenten Objekte sichtbaren Hintergründe von den Hintergründen in den Trainingsdaten unterscheiden) unterschiedlich, d. h. nicht gleichmäßig verteilt, erscheinen, was zu einer schlechten Verallgemeinerung führt.
  • Print-Out-Spoofs: Algorithmen, die einzelne RGB-Bilder als Eingabe verwenden, sind aufgrund der perspektivischen Mehrdeutigkeit generell anfällig für Print-Out-Spoofs (z. B. Ausdrucke von fotografischen Bildern). Es gibt zwar andere nichtmonokulare Algorithmen (z. B. unter Verwendung von Bildern, die aus mehreren verschiedenen Positionen um die Szene herum aufgenommen wurden, wie z. B. von einer Stereokamera) für die semantische Segmentierung von transparenten Objekten, doch sind diese auf einen bestimmten Bereich beschränkt und können möglicherweise keine Instanzsegmentierung vornehmen.
  • 5 ist eine übersichtliche Darstellung der Wechselwirkung von Licht mit transparenten und nicht transparenten (z. B. diffusen und/oder reflektierenden) Objekten. Wie in 5 dargestellt, nimmt eine Polarisationskamera 10 Polarisationsrohbilder einer Szene auf, die ein transparentes Objekt 502 vor einem undurchsichtigen Hintergrundobjekt 503 umfasst. Ein Lichtstrahl 510, der auf den Bildsensor 14 der Polarisationskamera 10 trifft, enthält Polarisationsinformationen sowohl von dem transparenten Objekt 502 als auch von dem Hintergrundobjekt 503. Der kleine Anteil des vom transparenten Objekt 502 reflektierten Lichts 512 ist stark polarisiert und hat daher einen großen Einfluss auf die Polarisationsmessung, im Gegensatz zu dem Licht 513, das vom Hintergrundobjekt 503 reflektiert wird und durch das transparente Objekt 302 hindurchgeht.
  • Ein Lichtstrahl 510, der auf den Bildsensor 16 einer Polarisationskamera 10 trifft, hat drei messbare Komponenten: die Intensität des Lichts (Intensitätsbild/I), den Prozentsatz oder Anteil des Lichts, der linear polarisiert ist (Grad der linearen Polarisation/DOLP/ρ), und die Richtung dieser linearen Polarisation (Winkel der linearen Polarisation/AOLP/ϕ). Diese Eigenschaften kodieren Informationen über die Oberflächenkrümmung und das Material des abzubildenden Objekts, die vom Prädiktor 900 verwendet werden können, um transparente Objekte zu erkennen, wie im Folgenden näher beschrieben. In einigen Ausführungsformen kann der Prädiktor 900 andere optisch anspruchsvolle Objekte basierend auf ähnlichen Polarisationseigenschaften von Licht, das durch lichtdurchlässige Objekte hindurchgeht, und/oder Licht, das mit mehrweginduzierenden Objekten oder mit nicht reflektierenden Objekten (z. B. mattschwarzen Objekten) interagiert, erkennen.
  • Daher beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Erfindung auf das Verwenden eines Merkmalsextraktors 800 zum Berechnen erster Tensoren in einem oder mehreren ersten Darstellungsräumen, die abgeleitete Merkmalskarten basierend auf der Intensität I, dem DOLP ρ und dem AOLP ϕ enthalten können. Der Merkmalsextraktor 800 kann im Allgemeinen Informationen in erste Darstellungsräume (oder erste Merkmalsräume) extrahieren, die Polarisationsdarstellungsräume (oder Polarisationsmerkmalsräume) umfassen, wie z. B. „Polarisationsbilder“, d. h. Bilder, die basierend auf den Polarisationsrohbildern extrahiert werden, die ansonsten nicht aus Intensitätsbildern berechnet werden könnten (z. B, Bilder, die von einer Kamera aufgenommen wurden, die keinen Polarisationsfilter oder einen anderen Mechanismus zum Erkennen der Polarisation des den Bildsensor erreichenden Lichts enthält), wobei diese Polarisationsbilder DOLP p-Bilder (im DOLP-Darstellungsraum oder Merkmalsraum), AOLP ϕ-Bilder (im AOLP-Darstellungsraum oder Merkmalsraum), andere Kombinationen der aus Stokes-Vektoren berechneten Polarisationsrohbilder sowie andere Bilder (oder allgemeiner erste Tensoren oder erste Merkmalstensoren) der aus Polarisationsrohbildern berechneten Informationen umfassen können. Die ersten Darstellungsräume können auch Nicht-Polarisations-Darstellungsräume wie den Intensitäts-I-Darstellungsraum umfassen.
  • Messen von Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel erfordert drei oder mehr Polarisationsrohbilder einer Szene, die hinter Polarisationsfiltern (oder Polarisatoren) unter verschiedenen Winkeln ϕpol aufgenommen wurden (z. B. weil drei unbekannte Werte zu bestimmen sind: Intensität I, DOLP ρ und AOLP ϕ. Beispielsweise nimmt die oben beschriebene FLIR® Blackfly® S Polarisationskamera Polarisationsrohbilder mit Polarisationswinkeln ϕpol von 0 Grad, 45 Grad, 90 Grad oder 135 Grad auf, wodurch vier Polarisationsrohbilder Iϕpol entstehen, die hier als I0, I45, I90 und I135 bezeichnet werden.
  • Die Beziehung zwischen Iϕpol und der Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel kann wie folgt ausgedrückt werden: I ϕ p o l = I ( 1 + ρ  cos ( 2 ( ϕ ϕ p o t ) ) )
    Figure DE112020005932T5_0001
  • Dementsprechend mit vier verschiedenen Polarisationsrohbildern Iϕpol (I0, I45, I90 und I135) kann ein System mit vier Gleichungen verwendet werden, um die Intensität I, DOLP ρ und AOLP ϕ zu bestimmen.
  • Form aus Polarisation (SfP) Theorie (siehe z.B. Gary A. Atkinson und Edwin R. Hancock. Recovery of surface orientation from diffuse polarization. IEEE transactions on image processing, 15(6): 1653-1664, 2006.) stellt fest, dass die Beziehung zwischen dem Brechungsindex (n), dem Azimutwinkel (θa) und dem Zenitwinkel (θz) der Oberflächennormalen eines Objekts und den ϕ- und ρ-Komponenten des von diesem Objekt kommenden Lichtstrahls den folgenden Merkmalen folgt
  • Wenn diffuse Reflexion vorherrscht: ρ = ( n 1 n ) 2 sin 2 ( θ z ) 2 + 2 n 2 ( n + 1 n ) 2 sin 2 θ z + 4  cos  θ z n 2 s i n 2 θ z
    Figure DE112020005932T5_0002
    ϕ = θ a
    Figure DE112020005932T5_0003
    und wenn die spiegelnde Reflexion dominant ist: ρ = 2  sin 2   θ z cos θ z n 2 sin 2 θ z n 2 + sin 2 θ z n 2 sin 2 θ z + 2 sin 4 θ z
    Figure DE112020005932T5_0004
    ϕ = θ a π 2
    Figure DE112020005932T5_0005
  • Man beachte, dass in beiden Fällen ρ exponentiell zunimmt, wenn θz steigt, und dass bei gleichem Brechungsindex die spiegelnde Reflexion viel stärker polarisiert ist als die diffuse Reflexion.
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Bereitstellung von ersten Tensoren in den ersten Darstellungsräumen (z. B. abgeleitete Merkmalskarten), die aus Polarisationsrohbildern extrahiert wurden, als Eingaben für einen Prädiktor zur Berechnung von computerbasierten Seh-Vorhersagen über transparente Objekte und/oder andere optisch anspruchsvolle Objekte (z. B. lichtdurchlässige Objekte, nicht- lambertsche Objekte, mehrweginduzierende Objekte und/oder nicht-reflektierende Objekte) der Szene, wie z. B. ein semantisches Segmentierungssystem zur Berechnung von Segmentierungskarten einschließlich der Erkennung von Instanzen transparenter Objekte und anderer optisch anspruchsvoller Objekte in der Szene. Diese ersten Tensoren können abgeleitete Merkmalskarten enthalten, die eine Intensitätsmerkmalskarte I, eine Merkmalskarte des linearen Polarisationsgrads (DOLP) ρ und eine Merkmalskarte des linearen Polarisationswinkels (AOLP) ϕ umfassen können, wobei die Merkmalskarte DOLP ρ und die Merkmalskarte AOLP ϕ Beispiele für Polarisationsmerkmalskarten oder Tensoren in Polarisationsdarstellungsräumen sind, die sich auf Merkmalskarten beziehen, die Informationen bezüglich der Polarisation des von einer Polarisationskamera erfassten Lichts codieren. Die Vorteile von Polarisationsmerkmalskarten (oder Polarisationsbildern) werden in den 6A, 6B, 6C, 7A, 7B und 7C näher erläutert.
  • 6A, 6B und 6C zeigen beispielhaft erste Tensoren, die Merkmalskarten sind, die von einem Merkmalsextraktor berechnet werden, der konfiguriert ist, um erste Tensoren in ersten Darstellungsräumen zu extrahieren, einschließlich einer Intensitätsmerkmalskarte I in 6A im Intensitätsdarstellungsraum, einer Merkmalskarte des linearen Polarisationsgrads (DOLP) ρ in 6B im DOLP-Darstellungsraum und einer Merkmalskarte des linearen Polarisationswinkels (AOLP) ϕ in 6C im AOLP-Darstellungsraum, gemäß einer Ausführungsform der vorliegenden Erfindung. Zwei Regionen von Interesse - Region (a) mit zwei transparenten Kugeln und Region (b) mit dem Rand eines Trinkglases - werden im Folgenden näher erläutert.
  • 7A und 7B sind jeweils erweiterte Ansichten der mit (a) und (b) in 6A, 6B und 6C bezeichneten Bereiche. 7C ist ein Diagramm, das einen Querschnitt einer in 7B gekennzeichneten Kante in der Intensitätsmerkmalskarte I von 6A, der DOLP-Merkmalskarte ρ von 6B und der AOLP-Merkmalskarte ϕ von 6C darstellt.
  • In der Region (a), die in 6A und auf der linken Seite von 7A zu sehen ist, ist die Textur der beiden transparenten Kugeln im Intensitätsbild aufgrund des wechselnden Hintergrunds (z. B. die Plastikbox mit dem Lochraster im Gegensatz zu dem gemusterten Stoff, auf dem die transparenten Kugeln liegen) inkonsistent, was auf Probleme hinweist, die durch neue Umgebungen verursacht werden (z. B. verschiedene Hintergründe, die durch die transparenten Objekte hindurch sichtbar sind). Diese Inkonsistenz kann es einem semantischen Segmentierungs- oder Instanzensegmentierungssystem erschweren, zu erkennen, dass diese sehr unterschiedlich aussehenden Teile des Bildes demselben Objekttyp oder derselben Objektklasse entsprechen (z. B. einem transparenten Ball).
  • Andererseits ist in dem in 6B und der rechten Seite von 7A gezeigten DOLP-Bild die Form der transparenten Objekte leicht erkennbar, und die Hintergrundtextur (z. B. das Muster des Stoffes) erscheint nicht im DOLP-Bild ρ. 7A ist eine vergrößerte Ansicht des Region (a) des in 6A gezeigten Intensitätsbildes I und des in 6B gezeigten DOLP-Bildes p, die zeigt, dass zwei verschiedene Teile der transparenten Kugeln inkonsistente (z. B., unterschiedlich aussehende) Texturen im Intensitätsbild I, aber konsistente (z. B. ähnlich aussehende) Texturen im DOLP-Bild ρ aufweisen, wodurch es für ein semantisches Segmentierungs- oder Instanzsegmentierungssystem wahrscheinlicher wird zu erkennen, dass diese beiden ähnlich aussehenden Texturen beide der gleichen Objektklasse entsprechen, basierend auf dem DOLP-Bild ρ.
  • In der Region (b), die in 6A und der linken Seite von 7B zu sehen ist, ist der Rand des Trinkglases im Intensitätsbild I praktisch unsichtbar (z. B. nicht von dem gemusterten Stoff zu unterscheiden), aber im AOLP-Bild Φ, das in 6C und der rechten Seite von 7B zu sehen ist, viel heller. 7C ist ein Querschnitt der Kante im Bereich der identifizierten Kästchen im Intensitätsbild I und das AOLP-Bild ϕ in 7B zeigt, dass die Kante im AOLP ϕ und DOLP ρ einen viel höheren Kontrast hat als im Intensitätsbild I, wodurch es für ein semantisches Segmentierungs- oder Instanzsegmentierungssystem wahrscheinlicher wird, die Kante des transparenten Bildes zu erkennen, basierend auf den AOLP ϕ- und DOLP ρ-Bildern.
  • Formaler ausgedrückt, beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf das Berechnen erster Tensoren 50 in ersten Darstellungsräumen, einschließlich des Extrahierens erster Tensoren in Polarisationsdarstellungsräumen, wie das Bilden von Polarisationsbildern (oder das Extrahieren abgeleiteter Polarisationsmerkmalskarten) in Verfahrensschritt 410 basierend auf Polarisationsrohbildern, die von einer Polarisationskamera 10 erfasst wurden.
  • Lichtstrahlen, die von einem transparenten Objekt kommen, haben zwei Komponenten: einen reflektierten Anteil, der die reflektierte Intensität Ir, das reflektierte DOLP ρr und das reflektierte AOLP ϕr umfasst, und den gebrochenen Anteil, der die gebrochene Intensität It, das gebrochene DOLP ρt und das gebrochene AOLP ϕt umfasst. Die Intensität eines einzelnen Pixels im resultierenden Bild kann wie folgt geschrieben werden: I = I r + I t
    Figure DE112020005932T5_0006
  • Wenn ein Polarisationsfilter mit einem linearen Polarisationswinkel ϕpol vor der Kamera platziert ist, beträgt der Wert an einem gegebenen Pixel: I ϕ p o l = I r ( 1 + ρ r  cos ( 2 ( ϕ ϕ p o t ) ) ) + I t ( 1 + ρ t  cos ( 2 ( ϕ t ϕ p o l ) ) )
    Figure DE112020005932T5_0007
  • Lösen des obigen Ausdrucks für die Werte eines Pixels in einem DOLP ρ Bild und eines Pixels in einem AOLP ϕ Bild in Form von Ir, ρr, ϕr, It, ρt, and ϕt: ρ = ( I r ρ r ) 2 + ( I r ρ r ) 2 + 2 I t ρ t I r ρ r cos ( 2 ( ϕ r ϕ t ) ) I r + I t
    Figure DE112020005932T5_0008
    ϕ = arctan ( I r ρ r sin ( 2 ( ϕ r ϕ t ) ) I t ρ t + I r ρ r cos ( 2 ( ϕ r ϕ t ) ) ) + ϕ r
    Figure DE112020005932T5_0009
  • Dementsprechend stellen die obigen Gleichungen (7), (8) und (9) ein Modell zum Bilden erster Tensoren 50 in ersten Darstellungsräumen bereit, die ein Intensitätsbild I, ein DOLP-Bild ρ und ein AOLP-Bild ϕ gemäß einer Ausführungsform der vorliegenden Offenbarung umfassen, wobei die Verwendung von Polarisationsbildern oder -tensoren in Polarisationsdarstellungsräumen (einschließlich eines DOLP-Bildes ρ und eines AOLP-Bildes ϕ auf der Grundlage der Gleichungen (8) und (9)) die zuverlässige Erkennung von optisch anspruchsvollen Objekten ermöglicht, die im Allgemeinen von vergleichbaren Systemen. wie Mask R-CCN Systeme, die nur Intensitätsbilder I als Eingabe verwenden, nicht erkannt werden können.
  • Genauer gesagt können erste Tensoren in Polarisationsdarstellungsräumen (unter den abgeleiteten Merkmalskarten 50) wie die Polarisationsbilder DOLP ρ und AOLP ϕ Oberflächentexturen von Objekten aufzeigen, die sonst in einem Intensitäts-I-Bereich texturlos erscheinen würden. Ein transparentes Objekt kann eine Textur haben, die im Intensitätsbereich I unsichtbar ist, weil diese Intensität streng vom Verhältnis Ir /It abhängt (siehe Gleichung (6)). Im Gegensatz zu undurchsichtigen Objekten, bei denen It = 0 ist, transmittieren transparente Objekte den größten Teil des einfallenden Lichts und reflektieren nur einen kleinen Teil des einfallenden Lichts.
  • Andererseits hängt im Bereich oder in der Sphäre der Polarisation die Stärke der Oberflächentextur eines transparenten Objekts von ϕr - ϕt und dem Verhältnis von Irρr/Itρt ab (siehe Gleichungen (8) und (9)). Angenommen, dass ϕr ≠ ϕt und θZr ≠ θzt für die Mehrheit der Pixel gelten (z. B. unter der Annahme, dass die Geometrien des Hintergrunds und des transparenten Objekts unterschiedlich sind), und basierend auf den Erkenntnissen, dass ρr der Spiegelreflexionskurve folgt (siehe z. B. Daisuke Miyazaki, Masataka Kagesawa und Katsushi Ikeuchi. Transparent surface modeling from a pair of polarization images IEEE Transactions on Pattern Analysis & Machine Intelligence, (1):73-82, 2004.), d. h. sie ist stark polarisiert, und beim Brewster-Winkel (ca. 60°) ist ρr 1,0 (siehe Gleichung (4)), dann, bei geeigneten Zenitwinkeln, ρr ≥ ρt, und, wenn der Hintergrund diffus ist oder einen niedrigen Zenitwinkel hat, ρr >> ρt. Dieser Effekt ist in 2C zu sehen, wo die Textur der echten transparenten Kugel bei θz ≈ 60° dominiert. Daher gilt in vielen Fällen die folgende Annahme: I r I t I r ρ r I t ρ t
    Figure DE112020005932T5_0010
  • Selbst wenn die Textur des transparenten Objekts in der Intensitätsdomäne I unsichtbar erscheint, kann die Textur des transparenten Objekts in der Polarisationsdomäne deutlicher sichtbar sein, z. B. im AOLP ϕ und im DOLP ρ.
  • Zurück zu den drei Beispielen für Umstände, die zu Schwierigkeiten führen, wenn man versucht, eine semantische Segmentierung oder eine Instanzsegmentierung nur anhand von Intensitätsbildern durchzuführen:
  • Unordnung: Ein Problem bei Unordnung ist die Erkennung der Ränder eines transparenten Objekts, das im Wesentlichen texturlos sein kann (siehe z. B. den Rand des Trinkglases in Region (b) von 6A. Andererseits sind die Textur des Glases und seine Ränder in dem in BILD 6B gezeigten DOLP ρ besser sichtbar und in dem in BILD 6C gezeigten AOLP ϕ noch besser.
  • Neuartige Umgebungen: Zusätzlich zur Erhöhung der Stärke der Textur des transparenten Objekts reduziert das DOLP p-Bild, wie es z. B. in 6B gezeigt wird, auch die Auswirkungen von diffusen Hintergründen wie strukturiertem oder gemustertem Stoff (z. B. wird der Hintergrundstoff fast vollständig schwarz dargestellt). Dadurch können transparente Objekte in verschiedenen Szenen ähnlich erscheinen, selbst wenn sich die Umgebung von Szene zu Szene ändert. Siehe z. B. Region (a) in 6B und 7A.
  • Fälschungen von Ausdrucken: Papier ist flach, was zu einem weitgehend einheitlichen AOLP ϕ und DOLP ρ führt. Transparente Objekte haben eine gewisse Oberflächenvariation, die in AOLP ϕ und DOLP ρ sehr ungleichmäßig erscheint (siehe z. B. 2C). So können ausgedruckte Fälschungen von transparenten Objekten von echten transparenten Objekten unterschieden werden.
  • 8A ist ein Blockdiagramm eines Merkmalsextraktors 800 gemäß einer Ausführungsform der vorliegenden Erfindung. 8B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zur Extraktion von Merkmalen aus Polarisationsrohbildern darstellt. In der in 8A gezeigten Ausführungsform umfasst der Merkmalsextraktor 800 einen Intensitätsextraktor 820, der konfiguriert ist, um ein Intensitätsbild I 52 in einem Intensitätsdarstellungsraum zu extrahieren (z.B. in Übereinstimmung mit Gleichung (7), als ein Beispiel für einen Nicht-Polarisationsdarstellungsraum), und Polarisationsmerkmalsextraktoren 830, die konfiguriert sind, um Merkmale in einem oder mehreren Polarisationsdarstellungsräumen zu extrahieren. Wie in 8B gezeigt, kann die Extraktion von Polarisationsbildern im Verfahrensschritt 410 das Extrahieren eines ersten Tensors in einem ersten Polarisationsdarstellungsraum aus den Polarisationsrohbildern aus einem ersten Stokes-Vektor umfassen. Im Verfahrensschritt 412 extrahiert der Merkmalsextraktor 800 ferner einen zweiten Tensor in einem zweiten Polarisationsdarstellungsraum aus den Polarisationsrohbildern. Beispielsweise können die Polarisationsmerkmalsextraktoren 830 einen DOLP-Extraktor 840 umfassen, der konfiguriert ist, um ein DOLP p-Bild 54 zu extrahieren (z. B. ein erstes Polarisationsbild oder einen ersten Tensor gemäß Gleichung (8) mit DOLP als erstem Polarisationsdarstellungsraum), und einen AOLP-Extraktor 860, der konfiguriert ist, um ein AOLP ϕ-Bild 56 zu extrahieren (z. B, ein zweites Polarisationsbild oder einen zweiten Tensor gemäß Gleichung (9), mit AOLP als zweitem Polarisationsdarstellungsraum) aus den gelieferten Polarisationsrohbildern 18 zu extrahieren. Als weiteres Beispiel können die Polarisationsdarstellungsräume Kombinationen von Polarisationsrohbildern in Übereinstimmung mit Stokes-Vektoren enthalten. Als weitere Beispiele können die Polarisationsdarstellungen Modifikationen oder Transformationen von Polarisationsrohbildern in Übereinstimmung mit einem oder mehreren Bildverarbeitungsfiltern (z. B. einem Filter zur Erhöhung des Bildkontrasts oder einem Entrauschungsfilter) enthalten. Die abgeleiteten Merkmalskarten 52, 54 und 56 können dann einem Prädiktor 900 zur weiteren Verarbeitung zugeführt werden, z. B. zur Durchführung von Schlussfolgerungen (z. B. zur Erstellung von Instanzsegmentierungskarten, zur Klassifizierung der Bilder und zur Erstellung von Textbeschreibungen der Bilder).
  • Während 8B einen Fall illustriert, in dem zwei verschiedene Tensoren aus den Polarisationsrohbildern 18 in zwei verschiedenen Darstellungsräumen extrahiert werden, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. Zum Beispiel wird in einigen Ausführungsformen der vorliegenden Offenbarung genau ein Tensor in einem Polarisationsdarstellungsraum aus den Polarisationsrohbildern 18 extrahiert. Beispielsweise ist ein Polarisationsdarstellungsraum von Rohbildern AOLP und ein anderer ist DOLP (z. B. kann in einigen Anwendungen AOLP für die Erkennung von transparenten Objekten oder anderen optisch anspruchsvollen Objekten ausreichen, wie z. B. durchscheinende, nicht lambertsche, mehrweginduzierende und/oder nicht reflektierende Objekte). In einigen Ausführungsformen der vorliegenden Offenlegung werden aus den Polarisationsrohbildern 18 basierend auf den entsprechenden Stokes-Vektoren mehr als zwei verschiedene Tensoren extrahiert. Wie in 8B gezeigt, können beispielsweise n verschiedene Tensoren in n verschiedenen Darstellungsräumen durch den Merkmalsextraktor 800 extrahiert werden, wobei der n-te Tensor im Verfahrensschritt 414 extrahiert wird.
  • Dementsprechend werden durch die Extraktion von Merkmalen wie Polarisationsmerkmalen oder Polarisationsbildern aus Polarisationsrohbildern 18 erste Tensoren 50 erzeugt, aus denen transparente Objekte oder andere optisch anspruchsvolle Objekte wie lichtdurchlässige Objekte, mehrweginduzierende Objekte, nicht lambertsche Objekte und nichtreflektierende Objekte leichter erkannt oder von anderen Objekten in einer Szene getrennt werden können. In einigen Ausführungsformen können die ersten Tensoren, die vom Merkmalsextraktor 800 extrahiert werden, explizit abgeleitete Merkmale sein (z. B. handgefertigt von einem menschlichen Designer), die sich auf zugrundeliegende physikalische Phänomene beziehen, die sich in den Polarisationsrohbildern zeigen können (z. B. die Berechnung von AOLP- und DOLP-Bildern, wie oben beschrieben). In einigen zusätzlichen Ausführungsformen der vorliegenden Offenlegung extrahiert der Merkmalsextraktor 800 andere Nicht-Polarisationsmerkmalskarten oder Nicht-Polarisationsbilder, wie Intensitätskarten für verschiedene Lichtfarben (z. B. rotes, grünes und blaues Licht) und Transformationen der Intensitätskarten (z. B. Anwendung von Bildverarbeitungsfiltern auf die Intensitätskarten). In einigen Ausführungsformen der vorliegenden Offenbarung kann der Merkmalsextraktor 800 konfiguriert sein, um ein oder mehrere Merkmale zu extrahieren, die automatisch gelernt werden (z. B. Merkmale, die nicht manuell von einem Menschen festgelegt werden), und zwar durch einen durchgängig überwachten Trainingsprozess basierend auf gekennzeichneten Trainingsdaten.
  • Berechnung von Vorhersagen, wie z. B. Segmentierungskarten, basierend auf Polarisationsmerkmalen, die aus Polarisationsrohbildern berechnet werden
  • Wie oben erwähnt, beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die Bereitstellung erster Tensoren im Polarisationsdarstellungsraum, wie Polarisationsbilder oder Polarisationsmerkmalskarten, wie die DOLP ρ- und AOLP ϕ-Bilder, die durch den Merkmalsextraktor 800 extrahiert wurden, für einen Prädiktor, wie einen semantischen Segmentierungsalgorithmus, um eine multimodale Fusion der Polarisationsbilder durchzuführen, um gelernte Merkmale (oder zweite Tensoren) zu erzeugen, und um Vorhersagen, wie Segmentierungskarten, basierend auf den gelernten Merkmalen oder zweiten Tensoren zu berechnen. Spezifische Ausführungsformen, die sich auf die semantische Segmentierung oder Instanzsegmentierung beziehen, werden im Folgenden ausführlicher beschrieben.
  • Generell gibt es viele Ansätze zur semantischen Segmentierung, darunter auch Deep-Instance-Techniken. Die verschiedenen Deep-Instance-Techniken können als auf semantischer Segmentierung basierende Techniken klassifiziert werden (wie z. B. die in: Min Bai und Raquel Urtasun. Deep watershed transform for instance segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5221-5229, 2017; Alexander Kirillov, Evgeny Levinkov, Bjoern Andres, Bogdan Savchynskyy, and Carsten Rother. Instancecut: from edges to instances with multicut. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5008-5017, 2017; and Anurag Arnab and Philip HS Torr. Pixelwise instance segmentation with a dynamically instantiated network. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 441-450, 2017.), vorschlagsbasierte Techniken (wie die in: Kaiming He, Georgia Gkioxari, Piotr Doll'ar, and Ross Girshick. Mask r-cnn. In Proceedings of the IEEE International Conference on Computer Vision, pages 2961-2969, 2017.) und auf rekurrenten neuronalen Netzen (RNN) basierende Verfahren (wie die in: Bemardino Romera-Paredes und Philip Hilaire Sean Torr. Recurrent instance segmentation. In European Conference on Computer Vision, Seiten 312-329. Springer, 2016 und Mengye Ren und Richard S Zemel. End-toend instance segmentation with recurrent attention. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Seiten 6656-6664, 2017.). Ausführungsformen der vorliegenden Offenbarung können auf jede dieser semantischen Segmentierungstechniken angewendet werden.
  • Während einige vergleichende Ansätze verkettete Polarisationsrohbilder (z. B. Bilder I_0, I_45, I_90 und I_135 wie oben beschrieben) direkt in ein tiefes Netzwerk einspeisen, ohne daraus erste Tensoren wie Polarisationsbilder oder Polarisationsmerkmalskarten zu extrahieren, haben Modelle, die direkt auf diesen Polarisationsrohbildern als Eingaben trainiert werden, im Allgemeinen Schwierigkeiten, die physikalischen Prioritäten zu erlernen, was zu einer schlechten Leistung führt, wie z. B. dem Versagen bei der Erkennung von Instanzen transparenter Objekte oder anderer optisch anspruchsvoller Objekte. Dementsprechend beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenlegung auf die Verwendung von Polarisationsbildern oder Polarisationsmerkmalskarten (in einigen Ausführungsformen in Kombination mit anderen Merkmalskarten wie Intensitätsmerkmalskarten), um eine Instanzsegmentierung auf Bildern von transparenten Objekten in einer Szene durchzuführen.
  • Eine Ausführungsform der vorliegenden Offenlegung, die eine tiefe Instanzsegmentierung verwendet, basiert auf einer Modifikation einer auf Maskenregionen basierenden faltenden neuronalen Netzwerkarchitektur (Mask R-CNN), um eine polarisierte Masken-R-CNN-Architektur zu bilden. Mask R-CNN arbeitet mit einem Eingangsbild x, das ein H×W×3-Tensor von Bildintensitätswerten ist (z. B. Höhe mal Breite mal Farbintensität in roten, grünen und blauen Kanälen), und lässt es durch ein Backbone-Netzwerk laufen: C=B(x). Das Backbone-Netzwerk B(x) ist für die Extraktion nützlicher gelernter Merkmale aus dem Eingabebild verantwortlich und kann eine beliebige Standard-CNN-Architektur wie AlexNet sein (siehe z. B. Krizhevsky, Alex, Ilya Sutskever und Geoffrey E. Hinton. „ImageNet classification with deep convolutional neural networks“. Advances in neural information processing systems. 2012.), VGG (siehe z. B. Simonyan, Karen, und Andrew Zisserman. „Very deep convolutional networks for large-scale image recognition.“ arXiv preprint arXiv:1409.1556 (2014).), ResNet-101 (siehe z.B. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 770-778, 2016.), MobileNet (siehe z. B. Howard, Andrew G., et al. „Mobilenets: Efficient convolutional neural networks for mobile vision applications.“ arXiv preprint arXiv: 1704.04861 (2017).), MobileNetV2 (siehe z. B., Sandler, Mark, et al. „MobileNetV2: Inverted residuals and linear bottlenecks.“ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.), und MobileNetV3 (siehe z. B. Howard, Andrew, et al. „Searching for MobileNetV3.“ Proceedings of the IEEE International Conference on Computer Vision. 2019.)
  • Das Backbone-Netzwerk B(x) gibt eine Reihe von Tensoren aus, z. B. C = {C1,C2,C3,C4,C5}, wobei jeder Tensor Ci eine Merkmalskarte mit unterschiedlicher Auflösung darstellt. Diese Merkmalskarten werden dann in einem Merkmalspyramidennetz (FPN) kombiniert (siehe z. B. Tsung-Yi Lin, Piotr Doll'ar, Ross Girshick, Kaiming He, Bharath Hariharan und Serge Belongie. Feature pyramid networks for object detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2117-2125, 2017.), verarbeitet mit einem Region Proposal Network (RPN) (siehe z.B., Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. In Advances in Neural Information Processing Systems, S. 91-99, 2015.), und schließlich durch ein Ausgabe-Teilnetz (siehe z. B. Ren et al. und He et al., oben) geleitet, um Klassen, Bounding Boxes und pixelweise Segmentierungen zu erzeugen. Diese werden mit nicht-maximaler Unterdrückung für die Instanzsegmentierung zusammengeführt.
  • Aspekte der Ausführungsformen der vorliegenden Erfindung beziehen sich auf ein Framework zur Nutzung der zusätzlichen Informationen, die in polarisierten Bildern enthalten sind, unter Verwendung von Deep Learning, wobei diese zusätzlichen Informationen nicht in Eingabebildern vorhanden sind, die von vergleichbaren Kameras erfasst werden (z. B. Informationen, die nicht von Standard-Farb- oder Monochromkameras ohne die Verwendung von Polarisatoren oder Polfiltern erfasst werden). Neuronale Netzwerkarchitekturen, die in Übereinstimmung mit dem Framework von Ausführungsformen der vorliegenden Offenbarung konstruiert werden, werden hier als polarisierte faltende neuronale Netzwerke (CNNs) bezeichnet.
  • Anwenden dieses Frameworks gemäß einigen Ausführungsformen der vorliegenden Offenbarung beinhaltet drei Änderungen an einer CNN-Architektur:
    • (1) Eingabebild: Anwendung der physikalischen Gleichungen der Polarisation, um die Eingabepolarisationsbilder für das CNN zu erstellen, beispielsweise durch Verwendung eines Merkmalsextraktors 800 gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • (2) Attention-Fusion Polar Backbone: Behandlung des Problems als multimodales Fusionsproblem durch Fusionieren der gelernten Merkmale, die aus den Polarisationsbildern durch ein trainiertes CNN-Backbone berechnet wurden.
    • (3) Geometrische Datenerweiterungen: Erweiterung der Trainingsdaten, um die Physik der Polarisation darzustellen.
  • Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Stattdessen kann jede Teilmenge der oben genannten drei Änderungen und/oder andere Änderungen als die oben genannten drei Änderungen an einer bestehenden CNN-Architektur vorgenommen werden, um eine polarisierte CNN-Architektur im Rahmen von Ausführungsformen der vorliegenden Offenbarung zu erstellen.
  • Ein polarisiertes CNN gemäß einigen Ausführungsformen der vorliegenden Offenbarung kann unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert werden, die konfiguriert sind, um die im Folgenden näher beschriebenen Verfahrensschritte durchzuführen. In der in 3 gezeigten Ausführungsform wird ein polarisiertes CNN als eine Komponente des Prädiktors 900 zur Berechnung einer Segmentierungskarte 20 verwendet, wie in 3 gezeigt.
  • 9 ist ein Blockdiagramm, das eine polarisierte CNN-Architektur gemäß einer Ausführungsform der vorliegenden Erfindung darstellt, wie sie auf ein Masken-Region-basiertes faltendes neuronales Netz (Mask R-CNN) Backbone angewendet wird, wobei zweite Tensoren C (oder Ausgabetensoren wie gelernte Merkmalskarten) verwendet werden, um eine Ausgabevorhersage wie die Segmentierungsmaske 20 zu berechnen.
  • Während sich einige Ausführungsformen der vorliegenden Offenbarung auf eine semantische Segmentierung oder Instanzsegmentierung unter Verwendung einer polarisierten CNN-Architektur beziehen, die auf ein Mask R-CNN-Backbone angewendet wird, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt, und andere Backbones wie AlexNet, VGG, MobileNet, MobileNetV2, MobileNetV3 und dergleichen können in ähnlicher Weise modifiziert werden.
  • In der in 9 gezeigten Ausführungsform werden abgeleitete Merkmalskarten 50 (z. B. einschließlich Eingabepolarisationsbildern wie AOLP ϕ- und DOLP p-Bildern) als Eingaben an ein polarisiertes CNN-Backbone 910 geliefert. In der in 9 gezeigten Ausführungsform umfassen die Eingangsmerkmalskarten 50 drei Eingangsbilder: das Intensitätsbild (I) 52, das AOLP (ϕ) 56, das DOLP (p) 54 aus Gleichung (1) als Eingang für die Erkennung eines transparenten Objekts und/oder eines anderen optisch anspruchsvollen Objekts. Diese Bilder werden aus Polarisationsrohbildern 18 (z. B. den Bildern I0, I45, I90 und I135, wie oben beschrieben) berechnet, die so normiert sind, dass sie in einem Bereich liegen (z. B., 8-Bit-Werte im Bereich [0-255]) und in dreikanalige Graustufenbilder umgewandelt werden, um ein einfaches Transfer-Lernen basierend auf Netzwerken zu ermöglichen, die mit dem MSCoCo-Datensatz trainiert wurden (siehe z. B. Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Doll'ar und C Lawrence Zitnick. Microsoft Coco: Gemeinsame Objekte im Kontext. In European Conference on Computer Vision, Seiten 740-755. Springer, 2014.).
  • In der in 9 gezeigten Ausführungsform wird jede der abgeleiteten Eingangsmerkmalskarten 50 einem separaten Backbone zugeführt: Intensität BI(I) 912, AOLP-Backbone Bϕ(ϕ) 914 und DOLP-Backbone Bρ(ρ) 916. Die CNN-Backbones 912, 914 und 916 berechnen Tensoren für jeden Modus oder „Modus-Tensoren“ (z. B. Merkmalskarten, die basierend auf Parametern berechnet wurden, die während des Trainings oder des Transferlernens des CNN-Backbones gelernt wurden, was weiter unten ausführlicher erörtert wird) Ci,I, Ci,p, Ci,Φ in verschiedenen Maßstäben oder Auflösungen i. Während 9 eine Ausführungsform mit fünf verschiedenen Maßstäben i zeigt, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf CNN-Backbones mit einer anderen Anzahl von Maßstäben angewendet werden.
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf einen räumlich bewussten Aufmerksamkeitsfusionsmechanismus zum Durchführen einer multimodalen Fusion (z. B. Fusion der Merkmalskarten, die aus jedem der verschiedenen Modi oder verschiedenen Typen von Eingangsmerkmalskarten berechnet werden, wie der Intensitätsmerkmalskarte I, der AOLP-Merkmalskarte ϕ und der DOLP-Merkmalskarte p).
  • In der in 9 gezeigten Ausführungsform werden beispielsweise die Modustensoren Ci,I, Ci,ρ, Ci,ϕ (Tensoren für jeden Modus), die aus den entsprechenden Backbones BI, Bρ, Bϕ in jedem Maßstab i berechnet wurden, unter Verwendung der Fusionsschichten 922, 923, 924, 925 (zusammen als Fusionsschichten 920 bezeichnet) für die entsprechenden Maßstäbe fusioniert. Beispielsweise ist die Fusionsschicht 922 konfiguriert, um die im Maßstab i=2 berechneten Modustensoren C2,I, C2,ρ, C2,ϕ zu fusionieren, um einen fusionierten Tensor C2 zu berechnen. Ebenso ist die Fusionsschicht 923 konfiguriert, um die im Maßstab i=3 berechneten Modustensoren C3,I, C3,ρ, C3,ϕ zu fusionieren, um einen fusionierten Tensor C3 zu berechnen, und ähnliche Berechnungen können von den Fusionsschichten 924 und 925 durchgeführt werden, um fusionierte Merkmalskarten C4 bzw. C5 zu berechnen, die auf den jeweiligen Modustensoren für ihre Maßstäbe basieren. Die von den Fusionsschichten 920 berechneten fusionierten Tensoren CL (z. B. C2, C3, C4, C5) oder zweiten Tensoren, wie z. B. fusionierte Merkmalskarten, werden dann als Eingabe an ein Vorhersagemodul 950 geliefert, das konfiguriert ist, um eine Vorhersage aus den fusionierten Tensoren zu berechnen, wobei die Vorhersage eine Ausgabe sein kann, wie z. B. eine Segmentierungskarte 20, eine Klassifizierung, eine textuelle Beschreibung oder Ähnliches.
  • 10 ist ein Blockdiagramm einer i-ten Fusionsschicht unter den Fusionsschichten 920, die mit einem polarisierten CNN gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann. Wie in 10 gezeigt, wird in einigen Ausführungsformen der vorliegenden Offenbarung eine Fusionsschicht (z.B., jede der Fusionsschicht 920) unter Verwendung eines Aufmerksamkeitsmoduls implementiert wird, wobei der Prädiktor 900 die gelieferten Eingangstensoren oder Eingangsmerkmalskarten Ci,I, Ci,ρ, Ci,ϕ, die von den CNN-Backbones für die i-te Skalierung berechnet wurden, verkettet, um einen verketteten Tensor 1010 zu erzeugen, wobei der verkettete Tensor 1010 durch einen Satz von trainierten Faltungsschichten oder Aufmerksamkeits-Teilnetzen Ωi für die i-te Skalierung verarbeitet wird. Das Aufmerksamkeits-Teilnetz Ωi gibt ein 3-Kanal-Bild mit der gleichen Höhe und Breite wie die Eingangstensoren aus, und in einigen Ausführungsformen wird auf jedes Pixel des 3-Kanal-Bildes eine Softmax-Funktion angewendet, um pixelweise Aufmerksamkeitsgewichte α für die i-te Skalierung zu berechnen: [ α i , ϕ , α i , ρ , α i , l ] = s o f t m a x ( Ω i ( [ C i , ϕ , C i , ρ , C i , j ] ) )
    Figure DE112020005932T5_0011
  • Diese Aufmerksamkeitsgewichte werden verwendet, um einen gewichteten Durchschnitt 1020 pro Kanal zu bilden: C i = α i , ϕ C i , ϕ + α i , ρ C i , ρ + α i , j C i , j
    Figure DE112020005932T5_0012
  • Dementsprechend ermöglicht die Verwendung eines Aufmerksamkeitsmoduls einem polarisierten CNN gemäß einigen Ausführungsformen der vorliegenden Offenbarung die Gewichtung der verschiedenen Eingaben auf der Skalierung i (z. B., den Intensitäts-I-Tensor oder die gelernte Merkmalskarte Ci,I, den DOLP-Tensor oder die gelernte Merkmalskarte Ci,ρ und den AOLP-Tensor oder die gelernte Merkmalskarte Ci,Φ auf der Skalierung i) basierend darauf wie relevant sie für einen gegebenen Teil der Szene sind, wobei die Relevanz durch das trainierte Aufmerksamkeits-Teilnetz Ωi in Übereinstimmung mit den beschrifteten Trainingsdaten bestimmt wird, die zum Trainieren des polarisierten CNN-Backbones verwendet werden.
  • 11 zeigt Beispiele für Aufmerksamkeitsgewichte, die von einem Aufmerksamkeitsmodul gemäß einer Ausführungsform der vorliegenden Erfindung für verschiedene Modustensoren (in verschiedenen ersten Darstellungsräumen) berechnet werden, die aus Polarisationsrohbildern extrahiert wurden, die von einer Polarisationskamera erfasst wurden. Wie in 11 gezeigt (siehe z. B. Intensitätsbild 1152), umfasst die von der Polarisationskamera aufgenommene Szene ein transparentes Glas, das auf einem ausgedruckten Foto platziert ist, wobei das ausgedruckte Foto ein transparentes Trinkglas (eine ausgedruckte Fälschung eines Trinkglases) und einige Hintergrundstörungen zeigt.
  • Wie in 11 zu sehen ist, sind die gelernten Aufmerksamkeitsgewichte 1110 auf den DOLP 1114 und AOLP 1116 im Bereich um das echte Trinkglas am hellsten und vermeiden die mehrdeutige Druckfälschung im Intensitätsbild 1152. Dementsprechend kann das Vorhersagemodul 950 beispielsweise eine Segmentierungsmaske 1120 berechnen, die der Bodenwirklichkeit 1130 sehr nahe kommt (z. B. zeigt die Vorhersage 1120 eine Form, die der Form des transparenten Objekts in der Szene sehr nahe kommt).
  • In der in 9 gezeigten Ausführungsform ähnelt das Vorhersagemodul 950 im Wesentlichen demjenigen, das in einer Masken-R-CNN-Architektur verwendet wird, und berechnet eine Segmentierungskarte durch Kombinieren der fusionierten Merkmalskarten C unter Verwendung eines Merkmalspyramidennetzwerks (FPN) und eines Regionsvorschlagsnetzwerks (RPN) als Eingaben für ein Ausgabe-Teilnetzwerk zum Berechnen einer Klasse, einer Maske und eines Begrenzungsrahmens (Bbox) für jede Instanz von Objekten, die in den Eingabebildern erkannt werden. Die berechneten Klassen, Masken und Bounding Boxes werden dann mit nicht maximaler Unterdrückung zusammengeführt, um die Instanzsegmentierungskarte (oder Instanzsegmentierungsmaske) 20 zu berechnen.
  • Wie oben erwähnt, kann eine Polarisations-CNN-Architektur durch Transfer-Lernen basierend auf einem bestehenden tiefen neuronalen Netz trainiert werden, das beispielsweise mit dem MSCoCo-Datensatz und einem Trainingsalgorithmus für ein neuronales Netz, wie Backpropagation und Gradientenabstieg, trainiert wurde. Genauer gesagt wird die Polarisations-CNN-Architektur auf der Grundlage zusätzlicher Trainingsdaten weiter trainiert, die für die Eingaben in das Polarisations-CNN repräsentativ sind (z. B. unter Verwendung von Polarisationsrohbildern zum Berechnen von aus dem Training abgeleiteten Merkmalskarten 50 und Bodenwirklichkitsbezeichnungen, die mit den aus dem Training abgeleiteten Merkmalskarten verbunden sind), wie sie von der Merkmalsextraktionseinrichtung 800 aus den Polarisationsrohbildern 18 extrahiert wurden. Diese zusätzlichen Trainingsdaten können beispielsweise Polarisationsrohbilder umfassen, die von einer Polarisationskamera von einer Vielzahl von Szenen aufgenommen wurden, die transparente Objekte oder andere optisch anspruchsvolle Objekte in einer Vielzahl von verschiedenen Umgebungen enthalten, zusammen mit Bodenwirklichkeits-Segmentierungskarten (z. B. manuell erzeugte Segmentierungskarten), die die Pixel mit der Instanz und Klasse der Objekte kennzeichnen, die in den von der Polarisationskamera aufgenommenen Bildern dargestellt sind.
  • Bei kleinen Trainingsdatensätzen bieten affine Transformationen eine Technik zum Erweitern von Trainingsdaten (z. B. Erzeugen zusätzlicher Trainingsdaten aus vorhandenen Trainingsdaten), um eine gute Generalisierungsleistung zu erzielen. Allerdings führt die naive Anwendung affiner Transformationen auf einige der aus dem Training abgeleiteten Merkmalskarten, wie z. B. das AOLP ϕ-Bild, nicht zu einer signifikanten Verbesserung der Leistung des trainierten neuronalen Netzes und in einigen Fällen sogar zu Leistungseinbußen. Dies liegt daran, dass der AOLP ein Winkel im Bereich von 0° bis 360° (oder 0 bis 2π) ist, der die Richtung der elektromagnetischen Welle in Bezug auf den Kamerakoordinatenrahmen darstellt. Die Anwendung eines Verfahrensschritts auf das Ausgangs-Trainingsbild (oder die aus dem Training abgeleitete Merkmalskarte) entspricht einer Drehung der Kamera um ihre Z-Achse (z. B. entlang der optischen Achse des Objektivs 12). Diese Drehung verändert wiederum die Ausrichtung der X-Y-Ebene der Kamera und damit die relative Richtung der elektromagnetischen Welle (z. B. den Winkel der linearen Polarisation). Um dieser Änderung Rechnung zu tragen, werden beim Erweitern der Daten durch Ausführen von affinen Rotationstransformationen um einen Drehwinkel die Pixelwerte des AOLP um denselben Winkel in die entgegengesetzte Richtung gedreht (oder gegenläufig gedreht oder eine Gegenrotation auf die erzeugten zusätzlichen Daten angewendet). Dasselbe Prinzip gilt auch für andere affine Transformationen der Trainingsmerkmalskarten oder der ersten Trainings-Tensoren, wobei sich die auf die Trainingsmerkmalskarten oder die ersten Trainings-Tensoren angewendeten Transformationen je nach der zugrunde liegenden Physik, die die Trainingsmerkmalskarten darstellen, unterscheiden können. Während beispielsweise ein DOLP-Bild von einer Rotationstransformation unbeeinflusst bleiben kann, würde eine Translationstransformation aufgrund des zugrundeliegenden physikalischen Verhaltens der Wechselwirkungen von Licht mit transparenten Objekten oder anderen optisch anspruchsvollen Objekten (z. B. lichtdurchlässigen Objekten, nicht-lambertschen Objekten, mehrweginduzierenden Objekten und nicht-reflektierenden Objekten) entsprechende Änderungen am DOLP erfordern.
  • Zusätzlich beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf die Verwendung von CNN und tiefer semantischer Segmentierung, doch sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen der vorliegenden Offenlegung werden die abgeleiteten Merkmalskarten 50 (in einigen Ausführungsformen zusammen mit anderen Merkmalskarten) als Eingaben für andere Arten von Klassifizierungsalgorithmen (z. B. Klassifizierung eines Bildes ohne Lokalisierung der erkannten Objekte), andere Arten von semantischen Segmentierungsalgorithmen oder Bildbeschreibungsalgorithmen verwendet, die darauf trainiert sind, um Natursprachbeschreibungen zu erzeugen. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), ein Markov-Zufallsfeld, ein probabilistisches grafisches Modell usw. In einigen Ausführungsformen der vorliegenden Offenlegung werden die abgeleiteten Merkmalskarten als Eingabe für klassische Bildverarbeitungsalgorithmen wie Merkmalsdetektoren (z. B. skaleninvariante Merkmalstransformation (SIFT), beschleunigte Robustheitsmerkmale (SURF), Gradientenlokalisierungs- und Orientierungshistogramm (GLOH), Histogramm von orientierten Gradienten (HOG), Basiskoeffizienten, Haar-Wavelet-Koeffizienten usw.) verwendet, um erkannte klassische Bildverarbeitungsmerkmale von erkannten transparenten Objekten und/oder anderen optisch anspruchsvollen Objekten in einer Szene auszugeben.
  • 12A, 12B, 12C und 12D zeigen Segmentierungskarten, die von einem vergleichenden Bildsegmentierungssystem berechnet wurden, Segmentierungskarten, die von einem polarisierten faltenden neuronalen Netz gemäß einer Ausführungsform der vorliegenden Offenbarung berechnet wurden, und Bodenwirklichkeits-Segmentierungskarten (z. B. manuell erstellte Segmentierungskarten). Die 12A, 12B, 12C und 12D zeigen Beispiele von Experimenten, die auf vier verschiedenen Testsätzen durchgeführt wurden, um die Leistung eines trainierten R-CNN-Modells für polarisierte Masken gemäß einer Ausführungsform der vorliegenden Offenbarung mit einem vergleichbaren R-CNN-Modell für Masken zu vergleichen (das hier als R-CNN-Modell für „Intensitätsmasken“ bezeichnet wird, um anzuzeigen, dass es mit Intensitätsbildern und nicht mit polarisierten Bildern arbeitet).
  • Das zum Durchführen der Experimente verwendete polarisierte Masken-R-CNN-Modell wurde auf einem Trainingssatz trainiert, der 1.000 Bilder mit über 20.000 Instanzen transparenter Objekte in fünfzehn verschiedenen Umgebungen aus sechs möglichen Klassen transparenter Objekte enthält: Plastikbecher, Plastikschalen, Gläser, Ornamente und andere. Datenerweiterungstechniken wie die oben beschriebenen affinen Transformationen der Eingabebilder und die Anpassung des AOLP auf der Grundlage der Drehung der Bilder werden vor dem Training auf den Trainingssatz angewendet.
  • Die vier Testsätze umfassen:
    • (a) Ein Clutter-Testsatz enthält 200 Bilder von unübersichtlichen transparenten Objekten in Umgebungen, die dem Trainingssatz ähnlich sind, ohne Ausdrucke.
    • (b) Ein Novel Environments (Env) Testset enthält 50 Bilder von ~6 Objekten pro Bild in Umgebungen, die im Trainingsset nicht vorhanden sind. Die Hintergründe enthalten harte Beleuchtung, texturierte Kleidung, glänzende Metalle und mehr.
    • (c) Ein Print-Out Spoofs (POS) Testsatz enthält 50 Bilder, die jeweils 1 bis 6 gedruckte Objekte und 1 oder 2 echte Objekte enthalten.
    • (d) Ein Robotic Bin Picking (RBP) Testsatz enthält 300 Bilder aus einer Live-Demo unseres Roboterarms, der Ornamente aufnimmt (z. B. dekorative Glasornamente, die an einen Baum gehängt werden können). Dieser Satz wird verwendet, um die Leistung der Instanzsegmentierung in einer realen Anwendung zu testen.
  • Für jeden Datensatz wurden zwei Metriken zum Messen der Genauigkeit verwendet: die mittlere durchschnittliche Genauigkeit (mAP) im Bereich von Intersection over Unions (IoUs) 0,5-0,7 (mAP_(.5:.7)) und die mittlere Genauigkeit im Bereich von IoUs 0,75-0,9 (mAP_(.75:.9)). Diese beiden Metriken messen die Grobsegmentierung bzw. die feinkörnige Segmentierung. Um die Generalisierung weiter zu testen, wurden alle Modelle auch bei der Objekterkennung mit der Faster R-CNN Komponente von Mask R-CNN getestet.
  • Das polarisierte Masken-R-CNN gemäß den Ausführungsformen der vorliegenden Offenbarung und das Intensitätsmasken-R-CNN wurden an den vier oben genannten Testsätzen getestet. Die durchschnittliche Verbesserung beträgt 14,3 % mAP bei der Grobsegmentierung und 17,2 % mAP bei der feinkörnigen Segmentierung. Die Leistungsverbesserung beim Clutter-Problem ist bei der feinkörnigen Segmentierung deutlicher sichtbar, wo der Leistungsunterschied von ~ 1,1 % mAP auf 4,5 % mAP steigt. Daher scheinen die Polarisationsdaten nützliche Kanteninformationen zu liefern, die es dem Modell ermöglichen, Objekte genauer zu segmentieren. Wie in 12A zu sehen ist, hilft die Polarisation bei der genauen Segmentierung von Unordnung, wo sie im Intensitätsbild nicht eindeutig ist. Als Ergebnis erkennt das polarisierte Masken-R-CNN gemäß einer Ausführungsform der vorliegenden Offenbarung in dem in 12A gezeigten Beispiel aus dem Clutter-Testsatz alle sechs Instanzen transparenter Objekte korrekt und stimmt mit der Bodenwirklichkeit überein, während das vergleichbare Intensitätsmasken-R-CNN nur vier der sechs Instanzen transparenter Objekte identifiziert.
  • Für die Verallgemeinerung auf neue Umgebungen gibt es sowohl für die Feinals auch für die Grobsegmentierung viel größere Gewinne, und daher scheint es, dass die intrinsische Textur eines transparenten Objekts für das CNN in den polarisierten Bildern besser sichtbar ist. Wie in 12B gezeigt, gelingt es dem Intensitätsmasken-R-CNN nicht, sich an die neue Umgebung anzupassen, während das Polarisationsmasken-R-CNN-Modell erfolgreich ist. Während das Polarized Mask R-CNN in der Lage ist, alle Instanzen der übergeordneten Objekte korrekt zu erkennen, gelingt es dem Instanzmasken R-CNN nicht, einige der Instanzen zu erkennen (siehe z. B. die Instanzen in der oberen rechten Ecke des Kastens).
  • Ausführungsformen der vorliegenden Offenbarung zeigen auch eine ähnlich große Verbesserung der Robustheit gegen Druckfehler und erreichen fast 90% mAP. Somit bieten die Ausführungsformen der vorliegenden Offenbarung eine monokulare Lösung, die robust gegenüber perspektivischen Projektionsproblemen, wie z. B. Druckfälschungen, ist. Wie in 12C gezeigt, wird das Intensitätsmasken-R-CNN durch die gedruckten Papierfälschungen getäuscht. In dem in 12C gezeigten Beispiel wird ein echter transparenter Ball auf einem Ausdruck platziert, der drei gefälschte transparente Objekte zeigt. Das Intensitätsmasken-R-CNN identifiziert zwei der ausgedruckten Fälschungen fälschlicherweise als Instanzen. Das polarisierte Masken-R-CNN ist dagegen robust und erkennt nur den echten transparenten Ball als Instanz.
  • All diese Ergebnisse erklären die drastische Leistungsverbesserung, die für eine unkontrollierte und unübersichtliche Umgebung wie Robotic Bin Picking (RBP) gezeigt wurde. Wie in 12D gezeigt, ist das Intensitätsmasken-R-CNN-Modell bei der robotergestützten Entnahme von Ornamenten unter schlechten Lichtverhältnissen nur in der Lage, fünf der elf Fälle von transparenten Objekten zu erkennen. Andererseits ist das polarisierte R-CNN-Modell in der Lage, sich an diese Umgebung mit schlechten Lichtverhältnissen anzupassen und identifiziert alle elf Fälle korrekt.
  • Als Beispiel für eine mögliche Anwendung in industriellen Umgebungen wurde ein computerbasierte Sehsystem konfiguriert, um einen Roboterarm zu kontrollieren, um Behälter zu entnehmen, indem eine Segmentierungsmaske an die Steuerung des Roboterarms geliefert wurde. Die Entnahme von transparenten und transluzenten (nicht lambertschen) Objekten ist ein schwieriges und offenes Problem in der Robotik. Um den Nutzen einer qualitativ hochwertigen, robusten Segmentierung zu zeigen, wird die Leistung eines vergleichbaren Intensitätsmasken-R-CNN beim Bereitstellen von Segmentierungskarten für die Steuerung des Roboterarms zur Entnahme von unterschiedlich großen, unübersichtlichen, transparenten Ornamenten mit der Leistung eines polarisierten Masken-R-CNN gemäß einer Ausführungsform der vorliegenden Offenbarung verglichen.
  • Eine Bin-Picking-Lösung umfasst drei Komponenten: eine Segmentierungskomponente, um jedes Objekt zu isolieren; eine Tiefenschätzungskomponente; und eine Posenschätzungskomponente. Um die Wirkung der Segmentierung zu verstehen, wird eine einfache Tiefen- und Posenschätzung durchgeführt, bei der sich der Roboterarm in die Mitte der Segmentierung bewegt und anhält, wenn er auf eine Oberfläche trifft. Dies funktioniert in diesem Beispiel, weil die Objekte perfekte Kugeln sind. Eine leicht ungenaue Segmentierung kann zu einer falschen Schätzung und damit zu einer falschen Auswahl führen. Diese Anwendung ermöglicht einen Vergleich zwischen dem polarisierten Masken-R-CNN und dem Intensitätsmasken-R-CNN. Das System wurde in fünf Umgebungen außerhalb des Trainingssets getestet (d. h. unter Bedingungen, die sich von den Umgebungen unterscheiden, in denen die Trainingsbilder aufgenommen wurden). In jeder Umgebung wurden fünfzehn Bälle gestapelt, und die Anzahl der richtigen/falschen (fehlgeschlagenen) Aufnahmen, die der Roboterarm machte, um alle 15 Bälle aufzunehmen (mit einem Saugnapfgreifer), wurde gezählt, wobei die Anzahl der falschen Aufnahmen auf 15 begrenzt wurde. Das R-CNN-basierte Modell auf Basis der Intensitätsmaske war nicht in der Lage, den Behälter regelmäßig zu leeren, da der Roboterarm aufgrund der schlechten Segmentierungsqualität immer wieder bestimmte Bälle nicht aufnahm. Das R-CNN-Modell mit polarisierter Maske gemäß einer Ausführungsform der vorliegenden Offenbarung hingegen wählte alle 90 Bälle erfolgreich aus, wobei auf 6 korrekte Entnahmen etwa 1 falsche Entnahme kam. Diese Ergebnisse bestätigen die Wirkung einer Verbesserung von -20 mAP.
  • Wie oben erwähnt, können Ausführungsformen der vorliegenden Offenbarung als Komponenten eines computerbasierten Seh- oder Bildverarbeitungssystems verwendet werden, das in der Lage ist, sowohl transparente als auch undurchsichtige Objekte zu erkennen.
  • In einigen Ausführungsformen der vorliegenden Offenbarung wird ein und derselbe Prädiktor oder ein statistisches Modell 900 trainiert, um sowohl transparente Objekte als auch undurchsichtige Objekte zu erkennen (oder um zweite Tensoren C im zweiten Darstellungsraum zu erzeugen), und zwar basierend auf Trainingsdaten, die markierte Beispiele sowohl für transparente Objekte als auch für undurchsichtige Objekte enthalten. In einigen Ausführungsformen wird beispielsweise eine polarisierte CNN-Architektur verwendet, wie die in 9 gezeigte polarisierte Masken-R-CNN-Architektur. In einigen Ausführungsformen wird die in 9 gezeigte polarisierte Masken-R-CNN-Architektur weiter modifiziert, indem ein oder mehrere zusätzliche CNN-Backbones hinzugefügt werden, die einen oder mehrere zusätzliche Modustensoren berechnen. Die zusätzlichen CNN-Backbones können basierend auf zusätzlichen ersten Tensoren trainiert werden. In einigen Ausführungsformen umfassen diese zusätzlichen ersten Tensoren Bildkarten, die basierend auf Farbintensitätsbildern berechnet werden (z. B. Intensität des Lichts in verschiedenen Wellenlängen, wie ein rotes Intensitätsbild oder ein roter Farbkanal, ein grünes Intensitätsbild oder ein grüner Farbkanal, und ein blaues Intensitätsbild oder ein blauer Farbkanal). In einigen Ausführungsformen umfassen diese zusätzlichen ersten Tensoren Bildkarten, die basierend auf Kombinationen von Farbintensitätsbildern berechnet wurden. In einigen Ausführungsformen fusionieren die Fusionsmodule 920 alle Modus-Tensoren auf jeder Skalierung von jedem der CNN-Backbones (z. B. einschließlich der zusätzlichen CNN-Backbones).
  • In einigen Ausführungsformen der vorliegenden Offenbarung umfasst der Prädiktor 900 ein oder mehrere separate statistische Modelle zur Erkennung undurchsichtiger Objekte im Gegensatz zu transparenten Objekten. Beispielsweise kann ein Ensemble von Prädiktoren (z. B. ein erster Prädiktor, der trainiert wurde, um eine erste Segmentierungsmaske für transparente Objekte zu berechnen, und ein zweiter Prädiktor, der trainiert wurde, um eine zweite Segmentierungsmaske für undurchsichtige Objekte zu berechnen) mehrere Vorhersagen berechnen, wobei die separaten Vorhersagen zusammengeführt werden (z. B. wird die erste Segmentierungsmaske mit der zweiten Segmentierungsmaske zusammengeführt, z. B. basierend auf Konfidenzwerten, die mit jedem Pixel der Segmentierungsmaske verbunden sind).
  • Wie oben im Hintergrund erwähnt, hat das Ermöglichen von maschinellem Sehen oder computerbasierten Sehsystemen, um transparente Objekte robust zu erkennen, Anwendungen in einer Vielzahl von Umständen, einschließlich Fertigung, Biowissenschaften, selbstfahrende Fahrzeuge, und
  • Dementsprechend beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf Systeme und Verfahren zur Erkennung von transparenten Objekten unter Verwendung von computerbasiertem Sehen durch die Verwendung von Merkmalen, die aus dem Polarisationsbereich extrahiert werden. Transparente Objekte haben eine ausgeprägtere Textur in der Polarisationsdomäne als in der Intensitätsdomäne. Diese Textur in der Polarisationstextur kann mit Merkmalsextraktoren und polarisierten CNN-Modellen in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung genutzt werden. Beispiele für die Verbesserung der Leistung der Erkennung transparenter Objekte durch Ausführungsformen der vorliegenden Offenbarung werden durch Vergleiche mit der Instanzsegmentierung unter Verwendung von Mask R-CNN demonstriert (z. B. Vergleiche mit Mask R-CNN unter Verwendung von Intensitätsbildern ohne Verwendung von Polarisationsdaten). Daher sind die Ausführungsformen der vorliegenden Offenbarung
  • Während die vorliegende Erfindung in Verbindung mit bestimmten beispielhaften Ausführungsformen beschrieben wurde, ist es zu verstehen, dass die Erfindung nicht auf die offengelegten Ausführungsformen beschränkt ist, sondern im Gegenteil dazu bestimmt ist, verschiedene Modifikationen und gleichwertige Anordnungen abzudecken, die in den Geist und den Anwendungsbereich der beigefügten Ansprüche und deren Äquivalente fallen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 63001445 [0001]

Claims (30)

  1. Ein computerimplementiertes Verfahren zum Berechnen einer Vorhersage für Bilder einer Szene, wobei das Verfahren umfasst: Empfangen eines oder mehrerer Polarisationsrohbilder einer Szene, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel aufgenommen wurden; Extrahieren eines oder mehrerer erster Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern; und Berechnen einer Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen.
  2. Das computerimplementierte Verfahren nach Anspruch 1, wobei der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein Bild eines linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild eines linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum.
  3. Das computerimplementierte Verfahren nach Anspruch 1, wobei der eine oder die mehreren ersten Tensoren ferner einen oder mehrere Nichtpolarisationstensoren in einem oder mehreren Nichtpolarisationsdarstellungsräumen umfassen, und wobei der eine oder die mehreren Nicht-Polarisationstensoren ein oder mehrere Intensitätsbilder im Intensitätsdarstellungsraum umfassen.
  4. Das computerimplementierte Verfahren nach Anspruch 3, wobei das eine oder die mehreren Intensitätsbilder umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild.
  5. Das computerimplementierte Verfahren nach Anspruch 1, 2, 3 oder 4, wobei die Vorhersage eine Segmentierungsmaske umfasst.
  6. Das computerimplementierte Verfahren nach Anspruch 5, wobei das Berechnen der Vorhersage Zuführen des einen oder der mehreren ersten Tensoren zu einem oder mehreren entsprechenden faltenden neuronalen Netz (CNN) Backbones umfasst, und wobei jedes der einen oder mehreren CNN-Backbones konfiguriert ist, um eine Vielzahl von Modustensoren bei einer Vielzahl von unterschiedlichen Skalierungen zu berechnen.
  7. Das computerimplementierte Verfahren nach Anspruch 6, wobei das Berechnen der Vorhersage weiterhin umfasst: Fusionieren der Modustensoren, die mit einer gleichen Skalierung von dem einen oder den mehreren CNN-Backbones berechnet wurden.
  8. Das computerimplementierte Verfahren nach Anspruch 7, wobei das Fusionieren der Modentensoren mit der gleichen Skalierung umfasst: Verketten der Modustensoren mit der gleichen Skalierung; Liefern der Modustensoren an ein Aufmerksamkeits-Teilnetz, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und Gewichten der Modustensoren basierend auf der einen oder den mehreren Aufmerksamkeitskarten, um einen fusionierten Tensor für die Skalierung zu berechnen.
  9. Das computerimplementierte Verfahren nach Anspruch 8, wobei das Berechnen der Vorhersage weiterhin Zuführen der fusionierten Tensoren, die bei jeder Skalierung berechnet wurden, zu einem Vorhersagemodul umfasst, das konfiguriert ist, um die Segmentierungsmaske zu berechnen.
  10. Das computerimplementierte Verfahren nach Anspruch 5, wobei die Segmentierungsmaske an eine Steuerung eines Robotergreifarms geliefert wird.
  11. Das computerimplementierte Verfahren nach Anspruch 1, 2, 3 oder 4, wobei die Vorhersage eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten umfasst.
  12. Das computerimplementierte Verfahren nach Anspruch 1, 2, 3 oder 4, wobei die Vorhersage ein oder mehrere erkannte Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte umfasst, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind.
  13. Das computerimplementierte Verfahren nach Anspruch 1, wobei das Berechnen der Vorhersage ein Liefern des einen oder der mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen an ein statistisches Modell umfasst, und wobei das statistische Modell unter Verwendung von Trainingsdaten trainiert ist, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen umfassen.
  14. Das computerimplementierte Verfahren nach Anspruch 13, wobei die Trainingsdaten umfassen: erste Ausgangs-Trainingstensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen, die aus von einer Polarisationskamera erfassten Daten berechnet wurden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen, die eine Drehung umfassen, erzeugt wurden.
  15. Das computerimplementierte Verfahren nach Anspruch 14, wobei, wenn die zusätzlichen ersten Trainings-Tensoren ein lineares Polarisationswinkelbild (AOLP) umfassen, das Erzeugen der zusätzlichen ersten Trainings-Tensoren umfasst: Drehen der zusätzlichen ersten Trainings-Tensoren um einen Winkel; und Gegendrehen der Pixelwerte des AOLP-Bildes um den Winkel.
  16. Ein computerbasiertes Sehsystem, umfassend: eine Polarisationskamera mit einem Polarisationsfilter; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, der Befehle speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: ein oder mehrere Polarisationsrohbilder einer Szene zu empfangen, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel aufgenommen wurden; einen oder mehrere erste Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern zu extrahieren; und eine Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen zu berechnen.
  17. Das computerbasierte Sehsystem nach Anspruch 16, wobei der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein Bild des linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild des linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum.
  18. Das computerbasierte Sehsystem nach Anspruch 16, wobei der eine oder die mehreren ersten Tensoren weiterhin einen oder mehrere Nicht-Polarisationstensoren in einem oder mehreren Nicht-Polarisationsdarstellungsräumen umfassen, und wobei der eine oder die mehreren Nicht-Polarisationstensoren ein oder mehrere Intensitätsbilder in einem Intensitätsdarstellungsraum umfassen.
  19. Das computerbasierte Sehsystem nach Anspruch 18, wobei das eine oder die mehreren Intensitätsbilder umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild.
  20. Das computerbasierte Sehsystem nach Anspruch 16, 17, 18 oder 19, wobei die Vorhersage eine Segmentierungsmaske umfasst.
  21. Das computerbasierte Sehsystem nach Anspruch 20, wobei der Speicher ferner Befehle speichert, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen, die Vorhersage zu berechnen, indem der eine oder die mehreren ersten Tensoren an ein oder mehrere entsprechende faltende neuronale Netz (CNN) Backbones geliefert werden, und wobei jedes der einen oder mehreren CNN-Backbones konfiguriert ist, um eine Vielzahl von Modustensoren bei einer Vielzahl von verschiedenen Skalierungen zu berechnen.
  22. Das computerbasierte Sehsystem nach Anspruch 21, wobei der Speicher ferner Befehle speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: die Modustensoren zu fusionieren, die von dem einen oder den mehreren CNN-Backbones mit derselben Skalierung berechnet wurden.
  23. Das computerbasierte Sehsystem nach Anspruch 22, wobei die Befehle, die den Prozessor veranlassen, die Modustensoren mit der gleichen Skalierung zu fusionieren, Befehle umfassen, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen: die Modustensoren mit der gleichen Skalierung zu verketten; die Modustensoren an ein Aufmerksamkeits-Teilnetz zu liefern, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und die Modustensoren basierend auf der einen oder den mehreren Aufmerksamkeitskarten zu gewichten, um einen fusionierten Tensor für die Skalierung zu berechnen.
  24. Das computerbasierte Sehsystem nach Anspruch 23, wobei die Befehle, die den Prozessor veranlassen, die Vorhersage zu berechnen, ferner Befehle umfassen, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, die bei jeder Skalierung berechneten fusionierten Tensoren an ein Vorhersagemodul zu liefern, das konfiguriert ist, um die Segmentierungsmaske zu berechnen.
  25. Das computerbasierte Sehsystem nach Anspruch 20, wobei die Segmentierungsmaske an eine Steuerung eines Robotergreifarms geliefert wird.
  26. Das computerbasierte Sehsystem nach Anspruch 16, 17, 18 oder 19, wobei die Vorhersage eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten umfasst.
  27. Das computerbasierte Sehsystem nach Anspruch 16, 17, 18 oder 19, wobei die Vorhersage ein oder mehrere detektierte Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte umfasst, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind.
  28. Das computerbasierte Sehsystem nach Anspruch 16, wobei die Befehle zum Berechnen der Vorhersage Befehle umfassen, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, den einen oder die mehreren ersten Tensoren einem statistischen Modell zuzuführen, und wobei das statistische Modell unter Verwendung von Trainingsdaten trainiert ist, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen umfassen.
  29. Das computerbasierte Sehsystem nach Anspruch 28, wobei die Trainingsdaten umfassen: erste Ausgangs-Trainingstensoren, die aus von einer Polarisationskamera erfassten Daten berechnet wurden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen erzeugt wurden, die eine Drehung umfassen.
  30. Das computerbasierte Sehsystem nach Anspruch 29, wobei, wenn die zusätzlichen ersten Trainings-Tensoren ein Bild eines linearen Polarisationswinkels (AOLP) umfassen, das Erzeugen der zusätzlichen ersten Trainings-Tensoren umfasst: Drehen der zusätzlichen ersten Trainings-Tensoren um einen Winkel; und Gegendrehen der Pixelwerte des AOLP-Bildes um den Winkel.
DE112020005932.4T 2019-11-30 2020-08-28 Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen Pending DE112020005932T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962942113P 2019-11-30 2019-11-30
US62/942,113 2019-11-30
US202063001445P 2020-03-29 2020-03-29
US63/001,445 2020-03-29
PCT/US2020/048604 WO2021108002A1 (en) 2019-11-30 2020-08-28 Systems and methods for transparent object segmentation using polarization cues

Publications (1)

Publication Number Publication Date
DE112020005932T5 true DE112020005932T5 (de) 2023-01-05

Family

ID=76130373

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020005932.4T Pending DE112020005932T5 (de) 2019-11-30 2020-08-28 Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen

Country Status (9)

Country Link
US (2) US11302012B2 (de)
EP (1) EP4066001A4 (de)
JP (1) JP7329143B2 (de)
KR (2) KR102558903B1 (de)
CN (1) CN114787648B (de)
CA (1) CA3162710A1 (de)
DE (1) DE112020005932T5 (de)
MX (1) MX2022005289A (de)
WO (1) WO2021108002A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443619B2 (en) * 2018-05-15 2022-09-13 Kabushiki Kaisha Toshiba Vehicle recognition apparatus and vehicle recognition method
CN114746717A (zh) * 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的系统和方法
US11797863B2 (en) * 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11804042B1 (en) * 2020-09-04 2023-10-31 Scale AI, Inc. Prelabeling of bounding boxes in video frames
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11875528B2 (en) * 2021-05-25 2024-01-16 Fanuc Corporation Object bin picking with rotation compensation
US20220410381A1 (en) * 2021-06-29 2022-12-29 Intrinsic Innovation Llc Systems and methods for picking objects using 3-d geometry and segmentation
CN115272138B (zh) * 2022-09-28 2023-02-21 荣耀终端有限公司 图像处理方法及其相关设备
US11954898B1 (en) * 2022-11-10 2024-04-09 Superb Ai Co., Ltd. Learning method and learning device for performing transfer learning on an object detector that has been trained to detect first object classes such that the object detector is able to detect second object classes, and testing method and testing device using the same
CN116433532B (zh) * 2023-05-06 2023-09-26 合肥工业大学 一种基于注意力引导滤波的红外偏振图像融合去噪方法

Family Cites Families (1076)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4124798A (en) 1965-12-09 1978-11-07 Thompson Kenneth B Optical viewing apparatus
US4198646A (en) 1978-10-13 1980-04-15 Hughes Aircraft Company Monolithic imager for near-IR
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
JPS5769476A (en) 1980-10-16 1982-04-28 Fuji Xerox Co Ltd Reader control system
JPS5925483A (ja) 1982-08-04 1984-02-09 Hitachi Denshi Ltd 固体撮像装置
US4652909A (en) 1982-09-14 1987-03-24 New York Institute Of Technology Television camera and recording system for high definition television having imagers of different frame rate
US4460449A (en) 1983-01-03 1984-07-17 Amerace Corporation Apparatus for making a tool
US4888645A (en) 1984-01-16 1989-12-19 International Business Machines Corporation Method for encoding and decoding a digital image
JPS60228564A (ja) 1984-04-27 1985-11-13 Tokuyama Soda Co Ltd 液晶性組成物
EP0289885A1 (de) 1987-05-08 1988-11-09 Siemens Aktiengesellschaft Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt
JPS6437177A (en) 1987-08-03 1989-02-07 Canon Kk Image pickup device
EP0342419B1 (de) 1988-05-19 1992-10-28 Siemens Aktiengesellschaft Verfahren zur Beobachtung einer Szene und Einrichtung zur Durchführung des Verfahrens
US5070414A (en) 1988-09-20 1991-12-03 Kabushiki Kaisha Toshiba Method and apparatus for reading image information formed on material
JPH02285772A (ja) 1989-04-26 1990-11-26 Toshiba Corp 画像読取装置
US4962425A (en) 1988-10-27 1990-10-09 National Research Council Of Canada/Conseil National Deresherches Canada Photometric device
US5157499A (en) 1990-06-29 1992-10-20 Kabushiki Kaisha N A C High-speed video camera using solid-state image sensor
US5144448A (en) 1990-07-31 1992-09-01 Vidar Systems Corporation Scanning apparatus using multiple CCD arrays and related method
US5463464A (en) 1991-10-04 1995-10-31 Kms Fusion, Inc. Electro-optical system for gauging surface profile deviations using infrared radiation
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
JP3032382B2 (ja) 1992-07-13 2000-04-17 シャープ株式会社 デジタル信号のサンプリング周波数変換装置
JPH06129851A (ja) 1992-10-13 1994-05-13 Sumitomo Electric Ind Ltd ステレオカメラの校正方法
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5712732A (en) 1993-03-03 1998-01-27 Street; Graham Stewart Brandon Autostereoscopic image display adjustable for observer location and distance
US5659424A (en) 1993-05-25 1997-08-19 Hitachi, Ltd. Projecting lens and image display device
JPH0715457A (ja) 1993-06-18 1995-01-17 Hitachi Ltd ディジタル通信切替方式
US5475422A (en) 1993-06-21 1995-12-12 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US6419638B1 (en) 1993-07-20 2002-07-16 Sam H. Hay Optical recognition methods for locating eyes
JP2761837B2 (ja) 1993-08-19 1998-06-04 株式会社日鉄エレックス 立体像表示装置
EP0677821A3 (de) 1994-04-14 1996-03-06 Hewlett Packard Co Vergrösserung von digitalen Farbbildern zur Nachlaufsynchronisation.
AU1742895A (en) 1994-06-09 1996-01-04 Kollmorgen Instrument Corporation Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
US5517236A (en) 1994-06-22 1996-05-14 Philips Electronics North America Corporation Video surveillance system
JPH0877356A (ja) 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
US5703961A (en) 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US5629524A (en) 1995-02-21 1997-05-13 Advanced Scientific Concepts, Inc. High speed crystallography detector
EP0739039A3 (de) 1995-04-18 1998-03-04 Interuniversitair Micro-Elektronica Centrum Vzw Pixelstruktur, Bildsensor mit diesem Pixel, Struktur und entsprechende zugehörige Schaltung
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US5675377A (en) 1995-06-30 1997-10-07 Telefonaktiebolaget Lm Ericsson True three-dimensional imaging and display system
GB2302978A (en) 1995-07-04 1997-02-05 Sharp Kk LIquid crystal device
US5880691A (en) 1995-11-07 1999-03-09 California Institute Of Technology Capacitively coupled successive approximation ultra low power analog-to-digital converter
US5757425A (en) 1995-12-19 1998-05-26 Eastman Kodak Company Method and apparatus for independently calibrating light source and photosensor arrays
JP3502713B2 (ja) 1995-12-21 2004-03-02 本田技研工業株式会社 車両用距離測定装置
JPH09181913A (ja) 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US5973844A (en) 1996-01-26 1999-10-26 Proxemics Lenslet array systems and methods
US6124974A (en) 1996-01-26 2000-09-26 Proxemics Lenslet array systems and methods
US6493465B2 (en) 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5832312A (en) 1996-02-22 1998-11-03 Eastman Kodak Company Watertight body for accommodating a photographic camera
US5867584A (en) * 1996-02-22 1999-02-02 Nec Corporation Video object tracking method for interactive multimedia applications
MY118360A (en) 1996-04-30 2004-10-30 Nippon Telegraph & Telephone Scheme for detecting shot boundaries in compressed video data using inter-frame/inter field prediction coding and intra-frame/intra-field coding
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6002743A (en) 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
GB9616262D0 (en) 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US6141048A (en) 1996-08-19 2000-10-31 Eastman Kodak Company Compact image capture device
US6137535A (en) 1996-11-04 2000-10-24 Eastman Kodak Company Compact digital camera with segmented fields of view
US5808350A (en) 1997-01-03 1998-09-15 Raytheon Company Integrated IR, visible and NIR sensor and methods of fabricating same
JPH10232626A (ja) 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
JPH10253351A (ja) 1997-03-14 1998-09-25 Kyocera Corp 測距装置
US5801919A (en) 1997-04-04 1998-09-01 Gateway 2000, Inc. Adjustably mounted camera assembly for portable computers
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
NO304715B1 (no) 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
US6515701B2 (en) 1997-07-24 2003-02-04 Polaroid Corporation Focal plane exposure control system for CMOS area image sensors
US6563537B1 (en) 1997-07-31 2003-05-13 Fuji Photo Film Co., Ltd. Image signal interpolation
JP3430935B2 (ja) 1997-10-20 2003-07-28 富士ゼロックス株式会社 画像読取装置及びレンズ
NO305728B1 (no) 1997-11-14 1999-07-12 Reidar E Tangen Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme
JP4243779B2 (ja) 1997-11-14 2009-03-25 株式会社ニコン 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ
US6069365A (en) 1997-11-25 2000-05-30 Alan Y. Chow Optical processor based imaging system
JPH11242189A (ja) 1997-12-25 1999-09-07 Olympus Optical Co Ltd 像形成法、像形成装置
US6721008B2 (en) 1998-01-22 2004-04-13 Eastman Kodak Company Integrated CMOS active pixel digital camera
US6833863B1 (en) 1998-02-06 2004-12-21 Intel Corporation Method and apparatus for still image capture during video streaming operations of a tethered digital camera
JPH11223708A (ja) 1998-02-09 1999-08-17 Nikon Corp 圧子およびマイクロ光学素子アレイの製造方法
US6198577B1 (en) 1998-03-10 2001-03-06 Glaxo Wellcome, Inc. Doubly telecentric lens and imaging system for multiwell plates
US6054703A (en) 1998-03-20 2000-04-25 Syscan, Inc. Sensing module for accelerating signal readout from image sensors
US6160909A (en) 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3931936B2 (ja) 1998-05-11 2007-06-20 セイコーエプソン株式会社 マイクロレンズアレイ基板及びその製造方法並びに表示装置
JP3284190B2 (ja) 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US6198852B1 (en) 1998-06-01 2001-03-06 Yeda Research And Development Co., Ltd. View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry
US6137100A (en) 1998-06-08 2000-10-24 Photobit Corporation CMOS image sensor with different pixel sizes for different colors
US6069351A (en) 1998-07-16 2000-05-30 Intel Corporation Focal plane processor for scaling information from image sensors
US6903770B1 (en) 1998-07-27 2005-06-07 Sanyo Electric Co., Ltd. Digital camera which produces a single image based on two exposures
US6340994B1 (en) 1998-08-12 2002-01-22 Pixonics, Llc System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems
DE19838362C1 (de) 1998-08-18 2000-02-10 Deutsch Zentr Luft & Raumfahrt Fokalebenenplatte für eine hochauflösende CCD-Kamera
US6269175B1 (en) 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6185529B1 (en) 1998-09-14 2001-02-06 International Business Machines Corporation Speech recognition aided by lateral profile image
US6879735B1 (en) 1998-09-14 2005-04-12 University Of Utah Reasearch Foundation Method of digital image enhancement and sharpening
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6570579B1 (en) 1998-11-09 2003-05-27 Broadcom Corporation Graphics display system
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3875423B2 (ja) 1999-01-19 2007-01-31 日本放送協会 固体撮像素子およびそれ用の映像信号出力装置
US6603513B1 (en) 1999-02-16 2003-08-05 Micron Technology, Inc. Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device
JP3634677B2 (ja) 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
US6563540B2 (en) 1999-02-26 2003-05-13 Intel Corporation Light sensor with increased dynamic range
US20020063807A1 (en) 1999-04-19 2002-05-30 Neal Margulis Method for Performing Image Transforms in a Digital Display System
US6819358B1 (en) 1999-04-26 2004-11-16 Microsoft Corporation Error calibration for digital image sensors and apparatus using the same
US6292713B1 (en) 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US6864916B1 (en) 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP2001008235A (ja) 1999-06-25 2001-01-12 Minolta Co Ltd 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
JP2001042042A (ja) 1999-07-27 2001-02-16 Canon Inc 撮像装置
US6801653B1 (en) 1999-08-05 2004-10-05 Sony Corporation Information processing apparatus and method as well as medium
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6647142B1 (en) 1999-08-19 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Badge identification system
US6771833B1 (en) 1999-08-20 2004-08-03 Eastman Kodak Company Method and system for enhancing digital images
US6628330B1 (en) 1999-09-01 2003-09-30 Neomagic Corp. Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera
US6358862B1 (en) 1999-09-02 2002-03-19 Micron Technology, Inc Passivation integrity improvements
JP3280001B2 (ja) 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US6628845B1 (en) 1999-10-20 2003-09-30 Nec Laboratories America, Inc. Method for subpixel registration of images
US6774941B1 (en) 1999-10-26 2004-08-10 National Semiconductor Corporation CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels
US6671399B1 (en) 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
US6674892B1 (en) 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
JP2001195050A (ja) 1999-11-05 2001-07-19 Mitsubishi Electric Corp グラフィックアクセラレータ
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP3950926B2 (ja) 1999-11-30 2007-08-01 エーユー オプトロニクス コーポレイション 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US7068851B1 (en) 1999-12-10 2006-06-27 Ricoh Co., Ltd. Multiscale sharpening and smoothing with wavelets
FI107680B (fi) 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
US6476805B1 (en) 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
US6502097B1 (en) 1999-12-23 2002-12-31 Microsoft Corporation Data structure for efficient access to variable-size data objects
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
EP2311527B1 (de) 2000-02-18 2019-08-28 William Beaumont Hospital Computertomographie mittels konischem Strahl mit flachem Bildgeber
US6523046B2 (en) 2000-02-25 2003-02-18 Microsoft Corporation Infrastructure and method for supporting generic multimedia metadata
JP2001264033A (ja) 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US6571466B1 (en) 2000-03-27 2003-06-03 Amkor Technology, Inc. Flip chip image sensor package fabrication method
JP2001277260A (ja) 2000-03-30 2001-10-09 Seiko Epson Corp マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置
WO2001075949A1 (fr) 2000-04-04 2001-10-11 Advantest Corporation Appareil d'exposition multifaisceau comprenant une lentille electronique multiaxe, et procede de fabrication d'un dispositif a semi-conducteur
WO2001082593A1 (en) 2000-04-24 2001-11-01 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Apparatus and method for color image fusion
JP2001337263A (ja) 2000-05-25 2001-12-07 Olympus Optical Co Ltd 測距装置
JP4501239B2 (ja) 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
CN1451230A (zh) 2000-07-21 2003-10-22 纽约市哥伦比亚大学托管会 图象拼合方法与设备
AU2001277110A1 (en) 2000-07-21 2002-02-05 The Trustees Of Columbia University In The City Of New York Method and apparatus for reducing distortion in images
US7154546B1 (en) 2000-08-07 2006-12-26 Micron Technology, Inc. Pixel optimization for color
DE60115789T2 (de) 2000-08-25 2006-08-31 Fuji Photo Film Co., Ltd., Minami-Ashigara Vorrichtung zur Parallaxbildaufnahme und Parallaxbildverarbeitung
US7085409B2 (en) 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6734905B2 (en) 2000-10-20 2004-05-11 Micron Technology, Inc. Dynamic range extension for CMOS image sensors
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7262799B2 (en) 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
US6476971B1 (en) 2000-10-31 2002-11-05 Eastman Kodak Company Method of manufacturing a microlens array mold and a microlens array
JP3918499B2 (ja) 2000-11-01 2007-05-23 セイコーエプソン株式会社 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法
US6573912B1 (en) 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
US6788338B1 (en) 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
US7490774B2 (en) 2003-11-13 2009-02-17 Metrologic Instruments, Inc. Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein
JP2002171537A (ja) 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
EP1354292B1 (de) 2000-12-01 2012-04-04 Imax Corporation Verfahren und Vorrichtung zum Erzeugen hochauflösender Bilder
WO2002047031A2 (en) 2000-12-05 2002-06-13 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
JP2002252338A (ja) 2000-12-18 2002-09-06 Canon Inc 撮像装置及び撮像システム
JP2002195910A (ja) 2000-12-26 2002-07-10 Omron Corp 光学部品の検査装置
JP2002209226A (ja) 2000-12-28 2002-07-26 Canon Inc 撮像装置
US7805680B2 (en) 2001-01-03 2010-09-28 Nokia Corporation Statistical metering and filtering of content via pixel-based metadata
JP3957460B2 (ja) 2001-01-15 2007-08-15 沖電気工業株式会社 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム
JP2002250607A (ja) 2001-02-27 2002-09-06 Optex Co Ltd 物体検知センサ
CN2488005Y (zh) 2001-03-15 2002-04-24 左耀太 型煤燃烧器
US6635941B2 (en) 2001-03-21 2003-10-21 Canon Kabushiki Kaisha Structure of semiconductor device with improved reliability
JP2002324743A (ja) 2001-04-24 2002-11-08 Canon Inc 露光方法及び装置
US6443579B1 (en) 2001-05-02 2002-09-03 Kenneth Myers Field-of-view controlling arrangements
US7235785B2 (en) 2001-05-11 2007-06-26 Irvine Sensors Corp. Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array
US20020167537A1 (en) 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera
US20020190991A1 (en) 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US7738013B2 (en) 2001-05-29 2010-06-15 Samsung Electronics Co., Ltd. Systems and methods for power conservation in a CMOS imager
WO2002098112A2 (en) 2001-05-29 2002-12-05 Transchip, Inc. Patent application cmos imager for cellular applications and methods of using such
US6482669B1 (en) 2001-05-30 2002-11-19 Taiwan Semiconductor Manufacturing Company Colors only process to reduce package yield loss
US6525302B2 (en) 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
US7113634B2 (en) 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
US20030025227A1 (en) 2001-08-02 2003-02-06 Zograph, Llc Reproduction of relief patterns
US8675119B2 (en) 2001-08-09 2014-03-18 Trustees Of Columbia University In The City Of New York Adaptive imaging using digital light processing
EP1289309B1 (de) 2001-08-31 2010-04-21 STMicroelectronics Srl Störschutzfilter für Bayermusterbilddaten
JP3978706B2 (ja) 2001-09-20 2007-09-19 セイコーエプソン株式会社 微細構造体の製造方法
JP2003139910A (ja) 2001-10-30 2003-05-14 Sony Corp 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置
DE10153237A1 (de) 2001-10-31 2003-05-15 Lfk Gmbh Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras
JP3705766B2 (ja) 2001-11-28 2005-10-12 独立行政法人科学技術振興機構 画像入力装置
AU2002357321A1 (en) 2001-12-18 2003-06-30 University Of Rochester Multifocal aspheric lens obtaining extended field depth
US7212228B2 (en) 2002-01-16 2007-05-01 Advanced Telecommunications Research Institute International Automatic camera calibration method
US7302118B2 (en) 2002-02-07 2007-11-27 Microsoft Corporation Transformation of images
US20030179418A1 (en) 2002-03-19 2003-09-25 Eastman Kodak Company Producing a defective pixel map from defective cluster pixels in an area array image sensor
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2003298920A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd デジタルカメラ
US20030188659A1 (en) 2002-04-05 2003-10-09 Canadian Bank Note Company Limited Method and apparatus for reproducing a color image based on monochrome images derived therefrom
AU2003226047A1 (en) 2002-04-10 2003-10-27 Pan-X Imaging, Inc. A digital imaging system
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US6917702B2 (en) 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
JP3567327B2 (ja) 2002-05-08 2004-09-22 富士写真光機株式会社 撮像レンズ
US6783900B2 (en) 2002-05-13 2004-08-31 Micron Technology, Inc. Color filter imaging array and method of formation
JP2004048644A (ja) 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2003347192A (ja) 2002-05-24 2003-12-05 Toshiba Corp エネルギービーム露光方法および露光装置
US7013318B2 (en) 2002-05-29 2006-03-14 Raytheon Company Method and system for encapsulating cells
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
JP2004088713A (ja) 2002-06-27 2004-03-18 Olympus Corp 撮像レンズユニットおよび撮像装置
JP4147059B2 (ja) 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP2004037924A (ja) 2002-07-04 2004-02-05 Minolta Co Ltd 撮像装置
AU2003242974A1 (en) 2002-07-15 2004-02-02 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
US20040012689A1 (en) 2002-07-16 2004-01-22 Fairchild Imaging Charge coupled devices in tiled arrays
JP2004078296A (ja) 2002-08-09 2004-03-11 Victor Co Of Japan Ltd 画像生成装置
US20070166447A1 (en) 2002-08-27 2007-07-19 Select Milk Producers, Inc. Dairy compositions and method of making
US7639838B2 (en) 2002-08-30 2009-12-29 Jerry C Nims Multi-dimensional images system for digital image input and output
US7447380B2 (en) 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
US20040050104A1 (en) 2002-09-18 2004-03-18 Eastman Kodak Company Forming information transfer lens array
US20040207836A1 (en) 2002-09-27 2004-10-21 Rajeshwar Chhibber High dynamic range optical inspection system and method
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US7477781B1 (en) 2002-10-10 2009-01-13 Dalsa Corporation Method and apparatus for adaptive pixel correction of multi-color matrix
US20040075654A1 (en) 2002-10-16 2004-04-22 Silicon Integrated Systems Corp. 3-D digital image processor and method for visibility processing for use in the same
JP4171786B2 (ja) 2002-10-25 2008-10-29 コニカミノルタホールディングス株式会社 画像入力装置
US7742088B2 (en) 2002-11-19 2010-06-22 Fujifilm Corporation Image sensor and digital camera
WO2004049736A1 (en) 2002-11-21 2004-06-10 Vision Iii Imaging, Inc. Critical alignment of parallax images for autostereoscopic display
US20040105021A1 (en) 2002-12-02 2004-06-03 Bolymedia Holdings Co., Ltd. Color filter patterns for image sensors
US20040114807A1 (en) 2002-12-13 2004-06-17 Dan Lelescu Statistical representation and coding of light field data
US6878918B2 (en) 2003-01-09 2005-04-12 Dialdg Semiconductor Gmbh APS pixel with reset noise suppression and programmable binning capability
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
DE10301941B4 (de) 2003-01-20 2005-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US7379592B2 (en) 2003-01-21 2008-05-27 United States Of America As Represented By The Secretary Of The Navy System and method for significant dust detection and enhancement of dust images over land and ocean
US7005637B2 (en) 2003-01-31 2006-02-28 Intevac, Inc. Backside thinning of image array devices
WO2004068862A1 (ja) 2003-01-31 2004-08-12 The Circle For The Promotion Of Science And Engineering 高解像度カラー画像生成方法,高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム
US7308157B2 (en) 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
EP1599043A4 (de) 2003-02-04 2011-08-10 Panasonic Corp Kodeumsetzungsverfahren und vorrichtung dafür
US7595817B1 (en) 2003-02-12 2009-09-29 The Research Foundation Of State University Of New York Linear system based, qualitative independent motion detection from compressed MPEG surveillance video
US20040165090A1 (en) 2003-02-13 2004-08-26 Alex Ning Auto-focus (AF) lens and process
JP2004266369A (ja) 2003-02-21 2004-09-24 Sony Corp 固体撮像装置およびその駆動方法
US7106914B2 (en) 2003-02-27 2006-09-12 Microsoft Corporation Bayesian image super resolution
US7148861B2 (en) 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US8218052B2 (en) 2003-03-07 2012-07-10 Iconix Video, Inc. High frame rate high definition imaging system and method
US7218320B2 (en) 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US6801719B1 (en) 2003-03-14 2004-10-05 Eastman Kodak Company Camera using beam splitter with micro-lens image amplification
US7206449B2 (en) 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7425984B2 (en) 2003-04-04 2008-09-16 Stmicroelectronics, Inc. Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions
US7373005B2 (en) 2003-04-10 2008-05-13 Micron Technology, Inc. Compression system for integrated sensor devices
US7221445B2 (en) 2003-04-11 2007-05-22 Metrolaser, Inc. Methods and apparatus for detecting and quantifying surface characteristics and material conditions using light scattering
US7097311B2 (en) 2003-04-19 2006-08-29 University Of Kentucky Research Foundation Super-resolution overlay in multi-projector displays
US6958862B1 (en) 2003-04-21 2005-10-25 Foveon, Inc. Use of a lenslet array with a vertically stacked pixel array
US7428330B2 (en) 2003-05-02 2008-09-23 Microsoft Corporation Cyclopean virtual imaging via generalized probabilistic smoothing
SE525665C2 (sv) 2003-05-08 2005-03-29 Forskarpatent I Syd Ab Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar
EP1627526A1 (de) 2003-05-13 2006-02-22 Xceed Imaging Ltd. Optisches verfahren und system zur verbesserung der bildauflösung
JP2004348674A (ja) 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
US20040239782A1 (en) 2003-05-30 2004-12-02 William Equitz System and method for efficient improvement of image quality in cameras
CN1574894A (zh) 2003-06-02 2005-02-02 宾得株式会社 多焦距成像装置和具有该多焦距成像装置的移动装置
JP2004363478A (ja) 2003-06-06 2004-12-24 Sanyo Electric Co Ltd 半導体装置の製造方法
KR100539234B1 (ko) 2003-06-11 2005-12-27 삼성전자주식회사 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법
US7362918B2 (en) 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
US6818934B1 (en) 2003-06-24 2004-11-16 Omnivision International Holding Ltd Image sensor having micro-lens array separated with trench structures and method of making
US20050117015A1 (en) 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US7388609B2 (en) 2003-07-07 2008-06-17 Zoran Corporation Dynamic identification and correction of defective pixels
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US20050007461A1 (en) 2003-07-11 2005-01-13 Novatek Microelectronic Co. Correction system and method of analog front end
JP3731589B2 (ja) 2003-07-18 2006-01-05 ソニー株式会社 撮像装置と同期信号発生装置
US7233737B2 (en) 2003-08-12 2007-06-19 Micron Technology, Inc. Fixed-focus camera module and associated method of assembly
US20050111705A1 (en) 2003-08-26 2005-05-26 Roman Waupotitsch Passive stereo sensing for 3D facial shape biometrics
US7643703B2 (en) 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
JP2007504562A (ja) 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
US7161606B2 (en) 2003-09-08 2007-01-09 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
JP4020850B2 (ja) 2003-10-06 2007-12-12 株式会社東芝 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法
US7079251B2 (en) 2003-10-16 2006-07-18 4D Technology Corporation Calibration and error correction in multi-channel imaging
WO2005041562A1 (ja) 2003-10-22 2005-05-06 Matsushita Electric Industrial Co., Ltd. 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法
US7840067B2 (en) 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
CN1875638A (zh) 2003-11-11 2006-12-06 奥林巴斯株式会社 多谱图像捕捉装置
JP4235539B2 (ja) 2003-12-01 2009-03-11 独立行政法人科学技術振興機構 画像構成装置及び画像構成方法
US7453510B2 (en) 2003-12-11 2008-11-18 Nokia Corporation Imaging device
US7328288B2 (en) 2003-12-11 2008-02-05 Canon Kabushiki Kaisha Relay apparatus for relaying communication from CPU to peripheral device
US20050128509A1 (en) 2003-12-11 2005-06-16 Timo Tokkonen Image creating method and imaging device
JP3859158B2 (ja) 2003-12-16 2006-12-20 セイコーエプソン株式会社 マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ
US7123298B2 (en) 2003-12-18 2006-10-17 Avago Technologies Sensor Ip Pte. Ltd. Color image sensor with imaging elements imaging on respective regions of sensor elements
US7511749B2 (en) 2003-12-18 2009-03-31 Aptina Imaging Corporation Color image sensor having imaging element array forming images on respective regions of sensor elements
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7496293B2 (en) 2004-01-14 2009-02-24 Elbit Systems Ltd. Versatile camera for various visibility conditions
US7773143B2 (en) 2004-04-08 2010-08-10 Tessera North America, Inc. Thin color camera having sub-pixel resolution
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US7453688B2 (en) 2004-01-29 2008-11-18 Inventec Corporation Multimedia device for portable computers
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
SE527889C2 (sv) 2004-03-17 2006-07-04 Thomas Jeff Adamo Apparat för avbildning av ett objekt
JP2006047944A (ja) 2004-03-24 2006-02-16 Fuji Photo Film Co Ltd 撮影レンズ
JP4468442B2 (ja) 2004-03-31 2010-05-26 キヤノン株式会社 イメージングシステム性能測定
US7633511B2 (en) 2004-04-01 2009-12-15 Microsoft Corporation Pop-up light field
JP4665422B2 (ja) 2004-04-02 2011-04-06 ソニー株式会社 撮像装置
US8634014B2 (en) 2004-04-05 2014-01-21 Hewlett-Packard Development Company, L.P. Imaging device analysis systems and imaging device analysis methods
US7091531B2 (en) 2004-04-07 2006-08-15 Micron Technology, Inc. High dynamic range pixel amplifier
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
US7620265B1 (en) 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
US7292735B2 (en) 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7773404B2 (en) 2005-01-07 2010-08-10 Invisage Technologies, Inc. Quantum dot optical devices with enhanced gain and sensitivity and methods of making same
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US20060034531A1 (en) 2004-05-10 2006-02-16 Seiko Epson Corporation Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method
EP1750584B1 (de) 2004-05-14 2020-10-14 Philips Intellectual Property & Standards GmbH System und verfahren für die diagnose von brustkrebs
JP4610411B2 (ja) 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体を含むシーンの様式化された画像を生成する方法
US7355793B2 (en) 2004-05-19 2008-04-08 The Regents Of The University Of California Optical system applicable to improving the dynamic range of Shack-Hartmann sensors
WO2006083277A2 (en) 2004-05-25 2006-08-10 Sarnoff Corporation Low latency pyramid processor for image processing systems
JP2005354124A (ja) 2004-06-08 2005-12-22 Seiko Epson Corp 複数の低画素密度画像からの高画素密度画像の生成
US20060013318A1 (en) 2004-06-22 2006-01-19 Jennifer Webb Video error detection, recovery, and concealment
US7330593B2 (en) 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
JP4479373B2 (ja) 2004-06-28 2010-06-09 ソニー株式会社 イメージセンサ
JP4408755B2 (ja) 2004-06-28 2010-02-03 Necエレクトロニクス株式会社 デインタリーブ装置、移動通信端末及びデインタリーブ方法
US7447382B2 (en) 2004-06-30 2008-11-04 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation
JP2006033228A (ja) 2004-07-14 2006-02-02 Victor Co Of Japan Ltd 画像撮像装置
JP2006033493A (ja) 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 撮像装置
US7189954B2 (en) 2004-07-19 2007-03-13 Micron Technology, Inc. Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers
JP2006033570A (ja) 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
US8027531B2 (en) 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
GB0416496D0 (en) 2004-07-23 2004-08-25 Council Of The Central Lab Of Imaging device
US7068432B2 (en) 2004-07-27 2006-06-27 Micron Technology, Inc. Controlling lens shape in a microlens array
US20060023197A1 (en) 2004-07-27 2006-02-02 Joel Andrew H Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media
DE102004036469A1 (de) 2004-07-28 2006-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung
US7333652B2 (en) 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
US20060028476A1 (en) 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
JP2006050263A (ja) 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
EP1784988A1 (de) 2004-08-06 2007-05-16 University of Washington Rasterlichtdisplays mit betrachtungsdistanz variabler fixierung
US7430339B2 (en) 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
US7609302B2 (en) 2004-08-11 2009-10-27 Micron Technology, Inc. Correction of non-uniform sensitivity in an image array
US7645635B2 (en) 2004-08-16 2010-01-12 Micron Technology, Inc. Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages
US7061693B2 (en) 2004-08-16 2006-06-13 Xceed Imaging Ltd. Optical method and system for extended depth of focus
WO2006036398A2 (en) 2004-08-23 2006-04-06 Sarnoff Corporation Method and apparatus for producing a fused image
WO2006026354A2 (en) 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
US7795577B2 (en) 2004-08-25 2010-09-14 Richard Ian Olsen Lens frame and optical focus assembly for imager module
US8124929B2 (en) 2004-08-25 2012-02-28 Protarius Filo Ag, L.L.C. Imager module optical focus and assembly method
US7564019B2 (en) 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
US7916180B2 (en) 2004-08-25 2011-03-29 Protarius Filo Ag, L.L.C. Simultaneous multiple field of view digital cameras
CN100489599C (zh) 2004-08-26 2009-05-20 财团法人秋田企业活性化中心 液晶透镜
JP4057597B2 (ja) 2004-08-26 2008-03-05 独立行政法人科学技術振興機構 光学素子
US20060046204A1 (en) 2004-08-31 2006-03-02 Sharp Laboratories Of America, Inc. Directly patternable microlens
JP2006080852A (ja) 2004-09-09 2006-03-23 Olympus Corp 画像処理装置、電子カメラ、スキャナ、画像処理方法、および画像処理プログラム
US20060055811A1 (en) 2004-09-14 2006-03-16 Frtiz Bernard S Imaging system having modules with adaptive optical elements
US7145124B2 (en) 2004-09-15 2006-12-05 Raytheon Company Multispectral imaging chip using photonic crystals
JP4202991B2 (ja) 2004-09-29 2008-12-24 株式会社東芝 立体画像用データの記録方法及び表示再生方法
JP3977368B2 (ja) 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
DE102004049676A1 (de) 2004-10-12 2006-04-20 Infineon Technologies Ag Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
JP2006119368A (ja) 2004-10-21 2006-05-11 Konica Minolta Opto Inc 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器
JP4534715B2 (ja) 2004-10-22 2010-09-01 株式会社ニコン 撮像装置および画像処理プログラム
DE102004052994C5 (de) 2004-11-03 2010-08-26 Vistec Electron Beam Gmbh Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung
KR100603601B1 (ko) 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US7598996B2 (en) 2004-11-16 2009-10-06 Aptina Imaging Corporation System and method for focusing a digital camera
WO2006060746A2 (en) 2004-12-03 2006-06-08 Infrared Solutions, Inc. Visible light and ir combined image camera with a laser pointer
JP2006165795A (ja) 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
US7483065B2 (en) 2004-12-15 2009-01-27 Aptina Imaging Corporation Multi-lens imaging systems and methods using optical filters having mosaic patterns
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US8854486B2 (en) 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US20060139475A1 (en) 2004-12-23 2006-06-29 Esch John W Multiple field of view camera arrays
US20110102553A1 (en) 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
US7073908B1 (en) 2005-01-11 2006-07-11 Anthony Italo Provitola Enhancement of depth perception
US7767949B2 (en) 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US7671321B2 (en) 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
AU2006210845B2 (en) * 2005-02-02 2011-08-11 Intergraph Software Technologies Company Real-time image detection using polarization data
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US9597024B2 (en) * 2005-02-09 2017-03-21 Medici Instruments Llc Methods and apparatuses for noninvasive determinations of analytes
US7965314B1 (en) 2005-02-09 2011-06-21 Flir Systems, Inc. Foveal camera systems and methods
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
US20060187322A1 (en) 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
ATE518113T1 (de) 2005-03-11 2011-08-15 Creaform Inc Selbstreferenziertes system und vorrichtung zum dreidimensionalen scannen
JP2006258930A (ja) 2005-03-15 2006-09-28 Nikon Corp マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法
WO2006102181A1 (en) 2005-03-21 2006-09-28 Massachusetts Institute Of Technology (Mit) Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array
JPWO2006100903A1 (ja) 2005-03-23 2008-08-28 松下電器産業株式会社 車載撮像装置
CN101147392B (zh) 2005-03-24 2012-05-09 松下电器产业株式会社 成像装置及其中使用的透镜阵列
US7297917B2 (en) 2005-03-24 2007-11-20 Micron Technology, Inc. Readout technique for increasing or maintaining dynamic range in image sensors
US7683950B2 (en) 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US7956871B2 (en) 2005-04-28 2011-06-07 Samsung Electronics Co., Ltd. Color disparity correction in image sensors methods and circuits
US7656428B2 (en) 2005-05-05 2010-02-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Imaging device employing optical motion sensor as gyroscope
US7876874B2 (en) 2005-05-18 2011-01-25 Hitachi Medical Corporation Radiographing apparatus and image processing program
US8411182B2 (en) 2005-06-02 2013-04-02 Xerox Corporation System for controlling integration times of photosensors in an imaging device
US7968888B2 (en) 2005-06-08 2011-06-28 Panasonic Corporation Solid-state image sensor and manufacturing method thereof
JP2006345233A (ja) 2005-06-09 2006-12-21 Fujifilm Holdings Corp 撮像装置及びデジタルカメラ
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
JP4826152B2 (ja) 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
CN103110635A (zh) 2005-07-04 2013-05-22 海波因特制药有限责任公司 组胺h3受体拮抗剂
JP4577126B2 (ja) 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
US8384763B2 (en) 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
WO2007013250A1 (ja) 2005-07-26 2007-02-01 Matsushita Electric Industrial Co., Ltd. 複眼方式の撮像装置
US7969488B2 (en) 2005-08-03 2011-06-28 Micron Technologies, Inc. Correction of cluster defects in imagers
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070041391A1 (en) 2005-08-18 2007-02-22 Micron Technology, Inc. Method and apparatus for controlling imager output data rate
US20070040922A1 (en) 2005-08-22 2007-02-22 Micron Technology, Inc. HDR/AB on multi-way shared pixels
US7964835B2 (en) 2005-08-25 2011-06-21 Protarius Filo Ag, L.L.C. Digital cameras with direct luminance and chrominance detection
US20070258006A1 (en) 2005-08-25 2007-11-08 Olsen Richard I Solid state camera optics frame and assembly
US20070083114A1 (en) 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
JP4804856B2 (ja) 2005-09-29 2011-11-02 富士フイルム株式会社 単焦点レンズ
US8009209B2 (en) 2005-09-30 2011-08-30 Simon Fraser University Methods and apparatus for detecting defects in imaging arrays by image analysis
EP1941314A4 (de) 2005-10-07 2010-04-14 Univ Leland Stanford Junior Anordnungen und ansätze für die mikroskopie
JP4773179B2 (ja) 2005-10-14 2011-09-14 富士フイルム株式会社 撮像装置
US8300085B2 (en) 2005-10-14 2012-10-30 Microsoft Corporation Occlusion handling in stereo imaging
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100730406B1 (ko) 2005-11-16 2007-06-19 광운대학교 산학협력단 중간 요소 영상을 이용한 입체 영상 표시 장치
FR2893428B1 (fr) * 2005-11-17 2008-01-11 Univ Bourgogne Procede et systeme de reconstruction de surfaces d'objets par imagerie de polarisation
JP4389865B2 (ja) 2005-11-17 2009-12-24 ソニー株式会社 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
JP4943695B2 (ja) 2005-11-21 2012-05-30 富士フイルム株式会社 多焦点カメラの撮影光学系
US7599547B2 (en) 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
US8275195B2 (en) 2005-11-30 2012-09-25 Telecom Italia S.P.A. Method for determining scattered disparity fields in stereo vision
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
TWI296480B (en) 2005-12-19 2008-05-01 Quanta Comp Inc Image camera of an electronic device
JP4501855B2 (ja) 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP2007180730A (ja) 2005-12-27 2007-07-12 Eastman Kodak Co デジタルカメラおよびデータ管理方法
KR100789441B1 (ko) 2005-12-30 2007-12-28 엘에스산전 주식회사 인버터의 전류 검출 장치 및 방법
JP2009522591A (ja) 2005-12-30 2009-06-11 ノキア コーポレイション 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置
US7855786B2 (en) 2006-01-09 2010-12-21 Bae Systems Spectral Solutions Llc Single camera multi-spectral imager
US7675080B2 (en) 2006-01-10 2010-03-09 Aptina Imaging Corp. Uniform color filter arrays in a moat
US8194169B2 (en) 2006-01-20 2012-06-05 Panasonic Corporation Compound eye camera module and method of producing the same
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
JP4834412B2 (ja) 2006-02-03 2011-12-14 富士フイルム株式会社 固体撮像装置およびこれを用いた電子内視鏡
US8075604B2 (en) 2006-02-16 2011-12-13 Warsaw Orthopedic, Inc. Multi-thread bone screw and method
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US7391572B2 (en) 2006-03-01 2008-06-24 International Business Machines Corporation Hybrid optical/electronic structures fabricated by a common molding process
US7924483B2 (en) 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
DE102006011707B4 (de) 2006-03-14 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme
US7616254B2 (en) 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US8360574B2 (en) 2006-03-20 2013-01-29 High Performance Optics, Inc. High performance selective light wavelength filtering providing improved contrast sensitivity
US7606484B1 (en) 2006-03-23 2009-10-20 Flir Systems, Inc. Infrared and near-infrared camera hyperframing
JP4615468B2 (ja) 2006-03-23 2011-01-19 富士フイルム株式会社 撮影装置
CN101046882A (zh) 2006-03-27 2007-10-03 谷京陆 可直接输出的混合分辨率图像制作技术
US7342212B2 (en) 2006-03-31 2008-03-11 Micron Technology, Inc. Analog vertical sub-sampling in an active pixel sensor (APS) image sensor
US7916934B2 (en) 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
TW200740212A (en) 2006-04-10 2007-10-16 Sony Taiwan Ltd A stitching accuracy improvement method with lens distortion correction
US20070242141A1 (en) 2006-04-14 2007-10-18 Sony Corporation And Sony Electronics Inc. Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor
CN101064780B (zh) 2006-04-30 2012-07-04 台湾新力国际股份有限公司 利用透镜失真校正的影像接合准确度改善方法及装置
US20070263114A1 (en) 2006-05-01 2007-11-15 Microalign Technologies, Inc. Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging
US7580620B2 (en) 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns
WO2007129326A2 (en) * 2006-05-09 2007-11-15 Technion Research & Development Foundation Ltd Imaging systems and methods for recovering object visibility
US9736346B2 (en) 2006-05-09 2017-08-15 Stereo Display, Inc Imaging system improving image resolution of the system with low resolution image sensor
US7889264B2 (en) 2006-05-12 2011-02-15 Ricoh Co., Ltd. End-to-end design of superresolution electro-optic imaging systems
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US8081207B2 (en) 2006-06-06 2011-12-20 Point Grey Research Inc. High accuracy stereo camera
US20070177004A1 (en) 2006-06-08 2007-08-02 Timo Kolehmainen Image creating method and imaging device
US20070291995A1 (en) 2006-06-09 2007-12-20 Rivera Paul G System, Method, and Apparatus for Preventing Identity Fraud Associated With Payment and Identity Cards
JP4631811B2 (ja) 2006-06-12 2011-02-16 株式会社日立製作所 撮像装置
JP5106870B2 (ja) 2006-06-14 2012-12-26 株式会社東芝 固体撮像素子
FR2902530A1 (fr) 2006-06-19 2007-12-21 St Microelectronics Rousset Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme
TWI362550B (en) 2007-06-21 2012-04-21 Ether Precision Inc The method for manufacturing the image captures unit
US7925117B2 (en) 2006-06-27 2011-04-12 Honeywell International Inc. Fusion of sensor data and synthetic data to form an integrated image
FR2903155B1 (fr) 2006-07-03 2008-10-17 Poclain Hydraulics Ind Soc Par Circuit hydraulique de recuperation d'energie
KR100793369B1 (ko) 2006-07-06 2008-01-11 삼성전자주식회사 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법
US20080024683A1 (en) 2006-07-31 2008-01-31 Niranjan Damera-Venkata Overlapped multi-projector system with dithering
JP2008039852A (ja) 2006-08-01 2008-02-21 Agc Techno Glass Co Ltd ガラス光学素子及びその製造方法
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
US8406562B2 (en) 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
US20080044170A1 (en) 2006-08-16 2008-02-21 Choon Hwee Yap Image Capturing System And Method Of Operating The Same
ATE479980T1 (de) 2006-08-24 2010-09-15 Valeo Vision Verfahren zur bestimmung der durchfahrt eines fahrzeugs durch eine engen durchlass
US8687087B2 (en) 2006-08-29 2014-04-01 Csr Technology Inc. Digital camera with selectively increased dynamic range by control of parameters during image acquisition
US8306063B2 (en) 2006-08-29 2012-11-06 EXFO Services Assurance, Inc. Real-time transport protocol stream detection system and method
KR100746360B1 (ko) 2006-08-31 2007-08-06 삼성전기주식회사 스템퍼 제조방법
NO326372B1 (no) 2006-09-21 2008-11-17 Polight As Polymerlinse
WO2008039802A2 (en) 2006-09-25 2008-04-03 Ophthonix, Incorporated Method for correction of chromatic aberration and achromatic lens
JP4403162B2 (ja) 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
US20080080028A1 (en) 2006-10-02 2008-04-03 Micron Technology, Inc. Imaging method, apparatus and system having extended depth of field
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
KR101360545B1 (ko) 2006-10-11 2014-02-10 포라이트 에이에스 조정 가능한 렌즈의 제조 방법
WO2008044937A1 (en) 2006-10-11 2008-04-17 Ignis Display As Design of compact adjustable lens
US8073196B2 (en) 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7702229B2 (en) 2006-10-18 2010-04-20 Eastman Kodak Company Lens array assisted focus detection
JP4349456B2 (ja) 2006-10-23 2009-10-21 ソニー株式会社 固体撮像素子
JP4942221B2 (ja) 2006-10-25 2012-05-30 国立大学法人東京工業大学 高解像度仮想焦点面画像生成方法
US7888159B2 (en) 2006-10-26 2011-02-15 Omnivision Technologies, Inc. Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating
JP4452951B2 (ja) 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
KR20080043106A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 광학렌즈 및 그 제조방법
US8059162B2 (en) 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
US20080118241A1 (en) 2006-11-16 2008-05-22 Tekolste Robert Control of stray light in camera systems employing an optics stack and associated methods
CN201043890Y (zh) 2006-11-17 2008-04-02 中国科学院上海光学精密机械研究所 单孔径多重成像的光学成像测距装置
EP2084491A2 (de) 2006-11-21 2009-08-05 Mantisvision Ltd. Geometrische modellierung in 3d und videoinhaltserzeugung in 3d
KR20080047002A (ko) 2006-11-24 2008-05-28 엘지이노텍 주식회사 카메라모듈의 렌즈 어셈블리 및 그 제작 방법
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP4406937B2 (ja) 2006-12-01 2010-02-03 富士フイルム株式会社 撮影装置
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US8242426B2 (en) 2006-12-12 2012-08-14 Dolby Laboratories Licensing Corporation Electronic camera having multiple sensors for capturing high dynamic range images and related methods
US7646549B2 (en) 2006-12-18 2010-01-12 Xceed Imaging Ltd Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
US8558929B2 (en) 2006-12-20 2013-10-15 Carestream Health, Inc. Imaging array for multiple frame capture
US8213500B2 (en) 2006-12-21 2012-07-03 Sharp Laboratories Of America, Inc. Methods and systems for processing film grain noise
TWI324015B (en) 2006-12-22 2010-04-21 Ind Tech Res Inst Autofocus searching method
US8103111B2 (en) 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US20080158259A1 (en) 2006-12-28 2008-07-03 Texas Instruments Incorporated Image warping and lateral color correction
US20080158698A1 (en) 2006-12-29 2008-07-03 Chao-Chi Chang Lens barrel array and lens array and the method of making the same
US7973823B2 (en) 2006-12-29 2011-07-05 Nokia Corporation Method and system for image pre-processing
US20080165257A1 (en) 2007-01-05 2008-07-10 Micron Technology, Inc. Configurable pixel array system and method
JP4993578B2 (ja) 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP5024992B2 (ja) 2007-02-02 2012-09-12 株式会社ジャパンディスプレイセントラル 表示装置
US7956988B1 (en) 2007-02-06 2011-06-07 Alpha Technology, LLC Light detection and ranging systems and related methods
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
CN100585453C (zh) 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP4386083B2 (ja) 2007-02-27 2009-12-16 トヨタ自動車株式会社 駐車支援装置
JP2008209761A (ja) 2007-02-27 2008-09-11 Nikon Corp 焦点検出装置および撮像装置
JP4185956B2 (ja) 2007-02-27 2008-11-26 トヨタ自動車株式会社 旅行時間演算サーバ、車両用旅行時間演算装置及び旅行時間演算システム
JP4153013B1 (ja) 2007-03-06 2008-09-17 シャープ株式会社 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末
US7755679B2 (en) 2007-03-07 2010-07-13 Altasens, Inc. Apparatus and method for reducing edge effect in an image sensor
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US7676146B2 (en) 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US8593506B2 (en) 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
JP2008242658A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 立体物体の撮像装置
JP4915859B2 (ja) 2007-03-26 2012-04-11 船井電機株式会社 物体の距離導出装置
US7738017B2 (en) 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems
US8055466B2 (en) 2007-03-30 2011-11-08 Mitutoyo Corporation Global calibration for stereo vision probe
US8165418B2 (en) 2007-03-30 2012-04-24 Brother Kogyo Kabushiki Kaisha Image processor
WO2008120217A2 (en) 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
US8098941B2 (en) 2007-04-03 2012-01-17 Aptina Imaging Corporation Method and apparatus for parallelization of image compression encoders
US8213711B2 (en) 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP2008258885A (ja) 2007-04-04 2008-10-23 Texas Instr Japan Ltd 撮像装置および撮像装置の駆動方法
JP4310348B2 (ja) 2007-04-04 2009-08-05 シャープ株式会社 固体撮像装置およびそれを備えた電子機器
CN101281282A (zh) 2007-04-04 2008-10-08 鸿富锦精密工业(深圳)有限公司 镜头模组
WO2008068553A1 (en) 2007-04-16 2008-06-12 Nagappan Muthusamy Sundarar Solid vision
US7923801B2 (en) 2007-04-18 2011-04-12 Invisage Technologies, Inc. Materials, systems and methods for optoelectronic devices
US8467628B2 (en) 2007-04-24 2013-06-18 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
KR100869219B1 (ko) 2007-05-03 2008-11-18 동부일렉트로닉스 주식회사 이미지 센서 및 그 제조방법
GB0708655D0 (en) 2007-05-04 2007-06-13 Imp Innovations Ltd Imaging of moving objects
US8462220B2 (en) 2007-05-09 2013-06-11 Aptina Imaging Corporation Method and apparatus for improving low-light performance for small pixel image sensors
US7812869B2 (en) 2007-05-11 2010-10-12 Aptina Imaging Corporation Configurable pixel array system and method
JP4341695B2 (ja) 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
JP4337911B2 (ja) 2007-05-24 2009-09-30 ソニー株式会社 撮像装置、撮像回路、および撮像方法
US20080298674A1 (en) 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
EP2206013A4 (de) 2007-05-31 2011-07-20 Artificial Muscle Inc Optische systeme mit nachgiebigen elektroaktiven materialien
US8290358B1 (en) 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
WO2009001255A1 (en) 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
EP2168096A1 (de) 2007-07-12 2010-03-31 Thomson Licensing System und verfahren zur dreidimensionalen objektrekonstruktion aus zweidimensionalen bildern
US8125619B2 (en) 2007-07-25 2012-02-28 Eminent Electronic Technology Corp. Integrated ambient light sensor and distance sensor
JP5006727B2 (ja) 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
US8559756B2 (en) 2007-08-06 2013-10-15 Adobe Systems Incorporated Radiance processing by demultiplexing in the frequency domain
EP2034338A1 (de) 2007-08-11 2009-03-11 ETH Zurich Flüssiglinsesystem
EP2026563A1 (de) 2007-08-14 2009-02-18 Deutsche Thomson OHG Vorrichtung und Verfahren zur Erkennung defekter Pixel
US7782364B2 (en) 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
EP2031592A1 (de) 2007-08-30 2009-03-04 DTR Limited Verfahren und System für beschreibbare DVDs
US20090066693A1 (en) 2007-09-06 2009-03-12 Roc Carson Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
US20090079862A1 (en) 2007-09-25 2009-03-26 Micron Technology, Inc. Method and apparatus providing imaging auto-focus utilizing absolute blur value
US20090086074A1 (en) 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
US7940311B2 (en) 2007-10-03 2011-05-10 Nokia Corporation Multi-exposure pattern for enhancing dynamic range of images
JP5172267B2 (ja) 2007-10-09 2013-03-27 富士フイルム株式会社 撮像装置
US8049289B2 (en) 2007-10-11 2011-11-01 Dongbu Hitek Co., Ltd. Image sensor and method for manufacturing the same
US8938009B2 (en) 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
US7956924B2 (en) 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US7787112B2 (en) 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
US7920193B2 (en) 2007-10-23 2011-04-05 Aptina Imaging Corporation Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers
US7777804B2 (en) 2007-10-26 2010-08-17 Omnivision Technologies, Inc. High dynamic range sensor with reduced line memory for color interpolation
US20100223237A1 (en) 2007-11-05 2010-09-02 University Of Florida Research Foundation, Inc. Lossless data compression and real-time decompression
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
US20090128644A1 (en) 2007-11-15 2009-05-21 Camp Jr William O System and method for generating a photograph
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8126279B2 (en) 2007-11-19 2012-02-28 The University Of Arizona Lifting-based view compensated compression and remote visualization of volume rendered images
JP5010445B2 (ja) 2007-11-29 2012-08-29 パナソニック株式会社 マイクロレンズアレイ用金型の製造方法
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
WO2009073950A1 (en) 2007-12-13 2009-06-18 Keigo Izuka Camera system and method for amalgamating images to create an omni-focused image
TWI353778B (en) 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
EP2072785B1 (de) 2007-12-21 2011-02-23 Caterpillar Inc. Steuern der Antriebsgeschwindigkeit einer Maschine
US7880807B2 (en) 2007-12-26 2011-02-01 Sony Ericsson Mobile Communications Ab Camera system with mirror arrangement for generating self-portrait panoramic pictures
US8233077B2 (en) 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
US20110031381A1 (en) 2007-12-28 2011-02-10 Hiok-Nam Tay Light guide array for an image sensor
TWI362628B (en) 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
DE112009000099T5 (de) 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion
JP4413261B2 (ja) 2008-01-10 2010-02-10 シャープ株式会社 撮像装置及び光軸制御方法
JP5198295B2 (ja) 2008-01-15 2013-05-15 富士フイルム株式会社 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
US8824833B2 (en) 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
GB0802290D0 (en) 2008-02-08 2008-03-12 Univ Kent Canterbury Camera adapter based optical imaging apparatus
US8319301B2 (en) 2008-02-11 2012-11-27 Omnivision Technologies, Inc. Self-aligned filter for an image sensor
JP2009206922A (ja) 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
CN101520532A (zh) 2008-02-29 2009-09-02 鸿富锦精密工业(深圳)有限公司 复合镜片
US9094675B2 (en) 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
KR101592889B1 (ko) 2008-03-03 2016-02-11 아비길론 페이턴트 홀딩 2 코포레이션 트래킹, 인덱싱 및 서치를 위한 물체 매칭 방법 및 장치
US8072599B2 (en) * 2008-03-14 2011-12-06 Teledyne Scientific & Imaging, Llc Real-time, hybrid amplitude-time division polarimetric imaging camera
WO2009115947A1 (en) 2008-03-18 2009-09-24 Koninklijke Philips Electronics N.V. Apparatus for skin imaging, system for skin analysis
US8098955B2 (en) 2008-03-25 2012-01-17 Point Grey Research Inc. Efficient selection and application of regions of interest in digital imaging
JPWO2009119229A1 (ja) 2008-03-26 2011-07-21 コニカミノルタホールディングス株式会社 3次元撮像装置及び3次元撮像装置の校正方法
CN101551586A (zh) 2008-04-03 2009-10-07 晶宏半导体股份有限公司 高速摄影方法及其装置
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
US7843554B2 (en) 2008-04-25 2010-11-30 Rockwell Collins, Inc. High dynamic range sensor system and method
US8155456B2 (en) 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8724921B2 (en) 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
US8633996B2 (en) 2008-05-09 2014-01-21 Rambus Inc. Image sensor having nonlinear response
JP2009273035A (ja) 2008-05-09 2009-11-19 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
US8208543B2 (en) 2008-05-19 2012-06-26 Microsoft Corporation Quantization and differential coding of alpha image data
WO2009141998A1 (ja) 2008-05-19 2009-11-26 パナソニック株式会社 キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム
US20100097444A1 (en) 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
WO2009151903A2 (en) 2008-05-20 2009-12-17 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with hetergeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8442355B2 (en) 2008-05-23 2013-05-14 Samsung Electronics Co., Ltd. System and method for generating a multi-dimensional image
US8125559B2 (en) 2008-05-25 2012-02-28 Avistar Communications Corporation Image formation for large photosensor array surfaces
US8131097B2 (en) 2008-05-28 2012-03-06 Aptina Imaging Corporation Method and apparatus for extended depth-of-field image restoration
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
CN101593350B (zh) 2008-05-30 2013-01-09 日电(中国)有限公司 深度自适应视频拼接的方法、装置和系统
JP2009300268A (ja) 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
KR20100002032A (ko) 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
JPWO2009157273A1 (ja) 2008-06-25 2011-12-08 コニカミノルタオプト株式会社 撮像光学系及び撮像用レンズの製造方法
US7710667B2 (en) 2008-06-25 2010-05-04 Aptina Imaging Corp. Imaging module with symmetrical lens system and method of manufacture
KR101000531B1 (ko) 2008-06-26 2010-12-14 에스디씨마이크로 주식회사 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템
US7916396B2 (en) 2008-06-27 2011-03-29 Micron Technology, Inc. Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same
US8326069B2 (en) 2008-06-30 2012-12-04 Intel Corporation Computing higher resolution images from multiple lower resolution images
US7773317B2 (en) 2008-07-01 2010-08-10 Aptina Imaging Corp. Lens system with symmetrical optics
US7920339B2 (en) 2008-07-02 2011-04-05 Aptina Imaging Corporation Method and apparatus providing singlet wafer lens system with field flattener
CN100576934C (zh) 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
KR101445185B1 (ko) 2008-07-10 2014-09-30 삼성전자주식회사 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법
CA2731680C (en) 2008-08-06 2016-12-13 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
US9179153B2 (en) 2008-08-20 2015-11-03 Thomson Licensing Refined depth map
CN101656259A (zh) 2008-08-20 2010-02-24 鸿富锦精密工业(深圳)有限公司 影像感测器封装结构、封装方法及相机模组
US7924312B2 (en) 2008-08-22 2011-04-12 Fluke Corporation Infrared and visible-light image registration
US8736751B2 (en) 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
US8102428B2 (en) 2008-08-28 2012-01-24 Adobe Systems Incorporated Content-aware video stabilization
JP5105482B2 (ja) 2008-09-01 2012-12-26 船井電機株式会社 光学的条件設計方法及び複眼撮像装置
EP2329315A4 (de) 2008-09-01 2012-01-18 Lensvector Inc Herstellung optoelektronischer flüssigkristallbauelemente auf waferebene
US8098297B2 (en) 2008-09-03 2012-01-17 Sony Corporation Pre- and post-shutter signal image capture and sort for digital camera
KR20100028344A (ko) 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
US9025136B2 (en) 2008-09-23 2015-05-05 Applied Materials, Inc. System and method for manufacturing three dimensional integrated circuits
JP5238429B2 (ja) 2008-09-25 2013-07-17 株式会社東芝 立体映像撮影装置および立体映像撮影システム
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
KR101468267B1 (ko) 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US9619917B2 (en) 2008-10-03 2017-04-11 Apple Inc. Depth of field for a camera in a media-editing application
US9064476B2 (en) 2008-10-04 2015-06-23 Microsoft Technology Licensing, Llc Image super-resolution using gradient profile prior
US8310525B2 (en) 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
GB2476397B (en) 2008-10-15 2014-04-30 Spinella Ip Holdings Inc Digital processing method and system for determination of optical flow
US8416282B2 (en) 2008-10-16 2013-04-09 Spatial Cam Llc Camera for creating a panoramic image
JP2010096723A (ja) 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
US8436909B2 (en) 2008-10-21 2013-05-07 Stmicroelectronics S.R.L. Compound camera sensor and related method of processing digital images
US8913657B2 (en) 2008-10-27 2014-12-16 Lg Electronics Inc. Virtual view image synthesis method and apparatus
US8063975B2 (en) 2008-10-29 2011-11-22 Jabil Circuit, Inc. Positioning wafer lenses on electronic imagers
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
US8644547B2 (en) 2008-11-14 2014-02-04 The Scripps Research Institute Image analysis platform for identifying artifacts in samples and laboratory consumables
AU2008246243B2 (en) 2008-11-19 2011-12-22 Canon Kabushiki Kaisha DVC as generic file format for plenoptic camera
HUE039300T2 (hu) 2008-11-25 2018-12-28 Tetravue Inc Rendszerek és eljárások nagyfelbontású háromdimenziós képalkotáshoz
US8279325B2 (en) 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
WO2010077625A1 (en) 2008-12-08 2010-07-08 Refocus Imaging, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8013904B2 (en) 2008-12-09 2011-09-06 Seiko Epson Corporation View projection matrix based high performance low latency display pipeline
KR101200490B1 (ko) 2008-12-10 2012-11-12 한국전자통신연구원 영상 정합 장치 및 방법
JP5311016B2 (ja) 2008-12-10 2013-10-09 コニカミノルタ株式会社 ステレオカメラユニット及びステレオマッチング方法
US8149323B2 (en) 2008-12-18 2012-04-03 Qualcomm Incorporated System and method to autofocus assisted by autoexposure control
JP4631966B2 (ja) 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN101770060B (zh) 2008-12-27 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组及其组装方法
US8405742B2 (en) 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US8259212B2 (en) 2009-01-05 2012-09-04 Applied Quantum Technologies, Inc. Multiscale optical system
US20100177411A1 (en) 2009-01-09 2010-07-15 Shashikant Hegde Wafer level lens replication on micro-electrical-mechanical systems
WO2010079685A1 (ja) 2009-01-09 2010-07-15 コニカミノルタホールディングス株式会社 動きベクトル生成装置および動きベクトル生成方法
WO2010081010A2 (en) 2009-01-09 2010-07-15 New York University Methods, computer-accessible medium and systems for facilitating dark flash photography
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8300108B2 (en) 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
US20100194860A1 (en) 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d image capture using a mobile device, cradle or dongle
US8761491B2 (en) 2009-02-06 2014-06-24 Himax Technologies Limited Stereo-matching processor using belief propagation
US8290301B2 (en) 2009-02-06 2012-10-16 Raytheon Company Optimized imaging system for collection of high resolution imagery
KR101776955B1 (ko) 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
JP4915423B2 (ja) 2009-02-19 2012-04-11 ソニー株式会社 画像処理装置、フォーカルプレーン歪み成分算出方法、画像処理プログラム及び記録媒体
WO2010095440A1 (ja) 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8520970B2 (en) 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
KR20100099896A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
US8207759B2 (en) 2009-03-12 2012-06-26 Fairchild Semiconductor Corporation MIPI analog switch for automatic selection of multiple inputs based on clock voltages
US8542287B2 (en) 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
US8450821B2 (en) 2009-03-26 2013-05-28 Micron Technology, Inc. Method and apparatus providing combined spacer and optical lens element
US8106949B2 (en) 2009-03-26 2012-01-31 Seiko Epson Corporation Small memory footprint light transport matrix capture
US7901095B2 (en) 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
US8437537B2 (en) 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
JP4529010B1 (ja) 2009-03-30 2010-08-25 シャープ株式会社 撮像装置
JP5222205B2 (ja) 2009-04-03 2013-06-26 Kddi株式会社 画像処理装置、方法及びプログラム
WO2010116370A1 (en) 2009-04-07 2010-10-14 Nextvision Stabilized Systems Ltd Camera systems having multiple image sensors combined with a single axis mechanical gimbal
US20100259610A1 (en) 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8294099B2 (en) 2009-04-10 2012-10-23 Bae Systems Information And Electronic Systems Integration Inc. On-wafer butted microbolometer imaging array
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
JP5463718B2 (ja) 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
US20120249550A1 (en) 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
US8908058B2 (en) 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
ATE551841T1 (de) 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
CN101527046B (zh) 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
KR101671021B1 (ko) 2009-04-30 2016-11-10 삼성전자주식회사 스테레오스코픽 영상 데이터 전송 장치 및 방법
US8271544B2 (en) 2009-05-01 2012-09-18 Creative Technology Ltd Data file having more than one mode of operation
US8358365B2 (en) 2009-05-01 2013-01-22 Samsung Electronics Co., Ltd. Photo detecting device and image pickup device and method thereon
DE102009003110A1 (de) 2009-05-14 2010-11-18 Robert Bosch Gmbh Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern
US8203633B2 (en) 2009-05-27 2012-06-19 Omnivision Technologies, Inc. Four-channel color filter array pattern
KR20100130423A (ko) 2009-06-03 2010-12-13 삼성전자주식회사 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US8766808B2 (en) 2010-03-09 2014-07-01 Flir Systems, Inc. Imager with multiple sensor arrays
US8872910B1 (en) 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
US8745677B2 (en) 2009-06-12 2014-06-03 Cygnus Broadband, Inc. Systems and methods for prioritization of data for intelligent discard in a communication network
CN101931742B (zh) 2009-06-18 2013-04-24 鸿富锦精密工业(深圳)有限公司 影像感测模组及取像模组
US20100321640A1 (en) 2009-06-22 2010-12-23 Industrial Technology Research Institute Projection display chip
JP5254893B2 (ja) 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
US8208746B2 (en) 2009-06-29 2012-06-26 DigitalOptics Corporation Europe Limited Adaptive PSF estimation technique using a sharp preview and a blurred image
WO2011008443A2 (en) 2009-06-29 2011-01-20 Lensvector Inc. Wafer level camera module with active optical element
JP2011030184A (ja) 2009-07-01 2011-02-10 Sony Corp 画像処理装置、及び、画像処理方法
US8212197B2 (en) 2009-07-02 2012-07-03 Xerox Corporation Image sensor with integration time compensation
JP2011017764A (ja) 2009-07-07 2011-01-27 Konica Minolta Opto Inc 撮像レンズ,撮像装置及び携帯端末
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US20110019243A1 (en) 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
CN101964866B (zh) 2009-07-24 2013-03-20 鸿富锦精密工业(深圳)有限公司 计算摄像型数码相机
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
US8436893B2 (en) 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
KR20120048669A (ko) 2009-08-03 2012-05-15 퀄컴 엠이엠에스 테크놀로지스, 인크. 도광체 조명용의 미세구조체
EP2293586A1 (de) 2009-08-04 2011-03-09 Samsung Electronics Co., Ltd. Verfahren und System zur Umwandlung von Stereoinhalt
US8577183B2 (en) 2009-08-05 2013-11-05 Raytheon Company Resolution on demand
WO2011018678A1 (en) 2009-08-11 2011-02-17 Ether Precision, Inc. Method and device for aligning a lens with an optical system
US8320666B2 (en) 2009-08-14 2012-11-27 Genesis Group Inc. Real-time image and video matting
JP2011044801A (ja) 2009-08-19 2011-03-03 Toshiba Corp 画像処理装置
US8154632B2 (en) 2009-08-24 2012-04-10 Lifesize Communications, Inc. Detection of defective pixels in an image sensor
JP2011052064A (ja) 2009-08-31 2011-03-17 Toyobo Co Ltd ポリイミドおよびその製造方法
KR101680300B1 (ko) 2009-08-31 2016-11-28 삼성전자주식회사 액체 렌즈 및 그 제조방법
US9274699B2 (en) 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US8411146B2 (en) 2009-09-04 2013-04-02 Lockheed Martin Corporation Single camera color and infrared polarimetric imaging
EP2476248A1 (de) 2009-09-07 2012-07-18 Nokia Corp. Vorrichtung
FR2950153B1 (fr) 2009-09-15 2011-12-23 Commissariat Energie Atomique Dispositif optique a membrane deformable a actionnement piezoelectrique
US20140076336A1 (en) 2009-09-17 2014-03-20 Ascentia Health, Inc. Ear insert for relief of tmj discomfort and headaches
US8754941B1 (en) 2009-09-22 2014-06-17 Altia Systems, Inc. Multi-imager video camera with frame-by-frame view switching
KR101727094B1 (ko) 2009-10-02 2017-04-17 코닌클리케 필립스 엔.브이. 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법
KR101695809B1 (ko) 2009-10-09 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2499829B1 (de) 2009-10-14 2019-04-17 Dolby International AB Verfahren und einrichtungen zum verarbeiten einer tiefenkarte
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
US8199165B2 (en) 2009-10-14 2012-06-12 Hewlett-Packard Development Company, L.P. Methods and systems for object segmentation in digital images
US8502909B2 (en) 2009-10-19 2013-08-06 Pixar Super light-field lens
US20110207074A1 (en) 2009-10-26 2011-08-25 Olaf Andrew Hall-Holt Dental imaging system and method
US8546737B2 (en) 2009-10-30 2013-10-01 Invisage Technologies, Inc. Systems and methods for color binning
EP2494402B1 (de) 2009-10-30 2018-04-18 Hewlett-Packard Development Company, L.P. Stereoanzeigesysteme
WO2011055655A1 (ja) 2009-11-05 2011-05-12 コニカミノルタオプト株式会社 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法
US8792044B2 (en) 2009-11-05 2014-07-29 Konica Minolta Advanced Layers Inc. Image pickup device and method for manufacturing the image pickup device
US8654195B2 (en) 2009-11-13 2014-02-18 Fujifilm Corporation Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
TR200908688A2 (tr) 2009-11-17 2011-06-21 Vestel Elektron�K San. Ve T�C. A.�. Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı.
JP5399215B2 (ja) 2009-11-18 2014-01-29 シャープ株式会社 多眼カメラ装置および電子情報機器
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US8730338B2 (en) 2009-12-01 2014-05-20 Nokia Corporation Set of camera modules hinged on a body and functionally connected to a single actuator
JP5446797B2 (ja) 2009-12-04 2014-03-19 株式会社リコー 撮像装置
US8446492B2 (en) 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5387377B2 (ja) 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9030530B2 (en) 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
KR101281961B1 (ko) 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US20110153248A1 (en) 2009-12-23 2011-06-23 Yeming Gu Ophthalmic quality metric system
EP2518995B1 (de) 2009-12-24 2018-08-22 Sharp Kabushiki Kaisha Bildaufnahmevorrichtung mit mehreren blickwinkeln und bildaufnahmeverfahren mit mehreren blickwinkeln
JP4983905B2 (ja) 2009-12-25 2012-07-25 カシオ計算機株式会社 撮像装置、3dモデリングデータ生成方法、および、プログラム
KR101643607B1 (ko) 2009-12-30 2016-08-10 삼성전자주식회사 영상 데이터 생성 방법 및 장치
CN102118551A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 成像装置
CN102117576A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 电子相框
CN102131044B (zh) 2010-01-20 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组
WO2011097508A2 (en) 2010-02-04 2011-08-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
US8593512B2 (en) 2010-02-05 2013-11-26 Creative Technology Ltd Device and method for scanning an object on a working surface
US8326142B2 (en) 2010-02-12 2012-12-04 Sri International Optical image systems
CN102753933B (zh) * 2010-02-15 2015-06-10 株式会社理光 透明物体检测系统和透明平板检测系统
JP5387856B2 (ja) 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US8648918B2 (en) 2010-02-18 2014-02-11 Sony Corporation Method and system for obtaining a point spread function using motion information
US20130033579A1 (en) 2010-02-19 2013-02-07 Dual Aperture Inc. Processing multi-aperture image data
KR101802238B1 (ko) 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
WO2011105814A2 (ko) 2010-02-23 2011-09-01 삼성전자 주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
US8817015B2 (en) 2010-03-03 2014-08-26 Adobe Systems Incorporated Methods, apparatus, and computer-readable storage media for depth-based rendering of focused plenoptic camera data
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20110221950A1 (en) 2010-03-12 2011-09-15 Doeke Jolt Oostra Camera device, wafer scale package
US8231814B2 (en) 2010-03-17 2012-07-31 Pelican Imaging Corporation Fabrication process for mastering imaging lens arrays
CN102428707B (zh) 2010-03-19 2015-03-11 松下电器产业株式会社 立体视用图像对位装置和立体视用图像对位方法
WO2011116345A1 (en) 2010-03-19 2011-09-22 Invisage Technologies, Inc. Dark current reduction in image sensors via dynamic electrical biasing
US8310538B2 (en) 2010-03-19 2012-11-13 Fujifilm Corporation Imaging apparatus, method, program, and recording medium used in the program
US8558903B2 (en) 2010-03-25 2013-10-15 Apple Inc. Accelerometer / gyro-facilitated video stabilization
JPWO2011118135A1 (ja) 2010-03-25 2013-07-04 パナソニック株式会社 送信装置、受信装置、送信方法および受信方法
US8285033B2 (en) 2010-04-01 2012-10-09 Seiko Epson Corporation Bi-affinity filter: a bilateral type filter for color images
US9117310B2 (en) 2010-04-02 2015-08-25 Imec Virtual camera system
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US20110242342A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
US20110255786A1 (en) 2010-04-20 2011-10-20 Andrew Hunter Method and apparatus for determining flicker in the illumination of a subject
US8600186B2 (en) 2010-04-26 2013-12-03 City University Of Hong Kong Well focused catadioptric image acquisition
US9053573B2 (en) 2010-04-29 2015-06-09 Personify, Inc. Systems and methods for generating a virtual camera viewpoint for an image
US20110267264A1 (en) 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US20130250150A1 (en) 2010-05-03 2013-09-26 Michael R. Malone Devices and methods for high-resolution image and video capture
US9256974B1 (en) 2010-05-04 2016-02-09 Stephen P Hines 3-D motion-parallax portable display software application
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
KR20110124473A (ko) 2010-05-11 2011-11-17 삼성전자주식회사 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
US20130147979A1 (en) 2010-05-12 2013-06-13 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
JP5545016B2 (ja) 2010-05-12 2014-07-09 ソニー株式会社 撮像装置
EP2569935B1 (de) 2010-05-12 2016-12-28 Pelican Imaging Corporation Architekturen für bildgebungsarrays und array-kameras
WO2011142774A1 (en) 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods
US8576293B2 (en) 2010-05-18 2013-11-05 Aptina Imaging Corporation Multi-channel imager
SG176327A1 (en) 2010-05-20 2011-12-29 Sony Corp A system and method of image processing
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US20120062697A1 (en) 2010-06-09 2012-03-15 Chemimage Corporation Hyperspectral imaging sensor for tracking moving targets
DE102010024666A1 (de) 2010-06-18 2011-12-22 Hella Kgaa Hueck & Co. Verfahren zur optischen Selbstdiagnose eines Kamerasystems und Vorrichtung zur Durchführung eines solchen Verfahrens
US20110310980A1 (en) 2010-06-22 2011-12-22 Qualcomm Mems Technologies, Inc. Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id
CN102184720A (zh) 2010-06-22 2011-09-14 上海盈方微电子有限公司 一种支持多层多格式输入的图像合成显示的方法及装置
KR20120000485A (ko) 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
CN101883291B (zh) 2010-06-29 2012-12-19 上海大学 感兴趣区域增强的视点绘制方法
EP2403234A1 (de) 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Verfahren und System zur Erstellung eines zusammengesetzten Bildes aus von einer Anordnung von Bildaufnahmevorrichtungen erhaltenen Daten
US8493432B2 (en) 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
WO2012001975A1 (ja) 2010-06-30 2012-01-05 富士フイルム株式会社 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム
JP5392199B2 (ja) 2010-07-09 2014-01-22 ソニー株式会社 画像処理装置および方法
GB2482022A (en) 2010-07-16 2012-01-18 St Microelectronics Res & Dev Method for measuring resolution and aberration of lens and sensor
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US20120019700A1 (en) 2010-07-26 2012-01-26 American Technologies Network Corporation Optical system with automatic mixing of daylight and thermal vision digital video signals
US20120026342A1 (en) 2010-07-27 2012-02-02 Xiaoguang Yu Electronic system communicating with image sensor
US20120026451A1 (en) 2010-07-29 2012-02-02 Lensvector Inc. Tunable liquid crystal lens with single sided contacts
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
CN102375199B (zh) 2010-08-11 2015-06-03 鸿富锦精密工业(深圳)有限公司 相机模组
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8836793B1 (en) 2010-08-13 2014-09-16 Opto-Knowledge Systems, Inc. True color night vision (TCNV) fusion
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
JP5140210B2 (ja) 2010-08-31 2013-02-06 パナソニック株式会社 撮影装置および画像処理方法
GB2483434A (en) 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9013550B2 (en) 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
US9013634B2 (en) 2010-09-14 2015-04-21 Adobe Systems Incorporated Methods and apparatus for video completion
CN103299619A (zh) 2010-09-14 2013-09-11 汤姆逊许可公司 遮挡数据的压缩方法和装置
WO2012037075A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
US8780251B2 (en) 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment
WO2012039043A1 (ja) 2010-09-22 2012-03-29 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US20120086803A1 (en) 2010-10-11 2012-04-12 Malzbender Thomas G Method and system for distance estimation using projected symbol sequences
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US8531535B2 (en) 2010-10-28 2013-09-10 Google Inc. Methods and systems for processing a video for stabilization and retargeting
JP5657343B2 (ja) 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
WO2012056437A1 (en) 2010-10-29 2012-05-03 École Polytechnique Fédérale De Lausanne (Epfl) Omnidirectional sensor array system
US9137503B2 (en) 2010-11-03 2015-09-15 Sony Corporation Lens and color filter arrangement, super-resolution camera system and method
US9065991B2 (en) 2010-11-04 2015-06-23 Lensvector Inc. Methods of adjustment free manufacture of focus free camera modules
US20120113232A1 (en) 2010-11-10 2012-05-10 Sony Pictures Technologies Inc. Multiple camera system and method for selectable interaxial separation
WO2012064106A2 (en) 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
MY150361A (en) 2010-12-03 2013-12-31 Mimos Berhad Method of image segmentation using intensity and depth information
US20130258067A1 (en) 2010-12-08 2013-10-03 Thomson Licensing System and method for trinocular depth acquisition with triangular sensor
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5963422B2 (ja) 2010-12-17 2016-08-03 キヤノン株式会社 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US8682107B2 (en) 2010-12-22 2014-03-25 Electronics And Telecommunications Research Institute Apparatus and method for creating 3D content for oriental painting
US9177381B2 (en) 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US8565709B2 (en) 2010-12-30 2013-10-22 Apple Inc. Digital signal filter
TWI535292B (zh) 2010-12-31 2016-05-21 派力肯影像公司 使用具有異質的成像器的整體式相機陣列的影像捕捉和處理
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
EP2666048A4 (de) 2011-01-20 2014-06-04 Fivefocal Llc Passiv athermalisiertes infrarot-abbildungssystem und herstellungsverfahren dafür
US8717467B2 (en) 2011-01-25 2014-05-06 Aptina Imaging Corporation Imaging systems with array cameras for depth sensing
US8581995B2 (en) 2011-01-25 2013-11-12 Aptina Imaging Corporation Method and apparatus for parallax correction in fused array imaging systems
JP5594477B2 (ja) 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
WO2012100829A1 (en) 2011-01-27 2012-08-02 Metaio Gmbh Method for determining correspondences between a first and a second image, and method for determining the pose of a camera
CA2767023C (en) 2011-02-09 2014-09-09 Research In Motion Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US20120200726A1 (en) 2011-02-09 2012-08-09 Research In Motion Limited Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF
US8698885B2 (en) 2011-02-14 2014-04-15 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
US20140176592A1 (en) 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
WO2012111766A1 (ja) 2011-02-18 2012-08-23 東ソー株式会社 電解二酸化マンガン及びその製造方法、並びにリチウムマンガン系複合酸化物の製造方法
US8406548B2 (en) 2011-02-28 2013-03-26 Sony Corporation Method and apparatus for performing a blur rendering process on an image
RU2551649C2 (ru) 2011-02-28 2015-05-27 Фуджифилм Корпорэйшн Устройство формирования цветного изображения
US8537245B2 (en) 2011-03-04 2013-09-17 Hand Held Products, Inc. Imaging and decoding device with quantum dot imager
CA2769358C (en) 2011-03-08 2016-06-07 Research In Motion Limited Quantum dot image sensor with dummy pixels used for intensity calculations
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
KR101792501B1 (ko) 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US8824821B2 (en) 2011-03-28 2014-09-02 Sony Corporation Method and apparatus for performing user inspired visual effects rendering on an image
US8422770B2 (en) 2011-03-30 2013-04-16 Mckesson Financial Holdings Method, apparatus and computer program product for displaying normalized medical images
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
FR2974449A1 (fr) 2011-04-22 2012-10-26 Commissariat Energie Atomique Circuit integre imageur et dispositif de capture d'images stereoscopiques
US20120274626A1 (en) 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
CN103503023B (zh) 2011-05-04 2016-07-06 索尼爱立信移动通讯有限公司 用于处理光场图像的方法、图形用户接口以及计算机程序产品
US8305456B1 (en) 2011-05-11 2012-11-06 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US8843346B2 (en) 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
CN102164298B (zh) 2011-05-18 2012-10-03 长春理工大学 全景成像系统中基于立体匹配的元素图像获取方法
US8629901B2 (en) 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US20120293489A1 (en) 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
JP5797016B2 (ja) 2011-05-30 2015-10-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
US8648919B2 (en) 2011-06-06 2014-02-11 Apple Inc. Methods and systems for image stabilization
US8823813B2 (en) 2011-06-06 2014-09-02 Apple Inc. Correcting rolling shutter using image stabilization
US9635274B2 (en) 2011-06-15 2017-04-25 Microsoft Technology Licensing, Llc High resolution multispectral image capture
JP2013005259A (ja) 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013003276A1 (en) 2011-06-28 2013-01-03 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8773513B2 (en) 2011-07-01 2014-07-08 Seiko Epson Corporation Context and epsilon stereo constrained correspondence matching
KR101216123B1 (ko) 2011-07-08 2012-12-27 김호 시청자 얼굴 추적정보 생성방법 및 생성장치, 그 기록매체 및 3차원 디스플레이 장치
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
JP2013024886A (ja) 2011-07-14 2013-02-04 Sanyo Electric Co Ltd 撮像装置
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US9264689B2 (en) 2011-08-04 2016-02-16 Semiconductor Components Industries, Llc Systems and methods for color compensation in multi-view video
CA2844602A1 (en) 2011-08-09 2013-02-14 Samsung Electronics Co., Ltd. Method and device for encoding a depth map of multi viewpoint video data, and method and device for decoding the encoded depth map
US8432435B2 (en) 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
US8866951B2 (en) 2011-08-24 2014-10-21 Aptina Imaging Corporation Super-resolution imaging systems
US9009952B2 (en) 2011-08-29 2015-04-21 Asm Technology Singapore Pte. Ltd. Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same
US8704895B2 (en) 2011-08-29 2014-04-22 Qualcomm Incorporated Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
JP5879549B2 (ja) 2011-09-20 2016-03-08 パナソニックIpマネジメント株式会社 ライトフィールド撮像装置、および画像処理装置
JP5544047B2 (ja) 2011-09-21 2014-07-09 富士フイルム株式会社 画像処理装置、方法及びプログラム並びに立体撮像装置、携帯電子機器、プリンタ及び立体画像再生装置
US8724893B2 (en) 2011-09-27 2014-05-13 Thomson Licensing Method and system for color look up table generation
US8908083B2 (en) 2011-09-28 2014-12-09 Apple Inc. Dynamic autofocus operations
US9129183B2 (en) 2011-09-28 2015-09-08 Pelican Imaging Corporation Systems and methods for encoding light field image files
JP5831105B2 (ja) 2011-09-30 2015-12-09 ソニー株式会社 撮像装置及び撮像方法
CN104185808A (zh) 2011-10-11 2014-12-03 派力肯影像公司 包括自适应光学元件的透镜堆叠阵列
EP2582128A3 (de) 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Bilderfassungsvorrichtung
US20130107061A1 (en) 2011-10-31 2013-05-02 Ankit Kumar Multi-resolution ip camera
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
JP5149435B1 (ja) 2011-11-04 2013-02-20 株式会社東芝 映像処理装置および映像処理方法
EP2590138B1 (de) 2011-11-07 2019-09-11 Flir Systems AB Gasvisualisierungsanordnungen, Vorrichtungen und Verfahren
GB201119405D0 (en) 2011-11-10 2011-12-21 Univ East Anglia Spectral estimation method,system and reference target design system
WO2013072875A2 (en) 2011-11-15 2013-05-23 Technion Research & Development Foundation Ltd. Method and system for transmitting light
US20130121559A1 (en) 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality
US20130127988A1 (en) 2011-11-17 2013-05-23 Sen Wang Modifying the viewpoint of a digital image
US9661310B2 (en) 2011-11-28 2017-05-23 ArcSoft Hanzhou Co., Ltd. Image depth recovering method and stereo image fetching device thereof
JP6019568B2 (ja) 2011-11-28 2016-11-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
EP2600316A1 (de) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Verfahren, System und Softwareprogramm zum Schießen und Bearbeiten eines Films umfassend mindestens ein Bild einer 3D-computergenerierten Animation
KR101862404B1 (ko) 2011-12-09 2018-05-29 엘지이노텍 주식회사 스테레오 영상의 노이즈 제거장치 및 방법
US9117295B2 (en) 2011-12-20 2015-08-25 Adobe Systems Incorporated Refinement of depth maps by fusion of multiple estimates
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
US8941722B2 (en) 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
WO2013119706A1 (en) 2012-02-06 2013-08-15 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
US9172889B2 (en) 2012-02-09 2015-10-27 Semiconductor Components Industries, Llc Imaging systems and methods for generating auto-exposed high-dynamic-range images
EP2817955B1 (de) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systeme und verfahren zur manipulation von bilddaten aus einem erfassten lichtfeld
US9230333B2 (en) 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
JP5860304B2 (ja) 2012-02-23 2016-02-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
JP6112824B2 (ja) 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
JP5924978B2 (ja) 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法
EP2637139A1 (de) 2012-03-05 2013-09-11 Thomson Licensing Verfahren und Vorrichtung für die Zweischichtsegmentierung
WO2013151883A1 (en) 2012-04-02 2013-10-10 Intel Corporation Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system
US9156168B2 (en) 2012-04-13 2015-10-13 Automation Engineering, Inc. Active alignment using continuous motion sweeps and temporal interpolation
WO2013158636A1 (en) 2012-04-16 2013-10-24 Azizian Mahdi Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures
KR20150004858A (ko) * 2012-04-20 2015-01-13 워싱톤 유니버시티 스펙트럼 편광 이미징 센서
US8994845B2 (en) 2012-04-27 2015-03-31 Blackberry Limited System and method of adjusting a camera based on image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
JP2015521411A (ja) 2012-05-01 2015-07-27 ペリカン イメージング コーポレイション πフィルタ群を用いてパターン化されたカメラモジュール
US20150085073A1 (en) 2012-05-02 2015-03-26 Koninklijke Philips N.V. Quality metric for processing 3d video
US9300932B2 (en) 2012-05-09 2016-03-29 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
US10215642B2 (en) * 2012-05-17 2019-02-26 The University Of Akron System and method for polarimetric wavelet fractal detection and imaging
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
WO2013182873A1 (en) 2012-06-08 2013-12-12 Nokia Corporation A multi-frame image calibrator
EP2677734A3 (de) 2012-06-18 2016-01-13 Sony Mobile Communications AB Arraykameraabbildungssystem und Verfahren
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
JP5929553B2 (ja) 2012-06-28 2016-06-08 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US8792710B2 (en) 2012-07-24 2014-07-29 Intel Corporation Stereoscopic depth reconstruction with probabilistic pixel correspondence search
US9147251B2 (en) 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
US8988566B2 (en) 2012-08-09 2015-03-24 Omnivision Technologies, Inc. Lens array for partitioned image sensor having color filters
US9860443B2 (en) 2012-08-20 2018-01-02 The Regents Of The University Of California Monocentric lens designs and associated imaging systems having wide field of view and high resolution
EP3869797B1 (de) 2012-08-21 2023-07-19 Adeia Imaging LLC Verfahren zur tiefenerkennung in mit array-kameras aufgenommenen bildern
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
CN104584545B (zh) 2012-08-31 2017-05-31 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US9373088B2 (en) 2012-09-17 2016-06-21 The Board Of Trustees Of The Leland Stanford Junior University Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device
US9143673B2 (en) 2012-09-19 2015-09-22 Google Inc. Imaging device with a plurality of pixel arrays
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
TW201415879A (zh) 2012-10-12 2014-04-16 Wintek Corp 影像擷取裝置
WO2014070927A2 (en) 2012-10-31 2014-05-08 Invisage Technologies, Inc. Expanded-field-of-view image and video capture
US9338370B2 (en) 2012-11-05 2016-05-10 Honeywell International Inc. Visual system having multiple cameras
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
US9076205B2 (en) 2012-11-19 2015-07-07 Adobe Systems Incorporated Edge direction and curve based image de-blurring
TWI525382B (zh) 2012-11-21 2016-03-11 豪威科技股份有限公司 包括至少一拜耳型攝影機的攝影機陣列系統及關聯的方法
CN116405747A (zh) 2012-11-28 2023-07-07 核心光电有限公司 多孔径成像系统以及通过多孔径成像系统获取图像的方法
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9088369B2 (en) 2012-12-28 2015-07-21 Synergy Microwave Corporation Self injection locked phase locked looped optoelectronic oscillator
US8851370B2 (en) 2013-01-02 2014-10-07 Jpmorgan Chase Bank, N.A. System and method for secure card with on-board verification
US20140183334A1 (en) 2013-01-03 2014-07-03 Visera Technologies Company Limited Image sensor for light field device and manufacturing method thereof
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
KR20140094395A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9853826B2 (en) 2013-02-25 2017-12-26 Qualcomm Incorporated Establishing groups of internet of things (IOT) devices and enabling communication among the groups of IOT devices
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US20140240469A1 (en) 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014160142A1 (en) 2013-03-13 2014-10-02 Pelican Imaging Corporation Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
WO2014144157A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US20140267286A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and Methods for Providing an Array Projector
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
JPWO2014175136A1 (ja) * 2013-04-23 2017-02-23 コニカミノルタ株式会社 光学フィルム、円偏光板及び有機エレクトロルミネッセンス表示装置
RU2667605C2 (ru) 2013-05-10 2018-09-21 Конинклейке Филипс Н.В. Способ кодирования сигнала видеоданных для использования с многовидовым устройством визуализации
US9495594B2 (en) * 2013-07-18 2016-11-15 The United States Of America As Represented By The Secretary Of The Army Image anomaly detection in a target area using polarimetric sensor data
JP6201476B2 (ja) 2013-07-18 2017-09-27 凸版印刷株式会社 自由視点画像撮像装置およびその方法
WO2015015722A1 (ja) * 2013-07-29 2015-02-05 パナソニックIpマネジメント株式会社 光学フィルタおよびそれを用いた偏光撮像装置
KR102103983B1 (ko) 2013-07-31 2020-04-23 삼성전자주식회사 시프트된 마이크로 렌즈 어레이를 구비하는 라이트 필드 영상 획득 장치
US20160182786A1 (en) 2013-09-11 2016-06-23 Lytro, Inc. Hybrid light-field camera
CN103514580B (zh) 2013-09-26 2016-06-08 香港应用科技研究院有限公司 用于获得视觉体验优化的超分辨率图像的方法和系统
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015048906A1 (en) 2013-10-03 2015-04-09 Sulon Technologies Inc. Augmented reality system and method for positioning and mapping
US20150098079A1 (en) 2013-10-09 2015-04-09 Hilti Aktiengesellschaft System and method for camera based position and orientation measurement
US20150104101A1 (en) 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
US9423484B2 (en) * 2013-10-22 2016-08-23 Polaris Sensor Technologies, Inc. Sky polarization and sun sensor system and method
US10962625B2 (en) * 2013-10-22 2021-03-30 Polaris Sensor Technologies, Inc. Celestial positioning system and method
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015152984A2 (en) * 2014-01-22 2015-10-08 Polaris Sensor Technologies, Inc. Polarization imaging for facial recognition enhancement system and method
US10395113B2 (en) * 2014-01-22 2019-08-27 Polaris Sensor Technologies, Inc. Polarization-based detection and mapping method and system
KR102135770B1 (ko) 2014-02-10 2020-07-20 한국전자통신연구원 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
GB2523149A (en) 2014-02-14 2015-08-19 Nokia Technologies Oy Method, apparatus and computer program product for image-driven cost volume aggregation
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
JP6211435B2 (ja) 2014-02-26 2017-10-11 株式会社アドバンテスト 半導体装置の製造方法
US9307159B2 (en) * 2014-03-04 2016-04-05 Panasonic Intellectual Property Management Co., Ltd. Polarization image processing apparatus
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US20160042548A1 (en) 2014-03-19 2016-02-11 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method
KR102397254B1 (ko) 2014-03-28 2022-05-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술 장면의 정량적인 3차원 영상
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
GB2525660A (en) 2014-05-01 2015-11-04 Mastercard International Inc Methods, devices and systems for transaction initiation
WO2015183824A1 (en) 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US9992483B2 (en) 2014-09-03 2018-06-05 Intel Corporation Imaging architecture for depth camera mode with mode switching
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US9766461B2 (en) 2015-01-20 2017-09-19 Microsoft Technology Licensing, Llc Head-mounted display device with stress-resistant components
US9964482B2 (en) * 2015-01-26 2018-05-08 The United States Of America As Represented By The Secretary Of The Army Detecting clouds using polarized sunlight
US10260866B2 (en) 2015-03-06 2019-04-16 Massachusetts Institute Of Technology Methods and apparatus for enhancing depth maps with polarization cues
US20160267486A1 (en) 2015-03-13 2016-09-15 Radiius Corp Smartcard Payment System and Method
KR20180030773A (ko) 2015-04-17 2018-03-26 포토네이션 케이맨 리미티드 어레이 카메라들을 이용한 고속 비디오 캡처 및 심도 추정을 수행하기 위한 시스템 및 방법
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
EP3286914B1 (de) 2015-04-19 2019-12-25 FotoNation Limited Architekturen eines kameragruppensystem mit mehreren grundlinien zur tiefenerweiterung bei vr/ar-anwendungen
JP6512928B2 (ja) 2015-04-28 2019-05-15 キヤノン株式会社 画像符号化装置、画像処理装置、画像符号化方法
US9679526B2 (en) 2015-06-30 2017-06-13 Nxp Usa, Inc. Display system, an integrated circuit for use in the display system, and a method of displaying at least two images on at least two screens
US20170011405A1 (en) 2015-07-09 2017-01-12 Mastercard International Incorporated Simultaneous multi-factor authentication systems and methods for payment transactions
JP6626295B2 (ja) 2015-09-09 2019-12-25 キヤノン株式会社 画像符号化装置、画像処理装置、画像符号化方法
WO2017057058A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11257075B2 (en) 2015-10-20 2022-02-22 Paypal, Inc. Secure multi-factor user authentication on disconnected mobile devices
US20170142405A1 (en) 2015-10-21 2017-05-18 Praxik, LLC. Apparatus, Systems and Methods for Ground Plane Extension
AU2016374520C1 (en) 2015-12-14 2020-10-15 Motion Metrics International Corp. Method and apparatus for identifying fragmented material portions within an image
US9741163B2 (en) * 2015-12-22 2017-08-22 Raytheon Company 3-D polarimetric imaging using a microfacet scattering model to compensate for structured scene reflections
JP2017125809A (ja) * 2016-01-15 2017-07-20 株式会社リコー 情報処理装置、情報処理システムおよびプログラム
US20170268990A1 (en) * 2016-03-17 2017-09-21 Canon Kabushiki Kaisha Separating diffuse and specular components of a glossy object for shape reconstruction using electronic light diffusing layers (e-glass) and polarized light
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
US10546297B2 (en) 2016-06-30 2020-01-28 Paypal, Inc. Hardware and token based user authentication
JP6697681B2 (ja) 2016-08-17 2020-05-27 ソニー株式会社 検査装置、検査方法、およびプログラム
WO2018053181A1 (en) 2016-09-14 2018-03-22 Fotonation Cayman Limited Optical systems for cameras incorporating lens elements formed separately and subsequently bonded to low cte substrates
US10466036B2 (en) 2016-10-07 2019-11-05 Arizona Board Of Regents On Behalf Of The University Of Arizona Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera
US11832969B2 (en) * 2016-12-22 2023-12-05 The Johns Hopkins University Machine learning approach to beamforming
US20180189767A1 (en) 2016-12-29 2018-07-05 Fotonation Limited Systems and methods for utilizing payment card information with a secure biometric processor on a mobile device
JP7013651B2 (ja) 2017-02-06 2022-02-01 株式会社リコー サーバ装置、判別プログラム及び判別システム
WO2018165027A1 (en) * 2017-03-06 2018-09-13 Polaris Sensor Technologies, Inc. Polarization-based detection and mapping method and system
US10976239B1 (en) * 2017-03-14 2021-04-13 Hart Scientific Consulting International Llc Systems and methods for determining polarization properties with high temporal bandwidth
US10643382B2 (en) 2017-04-04 2020-05-05 Intel Corporation Application of convolutional neural networks to object meshes
US11108951B2 (en) * 2017-06-13 2021-08-31 Sony Corporation Image capturing device and imaging element, and image processing method
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
US11399144B2 (en) * 2017-07-12 2022-07-26 Sony Group Corporation Imaging apparatus, image forming method, and imaging system
JP6585668B2 (ja) 2017-07-20 2019-10-02 セコム株式会社 物体検出装置
US10742894B2 (en) * 2017-08-11 2020-08-11 Ut-Battelle, Llc Optical array for high-quality imaging in harsh environments
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
JP6695843B2 (ja) 2017-09-25 2020-05-20 ファナック株式会社 装置、及びロボットシステム
US11373396B2 (en) * 2017-11-06 2022-06-28 Google Llc Systems and methods for improved feature extraction using polarization information
US10643383B2 (en) 2017-11-27 2020-05-05 Fotonation Limited Systems and methods for 3D facial modeling
CN109961406B (zh) 2017-12-25 2021-06-25 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
US11024046B2 (en) 2018-02-07 2021-06-01 Fotonation Limited Systems and methods for depth estimation using generative models
US20210081698A1 (en) 2018-02-09 2021-03-18 Nano Techgalaxy, Inc. D/B/A Galaxy.Ai Systems and methods for physical object analysis
US10872221B2 (en) * 2018-06-21 2020-12-22 Amazon Technologies, Inc Non-contact biometric identification system
US20200012119A1 (en) * 2018-07-06 2020-01-09 Polaris Sensor Technologies, Inc. Reducing glare for objects viewed through transparent surfaces
KR20210038903A (ko) * 2018-07-30 2021-04-08 하이퍼파인 리서치, 인크. 자기 공명 이미지 재구성을 위한 딥 러닝 기술
US11315321B2 (en) 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism
US10763989B2 (en) * 2018-10-16 2020-09-01 Nec Corporation Machine learning based classification of higher-order spatial modes
US10708557B1 (en) * 2018-12-14 2020-07-07 Lyft Inc. Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors
US10659751B1 (en) 2018-12-14 2020-05-19 Lyft Inc. Multichannel, multi-polarization imaging for improved perception
CN110363070A (zh) * 2019-05-31 2019-10-22 合刃科技(武汉)有限公司 智能识别道路状态的方法、装置及计算机程序产品
US11431884B2 (en) * 2019-09-16 2022-08-30 Meta Platforms Technologies, Llc Polarization capture device for identifying feature of object
US11461998B2 (en) * 2019-09-25 2022-10-04 Samsung Electronics Co., Ltd. System and method for boundary aware semantic segmentation

Also Published As

Publication number Publication date
CA3162710A1 (en) 2021-06-03
US11842495B2 (en) 2023-12-12
EP4066001A1 (de) 2022-10-05
KR20230116068A (ko) 2023-08-03
KR102558903B1 (ko) 2023-07-24
EP4066001A4 (de) 2024-01-24
US11302012B2 (en) 2022-04-12
JP7329143B2 (ja) 2023-08-17
CN114787648B (zh) 2023-11-10
WO2021108002A1 (en) 2021-06-03
MX2022005289A (es) 2022-08-08
US20210264607A1 (en) 2021-08-26
CN114787648A (zh) 2022-07-22
US20220198673A1 (en) 2022-06-23
JP2022550216A (ja) 2022-11-30
KR20220163344A (ko) 2022-12-09

Similar Documents

Publication Publication Date Title
DE112020005932T5 (de) Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen
DE112020004810B4 (de) Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
CN111046703B (zh) 人脸防伪检测方法、装置及多目相机
Liao et al. Processing of multiresolution thermal hyperspectral and digital color data: Outcome of the 2014 IEEE GRSS data fusion contest
DE112020004391T5 (de) Systeme und verfahren zur oberflächenmodellierung unter verwendung von polarisationsmerkmalen
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112014004190T5 (de) Positurschätzverfahren und Roboter
DE102014019054A1 (de) Datenverarbeitungssystem und Verfahren zur Durchführung einer Gesichtserkennung
DE202009013865U1 (de) Konzept zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen und Konzept zum Inspizieren einer Freiformoberfläche
DE102011105182A1 (de) Verfahren zur Bereitstellung eines Vorhersagemodells für eine Rissdetektion und Verfahren zur Rissdetektion an einer Halbleiterstruktur
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE112020005864T5 (de) Verfahren und Einrichtung zur Verifizierung der Authentizität eines Produkts
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
Kemker et al. High-resolution multispectral dataset for semantic segmentation
EP3158543B1 (de) Verfahren zum detektieren eines blickwinkelabhängigen merkmals eines dokumentes
Donate et al. Classification of textures distorted by waterwaves
EP3021256A1 (de) Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem
WO2022100959A1 (de) Verfahren zum bereitstellen von kalibrierungsdaten zum kalibrieren einer kamera, verfahren zum kalibrieren einer kamera, verfahren zum herstellen zumindest eines vordefinierten punktsymmetrischen bereichs und vorrichtung
DE102021210256A1 (de) Messsystem und Aufzeichnungsmedium, das darauf ein Messprogramm speichert
Li et al. A new framework of hyperspectral image classification based on spatial spectral interest point
DE112020005230T5 (de) Bildverarbeitungssystem, Einstellverfahren und -programm
Conni et al. Dependence of texture classification accuracy on spectral information
CN116246216A (zh) 一种建筑拆除爆破用炸药的识别方法、装置以及处理设备
WO2022100988A1 (de) Verfahren zum bereitstellen von überwachungsdaten zur detektion eines beweglichen objekts, verfahren zur detektion eines beweglichen objekts, verfahren zum herstellen zumindest eines vordefinierten punktsymmetrischen bereichs und vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: INTRINSIC INNOVATION LLC, MOUNTAIN VIEW, US

Free format text: FORMER OWNER: BOSTON POLARIMETRICS, INC., PALO ALTO, CA, US

R082 Change of representative

Representative=s name: VENNER SHIPLEY GERMANY LLP, DE