DE112020005932T5 - Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen - Google Patents
Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen Download PDFInfo
- Publication number
- DE112020005932T5 DE112020005932T5 DE112020005932.4T DE112020005932T DE112020005932T5 DE 112020005932 T5 DE112020005932 T5 DE 112020005932T5 DE 112020005932 T DE112020005932 T DE 112020005932T DE 112020005932 T5 DE112020005932 T5 DE 112020005932T5
- Authority
- DE
- Germany
- Prior art keywords
- polarization
- tensors
- computer
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010287 polarization Effects 0.000 title claims abstract description 318
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000011218 segmentation Effects 0.000 title claims description 131
- 238000013527 convolutional neural network Methods 0.000 claims description 107
- 238000012549 training Methods 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 15
- 238000000844 transformation Methods 0.000 claims description 12
- 238000013179 statistical model Methods 0.000 claims description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims 14
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000001514 detection method Methods 0.000 description 17
- 230000004927 fusion Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 239000011521 glass Substances 0.000 description 15
- 230000001939 inductive effect Effects 0.000 description 11
- 238000012360 testing method Methods 0.000 description 10
- 230000035622 drinking Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000003909 pattern recognition Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 239000000463 material Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000004744 fabric Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 241001425390 Aphis fabae Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000004579 marble Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Vascular Medicine (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Ein computerimplementiertes Verfahren zum Berechnen einer Vorhersage für Bilder einer Szene umfassend: Empfangen eines oder mehrerer Polarisationsrohbilder einer Szene, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel aufgenommen wurden; Extrahieren eines oder mehrerer erster Tensoren in einem oder mehrere Polarisationsdarstellungsräume aus den Polarisationsrohbildern; und Berechnen einer Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen.
Description
- QUERVERWEIS AUF VERWANDTE ANMELDUNG(EN)
- Diese Anmeldung beansprucht die Priorität und die Vorteile der vorläufigen
US-Patentanmeldung Nr. 63/001,445 - GEBIET
- Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf computerbasiertes Sehen und die Segmentierung von Bildern in verschiedene Objekte, die auf den Bildern abgebildet sind.
- HINTERGRUND
- Semantische Segmentierung bezieht sich auf ein computerbasiertes Sehverfahren, bei dem ein oder mehrere zweidimensionale (2-D) Bilder einer Szene erfasst und verschiedene Bereiche des Bildes (z. B. jedes Pixel des Bildes) algorithmisch als zu bestimmten Objektklassen gehörend klassifiziert werden. Beispielsweise kann die Anwendung der semantischen Segmentierung auf ein Bild von Menschen in einem Garten einzelnen Pixeln des Eingangsbildes Klassen zuweisen, wobei die Klassen Typen von Objekten der realen Welt umfassen können, wie z. B.: Person, Tier, Baum, Boden, Himmel, Felsen, Gebäude und dergleichen. Die Instanzsegmentierung bezieht sich auf das weitere Anwenden von eindeutigen Kennzeichnungen auf jede der verschiedenen Instanzen von Objekten, z. B. durch separates Kennzeichnen jeder Person und jedes Tieres im Eingangsbild mit einem anderen Identifikator.
- Eine mögliche Ausgabe eines semantischen Segmentierungs- oder Instanzsegmentierungsprozesses ist eine Segmentierungskarte oder Segmentierungsmaske, bei der es sich um ein 2D-Bild mit denselben Abmessungen wie das Eingangsbild handeln kann und bei der der Wert jedes Pixels einer Kennzeichnung entspricht (z. B. einer bestimmten Klasse im Fall der semantischen Segmentierung oder einer bestimmten Instanz im Fall der Instanzsegmentierung).
- Segmentierung von Bildern transparenter Objekte ist ein schwieriges, offenes Problem in computerbasiertem Sehen. Transparenten Objekten fehlt die Textur (z. B. Oberflächenfarbinformationen, wie beim „Texture Mapping“, wie dieser Begriff im Bereich der Computergrafik verwendet wird), stattdessen wird die Textur oder das Aussehen der Szene hinter diesen transparenten Objekten übernommen (z. B. der Hintergrund der Szene, der durch die transparenten Objekte sichtbar ist). Infolgedessen sind unter Umständen transparente Objekte (und andere optisch schwierige Objekte) in einer aufgenommenen Szene für den semantischen Segmentierungsalgorithmus im Wesentlichen unsichtbar oder können basierend auf den Objekten klassifiziert werden, die durch diese transparenten Objekte sichtbar sind.
- ZUSAMMENFASSUNG
- Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Segmentierung von transparenten Objekten in Bildern unter Verwendung der Lichtpolarisation (der Drehung von Lichtwellen), um zusätzliche Informationskanäle für die semantische Segmentierung oder andere maschinelle Bildverarbeitungsprozesse bereitzustellen. Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auch auf die Erkennung und/oder Segmentierung anderer optisch schwieriger Objekte in Bildern durch die Verwendung von Lichtpolarisation, wobei optisch schwierige Objekte eine oder mehrere Bedingungen aufweisen können, darunter: nicht lambertsch, durchscheinend, mehrweginduzierend oder nicht reflektierend. In einigen Ausführungsformen wird eine Polarisationskamera zur Erfassung von Polarisationsrohbildern verwendet, um multimodale Bilder (z. B. mehrdimensionale Polarisationsinformationen) zu erzeugen. Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Architektur eines neuronalen Netzes, das ein Deep Learning-Backbone zur Verarbeitung der multimodalen Polarisationseingangsdaten verwendet. Dementsprechend führen Ausführungsformen der vorliegenden Offenbarung zuverlässig eine Instanzsegmentierung bei unübersichtlichen, transparenten und anderweitig optisch schwierigen Objekten in verschiedenen Szenen- und Hintergrundbedingungen durch, wodurch eine Verbesserung gegenüber vergleichbaren Ansätzen, die nur auf Intensitätsbildern basieren, aufgezeigt wird.
- Gemäß einer Ausführungsform der vorliegenden Offenbarung weist ein computerimplementiertes Verfahren zum Berechnen einer Vorhersage für Bilder einer Szene auf: Empfangen von einem oder mehreren Polarisationsrohbildern einer Szene, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel erfasst wurden; Extrahieren von einem oder mehreren ersten Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern; und Berechnen einer Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder mehreren ersten Tensoren in dem einen oder mehreren Polarisationsdarstellungsräumen.
- Der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen können umfassen: ein Bild eines linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild eines linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum.
- Der eine oder die mehreren ersten Tensoren können ferner einen oder mehrere Nicht-Polarisations-Tensoren in einem oder mehreren Nicht-PolarisationsDarstellungsräumen enthalten, und der eine oder die mehreren Nicht-Polarisations-Tensoren können ein oder mehrere Intensitätsbilder in einem IntensitätsDarstellungsraum enthalten.
- Das eine oder die mehreren Intensitätsbilder können umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild.
- Die Vorhersage kann eine Segmentierungsmaske enthalten.
- Das Berechnen der Vorhersage kann das Zuführen des einen oder der mehreren ersten Tensoren zu einem oder mehreren entsprechenden faltenden neuronalen Netz (CNN) Backbones umfassen, und jedes der einen oder mehreren CNN Backbones kann so konfiguriert sein, dass es eine Vielzahl von Modustensoren bei einer Vielzahl von verschiedenen Skalierungen berechnet.
- Die Berechnung der Vorhersage kann ferner umfassen: Fusionieren der Modustensoren, die mit einer gleichen Skalierung von dem einen oder den mehreren CNN-Backbones berechnet wurden.
- Das Fusionieren der Modustensoren mit der gleichen Skalierung kann Verknüpfen der Modustensoren mit der gleichen Skalierung beinhalten; Zuführen der Modustensoren zu einem Aufmerksamkeits-Teilnetz, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und Gewichten der Modustensoren basierend auf der einen oder den mehreren Aufmerksamkeitskarten, um einen fusionierten Tensor mit der Skalierung zu berechnen.
- Das Berechnen der Vorhersage kann ferner das Liefern der fusionierten Tensoren, die bei jeder Skalierung berechnet wurden, an ein Vorhersagemodul umfassen, das konfiguriert ist, um die Segmentierungsmaske zu berechnen.
- Die Segmentierungsmaske kann an eine Steuerung eines Entnahmeroboters geliefert werden.
- Die Vorhersage kann eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten beinhalten.
- Die Vorhersage kann ein oder mehrere detektierte Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte enthalten, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind.
- Das Berechnen der Vorhersage kann ein Liefern des einen oder der mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen an ein statistisches Modell umfassen, und das statistische Modell kann mittels Trainingsdaten trainiert werden, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen enthalten.
- Die Trainingsdaten können umfassen: erste Ausgangs-Trainingstensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen, die aus von einer Polarisationskamera erfassten Daten berechnet wurden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen einschließlich einer Drehung erzeugt wurden.
- Wenn die zusätzlichen ersten Trainings-Tensoren ein Bild eines linearen Polarisationswinkels (AOLP) enthalten, kann das Erzeugen der zusätzlichen ersten Trainings-Tensoren Folgendes umfassen: Drehen der zusätzlichen ersten Trainings-Tensoren um einen Winkel; und Gegendrehen von Pixelwerten des AOLP-Bildes um den Winkel.
- Gemäß einer Ausführungsform der vorliegenden Offenbarung enthält ein computerbasiertes Sehsystem: eine Polarisationskamera mit einem Polarisationsfilter; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, der Befehle speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen ein oder mehrere Polarisationsrohbilder einer Szene zu empfangen, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel erfasst wurden; einen oder mehrere erste Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern zu extrahieren; und eine Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen zu berechnen.
- Der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen können umfassen: ein Bild eines linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild eines linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum.
- Der eine oder die mehreren ersten Tensoren können ferner einen oder mehrere Nicht-Polarisations-Tensoren in einem oder mehreren Nicht-PolarisationsDarstellungsräumen enthalten, und wobei der eine oder die mehreren Nicht-Polarisations-Tensoren ein oder mehrere Intensitätsbilder in einem IntensitätsDarstellungsraum enthalten.
- Das eine oder die mehreren Intensitätsbilder können umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild.
- Die Vorhersage kann eine Segmentierungsmaske enthalten.
- Der Speicher kann ferner Befehle speichern, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, die Vorhersage zu berechnen, indem der eine oder die mehreren ersten Tensoren an ein oder mehrere entsprechende faltende neuronale Netz (CNN) Backbones geliefert werden, wobei jedes von dem einen oder den mehreren CNN-Backbones so konfiguriert ist, dass es eine Vielzahl von Modustensoren bei einer Vielzahl von verschiedenen Skalierungen berechnet.
- Der Speicher kann ferner Befehle speichern, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, die Modustensoren, die von dem einen oder den mehreren CNN-Backbones mit derselben Skalierung berechnet wurden, zu fusionieren.
- Die Befehle, die den Prozessor veranlassen, die Modustensoren mit der gleichen Skalierung zu fusionieren, können Befehle enthalten, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen: die Modustensoren mit der gleichen Skalierung zu verknüpfen; die Modustensoren an ein Aufmerksamkeits-Teilnetz zu liefern, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und die Modustensoren basierend auf der einen oder mehreren Aufmerksamkeitskarten zu gewichten, um einen fusionierten Tensor für die Skalierung zu berechnen.
- Die Befehle, die den Prozessor veranlassen, die Vorhersage zu berechnen, können ferner Befehle enthalten, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen, die bei jeder Skalierung berechneten fusionierten Tensoren an ein Vorhersagemodul zu liefern, das zum Berechnen der Segmentierungsmaske konfiguriert ist.
- Die Segmentierungsmaske kann an eine Steuerung eines Robotergreifarms geliefert werden.
- Die Vorhersage kann eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten beinhalten.
- Die Vorhersage kann ein oder mehrere erfasste Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte enthalten, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind.
- Die Befehle zum Berechnen der Vorhersage können Befehle enthalten, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, den einen oder die mehreren ersten Tensoren an ein statistisches Modell zu liefern, und das statistische Modell kann unter Verwendung von Trainingsdaten trainiert werden, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen enthalten.
- Die Trainingsdaten können umfassen: erste Ausgangs-Trainingstensoren, die aus von einer Polarisationskamera erfassten Daten berechnet werden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen einschließlich einer Drehung erzeugt wurden.
- Wenn die zusätzlichen Trainings-Ersttensoren ein Bild eines linearen Polarisationswinkels (AOLP) enthalten, umfasst das Erzeugen der zusätzlichen Trainings-Ersttensoren: Drehen der zusätzlichen Trainings-Ersttensoren um einen Winkel; und Gegendrehen von Pixelwerten des AOLP-Bildes um den Winkel.
- Figurenliste
- Die beigefügten Zeichnungen veranschaulichen zusammen mit der Beschreibung beispielhafte Ausführungsformen der vorliegenden Erfindung und dienen zusammen mit der Beschreibung zur Erläuterung der Prinzipien der vorliegenden Erfindung.
-
1 ist ein schematisches Blockdiagramm eines Systems gemäß einer Ausführungsform der vorliegenden Erfindung. -
2A ist ein Bild oder ein Intensitätsbild einer Szene mit einer echten transparenten Kugel, die auf einem Fotoausdruck platziert ist, der eine andere Szene mit zwei transparenten Kugeln („Spoofs“) und einigem Hintergrundgewirr zeigt. -
2B zeigt das Intensitätsbild von2A mit einer überlagerten Segmentierungsmaske, wie sie von einem vergleichenden maskenregionenbasierten faltenden neuronalen Netz (Mask R-CNN) berechnet wird, das Instanzen von transparenten Kugeln identifiziert, wobei die echte transparente Kugel korrekt als eine Instanz identifiziert wird und die beiden Spoofs fälschlicherweise als Instanzen identifiziert werden. -
2C ist ein Polarisationswinkelbild, das aus Polarisationsrohbildern berechnet wurde, die gemäß einer Ausführungsform der vorliegenden Erfindung von der Szene aufgenommen wurden. -
2D zeigt das Intensitätsbild von2A mit einer überlagerten Segmentierungsmaske, die unter Verwendung von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung berechnet wurde, wobei der echte transparente Ball korrekt als Instanz identifiziert wird und die beiden Fälschungen korrekt als Instanzen ausgeschlossen werden. -
3 ist ein Blockdiagramm einer Verarbeitungsschaltung zum Berechnen von Segmentierungskarten basierend auf Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung. -
4 ist ein Flussdiagramm eines Verfahrens zur Durchführung einer Segmentierung von Eingangsbildern zum Berechnen einer Segmentierungskarte gemäß einer Ausführungsform der vorliegenden Erfindung. -
5 ist eine Übersichtsdarstellung der Interaktion von Licht mit transparenten Objekten und nicht-transparenten (z.B. diffusen und/oder reflektierenden) Objekten. -
6A ,6B und6C zeigen beispielhafte erste Merkmalskarten, die von einem Merkmalsextraktor berechnet wurden, der so konfiguriert ist, dass er abgeleitete Merkmalskarten in ersten Darstellungsräumen extrahiert, einschließlich einer Intensitätsmerkmalskarte I in6A im Intensitätsdarstellungsraum, eine Merkmalkarte des linearen Polarisationsgrades (DOLP) ρ in6B im DOLP-Darstellungsraum und eine Merkmalkarte des linearen Polarisationswinkels (AOLP) ϕ in6C im Darstellungsraum, gemäß einer Ausführungsform der vorliegenden Erfindung. -
7A und7B sind jeweils erweiterte Ansichten der mit (a) und (b) gekennzeichneten Bereiche in6A ,6B und6C .7C ist ein Diagramm, das einen Querschnitt einer in7B gekennzeichneten Kante in der Intensitätsmerkmalskarte von6A , der DOLP-Merkmalskarte von6B und der AOLP-Merkmalskarte von6C darstellt. -
8A ist ein Blockdiagramm eines Merkmalsextraktors gemäß einer Ausführungsform der vorliegenden Erfindung. -
8B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zum Extrahieren von Merkmalen aus Polarisationsrohbildern darstellt. -
9 ist ein Blockdiagramm, das eine polarisierte CNN-Architektur gemäß einer Ausführungsform der vorliegenden Erfindung zeigt, die auf ein maskenregionsbasiertes faltendes neuronales Netz (Mask R-CNN) angewendet wird. -
10 ist ein Blockdiagramm eines Aufmerksamkeitsmoduls, das mit einem polarisierten CNN gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann. -
11 zeigt Beispiele von Aufmerksamkeitsgewichten, die von einem Aufmerksamkeitsmodul gemäß einer Ausführungsform der vorliegenden Erfindung für verschiedene Modustensoren (in ersten Darstellungsräumen) berechnet werden, die aus Polarisationsrohbildern extrahiert wurden, die von einer Polarisationskamera erfasst wurden. -
12A ,12B ,12C und12D zeigen Segmentierungskarten, die von einem vergleichenden Bildsegmentierungssystem berechnet wurden, Segmentierungskarten, die von einem polarisierten faltenden neuronalen Netz gemäß einer Ausführungsform der vorliegenden Offenbarung berechnet wurden, und Bodenwirklichkeit-Segmentierungskarten (z. B. manuell erzeugte Segmentierungskarten). - DETAILLIERTE BESCHREIBUNG
- In der folgenden detaillierten Beschreibung werden nur bestimmte beispielhafte Ausführungsformen der vorliegenden Erfindung zur Veranschaulichung gezeigt und beschrieben. Wie der Fachmann erkennt, kann die Erfindung in vielen verschiedenen Formen verwirklicht werden und ist nicht als auf die hier dargestellten Ausführungsformen beschränkt zu verstehen. Gleiche Bezugsziffern bezeichnen gleiche Elemente in der gesamten Beschreibung.
- Transparente Objekte kommen in vielen realen Anwendungen von computerbasiertem Sehen oder maschinellen Bildverarbeitungssystemen vor, insbesondere bei der Automatisierung und Analyse in der Fertigung, den Biowissenschaften und der Automobilindustrie. In der Fertigung können Bildverarbeitungssysteme beispielsweise zum Automatisieren des Sortierens, Auswählens und Platzierens von Teilen, zum Überprüfen der Platzierung von Komponenten während der Fertigung sowie zur Endkontrolle und Fehlererkennung eingesetzt werden. In den Biowissenschaften können Bildverarbeitungssysteme beispielsweise zum Automatisieren des Messens von Reagenzien, des Vorbereitens von Proben, des Ablesens von Instrumenten, des Charakterisierens von Proben und des Entnehmens und Platzierens von Probenbehältern eingesetzt werden. Weitere Beispiele aus der Automobilindustrie sind das Erkennen von transparenten Objekten in Straßenszenen zur Unterstützung des Fahrers oder zum Betrieb selbstfahrender Fahrzeuge. Weitere Beispiele sind Hilfstechnologien wie selbstfahrende Rollstühle, die in der Lage sind, Glastüren und andere durchsichtige Hindernisse zu erkennen, und Geräte zum Unterstützen von Menschen mit Sehbehinderung, die in der Lage sind, durchsichtige Trinkgläser zu erkennen und zwischen echten Objekten und ausgedruckten Fälschungen zu unterscheiden.
- Im Gegensatz zu opaken Objekten haben transparente Objekte keine eigene Textur (z. B. Oberflächenfarbinformationen, wie der Begriff im Bereich der Computergrafik verwendet wird, wie z. B. beim „Texture Mapping“). Infolgedessen können Vergleichssysteme transparente Objekte in Szenen, die mit Standard-Bildgebungssystemen (z. B. Kameras, die monochrome Intensitätsbilder oder Farbintensitätsbilder wie Rot-, Grün- und Blaubilder oder RGB-Bilder aufnehmen) aufgenommen wurden, in der Regel nicht korrekt identifizieren. Dies kann darauf zurückzuführen sein, dass die transparenten Objekte keine konsistente Textur (z. B. Oberflächenfarbe) aufweisen, an der sich die Algorithmen orientieren oder deren Erkennung sie erlernen können (z. B. während des Trainingsprozesses eines maschinellen Lernalgorithmus). Ähnliche Probleme können bei teilweise transparenten oder durchscheinenden Objekten sowie bei einigen Arten von reflektierenden Objekten (z. B. glänzendes Metall) und sehr dunklen Objekten (z. B. mattschwarze Objekte) auftreten.
- Dementsprechend beziehen sich Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die Verwendung der Polarisationsbildgebung, um Informationen für Segmentierungsalgorithmen zur Erkennung transparenter Objekte in Szenen bereitzustellen. Darüber hinaus gelten Aspekte der vorliegenden Offenbarung auch für die Erkennung anderer optisch anspruchsvoller Objekte wie transparente, durchscheinende und reflektierende Objekte sowie dunkle Objekte.
- Wie hierin verwendet, bezieht sich der Begriff „optisch anspruchsvoll“ auf Objekte, die aus Materialien bestehen, die eine oder mehrere der folgenden vier Eigenschaften mit einem ausreichenden Schwellenwert oder Grad erfüllen: nicht lambertsch (z. B. nicht matt); durchscheinend; mehrweginduzierend; und/oder nicht reflektierend. Unter bestimmten Umständen kann ein Objekt, das nur eines der vier Merkmale aufweist, optisch schwer zu erkennen sein. Darüber hinaus können Objekte oder Materialien mehrere Merkmale gleichzeitig aufweisen. Ein lichtdurchlässiges Objekt kann beispielsweise eine Oberflächenreflexion und eine Hintergrundreflexion aufweisen, so dass es sowohl wegen der Lichtdurchlässigkeit als auch wegen des Mehrwegeffekts eine Herausforderung darstellt. Unter bestimmten Umständen kann ein Objekt eines oder mehrere der vier oben genannten Merkmale aufweisen, aber dennoch optisch nicht schwierig zu erkennen sein, weil diese Bedingungen nicht in einem Ausmaß auftreten, das für ein vergleichendes computerbasiertes Sehsystem ein Problem darstellen würde. Ein Objekt kann zum Beispiel durchscheinend sein, aber dennoch eine ausreichende Oberflächenstruktur aufweisen, um erkannt und von anderen Objekten in einer Szene unterschieden werden zu können. Ein anderes Beispiel ist eine Oberfläche, die so wenig lambertinisch sein muss, dass sie für andere Bildverarbeitungssysteme problematisch ist. In einigen Ausführungsformen wird der Grad oder das Ausmaß, in dem ein Objekt optisch anspruchsvoll ist, anhand der Halbwertsbreite (FWHM) der Spiegelkeule der bidirektionalen Reflexionsverteilungsfunktion (BRDF) des Objekts bestimmt. Liegt diese FWHM unter einem Schwellenwert, gilt das Material als optisch anspruchsvoll.
-
1 ist ein schematisches Blockdiagramm eines Systems gemäß einer Ausführungsform der vorliegenden Erfindung. Die in1 gezeigte Anordnung enthält eine Szene 1 mit transparenten Objekten 2 (z. B. eine Kugel wie eine Glasmurmel, ein Zylinder wie ein Trinkglas oder ein Becher und eine Ebene wie eine Scheibe aus transparentem Acryl), die vor undurchsichtigen matten Objekten 3 (z. B. ein Baseball und ein Tennisball) angeordnet sind. Eine Polarisationskamera 10 hat ein Objektiv 12 mit einem Sichtfeld, wobei das Objektiv 12 und die Kamera 10 so ausgerichtet sind, dass das Sichtfeld die Szene 1 umfasst. Das Objektiv 12 ist konfiguriert, um Licht (z. B. fokussiertes Licht) von der Szene 1 auf ein lichtempfindliches Medium wie einen Bildsensor 14 (z. B. einen CMOS-Bildsensor (Complementary Metal Oxide Semiconductor) oder einen CCD-Bildsensor (Charge-Coupled Device)) zu richten. - Die Polarisationskamera 10 weist ferner einen Polarisator oder Polarisationsfilter oder eine Polarisationsmaske 16 auf, der/die im optischen Pfad zwischen der Szene 1 und dem Bildsensor 14 angeordnet ist. Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung ist der Polarisator oder die Polarisationsmaske 16 konfiguriert, um die Polarisationskamera 10 in die Lage zu versetzen, Bilder der Szene 1 zu erfassen, wobei der Polarisator in verschiedenen spezifizierten Winkeln eingestellt ist (z.B. bei 45°-Drehungen oder bei 60°-Drehungen oder bei ungleichmäßig beabstandeten Drehungen).
- Als ein Beispiel zeigt
1 eine Ausführungsform, bei der die Polarisationsmaske 16 ein Polarisationsmosaik ist, das mit dem Pixelraster des Bildsensors 14 in einer Weise ausgerichtet ist, die einem Rot-Grün-Blau (RGB)-Farbfilter (z. B. einem Bayer-Filter) einer Farbkamera ähnelt. Ähnlich wie ein Farbfilter-Mosaik das einfallende Licht basierend auf der Wellenlänge filtert, so dass jedes Pixel im Bildsensor 14 Licht in einem bestimmten Teil des Spektrums (z. B., Rot, Grün oder Blau) entsprechend dem Muster der Farbfilter des Mosaiks empfängt, filtert eine Polarisationsmaske 16, die ein Polarisationsmosaik verwendet, Licht basierend auf der linearen Polarisation, so dass verschiedene Pixel Licht in verschiedenen Winkeln der linearen Polarisation empfangen (z. B. bei 0°, 45°, 90° und 135° oder bei 0°, 60° Grad und 120°). Dementsprechend kann die Polarisationskamera 10 mit einer Polarisationsmaske 16, wie sie in1 dargestellt ist, Licht mit vier verschiedenen linearen Polarisationen simultan oder gleichzeitig erfassen. Ein Beispiel für eine Polarisationskamera ist die Blackfly® S Polarisationskamera, die von FLIR® Systems, Inc. in Wilsonville, Oregon, hergestellt wird. - Während sich die obige Beschreibung auf einige mögliche Implementierungen einer Polarisationskamera unter Verwendung eines Polarisationsmosaiks bezieht, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und umfassen andere Arten von Polarisationskameras, die in der Lage sind, Bilder mit mehreren verschiedenen Polarisationen zu erfassen. Beispielsweise kann die Polarisationsmaske 16 weniger oder mehr als vier verschiedene Polarisationen aufweisen oder Polarisationen in verschiedenen Winkeln haben (z. B. in Polarisationswinkeln von: 0°, 60° Grad und 120° oder in Polarisationswinkeln von 0°, 30°, 60°, 90°, 120° und 150°). Als weiteres Beispiel kann die Polarisationsmaske 16 unter Verwendung einer elektronisch gesteuerten Polarisationsmaske, wie z. B. einem elektrooptischen Modulator (der z. B. eine Flüssigkristallschicht enthalten kann), implementiert werden, wobei die Polarisationswinkel der einzelnen Pixel der Maske unabhängig voneinander gesteuert werden können, so dass verschiedene Teile des Bildsensors 14 Licht mit unterschiedlichen Polarisationen empfangen. Als weiteres Beispiel kann der elektrooptische Modulator konfiguriert sein, um Licht verschiedener linearer Polarisationen zu transmittieren, wenn verschiedene Bilder aufgenommen werden, z. B. so dass die Kamera Bilder aufnimmt, bei denen die Gesamtheit der Polarisationsmaske nacheinander auf verschiedene lineare Polarisationswinkel eingestellt ist (z. B. nacheinander eingestellt auf: 0 Grad; 45 Grad; 90 Grad; oder 135 Grad). Als weiteres Beispiel kann die Polarisationsmaske 16 einen Polarisationsfilter enthalten, der sich mechanisch dreht, so dass unterschiedliche Polarisationsrohbilder von der Polarisationskamera 10 aufgenommen werden, wenn der Polarisationsfilter mechanisch in Bezug auf das Objektiv 12 gedreht wird, um Licht mit unterschiedlichen Polarisationswinkeln zum Bildsensor 14 zu transmittieren.
- Infolgedessen nimmt die Polarisationskamera mehrere Eingangsbilder 18 (oder Polarisationsrohbilder) der Szene 1 auf, wobei jedes der Polarisationsrohbilder 18 einem Bild entspricht, das hinter einem Polarisationsfilter oder Polarisator unter einem anderen Polarisationswinkel ϕ_pοl (z. B. 0 Grad, 45 Grad, 90 Grad oder 135 Grad) aufgenommen wurde. Jedes der Polarisationsrohbilder wird im Wesentlichen aus der gleichen Pose in Bezug auf die Szene 1 aufgenommen (z. B. werden die Bilder, die mit dem Polarisationsfilter bei 0 Grad, 45 Grad, 90 Grad oder 135 Grad aufgenommen werden, alle von derselben Polarisationskamera aufgenommen, die sich am gleichen Ort und in der gleichen Ausrichtung befindet), im Gegensatz zur Aufnahme der Polarisationsrohbilder von unterschiedlichen Orten und Ausrichtungen in Bezug auf die Szene. Die Polarisationskamera 10 kann konfiguriert sein, um Licht in einer Vielzahl verschiedener Bereiche des elektromagnetischen Spektrums zu erfassen, z. B. den für den Menschen sichtbaren Bereich des elektromagnetischen Spektrums, rote, grüne und blaue Bereiche des für den Menschen sichtbaren Spektrums sowie unsichtbare Bereiche des elektromagnetischen Spektrums wie Infrarot und Ultraviolett.
- In einigen Ausführungsformen der vorliegenden Offenbarung, wie z. B. in einigen der oben beschriebenen Ausführungsformen, werden die verschiedenen Polarisationsrohbilder von derselben Polarisationskamera 10 erfasst und können daher im Wesentlichen aus derselben Pose (z. B. Position und Ausrichtung) in Bezug auf die Szene 1 erfasst werden. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Beispielsweise kann sich eine Polarisationskamera 10 in Bezug auf die Szene 1 zwischen verschiedenen Polarisationsrohbildern bewegen (z. B. wenn verschiedene Polarisationsrohbilder, die verschiedenen Polarisationswinkeln entsprechen, zu verschiedenen Zeiten aufgenommen werden, wie im Fall eines mechanisch rotierenden Polarisationsfilters), entweder weil sich die Polarisationskamera 10 bewegt hat oder weil sich Objekte in der Szene 1 bewegt haben (z. B. wenn sich die Objekte auf einem sich bewegenden Förderband befinden). Dementsprechend werden in einigen Ausführungsformen der vorliegenden Offenbarung verschiedene Polarisationsrohbilder mit der Polarisationskamera 10 in verschiedenen Posen in Bezug auf die Szene 1 aufgenommen.
- Die Polarisationsrohbilder 18 werden einer Verarbeitungsschaltung 100 zugeführt, die im Folgenden näher beschrieben wird und die basierend auf den Polarisationsrohbildern 18 eine Segmentierungskarte 20 berechnet. Wie in
1 gezeigt, sind in der Segmentierungskarte 20 die transparenten Objekte 2 und die undurchsichtigen Objekte 3 der Szene alle einzeln gekennzeichnet, wobei die Kennzeichnungen in1 unter Verwendung verschiedener Farben oder Muster (z. B. vertikale Linien, horizontale Linien, Karomuster usw.) dargestellt sind, wobei jedoch in der Praxis jede Kennzeichnung durch einen anderen Wert (z. B. einen ganzzahligen Wert, wobei die verschiedenen in den Figuren gezeigten Muster verschiedenen Werten entsprechen) in der Segmentierungskarte dargestellt werden kann. - Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung wird der Verarbeitungsschaltkreis 100 mit einem oder mehreren elektronischen Schaltkreisen implementiert, die konfiguriert sind, um verschiedene Operationen durchzuführen, wie im Folgenden näher beschrieben. Zu den Arten von elektronischen Schaltungen können eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), ein Beschleuniger für künstliche Intelligenz (AI) (z. B. ein Vektorprozessor, der vektorarithmetische Logikeinheiten enthalten kann, die konfiguriert sind, um gemeinsame Operationen mit neuronalen Netzen, wie Punktprodukte und Softmax, effizient durchzuführen), ein Field Programmable Gate Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), ein digitaler Signalprozessor (DSP) oder Ähnliches gehören. Beispielsweise sind unter bestimmten Umständen Aspekte von Ausführungsformen der vorliegenden Offenbarung in Programmbefehlen implementiert, die in einem nichtflüchtigen, computerlesbaren Speicher gespeichert sind, wo sie bei Ausführung durch die elektronische Schaltung (z. B. eine CPU, eine GPU, einen KI-Beschleuniger oder Kombinationen davon) die hierin beschriebenen Operationen durchführen, um eine Segmentierungskarte 20 aus eingegebenen Polarisationsrohbildern 18 zu berechnen. Die von der Verarbeitungsschaltung 100 durchgeführten Operationen können von einer einzelnen elektronischen Schaltung (z. B. einer einzelnen CPU, einer einzelnen GPU o. Ä.) durchgeführt werden oder auf mehrere elektronische Schaltungen (z. B. mehrere GPUs oder eine CPU in Verbindung mit einer GPU) verteilt werden. Die mehreren elektronischen Schaltungen können lokal zueinander sein (z. B. auf demselben Chip, in demselben Gehäuse oder in demselben eingebetteten Gerät oder Computersystem) und/oder können voneinander entfernt sein (z. B. in Kommunikation über ein Netzwerk wie ein lokales persönliches Netzwerk wie Bluetooth®, über ein lokales Netzwerk wie ein lokales drahtgebundenes und/oder drahtloses Netzwerk und/oder über ein Weitverkehrsnetzwerk wie das Internet, z. B. in einem Fall, in dem einige Operationen lokal ausgeführt werden und andere Operationen auf einem Server ausgeführt werden, der von einem Cloud-Computing-Dienst gehostet wird). Eine oder mehrere elektronische Schaltungen, die die Verarbeitungsschaltung 100 implementieren, können hier als Computer oder Computersystem bezeichnet werden, das einen Speicher enthalten kann, in dem Befehle gespeichert sind, die, wenn sie von der einen oder den mehreren elektronischen Schaltungen ausgeführt werden, die hier beschriebenen Systeme und Verfahren implementieren.
-
2A ,2B ,2C und2D bieten einen Hintergrund zur Veranschaulichung der Segmentierungskarten, die durch einen vergleichenden Ansatz und semantische Segmentierung oder Instanzsegmentierung gemäß den Ausführungsformen der vorliegenden Offenbarung berechnet werden.2A ist ein Bild oder ein Intensitätsbild einer Szene mit einer echten transparenten Kugel, die auf einem Fotoausdruck liegt, der eine andere Szene mit zwei transparenten Kugeln („Spoofs“) und etwas Hintergrundgerümpel zeigt.2B zeigt eine Segmentierungsmaske, wie sie von einem vergleichenden Masken-basierten faltenden neuralen Netz (Mask R-CNN) berechnet wird, das Instanzen von transparenten Kugeln identifiziert, die über das Intensitätsbild von2A gelegt werden, wobei verschiedene Linienmuster verwendet werden, und wobei die echte transparente Kugel korrekt als Instanz identifiziert wird, während die beiden Spoofs fälschlicherweise als Instanzen identifiziert werden. Mit anderen Worten, der Masken-R-CNN-Algorithmus wurde dazu verleitet, die beiden gefälschten transparenten Kugeln als Instanzen der tatsächlichen transparenten Kugeln in der Szene zu identifizieren. -
2C ist ein Bild eines linearen Polarisationswinkels (AOLP), das aus Polarisationsrohbildern berechnet wurde, die gemäß einer Ausführungsform der vorliegenden Erfindung von der Szene aufgenommen wurden. Wie in2C gezeigt, haben transparente Objekte eine sehr einzigartige Textur im Polarisationsraum wie der AOLP-Domäne, wo es eine geometrieabhängige Signatur an Kanten und ein ausgeprägtes oder einzigartiges oder besonderes Muster gibt, das auf den Oberflächen transparenter Objekte im Winkel der linearen Polarisation entsteht. Mit anderen Worten: Die intrinsische Textur des transparenten Objekts (z. B. im Gegensatz zur extrinsischen Textur, die von den durch das transparente Objekt sichtbaren Hintergrundflächen übernommen wird) ist im Polarisationswinkelbild von2C besser sichtbar als im Intensitätsbild von2A . -
2D zeigt das Intensitätsbild von2A mit einer überlagerten Segmentierungsmaske, wie sie unter Verwendung von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung berechnet wird, wobei der echte transparente Ball korrekt als Instanz identifiziert wird, indem ein überlagertes Linienmuster verwendet wird, und die beiden Fälschungen korrekt als Instanzen ausgeschlossen werden (z. B. enthält2D im Gegensatz zu2B keine überlagerten Linienmuster über den beiden Fälschungen). Während die2A ,2B ,2C und2D ein Beispiel für die Erkennung eines echten transparenten Objekts bei Vorhandensein von gefälschten transparenten Objekten zeigen, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf andere optisch anspruchsvolle Objekte angewandt werden, wie z.B. transparente, durchscheinende und nicht matte oder nicht lambertsche Objekte sowie nicht reflektierende (z.B. matte schwarze Objekte) und mehrweginduzierende Objekte. - Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf das Extrahieren von Tensoren im Darstellungsraum (oder ersten Tensoren in ersten Darstellungsräumen, wie Polarisationsmerkmalskarten) aus den Polarisationsrohbildern, die als Eingabe für semantische Segmentierungsalgorithmen oder andere computerbasierte Sehalgorithmen bereitgestellt werden. Diese ersten Tensoren im ersten Darstellungsraum können Polarisationsmerkmalskarten enthalten, die Informationen über die Polarisation des von der Szene empfangenen Lichts kodieren, wie das in
2C gezeigte AOLP-Bild, Merkmalskarten des linearen Polarisationsgrads (DOLP) und dergleichen (z. B. andere Kombinationen aus Stokes-Vektoren oder Transformationen einzelner Polarisationsrohbilder). In einigen Ausführungsformen werden diese Polarisationsmerkmalskarten zusammen mit Nicht-Polarisationsmerkmalskarten (z. B. Intensitätsbilder wie das in2A gezeigte Bild) verwendet, um zusätzliche Informationskanäle für die Verwendung durch semantische Segmentierungsalgorithmen bereitzustellen. - Während Ausführungsformen der vorliegenden Erfindung nicht auf die Verwendung mit bestimmten semantischen Segmentierungsalgorithmen beschränkt sind, beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Erfindung auf Deep-Learning-Frameworks für die polarisationsbasierte Segmentierung von transparenten oder anderen optisch anspruchsvollen Objekten (z. B. transparente, transluzente, nicht- lambertsche, mehrweginduzierende Objekte und nicht-reflektierende (z. B. sehr dunkle) Objekte), wobei diese Frameworks als polarisierte faltende neuronale Netze (Polarized CNNs) bezeichnet werden können. Dieses polarisierte CNN-Framework enthält einen Backbone, der für die Verarbeitung der besonderen Textur der Polarisation geeignet ist und mit anderen computerbasierten Seh-Architekturen wie Mask R-CNN (z. B. zur Bildung einer Polarized Mask R-CNN-Architektur) gekoppelt werden kann, um eine Lösung für die genaue und robuste Instanzsegmentierung transparenter Objekte zu schaffen. Darüber hinaus kann dieser Ansatz auf Szenen mit einer Mischung aus transparenten und nicht-transparenten (z.B. undurchsichtigen Objekten) angewendet werden und kann verwendet werden, um Instanzen von transparenten, durchscheinenden, nicht-lambertschen, merhweginduzierenden, dunklen und undurchsichtigen Objekten in der Szene zu identifizieren.
-
3 ist ein Blockdiagramm der Verarbeitungsschaltung 100 zum Berechnen von Segmentierungskarten basierend auf Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung.4 ist ein Flussdiagramm eines Verfahrens zum Durchführen einer Segmentierung an Eingabebildern, um eine Segmentierungskarte gemäß einer Ausführungsform der vorliegenden Erfindung zu berechnen. Wie in3 gezeigt, umfasst eine Verarbeitungsschaltung 100 in einigen Ausführungsformen einen Merkmalsextraktor oder ein Merkmalsextraktionssystem 800 und einen Prädiktor 900 (z. B. einen klassischen Computer-Vision-Vorhersagealgorithmus oder ein trainiertes statistisches Modell), der konfiguriert ist, um eine Vorhersageausgabe 20 (z. B. eine statistische Vorhersage) bezüglich eines oder mehrerer transparenter Objekte in der Szene basierend auf der Ausgabe des Merkmalsextraktionssystems 800 zu berechnen. Während einige Ausführungsformen der vorliegenden Offenbarung hier im Zusammenhang mit dem Training eines Systems zum Erkennen von transparenten Objekten beschrieben werden, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf Techniken für andere optisch anspruchsvolle Objekte oder Objekte aus Materialien angewendet werden, deren Erkennung optisch anspruchsvoll ist, wie z. B. lichtdurchlässige Objekte, Objekte, die Mehrwegeffekte induzieren, Objekte, die nicht vollständig oder im Wesentlichen matt oder lambertsch sind, und/oder sehr dunkle Objekte. Zu diesen optisch anspruchsvollen Objekten gehören Objekte, die durch die Verwendung von Bildern, die von Kamerasystemen erfasst werden, die nicht empfindlich für die Polarisation des Lichts sind, schwer aufzulösen oder zu erkennen sind (z. B. basierend auf Bildern, die von Kameras ohne einen Polarisationsfilter im optischen Pfad erfasst werden, oder bei denen verschiedene Bilder keine Bilder basierend auf verschiedenen Polarisationswinkeln erfassen). - In der in den
3 und4 dargestellten Ausführungsform extrahiert das Merkmalsextraktionssystem 800 des Verarbeitungssystems 100 in Verfahrensschritt 410 eine oder mehrere erste Merkmalskarten 50 in einem oder mehreren ersten Darstellungsräumen (einschließlich Polarisationsbildern oder Polarisationsmerkmalskarten in verschiedenen Polarisationsdarstellungsräumen) aus den eingegebenen Polarisationsrohbildern 18 einer Szene. Die extrahierten abgeleiteten Merkmalskarten 50 (einschließlich Polarisationsbildern) werden als Eingabe für den Prädiktor 900 des Verarbeitungssystems 100 bereitgestellt, der ein oder mehrere Vorhersagemodelle implementiert, um in Verfahrensschritt 450 eine erkannte Ausgabe 20 zu berechnen. In dem Fall, in dem der Prädiktor ein Bildsegmentierungs- oder Instanzsegmentierungssystem ist, kann die Vorhersage eine Segmentierungskarte wie die in3 gezeigte sein, in der jedes Pixel mit einer oder mehreren Konfidenzwerten verbunden sein kann, wonach das Pixel verschiedenen möglichen Klassen (oder Typen) von Objekten entspricht. In dem Fall, in dem der Prädiktor ein Klassifizierungssystem ist, kann die Vorhersage eine Vielzahl von Klassen und entsprechende Konfidenzwerte enthalten, dass das Bild ein Beispiel für jede der Klassen darstellt. Handelt es sich bei dem Prädiktor 900 um einen klassischen computerbasierten Seh-Vorhersagealgorithmus, kann der Prädiktor ein Erkennungsergebnis berechnen (z. B. Erkennung von Kanten, Schlüsselpunkten, Basiskoeffizienten, Haar-Wavelet-Koeffizienten oder anderen Merkmalen transparenter Objekte und/oder anderer optisch anspruchsvoller Objekte, wie z. B. lichtdurchlässiger Objekte, mehrweginduzierender Objekte, nicht lambertscher Objekte und nicht reflektierender Objekte im Bild als Ausgangsmerkmale). - In der in
3 gezeigten Ausführungsform implementiert der Prädiktor 900 ein Instanzsegmentierungssystem (oder ein semantisches Segmentierungssystem) und berechnet im Verfahrensschritt 450 eine Ausgabe 20, die eine Segmentierungskarte für die Szene basierend auf den extrahierten ersten Tensoren 50 in ersten Darstellungsräumen enthält, die aus den eingegebenen Polarisationsrohbildern 18 extrahiert wurden. Wie oben erwähnt, werden das Merkmalsextraktionssystem 800 und der Prädiktor 900 unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert, die konfiguriert sind, um ihre Verfahrensschritte durchzuführen, wie im Folgenden näher beschrieben. - Extrahieren erster Tensoren wie Polarisationsbilder und abgeleitete Merkmalskarten in ersten Darstellungsräumen aus Polarisationsrohbildern
- Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren zum Extrahieren von Merkmalen im Verfahrensschritt 410, wobei diese extrahierten Merkmale bei der robusten Erkennung von transparenten Objekten im Verfahrensschritt 450 verwendet werden. Im Gegensatz dazu können vergleichende Verfahren, die sich allein auf Intensitätsbilder stützen, bei der Erkennung transparenter Objekte versagen (z. B. beim Vergleich des Intensitätsbildes von
2A mit dem AOLP-Bild von2C , wie oben beschrieben). Der Begriff „erste Tensoren“ in „ersten Darstellungsräumen“ wird hier verwendet, um sich auf Merkmale zu beziehen, die aus Polarisationsrohbildern 18, die von einer Polarisationskamera aufgenommen wurden, berechnet (z. B. extrahiert) wurden, wobei diese ersten Darstellungsräume zumindest Polarisationsmerkmalsräume umfassen (z. B., (z. B. Merkmalsräume wie AOLP und DOLP, die Informationen über die Polarisation des vom Bildsensor erfassten Lichts enthalten) und können auch Nicht-Polarisations-Merkmalsräume umfassen (z. B. Merkmalsräume, die keine Informationen über die Polarisation des den Bildsensor erreichenden Lichts erfordern, wie z. B. Bilder, die nur basierend auf Intensitätsbildern berechnet werden, die ohne jegliche Polarisationsfilter erfasst wurden). - Die Wechselwirkung zwischen Licht und transparenten Objekten ist vielfältig und komplex, aber das Material eines Objekts bestimmt seine Transparenz bei sichtbarem Licht. Bei vielen transparenten Haushaltsgegenständen geht der größte Teil des sichtbaren Lichts direkt hindurch und ein kleiner Teil (-4% bis -8%, je nach Brechungsindex) wird reflektiert. Dies liegt daran, dass das Licht im sichtbaren Teil des Spektrums nicht genügend Energie hat, um die Atome im transparenten Gegenstand anzuregen. Infolgedessen dominiert die Textur (z. B. das Aussehen) von Objekten, die sich hinter dem transparenten Objekt befinden (oder durch das transparente Objekt sichtbar sind), das Aussehen des transparenten Objekts. Betrachtet man beispielsweise eine transparente Glastasse oder einen Becher auf einem Tisch, so dominiert im Allgemeinen das Aussehen der Objekte auf der anderen Seite des Bechers (z. B. die Oberfläche des Tisches) das, was man durch die Tasse sieht. Diese Eigenschaft führt zu einigen Schwierigkeiten, wenn versucht wird, eine Instanzsegmentierung allein basierend auf Intensitätsbildern durchzuführen:
- Unordnung: Klare Kanten (z. B. die Kanten von transparenten Objekten) sind in dicht überladenen Szenen mit transparenten Objekten schwer zu erkennen. In Extremfällen sind die Kanten überhaupt nicht sichtbar (siehe z. B. Region (b) in
6A , die weiter unten näher beschrieben wird), was zu Unklarheiten hinsichtlich der genauen Form der transparenten Objekte führt. - Neuartige Umgebungen: Geringes Reflexionsvermögen im sichtbaren Spektrum führt dazu, dass transparente Objekte in neuartigen Umgebungen (z. B. in Umgebungen, die sich von den zum Trainieren des Segmentierungssystems verwendeten Trainingsdaten unterscheiden, z. B. wenn sich die durch die transparenten Objekte sichtbaren Hintergründe von den Hintergründen in den Trainingsdaten unterscheiden) unterschiedlich, d. h. nicht gleichmäßig verteilt, erscheinen, was zu einer schlechten Verallgemeinerung führt.
- Print-Out-Spoofs: Algorithmen, die einzelne RGB-Bilder als Eingabe verwenden, sind aufgrund der perspektivischen Mehrdeutigkeit generell anfällig für Print-Out-Spoofs (z. B. Ausdrucke von fotografischen Bildern). Es gibt zwar andere nichtmonokulare Algorithmen (z. B. unter Verwendung von Bildern, die aus mehreren verschiedenen Positionen um die Szene herum aufgenommen wurden, wie z. B. von einer Stereokamera) für die semantische Segmentierung von transparenten Objekten, doch sind diese auf einen bestimmten Bereich beschränkt und können möglicherweise keine Instanzsegmentierung vornehmen.
-
5 ist eine übersichtliche Darstellung der Wechselwirkung von Licht mit transparenten und nicht transparenten (z. B. diffusen und/oder reflektierenden) Objekten. Wie in5 dargestellt, nimmt eine Polarisationskamera 10 Polarisationsrohbilder einer Szene auf, die ein transparentes Objekt 502 vor einem undurchsichtigen Hintergrundobjekt 503 umfasst. Ein Lichtstrahl 510, der auf den Bildsensor 14 der Polarisationskamera 10 trifft, enthält Polarisationsinformationen sowohl von dem transparenten Objekt 502 als auch von dem Hintergrundobjekt 503. Der kleine Anteil des vom transparenten Objekt 502 reflektierten Lichts 512 ist stark polarisiert und hat daher einen großen Einfluss auf die Polarisationsmessung, im Gegensatz zu dem Licht 513, das vom Hintergrundobjekt 503 reflektiert wird und durch das transparente Objekt 302 hindurchgeht. - Ein Lichtstrahl 510, der auf den Bildsensor 16 einer Polarisationskamera 10 trifft, hat drei messbare Komponenten: die Intensität des Lichts (Intensitätsbild/I), den Prozentsatz oder Anteil des Lichts, der linear polarisiert ist (Grad der linearen Polarisation/DOLP/ρ), und die Richtung dieser linearen Polarisation (Winkel der linearen Polarisation/AOLP/ϕ). Diese Eigenschaften kodieren Informationen über die Oberflächenkrümmung und das Material des abzubildenden Objekts, die vom Prädiktor 900 verwendet werden können, um transparente Objekte zu erkennen, wie im Folgenden näher beschrieben. In einigen Ausführungsformen kann der Prädiktor 900 andere optisch anspruchsvolle Objekte basierend auf ähnlichen Polarisationseigenschaften von Licht, das durch lichtdurchlässige Objekte hindurchgeht, und/oder Licht, das mit mehrweginduzierenden Objekten oder mit nicht reflektierenden Objekten (z. B. mattschwarzen Objekten) interagiert, erkennen.
- Daher beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Erfindung auf das Verwenden eines Merkmalsextraktors 800 zum Berechnen erster Tensoren in einem oder mehreren ersten Darstellungsräumen, die abgeleitete Merkmalskarten basierend auf der Intensität I, dem DOLP ρ und dem AOLP ϕ enthalten können. Der Merkmalsextraktor 800 kann im Allgemeinen Informationen in erste Darstellungsräume (oder erste Merkmalsräume) extrahieren, die Polarisationsdarstellungsräume (oder Polarisationsmerkmalsräume) umfassen, wie z. B. „Polarisationsbilder“, d. h. Bilder, die basierend auf den Polarisationsrohbildern extrahiert werden, die ansonsten nicht aus Intensitätsbildern berechnet werden könnten (z. B, Bilder, die von einer Kamera aufgenommen wurden, die keinen Polarisationsfilter oder einen anderen Mechanismus zum Erkennen der Polarisation des den Bildsensor erreichenden Lichts enthält), wobei diese Polarisationsbilder DOLP p-Bilder (im DOLP-Darstellungsraum oder Merkmalsraum), AOLP ϕ-Bilder (im AOLP-Darstellungsraum oder Merkmalsraum), andere Kombinationen der aus Stokes-Vektoren berechneten Polarisationsrohbilder sowie andere Bilder (oder allgemeiner erste Tensoren oder erste Merkmalstensoren) der aus Polarisationsrohbildern berechneten Informationen umfassen können. Die ersten Darstellungsräume können auch Nicht-Polarisations-Darstellungsräume wie den Intensitäts-I-Darstellungsraum umfassen.
- Messen von Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel erfordert drei oder mehr Polarisationsrohbilder einer Szene, die hinter Polarisationsfiltern (oder Polarisatoren) unter verschiedenen Winkeln ϕpol aufgenommen wurden (z. B. weil drei unbekannte Werte zu bestimmen sind: Intensität I, DOLP ρ und AOLP ϕ. Beispielsweise nimmt die oben beschriebene FLIR® Blackfly® S Polarisationskamera Polarisationsrohbilder mit Polarisationswinkeln ϕpol von 0 Grad, 45 Grad, 90 Grad oder 135 Grad auf, wodurch vier Polarisationsrohbilder Iϕpol entstehen, die hier als I0, I45, I90 und I135 bezeichnet werden.
-
- Dementsprechend mit vier verschiedenen Polarisationsrohbildern Iϕpol (I0, I45, I90 und I135) kann ein System mit vier Gleichungen verwendet werden, um die Intensität I, DOLP ρ und AOLP ϕ zu bestimmen.
- Form aus Polarisation (SfP) Theorie (siehe z.B. Gary A. Atkinson und Edwin R. Hancock. Recovery of surface orientation from diffuse polarization. IEEE transactions on image processing, 15(6): 1653-1664, 2006.) stellt fest, dass die Beziehung zwischen dem Brechungsindex (n), dem Azimutwinkel (θa) und dem Zenitwinkel (θz) der Oberflächennormalen eines Objekts und den ϕ- und ρ-Komponenten des von diesem Objekt kommenden Lichtstrahls den folgenden Merkmalen folgt
-
- Man beachte, dass in beiden Fällen ρ exponentiell zunimmt, wenn θz steigt, und dass bei gleichem Brechungsindex die spiegelnde Reflexion viel stärker polarisiert ist als die diffuse Reflexion.
- Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Bereitstellung von ersten Tensoren in den ersten Darstellungsräumen (z. B. abgeleitete Merkmalskarten), die aus Polarisationsrohbildern extrahiert wurden, als Eingaben für einen Prädiktor zur Berechnung von computerbasierten Seh-Vorhersagen über transparente Objekte und/oder andere optisch anspruchsvolle Objekte (z. B. lichtdurchlässige Objekte, nicht- lambertsche Objekte, mehrweginduzierende Objekte und/oder nicht-reflektierende Objekte) der Szene, wie z. B. ein semantisches Segmentierungssystem zur Berechnung von Segmentierungskarten einschließlich der Erkennung von Instanzen transparenter Objekte und anderer optisch anspruchsvoller Objekte in der Szene. Diese ersten Tensoren können abgeleitete Merkmalskarten enthalten, die eine Intensitätsmerkmalskarte I, eine Merkmalskarte des linearen Polarisationsgrads (DOLP) ρ und eine Merkmalskarte des linearen Polarisationswinkels (AOLP) ϕ umfassen können, wobei die Merkmalskarte DOLP ρ und die Merkmalskarte AOLP ϕ Beispiele für Polarisationsmerkmalskarten oder Tensoren in Polarisationsdarstellungsräumen sind, die sich auf Merkmalskarten beziehen, die Informationen bezüglich der Polarisation des von einer Polarisationskamera erfassten Lichts codieren. Die Vorteile von Polarisationsmerkmalskarten (oder Polarisationsbildern) werden in den
6A ,6B ,6C ,7A ,7B und7C näher erläutert. -
6A ,6B und6C zeigen beispielhaft erste Tensoren, die Merkmalskarten sind, die von einem Merkmalsextraktor berechnet werden, der konfiguriert ist, um erste Tensoren in ersten Darstellungsräumen zu extrahieren, einschließlich einer Intensitätsmerkmalskarte I in6A im Intensitätsdarstellungsraum, einer Merkmalskarte des linearen Polarisationsgrads (DOLP) ρ in6B im DOLP-Darstellungsraum und einer Merkmalskarte des linearen Polarisationswinkels (AOLP) ϕ in6C im AOLP-Darstellungsraum, gemäß einer Ausführungsform der vorliegenden Erfindung. Zwei Regionen von Interesse - Region (a) mit zwei transparenten Kugeln und Region (b) mit dem Rand eines Trinkglases - werden im Folgenden näher erläutert. -
7A und7B sind jeweils erweiterte Ansichten der mit (a) und (b) in6A ,6B und6C bezeichneten Bereiche.7C ist ein Diagramm, das einen Querschnitt einer in7B gekennzeichneten Kante in der Intensitätsmerkmalskarte I von6A , der DOLP-Merkmalskarte ρ von6B und der AOLP-Merkmalskarte ϕ von6C darstellt. - In der Region (a), die in
6A und auf der linken Seite von7A zu sehen ist, ist die Textur der beiden transparenten Kugeln im Intensitätsbild aufgrund des wechselnden Hintergrunds (z. B. die Plastikbox mit dem Lochraster im Gegensatz zu dem gemusterten Stoff, auf dem die transparenten Kugeln liegen) inkonsistent, was auf Probleme hinweist, die durch neue Umgebungen verursacht werden (z. B. verschiedene Hintergründe, die durch die transparenten Objekte hindurch sichtbar sind). Diese Inkonsistenz kann es einem semantischen Segmentierungs- oder Instanzensegmentierungssystem erschweren, zu erkennen, dass diese sehr unterschiedlich aussehenden Teile des Bildes demselben Objekttyp oder derselben Objektklasse entsprechen (z. B. einem transparenten Ball). - Andererseits ist in dem in
6B und der rechten Seite von7A gezeigten DOLP-Bild die Form der transparenten Objekte leicht erkennbar, und die Hintergrundtextur (z. B. das Muster des Stoffes) erscheint nicht im DOLP-Bild ρ.7A ist eine vergrößerte Ansicht des Region (a) des in6A gezeigten Intensitätsbildes I und des in6B gezeigten DOLP-Bildes p, die zeigt, dass zwei verschiedene Teile der transparenten Kugeln inkonsistente (z. B., unterschiedlich aussehende) Texturen im Intensitätsbild I, aber konsistente (z. B. ähnlich aussehende) Texturen im DOLP-Bild ρ aufweisen, wodurch es für ein semantisches Segmentierungs- oder Instanzsegmentierungssystem wahrscheinlicher wird zu erkennen, dass diese beiden ähnlich aussehenden Texturen beide der gleichen Objektklasse entsprechen, basierend auf dem DOLP-Bild ρ. - In der Region (b), die in
6A und der linken Seite von7B zu sehen ist, ist der Rand des Trinkglases im Intensitätsbild I praktisch unsichtbar (z. B. nicht von dem gemusterten Stoff zu unterscheiden), aber im AOLP-Bild Φ, das in6C und der rechten Seite von7B zu sehen ist, viel heller.7C ist ein Querschnitt der Kante im Bereich der identifizierten Kästchen im Intensitätsbild I und das AOLP-Bild ϕ in7B zeigt, dass die Kante im AOLP ϕ und DOLP ρ einen viel höheren Kontrast hat als im Intensitätsbild I, wodurch es für ein semantisches Segmentierungs- oder Instanzsegmentierungssystem wahrscheinlicher wird, die Kante des transparenten Bildes zu erkennen, basierend auf den AOLP ϕ- und DOLP ρ-Bildern. - Formaler ausgedrückt, beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf das Berechnen erster Tensoren 50 in ersten Darstellungsräumen, einschließlich des Extrahierens erster Tensoren in Polarisationsdarstellungsräumen, wie das Bilden von Polarisationsbildern (oder das Extrahieren abgeleiteter Polarisationsmerkmalskarten) in Verfahrensschritt 410 basierend auf Polarisationsrohbildern, die von einer Polarisationskamera 10 erfasst wurden.
- Lichtstrahlen, die von einem transparenten Objekt kommen, haben zwei Komponenten: einen reflektierten Anteil, der die reflektierte Intensität Ir, das reflektierte DOLP ρr und das reflektierte AOLP ϕr umfasst, und den gebrochenen Anteil, der die gebrochene Intensität It, das gebrochene DOLP ρt und das gebrochene AOLP ϕt umfasst. Die Intensität eines einzelnen Pixels im resultierenden Bild kann wie folgt geschrieben werden:
-
-
- Dementsprechend stellen die obigen Gleichungen (7), (8) und (9) ein Modell zum Bilden erster Tensoren 50 in ersten Darstellungsräumen bereit, die ein Intensitätsbild I, ein DOLP-Bild ρ und ein AOLP-Bild ϕ gemäß einer Ausführungsform der vorliegenden Offenbarung umfassen, wobei die Verwendung von Polarisationsbildern oder -tensoren in Polarisationsdarstellungsräumen (einschließlich eines DOLP-Bildes ρ und eines AOLP-Bildes ϕ auf der Grundlage der Gleichungen (8) und (9)) die zuverlässige Erkennung von optisch anspruchsvollen Objekten ermöglicht, die im Allgemeinen von vergleichbaren Systemen. wie Mask R-CCN Systeme, die nur Intensitätsbilder I als Eingabe verwenden, nicht erkannt werden können.
- Genauer gesagt können erste Tensoren in Polarisationsdarstellungsräumen (unter den abgeleiteten Merkmalskarten 50) wie die Polarisationsbilder DOLP ρ und AOLP ϕ Oberflächentexturen von Objekten aufzeigen, die sonst in einem Intensitäts-I-Bereich texturlos erscheinen würden. Ein transparentes Objekt kann eine Textur haben, die im Intensitätsbereich I unsichtbar ist, weil diese Intensität streng vom Verhältnis Ir /It abhängt (siehe Gleichung (6)). Im Gegensatz zu undurchsichtigen Objekten, bei denen It = 0 ist, transmittieren transparente Objekte den größten Teil des einfallenden Lichts und reflektieren nur einen kleinen Teil des einfallenden Lichts.
- Andererseits hängt im Bereich oder in der Sphäre der Polarisation die Stärke der Oberflächentextur eines transparenten Objekts von ϕr - ϕt und dem Verhältnis von Irρr/Itρt ab (siehe Gleichungen (8) und (9)). Angenommen, dass ϕr ≠ ϕt und θZr ≠ θzt für die Mehrheit der Pixel gelten (z. B. unter der Annahme, dass die Geometrien des Hintergrunds und des transparenten Objekts unterschiedlich sind), und basierend auf den Erkenntnissen, dass ρr der Spiegelreflexionskurve folgt (siehe z. B. Daisuke Miyazaki, Masataka Kagesawa und Katsushi Ikeuchi. Transparent surface modeling from a pair of polarization images IEEE Transactions on Pattern Analysis & Machine Intelligence, (1):73-82, 2004.), d. h. sie ist stark polarisiert, und beim Brewster-Winkel (ca. 60°) ist ρr 1,0 (siehe Gleichung (4)), dann, bei geeigneten Zenitwinkeln, ρr ≥ ρt, und, wenn der Hintergrund diffus ist oder einen niedrigen Zenitwinkel hat, ρr >> ρt. Dieser Effekt ist in
2C zu sehen, wo die Textur der echten transparenten Kugel bei θz ≈ 60° dominiert. Daher gilt in vielen Fällen die folgende Annahme: - Selbst wenn die Textur des transparenten Objekts in der Intensitätsdomäne I unsichtbar erscheint, kann die Textur des transparenten Objekts in der Polarisationsdomäne deutlicher sichtbar sein, z. B. im AOLP ϕ und im DOLP ρ.
- Zurück zu den drei Beispielen für Umstände, die zu Schwierigkeiten führen, wenn man versucht, eine semantische Segmentierung oder eine Instanzsegmentierung nur anhand von Intensitätsbildern durchzuführen:
- Unordnung: Ein Problem bei Unordnung ist die Erkennung der Ränder eines transparenten Objekts, das im Wesentlichen texturlos sein kann (siehe z. B. den Rand des Trinkglases in Region (b) von
6A . Andererseits sind die Textur des Glases und seine Ränder in dem in BILD 6B gezeigten DOLP ρ besser sichtbar und in dem in BILD 6C gezeigten AOLP ϕ noch besser. - Neuartige Umgebungen: Zusätzlich zur Erhöhung der Stärke der Textur des transparenten Objekts reduziert das DOLP p-Bild, wie es z. B. in
6B gezeigt wird, auch die Auswirkungen von diffusen Hintergründen wie strukturiertem oder gemustertem Stoff (z. B. wird der Hintergrundstoff fast vollständig schwarz dargestellt). Dadurch können transparente Objekte in verschiedenen Szenen ähnlich erscheinen, selbst wenn sich die Umgebung von Szene zu Szene ändert. Siehe z. B. Region (a) in6B und7A . - Fälschungen von Ausdrucken: Papier ist flach, was zu einem weitgehend einheitlichen AOLP ϕ und DOLP ρ führt. Transparente Objekte haben eine gewisse Oberflächenvariation, die in AOLP ϕ und DOLP ρ sehr ungleichmäßig erscheint (siehe z. B.
2C ). So können ausgedruckte Fälschungen von transparenten Objekten von echten transparenten Objekten unterschieden werden. -
8A ist ein Blockdiagramm eines Merkmalsextraktors 800 gemäß einer Ausführungsform der vorliegenden Erfindung.8B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zur Extraktion von Merkmalen aus Polarisationsrohbildern darstellt. In der in8A gezeigten Ausführungsform umfasst der Merkmalsextraktor 800 einen Intensitätsextraktor 820, der konfiguriert ist, um ein Intensitätsbild I 52 in einem Intensitätsdarstellungsraum zu extrahieren (z.B. in Übereinstimmung mit Gleichung (7), als ein Beispiel für einen Nicht-Polarisationsdarstellungsraum), und Polarisationsmerkmalsextraktoren 830, die konfiguriert sind, um Merkmale in einem oder mehreren Polarisationsdarstellungsräumen zu extrahieren. Wie in8B gezeigt, kann die Extraktion von Polarisationsbildern im Verfahrensschritt 410 das Extrahieren eines ersten Tensors in einem ersten Polarisationsdarstellungsraum aus den Polarisationsrohbildern aus einem ersten Stokes-Vektor umfassen. Im Verfahrensschritt 412 extrahiert der Merkmalsextraktor 800 ferner einen zweiten Tensor in einem zweiten Polarisationsdarstellungsraum aus den Polarisationsrohbildern. Beispielsweise können die Polarisationsmerkmalsextraktoren 830 einen DOLP-Extraktor 840 umfassen, der konfiguriert ist, um ein DOLP p-Bild 54 zu extrahieren (z. B. ein erstes Polarisationsbild oder einen ersten Tensor gemäß Gleichung (8) mit DOLP als erstem Polarisationsdarstellungsraum), und einen AOLP-Extraktor 860, der konfiguriert ist, um ein AOLP ϕ-Bild 56 zu extrahieren (z. B, ein zweites Polarisationsbild oder einen zweiten Tensor gemäß Gleichung (9), mit AOLP als zweitem Polarisationsdarstellungsraum) aus den gelieferten Polarisationsrohbildern 18 zu extrahieren. Als weiteres Beispiel können die Polarisationsdarstellungsräume Kombinationen von Polarisationsrohbildern in Übereinstimmung mit Stokes-Vektoren enthalten. Als weitere Beispiele können die Polarisationsdarstellungen Modifikationen oder Transformationen von Polarisationsrohbildern in Übereinstimmung mit einem oder mehreren Bildverarbeitungsfiltern (z. B. einem Filter zur Erhöhung des Bildkontrasts oder einem Entrauschungsfilter) enthalten. Die abgeleiteten Merkmalskarten 52, 54 und 56 können dann einem Prädiktor 900 zur weiteren Verarbeitung zugeführt werden, z. B. zur Durchführung von Schlussfolgerungen (z. B. zur Erstellung von Instanzsegmentierungskarten, zur Klassifizierung der Bilder und zur Erstellung von Textbeschreibungen der Bilder). - Während
8B einen Fall illustriert, in dem zwei verschiedene Tensoren aus den Polarisationsrohbildern 18 in zwei verschiedenen Darstellungsräumen extrahiert werden, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. Zum Beispiel wird in einigen Ausführungsformen der vorliegenden Offenbarung genau ein Tensor in einem Polarisationsdarstellungsraum aus den Polarisationsrohbildern 18 extrahiert. Beispielsweise ist ein Polarisationsdarstellungsraum von Rohbildern AOLP und ein anderer ist DOLP (z. B. kann in einigen Anwendungen AOLP für die Erkennung von transparenten Objekten oder anderen optisch anspruchsvollen Objekten ausreichen, wie z. B. durchscheinende, nicht lambertsche, mehrweginduzierende und/oder nicht reflektierende Objekte). In einigen Ausführungsformen der vorliegenden Offenlegung werden aus den Polarisationsrohbildern 18 basierend auf den entsprechenden Stokes-Vektoren mehr als zwei verschiedene Tensoren extrahiert. Wie in8B gezeigt, können beispielsweise n verschiedene Tensoren in n verschiedenen Darstellungsräumen durch den Merkmalsextraktor 800 extrahiert werden, wobei der n-te Tensor im Verfahrensschritt 414 extrahiert wird. - Dementsprechend werden durch die Extraktion von Merkmalen wie Polarisationsmerkmalen oder Polarisationsbildern aus Polarisationsrohbildern 18 erste Tensoren 50 erzeugt, aus denen transparente Objekte oder andere optisch anspruchsvolle Objekte wie lichtdurchlässige Objekte, mehrweginduzierende Objekte, nicht lambertsche Objekte und nichtreflektierende Objekte leichter erkannt oder von anderen Objekten in einer Szene getrennt werden können. In einigen Ausführungsformen können die ersten Tensoren, die vom Merkmalsextraktor 800 extrahiert werden, explizit abgeleitete Merkmale sein (z. B. handgefertigt von einem menschlichen Designer), die sich auf zugrundeliegende physikalische Phänomene beziehen, die sich in den Polarisationsrohbildern zeigen können (z. B. die Berechnung von AOLP- und DOLP-Bildern, wie oben beschrieben). In einigen zusätzlichen Ausführungsformen der vorliegenden Offenlegung extrahiert der Merkmalsextraktor 800 andere Nicht-Polarisationsmerkmalskarten oder Nicht-Polarisationsbilder, wie Intensitätskarten für verschiedene Lichtfarben (z. B. rotes, grünes und blaues Licht) und Transformationen der Intensitätskarten (z. B. Anwendung von Bildverarbeitungsfiltern auf die Intensitätskarten). In einigen Ausführungsformen der vorliegenden Offenbarung kann der Merkmalsextraktor 800 konfiguriert sein, um ein oder mehrere Merkmale zu extrahieren, die automatisch gelernt werden (z. B. Merkmale, die nicht manuell von einem Menschen festgelegt werden), und zwar durch einen durchgängig überwachten Trainingsprozess basierend auf gekennzeichneten Trainingsdaten.
- Berechnung von Vorhersagen, wie z. B. Segmentierungskarten, basierend auf Polarisationsmerkmalen, die aus Polarisationsrohbildern berechnet werden
- Wie oben erwähnt, beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die Bereitstellung erster Tensoren im Polarisationsdarstellungsraum, wie Polarisationsbilder oder Polarisationsmerkmalskarten, wie die DOLP ρ- und AOLP ϕ-Bilder, die durch den Merkmalsextraktor 800 extrahiert wurden, für einen Prädiktor, wie einen semantischen Segmentierungsalgorithmus, um eine multimodale Fusion der Polarisationsbilder durchzuführen, um gelernte Merkmale (oder zweite Tensoren) zu erzeugen, und um Vorhersagen, wie Segmentierungskarten, basierend auf den gelernten Merkmalen oder zweiten Tensoren zu berechnen. Spezifische Ausführungsformen, die sich auf die semantische Segmentierung oder Instanzsegmentierung beziehen, werden im Folgenden ausführlicher beschrieben.
- Generell gibt es viele Ansätze zur semantischen Segmentierung, darunter auch Deep-Instance-Techniken. Die verschiedenen Deep-Instance-Techniken können als auf semantischer Segmentierung basierende Techniken klassifiziert werden (wie z. B. die in: Min Bai und Raquel Urtasun. Deep watershed transform for instance segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5221-5229, 2017; Alexander Kirillov, Evgeny Levinkov, Bjoern Andres, Bogdan Savchynskyy, and Carsten Rother. Instancecut: from edges to instances with multicut. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5008-5017, 2017; and Anurag Arnab and Philip HS Torr. Pixelwise instance segmentation with a dynamically instantiated network. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 441-450, 2017.), vorschlagsbasierte Techniken (wie die in: Kaiming He, Georgia Gkioxari, Piotr Doll'ar, and Ross Girshick. Mask r-cnn. In Proceedings of the IEEE International Conference on Computer Vision, pages 2961-2969, 2017.) und auf rekurrenten neuronalen Netzen (RNN) basierende Verfahren (wie die in: Bemardino Romera-Paredes und Philip Hilaire Sean Torr. Recurrent instance segmentation. In European Conference on Computer Vision, Seiten 312-329. Springer, 2016 und Mengye Ren und Richard S Zemel. End-toend instance segmentation with recurrent attention. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Seiten 6656-6664, 2017.). Ausführungsformen der vorliegenden Offenbarung können auf jede dieser semantischen Segmentierungstechniken angewendet werden.
- Während einige vergleichende Ansätze verkettete Polarisationsrohbilder (z. B. Bilder I_0, I_45, I_90 und I_135 wie oben beschrieben) direkt in ein tiefes Netzwerk einspeisen, ohne daraus erste Tensoren wie Polarisationsbilder oder Polarisationsmerkmalskarten zu extrahieren, haben Modelle, die direkt auf diesen Polarisationsrohbildern als Eingaben trainiert werden, im Allgemeinen Schwierigkeiten, die physikalischen Prioritäten zu erlernen, was zu einer schlechten Leistung führt, wie z. B. dem Versagen bei der Erkennung von Instanzen transparenter Objekte oder anderer optisch anspruchsvoller Objekte. Dementsprechend beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenlegung auf die Verwendung von Polarisationsbildern oder Polarisationsmerkmalskarten (in einigen Ausführungsformen in Kombination mit anderen Merkmalskarten wie Intensitätsmerkmalskarten), um eine Instanzsegmentierung auf Bildern von transparenten Objekten in einer Szene durchzuführen.
- Eine Ausführungsform der vorliegenden Offenlegung, die eine tiefe Instanzsegmentierung verwendet, basiert auf einer Modifikation einer auf Maskenregionen basierenden faltenden neuronalen Netzwerkarchitektur (Mask R-CNN), um eine polarisierte Masken-R-CNN-Architektur zu bilden. Mask R-CNN arbeitet mit einem Eingangsbild x, das ein H×W×3-Tensor von Bildintensitätswerten ist (z. B. Höhe mal Breite mal Farbintensität in roten, grünen und blauen Kanälen), und lässt es durch ein Backbone-Netzwerk laufen: C=B(x). Das Backbone-Netzwerk B(x) ist für die Extraktion nützlicher gelernter Merkmale aus dem Eingabebild verantwortlich und kann eine beliebige Standard-CNN-Architektur wie AlexNet sein (siehe z. B. Krizhevsky, Alex, Ilya Sutskever und Geoffrey E. Hinton. „ImageNet classification with deep convolutional neural networks“. Advances in neural information processing systems. 2012.), VGG (siehe z. B. Simonyan, Karen, und Andrew Zisserman. „Very deep convolutional networks for large-scale image recognition.“ arXiv preprint arXiv:1409.1556 (2014).), ResNet-101 (siehe z.B. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 770-778, 2016.), MobileNet (siehe z. B. Howard, Andrew G., et al. „Mobilenets: Efficient convolutional neural networks for mobile vision applications.“ arXiv preprint arXiv: 1704.04861 (2017).), MobileNetV2 (siehe z. B., Sandler, Mark, et al. „MobileNetV2: Inverted residuals and linear bottlenecks.“ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.), und MobileNetV3 (siehe z. B. Howard, Andrew, et al. „Searching for MobileNetV3.“ Proceedings of the IEEE International Conference on Computer Vision. 2019.)
- Das Backbone-Netzwerk B(x) gibt eine Reihe von Tensoren aus, z. B. C = {C1,C2,C3,C4,C5}, wobei jeder Tensor Ci eine Merkmalskarte mit unterschiedlicher Auflösung darstellt. Diese Merkmalskarten werden dann in einem Merkmalspyramidennetz (FPN) kombiniert (siehe z. B. Tsung-Yi Lin, Piotr Doll'ar, Ross Girshick, Kaiming He, Bharath Hariharan und Serge Belongie. Feature pyramid networks for object detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2117-2125, 2017.), verarbeitet mit einem Region Proposal Network (RPN) (siehe z.B., Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. In Advances in Neural Information Processing Systems, S. 91-99, 2015.), und schließlich durch ein Ausgabe-Teilnetz (siehe z. B. Ren et al. und He et al., oben) geleitet, um Klassen, Bounding Boxes und pixelweise Segmentierungen zu erzeugen. Diese werden mit nicht-maximaler Unterdrückung für die Instanzsegmentierung zusammengeführt.
- Aspekte der Ausführungsformen der vorliegenden Erfindung beziehen sich auf ein Framework zur Nutzung der zusätzlichen Informationen, die in polarisierten Bildern enthalten sind, unter Verwendung von Deep Learning, wobei diese zusätzlichen Informationen nicht in Eingabebildern vorhanden sind, die von vergleichbaren Kameras erfasst werden (z. B. Informationen, die nicht von Standard-Farb- oder Monochromkameras ohne die Verwendung von Polarisatoren oder Polfiltern erfasst werden). Neuronale Netzwerkarchitekturen, die in Übereinstimmung mit dem Framework von Ausführungsformen der vorliegenden Offenbarung konstruiert werden, werden hier als polarisierte faltende neuronale Netzwerke (CNNs) bezeichnet.
- Anwenden dieses Frameworks gemäß einigen Ausführungsformen der vorliegenden Offenbarung beinhaltet drei Änderungen an einer CNN-Architektur:
- (1) Eingabebild: Anwendung der physikalischen Gleichungen der Polarisation, um die Eingabepolarisationsbilder für das CNN zu erstellen, beispielsweise durch Verwendung eines Merkmalsextraktors 800 gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
- (2) Attention-Fusion Polar Backbone: Behandlung des Problems als multimodales Fusionsproblem durch Fusionieren der gelernten Merkmale, die aus den Polarisationsbildern durch ein trainiertes CNN-Backbone berechnet wurden.
- (3) Geometrische Datenerweiterungen: Erweiterung der Trainingsdaten, um die Physik der Polarisation darzustellen.
- Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Stattdessen kann jede Teilmenge der oben genannten drei Änderungen und/oder andere Änderungen als die oben genannten drei Änderungen an einer bestehenden CNN-Architektur vorgenommen werden, um eine polarisierte CNN-Architektur im Rahmen von Ausführungsformen der vorliegenden Offenbarung zu erstellen.
- Ein polarisiertes CNN gemäß einigen Ausführungsformen der vorliegenden Offenbarung kann unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert werden, die konfiguriert sind, um die im Folgenden näher beschriebenen Verfahrensschritte durchzuführen. In der in
3 gezeigten Ausführungsform wird ein polarisiertes CNN als eine Komponente des Prädiktors 900 zur Berechnung einer Segmentierungskarte 20 verwendet, wie in3 gezeigt. -
9 ist ein Blockdiagramm, das eine polarisierte CNN-Architektur gemäß einer Ausführungsform der vorliegenden Erfindung darstellt, wie sie auf ein Masken-Region-basiertes faltendes neuronales Netz (Mask R-CNN) Backbone angewendet wird, wobei zweite Tensoren C (oder Ausgabetensoren wie gelernte Merkmalskarten) verwendet werden, um eine Ausgabevorhersage wie die Segmentierungsmaske 20 zu berechnen. - Während sich einige Ausführungsformen der vorliegenden Offenbarung auf eine semantische Segmentierung oder Instanzsegmentierung unter Verwendung einer polarisierten CNN-Architektur beziehen, die auf ein Mask R-CNN-Backbone angewendet wird, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt, und andere Backbones wie AlexNet, VGG, MobileNet, MobileNetV2, MobileNetV3 und dergleichen können in ähnlicher Weise modifiziert werden.
- In der in
9 gezeigten Ausführungsform werden abgeleitete Merkmalskarten 50 (z. B. einschließlich Eingabepolarisationsbildern wie AOLP ϕ- und DOLP p-Bildern) als Eingaben an ein polarisiertes CNN-Backbone 910 geliefert. In der in9 gezeigten Ausführungsform umfassen die Eingangsmerkmalskarten 50 drei Eingangsbilder: das Intensitätsbild (I) 52, das AOLP (ϕ) 56, das DOLP (p) 54 aus Gleichung (1) als Eingang für die Erkennung eines transparenten Objekts und/oder eines anderen optisch anspruchsvollen Objekts. Diese Bilder werden aus Polarisationsrohbildern 18 (z. B. den Bildern I0, I45, I90 und I135, wie oben beschrieben) berechnet, die so normiert sind, dass sie in einem Bereich liegen (z. B., 8-Bit-Werte im Bereich [0-255]) und in dreikanalige Graustufenbilder umgewandelt werden, um ein einfaches Transfer-Lernen basierend auf Netzwerken zu ermöglichen, die mit dem MSCoCo-Datensatz trainiert wurden (siehe z. B. Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Doll'ar und C Lawrence Zitnick. Microsoft Coco: Gemeinsame Objekte im Kontext. In European Conference on Computer Vision, Seiten 740-755. Springer, 2014.). - In der in
9 gezeigten Ausführungsform wird jede der abgeleiteten Eingangsmerkmalskarten 50 einem separaten Backbone zugeführt: Intensität BI(I) 912, AOLP-Backbone Bϕ(ϕ) 914 und DOLP-Backbone Bρ(ρ) 916. Die CNN-Backbones 912, 914 und 916 berechnen Tensoren für jeden Modus oder „Modus-Tensoren“ (z. B. Merkmalskarten, die basierend auf Parametern berechnet wurden, die während des Trainings oder des Transferlernens des CNN-Backbones gelernt wurden, was weiter unten ausführlicher erörtert wird) Ci,I, Ci,p, Ci,Φ in verschiedenen Maßstäben oder Auflösungen i. Während9 eine Ausführungsform mit fünf verschiedenen Maßstäben i zeigt, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf CNN-Backbones mit einer anderen Anzahl von Maßstäben angewendet werden. - Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf einen räumlich bewussten Aufmerksamkeitsfusionsmechanismus zum Durchführen einer multimodalen Fusion (z. B. Fusion der Merkmalskarten, die aus jedem der verschiedenen Modi oder verschiedenen Typen von Eingangsmerkmalskarten berechnet werden, wie der Intensitätsmerkmalskarte I, der AOLP-Merkmalskarte ϕ und der DOLP-Merkmalskarte p).
- In der in
9 gezeigten Ausführungsform werden beispielsweise die Modustensoren Ci,I, Ci,ρ, Ci,ϕ (Tensoren für jeden Modus), die aus den entsprechenden Backbones BI, Bρ, Bϕ in jedem Maßstab i berechnet wurden, unter Verwendung der Fusionsschichten 922, 923, 924, 925 (zusammen als Fusionsschichten 920 bezeichnet) für die entsprechenden Maßstäbe fusioniert. Beispielsweise ist die Fusionsschicht 922 konfiguriert, um die im Maßstab i=2 berechneten Modustensoren C2,I, C2,ρ, C2,ϕ zu fusionieren, um einen fusionierten Tensor C2 zu berechnen. Ebenso ist die Fusionsschicht 923 konfiguriert, um die im Maßstab i=3 berechneten Modustensoren C3,I, C3,ρ, C3,ϕ zu fusionieren, um einen fusionierten Tensor C3 zu berechnen, und ähnliche Berechnungen können von den Fusionsschichten 924 und 925 durchgeführt werden, um fusionierte Merkmalskarten C4 bzw. C5 zu berechnen, die auf den jeweiligen Modustensoren für ihre Maßstäbe basieren. Die von den Fusionsschichten 920 berechneten fusionierten Tensoren CL (z. B. C2, C3, C4, C5) oder zweiten Tensoren, wie z. B. fusionierte Merkmalskarten, werden dann als Eingabe an ein Vorhersagemodul 950 geliefert, das konfiguriert ist, um eine Vorhersage aus den fusionierten Tensoren zu berechnen, wobei die Vorhersage eine Ausgabe sein kann, wie z. B. eine Segmentierungskarte 20, eine Klassifizierung, eine textuelle Beschreibung oder Ähnliches. -
10 ist ein Blockdiagramm einer i-ten Fusionsschicht unter den Fusionsschichten 920, die mit einem polarisierten CNN gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann. Wie in10 gezeigt, wird in einigen Ausführungsformen der vorliegenden Offenbarung eine Fusionsschicht (z.B., jede der Fusionsschicht 920) unter Verwendung eines Aufmerksamkeitsmoduls implementiert wird, wobei der Prädiktor 900 die gelieferten Eingangstensoren oder Eingangsmerkmalskarten Ci,I, Ci,ρ, Ci,ϕ, die von den CNN-Backbones für die i-te Skalierung berechnet wurden, verkettet, um einen verketteten Tensor 1010 zu erzeugen, wobei der verkettete Tensor 1010 durch einen Satz von trainierten Faltungsschichten oder Aufmerksamkeits-Teilnetzen Ωi für die i-te Skalierung verarbeitet wird. Das Aufmerksamkeits-Teilnetz Ωi gibt ein 3-Kanal-Bild mit der gleichen Höhe und Breite wie die Eingangstensoren aus, und in einigen Ausführungsformen wird auf jedes Pixel des 3-Kanal-Bildes eine Softmax-Funktion angewendet, um pixelweise Aufmerksamkeitsgewichte α für die i-te Skalierung zu berechnen: -
- Dementsprechend ermöglicht die Verwendung eines Aufmerksamkeitsmoduls einem polarisierten CNN gemäß einigen Ausführungsformen der vorliegenden Offenbarung die Gewichtung der verschiedenen Eingaben auf der Skalierung i (z. B., den Intensitäts-I-Tensor oder die gelernte Merkmalskarte Ci,I, den DOLP-Tensor oder die gelernte Merkmalskarte Ci,ρ und den AOLP-Tensor oder die gelernte Merkmalskarte Ci,Φ auf der Skalierung i) basierend darauf wie relevant sie für einen gegebenen Teil der Szene sind, wobei die Relevanz durch das trainierte Aufmerksamkeits-Teilnetz Ωi in Übereinstimmung mit den beschrifteten Trainingsdaten bestimmt wird, die zum Trainieren des polarisierten CNN-Backbones verwendet werden.
-
11 zeigt Beispiele für Aufmerksamkeitsgewichte, die von einem Aufmerksamkeitsmodul gemäß einer Ausführungsform der vorliegenden Erfindung für verschiedene Modustensoren (in verschiedenen ersten Darstellungsräumen) berechnet werden, die aus Polarisationsrohbildern extrahiert wurden, die von einer Polarisationskamera erfasst wurden. Wie in11 gezeigt (siehe z. B. Intensitätsbild 1152), umfasst die von der Polarisationskamera aufgenommene Szene ein transparentes Glas, das auf einem ausgedruckten Foto platziert ist, wobei das ausgedruckte Foto ein transparentes Trinkglas (eine ausgedruckte Fälschung eines Trinkglases) und einige Hintergrundstörungen zeigt. - Wie in
11 zu sehen ist, sind die gelernten Aufmerksamkeitsgewichte 1110 auf den DOLP 1114 und AOLP 1116 im Bereich um das echte Trinkglas am hellsten und vermeiden die mehrdeutige Druckfälschung im Intensitätsbild 1152. Dementsprechend kann das Vorhersagemodul 950 beispielsweise eine Segmentierungsmaske 1120 berechnen, die der Bodenwirklichkeit 1130 sehr nahe kommt (z. B. zeigt die Vorhersage 1120 eine Form, die der Form des transparenten Objekts in der Szene sehr nahe kommt). - In der in
9 gezeigten Ausführungsform ähnelt das Vorhersagemodul 950 im Wesentlichen demjenigen, das in einer Masken-R-CNN-Architektur verwendet wird, und berechnet eine Segmentierungskarte durch Kombinieren der fusionierten Merkmalskarten C unter Verwendung eines Merkmalspyramidennetzwerks (FPN) und eines Regionsvorschlagsnetzwerks (RPN) als Eingaben für ein Ausgabe-Teilnetzwerk zum Berechnen einer Klasse, einer Maske und eines Begrenzungsrahmens (Bbox) für jede Instanz von Objekten, die in den Eingabebildern erkannt werden. Die berechneten Klassen, Masken und Bounding Boxes werden dann mit nicht maximaler Unterdrückung zusammengeführt, um die Instanzsegmentierungskarte (oder Instanzsegmentierungsmaske) 20 zu berechnen. - Wie oben erwähnt, kann eine Polarisations-CNN-Architektur durch Transfer-Lernen basierend auf einem bestehenden tiefen neuronalen Netz trainiert werden, das beispielsweise mit dem MSCoCo-Datensatz und einem Trainingsalgorithmus für ein neuronales Netz, wie Backpropagation und Gradientenabstieg, trainiert wurde. Genauer gesagt wird die Polarisations-CNN-Architektur auf der Grundlage zusätzlicher Trainingsdaten weiter trainiert, die für die Eingaben in das Polarisations-CNN repräsentativ sind (z. B. unter Verwendung von Polarisationsrohbildern zum Berechnen von aus dem Training abgeleiteten Merkmalskarten 50 und Bodenwirklichkitsbezeichnungen, die mit den aus dem Training abgeleiteten Merkmalskarten verbunden sind), wie sie von der Merkmalsextraktionseinrichtung 800 aus den Polarisationsrohbildern 18 extrahiert wurden. Diese zusätzlichen Trainingsdaten können beispielsweise Polarisationsrohbilder umfassen, die von einer Polarisationskamera von einer Vielzahl von Szenen aufgenommen wurden, die transparente Objekte oder andere optisch anspruchsvolle Objekte in einer Vielzahl von verschiedenen Umgebungen enthalten, zusammen mit Bodenwirklichkeits-Segmentierungskarten (z. B. manuell erzeugte Segmentierungskarten), die die Pixel mit der Instanz und Klasse der Objekte kennzeichnen, die in den von der Polarisationskamera aufgenommenen Bildern dargestellt sind.
- Bei kleinen Trainingsdatensätzen bieten affine Transformationen eine Technik zum Erweitern von Trainingsdaten (z. B. Erzeugen zusätzlicher Trainingsdaten aus vorhandenen Trainingsdaten), um eine gute Generalisierungsleistung zu erzielen. Allerdings führt die naive Anwendung affiner Transformationen auf einige der aus dem Training abgeleiteten Merkmalskarten, wie z. B. das AOLP ϕ-Bild, nicht zu einer signifikanten Verbesserung der Leistung des trainierten neuronalen Netzes und in einigen Fällen sogar zu Leistungseinbußen. Dies liegt daran, dass der AOLP ein Winkel im Bereich von 0° bis 360° (oder 0 bis 2π) ist, der die Richtung der elektromagnetischen Welle in Bezug auf den Kamerakoordinatenrahmen darstellt. Die Anwendung eines Verfahrensschritts auf das Ausgangs-Trainingsbild (oder die aus dem Training abgeleitete Merkmalskarte) entspricht einer Drehung der Kamera um ihre Z-Achse (z. B. entlang der optischen Achse des Objektivs 12). Diese Drehung verändert wiederum die Ausrichtung der X-Y-Ebene der Kamera und damit die relative Richtung der elektromagnetischen Welle (z. B. den Winkel der linearen Polarisation). Um dieser Änderung Rechnung zu tragen, werden beim Erweitern der Daten durch Ausführen von affinen Rotationstransformationen um einen Drehwinkel die Pixelwerte des AOLP um denselben Winkel in die entgegengesetzte Richtung gedreht (oder gegenläufig gedreht oder eine Gegenrotation auf die erzeugten zusätzlichen Daten angewendet). Dasselbe Prinzip gilt auch für andere affine Transformationen der Trainingsmerkmalskarten oder der ersten Trainings-Tensoren, wobei sich die auf die Trainingsmerkmalskarten oder die ersten Trainings-Tensoren angewendeten Transformationen je nach der zugrunde liegenden Physik, die die Trainingsmerkmalskarten darstellen, unterscheiden können. Während beispielsweise ein DOLP-Bild von einer Rotationstransformation unbeeinflusst bleiben kann, würde eine Translationstransformation aufgrund des zugrundeliegenden physikalischen Verhaltens der Wechselwirkungen von Licht mit transparenten Objekten oder anderen optisch anspruchsvollen Objekten (z. B. lichtdurchlässigen Objekten, nicht-lambertschen Objekten, mehrweginduzierenden Objekten und nicht-reflektierenden Objekten) entsprechende Änderungen am DOLP erfordern.
- Zusätzlich beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf die Verwendung von CNN und tiefer semantischer Segmentierung, doch sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen der vorliegenden Offenlegung werden die abgeleiteten Merkmalskarten 50 (in einigen Ausführungsformen zusammen mit anderen Merkmalskarten) als Eingaben für andere Arten von Klassifizierungsalgorithmen (z. B. Klassifizierung eines Bildes ohne Lokalisierung der erkannten Objekte), andere Arten von semantischen Segmentierungsalgorithmen oder Bildbeschreibungsalgorithmen verwendet, die darauf trainiert sind, um Natursprachbeschreibungen zu erzeugen. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), ein Markov-Zufallsfeld, ein probabilistisches grafisches Modell usw. In einigen Ausführungsformen der vorliegenden Offenlegung werden die abgeleiteten Merkmalskarten als Eingabe für klassische Bildverarbeitungsalgorithmen wie Merkmalsdetektoren (z. B. skaleninvariante Merkmalstransformation (SIFT), beschleunigte Robustheitsmerkmale (SURF), Gradientenlokalisierungs- und Orientierungshistogramm (GLOH), Histogramm von orientierten Gradienten (HOG), Basiskoeffizienten, Haar-Wavelet-Koeffizienten usw.) verwendet, um erkannte klassische Bildverarbeitungsmerkmale von erkannten transparenten Objekten und/oder anderen optisch anspruchsvollen Objekten in einer Szene auszugeben.
-
12A ,12B ,12C und12D zeigen Segmentierungskarten, die von einem vergleichenden Bildsegmentierungssystem berechnet wurden, Segmentierungskarten, die von einem polarisierten faltenden neuronalen Netz gemäß einer Ausführungsform der vorliegenden Offenbarung berechnet wurden, und Bodenwirklichkeits-Segmentierungskarten (z. B. manuell erstellte Segmentierungskarten). Die12A ,12B ,12C und12D zeigen Beispiele von Experimenten, die auf vier verschiedenen Testsätzen durchgeführt wurden, um die Leistung eines trainierten R-CNN-Modells für polarisierte Masken gemäß einer Ausführungsform der vorliegenden Offenbarung mit einem vergleichbaren R-CNN-Modell für Masken zu vergleichen (das hier als R-CNN-Modell für „Intensitätsmasken“ bezeichnet wird, um anzuzeigen, dass es mit Intensitätsbildern und nicht mit polarisierten Bildern arbeitet). - Das zum Durchführen der Experimente verwendete polarisierte Masken-R-CNN-Modell wurde auf einem Trainingssatz trainiert, der 1.000 Bilder mit über 20.000 Instanzen transparenter Objekte in fünfzehn verschiedenen Umgebungen aus sechs möglichen Klassen transparenter Objekte enthält: Plastikbecher, Plastikschalen, Gläser, Ornamente und andere. Datenerweiterungstechniken wie die oben beschriebenen affinen Transformationen der Eingabebilder und die Anpassung des AOLP auf der Grundlage der Drehung der Bilder werden vor dem Training auf den Trainingssatz angewendet.
- Die vier Testsätze umfassen:
- (a) Ein Clutter-Testsatz enthält 200 Bilder von unübersichtlichen transparenten Objekten in Umgebungen, die dem Trainingssatz ähnlich sind, ohne Ausdrucke.
- (b) Ein Novel Environments (Env) Testset enthält 50 Bilder von ~6 Objekten pro Bild in Umgebungen, die im Trainingsset nicht vorhanden sind. Die Hintergründe enthalten harte Beleuchtung, texturierte Kleidung, glänzende Metalle und mehr.
- (c) Ein Print-Out Spoofs (POS) Testsatz enthält 50 Bilder, die jeweils 1 bis 6 gedruckte Objekte und 1 oder 2 echte Objekte enthalten.
- (d) Ein Robotic Bin Picking (RBP) Testsatz enthält 300 Bilder aus einer Live-Demo unseres Roboterarms, der Ornamente aufnimmt (z. B. dekorative Glasornamente, die an einen Baum gehängt werden können). Dieser Satz wird verwendet, um die Leistung der Instanzsegmentierung in einer realen Anwendung zu testen.
- Für jeden Datensatz wurden zwei Metriken zum Messen der Genauigkeit verwendet: die mittlere durchschnittliche Genauigkeit (mAP) im Bereich von Intersection over Unions (IoUs) 0,5-0,7 (mAP_(.5:.7)) und die mittlere Genauigkeit im Bereich von IoUs 0,75-0,9 (mAP_(.75:.9)). Diese beiden Metriken messen die Grobsegmentierung bzw. die feinkörnige Segmentierung. Um die Generalisierung weiter zu testen, wurden alle Modelle auch bei der Objekterkennung mit der Faster R-CNN Komponente von Mask R-CNN getestet.
- Das polarisierte Masken-R-CNN gemäß den Ausführungsformen der vorliegenden Offenbarung und das Intensitätsmasken-R-CNN wurden an den vier oben genannten Testsätzen getestet. Die durchschnittliche Verbesserung beträgt 14,3 % mAP bei der Grobsegmentierung und 17,2 % mAP bei der feinkörnigen Segmentierung. Die Leistungsverbesserung beim Clutter-Problem ist bei der feinkörnigen Segmentierung deutlicher sichtbar, wo der Leistungsunterschied von ~ 1,1 % mAP auf 4,5 % mAP steigt. Daher scheinen die Polarisationsdaten nützliche Kanteninformationen zu liefern, die es dem Modell ermöglichen, Objekte genauer zu segmentieren. Wie in
12A zu sehen ist, hilft die Polarisation bei der genauen Segmentierung von Unordnung, wo sie im Intensitätsbild nicht eindeutig ist. Als Ergebnis erkennt das polarisierte Masken-R-CNN gemäß einer Ausführungsform der vorliegenden Offenbarung in dem in12A gezeigten Beispiel aus dem Clutter-Testsatz alle sechs Instanzen transparenter Objekte korrekt und stimmt mit der Bodenwirklichkeit überein, während das vergleichbare Intensitätsmasken-R-CNN nur vier der sechs Instanzen transparenter Objekte identifiziert. - Für die Verallgemeinerung auf neue Umgebungen gibt es sowohl für die Feinals auch für die Grobsegmentierung viel größere Gewinne, und daher scheint es, dass die intrinsische Textur eines transparenten Objekts für das CNN in den polarisierten Bildern besser sichtbar ist. Wie in
12B gezeigt, gelingt es dem Intensitätsmasken-R-CNN nicht, sich an die neue Umgebung anzupassen, während das Polarisationsmasken-R-CNN-Modell erfolgreich ist. Während das Polarized Mask R-CNN in der Lage ist, alle Instanzen der übergeordneten Objekte korrekt zu erkennen, gelingt es dem Instanzmasken R-CNN nicht, einige der Instanzen zu erkennen (siehe z. B. die Instanzen in der oberen rechten Ecke des Kastens). - Ausführungsformen der vorliegenden Offenbarung zeigen auch eine ähnlich große Verbesserung der Robustheit gegen Druckfehler und erreichen fast 90% mAP. Somit bieten die Ausführungsformen der vorliegenden Offenbarung eine monokulare Lösung, die robust gegenüber perspektivischen Projektionsproblemen, wie z. B. Druckfälschungen, ist. Wie in
12C gezeigt, wird das Intensitätsmasken-R-CNN durch die gedruckten Papierfälschungen getäuscht. In dem in12C gezeigten Beispiel wird ein echter transparenter Ball auf einem Ausdruck platziert, der drei gefälschte transparente Objekte zeigt. Das Intensitätsmasken-R-CNN identifiziert zwei der ausgedruckten Fälschungen fälschlicherweise als Instanzen. Das polarisierte Masken-R-CNN ist dagegen robust und erkennt nur den echten transparenten Ball als Instanz. - All diese Ergebnisse erklären die drastische Leistungsverbesserung, die für eine unkontrollierte und unübersichtliche Umgebung wie Robotic Bin Picking (RBP) gezeigt wurde. Wie in
12D gezeigt, ist das Intensitätsmasken-R-CNN-Modell bei der robotergestützten Entnahme von Ornamenten unter schlechten Lichtverhältnissen nur in der Lage, fünf der elf Fälle von transparenten Objekten zu erkennen. Andererseits ist das polarisierte R-CNN-Modell in der Lage, sich an diese Umgebung mit schlechten Lichtverhältnissen anzupassen und identifiziert alle elf Fälle korrekt. - Als Beispiel für eine mögliche Anwendung in industriellen Umgebungen wurde ein computerbasierte Sehsystem konfiguriert, um einen Roboterarm zu kontrollieren, um Behälter zu entnehmen, indem eine Segmentierungsmaske an die Steuerung des Roboterarms geliefert wurde. Die Entnahme von transparenten und transluzenten (nicht lambertschen) Objekten ist ein schwieriges und offenes Problem in der Robotik. Um den Nutzen einer qualitativ hochwertigen, robusten Segmentierung zu zeigen, wird die Leistung eines vergleichbaren Intensitätsmasken-R-CNN beim Bereitstellen von Segmentierungskarten für die Steuerung des Roboterarms zur Entnahme von unterschiedlich großen, unübersichtlichen, transparenten Ornamenten mit der Leistung eines polarisierten Masken-R-CNN gemäß einer Ausführungsform der vorliegenden Offenbarung verglichen.
- Eine Bin-Picking-Lösung umfasst drei Komponenten: eine Segmentierungskomponente, um jedes Objekt zu isolieren; eine Tiefenschätzungskomponente; und eine Posenschätzungskomponente. Um die Wirkung der Segmentierung zu verstehen, wird eine einfache Tiefen- und Posenschätzung durchgeführt, bei der sich der Roboterarm in die Mitte der Segmentierung bewegt und anhält, wenn er auf eine Oberfläche trifft. Dies funktioniert in diesem Beispiel, weil die Objekte perfekte Kugeln sind. Eine leicht ungenaue Segmentierung kann zu einer falschen Schätzung und damit zu einer falschen Auswahl führen. Diese Anwendung ermöglicht einen Vergleich zwischen dem polarisierten Masken-R-CNN und dem Intensitätsmasken-R-CNN. Das System wurde in fünf Umgebungen außerhalb des Trainingssets getestet (d. h. unter Bedingungen, die sich von den Umgebungen unterscheiden, in denen die Trainingsbilder aufgenommen wurden). In jeder Umgebung wurden fünfzehn Bälle gestapelt, und die Anzahl der richtigen/falschen (fehlgeschlagenen) Aufnahmen, die der Roboterarm machte, um alle 15 Bälle aufzunehmen (mit einem Saugnapfgreifer), wurde gezählt, wobei die Anzahl der falschen Aufnahmen auf 15 begrenzt wurde. Das R-CNN-basierte Modell auf Basis der Intensitätsmaske war nicht in der Lage, den Behälter regelmäßig zu leeren, da der Roboterarm aufgrund der schlechten Segmentierungsqualität immer wieder bestimmte Bälle nicht aufnahm. Das R-CNN-Modell mit polarisierter Maske gemäß einer Ausführungsform der vorliegenden Offenbarung hingegen wählte alle 90 Bälle erfolgreich aus, wobei auf 6 korrekte Entnahmen etwa 1 falsche Entnahme kam. Diese Ergebnisse bestätigen die Wirkung einer Verbesserung von -20 mAP.
- Wie oben erwähnt, können Ausführungsformen der vorliegenden Offenbarung als Komponenten eines computerbasierten Seh- oder Bildverarbeitungssystems verwendet werden, das in der Lage ist, sowohl transparente als auch undurchsichtige Objekte zu erkennen.
- In einigen Ausführungsformen der vorliegenden Offenbarung wird ein und derselbe Prädiktor oder ein statistisches Modell 900 trainiert, um sowohl transparente Objekte als auch undurchsichtige Objekte zu erkennen (oder um zweite Tensoren C im zweiten Darstellungsraum zu erzeugen), und zwar basierend auf Trainingsdaten, die markierte Beispiele sowohl für transparente Objekte als auch für undurchsichtige Objekte enthalten. In einigen Ausführungsformen wird beispielsweise eine polarisierte CNN-Architektur verwendet, wie die in
9 gezeigte polarisierte Masken-R-CNN-Architektur. In einigen Ausführungsformen wird die in9 gezeigte polarisierte Masken-R-CNN-Architektur weiter modifiziert, indem ein oder mehrere zusätzliche CNN-Backbones hinzugefügt werden, die einen oder mehrere zusätzliche Modustensoren berechnen. Die zusätzlichen CNN-Backbones können basierend auf zusätzlichen ersten Tensoren trainiert werden. In einigen Ausführungsformen umfassen diese zusätzlichen ersten Tensoren Bildkarten, die basierend auf Farbintensitätsbildern berechnet werden (z. B. Intensität des Lichts in verschiedenen Wellenlängen, wie ein rotes Intensitätsbild oder ein roter Farbkanal, ein grünes Intensitätsbild oder ein grüner Farbkanal, und ein blaues Intensitätsbild oder ein blauer Farbkanal). In einigen Ausführungsformen umfassen diese zusätzlichen ersten Tensoren Bildkarten, die basierend auf Kombinationen von Farbintensitätsbildern berechnet wurden. In einigen Ausführungsformen fusionieren die Fusionsmodule 920 alle Modus-Tensoren auf jeder Skalierung von jedem der CNN-Backbones (z. B. einschließlich der zusätzlichen CNN-Backbones). - In einigen Ausführungsformen der vorliegenden Offenbarung umfasst der Prädiktor 900 ein oder mehrere separate statistische Modelle zur Erkennung undurchsichtiger Objekte im Gegensatz zu transparenten Objekten. Beispielsweise kann ein Ensemble von Prädiktoren (z. B. ein erster Prädiktor, der trainiert wurde, um eine erste Segmentierungsmaske für transparente Objekte zu berechnen, und ein zweiter Prädiktor, der trainiert wurde, um eine zweite Segmentierungsmaske für undurchsichtige Objekte zu berechnen) mehrere Vorhersagen berechnen, wobei die separaten Vorhersagen zusammengeführt werden (z. B. wird die erste Segmentierungsmaske mit der zweiten Segmentierungsmaske zusammengeführt, z. B. basierend auf Konfidenzwerten, die mit jedem Pixel der Segmentierungsmaske verbunden sind).
- Wie oben im Hintergrund erwähnt, hat das Ermöglichen von maschinellem Sehen oder computerbasierten Sehsystemen, um transparente Objekte robust zu erkennen, Anwendungen in einer Vielzahl von Umständen, einschließlich Fertigung, Biowissenschaften, selbstfahrende Fahrzeuge, und
- Dementsprechend beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf Systeme und Verfahren zur Erkennung von transparenten Objekten unter Verwendung von computerbasiertem Sehen durch die Verwendung von Merkmalen, die aus dem Polarisationsbereich extrahiert werden. Transparente Objekte haben eine ausgeprägtere Textur in der Polarisationsdomäne als in der Intensitätsdomäne. Diese Textur in der Polarisationstextur kann mit Merkmalsextraktoren und polarisierten CNN-Modellen in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung genutzt werden. Beispiele für die Verbesserung der Leistung der Erkennung transparenter Objekte durch Ausführungsformen der vorliegenden Offenbarung werden durch Vergleiche mit der Instanzsegmentierung unter Verwendung von Mask R-CNN demonstriert (z. B. Vergleiche mit Mask R-CNN unter Verwendung von Intensitätsbildern ohne Verwendung von Polarisationsdaten). Daher sind die Ausführungsformen der vorliegenden Offenbarung
- Während die vorliegende Erfindung in Verbindung mit bestimmten beispielhaften Ausführungsformen beschrieben wurde, ist es zu verstehen, dass die Erfindung nicht auf die offengelegten Ausführungsformen beschränkt ist, sondern im Gegenteil dazu bestimmt ist, verschiedene Modifikationen und gleichwertige Anordnungen abzudecken, die in den Geist und den Anwendungsbereich der beigefügten Ansprüche und deren Äquivalente fallen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 63001445 [0001]
Claims (30)
- Ein computerimplementiertes Verfahren zum Berechnen einer Vorhersage für Bilder einer Szene, wobei das Verfahren umfasst: Empfangen eines oder mehrerer Polarisationsrohbilder einer Szene, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel aufgenommen wurden; Extrahieren eines oder mehrerer erster Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern; und Berechnen einer Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen.
- Das computerimplementierte Verfahren nach
Anspruch 1 , wobei der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein Bild eines linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild eines linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum. - Das computerimplementierte Verfahren nach
Anspruch 1 , wobei der eine oder die mehreren ersten Tensoren ferner einen oder mehrere Nichtpolarisationstensoren in einem oder mehreren Nichtpolarisationsdarstellungsräumen umfassen, und wobei der eine oder die mehreren Nicht-Polarisationstensoren ein oder mehrere Intensitätsbilder im Intensitätsdarstellungsraum umfassen. - Das computerimplementierte Verfahren nach
Anspruch 3 , wobei das eine oder die mehreren Intensitätsbilder umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild. - Das computerimplementierte Verfahren nach
Anspruch 1 ,2 ,3 oder4 , wobei die Vorhersage eine Segmentierungsmaske umfasst. - Das computerimplementierte Verfahren nach
Anspruch 5 , wobei das Berechnen der Vorhersage Zuführen des einen oder der mehreren ersten Tensoren zu einem oder mehreren entsprechenden faltenden neuronalen Netz (CNN) Backbones umfasst, und wobei jedes der einen oder mehreren CNN-Backbones konfiguriert ist, um eine Vielzahl von Modustensoren bei einer Vielzahl von unterschiedlichen Skalierungen zu berechnen. - Das computerimplementierte Verfahren nach
Anspruch 6 , wobei das Berechnen der Vorhersage weiterhin umfasst: Fusionieren der Modustensoren, die mit einer gleichen Skalierung von dem einen oder den mehreren CNN-Backbones berechnet wurden. - Das computerimplementierte Verfahren nach
Anspruch 7 , wobei das Fusionieren der Modentensoren mit der gleichen Skalierung umfasst: Verketten der Modustensoren mit der gleichen Skalierung; Liefern der Modustensoren an ein Aufmerksamkeits-Teilnetz, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und Gewichten der Modustensoren basierend auf der einen oder den mehreren Aufmerksamkeitskarten, um einen fusionierten Tensor für die Skalierung zu berechnen. - Das computerimplementierte Verfahren nach
Anspruch 8 , wobei das Berechnen der Vorhersage weiterhin Zuführen der fusionierten Tensoren, die bei jeder Skalierung berechnet wurden, zu einem Vorhersagemodul umfasst, das konfiguriert ist, um die Segmentierungsmaske zu berechnen. - Das computerimplementierte Verfahren nach
Anspruch 5 , wobei die Segmentierungsmaske an eine Steuerung eines Robotergreifarms geliefert wird. - Das computerimplementierte Verfahren nach
Anspruch 1 ,2 ,3 oder4 , wobei die Vorhersage eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten umfasst. - Das computerimplementierte Verfahren nach
Anspruch 1 ,2 ,3 oder4 , wobei die Vorhersage ein oder mehrere erkannte Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte umfasst, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind. - Das computerimplementierte Verfahren nach
Anspruch 1 , wobei das Berechnen der Vorhersage ein Liefern des einen oder der mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen an ein statistisches Modell umfasst, und wobei das statistische Modell unter Verwendung von Trainingsdaten trainiert ist, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen umfassen. - Das computerimplementierte Verfahren nach
Anspruch 13 , wobei die Trainingsdaten umfassen: erste Ausgangs-Trainingstensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen, die aus von einer Polarisationskamera erfassten Daten berechnet wurden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen, die eine Drehung umfassen, erzeugt wurden. - Das computerimplementierte Verfahren nach
Anspruch 14 , wobei, wenn die zusätzlichen ersten Trainings-Tensoren ein lineares Polarisationswinkelbild (AOLP) umfassen, das Erzeugen der zusätzlichen ersten Trainings-Tensoren umfasst: Drehen der zusätzlichen ersten Trainings-Tensoren um einen Winkel; und Gegendrehen der Pixelwerte des AOLP-Bildes um den Winkel. - Ein computerbasiertes Sehsystem, umfassend: eine Polarisationskamera mit einem Polarisationsfilter; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, der Befehle speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: ein oder mehrere Polarisationsrohbilder einer Szene zu empfangen, wobei die Polarisationsrohbilder mit einem Polarisationsfilter bei einem unterschiedlichen linearen Polarisationswinkel aufgenommen wurden; einen oder mehrere erste Tensoren in einem oder mehreren Polarisationsdarstellungsräumen aus den Polarisationsrohbildern zu extrahieren; und eine Vorhersage bezüglich eines oder mehrerer optisch anspruchsvoller Objekte in der Szene basierend auf dem einen oder den mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen zu berechnen.
- Das computerbasierte Sehsystem nach
Anspruch 16 , wobei der eine oder die mehreren ersten Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein Bild des linearen Polarisationsgrads (DOLP) in einem DOLP-Darstellungsraum; und ein Bild des linearen Polarisationswinkels (AOLP) in einem AOLP-Darstellungsraum. - Das computerbasierte Sehsystem nach
Anspruch 16 , wobei der eine oder die mehreren ersten Tensoren weiterhin einen oder mehrere Nicht-Polarisationstensoren in einem oder mehreren Nicht-Polarisationsdarstellungsräumen umfassen, und wobei der eine oder die mehreren Nicht-Polarisationstensoren ein oder mehrere Intensitätsbilder in einem Intensitätsdarstellungsraum umfassen. - Das computerbasierte Sehsystem nach
Anspruch 18 , wobei das eine oder die mehreren Intensitätsbilder umfassen: ein erstes Farbintensitätsbild; ein zweites Farbintensitätsbild; und ein drittes Farbintensitätsbild. - Das computerbasierte Sehsystem nach
Anspruch 16 ,17 ,18 oder19 , wobei die Vorhersage eine Segmentierungsmaske umfasst. - Das computerbasierte Sehsystem nach
Anspruch 20 , wobei der Speicher ferner Befehle speichert, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen, die Vorhersage zu berechnen, indem der eine oder die mehreren ersten Tensoren an ein oder mehrere entsprechende faltende neuronale Netz (CNN) Backbones geliefert werden, und wobei jedes der einen oder mehreren CNN-Backbones konfiguriert ist, um eine Vielzahl von Modustensoren bei einer Vielzahl von verschiedenen Skalierungen zu berechnen. - Das computerbasierte Sehsystem nach
Anspruch 21 , wobei der Speicher ferner Befehle speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: die Modustensoren zu fusionieren, die von dem einen oder den mehreren CNN-Backbones mit derselben Skalierung berechnet wurden. - Das computerbasierte Sehsystem nach
Anspruch 22 , wobei die Befehle, die den Prozessor veranlassen, die Modustensoren mit der gleichen Skalierung zu fusionieren, Befehle umfassen, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor veranlassen: die Modustensoren mit der gleichen Skalierung zu verketten; die Modustensoren an ein Aufmerksamkeits-Teilnetz zu liefern, um eine oder mehrere Aufmerksamkeitskarten zu berechnen; und die Modustensoren basierend auf der einen oder den mehreren Aufmerksamkeitskarten zu gewichten, um einen fusionierten Tensor für die Skalierung zu berechnen. - Das computerbasierte Sehsystem nach
Anspruch 23 , wobei die Befehle, die den Prozessor veranlassen, die Vorhersage zu berechnen, ferner Befehle umfassen, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, die bei jeder Skalierung berechneten fusionierten Tensoren an ein Vorhersagemodul zu liefern, das konfiguriert ist, um die Segmentierungsmaske zu berechnen. - Das computerbasierte Sehsystem nach
Anspruch 20 , wobei die Segmentierungsmaske an eine Steuerung eines Robotergreifarms geliefert wird. - Das computerbasierte Sehsystem nach
Anspruch 16 ,17 ,18 oder19 , wobei die Vorhersage eine Klassifizierung des einen oder der mehreren Polarisationsrohbilder basierend auf dem einen oder den mehreren optisch anspruchsvollen Objekten umfasst. - Das computerbasierte Sehsystem nach
Anspruch 16 ,17 ,18 oder19 , wobei die Vorhersage ein oder mehrere detektierte Merkmale des einen oder der mehreren optisch anspruchsvollen Objekte umfasst, die in dem einen oder den mehreren Polarisationsrohbildern dargestellt sind. - Das computerbasierte Sehsystem nach
Anspruch 16 , wobei die Befehle zum Berechnen der Vorhersage Befehle umfassen, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, den einen oder die mehreren ersten Tensoren einem statistischen Modell zuzuführen, und wobei das statistische Modell unter Verwendung von Trainingsdaten trainiert ist, die erste Trainings-Tensoren in dem einen oder den mehreren Polarisationsdarstellungsräumen und Kennzeichnungen umfassen. - Das computerbasierte Sehsystem nach
Anspruch 28 , wobei die Trainingsdaten umfassen: erste Ausgangs-Trainingstensoren, die aus von einer Polarisationskamera erfassten Daten berechnet wurden; und zusätzliche erste Trainings-Tensoren, die aus den ersten Ausgangs-Trainingstensoren durch affine Transformationen erzeugt wurden, die eine Drehung umfassen. - Das computerbasierte Sehsystem nach
Anspruch 29 , wobei, wenn die zusätzlichen ersten Trainings-Tensoren ein Bild eines linearen Polarisationswinkels (AOLP) umfassen, das Erzeugen der zusätzlichen ersten Trainings-Tensoren umfasst: Drehen der zusätzlichen ersten Trainings-Tensoren um einen Winkel; und Gegendrehen der Pixelwerte des AOLP-Bildes um den Winkel.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962942113P | 2019-11-30 | 2019-11-30 | |
US62/942,113 | 2019-11-30 | ||
US202063001445P | 2020-03-29 | 2020-03-29 | |
US63/001,445 | 2020-03-29 | ||
PCT/US2020/048604 WO2021108002A1 (en) | 2019-11-30 | 2020-08-28 | Systems and methods for transparent object segmentation using polarization cues |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112020005932T5 true DE112020005932T5 (de) | 2023-01-05 |
Family
ID=76130373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112020005932.4T Pending DE112020005932T5 (de) | 2019-11-30 | 2020-08-28 | Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen |
Country Status (9)
Country | Link |
---|---|
US (2) | US11302012B2 (de) |
EP (1) | EP4066001A4 (de) |
JP (1) | JP7329143B2 (de) |
KR (2) | KR102558903B1 (de) |
CN (1) | CN114787648B (de) |
CA (1) | CA3162710A1 (de) |
DE (1) | DE112020005932T5 (de) |
MX (1) | MX2022005289A (de) |
WO (1) | WO2021108002A1 (de) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11443619B2 (en) * | 2018-05-15 | 2022-09-13 | Kabushiki Kaisha Toshiba | Vehicle recognition apparatus and vehicle recognition method |
CN114746717A (zh) * | 2019-10-07 | 2022-07-12 | 波士顿偏振测定公司 | 利用偏振进行表面法线感测的系统和方法 |
US11797863B2 (en) * | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
US11804042B1 (en) * | 2020-09-04 | 2023-10-31 | Scale AI, Inc. | Prelabeling of bounding boxes in video frames |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11875528B2 (en) * | 2021-05-25 | 2024-01-16 | Fanuc Corporation | Object bin picking with rotation compensation |
US20220410381A1 (en) * | 2021-06-29 | 2022-12-29 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-d geometry and segmentation |
CN115272138B (zh) * | 2022-09-28 | 2023-02-21 | 荣耀终端有限公司 | 图像处理方法及其相关设备 |
US11954898B1 (en) * | 2022-11-10 | 2024-04-09 | Superb Ai Co., Ltd. | Learning method and learning device for performing transfer learning on an object detector that has been trained to detect first object classes such that the object detector is able to detect second object classes, and testing method and testing device using the same |
CN116433532B (zh) * | 2023-05-06 | 2023-09-26 | 合肥工业大学 | 一种基于注意力引导滤波的红外偏振图像融合去噪方法 |
Family Cites Families (1076)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4124798A (en) | 1965-12-09 | 1978-11-07 | Thompson Kenneth B | Optical viewing apparatus |
US4198646A (en) | 1978-10-13 | 1980-04-15 | Hughes Aircraft Company | Monolithic imager for near-IR |
US4323925A (en) | 1980-07-07 | 1982-04-06 | Avco Everett Research Laboratory, Inc. | Method and apparatus for arraying image sensor modules |
JPS5769476A (en) | 1980-10-16 | 1982-04-28 | Fuji Xerox Co Ltd | Reader control system |
JPS5925483A (ja) | 1982-08-04 | 1984-02-09 | Hitachi Denshi Ltd | 固体撮像装置 |
US4652909A (en) | 1982-09-14 | 1987-03-24 | New York Institute Of Technology | Television camera and recording system for high definition television having imagers of different frame rate |
US4460449A (en) | 1983-01-03 | 1984-07-17 | Amerace Corporation | Apparatus for making a tool |
US4888645A (en) | 1984-01-16 | 1989-12-19 | International Business Machines Corporation | Method for encoding and decoding a digital image |
JPS60228564A (ja) | 1984-04-27 | 1985-11-13 | Tokuyama Soda Co Ltd | 液晶性組成物 |
EP0289885A1 (de) | 1987-05-08 | 1988-11-09 | Siemens Aktiengesellschaft | Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt |
JPS6437177A (en) | 1987-08-03 | 1989-02-07 | Canon Kk | Image pickup device |
EP0342419B1 (de) | 1988-05-19 | 1992-10-28 | Siemens Aktiengesellschaft | Verfahren zur Beobachtung einer Szene und Einrichtung zur Durchführung des Verfahrens |
US5070414A (en) | 1988-09-20 | 1991-12-03 | Kabushiki Kaisha Toshiba | Method and apparatus for reading image information formed on material |
JPH02285772A (ja) | 1989-04-26 | 1990-11-26 | Toshiba Corp | 画像読取装置 |
US4962425A (en) | 1988-10-27 | 1990-10-09 | National Research Council Of Canada/Conseil National Deresherches Canada | Photometric device |
US5157499A (en) | 1990-06-29 | 1992-10-20 | Kabushiki Kaisha N A C | High-speed video camera using solid-state image sensor |
US5144448A (en) | 1990-07-31 | 1992-09-01 | Vidar Systems Corporation | Scanning apparatus using multiple CCD arrays and related method |
US5463464A (en) | 1991-10-04 | 1995-10-31 | Kms Fusion, Inc. | Electro-optical system for gauging surface profile deviations using infrared radiation |
US5325449A (en) | 1992-05-15 | 1994-06-28 | David Sarnoff Research Center, Inc. | Method for fusing images and apparatus therefor |
JP3032382B2 (ja) | 1992-07-13 | 2000-04-17 | シャープ株式会社 | デジタル信号のサンプリング周波数変換装置 |
JPH06129851A (ja) | 1992-10-13 | 1994-05-13 | Sumitomo Electric Ind Ltd | ステレオカメラの校正方法 |
US5670935A (en) | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US5712732A (en) | 1993-03-03 | 1998-01-27 | Street; Graham Stewart Brandon | Autostereoscopic image display adjustable for observer location and distance |
US5659424A (en) | 1993-05-25 | 1997-08-19 | Hitachi, Ltd. | Projecting lens and image display device |
JPH0715457A (ja) | 1993-06-18 | 1995-01-17 | Hitachi Ltd | ディジタル通信切替方式 |
US5475422A (en) | 1993-06-21 | 1995-12-12 | Nippon Telegraph And Telephone Corporation | Method and apparatus for reconstructing three-dimensional objects |
US6095989A (en) | 1993-07-20 | 2000-08-01 | Hay; Sam H. | Optical recognition methods for locating eyes |
US6419638B1 (en) | 1993-07-20 | 2002-07-16 | Sam H. Hay | Optical recognition methods for locating eyes |
JP2761837B2 (ja) | 1993-08-19 | 1998-06-04 | 株式会社日鉄エレックス | 立体像表示装置 |
EP0677821A3 (de) | 1994-04-14 | 1996-03-06 | Hewlett Packard Co | Vergrösserung von digitalen Farbbildern zur Nachlaufsynchronisation. |
AU1742895A (en) | 1994-06-09 | 1996-01-04 | Kollmorgen Instrument Corporation | Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line |
US5517236A (en) | 1994-06-22 | 1996-05-14 | Philips Electronics North America Corporation | Video surveillance system |
JPH0877356A (ja) | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
US5703961A (en) | 1994-12-29 | 1997-12-30 | Worldscape L.L.C. | Image transformation and synthesis methods |
US20020195548A1 (en) | 2001-06-06 | 2002-12-26 | Dowski Edward Raymond | Wavefront coding interference contrast imaging systems |
US5629524A (en) | 1995-02-21 | 1997-05-13 | Advanced Scientific Concepts, Inc. | High speed crystallography detector |
EP0739039A3 (de) | 1995-04-18 | 1998-03-04 | Interuniversitair Micro-Elektronica Centrum Vzw | Pixelstruktur, Bildsensor mit diesem Pixel, Struktur und entsprechende zugehörige Schaltung |
US5963664A (en) | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
US5675377A (en) | 1995-06-30 | 1997-10-07 | Telefonaktiebolaget Lm Ericsson | True three-dimensional imaging and display system |
GB2302978A (en) | 1995-07-04 | 1997-02-05 | Sharp Kk | LIquid crystal device |
US5880691A (en) | 1995-11-07 | 1999-03-09 | California Institute Of Technology | Capacitively coupled successive approximation ultra low power analog-to-digital converter |
US5757425A (en) | 1995-12-19 | 1998-05-26 | Eastman Kodak Company | Method and apparatus for independently calibrating light source and photosensor arrays |
JP3502713B2 (ja) | 1995-12-21 | 2004-03-02 | 本田技研工業株式会社 | 車両用距離測定装置 |
JPH09181913A (ja) | 1995-12-26 | 1997-07-11 | Olympus Optical Co Ltd | カメラシステム |
US5793900A (en) | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
US5973844A (en) | 1996-01-26 | 1999-10-26 | Proxemics | Lenslet array systems and methods |
US6124974A (en) | 1996-01-26 | 2000-09-26 | Proxemics | Lenslet array systems and methods |
US6493465B2 (en) | 1996-02-21 | 2002-12-10 | Canon Kabushiki Kaisha | Matching point extracting method and apparatus therefor |
US5832312A (en) | 1996-02-22 | 1998-11-03 | Eastman Kodak Company | Watertight body for accommodating a photographic camera |
US5867584A (en) * | 1996-02-22 | 1999-02-02 | Nec Corporation | Video object tracking method for interactive multimedia applications |
MY118360A (en) | 1996-04-30 | 2004-10-30 | Nippon Telegraph & Telephone | Scheme for detecting shot boundaries in compressed video data using inter-frame/inter field prediction coding and intra-frame/intra-field coding |
US6084979A (en) | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
US6002743A (en) | 1996-07-17 | 1999-12-14 | Telymonde; Timothy D. | Method and apparatus for image acquisition from a plurality of cameras |
GB9616262D0 (en) | 1996-08-02 | 1996-09-11 | Philips Electronics Nv | Post-processing generation of focus/defocus effects for computer graphics images |
US6141048A (en) | 1996-08-19 | 2000-10-31 | Eastman Kodak Company | Compact image capture device |
US6137535A (en) | 1996-11-04 | 2000-10-24 | Eastman Kodak Company | Compact digital camera with segmented fields of view |
US5808350A (en) | 1997-01-03 | 1998-09-15 | Raytheon Company | Integrated IR, visible and NIR sensor and methods of fabricating same |
JPH10232626A (ja) | 1997-02-20 | 1998-09-02 | Canon Inc | 立体画像表示装置 |
JPH10253351A (ja) | 1997-03-14 | 1998-09-25 | Kyocera Corp | 測距装置 |
US5801919A (en) | 1997-04-04 | 1998-09-01 | Gateway 2000, Inc. | Adjustably mounted camera assembly for portable computers |
US6097394A (en) | 1997-04-28 | 2000-08-01 | Board Of Trustees, Leland Stanford, Jr. University | Method and system for light field rendering |
NO304715B1 (no) | 1997-05-06 | 1999-02-01 | Dimensions As | FremgangsmÕte ved bildebehandling |
US6515701B2 (en) | 1997-07-24 | 2003-02-04 | Polaroid Corporation | Focal plane exposure control system for CMOS area image sensors |
US6563537B1 (en) | 1997-07-31 | 2003-05-13 | Fuji Photo Film Co., Ltd. | Image signal interpolation |
JP3430935B2 (ja) | 1997-10-20 | 2003-07-28 | 富士ゼロックス株式会社 | 画像読取装置及びレンズ |
NO305728B1 (no) | 1997-11-14 | 1999-07-12 | Reidar E Tangen | Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme |
JP4243779B2 (ja) | 1997-11-14 | 2009-03-25 | 株式会社ニコン | 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ |
US6069365A (en) | 1997-11-25 | 2000-05-30 | Alan Y. Chow | Optical processor based imaging system |
JPH11242189A (ja) | 1997-12-25 | 1999-09-07 | Olympus Optical Co Ltd | 像形成法、像形成装置 |
US6721008B2 (en) | 1998-01-22 | 2004-04-13 | Eastman Kodak Company | Integrated CMOS active pixel digital camera |
US6833863B1 (en) | 1998-02-06 | 2004-12-21 | Intel Corporation | Method and apparatus for still image capture during video streaming operations of a tethered digital camera |
JPH11223708A (ja) | 1998-02-09 | 1999-08-17 | Nikon Corp | 圧子およびマイクロ光学素子アレイの製造方法 |
US6198577B1 (en) | 1998-03-10 | 2001-03-06 | Glaxo Wellcome, Inc. | Doubly telecentric lens and imaging system for multiwell plates |
US6054703A (en) | 1998-03-20 | 2000-04-25 | Syscan, Inc. | Sensing module for accelerating signal readout from image sensors |
US6160909A (en) | 1998-04-01 | 2000-12-12 | Canon Kabushiki Kaisha | Depth control for stereoscopic images |
KR100307883B1 (ko) | 1998-04-13 | 2001-10-19 | 박호군 | 정합화소수를이용한유사도측정방법및이를구현하기위한장치 |
JP3745117B2 (ja) | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP3931936B2 (ja) | 1998-05-11 | 2007-06-20 | セイコーエプソン株式会社 | マイクロレンズアレイ基板及びその製造方法並びに表示装置 |
JP3284190B2 (ja) | 1998-05-14 | 2002-05-20 | 富士重工業株式会社 | ステレオカメラの画像補正装置 |
US6205241B1 (en) | 1998-06-01 | 2001-03-20 | Canon Kabushiki Kaisha | Compression of stereoscopic images |
US6198852B1 (en) | 1998-06-01 | 2001-03-06 | Yeda Research And Development Co., Ltd. | View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry |
US6137100A (en) | 1998-06-08 | 2000-10-24 | Photobit Corporation | CMOS image sensor with different pixel sizes for different colors |
US6069351A (en) | 1998-07-16 | 2000-05-30 | Intel Corporation | Focal plane processor for scaling information from image sensors |
US6903770B1 (en) | 1998-07-27 | 2005-06-07 | Sanyo Electric Co., Ltd. | Digital camera which produces a single image based on two exposures |
US6340994B1 (en) | 1998-08-12 | 2002-01-22 | Pixonics, Llc | System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems |
DE19838362C1 (de) | 1998-08-18 | 2000-02-10 | Deutsch Zentr Luft & Raumfahrt | Fokalebenenplatte für eine hochauflösende CCD-Kamera |
US6269175B1 (en) | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
US6185529B1 (en) | 1998-09-14 | 2001-02-06 | International Business Machines Corporation | Speech recognition aided by lateral profile image |
US6879735B1 (en) | 1998-09-14 | 2005-04-12 | University Of Utah Reasearch Foundation | Method of digital image enhancement and sharpening |
US6310650B1 (en) | 1998-09-23 | 2001-10-30 | Honeywell International Inc. | Method and apparatus for calibrating a tiled display |
GB2343320B (en) | 1998-10-31 | 2003-03-26 | Ibm | Camera system for three dimentional images and video |
JP3596314B2 (ja) | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
US6570579B1 (en) | 1998-11-09 | 2003-05-27 | Broadcom Corporation | Graphics display system |
US6611289B1 (en) | 1999-01-15 | 2003-08-26 | Yanbin Yu | Digital cameras using multiple sensors with multiple lenses |
JP3875423B2 (ja) | 1999-01-19 | 2007-01-31 | 日本放送協会 | 固体撮像素子およびそれ用の映像信号出力装置 |
US6603513B1 (en) | 1999-02-16 | 2003-08-05 | Micron Technology, Inc. | Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device |
JP3634677B2 (ja) | 1999-02-19 | 2005-03-30 | キヤノン株式会社 | 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体 |
US6563540B2 (en) | 1999-02-26 | 2003-05-13 | Intel Corporation | Light sensor with increased dynamic range |
US20020063807A1 (en) | 1999-04-19 | 2002-05-30 | Neal Margulis | Method for Performing Image Transforms in a Digital Display System |
US6819358B1 (en) | 1999-04-26 | 2004-11-16 | Microsoft Corporation | Error calibration for digital image sensors and apparatus using the same |
US6292713B1 (en) | 1999-05-20 | 2001-09-18 | Compaq Computer Corporation | Robotic telepresence system |
US6864916B1 (en) | 1999-06-04 | 2005-03-08 | The Trustees Of Columbia University In The City Of New York | Apparatus and method for high dynamic range imaging using spatially varying exposures |
JP2001008235A (ja) | 1999-06-25 | 2001-01-12 | Minolta Co Ltd | 3次元データの再構成のための画像入力方法及び多眼式データ入力装置 |
JP2001042042A (ja) | 1999-07-27 | 2001-02-16 | Canon Inc | 撮像装置 |
US6801653B1 (en) | 1999-08-05 | 2004-10-05 | Sony Corporation | Information processing apparatus and method as well as medium |
US7015954B1 (en) | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US6647142B1 (en) | 1999-08-19 | 2003-11-11 | Mitsubishi Electric Research Laboratories, Inc. | Badge identification system |
US6771833B1 (en) | 1999-08-20 | 2004-08-03 | Eastman Kodak Company | Method and system for enhancing digital images |
US6628330B1 (en) | 1999-09-01 | 2003-09-30 | Neomagic Corp. | Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera |
US6358862B1 (en) | 1999-09-02 | 2002-03-19 | Micron Technology, Inc | Passivation integrity improvements |
JP3280001B2 (ja) | 1999-09-16 | 2002-04-30 | 富士重工業株式会社 | ステレオ画像の位置ずれ調整装置 |
US6639596B1 (en) | 1999-09-20 | 2003-10-28 | Microsoft Corporation | Stereo reconstruction from multiperspective panoramas |
US6628845B1 (en) | 1999-10-20 | 2003-09-30 | Nec Laboratories America, Inc. | Method for subpixel registration of images |
US6774941B1 (en) | 1999-10-26 | 2004-08-10 | National Semiconductor Corporation | CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels |
US6671399B1 (en) | 1999-10-27 | 2003-12-30 | Canon Kabushiki Kaisha | Fast epipolar line adjustment of stereo pairs |
US6674892B1 (en) | 1999-11-01 | 2004-01-06 | Canon Kabushiki Kaisha | Correcting an epipolar axis for skew and offset |
JP2001195050A (ja) | 1999-11-05 | 2001-07-19 | Mitsubishi Electric Corp | グラフィックアクセラレータ |
WO2001039512A1 (en) | 1999-11-26 | 2001-05-31 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video to three-dimensional video |
JP3950926B2 (ja) | 1999-11-30 | 2007-08-01 | エーユー オプトロニクス コーポレイション | 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス |
JP3728160B2 (ja) | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
US7068851B1 (en) | 1999-12-10 | 2006-06-27 | Ricoh Co., Ltd. | Multiscale sharpening and smoothing with wavelets |
FI107680B (fi) | 1999-12-22 | 2001-09-14 | Nokia Oyj | Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite |
US6476805B1 (en) | 1999-12-23 | 2002-11-05 | Microsoft Corporation | Techniques for spatial displacement estimation and multi-resolution operations on light fields |
US6502097B1 (en) | 1999-12-23 | 2002-12-31 | Microsoft Corporation | Data structure for efficient access to variable-size data objects |
JP2001194114A (ja) | 2000-01-14 | 2001-07-19 | Sony Corp | 画像処理装置および画像処理方法、並びにプログラム提供媒体 |
EP2311527B1 (de) | 2000-02-18 | 2019-08-28 | William Beaumont Hospital | Computertomographie mittels konischem Strahl mit flachem Bildgeber |
US6523046B2 (en) | 2000-02-25 | 2003-02-18 | Microsoft Corporation | Infrastructure and method for supporting generic multimedia metadata |
JP2001264033A (ja) | 2000-03-17 | 2001-09-26 | Sony Corp | 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体 |
US6571466B1 (en) | 2000-03-27 | 2003-06-03 | Amkor Technology, Inc. | Flip chip image sensor package fabrication method |
JP2001277260A (ja) | 2000-03-30 | 2001-10-09 | Seiko Epson Corp | マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置 |
WO2001075949A1 (fr) | 2000-04-04 | 2001-10-11 | Advantest Corporation | Appareil d'exposition multifaisceau comprenant une lentille electronique multiaxe, et procede de fabrication d'un dispositif a semi-conducteur |
WO2001082593A1 (en) | 2000-04-24 | 2001-11-01 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Apparatus and method for color image fusion |
JP2001337263A (ja) | 2000-05-25 | 2001-12-07 | Olympus Optical Co Ltd | 測距装置 |
JP4501239B2 (ja) | 2000-07-13 | 2010-07-14 | ソニー株式会社 | カメラ・キャリブレーション装置及び方法、並びに、記憶媒体 |
CN1451230A (zh) | 2000-07-21 | 2003-10-22 | 纽约市哥伦比亚大学托管会 | 图象拼合方法与设备 |
AU2001277110A1 (en) | 2000-07-21 | 2002-02-05 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for reducing distortion in images |
US7154546B1 (en) | 2000-08-07 | 2006-12-26 | Micron Technology, Inc. | Pixel optimization for color |
DE60115789T2 (de) | 2000-08-25 | 2006-08-31 | Fuji Photo Film Co., Ltd., Minami-Ashigara | Vorrichtung zur Parallaxbildaufnahme und Parallaxbildverarbeitung |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
US6734905B2 (en) | 2000-10-20 | 2004-05-11 | Micron Technology, Inc. | Dynamic range extension for CMOS image sensors |
US6774889B1 (en) | 2000-10-24 | 2004-08-10 | Microsoft Corporation | System and method for transforming an ordinary computer monitor screen into a touch screen |
US7262799B2 (en) | 2000-10-25 | 2007-08-28 | Canon Kabushiki Kaisha | Image sensing apparatus and its control method, control program, and storage medium |
US6476971B1 (en) | 2000-10-31 | 2002-11-05 | Eastman Kodak Company | Method of manufacturing a microlens array mold and a microlens array |
JP3918499B2 (ja) | 2000-11-01 | 2007-05-23 | セイコーエプソン株式会社 | 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法 |
US6573912B1 (en) | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
US6788338B1 (en) | 2000-11-20 | 2004-09-07 | Petko Dimitrov Dinev | High resolution video camera apparatus having two image sensors and signal processing |
US7490774B2 (en) | 2003-11-13 | 2009-02-17 | Metrologic Instruments, Inc. | Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein |
JP2002171537A (ja) | 2000-11-30 | 2002-06-14 | Canon Inc | 複眼撮像系、撮像装置および電子機器 |
EP1354292B1 (de) | 2000-12-01 | 2012-04-04 | Imax Corporation | Verfahren und Vorrichtung zum Erzeugen hochauflösender Bilder |
WO2002047031A2 (en) | 2000-12-05 | 2002-06-13 | Yeda Research And Development Co. Ltd. | Apparatus and method for alignment of spatial or temporal non-overlapping image sequences |
JP2002252338A (ja) | 2000-12-18 | 2002-09-06 | Canon Inc | 撮像装置及び撮像システム |
JP2002195910A (ja) | 2000-12-26 | 2002-07-10 | Omron Corp | 光学部品の検査装置 |
JP2002209226A (ja) | 2000-12-28 | 2002-07-26 | Canon Inc | 撮像装置 |
US7805680B2 (en) | 2001-01-03 | 2010-09-28 | Nokia Corporation | Statistical metering and filtering of content via pixel-based metadata |
JP3957460B2 (ja) | 2001-01-15 | 2007-08-15 | 沖電気工業株式会社 | 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム |
JP2002250607A (ja) | 2001-02-27 | 2002-09-06 | Optex Co Ltd | 物体検知センサ |
CN2488005Y (zh) | 2001-03-15 | 2002-04-24 | 左耀太 | 型煤燃烧器 |
US6635941B2 (en) | 2001-03-21 | 2003-10-21 | Canon Kabushiki Kaisha | Structure of semiconductor device with improved reliability |
JP2002324743A (ja) | 2001-04-24 | 2002-11-08 | Canon Inc | 露光方法及び装置 |
US6443579B1 (en) | 2001-05-02 | 2002-09-03 | Kenneth Myers | Field-of-view controlling arrangements |
US7235785B2 (en) | 2001-05-11 | 2007-06-26 | Irvine Sensors Corp. | Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array |
US20020167537A1 (en) | 2001-05-11 | 2002-11-14 | Miroslav Trajkovic | Motion-based tracking with pan-tilt-zoom camera |
US20020190991A1 (en) | 2001-05-16 | 2002-12-19 | Daniel Efran | 3-D instant replay system and method |
US7738013B2 (en) | 2001-05-29 | 2010-06-15 | Samsung Electronics Co., Ltd. | Systems and methods for power conservation in a CMOS imager |
WO2002098112A2 (en) | 2001-05-29 | 2002-12-05 | Transchip, Inc. | Patent application cmos imager for cellular applications and methods of using such |
US6482669B1 (en) | 2001-05-30 | 2002-11-19 | Taiwan Semiconductor Manufacturing Company | Colors only process to reduce package yield loss |
US6525302B2 (en) | 2001-06-06 | 2003-02-25 | The Regents Of The University Of Colorado | Wavefront coding phase contrast imaging systems |
US7113634B2 (en) | 2001-07-31 | 2006-09-26 | Canon Kabushiki Kaisha | Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program |
US20030025227A1 (en) | 2001-08-02 | 2003-02-06 | Zograph, Llc | Reproduction of relief patterns |
US8675119B2 (en) | 2001-08-09 | 2014-03-18 | Trustees Of Columbia University In The City Of New York | Adaptive imaging using digital light processing |
EP1289309B1 (de) | 2001-08-31 | 2010-04-21 | STMicroelectronics Srl | Störschutzfilter für Bayermusterbilddaten |
JP3978706B2 (ja) | 2001-09-20 | 2007-09-19 | セイコーエプソン株式会社 | 微細構造体の製造方法 |
JP2003139910A (ja) | 2001-10-30 | 2003-05-14 | Sony Corp | 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置 |
DE10153237A1 (de) | 2001-10-31 | 2003-05-15 | Lfk Gmbh | Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras |
JP3705766B2 (ja) | 2001-11-28 | 2005-10-12 | 独立行政法人科学技術振興機構 | 画像入力装置 |
AU2002357321A1 (en) | 2001-12-18 | 2003-06-30 | University Of Rochester | Multifocal aspheric lens obtaining extended field depth |
US7212228B2 (en) | 2002-01-16 | 2007-05-01 | Advanced Telecommunications Research Institute International | Automatic camera calibration method |
US7302118B2 (en) | 2002-02-07 | 2007-11-27 | Microsoft Corporation | Transformation of images |
US20030179418A1 (en) | 2002-03-19 | 2003-09-25 | Eastman Kodak Company | Producing a defective pixel map from defective cluster pixels in an area array image sensor |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP2003298920A (ja) | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | デジタルカメラ |
US20030188659A1 (en) | 2002-04-05 | 2003-10-09 | Canadian Bank Note Company Limited | Method and apparatus for reproducing a color image based on monochrome images derived therefrom |
AU2003226047A1 (en) | 2002-04-10 | 2003-10-27 | Pan-X Imaging, Inc. | A digital imaging system |
US6856314B2 (en) | 2002-04-18 | 2005-02-15 | Stmicroelectronics, Inc. | Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling |
US6917702B2 (en) | 2002-04-24 | 2005-07-12 | Mitsubishi Electric Research Labs, Inc. | Calibration of multiple cameras for a turntable-based 3D scanner |
JP3567327B2 (ja) | 2002-05-08 | 2004-09-22 | 富士写真光機株式会社 | 撮像レンズ |
US6783900B2 (en) | 2002-05-13 | 2004-08-31 | Micron Technology, Inc. | Color filter imaging array and method of formation |
JP2004048644A (ja) | 2002-05-21 | 2004-02-12 | Sony Corp | 情報処理装置、情報処理システム、及び対話者表示方法 |
JP2003347192A (ja) | 2002-05-24 | 2003-12-05 | Toshiba Corp | エネルギービーム露光方法および露光装置 |
US7013318B2 (en) | 2002-05-29 | 2006-03-14 | Raytheon Company | Method and system for encapsulating cells |
US7129981B2 (en) | 2002-06-27 | 2006-10-31 | International Business Machines Corporation | Rendering system and method for images having differing foveal area and peripheral view area resolutions |
JP2004088713A (ja) | 2002-06-27 | 2004-03-18 | Olympus Corp | 撮像レンズユニットおよび撮像装置 |
JP4147059B2 (ja) | 2002-07-03 | 2008-09-10 | 株式会社トプコン | キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置 |
JP2004037924A (ja) | 2002-07-04 | 2004-02-05 | Minolta Co Ltd | 撮像装置 |
AU2003242974A1 (en) | 2002-07-15 | 2004-02-02 | Magna B.S.P. Ltd. | Method and apparatus for implementing multipurpose monitoring system |
US20040012689A1 (en) | 2002-07-16 | 2004-01-22 | Fairchild Imaging | Charge coupled devices in tiled arrays |
JP2004078296A (ja) | 2002-08-09 | 2004-03-11 | Victor Co Of Japan Ltd | 画像生成装置 |
US20070166447A1 (en) | 2002-08-27 | 2007-07-19 | Select Milk Producers, Inc. | Dairy compositions and method of making |
US7639838B2 (en) | 2002-08-30 | 2009-12-29 | Jerry C Nims | Multi-dimensional images system for digital image input and output |
US7447380B2 (en) | 2002-09-12 | 2008-11-04 | Inoe Technologies, Llc | Efficient method for creating a viewpoint from plurality of images |
US20040050104A1 (en) | 2002-09-18 | 2004-03-18 | Eastman Kodak Company | Forming information transfer lens array |
US20040207836A1 (en) | 2002-09-27 | 2004-10-21 | Rajeshwar Chhibber | High dynamic range optical inspection system and method |
US7084904B2 (en) | 2002-09-30 | 2006-08-01 | Microsoft Corporation | Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time |
US7477781B1 (en) | 2002-10-10 | 2009-01-13 | Dalsa Corporation | Method and apparatus for adaptive pixel correction of multi-color matrix |
US20040075654A1 (en) | 2002-10-16 | 2004-04-22 | Silicon Integrated Systems Corp. | 3-D digital image processor and method for visibility processing for use in the same |
JP4171786B2 (ja) | 2002-10-25 | 2008-10-29 | コニカミノルタホールディングス株式会社 | 画像入力装置 |
US7742088B2 (en) | 2002-11-19 | 2010-06-22 | Fujifilm Corporation | Image sensor and digital camera |
WO2004049736A1 (en) | 2002-11-21 | 2004-06-10 | Vision Iii Imaging, Inc. | Critical alignment of parallax images for autostereoscopic display |
US20040105021A1 (en) | 2002-12-02 | 2004-06-03 | Bolymedia Holdings Co., Ltd. | Color filter patterns for image sensors |
US20040114807A1 (en) | 2002-12-13 | 2004-06-17 | Dan Lelescu | Statistical representation and coding of light field data |
US6878918B2 (en) | 2003-01-09 | 2005-04-12 | Dialdg Semiconductor Gmbh | APS pixel with reset noise suppression and programmable binning capability |
US7340099B2 (en) | 2003-01-17 | 2008-03-04 | University Of New Brunswick | System and method for image fusion |
DE10301941B4 (de) | 2003-01-20 | 2005-11-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kamera und Verfahren zur optischen Aufnahme eines Schirms |
US7379592B2 (en) | 2003-01-21 | 2008-05-27 | United States Of America As Represented By The Secretary Of The Navy | System and method for significant dust detection and enhancement of dust images over land and ocean |
US7005637B2 (en) | 2003-01-31 | 2006-02-28 | Intevac, Inc. | Backside thinning of image array devices |
WO2004068862A1 (ja) | 2003-01-31 | 2004-08-12 | The Circle For The Promotion Of Science And Engineering | 高解像度カラー画像生成方法,高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム |
US7308157B2 (en) | 2003-02-03 | 2007-12-11 | Photon Dynamics, Inc. | Method and apparatus for optical inspection of a display |
EP1599043A4 (de) | 2003-02-04 | 2011-08-10 | Panasonic Corp | Kodeumsetzungsverfahren und vorrichtung dafür |
US7595817B1 (en) | 2003-02-12 | 2009-09-29 | The Research Foundation Of State University Of New York | Linear system based, qualitative independent motion detection from compressed MPEG surveillance video |
US20040165090A1 (en) | 2003-02-13 | 2004-08-26 | Alex Ning | Auto-focus (AF) lens and process |
JP2004266369A (ja) | 2003-02-21 | 2004-09-24 | Sony Corp | 固体撮像装置およびその駆動方法 |
US7106914B2 (en) | 2003-02-27 | 2006-09-12 | Microsoft Corporation | Bayesian image super resolution |
US7148861B2 (en) | 2003-03-01 | 2006-12-12 | The Boeing Company | Systems and methods for providing enhanced vision imaging with decreased latency |
US8218052B2 (en) | 2003-03-07 | 2012-07-10 | Iconix Video, Inc. | High frame rate high definition imaging system and method |
US7218320B2 (en) | 2003-03-13 | 2007-05-15 | Sony Corporation | System and method for capturing facial and body motion |
US6801719B1 (en) | 2003-03-14 | 2004-10-05 | Eastman Kodak Company | Camera using beam splitter with micro-lens image amplification |
US7206449B2 (en) | 2003-03-19 | 2007-04-17 | Mitsubishi Electric Research Laboratories, Inc. | Detecting silhouette edges in images |
US7425984B2 (en) | 2003-04-04 | 2008-09-16 | Stmicroelectronics, Inc. | Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions |
US7373005B2 (en) | 2003-04-10 | 2008-05-13 | Micron Technology, Inc. | Compression system for integrated sensor devices |
US7221445B2 (en) | 2003-04-11 | 2007-05-22 | Metrolaser, Inc. | Methods and apparatus for detecting and quantifying surface characteristics and material conditions using light scattering |
US7097311B2 (en) | 2003-04-19 | 2006-08-29 | University Of Kentucky Research Foundation | Super-resolution overlay in multi-projector displays |
US6958862B1 (en) | 2003-04-21 | 2005-10-25 | Foveon, Inc. | Use of a lenslet array with a vertically stacked pixel array |
US7428330B2 (en) | 2003-05-02 | 2008-09-23 | Microsoft Corporation | Cyclopean virtual imaging via generalized probabilistic smoothing |
SE525665C2 (sv) | 2003-05-08 | 2005-03-29 | Forskarpatent I Syd Ab | Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar |
EP1627526A1 (de) | 2003-05-13 | 2006-02-22 | Xceed Imaging Ltd. | Optisches verfahren und system zur verbesserung der bildauflösung |
JP2004348674A (ja) | 2003-05-26 | 2004-12-09 | Noritsu Koki Co Ltd | 領域検出方法及びその装置 |
US20040239782A1 (en) | 2003-05-30 | 2004-12-02 | William Equitz | System and method for efficient improvement of image quality in cameras |
CN1574894A (zh) | 2003-06-02 | 2005-02-02 | 宾得株式会社 | 多焦距成像装置和具有该多焦距成像装置的移动装置 |
JP2004363478A (ja) | 2003-06-06 | 2004-12-24 | Sanyo Electric Co Ltd | 半導体装置の製造方法 |
KR100539234B1 (ko) | 2003-06-11 | 2005-12-27 | 삼성전자주식회사 | 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법 |
US7362918B2 (en) | 2003-06-24 | 2008-04-22 | Microsoft Corporation | System and method for de-noising multiple copies of a signal |
US6818934B1 (en) | 2003-06-24 | 2004-11-16 | Omnivision International Holding Ltd | Image sensor having micro-lens array separated with trench structures and method of making |
US20050117015A1 (en) | 2003-06-26 | 2005-06-02 | Microsoft Corp. | Foveated panoramic camera system |
US7315630B2 (en) | 2003-06-26 | 2008-01-01 | Fotonation Vision Limited | Perfecting of digital image rendering parameters within rendering devices using face detection |
US7495694B2 (en) | 2004-07-28 | 2009-02-24 | Microsoft Corp. | Omni-directional camera with calibration and up look angle improvements |
US7388609B2 (en) | 2003-07-07 | 2008-06-17 | Zoran Corporation | Dynamic identification and correction of defective pixels |
US7090135B2 (en) | 2003-07-07 | 2006-08-15 | Symbol Technologies, Inc. | Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes |
US20050007461A1 (en) | 2003-07-11 | 2005-01-13 | Novatek Microelectronic Co. | Correction system and method of analog front end |
JP3731589B2 (ja) | 2003-07-18 | 2006-01-05 | ソニー株式会社 | 撮像装置と同期信号発生装置 |
US7233737B2 (en) | 2003-08-12 | 2007-06-19 | Micron Technology, Inc. | Fixed-focus camera module and associated method of assembly |
US20050111705A1 (en) | 2003-08-26 | 2005-05-26 | Roman Waupotitsch | Passive stereo sensing for 3D facial shape biometrics |
US7643703B2 (en) | 2003-09-03 | 2010-01-05 | Battelle Energy Alliance, Llc | Image change detection systems, methods, and articles of manufacture |
JP2007504562A (ja) | 2003-09-04 | 2007-03-01 | サーノフ コーポレーション | 1つの画像から虹彩認証を行う方法および装置 |
JP4015090B2 (ja) | 2003-09-08 | 2007-11-28 | 株式会社東芝 | 立体表示装置および画像表示方法 |
US7161606B2 (en) | 2003-09-08 | 2007-01-09 | Honda Motor Co., Ltd. | Systems and methods for directly generating a view using a layered approach |
JP4020850B2 (ja) | 2003-10-06 | 2007-12-12 | 株式会社東芝 | 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法 |
US7079251B2 (en) | 2003-10-16 | 2006-07-18 | 4D Technology Corporation | Calibration and error correction in multi-channel imaging |
WO2005041562A1 (ja) | 2003-10-22 | 2005-05-06 | Matsushita Electric Industrial Co., Ltd. | 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法 |
US7840067B2 (en) | 2003-10-24 | 2010-11-23 | Arcsoft, Inc. | Color matching and color correction for images forming a panoramic image |
CN1875638A (zh) | 2003-11-11 | 2006-12-06 | 奥林巴斯株式会社 | 多谱图像捕捉装置 |
JP4235539B2 (ja) | 2003-12-01 | 2009-03-11 | 独立行政法人科学技術振興機構 | 画像構成装置及び画像構成方法 |
US7453510B2 (en) | 2003-12-11 | 2008-11-18 | Nokia Corporation | Imaging device |
US7328288B2 (en) | 2003-12-11 | 2008-02-05 | Canon Kabushiki Kaisha | Relay apparatus for relaying communication from CPU to peripheral device |
US20050128509A1 (en) | 2003-12-11 | 2005-06-16 | Timo Tokkonen | Image creating method and imaging device |
JP3859158B2 (ja) | 2003-12-16 | 2006-12-20 | セイコーエプソン株式会社 | マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ |
US7123298B2 (en) | 2003-12-18 | 2006-10-17 | Avago Technologies Sensor Ip Pte. Ltd. | Color image sensor with imaging elements imaging on respective regions of sensor elements |
US7511749B2 (en) | 2003-12-18 | 2009-03-31 | Aptina Imaging Corporation | Color image sensor having imaging element array forming images on respective regions of sensor elements |
US7376250B2 (en) | 2004-01-05 | 2008-05-20 | Honda Motor Co., Ltd. | Apparatus, method and program for moving object detection |
US7496293B2 (en) | 2004-01-14 | 2009-02-24 | Elbit Systems Ltd. | Versatile camera for various visibility conditions |
US7773143B2 (en) | 2004-04-08 | 2010-08-10 | Tessera North America, Inc. | Thin color camera having sub-pixel resolution |
US8134637B2 (en) | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
US7453688B2 (en) | 2004-01-29 | 2008-11-18 | Inventec Corporation | Multimedia device for portable computers |
US7774044B2 (en) | 2004-02-17 | 2010-08-10 | Siemens Medical Solutions Usa, Inc. | System and method for augmented reality navigation in a medical intervention procedure |
US20050185711A1 (en) | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
SE527889C2 (sv) | 2004-03-17 | 2006-07-04 | Thomas Jeff Adamo | Apparat för avbildning av ett objekt |
JP2006047944A (ja) | 2004-03-24 | 2006-02-16 | Fuji Photo Film Co Ltd | 撮影レンズ |
JP4468442B2 (ja) | 2004-03-31 | 2010-05-26 | キヤノン株式会社 | イメージングシステム性能測定 |
US7633511B2 (en) | 2004-04-01 | 2009-12-15 | Microsoft Corporation | Pop-up light field |
JP4665422B2 (ja) | 2004-04-02 | 2011-04-06 | ソニー株式会社 | 撮像装置 |
US8634014B2 (en) | 2004-04-05 | 2014-01-21 | Hewlett-Packard Development Company, L.P. | Imaging device analysis systems and imaging device analysis methods |
US7091531B2 (en) | 2004-04-07 | 2006-08-15 | Micron Technology, Inc. | High dynamic range pixel amplifier |
US8049806B2 (en) | 2004-09-27 | 2011-11-01 | Digitaloptics Corporation East | Thin camera and associated methods |
US7620265B1 (en) | 2004-04-12 | 2009-11-17 | Equinox Corporation | Color invariant image fusion of visible and thermal infrared video |
JP2005303694A (ja) | 2004-04-13 | 2005-10-27 | Konica Minolta Holdings Inc | 複眼撮像装置 |
US7292735B2 (en) | 2004-04-16 | 2007-11-06 | Microsoft Corporation | Virtual image artifact detection |
US7773404B2 (en) | 2005-01-07 | 2010-08-10 | Invisage Technologies, Inc. | Quantum dot optical devices with enhanced gain and sensitivity and methods of making same |
US8218625B2 (en) | 2004-04-23 | 2012-07-10 | Dolby Laboratories Licensing Corporation | Encoding, decoding and representing high dynamic range images |
US20060034531A1 (en) | 2004-05-10 | 2006-02-16 | Seiko Epson Corporation | Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method |
EP1750584B1 (de) | 2004-05-14 | 2020-10-14 | Philips Intellectual Property & Standards GmbH | System und verfahren für die diagnose von brustkrebs |
JP4610411B2 (ja) | 2004-05-17 | 2011-01-12 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | 物体を含むシーンの様式化された画像を生成する方法 |
US7355793B2 (en) | 2004-05-19 | 2008-04-08 | The Regents Of The University Of California | Optical system applicable to improving the dynamic range of Shack-Hartmann sensors |
WO2006083277A2 (en) | 2004-05-25 | 2006-08-10 | Sarnoff Corporation | Low latency pyramid processor for image processing systems |
JP2005354124A (ja) | 2004-06-08 | 2005-12-22 | Seiko Epson Corp | 複数の低画素密度画像からの高画素密度画像の生成 |
US20060013318A1 (en) | 2004-06-22 | 2006-01-19 | Jennifer Webb | Video error detection, recovery, and concealment |
US7330593B2 (en) | 2004-06-25 | 2008-02-12 | Stmicroelectronics, Inc. | Segment based image matching method and system |
JP4479373B2 (ja) | 2004-06-28 | 2010-06-09 | ソニー株式会社 | イメージセンサ |
JP4408755B2 (ja) | 2004-06-28 | 2010-02-03 | Necエレクトロニクス株式会社 | デインタリーブ装置、移動通信端末及びデインタリーブ方法 |
US7447382B2 (en) | 2004-06-30 | 2008-11-04 | Intel Corporation | Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation |
JP2006033228A (ja) | 2004-07-14 | 2006-02-02 | Victor Co Of Japan Ltd | 画像撮像装置 |
JP2006033493A (ja) | 2004-07-16 | 2006-02-02 | Matsushita Electric Ind Co Ltd | 撮像装置 |
US7189954B2 (en) | 2004-07-19 | 2007-03-13 | Micron Technology, Inc. | Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers |
JP2006033570A (ja) | 2004-07-20 | 2006-02-02 | Olympus Corp | 画像生成装置 |
US8027531B2 (en) | 2004-07-21 | 2011-09-27 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for capturing a scene using staggered triggering of dense camera arrays |
GB0416496D0 (en) | 2004-07-23 | 2004-08-25 | Council Of The Central Lab Of | Imaging device |
US7068432B2 (en) | 2004-07-27 | 2006-06-27 | Micron Technology, Inc. | Controlling lens shape in a microlens array |
US20060023197A1 (en) | 2004-07-27 | 2006-02-02 | Joel Andrew H | Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media |
DE102004036469A1 (de) | 2004-07-28 | 2006-02-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung |
US7333652B2 (en) | 2004-08-03 | 2008-02-19 | Sony Corporation | System and method for efficiently performing a depth map recovery procedure |
US20060028476A1 (en) | 2004-08-03 | 2006-02-09 | Irwin Sobel | Method and system for providing extensive coverage of an object using virtual cameras |
JP2006050263A (ja) | 2004-08-04 | 2006-02-16 | Olympus Corp | 画像生成方法および装置 |
EP1784988A1 (de) | 2004-08-06 | 2007-05-16 | University of Washington | Rasterlichtdisplays mit betrachtungsdistanz variabler fixierung |
US7430339B2 (en) | 2004-08-09 | 2008-09-30 | Microsoft Corporation | Border matting by dynamic programming |
US7609302B2 (en) | 2004-08-11 | 2009-10-27 | Micron Technology, Inc. | Correction of non-uniform sensitivity in an image array |
US7645635B2 (en) | 2004-08-16 | 2010-01-12 | Micron Technology, Inc. | Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages |
US7061693B2 (en) | 2004-08-16 | 2006-06-13 | Xceed Imaging Ltd. | Optical method and system for extended depth of focus |
WO2006036398A2 (en) | 2004-08-23 | 2006-04-06 | Sarnoff Corporation | Method and apparatus for producing a fused image |
WO2006026354A2 (en) | 2004-08-25 | 2006-03-09 | Newport Imaging Corporation | Apparatus for multiple camera devices and method of operating same |
US7795577B2 (en) | 2004-08-25 | 2010-09-14 | Richard Ian Olsen | Lens frame and optical focus assembly for imager module |
US8124929B2 (en) | 2004-08-25 | 2012-02-28 | Protarius Filo Ag, L.L.C. | Imager module optical focus and assembly method |
US7564019B2 (en) | 2005-08-25 | 2009-07-21 | Richard Ian Olsen | Large dynamic range cameras |
US7916180B2 (en) | 2004-08-25 | 2011-03-29 | Protarius Filo Ag, L.L.C. | Simultaneous multiple field of view digital cameras |
CN100489599C (zh) | 2004-08-26 | 2009-05-20 | 财团法人秋田企业活性化中心 | 液晶透镜 |
JP4057597B2 (ja) | 2004-08-26 | 2008-03-05 | 独立行政法人科学技術振興機構 | 光学素子 |
US20060046204A1 (en) | 2004-08-31 | 2006-03-02 | Sharp Laboratories Of America, Inc. | Directly patternable microlens |
JP2006080852A (ja) | 2004-09-09 | 2006-03-23 | Olympus Corp | 画像処理装置、電子カメラ、スキャナ、画像処理方法、および画像処理プログラム |
US20060055811A1 (en) | 2004-09-14 | 2006-03-16 | Frtiz Bernard S | Imaging system having modules with adaptive optical elements |
US7145124B2 (en) | 2004-09-15 | 2006-12-05 | Raytheon Company | Multispectral imaging chip using photonic crystals |
JP4202991B2 (ja) | 2004-09-29 | 2008-12-24 | 株式会社東芝 | 立体画像用データの記録方法及び表示再生方法 |
JP3977368B2 (ja) | 2004-09-30 | 2007-09-19 | クラリオン株式会社 | 駐車支援システム |
DE102004049676A1 (de) | 2004-10-12 | 2006-04-20 | Infineon Technologies Ag | Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium |
JP2006119368A (ja) | 2004-10-21 | 2006-05-11 | Konica Minolta Opto Inc | 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器 |
JP4534715B2 (ja) | 2004-10-22 | 2010-09-01 | 株式会社ニコン | 撮像装置および画像処理プログラム |
DE102004052994C5 (de) | 2004-11-03 | 2010-08-26 | Vistec Electron Beam Gmbh | Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung |
KR100603601B1 (ko) | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
US7598996B2 (en) | 2004-11-16 | 2009-10-06 | Aptina Imaging Corporation | System and method for focusing a digital camera |
WO2006060746A2 (en) | 2004-12-03 | 2006-06-08 | Infrared Solutions, Inc. | Visible light and ir combined image camera with a laser pointer |
JP2006165795A (ja) | 2004-12-03 | 2006-06-22 | Canon Inc | 画像形成装置およびその方法 |
US7483065B2 (en) | 2004-12-15 | 2009-01-27 | Aptina Imaging Corporation | Multi-lens imaging systems and methods using optical filters having mosaic patterns |
US7728878B2 (en) | 2004-12-17 | 2010-06-01 | Mitsubishi Electric Research Labortories, Inc. | Method and system for processing multiview videos for view synthesis using side information |
US8854486B2 (en) | 2004-12-17 | 2014-10-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
US20060139475A1 (en) | 2004-12-23 | 2006-06-29 | Esch John W | Multiple field of view camera arrays |
US20110102553A1 (en) | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
CN101198964A (zh) | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
US7073908B1 (en) | 2005-01-11 | 2006-07-11 | Anthony Italo Provitola | Enhancement of depth perception |
US7767949B2 (en) | 2005-01-18 | 2010-08-03 | Rearden, Llc | Apparatus and method for capturing still images and video using coded aperture techniques |
US7671321B2 (en) | 2005-01-18 | 2010-03-02 | Rearden, Llc | Apparatus and method for capturing still images and video using coded lens imaging techniques |
US7602997B2 (en) | 2005-01-19 | 2009-10-13 | The United States Of America As Represented By The Secretary Of The Army | Method of super-resolving images |
US8700729B2 (en) | 2005-01-21 | 2014-04-15 | Robin Dua | Method and apparatus for managing credentials through a wireless network |
AU2006210845B2 (en) * | 2005-02-02 | 2011-08-11 | Intergraph Software Technologies Company | Real-time image detection using polarization data |
US7408627B2 (en) | 2005-02-08 | 2008-08-05 | Canesta, Inc. | Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture |
US9597024B2 (en) * | 2005-02-09 | 2017-03-21 | Medici Instruments Llc | Methods and apparatuses for noninvasive determinations of analytes |
US7965314B1 (en) | 2005-02-09 | 2011-06-21 | Flir Systems, Inc. | Foveal camera systems and methods |
US7561191B2 (en) | 2005-02-18 | 2009-07-14 | Eastman Kodak Company | Camera phone using multiple lenses and image sensors to provide an extended zoom range |
US20060187322A1 (en) | 2005-02-18 | 2006-08-24 | Janson Wilbert F Jr | Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range |
ATE518113T1 (de) | 2005-03-11 | 2011-08-15 | Creaform Inc | Selbstreferenziertes system und vorrichtung zum dreidimensionalen scannen |
JP2006258930A (ja) | 2005-03-15 | 2006-09-28 | Nikon Corp | マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法 |
WO2006102181A1 (en) | 2005-03-21 | 2006-09-28 | Massachusetts Institute Of Technology (Mit) | Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array |
JPWO2006100903A1 (ja) | 2005-03-23 | 2008-08-28 | 松下電器産業株式会社 | 車載撮像装置 |
CN101147392B (zh) | 2005-03-24 | 2012-05-09 | 松下电器产业株式会社 | 成像装置及其中使用的透镜阵列 |
US7297917B2 (en) | 2005-03-24 | 2007-11-20 | Micron Technology, Inc. | Readout technique for increasing or maintaining dynamic range in image sensors |
US7683950B2 (en) | 2005-04-26 | 2010-03-23 | Eastman Kodak Company | Method and apparatus for correcting a channel dependent color aberration in a digital image |
US7956871B2 (en) | 2005-04-28 | 2011-06-07 | Samsung Electronics Co., Ltd. | Color disparity correction in image sensors methods and circuits |
US7656428B2 (en) | 2005-05-05 | 2010-02-02 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Imaging device employing optical motion sensor as gyroscope |
US7876874B2 (en) | 2005-05-18 | 2011-01-25 | Hitachi Medical Corporation | Radiographing apparatus and image processing program |
US8411182B2 (en) | 2005-06-02 | 2013-04-02 | Xerox Corporation | System for controlling integration times of photosensors in an imaging device |
US7968888B2 (en) | 2005-06-08 | 2011-06-28 | Panasonic Corporation | Solid-state image sensor and manufacturing method thereof |
JP2006345233A (ja) | 2005-06-09 | 2006-12-21 | Fujifilm Holdings Corp | 撮像装置及びデジタルカメラ |
KR100813961B1 (ko) | 2005-06-14 | 2008-03-14 | 삼성전자주식회사 | 영상 수신장치 |
US7364306B2 (en) | 2005-06-20 | 2008-04-29 | Digital Display Innovations, Llc | Field sequential light source modulation for a digital display system |
JP4826152B2 (ja) | 2005-06-23 | 2011-11-30 | 株式会社ニコン | 画像合成方法及び撮像装置 |
US20070102622A1 (en) | 2005-07-01 | 2007-05-10 | Olsen Richard I | Apparatus for multiple camera devices and method of operating same |
CN103110635A (zh) | 2005-07-04 | 2013-05-22 | 海波因特制药有限责任公司 | 组胺h3受体拮抗剂 |
JP4577126B2 (ja) | 2005-07-08 | 2010-11-10 | オムロン株式会社 | ステレオ対応づけのための投光パターンの生成装置及び生成方法 |
WO2007014293A1 (en) | 2005-07-25 | 2007-02-01 | The Regents Of The University Of California | Digital imaging system and method to produce mosaic images |
US8384763B2 (en) | 2005-07-26 | 2013-02-26 | Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
WO2007013250A1 (ja) | 2005-07-26 | 2007-02-01 | Matsushita Electric Industrial Co., Ltd. | 複眼方式の撮像装置 |
US7969488B2 (en) | 2005-08-03 | 2011-06-28 | Micron Technologies, Inc. | Correction of cluster defects in imagers |
US7929801B2 (en) | 2005-08-15 | 2011-04-19 | Sony Corporation | Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory |
US20070041391A1 (en) | 2005-08-18 | 2007-02-22 | Micron Technology, Inc. | Method and apparatus for controlling imager output data rate |
US20070040922A1 (en) | 2005-08-22 | 2007-02-22 | Micron Technology, Inc. | HDR/AB on multi-way shared pixels |
US7964835B2 (en) | 2005-08-25 | 2011-06-21 | Protarius Filo Ag, L.L.C. | Digital cameras with direct luminance and chrominance detection |
US20070258006A1 (en) | 2005-08-25 | 2007-11-08 | Olsen Richard I | Solid state camera optics frame and assembly |
US20070083114A1 (en) | 2005-08-26 | 2007-04-12 | The University Of Connecticut | Systems and methods for image resolution enhancement |
JP4804856B2 (ja) | 2005-09-29 | 2011-11-02 | 富士フイルム株式会社 | 単焦点レンズ |
US8009209B2 (en) | 2005-09-30 | 2011-08-30 | Simon Fraser University | Methods and apparatus for detecting defects in imaging arrays by image analysis |
EP1941314A4 (de) | 2005-10-07 | 2010-04-14 | Univ Leland Stanford Junior | Anordnungen und ansätze für die mikroskopie |
JP4773179B2 (ja) | 2005-10-14 | 2011-09-14 | 富士フイルム株式会社 | 撮像装置 |
US8300085B2 (en) | 2005-10-14 | 2012-10-30 | Microsoft Corporation | Occlusion handling in stereo imaging |
US7806604B2 (en) | 2005-10-20 | 2010-10-05 | Honeywell International Inc. | Face detection and tracking in a wide field of view |
KR100730406B1 (ko) | 2005-11-16 | 2007-06-19 | 광운대학교 산학협력단 | 중간 요소 영상을 이용한 입체 영상 표시 장치 |
FR2893428B1 (fr) * | 2005-11-17 | 2008-01-11 | Univ Bourgogne | Procede et systeme de reconstruction de surfaces d'objets par imagerie de polarisation |
JP4389865B2 (ja) | 2005-11-17 | 2009-12-24 | ソニー株式会社 | 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置 |
JP4943695B2 (ja) | 2005-11-21 | 2012-05-30 | 富士フイルム株式会社 | 多焦点カメラの撮影光学系 |
US7599547B2 (en) | 2005-11-30 | 2009-10-06 | Microsoft Corporation | Symmetric stereo model for handling occlusion |
US8275195B2 (en) | 2005-11-30 | 2012-09-25 | Telecom Italia S.P.A. | Method for determining scattered disparity fields in stereo vision |
JP4516516B2 (ja) | 2005-12-07 | 2010-08-04 | 本田技研工業株式会社 | 人物検出装置、人物検出方法及び人物検出プログラム |
TWI296480B (en) | 2005-12-19 | 2008-05-01 | Quanta Comp Inc | Image camera of an electronic device |
JP4501855B2 (ja) | 2005-12-22 | 2010-07-14 | ソニー株式会社 | 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム |
JP2007180730A (ja) | 2005-12-27 | 2007-07-12 | Eastman Kodak Co | デジタルカメラおよびデータ管理方法 |
KR100789441B1 (ko) | 2005-12-30 | 2007-12-28 | 엘에스산전 주식회사 | 인버터의 전류 검출 장치 및 방법 |
JP2009522591A (ja) | 2005-12-30 | 2009-06-11 | ノキア コーポレイション | 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置 |
US7855786B2 (en) | 2006-01-09 | 2010-12-21 | Bae Systems Spectral Solutions Llc | Single camera multi-spectral imager |
US7675080B2 (en) | 2006-01-10 | 2010-03-09 | Aptina Imaging Corp. | Uniform color filter arrays in a moat |
US8194169B2 (en) | 2006-01-20 | 2012-06-05 | Panasonic Corporation | Compound eye camera module and method of producing the same |
DE102006004802B4 (de) | 2006-01-23 | 2008-09-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems |
US7856125B2 (en) | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
JP4834412B2 (ja) | 2006-02-03 | 2011-12-14 | 富士フイルム株式会社 | 固体撮像装置およびこれを用いた電子内視鏡 |
US8075604B2 (en) | 2006-02-16 | 2011-12-13 | Warsaw Orthopedic, Inc. | Multi-thread bone screw and method |
US20070201859A1 (en) | 2006-02-24 | 2007-08-30 | Logitech Europe S.A. | Method and system for use of 3D sensors in an image capture device |
US7391572B2 (en) | 2006-03-01 | 2008-06-24 | International Business Machines Corporation | Hybrid optical/electronic structures fabricated by a common molding process |
US7924483B2 (en) | 2006-03-06 | 2011-04-12 | Smith Scott T | Fused multi-array color image sensor |
DE102006011707B4 (de) | 2006-03-14 | 2010-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme |
US7616254B2 (en) | 2006-03-16 | 2009-11-10 | Sony Corporation | Simple method for calculating camera defocus from an image scene |
US8360574B2 (en) | 2006-03-20 | 2013-01-29 | High Performance Optics, Inc. | High performance selective light wavelength filtering providing improved contrast sensitivity |
US7606484B1 (en) | 2006-03-23 | 2009-10-20 | Flir Systems, Inc. | Infrared and near-infrared camera hyperframing |
JP4615468B2 (ja) | 2006-03-23 | 2011-01-19 | 富士フイルム株式会社 | 撮影装置 |
CN101046882A (zh) | 2006-03-27 | 2007-10-03 | 谷京陆 | 可直接输出的混合分辨率图像制作技术 |
US7342212B2 (en) | 2006-03-31 | 2008-03-11 | Micron Technology, Inc. | Analog vertical sub-sampling in an active pixel sensor (APS) image sensor |
US7916934B2 (en) | 2006-04-04 | 2011-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for acquiring, encoding, decoding and displaying 3D light fields |
US8044994B2 (en) | 2006-04-04 | 2011-10-25 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for decoding and displaying 3D light fields |
TW200740212A (en) | 2006-04-10 | 2007-10-16 | Sony Taiwan Ltd | A stitching accuracy improvement method with lens distortion correction |
US20070242141A1 (en) | 2006-04-14 | 2007-10-18 | Sony Corporation And Sony Electronics Inc. | Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor |
CN101064780B (zh) | 2006-04-30 | 2012-07-04 | 台湾新力国际股份有限公司 | 利用透镜失真校正的影像接合准确度改善方法及装置 |
US20070263114A1 (en) | 2006-05-01 | 2007-11-15 | Microalign Technologies, Inc. | Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging |
US7580620B2 (en) | 2006-05-08 | 2009-08-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for deblurring images using optimized temporal coding patterns |
WO2007129326A2 (en) * | 2006-05-09 | 2007-11-15 | Technion Research & Development Foundation Ltd | Imaging systems and methods for recovering object visibility |
US9736346B2 (en) | 2006-05-09 | 2017-08-15 | Stereo Display, Inc | Imaging system improving image resolution of the system with low resolution image sensor |
US7889264B2 (en) | 2006-05-12 | 2011-02-15 | Ricoh Co., Ltd. | End-to-end design of superresolution electro-optic imaging systems |
US7916362B2 (en) | 2006-05-22 | 2011-03-29 | Eastman Kodak Company | Image sensor with improved light sensitivity |
US8139142B2 (en) | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
IES20070229A2 (en) | 2006-06-05 | 2007-10-03 | Fotonation Vision Ltd | Image acquisition method and apparatus |
US8081207B2 (en) | 2006-06-06 | 2011-12-20 | Point Grey Research Inc. | High accuracy stereo camera |
US20070177004A1 (en) | 2006-06-08 | 2007-08-02 | Timo Kolehmainen | Image creating method and imaging device |
US20070291995A1 (en) | 2006-06-09 | 2007-12-20 | Rivera Paul G | System, Method, and Apparatus for Preventing Identity Fraud Associated With Payment and Identity Cards |
JP4631811B2 (ja) | 2006-06-12 | 2011-02-16 | 株式会社日立製作所 | 撮像装置 |
JP5106870B2 (ja) | 2006-06-14 | 2012-12-26 | 株式会社東芝 | 固体撮像素子 |
FR2902530A1 (fr) | 2006-06-19 | 2007-12-21 | St Microelectronics Rousset | Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme |
TWI362550B (en) | 2007-06-21 | 2012-04-21 | Ether Precision Inc | The method for manufacturing the image captures unit |
US7925117B2 (en) | 2006-06-27 | 2011-04-12 | Honeywell International Inc. | Fusion of sensor data and synthetic data to form an integrated image |
FR2903155B1 (fr) | 2006-07-03 | 2008-10-17 | Poclain Hydraulics Ind Soc Par | Circuit hydraulique de recuperation d'energie |
KR100793369B1 (ko) | 2006-07-06 | 2008-01-11 | 삼성전자주식회사 | 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법 |
US20080024683A1 (en) | 2006-07-31 | 2008-01-31 | Niranjan Damera-Venkata | Overlapped multi-projector system with dithering |
JP2008039852A (ja) | 2006-08-01 | 2008-02-21 | Agc Techno Glass Co Ltd | ガラス光学素子及びその製造方法 |
US20080030592A1 (en) | 2006-08-01 | 2008-02-07 | Eastman Kodak Company | Producing digital image with different resolution portions |
US8406562B2 (en) | 2006-08-11 | 2013-03-26 | Geo Semiconductor Inc. | System and method for automated calibration and correction of display geometry and color |
US20080044170A1 (en) | 2006-08-16 | 2008-02-21 | Choon Hwee Yap | Image Capturing System And Method Of Operating The Same |
ATE479980T1 (de) | 2006-08-24 | 2010-09-15 | Valeo Vision | Verfahren zur bestimmung der durchfahrt eines fahrzeugs durch eine engen durchlass |
US8687087B2 (en) | 2006-08-29 | 2014-04-01 | Csr Technology Inc. | Digital camera with selectively increased dynamic range by control of parameters during image acquisition |
US8306063B2 (en) | 2006-08-29 | 2012-11-06 | EXFO Services Assurance, Inc. | Real-time transport protocol stream detection system and method |
KR100746360B1 (ko) | 2006-08-31 | 2007-08-06 | 삼성전기주식회사 | 스템퍼 제조방법 |
NO326372B1 (no) | 2006-09-21 | 2008-11-17 | Polight As | Polymerlinse |
WO2008039802A2 (en) | 2006-09-25 | 2008-04-03 | Ophthonix, Incorporated | Method for correction of chromatic aberration and achromatic lens |
JP4403162B2 (ja) | 2006-09-29 | 2010-01-20 | 株式会社東芝 | 立体画像表示装置および立体画像の作製方法 |
US20080080028A1 (en) | 2006-10-02 | 2008-04-03 | Micron Technology, Inc. | Imaging method, apparatus and system having extended depth of field |
US8031258B2 (en) | 2006-10-04 | 2011-10-04 | Omnivision Technologies, Inc. | Providing multiple video signals from single sensor |
KR101360545B1 (ko) | 2006-10-11 | 2014-02-10 | 포라이트 에이에스 | 조정 가능한 렌즈의 제조 방법 |
WO2008044937A1 (en) | 2006-10-11 | 2008-04-17 | Ignis Display As | Design of compact adjustable lens |
US8073196B2 (en) | 2006-10-16 | 2011-12-06 | University Of Southern California | Detection and tracking of moving objects from a moving platform in presence of strong parallax |
US7702229B2 (en) | 2006-10-18 | 2010-04-20 | Eastman Kodak Company | Lens array assisted focus detection |
JP4349456B2 (ja) | 2006-10-23 | 2009-10-21 | ソニー株式会社 | 固体撮像素子 |
JP4942221B2 (ja) | 2006-10-25 | 2012-05-30 | 国立大学法人東京工業大学 | 高解像度仮想焦点面画像生成方法 |
US7888159B2 (en) | 2006-10-26 | 2011-02-15 | Omnivision Technologies, Inc. | Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating |
JP4452951B2 (ja) | 2006-11-02 | 2010-04-21 | 富士フイルム株式会社 | 距離画像生成方法及びその装置 |
KR20080043106A (ko) | 2006-11-13 | 2008-05-16 | 삼성전자주식회사 | 광학렌즈 및 그 제조방법 |
US8059162B2 (en) | 2006-11-15 | 2011-11-15 | Sony Corporation | Imaging apparatus and method, and method for designing imaging apparatus |
US20080118241A1 (en) | 2006-11-16 | 2008-05-22 | Tekolste Robert | Control of stray light in camera systems employing an optics stack and associated methods |
CN201043890Y (zh) | 2006-11-17 | 2008-04-02 | 中国科学院上海光学精密机械研究所 | 单孔径多重成像的光学成像测距装置 |
EP2084491A2 (de) | 2006-11-21 | 2009-08-05 | Mantisvision Ltd. | Geometrische modellierung in 3d und videoinhaltserzeugung in 3d |
KR20080047002A (ko) | 2006-11-24 | 2008-05-28 | 엘지이노텍 주식회사 | 카메라모듈의 렌즈 어셈블리 및 그 제작 방법 |
US8559705B2 (en) | 2006-12-01 | 2013-10-15 | Lytro, Inc. | Interactive refocusing of electronic images |
JP4406937B2 (ja) | 2006-12-01 | 2010-02-03 | 富士フイルム株式会社 | 撮影装置 |
US20100265385A1 (en) | 2009-04-18 | 2010-10-21 | Knight Timothy J | Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same |
JP5040493B2 (ja) | 2006-12-04 | 2012-10-03 | ソニー株式会社 | 撮像装置及び撮像方法 |
US8242426B2 (en) | 2006-12-12 | 2012-08-14 | Dolby Laboratories Licensing Corporation | Electronic camera having multiple sensors for capturing high dynamic range images and related methods |
US7646549B2 (en) | 2006-12-18 | 2010-01-12 | Xceed Imaging Ltd | Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging |
US8558929B2 (en) | 2006-12-20 | 2013-10-15 | Carestream Health, Inc. | Imaging array for multiple frame capture |
US8213500B2 (en) | 2006-12-21 | 2012-07-03 | Sharp Laboratories Of America, Inc. | Methods and systems for processing film grain noise |
TWI324015B (en) | 2006-12-22 | 2010-04-21 | Ind Tech Res Inst | Autofocus searching method |
US8103111B2 (en) | 2006-12-26 | 2012-01-24 | Olympus Imaging Corp. | Coding method, electronic camera, recording medium storing coded program, and decoding method |
US20080158259A1 (en) | 2006-12-28 | 2008-07-03 | Texas Instruments Incorporated | Image warping and lateral color correction |
US20080158698A1 (en) | 2006-12-29 | 2008-07-03 | Chao-Chi Chang | Lens barrel array and lens array and the method of making the same |
US7973823B2 (en) | 2006-12-29 | 2011-07-05 | Nokia Corporation | Method and system for image pre-processing |
US20080165257A1 (en) | 2007-01-05 | 2008-07-10 | Micron Technology, Inc. | Configurable pixel array system and method |
JP4993578B2 (ja) | 2007-01-15 | 2012-08-08 | オリンパスイメージング株式会社 | 画像ファイル再生装置,画像ファイル加工編集装置 |
US8655052B2 (en) | 2007-01-26 | 2014-02-18 | Intellectual Discovery Co., Ltd. | Methodology for 3D scene reconstruction from 2D image sequences |
JP5024992B2 (ja) | 2007-02-02 | 2012-09-12 | 株式会社ジャパンディスプレイセントラル | 表示装置 |
US7956988B1 (en) | 2007-02-06 | 2011-06-07 | Alpha Technology, LLC | Light detection and ranging systems and related methods |
US7792423B2 (en) | 2007-02-06 | 2010-09-07 | Mitsubishi Electric Research Laboratories, Inc. | 4D light field cameras |
CN100585453C (zh) | 2007-02-09 | 2010-01-27 | 奥林巴斯映像株式会社 | 解码方法及解码装置 |
JP4386083B2 (ja) | 2007-02-27 | 2009-12-16 | トヨタ自動車株式会社 | 駐車支援装置 |
JP2008209761A (ja) | 2007-02-27 | 2008-09-11 | Nikon Corp | 焦点検出装置および撮像装置 |
JP4185956B2 (ja) | 2007-02-27 | 2008-11-26 | トヨタ自動車株式会社 | 旅行時間演算サーバ、車両用旅行時間演算装置及び旅行時間演算システム |
JP4153013B1 (ja) | 2007-03-06 | 2008-09-17 | シャープ株式会社 | 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末 |
US7755679B2 (en) | 2007-03-07 | 2010-07-13 | Altasens, Inc. | Apparatus and method for reducing edge effect in an image sensor |
US7683962B2 (en) | 2007-03-09 | 2010-03-23 | Eastman Kodak Company | Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map |
US7676146B2 (en) | 2007-03-09 | 2010-03-09 | Eastman Kodak Company | Camera using multiple lenses and image sensors to provide improved focusing capability |
US7729602B2 (en) | 2007-03-09 | 2010-06-01 | Eastman Kodak Company | Camera using multiple lenses and image sensors operable in a default imaging mode |
US7859588B2 (en) | 2007-03-09 | 2010-12-28 | Eastman Kodak Company | Method and apparatus for operating a dual lens camera to augment an image |
US8593506B2 (en) | 2007-03-15 | 2013-11-26 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method and system for forming a panoramic image of a scene having minimal aspect distortion |
JP2008242658A (ja) | 2007-03-26 | 2008-10-09 | Funai Electric Co Ltd | 立体物体の撮像装置 |
JP4915859B2 (ja) | 2007-03-26 | 2012-04-11 | 船井電機株式会社 | 物体の距離導出装置 |
US7738017B2 (en) | 2007-03-27 | 2010-06-15 | Aptina Imaging Corporation | Method and apparatus for automatic linear shift parallax correction for multi-array image systems |
US8055466B2 (en) | 2007-03-30 | 2011-11-08 | Mitutoyo Corporation | Global calibration for stereo vision probe |
US8165418B2 (en) | 2007-03-30 | 2012-04-24 | Brother Kogyo Kabushiki Kaisha | Image processor |
WO2008120217A2 (en) | 2007-04-02 | 2008-10-09 | Prime Sense Ltd. | Depth mapping using projected patterns |
US8098941B2 (en) | 2007-04-03 | 2012-01-17 | Aptina Imaging Corporation | Method and apparatus for parallelization of image compression encoders |
US8213711B2 (en) | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
JP2008258885A (ja) | 2007-04-04 | 2008-10-23 | Texas Instr Japan Ltd | 撮像装置および撮像装置の駆動方法 |
JP4310348B2 (ja) | 2007-04-04 | 2009-08-05 | シャープ株式会社 | 固体撮像装置およびそれを備えた電子機器 |
CN101281282A (zh) | 2007-04-04 | 2008-10-08 | 鸿富锦精密工业(深圳)有限公司 | 镜头模组 |
WO2008068553A1 (en) | 2007-04-16 | 2008-06-12 | Nagappan Muthusamy Sundarar | Solid vision |
US7923801B2 (en) | 2007-04-18 | 2011-04-12 | Invisage Technologies, Inc. | Materials, systems and methods for optoelectronic devices |
US8467628B2 (en) | 2007-04-24 | 2013-06-18 | 21 Ct, Inc. | Method and system for fast dense stereoscopic ranging |
KR100869219B1 (ko) | 2007-05-03 | 2008-11-18 | 동부일렉트로닉스 주식회사 | 이미지 센서 및 그 제조방법 |
GB0708655D0 (en) | 2007-05-04 | 2007-06-13 | Imp Innovations Ltd | Imaging of moving objects |
US8462220B2 (en) | 2007-05-09 | 2013-06-11 | Aptina Imaging Corporation | Method and apparatus for improving low-light performance for small pixel image sensors |
US7812869B2 (en) | 2007-05-11 | 2010-10-12 | Aptina Imaging Corporation | Configurable pixel array system and method |
JP4341695B2 (ja) | 2007-05-17 | 2009-10-07 | ソニー株式会社 | 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法 |
JP4337911B2 (ja) | 2007-05-24 | 2009-09-30 | ソニー株式会社 | 撮像装置、撮像回路、および撮像方法 |
US20080298674A1 (en) | 2007-05-29 | 2008-12-04 | Image Masters Inc. | Stereoscopic Panoramic imaging system |
EP2206013A4 (de) | 2007-05-31 | 2011-07-20 | Artificial Muscle Inc | Optische systeme mit nachgiebigen elektroaktiven materialien |
US8290358B1 (en) | 2007-06-25 | 2012-10-16 | Adobe Systems Incorporated | Methods and apparatus for light-field imaging |
WO2009001255A1 (en) | 2007-06-26 | 2008-12-31 | Koninklijke Philips Electronics N.V. | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal |
EP2168096A1 (de) | 2007-07-12 | 2010-03-31 | Thomson Licensing | System und verfahren zur dreidimensionalen objektrekonstruktion aus zweidimensionalen bildern |
US8125619B2 (en) | 2007-07-25 | 2012-02-28 | Eminent Electronic Technology Corp. | Integrated ambient light sensor and distance sensor |
JP5006727B2 (ja) | 2007-07-26 | 2012-08-22 | 株式会社リコー | 画像処理装置およびデジタルカメラ |
US8559756B2 (en) | 2007-08-06 | 2013-10-15 | Adobe Systems Incorporated | Radiance processing by demultiplexing in the frequency domain |
EP2034338A1 (de) | 2007-08-11 | 2009-03-11 | ETH Zurich | Flüssiglinsesystem |
EP2026563A1 (de) | 2007-08-14 | 2009-02-18 | Deutsche Thomson OHG | Vorrichtung und Verfahren zur Erkennung defekter Pixel |
US7782364B2 (en) | 2007-08-21 | 2010-08-24 | Aptina Imaging Corporation | Multi-array sensor with integrated sub-array for parallax detection and photometer functionality |
EP2031592A1 (de) | 2007-08-30 | 2009-03-04 | DTR Limited | Verfahren und System für beschreibbare DVDs |
US20090066693A1 (en) | 2007-09-06 | 2009-03-12 | Roc Carson | Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames |
US7973834B2 (en) | 2007-09-24 | 2011-07-05 | Jianwen Yang | Electro-optical foveated imaging and tracking system |
US20090079862A1 (en) | 2007-09-25 | 2009-03-26 | Micron Technology, Inc. | Method and apparatus providing imaging auto-focus utilizing absolute blur value |
US20090086074A1 (en) | 2007-09-27 | 2009-04-02 | Omnivision Technologies, Inc. | Dual mode camera solution apparatus, system, and method |
US7940311B2 (en) | 2007-10-03 | 2011-05-10 | Nokia Corporation | Multi-exposure pattern for enhancing dynamic range of images |
JP5172267B2 (ja) | 2007-10-09 | 2013-03-27 | 富士フイルム株式会社 | 撮像装置 |
US8049289B2 (en) | 2007-10-11 | 2011-11-01 | Dongbu Hitek Co., Ltd. | Image sensor and method for manufacturing the same |
US8938009B2 (en) | 2007-10-12 | 2015-01-20 | Qualcomm Incorporated | Layered encoded bitstream structure |
US7956924B2 (en) | 2007-10-18 | 2011-06-07 | Adobe Systems Incorporated | Fast computational camera based on two arrays of lenses |
US7787112B2 (en) | 2007-10-22 | 2010-08-31 | Visiongate, Inc. | Depth of field extension for optical tomography |
US7920193B2 (en) | 2007-10-23 | 2011-04-05 | Aptina Imaging Corporation | Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers |
US7777804B2 (en) | 2007-10-26 | 2010-08-17 | Omnivision Technologies, Inc. | High dynamic range sensor with reduced line memory for color interpolation |
US20100223237A1 (en) | 2007-11-05 | 2010-09-02 | University Of Florida Research Foundation, Inc. | Lossless data compression and real-time decompression |
US7852461B2 (en) | 2007-11-15 | 2010-12-14 | Microsoft International Holdings B.V. | Dual mode depth imaging |
US20090128644A1 (en) | 2007-11-15 | 2009-05-21 | Camp Jr William O | System and method for generating a photograph |
US8351685B2 (en) | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
US8126279B2 (en) | 2007-11-19 | 2012-02-28 | The University Of Arizona | Lifting-based view compensated compression and remote visualization of volume rendered images |
JP5010445B2 (ja) | 2007-11-29 | 2012-08-29 | パナソニック株式会社 | マイクロレンズアレイ用金型の製造方法 |
KR20090055803A (ko) | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
WO2009073950A1 (en) | 2007-12-13 | 2009-06-18 | Keigo Izuka | Camera system and method for amalgamating images to create an omni-focused image |
TWI353778B (en) | 2007-12-21 | 2011-12-01 | Ind Tech Res Inst | Moving object detection apparatus and method |
EP2072785B1 (de) | 2007-12-21 | 2011-02-23 | Caterpillar Inc. | Steuern der Antriebsgeschwindigkeit einer Maschine |
US7880807B2 (en) | 2007-12-26 | 2011-02-01 | Sony Ericsson Mobile Communications Ab | Camera system with mirror arrangement for generating self-portrait panoramic pictures |
US8233077B2 (en) | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
US20110031381A1 (en) | 2007-12-28 | 2011-02-10 | Hiok-Nam Tay | Light guide array for an image sensor |
TWI362628B (en) | 2007-12-28 | 2012-04-21 | Ind Tech Res Inst | Methof for producing an image with depth by using 2d image |
DE112009000099T5 (de) | 2008-01-04 | 2010-11-11 | 3M Innovative Properties Co., St. Paul | Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion |
JP4413261B2 (ja) | 2008-01-10 | 2010-02-10 | シャープ株式会社 | 撮像装置及び光軸制御方法 |
JP5198295B2 (ja) | 2008-01-15 | 2013-05-15 | 富士フイルム株式会社 | 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール |
US7962033B2 (en) | 2008-01-23 | 2011-06-14 | Adobe Systems Incorporated | Methods and apparatus for full-resolution light-field capture and rendering |
US8189065B2 (en) | 2008-01-23 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for full-resolution light-field capture and rendering |
JP4956452B2 (ja) | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
US8824833B2 (en) | 2008-02-01 | 2014-09-02 | Omnivision Technologies, Inc. | Image data fusion systems and methods |
GB0802290D0 (en) | 2008-02-08 | 2008-03-12 | Univ Kent Canterbury | Camera adapter based optical imaging apparatus |
US8319301B2 (en) | 2008-02-11 | 2012-11-27 | Omnivision Technologies, Inc. | Self-aligned filter for an image sensor |
JP2009206922A (ja) | 2008-02-28 | 2009-09-10 | Funai Electric Co Ltd | 複眼撮像装置 |
CN101520532A (zh) | 2008-02-29 | 2009-09-02 | 鸿富锦精密工业(深圳)有限公司 | 复合镜片 |
US9094675B2 (en) | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
KR101592889B1 (ko) | 2008-03-03 | 2016-02-11 | 아비길론 페이턴트 홀딩 2 코포레이션 | 트래킹, 인덱싱 및 서치를 위한 물체 매칭 방법 및 장치 |
US8072599B2 (en) * | 2008-03-14 | 2011-12-06 | Teledyne Scientific & Imaging, Llc | Real-time, hybrid amplitude-time division polarimetric imaging camera |
WO2009115947A1 (en) | 2008-03-18 | 2009-09-24 | Koninklijke Philips Electronics N.V. | Apparatus for skin imaging, system for skin analysis |
US8098955B2 (en) | 2008-03-25 | 2012-01-17 | Point Grey Research Inc. | Efficient selection and application of regions of interest in digital imaging |
JPWO2009119229A1 (ja) | 2008-03-26 | 2011-07-21 | コニカミノルタホールディングス株式会社 | 3次元撮像装置及び3次元撮像装置の校正方法 |
CN101551586A (zh) | 2008-04-03 | 2009-10-07 | 晶宏半导体股份有限公司 | 高速摄影方法及其装置 |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8259208B2 (en) | 2008-04-15 | 2012-09-04 | Sony Corporation | Method and apparatus for performing touch-based adjustments within imaging devices |
US7843554B2 (en) | 2008-04-25 | 2010-11-30 | Rockwell Collins, Inc. | High dynamic range sensor system and method |
US8155456B2 (en) | 2008-04-29 | 2012-04-10 | Adobe Systems Incorporated | Method and apparatus for block-based compression of light-field images |
US8280194B2 (en) | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
US8724921B2 (en) | 2008-05-05 | 2014-05-13 | Aptina Imaging Corporation | Method of capturing high dynamic range images with objects in the scene |
US8633996B2 (en) | 2008-05-09 | 2014-01-21 | Rambus Inc. | Image sensor having nonlinear response |
JP2009273035A (ja) | 2008-05-09 | 2009-11-19 | Toshiba Corp | 画像圧縮装置、画像伸張装置及び画像処理装置 |
US8208543B2 (en) | 2008-05-19 | 2012-06-26 | Microsoft Corporation | Quantization and differential coding of alpha image data |
WO2009141998A1 (ja) | 2008-05-19 | 2009-11-26 | パナソニック株式会社 | キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム |
US20100097444A1 (en) | 2008-10-16 | 2010-04-22 | Peter Lablans | Camera System for Creating an Image From a Plurality of Images |
WO2009151903A2 (en) | 2008-05-20 | 2009-12-17 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with hetergeneous imagers |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8442355B2 (en) | 2008-05-23 | 2013-05-14 | Samsung Electronics Co., Ltd. | System and method for generating a multi-dimensional image |
US8125559B2 (en) | 2008-05-25 | 2012-02-28 | Avistar Communications Corporation | Image formation for large photosensor array surfaces |
US8131097B2 (en) | 2008-05-28 | 2012-03-06 | Aptina Imaging Corporation | Method and apparatus for extended depth-of-field image restoration |
US8244058B1 (en) | 2008-05-30 | 2012-08-14 | Adobe Systems Incorporated | Method and apparatus for managing artifacts in frequency domain processing of light-field images |
CN101593350B (zh) | 2008-05-30 | 2013-01-09 | 日电(中国)有限公司 | 深度自适应视频拼接的方法、装置和系统 |
JP2009300268A (ja) | 2008-06-13 | 2009-12-24 | Nippon Hoso Kyokai <Nhk> | 3次元情報検出装置 |
KR20100002032A (ko) | 2008-06-24 | 2010-01-06 | 삼성전자주식회사 | 영상 생성 방법, 영상 처리 방법, 및 그 장치 |
JPWO2009157273A1 (ja) | 2008-06-25 | 2011-12-08 | コニカミノルタオプト株式会社 | 撮像光学系及び撮像用レンズの製造方法 |
US7710667B2 (en) | 2008-06-25 | 2010-05-04 | Aptina Imaging Corp. | Imaging module with symmetrical lens system and method of manufacture |
KR101000531B1 (ko) | 2008-06-26 | 2010-12-14 | 에스디씨마이크로 주식회사 | 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템 |
US7916396B2 (en) | 2008-06-27 | 2011-03-29 | Micron Technology, Inc. | Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same |
US8326069B2 (en) | 2008-06-30 | 2012-12-04 | Intel Corporation | Computing higher resolution images from multiple lower resolution images |
US7773317B2 (en) | 2008-07-01 | 2010-08-10 | Aptina Imaging Corp. | Lens system with symmetrical optics |
US7920339B2 (en) | 2008-07-02 | 2011-04-05 | Aptina Imaging Corporation | Method and apparatus providing singlet wafer lens system with field flattener |
CN100576934C (zh) | 2008-07-03 | 2009-12-30 | 浙江大学 | 基于深度和遮挡信息的虚拟视点合成方法 |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
KR101445185B1 (ko) | 2008-07-10 | 2014-09-30 | 삼성전자주식회사 | 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법 |
CA2731680C (en) | 2008-08-06 | 2016-12-13 | Creaform Inc. | System for adaptive three-dimensional scanning of surface characteristics |
US9179153B2 (en) | 2008-08-20 | 2015-11-03 | Thomson Licensing | Refined depth map |
CN101656259A (zh) | 2008-08-20 | 2010-02-24 | 鸿富锦精密工业(深圳)有限公司 | 影像感测器封装结构、封装方法及相机模组 |
US7924312B2 (en) | 2008-08-22 | 2011-04-12 | Fluke Corporation | Infrared and visible-light image registration |
US8736751B2 (en) | 2008-08-26 | 2014-05-27 | Empire Technology Development Llc | Digital presenter for displaying image captured by camera with illumination system |
US8102428B2 (en) | 2008-08-28 | 2012-01-24 | Adobe Systems Incorporated | Content-aware video stabilization |
JP5105482B2 (ja) | 2008-09-01 | 2012-12-26 | 船井電機株式会社 | 光学的条件設計方法及び複眼撮像装置 |
EP2329315A4 (de) | 2008-09-01 | 2012-01-18 | Lensvector Inc | Herstellung optoelektronischer flüssigkristallbauelemente auf waferebene |
US8098297B2 (en) | 2008-09-03 | 2012-01-17 | Sony Corporation | Pre- and post-shutter signal image capture and sort for digital camera |
KR20100028344A (ko) | 2008-09-04 | 2010-03-12 | 삼성전자주식회사 | 휴대단말의 영상 편집 방법 및 장치 |
US9025136B2 (en) | 2008-09-23 | 2015-05-05 | Applied Materials, Inc. | System and method for manufacturing three dimensional integrated circuits |
JP5238429B2 (ja) | 2008-09-25 | 2013-07-17 | 株式会社東芝 | 立体映像撮影装置および立体映像撮影システム |
US8553093B2 (en) | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
KR101468267B1 (ko) | 2008-10-02 | 2014-12-15 | 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 | 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출 |
US9619917B2 (en) | 2008-10-03 | 2017-04-11 | Apple Inc. | Depth of field for a camera in a media-editing application |
US9064476B2 (en) | 2008-10-04 | 2015-06-23 | Microsoft Technology Licensing, Llc | Image super-resolution using gradient profile prior |
US8310525B2 (en) | 2008-10-07 | 2012-11-13 | Seiko Epson Corporation | One-touch projector alignment for 3D stereo display |
GB2476397B (en) | 2008-10-15 | 2014-04-30 | Spinella Ip Holdings Inc | Digital processing method and system for determination of optical flow |
US8416282B2 (en) | 2008-10-16 | 2013-04-09 | Spatial Cam Llc | Camera for creating a panoramic image |
JP2010096723A (ja) | 2008-10-20 | 2010-04-30 | Funai Electric Co Ltd | 物体の距離導出装置 |
US8436909B2 (en) | 2008-10-21 | 2013-05-07 | Stmicroelectronics S.R.L. | Compound camera sensor and related method of processing digital images |
US8913657B2 (en) | 2008-10-27 | 2014-12-16 | Lg Electronics Inc. | Virtual view image synthesis method and apparatus |
US8063975B2 (en) | 2008-10-29 | 2011-11-22 | Jabil Circuit, Inc. | Positioning wafer lenses on electronic imagers |
KR101502597B1 (ko) | 2008-11-13 | 2015-03-13 | 삼성전자주식회사 | 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법 |
US8644547B2 (en) | 2008-11-14 | 2014-02-04 | The Scripps Research Institute | Image analysis platform for identifying artifacts in samples and laboratory consumables |
AU2008246243B2 (en) | 2008-11-19 | 2011-12-22 | Canon Kabushiki Kaisha | DVC as generic file format for plenoptic camera |
HUE039300T2 (hu) | 2008-11-25 | 2018-12-28 | Tetravue Inc | Rendszerek és eljárások nagyfelbontású háromdimenziós képalkotáshoz |
US8279325B2 (en) | 2008-11-25 | 2012-10-02 | Lytro, Inc. | System and method for acquiring, editing, generating and outputting video data |
JP4852591B2 (ja) | 2008-11-27 | 2012-01-11 | 富士フイルム株式会社 | 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 |
WO2010077625A1 (en) | 2008-12-08 | 2010-07-08 | Refocus Imaging, Inc. | Light field data acquisition devices, and methods of using and manufacturing same |
US8013904B2 (en) | 2008-12-09 | 2011-09-06 | Seiko Epson Corporation | View projection matrix based high performance low latency display pipeline |
KR101200490B1 (ko) | 2008-12-10 | 2012-11-12 | 한국전자통신연구원 | 영상 정합 장치 및 방법 |
JP5311016B2 (ja) | 2008-12-10 | 2013-10-09 | コニカミノルタ株式会社 | ステレオカメラユニット及びステレオマッチング方法 |
US8149323B2 (en) | 2008-12-18 | 2012-04-03 | Qualcomm Incorporated | System and method to autofocus assisted by autoexposure control |
JP4631966B2 (ja) | 2008-12-22 | 2011-02-16 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
CN101770060B (zh) | 2008-12-27 | 2014-03-26 | 鸿富锦精密工业(深圳)有限公司 | 相机模组及其组装方法 |
US8405742B2 (en) | 2008-12-30 | 2013-03-26 | Massachusetts Institute Of Technology | Processing images having different focus |
US8259212B2 (en) | 2009-01-05 | 2012-09-04 | Applied Quantum Technologies, Inc. | Multiscale optical system |
US20100177411A1 (en) | 2009-01-09 | 2010-07-15 | Shashikant Hegde | Wafer level lens replication on micro-electrical-mechanical systems |
WO2010079685A1 (ja) | 2009-01-09 | 2010-07-15 | コニカミノルタホールディングス株式会社 | 動きベクトル生成装置および動きベクトル生成方法 |
WO2010081010A2 (en) | 2009-01-09 | 2010-07-15 | New York University | Methods, computer-accessible medium and systems for facilitating dark flash photography |
US8189089B1 (en) | 2009-01-20 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for reducing plenoptic camera artifacts |
US8315476B1 (en) | 2009-01-20 | 2012-11-20 | Adobe Systems Incorporated | Super-resolution with the focused plenoptic camera |
US8300108B2 (en) | 2009-02-02 | 2012-10-30 | L-3 Communications Cincinnati Electronics Corporation | Multi-channel imaging devices comprising unit cells |
US20100194860A1 (en) | 2009-02-03 | 2010-08-05 | Bit Cauldron Corporation | Method of stereoscopic 3d image capture using a mobile device, cradle or dongle |
US8761491B2 (en) | 2009-02-06 | 2014-06-24 | Himax Technologies Limited | Stereo-matching processor using belief propagation |
US8290301B2 (en) | 2009-02-06 | 2012-10-16 | Raytheon Company | Optimized imaging system for collection of high resolution imagery |
KR101776955B1 (ko) | 2009-02-10 | 2017-09-08 | 소니 주식회사 | 고체 촬상 장치와 그 제조 방법, 및 전자 기기 |
JP4915423B2 (ja) | 2009-02-19 | 2012-04-11 | ソニー株式会社 | 画像処理装置、フォーカルプレーン歪み成分算出方法、画像処理プログラム及び記録媒体 |
WO2010095440A1 (ja) | 2009-02-20 | 2010-08-26 | パナソニック株式会社 | 記録媒体、再生装置、及び集積回路 |
US8520970B2 (en) | 2010-04-23 | 2013-08-27 | Flir Systems Ab | Infrared resolution and contrast enhancement with fusion |
KR20100099896A (ko) | 2009-03-04 | 2010-09-15 | 삼성전자주식회사 | 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치 |
US8207759B2 (en) | 2009-03-12 | 2012-06-26 | Fairchild Semiconductor Corporation | MIPI analog switch for automatic selection of multiple inputs based on clock voltages |
US8542287B2 (en) | 2009-03-19 | 2013-09-24 | Digitaloptics Corporation | Dual sensor camera |
US8450821B2 (en) | 2009-03-26 | 2013-05-28 | Micron Technology, Inc. | Method and apparatus providing combined spacer and optical lens element |
US8106949B2 (en) | 2009-03-26 | 2012-01-31 | Seiko Epson Corporation | Small memory footprint light transport matrix capture |
US7901095B2 (en) | 2009-03-27 | 2011-03-08 | Seiko Epson Corporation | Resolution scalable view projection |
US8437537B2 (en) | 2009-03-27 | 2013-05-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for estimating 3D pose of specular objects |
JP4529010B1 (ja) | 2009-03-30 | 2010-08-25 | シャープ株式会社 | 撮像装置 |
JP5222205B2 (ja) | 2009-04-03 | 2013-06-26 | Kddi株式会社 | 画像処理装置、方法及びプログラム |
WO2010116370A1 (en) | 2009-04-07 | 2010-10-14 | Nextvision Stabilized Systems Ltd | Camera systems having multiple image sensors combined with a single axis mechanical gimbal |
US20100259610A1 (en) | 2009-04-08 | 2010-10-14 | Celsia, Llc | Two-Dimensional Display Synced with Real World Object Movement |
US8294099B2 (en) | 2009-04-10 | 2012-10-23 | Bae Systems Information And Electronic Systems Integration Inc. | On-wafer butted microbolometer imaging array |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
JP5463718B2 (ja) | 2009-04-16 | 2014-04-09 | ソニー株式会社 | 撮像装置 |
US20120249550A1 (en) | 2009-04-18 | 2012-10-04 | Lytro, Inc. | Selective Transmission of Image Data Based on Device Attributes |
US8908058B2 (en) | 2009-04-18 | 2014-12-09 | Lytro, Inc. | Storage and transmission of pictures including multiple frames |
ATE551841T1 (de) | 2009-04-22 | 2012-04-15 | Raytrix Gmbh | Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten |
CN101527046B (zh) | 2009-04-28 | 2012-09-05 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种运动检测方法、装置和系统 |
KR101671021B1 (ko) | 2009-04-30 | 2016-11-10 | 삼성전자주식회사 | 스테레오스코픽 영상 데이터 전송 장치 및 방법 |
US8271544B2 (en) | 2009-05-01 | 2012-09-18 | Creative Technology Ltd | Data file having more than one mode of operation |
US8358365B2 (en) | 2009-05-01 | 2013-01-22 | Samsung Electronics Co., Ltd. | Photo detecting device and image pickup device and method thereon |
DE102009003110A1 (de) | 2009-05-14 | 2010-11-18 | Robert Bosch Gmbh | Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern |
US8203633B2 (en) | 2009-05-27 | 2012-06-19 | Omnivision Technologies, Inc. | Four-channel color filter array pattern |
KR20100130423A (ko) | 2009-06-03 | 2010-12-13 | 삼성전자주식회사 | 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈 |
US10091439B2 (en) | 2009-06-03 | 2018-10-02 | Flir Systems, Inc. | Imager with array of multiple infrared imaging modules |
US8766808B2 (en) | 2010-03-09 | 2014-07-01 | Flir Systems, Inc. | Imager with multiple sensor arrays |
US8872910B1 (en) | 2009-06-04 | 2014-10-28 | Masoud Vaziri | Method and apparatus for a compact and high resolution eye-view recorder |
US8745677B2 (en) | 2009-06-12 | 2014-06-03 | Cygnus Broadband, Inc. | Systems and methods for prioritization of data for intelligent discard in a communication network |
CN101931742B (zh) | 2009-06-18 | 2013-04-24 | 鸿富锦精密工业(深圳)有限公司 | 影像感测模组及取像模组 |
US20100321640A1 (en) | 2009-06-22 | 2010-12-23 | Industrial Technology Research Institute | Projection display chip |
JP5254893B2 (ja) | 2009-06-26 | 2013-08-07 | キヤノン株式会社 | 画像変換方法及び装置並びにパターン識別方法及び装置 |
US8208746B2 (en) | 2009-06-29 | 2012-06-26 | DigitalOptics Corporation Europe Limited | Adaptive PSF estimation technique using a sharp preview and a blurred image |
WO2011008443A2 (en) | 2009-06-29 | 2011-01-20 | Lensvector Inc. | Wafer level camera module with active optical element |
JP2011030184A (ja) | 2009-07-01 | 2011-02-10 | Sony Corp | 画像処理装置、及び、画像処理方法 |
US8212197B2 (en) | 2009-07-02 | 2012-07-03 | Xerox Corporation | Image sensor with integration time compensation |
JP2011017764A (ja) | 2009-07-07 | 2011-01-27 | Konica Minolta Opto Inc | 撮像レンズ,撮像装置及び携帯端末 |
US8345144B1 (en) | 2009-07-15 | 2013-01-01 | Adobe Systems Incorporated | Methods and apparatus for rich image capture with focused plenoptic cameras |
US20110019243A1 (en) | 2009-07-21 | 2011-01-27 | Constant Jr Henry J | Stereoscopic form reader |
CN101964866B (zh) | 2009-07-24 | 2013-03-20 | 鸿富锦精密工业(深圳)有限公司 | 计算摄像型数码相机 |
GB0912970D0 (en) | 2009-07-27 | 2009-09-02 | St Microelectronics Res & Dev | Improvements in or relating to a sensor and sensor system for a camera |
US8436893B2 (en) | 2009-07-31 | 2013-05-07 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images |
KR20120048669A (ko) | 2009-08-03 | 2012-05-15 | 퀄컴 엠이엠에스 테크놀로지스, 인크. | 도광체 조명용의 미세구조체 |
EP2293586A1 (de) | 2009-08-04 | 2011-03-09 | Samsung Electronics Co., Ltd. | Verfahren und System zur Umwandlung von Stereoinhalt |
US8577183B2 (en) | 2009-08-05 | 2013-11-05 | Raytheon Company | Resolution on demand |
WO2011018678A1 (en) | 2009-08-11 | 2011-02-17 | Ether Precision, Inc. | Method and device for aligning a lens with an optical system |
US8320666B2 (en) | 2009-08-14 | 2012-11-27 | Genesis Group Inc. | Real-time image and video matting |
JP2011044801A (ja) | 2009-08-19 | 2011-03-03 | Toshiba Corp | 画像処理装置 |
US8154632B2 (en) | 2009-08-24 | 2012-04-10 | Lifesize Communications, Inc. | Detection of defective pixels in an image sensor |
JP2011052064A (ja) | 2009-08-31 | 2011-03-17 | Toyobo Co Ltd | ポリイミドおよびその製造方法 |
KR101680300B1 (ko) | 2009-08-31 | 2016-11-28 | 삼성전자주식회사 | 액체 렌즈 및 그 제조방법 |
US9274699B2 (en) | 2009-09-03 | 2016-03-01 | Obscura Digital | User interface for a large scale multi-user, multi-touch system |
US8411146B2 (en) | 2009-09-04 | 2013-04-02 | Lockheed Martin Corporation | Single camera color and infrared polarimetric imaging |
EP2476248A1 (de) | 2009-09-07 | 2012-07-18 | Nokia Corp. | Vorrichtung |
FR2950153B1 (fr) | 2009-09-15 | 2011-12-23 | Commissariat Energie Atomique | Dispositif optique a membrane deformable a actionnement piezoelectrique |
US20140076336A1 (en) | 2009-09-17 | 2014-03-20 | Ascentia Health, Inc. | Ear insert for relief of tmj discomfort and headaches |
US8754941B1 (en) | 2009-09-22 | 2014-06-17 | Altia Systems, Inc. | Multi-imager video camera with frame-by-frame view switching |
KR101727094B1 (ko) | 2009-10-02 | 2017-04-17 | 코닌클리케 필립스 엔.브이. | 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법 |
KR101695809B1 (ko) | 2009-10-09 | 2017-01-13 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
EP2499829B1 (de) | 2009-10-14 | 2019-04-17 | Dolby International AB | Verfahren und einrichtungen zum verarbeiten einer tiefenkarte |
DE102009049387B4 (de) | 2009-10-14 | 2016-05-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung |
US8199165B2 (en) | 2009-10-14 | 2012-06-12 | Hewlett-Packard Development Company, L.P. | Methods and systems for object segmentation in digital images |
US8502909B2 (en) | 2009-10-19 | 2013-08-06 | Pixar | Super light-field lens |
US20110207074A1 (en) | 2009-10-26 | 2011-08-25 | Olaf Andrew Hall-Holt | Dental imaging system and method |
US8546737B2 (en) | 2009-10-30 | 2013-10-01 | Invisage Technologies, Inc. | Systems and methods for color binning |
EP2494402B1 (de) | 2009-10-30 | 2018-04-18 | Hewlett-Packard Development Company, L.P. | Stereoanzeigesysteme |
WO2011055655A1 (ja) | 2009-11-05 | 2011-05-12 | コニカミノルタオプト株式会社 | 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法 |
US8792044B2 (en) | 2009-11-05 | 2014-07-29 | Konica Minolta Advanced Layers Inc. | Image pickup device and method for manufacturing the image pickup device |
US8654195B2 (en) | 2009-11-13 | 2014-02-18 | Fujifilm Corporation | Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus |
TR200908688A2 (tr) | 2009-11-17 | 2011-06-21 | Vestel Elektron�K San. Ve T�C. A.�. | Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı. |
JP5399215B2 (ja) | 2009-11-18 | 2014-01-29 | シャープ株式会社 | 多眼カメラ装置および電子情報機器 |
US8643701B2 (en) | 2009-11-18 | 2014-02-04 | University Of Illinois At Urbana-Champaign | System for executing 3D propagation for depth image-based rendering |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
WO2011066275A2 (en) | 2009-11-25 | 2011-06-03 | Massachusetts Institute Of Technology | Actively addressable aperture light field camera |
KR101608970B1 (ko) | 2009-11-27 | 2016-04-05 | 삼성전자주식회사 | 광 필드 데이터를 이용한 영상 처리 장치 및 방법 |
US8400555B1 (en) | 2009-12-01 | 2013-03-19 | Adobe Systems Incorporated | Focused plenoptic camera employing microlenses with different focal lengths |
US8730338B2 (en) | 2009-12-01 | 2014-05-20 | Nokia Corporation | Set of camera modules hinged on a body and functionally connected to a single actuator |
JP5446797B2 (ja) | 2009-12-04 | 2014-03-19 | 株式会社リコー | 撮像装置 |
US8446492B2 (en) | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
JP5387377B2 (ja) | 2009-12-14 | 2014-01-15 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US9030530B2 (en) | 2009-12-15 | 2015-05-12 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
KR101281961B1 (ko) | 2009-12-21 | 2013-07-03 | 한국전자통신연구원 | 깊이 영상 편집 방법 및 장치 |
US20110153248A1 (en) | 2009-12-23 | 2011-06-23 | Yeming Gu | Ophthalmic quality metric system |
EP2518995B1 (de) | 2009-12-24 | 2018-08-22 | Sharp Kabushiki Kaisha | Bildaufnahmevorrichtung mit mehreren blickwinkeln und bildaufnahmeverfahren mit mehreren blickwinkeln |
JP4983905B2 (ja) | 2009-12-25 | 2012-07-25 | カシオ計算機株式会社 | 撮像装置、3dモデリングデータ生成方法、および、プログラム |
KR101643607B1 (ko) | 2009-12-30 | 2016-08-10 | 삼성전자주식회사 | 영상 데이터 생성 방법 및 장치 |
CN102118551A (zh) | 2009-12-31 | 2011-07-06 | 鸿富锦精密工业(深圳)有限公司 | 成像装置 |
CN102117576A (zh) | 2009-12-31 | 2011-07-06 | 鸿富锦精密工业(深圳)有限公司 | 电子相框 |
CN102131044B (zh) | 2010-01-20 | 2014-03-26 | 鸿富锦精密工业(深圳)有限公司 | 相机模组 |
WO2011097508A2 (en) | 2010-02-04 | 2011-08-11 | University Of Southern California | Combined spectral and polarimetry imaging and diagnostics |
US8593512B2 (en) | 2010-02-05 | 2013-11-26 | Creative Technology Ltd | Device and method for scanning an object on a working surface |
US8326142B2 (en) | 2010-02-12 | 2012-12-04 | Sri International | Optical image systems |
CN102753933B (zh) * | 2010-02-15 | 2015-06-10 | 株式会社理光 | 透明物体检测系统和透明平板检测系统 |
JP5387856B2 (ja) | 2010-02-16 | 2014-01-15 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 |
US8648918B2 (en) | 2010-02-18 | 2014-02-11 | Sony Corporation | Method and system for obtaining a point spread function using motion information |
US20130033579A1 (en) | 2010-02-19 | 2013-02-07 | Dual Aperture Inc. | Processing multi-aperture image data |
KR101802238B1 (ko) | 2010-02-23 | 2017-11-29 | 삼성전자주식회사 | 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법 |
WO2011105814A2 (ko) | 2010-02-23 | 2011-09-01 | 삼성전자 주식회사 | 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치 |
WO2011106797A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
JP5776173B2 (ja) | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
US8817015B2 (en) | 2010-03-03 | 2014-08-26 | Adobe Systems Incorporated | Methods, apparatus, and computer-readable storage media for depth-based rendering of focused plenoptic camera data |
US20110222757A1 (en) | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
US20110221950A1 (en) | 2010-03-12 | 2011-09-15 | Doeke Jolt Oostra | Camera device, wafer scale package |
US8231814B2 (en) | 2010-03-17 | 2012-07-31 | Pelican Imaging Corporation | Fabrication process for mastering imaging lens arrays |
CN102428707B (zh) | 2010-03-19 | 2015-03-11 | 松下电器产业株式会社 | 立体视用图像对位装置和立体视用图像对位方法 |
WO2011116345A1 (en) | 2010-03-19 | 2011-09-22 | Invisage Technologies, Inc. | Dark current reduction in image sensors via dynamic electrical biasing |
US8310538B2 (en) | 2010-03-19 | 2012-11-13 | Fujifilm Corporation | Imaging apparatus, method, program, and recording medium used in the program |
US8558903B2 (en) | 2010-03-25 | 2013-10-15 | Apple Inc. | Accelerometer / gyro-facilitated video stabilization |
JPWO2011118135A1 (ja) | 2010-03-25 | 2013-07-04 | パナソニック株式会社 | 送信装置、受信装置、送信方法および受信方法 |
US8285033B2 (en) | 2010-04-01 | 2012-10-09 | Seiko Epson Corporation | Bi-affinity filter: a bilateral type filter for color images |
US9117310B2 (en) | 2010-04-02 | 2015-08-25 | Imec | Virtual camera system |
US8896668B2 (en) | 2010-04-05 | 2014-11-25 | Qualcomm Incorporated | Combining data from multiple image sensors |
US20110242342A1 (en) | 2010-04-05 | 2011-10-06 | Qualcomm Incorporated | Combining data from multiple image sensors |
US20110255786A1 (en) | 2010-04-20 | 2011-10-20 | Andrew Hunter | Method and apparatus for determining flicker in the illumination of a subject |
US8600186B2 (en) | 2010-04-26 | 2013-12-03 | City University Of Hong Kong | Well focused catadioptric image acquisition |
US9053573B2 (en) | 2010-04-29 | 2015-06-09 | Personify, Inc. | Systems and methods for generating a virtual camera viewpoint for an image |
US20110267264A1 (en) | 2010-04-29 | 2011-11-03 | Mccarthy John | Display system with multiple optical sensors |
US20130250150A1 (en) | 2010-05-03 | 2013-09-26 | Michael R. Malone | Devices and methods for high-resolution image and video capture |
US9256974B1 (en) | 2010-05-04 | 2016-02-09 | Stephen P Hines | 3-D motion-parallax portable display software application |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
KR101756910B1 (ko) | 2010-05-11 | 2017-07-26 | 삼성전자주식회사 | 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법 |
KR20110124473A (ko) | 2010-05-11 | 2011-11-17 | 삼성전자주식회사 | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 |
US20130147979A1 (en) | 2010-05-12 | 2013-06-13 | Pelican Imaging Corporation | Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain |
JP5545016B2 (ja) | 2010-05-12 | 2014-07-09 | ソニー株式会社 | 撮像装置 |
EP2569935B1 (de) | 2010-05-12 | 2016-12-28 | Pelican Imaging Corporation | Architekturen für bildgebungsarrays und array-kameras |
WO2011142774A1 (en) | 2010-05-14 | 2011-11-17 | Omnivision Technologies, Inc. | Alternative color image array and associated methods |
US8576293B2 (en) | 2010-05-18 | 2013-11-05 | Aptina Imaging Corporation | Multi-channel imager |
SG176327A1 (en) | 2010-05-20 | 2011-12-29 | Sony Corp | A system and method of image processing |
US8602887B2 (en) | 2010-06-03 | 2013-12-10 | Microsoft Corporation | Synthesis of information from multiple audiovisual sources |
US20120062697A1 (en) | 2010-06-09 | 2012-03-15 | Chemimage Corporation | Hyperspectral imaging sensor for tracking moving targets |
DE102010024666A1 (de) | 2010-06-18 | 2011-12-22 | Hella Kgaa Hueck & Co. | Verfahren zur optischen Selbstdiagnose eines Kamerasystems und Vorrichtung zur Durchführung eines solchen Verfahrens |
US20110310980A1 (en) | 2010-06-22 | 2011-12-22 | Qualcomm Mems Technologies, Inc. | Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id |
CN102184720A (zh) | 2010-06-22 | 2011-09-14 | 上海盈方微电子有限公司 | 一种支持多层多格式输入的图像合成显示的方法及装置 |
KR20120000485A (ko) | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법 |
CN101883291B (zh) | 2010-06-29 | 2012-12-19 | 上海大学 | 感兴趣区域增强的视点绘制方法 |
EP2403234A1 (de) | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Verfahren und System zur Erstellung eines zusammengesetzten Bildes aus von einer Anordnung von Bildaufnahmevorrichtungen erhaltenen Daten |
US8493432B2 (en) | 2010-06-29 | 2013-07-23 | Mitsubishi Electric Research Laboratories, Inc. | Digital refocusing for wide-angle images using axial-cone cameras |
WO2012001975A1 (ja) | 2010-06-30 | 2012-01-05 | 富士フイルム株式会社 | 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム |
JP5392199B2 (ja) | 2010-07-09 | 2014-01-22 | ソニー株式会社 | 画像処理装置および方法 |
GB2482022A (en) | 2010-07-16 | 2012-01-18 | St Microelectronics Res & Dev | Method for measuring resolution and aberration of lens and sensor |
US9406132B2 (en) | 2010-07-16 | 2016-08-02 | Qualcomm Incorporated | Vision-based quality metric for three dimensional video |
US8386964B2 (en) | 2010-07-21 | 2013-02-26 | Microsoft Corporation | Interactive image matting |
US20120019700A1 (en) | 2010-07-26 | 2012-01-26 | American Technologies Network Corporation | Optical system with automatic mixing of daylight and thermal vision digital video signals |
US20120026342A1 (en) | 2010-07-27 | 2012-02-02 | Xiaoguang Yu | Electronic system communicating with image sensor |
US20120026451A1 (en) | 2010-07-29 | 2012-02-02 | Lensvector Inc. | Tunable liquid crystal lens with single sided contacts |
US8605136B2 (en) | 2010-08-10 | 2013-12-10 | Sony Corporation | 2D to 3D user interface content data conversion |
CN102375199B (zh) | 2010-08-11 | 2015-06-03 | 鸿富锦精密工业(深圳)有限公司 | 相机模组 |
US8428342B2 (en) | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
US8836793B1 (en) | 2010-08-13 | 2014-09-16 | Opto-Knowledge Systems, Inc. | True color night vision (TCNV) fusion |
US8493482B2 (en) | 2010-08-18 | 2013-07-23 | Apple Inc. | Dual image sensor image processing system and method |
US8724000B2 (en) | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
US8749694B2 (en) | 2010-08-27 | 2014-06-10 | Adobe Systems Incorporated | Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing |
US8665341B2 (en) | 2010-08-27 | 2014-03-04 | Adobe Systems Incorporated | Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data |
JP5140210B2 (ja) | 2010-08-31 | 2013-02-06 | パナソニック株式会社 | 撮影装置および画像処理方法 |
GB2483434A (en) | 2010-08-31 | 2012-03-14 | Sony Corp | Detecting stereoscopic disparity by comparison with subset of pixel change points |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US9013550B2 (en) | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
US9013634B2 (en) | 2010-09-14 | 2015-04-21 | Adobe Systems Incorporated | Methods and apparatus for video completion |
CN103299619A (zh) | 2010-09-14 | 2013-09-11 | 汤姆逊许可公司 | 遮挡数据的压缩方法和装置 |
WO2012037075A1 (en) | 2010-09-14 | 2012-03-22 | Thomson Licensing | Method of presenting three-dimensional content with disparity adjustments |
US8780251B2 (en) | 2010-09-20 | 2014-07-15 | Canon Kabushiki Kaisha | Image capture with focus adjustment |
WO2012039043A1 (ja) | 2010-09-22 | 2012-03-29 | 富士通株式会社 | ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム |
US20120086803A1 (en) | 2010-10-11 | 2012-04-12 | Malzbender Thomas G | Method and system for distance estimation using projected symbol sequences |
US20140192238A1 (en) | 2010-10-24 | 2014-07-10 | Linx Computational Imaging Ltd. | System and Method for Imaging and Image Processing |
US8531535B2 (en) | 2010-10-28 | 2013-09-10 | Google Inc. | Methods and systems for processing a video for stabilization and retargeting |
JP5657343B2 (ja) | 2010-10-28 | 2015-01-21 | 株式会社ザクティ | 電子機器 |
WO2012056437A1 (en) | 2010-10-29 | 2012-05-03 | École Polytechnique Fédérale De Lausanne (Epfl) | Omnidirectional sensor array system |
US9137503B2 (en) | 2010-11-03 | 2015-09-15 | Sony Corporation | Lens and color filter arrangement, super-resolution camera system and method |
US9065991B2 (en) | 2010-11-04 | 2015-06-23 | Lensvector Inc. | Methods of adjustment free manufacture of focus free camera modules |
US20120113232A1 (en) | 2010-11-10 | 2012-05-10 | Sony Pictures Technologies Inc. | Multiple camera system and method for selectable interaxial separation |
WO2012064106A2 (en) | 2010-11-12 | 2012-05-18 | Samsung Electronics Co., Ltd. | Method and apparatus for video stabilization by compensating for view direction of camera |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
MY150361A (en) | 2010-12-03 | 2013-12-31 | Mimos Berhad | Method of image segmentation using intensity and depth information |
US20130258067A1 (en) | 2010-12-08 | 2013-10-03 | Thomson Licensing | System and method for trinocular depth acquisition with triangular sensor |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
JP5963422B2 (ja) | 2010-12-17 | 2016-08-03 | キヤノン株式会社 | 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム |
US8682107B2 (en) | 2010-12-22 | 2014-03-25 | Electronics And Telecommunications Research Institute | Apparatus and method for creating 3D content for oriental painting |
US9177381B2 (en) | 2010-12-22 | 2015-11-03 | Nani Holdings IP, LLC | Depth estimate determination, systems and methods |
WO2012092246A2 (en) | 2010-12-27 | 2012-07-05 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation |
US8565709B2 (en) | 2010-12-30 | 2013-10-22 | Apple Inc. | Digital signal filter |
TWI535292B (zh) | 2010-12-31 | 2016-05-21 | 派力肯影像公司 | 使用具有異質的成像器的整體式相機陣列的影像捕捉和處理 |
JP5699609B2 (ja) | 2011-01-06 | 2015-04-15 | ソニー株式会社 | 画像処理装置および画像処理方法 |
EP2666048A4 (de) | 2011-01-20 | 2014-06-04 | Fivefocal Llc | Passiv athermalisiertes infrarot-abbildungssystem und herstellungsverfahren dafür |
US8717467B2 (en) | 2011-01-25 | 2014-05-06 | Aptina Imaging Corporation | Imaging systems with array cameras for depth sensing |
US8581995B2 (en) | 2011-01-25 | 2013-11-12 | Aptina Imaging Corporation | Method and apparatus for parallax correction in fused array imaging systems |
JP5594477B2 (ja) | 2011-01-26 | 2014-09-24 | Nltテクノロジー株式会社 | 画像表示装置、画像表示方法、及びプログラム |
WO2012100829A1 (en) | 2011-01-27 | 2012-08-02 | Metaio Gmbh | Method for determining correspondences between a first and a second image, and method for determining the pose of a camera |
CA2767023C (en) | 2011-02-09 | 2014-09-09 | Research In Motion Limited | Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light |
US20120200726A1 (en) | 2011-02-09 | 2012-08-09 | Research In Motion Limited | Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF |
US8698885B2 (en) | 2011-02-14 | 2014-04-15 | Intuitive Surgical Operations, Inc. | Methods and apparatus for demosaicing images with highly correlated color channels |
US20140176592A1 (en) | 2011-02-15 | 2014-06-26 | Lytro, Inc. | Configuring two-dimensional image processing based on light-field parameters |
WO2012111766A1 (ja) | 2011-02-18 | 2012-08-23 | 東ソー株式会社 | 電解二酸化マンガン及びその製造方法、並びにリチウムマンガン系複合酸化物の製造方法 |
US8406548B2 (en) | 2011-02-28 | 2013-03-26 | Sony Corporation | Method and apparatus for performing a blur rendering process on an image |
RU2551649C2 (ru) | 2011-02-28 | 2015-05-27 | Фуджифилм Корпорэйшн | Устройство формирования цветного изображения |
US8537245B2 (en) | 2011-03-04 | 2013-09-17 | Hand Held Products, Inc. | Imaging and decoding device with quantum dot imager |
CA2769358C (en) | 2011-03-08 | 2016-06-07 | Research In Motion Limited | Quantum dot image sensor with dummy pixels used for intensity calculations |
US9565449B2 (en) | 2011-03-10 | 2017-02-07 | Qualcomm Incorporated | Coding multiview video plus depth content |
KR101792501B1 (ko) | 2011-03-16 | 2017-11-21 | 한국전자통신연구원 | 특징기반의 스테레오 매칭 방법 및 장치 |
US20120249853A1 (en) | 2011-03-28 | 2012-10-04 | Marc Krolczyk | Digital camera for reviewing related images |
US8824821B2 (en) | 2011-03-28 | 2014-09-02 | Sony Corporation | Method and apparatus for performing user inspired visual effects rendering on an image |
US8422770B2 (en) | 2011-03-30 | 2013-04-16 | Mckesson Financial Holdings | Method, apparatus and computer program product for displaying normalized medical images |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
FR2974449A1 (fr) | 2011-04-22 | 2012-10-26 | Commissariat Energie Atomique | Circuit integre imageur et dispositif de capture d'images stereoscopiques |
US20120274626A1 (en) | 2011-04-29 | 2012-11-01 | Himax Media Solutions, Inc. | Stereoscopic Image Generating Apparatus and Method |
CN103503023B (zh) | 2011-05-04 | 2016-07-06 | 索尼爱立信移动通讯有限公司 | 用于处理光场图像的方法、图形用户接口以及计算机程序产品 |
US8305456B1 (en) | 2011-05-11 | 2012-11-06 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
US8843346B2 (en) | 2011-05-13 | 2014-09-23 | Amazon Technologies, Inc. | Using spatial information with device interaction |
CN102164298B (zh) | 2011-05-18 | 2012-10-03 | 长春理工大学 | 全景成像系统中基于立体匹配的元素图像获取方法 |
US8629901B2 (en) | 2011-05-19 | 2014-01-14 | National Taiwan University | System and method of revising depth of a 3D image pair |
US20120293489A1 (en) | 2011-05-20 | 2012-11-22 | Himax Technologies Limited | Nonlinear depth remapping system and method thereof |
JP5797016B2 (ja) | 2011-05-30 | 2015-10-21 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP5762142B2 (ja) | 2011-05-31 | 2015-08-12 | キヤノン株式会社 | 撮像装置、画像処理装置およびその方法 |
US8648919B2 (en) | 2011-06-06 | 2014-02-11 | Apple Inc. | Methods and systems for image stabilization |
US8823813B2 (en) | 2011-06-06 | 2014-09-02 | Apple Inc. | Correcting rolling shutter using image stabilization |
US9635274B2 (en) | 2011-06-15 | 2017-04-25 | Microsoft Technology Licensing, Llc | High resolution multispectral image capture |
JP2013005259A (ja) | 2011-06-17 | 2013-01-07 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
WO2013003276A1 (en) | 2011-06-28 | 2013-01-03 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US8773513B2 (en) | 2011-07-01 | 2014-07-08 | Seiko Epson Corporation | Context and epsilon stereo constrained correspondence matching |
KR101216123B1 (ko) | 2011-07-08 | 2012-12-27 | 김호 | 시청자 얼굴 추적정보 생성방법 및 생성장치, 그 기록매체 및 3차원 디스플레이 장치 |
US9300946B2 (en) | 2011-07-08 | 2016-03-29 | Personify, Inc. | System and method for generating a depth map and fusing images from a camera array |
JP2013024886A (ja) | 2011-07-14 | 2013-02-04 | Sanyo Electric Co Ltd | 撮像装置 |
JP5780865B2 (ja) | 2011-07-14 | 2015-09-16 | キヤノン株式会社 | 画像処理装置、撮像システム、画像処理システム |
US9363535B2 (en) | 2011-07-22 | 2016-06-07 | Qualcomm Incorporated | Coding motion depth maps with depth range variation |
US9264689B2 (en) | 2011-08-04 | 2016-02-16 | Semiconductor Components Industries, Llc | Systems and methods for color compensation in multi-view video |
CA2844602A1 (en) | 2011-08-09 | 2013-02-14 | Samsung Electronics Co., Ltd. | Method and device for encoding a depth map of multi viewpoint video data, and method and device for decoding the encoded depth map |
US8432435B2 (en) | 2011-08-10 | 2013-04-30 | Seiko Epson Corporation | Ray image modeling for fast catadioptric light field rendering |
US8866951B2 (en) | 2011-08-24 | 2014-10-21 | Aptina Imaging Corporation | Super-resolution imaging systems |
US9009952B2 (en) | 2011-08-29 | 2015-04-21 | Asm Technology Singapore Pte. Ltd. | Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same |
US8704895B2 (en) | 2011-08-29 | 2014-04-22 | Qualcomm Incorporated | Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
JP5879549B2 (ja) | 2011-09-20 | 2016-03-08 | パナソニックIpマネジメント株式会社 | ライトフィールド撮像装置、および画像処理装置 |
JP5544047B2 (ja) | 2011-09-21 | 2014-07-09 | 富士フイルム株式会社 | 画像処理装置、方法及びプログラム並びに立体撮像装置、携帯電子機器、プリンタ及び立体画像再生装置 |
US8724893B2 (en) | 2011-09-27 | 2014-05-13 | Thomson Licensing | Method and system for color look up table generation |
US8908083B2 (en) | 2011-09-28 | 2014-12-09 | Apple Inc. | Dynamic autofocus operations |
US9129183B2 (en) | 2011-09-28 | 2015-09-08 | Pelican Imaging Corporation | Systems and methods for encoding light field image files |
JP5831105B2 (ja) | 2011-09-30 | 2015-12-09 | ソニー株式会社 | 撮像装置及び撮像方法 |
CN104185808A (zh) | 2011-10-11 | 2014-12-03 | 派力肯影像公司 | 包括自适应光学元件的透镜堆叠阵列 |
EP2582128A3 (de) | 2011-10-12 | 2013-06-19 | Canon Kabushiki Kaisha | Bilderfassungsvorrichtung |
US20130107061A1 (en) | 2011-10-31 | 2013-05-02 | Ankit Kumar | Multi-resolution ip camera |
US9692991B2 (en) | 2011-11-04 | 2017-06-27 | Qualcomm Incorporated | Multispectral imaging system |
JP5149435B1 (ja) | 2011-11-04 | 2013-02-20 | 株式会社東芝 | 映像処理装置および映像処理方法 |
EP2590138B1 (de) | 2011-11-07 | 2019-09-11 | Flir Systems AB | Gasvisualisierungsanordnungen, Vorrichtungen und Verfahren |
GB201119405D0 (en) | 2011-11-10 | 2011-12-21 | Univ East Anglia | Spectral estimation method,system and reference target design system |
WO2013072875A2 (en) | 2011-11-15 | 2013-05-23 | Technion Research & Development Foundation Ltd. | Method and system for transmitting light |
US20130121559A1 (en) | 2011-11-16 | 2013-05-16 | Sharp Laboratories Of America, Inc. | Mobile device with three dimensional augmented reality |
US20130127988A1 (en) | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9661310B2 (en) | 2011-11-28 | 2017-05-23 | ArcSoft Hanzhou Co., Ltd. | Image depth recovering method and stereo image fetching device thereof |
JP6019568B2 (ja) | 2011-11-28 | 2016-11-02 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びに、プログラム |
EP2600316A1 (de) | 2011-11-29 | 2013-06-05 | Inria Institut National de Recherche en Informatique et en Automatique | Verfahren, System und Softwareprogramm zum Schießen und Bearbeiten eines Films umfassend mindestens ein Bild einer 3D-computergenerierten Animation |
KR101862404B1 (ko) | 2011-12-09 | 2018-05-29 | 엘지이노텍 주식회사 | 스테레오 영상의 노이즈 제거장치 및 방법 |
US9117295B2 (en) | 2011-12-20 | 2015-08-25 | Adobe Systems Incorporated | Refinement of depth maps by fusion of multiple estimates |
WO2013099169A1 (ja) | 2011-12-27 | 2013-07-04 | パナソニック株式会社 | ステレオ撮影装置 |
US8941722B2 (en) | 2012-01-03 | 2015-01-27 | Sony Corporation | Automatic intelligent focus control of video |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
WO2013119706A1 (en) | 2012-02-06 | 2013-08-15 | Pelican Imaging Corporation | Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain |
US9172889B2 (en) | 2012-02-09 | 2015-10-27 | Semiconductor Components Industries, Llc | Imaging systems and methods for generating auto-exposed high-dynamic-range images |
EP2817955B1 (de) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systeme und verfahren zur manipulation von bilddaten aus einem erfassten lichtfeld |
US9230333B2 (en) | 2012-02-22 | 2016-01-05 | Raytheon Company | Method and apparatus for image processing |
JP5860304B2 (ja) | 2012-02-23 | 2016-02-16 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 |
US8831377B2 (en) | 2012-02-28 | 2014-09-09 | Lytro, Inc. | Compensating for variation in microlens position during light-field image processing |
JP6112824B2 (ja) | 2012-02-28 | 2017-04-12 | キヤノン株式会社 | 画像処理方法および装置、プログラム。 |
JP5924978B2 (ja) | 2012-02-28 | 2016-05-25 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
EP2637139A1 (de) | 2012-03-05 | 2013-09-11 | Thomson Licensing | Verfahren und Vorrichtung für die Zweischichtsegmentierung |
WO2013151883A1 (en) | 2012-04-02 | 2013-10-10 | Intel Corporation | Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system |
US9156168B2 (en) | 2012-04-13 | 2015-10-13 | Automation Engineering, Inc. | Active alignment using continuous motion sweeps and temporal interpolation |
WO2013158636A1 (en) | 2012-04-16 | 2013-10-24 | Azizian Mahdi | Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures |
KR20150004858A (ko) * | 2012-04-20 | 2015-01-13 | 워싱톤 유니버시티 | 스펙트럼 편광 이미징 센서 |
US8994845B2 (en) | 2012-04-27 | 2015-03-31 | Blackberry Limited | System and method of adjusting a camera based on image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
JP2015521411A (ja) | 2012-05-01 | 2015-07-27 | ペリカン イメージング コーポレイション | πフィルタ群を用いてパターン化されたカメラモジュール |
US20150085073A1 (en) | 2012-05-02 | 2015-03-26 | Koninklijke Philips N.V. | Quality metric for processing 3d video |
US9300932B2 (en) | 2012-05-09 | 2016-03-29 | Lytro, Inc. | Optimization of optical systems for improved light field capture and manipulation |
US10215642B2 (en) * | 2012-05-17 | 2019-02-26 | The University Of Akron | System and method for polarimetric wavelet fractal detection and imaging |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9179126B2 (en) | 2012-06-01 | 2015-11-03 | Ostendo Technologies, Inc. | Spatio-temporal light field cameras |
WO2013182873A1 (en) | 2012-06-08 | 2013-12-12 | Nokia Corporation | A multi-frame image calibrator |
EP2677734A3 (de) | 2012-06-18 | 2016-01-13 | Sony Mobile Communications AB | Arraykameraabbildungssystem und Verfahren |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
JP5929553B2 (ja) | 2012-06-28 | 2016-06-08 | ソニー株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US8896594B2 (en) | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
US8792710B2 (en) | 2012-07-24 | 2014-07-29 | Intel Corporation | Stereoscopic depth reconstruction with probabilistic pixel correspondence search |
US9147251B2 (en) | 2012-08-03 | 2015-09-29 | Flyby Media, Inc. | Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications |
US8988566B2 (en) | 2012-08-09 | 2015-03-24 | Omnivision Technologies, Inc. | Lens array for partitioned image sensor having color filters |
US9860443B2 (en) | 2012-08-20 | 2018-01-02 | The Regents Of The University Of California | Monocentric lens designs and associated imaging systems having wide field of view and high resolution |
EP3869797B1 (de) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Verfahren zur tiefenerkennung in mit array-kameras aufgenommenen bildern |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
CN104584545B (zh) | 2012-08-31 | 2017-05-31 | 索尼公司 | 图像处理装置、图像处理方法、以及信息处理装置 |
US9214013B2 (en) | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
US9373088B2 (en) | 2012-09-17 | 2016-06-21 | The Board Of Trustees Of The Leland Stanford Junior University | Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device |
US9143673B2 (en) | 2012-09-19 | 2015-09-22 | Google Inc. | Imaging device with a plurality of pixel arrays |
US20140092281A1 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
TW201415879A (zh) | 2012-10-12 | 2014-04-16 | Wintek Corp | 影像擷取裝置 |
WO2014070927A2 (en) | 2012-10-31 | 2014-05-08 | Invisage Technologies, Inc. | Expanded-field-of-view image and video capture |
US9338370B2 (en) | 2012-11-05 | 2016-05-10 | Honeywell International Inc. | Visual system having multiple cameras |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
KR101954192B1 (ko) | 2012-11-15 | 2019-03-05 | 엘지전자 주식회사 | 어레이 카메라, 휴대 단말기 및 그 동작 방법 |
US9076205B2 (en) | 2012-11-19 | 2015-07-07 | Adobe Systems Incorporated | Edge direction and curve based image de-blurring |
TWI525382B (zh) | 2012-11-21 | 2016-03-11 | 豪威科技股份有限公司 | 包括至少一拜耳型攝影機的攝影機陣列系統及關聯的方法 |
CN116405747A (zh) | 2012-11-28 | 2023-07-07 | 核心光电有限公司 | 多孔径成像系统以及通过多孔径成像系统获取图像的方法 |
US9001226B1 (en) | 2012-12-04 | 2015-04-07 | Lytro, Inc. | Capturing and relighting images using multiple devices |
US9088369B2 (en) | 2012-12-28 | 2015-07-21 | Synergy Microwave Corporation | Self injection locked phase locked looped optoelectronic oscillator |
US8851370B2 (en) | 2013-01-02 | 2014-10-07 | Jpmorgan Chase Bank, N.A. | System and method for secure card with on-board verification |
US20140183334A1 (en) | 2013-01-03 | 2014-07-03 | Visera Technologies Company Limited | Image sensor for light field device and manufacturing method thereof |
US9270876B2 (en) | 2013-01-05 | 2016-02-23 | The Lightco Inc. | Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times |
KR20140094395A (ko) | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법 |
US9769365B1 (en) | 2013-02-15 | 2017-09-19 | Red.Com, Inc. | Dense field imaging |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
WO2014133974A1 (en) | 2013-02-24 | 2014-09-04 | Pelican Imaging Corporation | Thin form computational and modular array cameras |
US9853826B2 (en) | 2013-02-25 | 2017-12-26 | Qualcomm Incorporated | Establishing groups of internet of things (IOT) devices and enabling communication among the groups of IOT devices |
US20150002734A1 (en) | 2013-07-01 | 2015-01-01 | Motorola Mobility Llc | Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor |
US20140240469A1 (en) | 2013-02-28 | 2014-08-28 | Motorola Mobility Llc | Electronic Device with Multiview Image Capture and Depth Sensing |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
WO2014138697A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
US9124831B2 (en) | 2013-03-13 | 2015-09-01 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
WO2014164909A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Array camera architecture implementing quantum film sensors |
WO2014160142A1 (en) | 2013-03-13 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
JP2016524125A (ja) | 2013-03-15 | 2016-08-12 | ペリカン イメージング コーポレイション | カメラアレイを用いた立体撮像のためのシステムおよび方法 |
WO2014144157A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US20140267286A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and Methods for Providing an Array Projector |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US20140307055A1 (en) | 2013-04-15 | 2014-10-16 | Microsoft Corporation | Intensity-modulated light pattern for active stereo |
JPWO2014175136A1 (ja) * | 2013-04-23 | 2017-02-23 | コニカミノルタ株式会社 | 光学フィルム、円偏光板及び有機エレクトロルミネッセンス表示装置 |
RU2667605C2 (ru) | 2013-05-10 | 2018-09-21 | Конинклейке Филипс Н.В. | Способ кодирования сигнала видеоданных для использования с многовидовым устройством визуализации |
US9495594B2 (en) * | 2013-07-18 | 2016-11-15 | The United States Of America As Represented By The Secretary Of The Army | Image anomaly detection in a target area using polarimetric sensor data |
JP6201476B2 (ja) | 2013-07-18 | 2017-09-27 | 凸版印刷株式会社 | 自由視点画像撮像装置およびその方法 |
WO2015015722A1 (ja) * | 2013-07-29 | 2015-02-05 | パナソニックIpマネジメント株式会社 | 光学フィルタおよびそれを用いた偏光撮像装置 |
KR102103983B1 (ko) | 2013-07-31 | 2020-04-23 | 삼성전자주식회사 | 시프트된 마이크로 렌즈 어레이를 구비하는 라이트 필드 영상 획득 장치 |
US20160182786A1 (en) | 2013-09-11 | 2016-06-23 | Lytro, Inc. | Hybrid light-field camera |
CN103514580B (zh) | 2013-09-26 | 2016-06-08 | 香港应用科技研究院有限公司 | 用于获得视觉体验优化的超分辨率图像的方法和系统 |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
WO2015048906A1 (en) | 2013-10-03 | 2015-04-09 | Sulon Technologies Inc. | Augmented reality system and method for positioning and mapping |
US20150098079A1 (en) | 2013-10-09 | 2015-04-09 | Hilti Aktiengesellschaft | System and method for camera based position and orientation measurement |
US20150104101A1 (en) | 2013-10-14 | 2015-04-16 | Apple Inc. | Method and ui for z depth image segmentation |
US9423484B2 (en) * | 2013-10-22 | 2016-08-23 | Polaris Sensor Technologies, Inc. | Sky polarization and sun sensor system and method |
US10962625B2 (en) * | 2013-10-22 | 2021-03-30 | Polaris Sensor Technologies, Inc. | Celestial positioning system and method |
US9264592B2 (en) | 2013-11-07 | 2016-02-16 | Pelican Imaging Corporation | Array camera modules incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
WO2015152984A2 (en) * | 2014-01-22 | 2015-10-08 | Polaris Sensor Technologies, Inc. | Polarization imaging for facial recognition enhancement system and method |
US10395113B2 (en) * | 2014-01-22 | 2019-08-27 | Polaris Sensor Technologies, Inc. | Polarization-based detection and mapping method and system |
KR102135770B1 (ko) | 2014-02-10 | 2020-07-20 | 한국전자통신연구원 | 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치 |
GB2523149A (en) | 2014-02-14 | 2015-08-19 | Nokia Technologies Oy | Method, apparatus and computer program product for image-driven cost volume aggregation |
US9979878B2 (en) | 2014-02-21 | 2018-05-22 | Light Labs Inc. | Intuitive camera user interface methods and apparatus |
JP6211435B2 (ja) | 2014-02-26 | 2017-10-11 | 株式会社アドバンテスト | 半導体装置の製造方法 |
US9307159B2 (en) * | 2014-03-04 | 2016-04-05 | Panasonic Intellectual Property Management Co., Ltd. | Polarization image processing apparatus |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US20160042548A1 (en) | 2014-03-19 | 2016-02-11 | Intel Corporation | Facial expression and/or interaction driven avatar apparatus and method |
KR102397254B1 (ko) | 2014-03-28 | 2022-05-12 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 수술 장면의 정량적인 3차원 영상 |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
GB2525660A (en) | 2014-05-01 | 2015-11-04 | Mastercard International Inc | Methods, devices and systems for transaction initiation |
WO2015183824A1 (en) | 2014-05-26 | 2015-12-03 | Pelican Imaging Corporation | Autofocus system for a conventional camera that uses depth information from an array camera |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
US9729865B1 (en) | 2014-06-18 | 2017-08-08 | Amazon Technologies, Inc. | Object detection and tracking |
US9992483B2 (en) | 2014-09-03 | 2018-06-05 | Intel Corporation | Imaging architecture for depth camera mode with mode switching |
US10250871B2 (en) | 2014-09-29 | 2019-04-02 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
US9766461B2 (en) | 2015-01-20 | 2017-09-19 | Microsoft Technology Licensing, Llc | Head-mounted display device with stress-resistant components |
US9964482B2 (en) * | 2015-01-26 | 2018-05-08 | The United States Of America As Represented By The Secretary Of The Army | Detecting clouds using polarized sunlight |
US10260866B2 (en) | 2015-03-06 | 2019-04-16 | Massachusetts Institute Of Technology | Methods and apparatus for enhancing depth maps with polarization cues |
US20160267486A1 (en) | 2015-03-13 | 2016-09-15 | Radiius Corp | Smartcard Payment System and Method |
KR20180030773A (ko) | 2015-04-17 | 2018-03-26 | 포토네이션 케이맨 리미티드 | 어레이 카메라들을 이용한 고속 비디오 캡처 및 심도 추정을 수행하기 위한 시스템 및 방법 |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
EP3286914B1 (de) | 2015-04-19 | 2019-12-25 | FotoNation Limited | Architekturen eines kameragruppensystem mit mehreren grundlinien zur tiefenerweiterung bei vr/ar-anwendungen |
JP6512928B2 (ja) | 2015-04-28 | 2019-05-15 | キヤノン株式会社 | 画像符号化装置、画像処理装置、画像符号化方法 |
US9679526B2 (en) | 2015-06-30 | 2017-06-13 | Nxp Usa, Inc. | Display system, an integrated circuit for use in the display system, and a method of displaying at least two images on at least two screens |
US20170011405A1 (en) | 2015-07-09 | 2017-01-12 | Mastercard International Incorporated | Simultaneous multi-factor authentication systems and methods for payment transactions |
JP6626295B2 (ja) | 2015-09-09 | 2019-12-25 | キヤノン株式会社 | 画像符号化装置、画像処理装置、画像符号化方法 |
WO2017057058A1 (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11257075B2 (en) | 2015-10-20 | 2022-02-22 | Paypal, Inc. | Secure multi-factor user authentication on disconnected mobile devices |
US20170142405A1 (en) | 2015-10-21 | 2017-05-18 | Praxik, LLC. | Apparatus, Systems and Methods for Ground Plane Extension |
AU2016374520C1 (en) | 2015-12-14 | 2020-10-15 | Motion Metrics International Corp. | Method and apparatus for identifying fragmented material portions within an image |
US9741163B2 (en) * | 2015-12-22 | 2017-08-22 | Raytheon Company | 3-D polarimetric imaging using a microfacet scattering model to compensate for structured scene reflections |
JP2017125809A (ja) * | 2016-01-15 | 2017-07-20 | 株式会社リコー | 情報処理装置、情報処理システムおよびプログラム |
US20170268990A1 (en) * | 2016-03-17 | 2017-09-21 | Canon Kabushiki Kaisha | Separating diffuse and specular components of a glossy object for shape reconstruction using electronic light diffusing layers (e-glass) and polarized light |
US20170337682A1 (en) * | 2016-05-18 | 2017-11-23 | Siemens Healthcare Gmbh | Method and System for Image Registration Using an Intelligent Artificial Agent |
US10546297B2 (en) | 2016-06-30 | 2020-01-28 | Paypal, Inc. | Hardware and token based user authentication |
JP6697681B2 (ja) | 2016-08-17 | 2020-05-27 | ソニー株式会社 | 検査装置、検査方法、およびプログラム |
WO2018053181A1 (en) | 2016-09-14 | 2018-03-22 | Fotonation Cayman Limited | Optical systems for cameras incorporating lens elements formed separately and subsequently bonded to low cte substrates |
US10466036B2 (en) | 2016-10-07 | 2019-11-05 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera |
US11832969B2 (en) * | 2016-12-22 | 2023-12-05 | The Johns Hopkins University | Machine learning approach to beamforming |
US20180189767A1 (en) | 2016-12-29 | 2018-07-05 | Fotonation Limited | Systems and methods for utilizing payment card information with a secure biometric processor on a mobile device |
JP7013651B2 (ja) | 2017-02-06 | 2022-02-01 | 株式会社リコー | サーバ装置、判別プログラム及び判別システム |
WO2018165027A1 (en) * | 2017-03-06 | 2018-09-13 | Polaris Sensor Technologies, Inc. | Polarization-based detection and mapping method and system |
US10976239B1 (en) * | 2017-03-14 | 2021-04-13 | Hart Scientific Consulting International Llc | Systems and methods for determining polarization properties with high temporal bandwidth |
US10643382B2 (en) | 2017-04-04 | 2020-05-05 | Intel Corporation | Application of convolutional neural networks to object meshes |
US11108951B2 (en) * | 2017-06-13 | 2021-08-31 | Sony Corporation | Image capturing device and imaging element, and image processing method |
KR102351542B1 (ko) | 2017-06-23 | 2022-01-17 | 삼성전자주식회사 | 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치 |
US11399144B2 (en) * | 2017-07-12 | 2022-07-26 | Sony Group Corporation | Imaging apparatus, image forming method, and imaging system |
JP6585668B2 (ja) | 2017-07-20 | 2019-10-02 | セコム株式会社 | 物体検出装置 |
US10742894B2 (en) * | 2017-08-11 | 2020-08-11 | Ut-Battelle, Llc | Optical array for high-quality imaging in harsh environments |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
JP6695843B2 (ja) | 2017-09-25 | 2020-05-20 | ファナック株式会社 | 装置、及びロボットシステム |
US11373396B2 (en) * | 2017-11-06 | 2022-06-28 | Google Llc | Systems and methods for improved feature extraction using polarization information |
US10643383B2 (en) | 2017-11-27 | 2020-05-05 | Fotonation Limited | Systems and methods for 3D facial modeling |
CN109961406B (zh) | 2017-12-25 | 2021-06-25 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
US11024046B2 (en) | 2018-02-07 | 2021-06-01 | Fotonation Limited | Systems and methods for depth estimation using generative models |
US20210081698A1 (en) | 2018-02-09 | 2021-03-18 | Nano Techgalaxy, Inc. D/B/A Galaxy.Ai | Systems and methods for physical object analysis |
US10872221B2 (en) * | 2018-06-21 | 2020-12-22 | Amazon Technologies, Inc | Non-contact biometric identification system |
US20200012119A1 (en) * | 2018-07-06 | 2020-01-09 | Polaris Sensor Technologies, Inc. | Reducing glare for objects viewed through transparent surfaces |
KR20210038903A (ko) * | 2018-07-30 | 2021-04-08 | 하이퍼파인 리서치, 인크. | 자기 공명 이미지 재구성을 위한 딥 러닝 기술 |
US11315321B2 (en) | 2018-09-07 | 2022-04-26 | Intel Corporation | View dependent 3D reconstruction mechanism |
US10763989B2 (en) * | 2018-10-16 | 2020-09-01 | Nec Corporation | Machine learning based classification of higher-order spatial modes |
US10708557B1 (en) * | 2018-12-14 | 2020-07-07 | Lyft Inc. | Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors |
US10659751B1 (en) | 2018-12-14 | 2020-05-19 | Lyft Inc. | Multichannel, multi-polarization imaging for improved perception |
CN110363070A (zh) * | 2019-05-31 | 2019-10-22 | 合刃科技(武汉)有限公司 | 智能识别道路状态的方法、装置及计算机程序产品 |
US11431884B2 (en) * | 2019-09-16 | 2022-08-30 | Meta Platforms Technologies, Llc | Polarization capture device for identifying feature of object |
US11461998B2 (en) * | 2019-09-25 | 2022-10-04 | Samsung Electronics Co., Ltd. | System and method for boundary aware semantic segmentation |
-
2020
- 2020-08-28 CN CN202080082466.4A patent/CN114787648B/zh active Active
- 2020-08-28 CA CA3162710A patent/CA3162710A1/en active Pending
- 2020-08-28 KR KR1020227019545A patent/KR102558903B1/ko active IP Right Grant
- 2020-08-28 US US17/266,046 patent/US11302012B2/en active Active
- 2020-08-28 MX MX2022005289A patent/MX2022005289A/es unknown
- 2020-08-28 DE DE112020005932.4T patent/DE112020005932T5/de active Pending
- 2020-08-28 JP JP2022531617A patent/JP7329143B2/ja active Active
- 2020-08-28 WO PCT/US2020/048604 patent/WO2021108002A1/en unknown
- 2020-08-28 KR KR1020237024658A patent/KR20230116068A/ko active Search and Examination
- 2020-08-28 EP EP20893428.1A patent/EP4066001A4/de active Pending
-
2022
- 2022-03-08 US US17/689,396 patent/US11842495B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CA3162710A1 (en) | 2021-06-03 |
US11842495B2 (en) | 2023-12-12 |
EP4066001A1 (de) | 2022-10-05 |
KR20230116068A (ko) | 2023-08-03 |
KR102558903B1 (ko) | 2023-07-24 |
EP4066001A4 (de) | 2024-01-24 |
US11302012B2 (en) | 2022-04-12 |
JP7329143B2 (ja) | 2023-08-17 |
CN114787648B (zh) | 2023-11-10 |
WO2021108002A1 (en) | 2021-06-03 |
MX2022005289A (es) | 2022-08-08 |
US20210264607A1 (en) | 2021-08-26 |
CN114787648A (zh) | 2022-07-22 |
US20220198673A1 (en) | 2022-06-23 |
JP2022550216A (ja) | 2022-11-30 |
KR20220163344A (ko) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112020005932T5 (de) | Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen | |
DE112020004810B4 (de) | Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation | |
CN111046703B (zh) | 人脸防伪检测方法、装置及多目相机 | |
Liao et al. | Processing of multiresolution thermal hyperspectral and digital color data: Outcome of the 2014 IEEE GRSS data fusion contest | |
DE112020004391T5 (de) | Systeme und verfahren zur oberflächenmodellierung unter verwendung von polarisationsmerkmalen | |
DE102011106050B4 (de) | Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads | |
DE112010004767T5 (de) | Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm | |
DE112014004190T5 (de) | Positurschätzverfahren und Roboter | |
DE102014019054A1 (de) | Datenverarbeitungssystem und Verfahren zur Durchführung einer Gesichtserkennung | |
DE202009013865U1 (de) | Konzept zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen und Konzept zum Inspizieren einer Freiformoberfläche | |
DE102011105182A1 (de) | Verfahren zur Bereitstellung eines Vorhersagemodells für eine Rissdetektion und Verfahren zur Rissdetektion an einer Halbleiterstruktur | |
DE102017220752A1 (de) | Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm | |
DE112020005864T5 (de) | Verfahren und Einrichtung zur Verifizierung der Authentizität eines Produkts | |
DE102015207903A1 (de) | Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem | |
Kemker et al. | High-resolution multispectral dataset for semantic segmentation | |
EP3158543B1 (de) | Verfahren zum detektieren eines blickwinkelabhängigen merkmals eines dokumentes | |
Donate et al. | Classification of textures distorted by waterwaves | |
EP3021256A1 (de) | Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem | |
WO2022100959A1 (de) | Verfahren zum bereitstellen von kalibrierungsdaten zum kalibrieren einer kamera, verfahren zum kalibrieren einer kamera, verfahren zum herstellen zumindest eines vordefinierten punktsymmetrischen bereichs und vorrichtung | |
DE102021210256A1 (de) | Messsystem und Aufzeichnungsmedium, das darauf ein Messprogramm speichert | |
Li et al. | A new framework of hyperspectral image classification based on spatial spectral interest point | |
DE112020005230T5 (de) | Bildverarbeitungssystem, Einstellverfahren und -programm | |
Conni et al. | Dependence of texture classification accuracy on spectral information | |
CN116246216A (zh) | 一种建筑拆除爆破用炸药的识别方法、装置以及处理设备 | |
WO2022100988A1 (de) | Verfahren zum bereitstellen von überwachungsdaten zur detektion eines beweglichen objekts, verfahren zur detektion eines beweglichen objekts, verfahren zum herstellen zumindest eines vordefinierten punktsymmetrischen bereichs und vorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: INTRINSIC INNOVATION LLC, MOUNTAIN VIEW, US Free format text: FORMER OWNER: BOSTON POLARIMETRICS, INC., PALO ALTO, CA, US |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY GERMANY LLP, DE |