DE112011102167T5 - Stereobilderfassung mit einer Pipeline - Google Patents

Stereobilderfassung mit einer Pipeline Download PDF

Info

Publication number
DE112011102167T5
DE112011102167T5 DE112011102167T DE112011102167T DE112011102167T5 DE 112011102167 T5 DE112011102167 T5 DE 112011102167T5 DE 112011102167 T DE112011102167 T DE 112011102167T DE 112011102167 T DE112011102167 T DE 112011102167T DE 112011102167 T5 DE112011102167 T5 DE 112011102167T5
Authority
DE
Germany
Prior art keywords
image data
lines
camera module
raw image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011102167T
Other languages
English (en)
Inventor
Jianping Zhou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112011102167T5 publication Critical patent/DE112011102167T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Bei manchen Ausführungsformen umfasst eine elektronische Vorrichtung ein erstes Kameramodul und ein zweites Kameramodul, einen ersten Empfänger zum Empfangen eines ersten Satzes von Linien der Rohbilddaten aus dem ersten Kameramodul, einen zweiten Empfänger zum Empfangen eines zweiten Satzes von Linien der Rohbilddaten aus dem zweiten Kameramodul und Logik zum Kombinieren des ersten Satzes von Linien mit dem zweiten Satz von Linien, um kombinierte Linien der Rohbilddaten zu erzeugen, zum Verarbeiten der kombinierten Linien der Rohbilddaten und zum Erzeugen eines kombinierten Bild-Frames aus den kombinierten Linien der Rohbilddaten. Auch andere Ausführungsformen können beschrieben werden.

Description

  • HINTERGRUND
  • Der hier beschriebene Gegenstand betrifft im Allgemeinen das Feld der Bildverarbeitung und insbesondere Systeme und Verfahren für eine Stereobilderfassung.
  • Elektronische Vorrichtungen wie beispielsweise Mobiltelefone, persönliche digitale Assistenten, tragbare Computer und dergleichen können eine Kamera zum Erfassen von Bildern umfassen. Beispielsweise kann ein Mobiltelefon eine Kamera umfassen, welche auf dem Telefon angeordnet ist, um Bilder zu erfassen. Elektronische Vorrichtungen können mit einer Bildsignal-Verarbeitungs-Pipeline ausgestattet sein, um Bilder zu erfassen, welche von der Kamera aufgenommen werden, die Bilder zu verarbeiten und die Bilder im Speicher zu speichern und/oder die Bilder anzuzeigen.
  • Die Stereobilderfassung bezieht eine Verwendung von mindestens zwei Kameras zum Erzeugen eines Bildes ein. Die Stereobilderfassung bietet Bildgebungsmerkmale, welche bei einer herkömmlichen Bildgebung mit einer einzelnen Kamera nicht verfügbar sind. Folglich können Verfahren zum Ausrüsten elektronischer Vorrichtungen mit der Fähigkeit, eine Stereobildgebung zu implementieren, Anwendungen finden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die ausführliche Beschreibung wird unter Bezugnahme auf die begleitenden Figuren beschrieben.
  • 1 ist eine Schemaansicht einer elektronischen Vorrichtung gemäß manchen Ausführungsformen.
  • 2 ist eine Schemaansicht von Komponenten zur Verwendung bei einer Stereobilderfassung mit einer einzelnen Pipeline gemäß Ausführungsformen.
  • 3 ist ein Ablaufdiagramm, welches ein Bildsignalprozessor-Multiplexen gemäß manchen Ausführungsformen illustriert.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Hier sind beispielhafte Systeme und Verfahren zur Stereobilderfassung in elektronischen Vorrichtungen beschrieben. In der folgenden Beschreibung werden zahlreiche spezifische Details ausgeführt, um ein gründliches Verständnis der verschiedenen Ausführungsformen bereitzustellen. Durchschnittsfachleute verstehen jedoch, dass die verschiedenen Ausführungsformen ohne die spezifischen Details in die Praxis umgesetzt werden können. In anderen Fällen können wohlbekannte Verfahren, Verfahrensweisen, Komponenten und Schaltungen nicht illustriert oder ausführlich beschrieben sein, um die bestimmten Ausführungsformen nicht zu verschleiern.
  • Bei manchen Ausführungsformen ermöglicht der hier beschriebene Gegenstand einer elektronischen Vorrichtung Bilder aus mehreren Kameramodulen aufzunehmen, ohne eine Notwendigkeit für unabhängige Bildsignal-Prozessorkanäle. Folglich ermöglichen die hier beschriebenen Systeme und Verfahren einer elektronischen Vorrichtung eine Stereobilderfassung von Bildern aus mehreren Kameramodulen durch eine einzelne Bildprozessor-Pipeline. Die Bildsignale können in einem Speicher gespeichert werden und/oder auf einer Anzeigevorrichtung angezeigt werden.
  • 1 ist eine Schemaansicht einer elektronischen Vorrichtung, welche eingerichtet werden kann, um eine Stereobilderfassung gemäß manchen Ausführungsformen durchzuführen. Unter Bezugnahme auf 1 kann bei manchen Ausführungsformen eine elektronische Vorrichtung 110 als ein Mobiltelefon, ein PDA-Minicomputer (PDA) oder dergleichen ausgeführt werden. Die elektronische Vorrichtung 110 kann einen HF-Sendeempfänger 150 zum Übertragen von HF-Signalen und ein Signalverarbeitungsmodul 152 zum Verarbeiten von Signalen aufweisen, welche von dem HF-Sendeempfänger 150 empfangen werden.
  • Der HF-Sendeempfänger kann eine lokale drahtlose Verbindung über ein Protokoll implementieren, wie beispielsweise Bluetooth oder eine 802.11X. IEEE 802.11a-, b- oder g-konforme Schnittstelle (man siehe z. B. IEEE Standard for IT-Telecommunications and information exchange between systems LAN/MAN-Part II: Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) specifications Amendment 4: Further Higher Data Rate Extension in the 2.4 GHz Band, 802.11G-2003). Ein anderes Beispiel einer drahtlosen Schnittstelle wäre eine paketbasierte Datenübertragungsschnittstelle (GPRS, General Packet Radio Service) (man siehe z. B. Guidelines an GPRS Handset Requirements, Global System for Mobile Communications/GSM Association, Ver. 3.0.1, Dezember 2002).
  • Die elektronische Vorrichtung 110 kann weiterhin ein oder mehrere Prozessoren 154 und ein Speichermodul 156 aufweisen. Wie hier verwendet, bedeutet der Begriff „Prozessor” jeden Typ eines rechnerischen Elements, wie beispielsweise insbesondere einen Mikroprozessor, eine Mikrosteuerung, einen CISC-Mikroprozessor (CISC, Complex Instruction Set Computing), einen RISC-Mikroprozessor (RISC, Reduced Instruction Set), einen VLIW-Mikroprozessor (VLIW, Very Long Instruction Word) oder jeden anderen Typ eines Prozessors oder einer Verarbeitungsschaltung. Bei manchen Ausführungsformen kann der Prozessor 154 ein oder mehrere Prozessoren der Familie von Intel® PXA27x Prozessoren sein, welche von der Intel® Corporation in Santa Clara, Kalifornien, erhältlich sind. Ersatzweise können andere CPUs verwendet werden, wie beispielsweise Intels Itanium®, XEONTM, ATOMTM und Celeron® Prozessoren. Es können auch ein oder mehrere Prozessoren von anderen Herstellern eingesetzt werden. Ferner können die Prozessoren einen einzelnen Kern oder mehrere Kerne aufweisen. Bei manchen Ausführungsformen weist das Speichermodul 156 Direktzugriffsspeicher (RAM) auf; das Speicher-Modul 156 kann jedoch unter Verwendung anderer Speichertypen wie beispielsweise dynamisches RAM (DRAM), synchrones DRAM (SDRAM) und dergleichen implementiert werden. Die Elektronische Vorrichtung 110 kann weiterhin ein oder mehrere Eingangs-/Ausgangs-Schnittstellen aufweisen, wie beispielsweise ein Tastenfeld 158 und eine oder mehrere Anzeigen 160.
  • Bei manchen Ausführungsformen umfasst die elektronische Vorrichtung 110 mindestens zwei Kameramodule 162 und einen Bildsignalprozessor 164. Beispielhaft und nicht begrenzend können ein erstes Kameramodul 162 und ein zweites Kameramodul 162 einander benachbart auf der elektronischen Vorrichtung 110 derartig angeordnet sein, dass die Kameramodule 162 positioniert sind, Stereobilder zu erfassen. Gesichtspunkte der Kameramodule und des Bildsignalprozessors 164 sowie die dazugehörige Bildverarbeitungs-Pipeline werden unter Bezugnahme auf 2 bis 3 ausführlicher erklärt.
  • 2 ist eine Schemaansicht von Komponenten zur Verwendung bei einer Stereobilderfassung gemäß Ausführungsformen. Unter Bezugnahme auf 2 kann bei manchen Ausführungsformen ein Bildsignalprozessor-(ISP)-Modul 164, wie in 1 illustriert, als ein integrierter Schaltkreis oder als eine Komponente davon oder als ein Chipsatz oder als ein Modul innerhalb eines Systems auf einem Chip (SOC) implementiert werden. Bei alternativen Ausführungsformen kann das ISP-Modul 164 als Logik, welche in einer programmierbaren Vorrichtung codiert ist, z. B. in einem feldprogrammierbaren Gate-Array (FPGA), oder als Logikanweisungen auf einem Universalprozessor oder als Logikanweisungen auf speziellen Prozessoren implementiert werden, wie beispielsweise einem digitalen Signalprozessor (DSP) oder SIMD-Vektorprozessoren (SIMD, Single Instruction Multiple Data).
  • Bei der in 2 dargestellten Ausführungsform umfasst das ISP-Modul 164 eine Bildverarbeitungsvorrichtung 210, welche wiederum einen ersten Kameraempfänger 222 und einen zweiten Kameraempfänger 224, eine Bildsignal-Verarbeitungsschnittstelle 226, eine Bildsignal-Verarbeitungs-Pipeline 228 und eine Speicherdirektzugriff-(DMA)-Engine 230 umfasst. Das ISP-Modul 164 ist mit dem Speichermodul 156 der Vorrichtung 110 gekoppelt oder kann es aufweisen. Das Speichermodul 156 unterhält einen ersten Frame-Puffer 242 und einen zweiten Frame-Puffer 244. Das Speichermodul 156 ist mit einem Grafikprozessor 250 und mit einem Codierer gekoppelt. Das Prozessormodul 154 der Vorrichtung 110 kann Logikanweisungen für die Kamerasteuerungseinheiten 230 und 232 ausführen, welche Betriebsparameter der ersten Kamera 162A bzw. der zweiten Kamera 162B steuern.
  • Bei manchen Ausführungsformen passt das ISP-Modul 164 die elektronische Vorrichtung 110 an, eine Stereobilderfassung mit einer einzelnen Pipeline zu implementieren. Bei derartigen Ausführungsformen können Stereobilder, welche von mehreren Kameramodulen 162A, 162B erfasst wurden, von einem Bildprozessor mit einer einzelnen Pipeline 228 verarbeitet werden. Dies ermöglicht eine Stereobilderfassung mit minimalen Veränderungen an herkömmlichen Bildprozessorarchitekturen mit einer einzelnen Pipeline.
  • Die Struktur und die Vorgänge der elektronischen Vorrichtung 110 werden unter Bezugnahme auf 2 bis 3 beschrieben. Bei manchen Ausführungsformen werden Bilder von einem ersten Kameramodul 162A in einen ersten Empfänger 222 (Operation 310) eingegeben, und Bilder von einem zweiten Kameramodul 162B werden in einen zweiten Empfänger 224 (Operation 315) eingegeben. Bei manchen Ausführungsformen können die Kameramodule 162A und 162B, auf welche hier manchmal zusammen durch das Bezugszeichen 162 verwiesen wird, eine optische Anordnung umfassen, z. B. eine oder mehrere Linsen, welche mit einer Bilderfassungsvorrichtung gekoppelt ist, z. B. an eine ladungsgekoppelte Vorrichtung (CCD) oder an eine komplementäre MOS-Vorrichtung (CMOS). Die Ausgabe der Erfassungsvorrichtung kann in dem Format eines Bayer-Frames geschehen. Die Ausgabe von Bayer-Frames aus der CCD- oder CMOS-Vorrichtung kann zeitlich abgetastet werden, um eine Reihe von Bayer-Frames zu produzieren, welche an die Empfänger 222, 224 geleitet werden. Auf diese unverarbeiteten Bild-Frames kann hier manchmal als Roh-Frames verwiesen werden. Durchschnittsfachleute erkennen, dass die Rohbild-Frames als ein Array oder eine Matrix von Datenwerten entsprechend den Ausgaben der CCD- oder CMOS-Vorrichtung in den Kameramodulen 162 ausgeführt werden können.
  • Die Roh-Bayer-Frames werden einer ISP-Schnittstelle 226 eingegeben, welche die Bilddaten in den Roh-Bayer-Frames kombiniert. Bei manchen Ausführungsformen geben die Kameraempfänger 222, 224 Bilddaten linienweise frei, und benachbarte Linien sind durch eine vertikale Austastungsperiode getrennt. Bei derartigen Ausführungsformen kombiniert die ISP-Schnittstelle 226 die Bilddaten aus Empfänger A 222 und Empfänger B 224 auf einer linienweisen Basis derartig, dass entsprechende Linien aus den Empfängerbilddaten in jedem der Empfänger A 222 und Empfänger B 224 logisch zu einer einzelnen Linie verknüpft werden. Folglich, unter Bezugnahme auf 3, wenn es bei Operation 330 weitere Linien in dem Roh-Frame gibt, welcher verarbeitet werden soll, geht die Steuerung dann zurück zu Operation 320, und die nächsten Linien in den Roh-Frame-Daten werden kombiniert.
  • Wenn es im Gegensatz dazu bei Operation 330 keine weiteren Linien in dem Roh-Frame mehr gibt, welcher verarbeitet werden soll, geht die Steuerung auf die Operation 335 über, und aus den Rohbilddaten, welche durch Empfänger A 222 und Empfänger B 224 empfangen werden, wird ein kombiniertes Bild erzeugt. Die ISP-Schnittstelle gibt die kombinierten Linien der Bilddaten an die ISP-Pipeline 228 weiter, welche die kombinierten Linien der Bilddaten verarbeitet. Bei manchen Ausführungsformen verarbeitet die ISP-Pipeline die Rohbilddaten, um einen YUV-Frame zu erzeugen.
  • Bei Operation 340 wird das kombinierte Bild in einem Speicherort gespeichert, und/oder es kann auf einem geeigneten Anzeigemodul angezeigt werden. Das DMA-Modul 230 speichert den YUV-Frame in einem Frame-Puffer 242. Unter Bezugnahme auf 2 weist die ISP-Pipeline 228 bei manchen Ausführungsformen interne Linienpuffer auf, um benachbarte Pixeldaten zu speichern. Der YUV-Frame kann in einen Grafikprozessor 250 eingegeben werden, welcher das Bild zur Präsentation auf einem Anzeigemodul verarbeiten kann. Das verarbeitete Bild kann in einem Frame-Puffer 244 gespeichert werden. Das verarbeitete Bild kann dann an ein Anzeigesteuergerät 252 ausgegeben werden, welches das Bild auf einer Anzeige 260 darstellt. Weiterhin kann das YUV-Bild in dem Frame-Puffer 244 an einen Codierer 254 weitergegeben werden, welcher den Frame für ein Multi-View-Encoding codiert. Der codierte Frame kann in einem geeigneten Speichermedium 270 gespeichert werden.
  • Bei manchen Ausführungsformen stellt die ISP-Pipeline einen Rückmeldungsmechanismus bereit, welcher den Kamerasteuerungsmodulen 230, 232 ermöglicht, Parameter der Kamerasteuerung als Reaktion auf Parameter der Echtzeit-Bildverarbeitung zu modifizieren. Bei Ausführungsformen, bei welchen die Kameramodule 162 für eine Stereobilderfassung verwendet werden, werden die Kameramodule zum gleichen Zeitpunkt auf das gleiche Objekt fokussiert. Deshalb weisen die Frames, welche von den Kameramodulen gesammelt werden, die gleichen Belichtungsbedingungen und den gleichen Inhalt auf. Wenn die gleichen Kameramodule verwendet werden, können folglich die gleichen Parameter der Bildverarbeitung auf beide Kameramodule angewandt werden. Wenn die Kameramodule jedoch unterschiedlich sind oder verschiedene Eigenschaften aufweisen, müssen die Parameter der Bildverarbeitung u. U. verschieden angewandt werden. Folglich können die Kamerasteuerungsmodule 230, 232 die Kameramodule 162A, 162B verschieden steuern.
  • Die Kamerasteuerungsmodule 230, 232 verwenden eine Fensterbasierte Bildstatistik, um verschiedene Kameraparameter, z. B. Verschlusszeit, analoger Verstärkungswert, fokale Entfernung usw., für verschiedene Belichtungsbedingungen und verschiedene Szenen einzustellen. Die Bildstatistik, welche aus eingehenden Frames gesammelt wird, weist die Fenster für Frames auf, welche von beiden Kameramodulen 162A, 162B gesammelt werden. Wenn ein kombinierter Frame durch die ISP-Pipeline 228 verarbeitet wird, wird die Statistik aus einem ersten Kameramodul 162A von einem ersten Kamerasteuerungsmodul 230 gelesen und wird die Statistik aus einem zweiten Kameramodul 162B von einem zweiten Kamerasteuerungsmodul 232 gelesen. Die Kamerasteuerungsmodule 230, 232 lesen die Daten aus den Frames, welche durch die ISP-Pipeline verarbeitet werden, und berechnen aus den Daten neue Parameter für die Kameramodule 162A, 162B. Die neuen Parameter der Kamerasteuerung können in Speicherregister geschrieben werden und verwendet werden, um nachfolgende Frames zu erfassen. Auf diese Weise implementieren die ISP- und die Kamerasteuerungsmodule eine Rückkopplungsschleife, welche die Kameraparameter ständig auf der Grundlage aktueller Betriebsbedingungen einstellt. Die Kamerasteuerungsmodule 230, 232 können als getrennte Instanzen, welche getrennte Threads ausführen, oder als ein einzelnes Steuerungsmodul implementiert werden, welches einen einzelnen Verarbeitungs-Thread einsetzt.
  • Folglich sind hier beispielhafte Systeme und Verfahren zur Stereobilderfassung in elektronischen Vorrichtungen beschrieben. Bei manchen Ausführungsformen kann eine elektronische Vorrichtung mit mehreren Kameramodulen ausgestattet werden, welche angeordnet sind, Bilder eines Objekts in einer gleichzeitigen Weise zu erfassen. Die Rohbilddaten aus dem Kameramodul werden an eine Bildsignalprozessor-Schnittstelle geleitet, welche die Bilder linienweise kombiniert und die kombinierten Linien in eine einzelne Bildsignalprozessor-Pipeline einspeist, welche die kombinierten Bilder zu YUV-Bild-Frames verarbeitet. Die YUV-Bild-Frames können in einem Speicher gespeichert werden und/oder auf einer Anzeige dargestellt werden.
  • Der Begriff „Logikanweisungen”, wie er hier verwendet wird, betrifft Ausdrücke, welche von einer oder mehreren Maschinen zum Durchführen eines oder mehrerer logischer Vorgänge verstanden werden können. Beispielsweise können Logikanweisungen Anweisungen umfassen, welche von einem Prozessor-Compiler zum Ausführen eines oder mehrerer Vorgänge auf einem oder mehreren Datenobjekten interpretierbar sind. Jedoch ist dies bloß ein Beispiel maschinenlesbarer Anweisungen, und Ausführungsformen sind in dieser Hinsicht nicht eingeschränkt.
  • Der Begriff „computerlesbares Medium”, wie er hier verwendet wird, betrifft Medien, welche in der Lage sind, Ausdrücke zu unterhalten, welche von einer oder mehreren Maschinen wahrnehmbar sind. Beispielsweise kann ein computerlesbares Medium eine oder mehrere Speichervorrichtungen zum Speichern von computerlesbaren Anweisungen oder Daten umfassen. Derartige Speichervorrichtungen können Speichermedien umfassen, wie beispielsweise optische Speichermedien, magnetische Speichermedien oder Halbleiterspeichermedien. Jedoch ist dies bloß ein Beispiel eines maschinenlesbaren Mediums, und Ausführungsformen sind in dieser Hinsicht nicht eingeschränkt.
  • Der Begriff „Logik”, wie er hier verwendet wird, betrifft eine Struktur zum Durchführen eines oder mehrerer logischer Vorgänge. Beispielsweise kann Logik einen Schaltkomplex umfassen, welcher ein oder mehrere Ausgabesignale aufgrund eines oder mehrerer Eingabesignale bereitstellt. Ein derartiger Schaltkomplex kann einen endlichen Automaten, welcher eine digitale Eingabe empfängt und eine digitale Ausgabe bereitstellt, oder einen Schaltkomplex umfassen, welcher ein oder mehrere analoge Ausgabesignale als Reaktion auf ein oder mehrere analoge Eingabesignale bereitstellt. Ein derartiger Schaltkomplex kann in einem anwendungsspezifischen integrierten Schaltkreis (ASIC) oder in einem feldprogrammierbaren Gate-Array (FPGA) bereitgestellt werden. Logik kann auch maschinenlesbare Anweisungen, welche in einem Speicher gespeichert sind, in Verbindung mit einem Verarbeitungsschaltkomplex umfassen, um derartige maschinenlesbare Anweisungen auszuführen. Dies sind jedoch bloß Beispiele von Strukturen, welche Logik bereitstellen können, und Ausführungsformen sind in dieser Hinsicht nicht eingeschränkt.
  • Einige der hier beschriebenen Verfahren können als Logikanweisungen auf einem computerlesbaren Medium ausgeführt werden. Wenn sie auf einem Prozessor ausgeführt werden, bewirken die Logikanweisungen, dass ein Prozessor als eine Sondermaschine programmiert wird, welche die beschriebenen Verfahren implementiert. Wenn er durch die Logikanweisungen konfiguriert ist, die hier beschriebenen Verfahren auszuführen, bildet der Prozessor eine Struktur zum Durchführen der beschriebenen Verfahren. Ersatzweise können die hier beschriebenen Verfahren auf Logik auf beispielsweise einem feldprogrammierbaren Gate-Array (FPGA), einem anwendungsspezifischen integrierten Schaltkreis (ASIC) oder dergleichen reduziert werden.
  • In der Beschreibung und den Ansprüchen können die Begriffe gekoppelt und verbunden zusammen mit ihren Derivaten verwendet werden. Bei bestimmten Ausführungsformen kann verbunden verwendet werden, um anzuzeigen, dass mindestens zwei Elemente in unmittelbarem physikalischen oder elektrischen Kontakt miteinander stehen. Gekoppelt kann bedeuten, dass sich mindestens zwei Elemente in unmittelbarem physikalischen oder elektrischen Kontakt befinden. Jedoch kann gekoppelt auch bedeuten, dass mindestens zwei Elemente sich nicht in unmittelbarem Kontakt miteinander befinden müssen, aber dennoch zusammenwirken oder in Wechselwirkung miteinander treten können.
  • Der Verweis in der Beschreibung auf „eine Ausführungsform” bedeutet, dass ein bestimmtes Merkmal, eine Struktur oder eine Eigenschaft, welche im Zusammenhang mit der Ausführungsform beschrieben wird, bei mindestens einer Implementierung eingeschlossen ist. Das Auftreten der Phrase „bei einer Ausführungsform” an verschiedenen Stellen in der Beschreibung kann oder kann nicht immer auf die gleiche Ausführungsform verweisen.
  • Obwohl Ausführungsformen mit sprachspezifischen bis strukturellen Merkmalen und/oder methodologischen Handlungen beschrieben wurden, versteht es sich, dass ein beanspruchter Gegenstand nicht auf die beschriebenen spezifischen Merkmale oder Handlungen begrenzt sein kann. Stattdessen werden die spezifischen Merkmale und Handlungen als Beispielformen der Implementierung des beanspruchten Gegenstands offenbart.

Claims (20)

  1. Verfahren, umfassend: Empfangen eines ersten Satzes von Linien der Rohbilddaten aus einem ersten Kameramodul in einem ersten Empfänger und eines zweiten Satzes von Linien der Rohbilddaten aus einem zweiten Kameramodul in einem zweiten Empfänger; Kombinieren des ersten Satzes von Linien und des zweiten Satzes von Linien, um kombinierte Linien der Rohbilddaten zu erzeugen; Verarbeiten der kombinierten Linien der Rohbilddaten; und Erzeugen eines kombinierten Bild-Frames aus den kombinierten Linien der Rohbilddaten.
  2. Verfahren nach Anspruch 1, wobei Empfangen eines ersten Satzes von Linien der Rohbilddaten aus einem ersten Kameramodul in einem ersten Empfänger und eines zweiten Satzes von Linien der Rohbilddaten aus einem zweiten Kameramodul in einem zweiten Empfänger ein linienweises Empfangen von Rohbilddaten aus jeweils dem ersten Kameramodul und dem zweiten Kameramodul umfasst, wobei Linien der Rohbilddaten durch eine Austastungsperiode getrennt sind.
  3. Verfahren nach Anspruch 1, wobei Kombinieren des ersten Satzes von Linien mit dem zweiten Satz von Linien zum Erzeugen kombinierter Linien der Rohbilddaten ein logisches Verknüpfen entsprechender Linien der Rohbilddaten aus dem ersten Kameramodul und dem zweiten Kameramodul zu einer einzelnen Linie umfasst.
  4. Verfahren nach Anspruch 1, wobei Verarbeiten der kombinierten Linien der Rohbilddaten ein Umwandeln einer oder mehrerer Roh-Frames in einen oder mehrere YUV-Video-Frames umfasst.
  5. Verfahren nach Anspruch 1, weiterhin Folgendes umfassend: Erzeugen eines ersten Satzes von Bildstatistiken, welche den Rohbilddaten aus dem ersten Kameramodul zugeordnet sind; Erzeugen eines zweiten Satzes von Bildstatistiken, welche den Rohbilddaten aus dem zweiten Kameramodul zugeordnet sind.
  6. Verfahren nach Anspruch 5, wobei das erste Kamerasteuerungsmodul dient zum: Empfangen des ersten Satzes von Bildstatistiken und Berechnen eines oder mehrerer Kamerasteuerungsparameter aus dem ersten Satz von Bildstatistiken; und Empfangen des zweiten Satzes von Bildstatistiken und Berechnen eines oder mehrerer Kamerasteuerungsparameter aus dem zweiten Satz von Bildstatistiken.
  7. Elektronisches Gerät, Folgendes umfassend: ein erstes Kameramodul und ein zweites Kameramodul; einen ersten Empfänger zum Empfangen eines ersten Satzes von Linien der Rohbilddaten aus dem ersten Kameramodul; einen zweiten Empfänger zum Empfangen eines zweiten Satzes von Linien der Rohbilddaten aus dem zweiten Kameramodul; Logik zum: Kombinieren des ersten Satzes von Linien mit dem zweiten Satz von Linien, um kombinierte Linien der Rohbilddaten zu erzeugen; Verarbeiten der kombinierten Linien der Rohbilddaten; und Erzeugen eines kombinierten Bild-Frames aus den kombinierten Linien der Rohbilddaten.
  8. Elektronisches Gerät nach Anspruch 7, wobei: der erste Empfänger zum linienweisen Empfangen von Rohbilddaten aus dem ersten Kameramodul und der zweite Empfänger zum Empfangen von Rohbilddaten aus dem zweiten Kameramodul, wobei Linien von Rohbilddaten durch eine Austastungsperiode getrennt sind.
  9. Elektronisches Gerät nach Anspruch 7, wobei die Logik entsprechende Linien von Rohbilddaten aus dem ersten Kameramodul mit denen aus dem zweiten Kameramodul zu einer einzelnen Linie verknüpft.
  10. Elektronisches Gerät nach Anspruch 7, weiterhin umfassend eine Logik zum Umwandeln eines oder mehrerer Roh-Frames in eine entsprechende Anzahl YUV-Video-Frames.
  11. Elektronisches Gerät nach Anspruch 7, weiterhin umfassend eine Logik zum Erzeugen: eines ersten Satzes von Bildstatistiken, welche den Rohbilddaten aus dem ersten Kameramodul zugeordnet sind; eines zweiten Satzes von Bildstatistiken, welche den Rohbilddaten aus dem zweiten Kameramodul zugeordnet sind.
  12. Elektronisches Gerät nach Anspruch 11, wobei: das erste Kamerasteuerungsmodul zum Empfangen des ersten Satzes von Bildstatistiken und zum Berechnen eines oder mehrerer Kamerasteuerungsparameter aus dem ersten Satz von Bildstatistiken dient; und das zweite Kamerasteuerungsmodul zum Empfangen des zweiten Satzes von Bildstatistiken und zum Berechnen eines oder mehrerer Kamerasteuerungsparameter aus dem zweiten Satz von Bildstatistiken dient.
  13. Elektronisches Gerät nach Anspruch 7, umfassend eine Anzeigevorrichtung, auf welcher der kombinierte Bild-Frame dargestellt werden kann.
  14. Vorrichtung, Folgendes umfassend: einen ersten Empfänger zum Empfangen eines ersten Satzes von Linien der Rohbilddaten aus einem ersten Kameramodul; einen zweiten Empfänger zum Empfangen eines zweiten Satzes von Linien der Rohbilddaten aus einem zweiten Kameramodul; Logik zum: Kombinieren des ersten Satzes von Linien mit dem zweiten Satz von Linien, um kombinierte Linien der Rohbilddaten zu erzeugen; Verarbeiten der kombinierten Linien der Rohbilddaten; und Erzeugen eines kombinierten Bild-Frames aus den kombinierten Linien der Rohbilddaten.
  15. Vorrichtung nach Anspruch 14, wobei: der erste Empfänger zum linienweisen Empfangen von Rohbilddaten aus dem ersten Kameramodul und das zweite Kameramodul zum linienweisen Empfangen von Rohbilddaten aus dem zweiten Kameramodul dient, wobei Linien von Rohbilddaten durch eine Austastungsperiode getrennt sind.
  16. Vorrichtung nach Anspruch 14, weiterhin umfassend eine Logik zum Verknüpfen entsprechender Linien von Rohbilddaten aus dem ersten Kameramodul mit denen aus dem zweiten Kameramodul zu einer einzelnen Linie.
  17. Vorrichtung nach Anspruch 14, weiterhin umfassend eine Logik zum Umwandeln eines oder mehrerer Roh-Frames in eine entsprechende Anzahl YUV-Video-Frames.
  18. Vorrichtung nach Anspruch 14, weiterhin umfassend eine Logik zum: Erzeugen eines ersten Satzes von Bildstatistiken, welche den Rohbilddaten aus dem ersten Kameramodul zugeordnet sind; Erzeugen eines zweiten Satzes von Bildstatistiken, welche den Rohbilddaten aus dem zweiten Kameramodul zugeordnet sind; Weiterleiten des ersten Satzes von Bildstatistiken an ein erstes Kamerasteuerungsmodul; und Weiterleiten des zweiten Satzes von Bildstatistiken an ein zweites Kamerasteuerungsmodul.
  19. Vorrichtung nach Anspruch 18, wobei das erste Kamerasteuerungsmodul dient zum: Empfangen des ersten Satzes von Bildstatistiken und Berechnen eines oder mehrerer Kamerasteuerungsparameter aus dem ersten Satz von Bildstatistiken; und Empfangen des zweiten Satzes von Bildstatistiken und Berechnen eines oder mehrerer Kamerasteuerungsparameter aus dem zweiten Satz von Bildstatistiken.
  20. Vorrichtung nach Anspruch 19, weiterhin umfassend eine Anzeigevorrichtung, welche mit dem elektronischen Gerät gekoppelt ist, auf welcher der kombinierte Bild-Frame dargestellt werden kann.
DE112011102167T 2010-06-28 2011-06-27 Stereobilderfassung mit einer Pipeline Withdrawn DE112011102167T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/824,307 2010-06-28
US12/824,307 US20110316971A1 (en) 2010-06-28 2010-06-28 Single pipeline stereo image capture
PCT/US2011/041969 WO2012009147A2 (en) 2010-06-28 2011-06-27 Single pipeline stereo image capture

Publications (1)

Publication Number Publication Date
DE112011102167T5 true DE112011102167T5 (de) 2013-04-04

Family

ID=45352157

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011102167T Withdrawn DE112011102167T5 (de) 2010-06-28 2011-06-27 Stereobilderfassung mit einer Pipeline

Country Status (8)

Country Link
US (1) US20110316971A1 (de)
JP (1) JP2013539611A (de)
KR (1) KR20130018899A (de)
CN (1) CN102918856A (de)
DE (1) DE112011102167T5 (de)
GB (1) GB2494802A (de)
TW (1) TW201215105A (de)
WO (1) WO2012009147A2 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101961967B1 (ko) 2011-05-11 2019-03-25 아이큐브드 연구소 주식회사 화상 처리 장치, 화상 처리 방법 및 프로그램을 기록한 기록 매체
TWI586180B (zh) * 2012-08-17 2017-06-01 I-Cubed Res Center Inc An image processing apparatus, an image processing method, and a storage medium for storing a program
US20170150138A1 (en) * 2015-11-25 2017-05-25 Atheer, Inc. Method and apparatus for selective mono/stereo visual display
US20170150137A1 (en) * 2015-11-25 2017-05-25 Atheer, Inc. Method and apparatus for selective mono/stereo visual display
KR102593824B1 (ko) 2016-08-31 2023-10-25 삼성전자주식회사 카메라를 제어하기 위한 방법 및 그 전자 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010296A (ja) * 2000-06-23 2002-01-11 Toshiichi Ide 立体画像撮像装置
JP4251907B2 (ja) * 2003-04-17 2009-04-08 シャープ株式会社 画像データ作成装置
JP4483261B2 (ja) * 2003-10-24 2010-06-16 ソニー株式会社 立体視画像処理装置
KR20050083352A (ko) * 2004-02-23 2005-08-26 주식회사 넥스페이스 휴대용 단말장치에서 스테레오 카메라를 이용하여 파노라믹 영상과 3차원 영상을 획득 및 디스플레이를 할 수 있는 장치 및 그 방법.
JP4988258B2 (ja) * 2006-06-27 2012-08-01 三菱電機株式会社 液晶表示装置及びその駆動方法
US8456515B2 (en) * 2006-07-25 2013-06-04 Qualcomm Incorporated Stereo image and video directional mapping of offset
WO2008023917A1 (en) * 2006-08-25 2008-02-28 Enhanced Chip Technology Inc. Method and apparatus for encoding/decoding stereoscopic images/videos
KR101388265B1 (ko) * 2007-06-11 2014-04-22 삼성전자주식회사 2d 영상 미디어 표준을 기반으로 3d 입체영상 파일을생성 및 재생하기 위한 시스템 및 방법
WO2009075495A1 (en) * 2007-12-10 2009-06-18 Samsung Electronics Co., Ltd. System and method for generating and reproducing image file including 2d image and 3d stereoscopic image

Also Published As

Publication number Publication date
KR20130018899A (ko) 2013-02-25
CN102918856A (zh) 2013-02-06
US20110316971A1 (en) 2011-12-29
GB2494802A (en) 2013-03-20
WO2012009147A2 (en) 2012-01-19
JP2013539611A (ja) 2013-10-24
WO2012009147A3 (en) 2012-04-05
TW201215105A (en) 2012-04-01

Similar Documents

Publication Publication Date Title
US8149280B2 (en) Face detection image processing device, camera device, image processing method, and program
US20130021504A1 (en) Multiple image processing
EP2854389B1 (de) Szenenerkennungsverfahren und vorrichtung
US8553109B2 (en) Concurrent image processing for generating an output image
DE102016201686A1 (de) Bildsignalprozessor und vorrichtungen, die diesen umfassen
DE112017000500B4 (de) Bewegungsadaptive Flussverarbeitung zur zeitlichen Rauschunterdrückung
DE112018000280T5 (de) Entblockungsfilterung für 360-video
DE102012109616A1 (de) Verfahren zum Verhindern einer Verschlussverzögerung, Kameramodul und mobile Vorrichtung mit denselben
DE102020123396A1 (de) Verfahren und system für inhaltsadaptives entrauschen zum videocodieren
DE112011102167T5 (de) Stereobilderfassung mit einer Pipeline
DE112013004778T5 (de) Kodierung von Bildern unter Verwendung eines 3D-Netzes von Polygonen und entsprechenden Strukturen
DE112011102166T5 (de) Bildsignalprozessor-Multiplexen
DE102014013446A1 (de) Bildaufnahmevorrichtung und -system und Steuerverfahren für die Bildaufnahmevorrichtung
DE112016004730T5 (de) Videostabilisierung
DE112015006587T5 (de) Adaptive Batch-Codierung für Slow-Motion-Videoaufzeichnung
DE112017003212T5 (de) Verfahren und System zur Videocodierung mit Kontextdecodierung und Rekonstruktionsumgehung
DE202018106983U1 (de) Kombinierte mechanische und elektronische Bildstabilisierung
DE102020202059A1 (de) Mehrdurchgangs-zusatzwerkzeug zur kohärenten und vollständigen ansichtssynthese
US20070236511A1 (en) Techniques to facilitate use of small line buffers for processing of small or large images
DE102020125206A1 (de) Verfahren und system zur mehrkanalvideocodierung mit frameratenänderung und kanalübergreifender referenzierung
DE112018005163T5 (de) Bildverarbeitungsvorrichtung
DE102019119746A1 (de) Bildsignalprozessor, Verfahren zum Betreiben des Bildsignalprozessors und Anwendungsprozessor mit dem Bildsignalprozessor
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
DE112009002346T5 (de) Verarbeitung von Videodaten in Geräten mit eingeschränkten Ressourcen
WO2022111717A1 (zh) 图像处理方法、装置及电子设备

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101