DE102017220083B4 - Abbildungsvorrichtung und bildverarbeitungssystem - Google Patents

Abbildungsvorrichtung und bildverarbeitungssystem Download PDF

Info

Publication number
DE102017220083B4
DE102017220083B4 DE102017220083.9A DE102017220083A DE102017220083B4 DE 102017220083 B4 DE102017220083 B4 DE 102017220083B4 DE 102017220083 A DE102017220083 A DE 102017220083A DE 102017220083 B4 DE102017220083 B4 DE 102017220083B4
Authority
DE
Germany
Prior art keywords
data
image data
state
imaging unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017220083.9A
Other languages
English (en)
Other versions
DE102017220083A1 (de
Inventor
Tetsuya Kimata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102017220083A1 publication Critical patent/DE102017220083A1/de
Application granted granted Critical
Publication of DE102017220083B4 publication Critical patent/DE102017220083B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division

Abstract

Abbildungsvorrichtung, umfassend:zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit Steuerdaten aufzunehmen;eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu erzeugen; undeine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit einer externen Vorrichtung durchzuführen, um dadurchdie Steuerdaten von der externen Vorrichtung zu empfangen; unddie eingebetteten Daten an die externe Vorrichtung zu übertragen, wobei:die zumindest eine Abbildungseinheit eine erste und eine zweite Abbildungseinheit umfasst, wobei die erste Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe zum Aufnehmen erster Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, die zweite Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um zweite Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen; unddie Einbettungseinheit umfasst:einen Einbetter, der dazu konfiguriert ist:in die ersten Bilddaten erste Zustandsdaten als die Zustandsdaten einzubetten und dadurch erste Bilddaten als die eingebetteten Bilddaten zu erzeugen; undin die zweiten Bilddaten zweite Zustandsdaten als die Zustandsdaten einzubetten und dadurch zweite Bilddaten zu erzeugen, wobeidie ersten Zustandsdaten den Betriebszustand der ersten Abbildungseinheit repräsentieren,die zweiten Zustandsdaten den Betriebszustand der zweiten Abbildungseinheit repräsentieren, undeinen Mischer, der dazu konfiguriert ist:die ersten Bilddaten in erste Datensegmente zu unterteilen;die zweiten Bilddaten in zweite Datensegmente zu unterteilen; undzumindest einen Teil der ersten Datensegmente mit zumindest einem Teil der zweiten Datensegmente zu mischen, um dementsprechend zumindest die eingebetteten Bilddaten zu generieren.

Description

  • Die Erfindung betrifft Abbildungsvorrichtungen zum Übertragen und/oder Empfangen von Daten zu und/oder von externen Vorrichtungen, und Bildverarbeitungssysteme einschließlich einer solchen Abbildungsvorrichtung.
  • Typische Abbildungsvorrichtungen, welche zum Beispiel in einem Fahrzeug installierbar sind, sind dazu konfiguriert, serielle Kommunikationen zu verwenden, um mit externen Vorrichtungen zu kommunizieren.
  • Eine solche Abbildungsvorrichtung beinhaltet zum Beispiel eine Abbildungseinheit. Die Abbildungsvorrichtung ist dazu konfiguriert, Bilddaten, die von der Abbildungseinheit aufgenommen wurden, über serielle Kommunikationen an externe Vorrichtungen zu übertragen.
  • Darüber hinaus ist die Abbildungsvorrichtung dazu konfiguriert, von externen Vorrichtungen über serielle Kommunikationen Steuerdaten zum Steuern der Abbildungseinheit zu empfangen und an externe Vorrichtungen Zustandsdaten, die die Betriebsparameter der Abbildungseinheit angeben, an externe Vorrichtungen zu übertragen.
  • Die internationale ungeprüfte Patentanmeldung WO 2013/ 043 661 A1 offenbart eine solche Abbildungsvorrichtung, die dazu konfiguriert ist, Frames bzw. Rahmen, d.h.
  • Einzelbilder, in vorbestimmten Intervallen, d.h. vorbestimmten vertikalen Austastintervallen bzw. Austastlücken, zu übertragen. Das heißt, das vertikale Austastintervall repräsentiert eine Zeitspanne, während welcher keine Einzelbilder bzw. Vollbilder von der Abbildungsvorrichtung an eine externe Vorrichtung übertragen werden.
  • Insbesondere ist die Abbildungsvorrichtung dazu konfiguriert, mit einer externen Vorrichtung solche Steuerdaten und/oder solche Zustandsdaten während zumindest einem der vertikalen Austastintervalle zu kommunizieren.
  • Außerdem ist aus der US 2001 / 0 030 761 A1 eine Bilddatenverarbeitungsvorrichtung bekannt, die als Ausgabeziel von Bilddaten entweder einen Drucker oder einen Personalcomputer gemäß einer Anweisung von einem Bediener auswählt. Wenn der Drucker als Ausgabeziel ausgewählt wird, wird ein erstes Muster, das aus Punkten hoher Dichte besteht, die während eines Bilderzeugungsprozesses weniger durch Rauschen beeinflusst werden, als zusätzliche Information in die Bilddaten eingebettet. Wenn der Personalcomputer als Ausgabeziel gewählt wird, wird ein zweites Muster aus Punkten geringer Dichte als zusätzliche Information in die Bilddaten eingebettet. Die Bilddaten, die die Zusatzinformationen enthalten, werden an das ausgewählte Ausgabeziel ausgegeben.
  • Das vertikale Austastintervall wird auf kurz festgelegt, um die Anzahl übertragener Einzelbilder pro Zeiteinheit zu erhöhen. Dies kann unvorteilhaft dazu führen, dass die während des vertikalen Austastintervalls übertragbare Datenmenge beschränkt wird. Aus diesem Grund kann dann, wenn eine externe Vorrichtung dazu betreibbar ist, die Zustandsdaten zu empfangen, um dadurch zu prüfen, ob die Betriebsparameter der Abbildungseinheit normal sind, der Bereich der Betriebsparameter, die geprüft werden, aufgrund der beschränkten Menge der Steuerdaten, die zu empfangen ist, eingeschränkt sein.
  • Der Erfindung liegt als eine Aufgabe zugrunde, Abbildungsvorrichtungen mit einer Abbildungseinheit bereitzustellen, welche in der Lage sind, das vorstehend dargelegte Problem zu lösen.
  • Alternativ soll die Erfindung Abbildungsvorrichtungen bereitstellen, von welchen jede ermöglicht, eine größere Datenmenge zwischen der Abbildungsvorrichtung und einer externen Vorrichtung zu kommunizieren bzw. übertragen.
  • Darüber hinaus soll die Erfindung Bildverarbeitungssysteme bereitstellen, von welchen jedes in der Lage ist eine größere Datenmenge zwischen einer Abbildungsvorrichtung und einer externen Vorrichtung zu kommunizieren bzw. übertragen.
  • Die vorstehende Aufgabe wird durch eine Abbildungsvorrichtung mit den Merkmalen des Patentanspruchs 1, alternativ durch eine Abbildungsvorrichtung mit den Merkmalen des Patentanspruchs 5 und durch ein Bildverarbeitungssystem mit den Merkmalen des Patentanspruchs 9 gelöst.
  • Gemäß einem Aspekt der Erfindung wird eine Abbildungsvorrichtung bereitgestellt. Die Abbildungsvorrichtung beinhaltet zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit Steuerdaten aufzunehmen, und eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu generieren. Die Abbildungsvorrichtung beinhaltet eine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit einer externen Vorrichtung durchzuführen, um dadurch die Steuerdaten von der externen Vorrichtung zu empfangen und die eingebetteten Bilddaten an die externe Vorrichtung zu übertragen. Die zumindest eine Abbildungseinheit umfasst eine erste und eine zweite Abbildungseinheit, wobei die erste Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe zum Aufnehmen erster Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, die zweite Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um zweite Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen. Die Einbettungseinheit umfasst einen Einbetter, der dazu konfiguriert ist, in die ersten Bilddaten erste Zustandsdaten als die Zustandsdaten einzubetten und dadurch erste Bilddaten als die eingebetteten Bilddaten zu erzeugen, und in die zweiten Bilddaten zweite Zustandsdaten als die Zustandsdaten einzubetten und dadurch zweite Bilddaten zu erzeugen, wobei die ersten Zustandsdaten den Betriebszustand der ersten Abbildungseinheit repräsentieren und die zweiten Zustandsdaten den Betriebszustand der zweiten Abbildungseinheit repräsentieren, und einen Mischer, der dazu konfiguriert ist, die ersten Bilddaten in erste Datensegmente zu unterteilen, die zweiten Bilddaten in zweite Datensegmente zu unterteilen, und zumindest einen Teil der ersten Datensegmente mit zumindest einem Teil der zweiten Datensegmente zu mischen, um dementsprechend zumindest die eingebetteten Bilddaten zu generieren.
  • Gemäß einem weiteren Aspekt der Erfindung wird eine alternative Abbildungsvorrichtung bereitgestellt. Die alternative Abbildungsvorrichtung umfasst zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit Steuerdaten aufzunehmen, eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu erzeugen, und eine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit einer externen Vorrichtung durchzuführen, um dadurch die Steuerdaten von der externen Vorrichtung zu empfangen und die eingebetteten Daten an die externe Vorrichtung zu übertragen. Die zumindest eine Abbildungseinheit umfasst eine erste und eine zweite Abbildungseinheit, wobei die erste Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um erste Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, die zweite Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um zweite Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, jede der ersten Bilddaten und der zweiten Bilddaten Pixel umfassen mit Pixelwerten, von welchen jeder einen entsprechenden Luminanzpegel angibt. Die Einbettungseinheit umfasst eine Kombinationseinheit, die dazu konfiguriert ist, einen Gesamtluminanzpegelbereich der ersten Bilddaten und der zweiten Bilddaten in zumindest eine erste und eine zweite Luminanzpegelregion, die sich voneinander unterscheiden, zu unterteilen und die ersten Bilddaten mit den zweiten Bilddaten zu kombinieren, um dadurch zusammengesetzte Bilddaten derart zu generieren, dass sich eine Beziehung zwischen jedem Luminanzpegel und einem entsprechenden Pixelwert innerhalb des ersten Luminanzpegelbereichs von einer Beziehung zwischen jedem Luminanzpegel und einem entsprechenden Pixelwert innerhalb des zweiten Luminanzpegelbereichs unterscheidet. Ein kollektiver Einbetter ist dazu konfiguriert, erste Zustandsdaten als die Zustandsdaten in die zusammengesetzten Bilddaten einzubetten, und zweite Zustandsdaten als die Zustandsdaten in die zusammengesetzten Bilddaten einzubetten, und dadurch die eingebetteten Bilddaten zu generieren.
  • Gemäß einem nochmals weiteren Aspekt der Erfindung wird ein Bildverarbeitungssystem bereitgestellt. Das Bildverarbeitungssystem beinhaltet eine Abbildungsvorrichtung, eine externe Vorrichtung und eine Kommunikationsleitung, die kommunikationsfähig zwischen der Abbildungsvorrichtung und der externen Vorrichtung verbunden ist. Die Abbildungsvorrichtung beinhaltet zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit zumindest einem Wert von Steuerdaten aufzunehmen, und eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu generieren. Die Abbildungsvorrichtung beinhaltet eine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit der externen Vorrichtung über die Kommunikationsleitung durchzuführen, um dadurch die Steuerdaten von der externen Vorrichtung zu empfangen, und die eingebetteten Bilddaten an die externe Vorrichtung zu übertragen. Die externe Vorrichtung umfasst einen Separator bzw. Trenner, der dazu konfiguriert ist, die eingebetteten Bilddaten zu empfangen, und die Zustandsdaten von den eingebetteten Bilddaten zu separieren bzw. trennen. Die externe Vorrichtung umfasst eine Steuereinrichtung, die dazu konfiguriert ist, zumindest einen aktualisierten Wert der Steuerdaten in Übereinstimmung mit den Zustandsdaten zu bestimmen, die von den eingebetteten Bilddaten getrennt wurden, und die Steuerdaten über die Kommunikationsleitung an die Abbildungsvorrichtung zu übertragen, wobei die Kommunikationseinheit dazu konfiguriert ist, die von der Steuereinrichtung übertragenen Steuerdaten zu empfangen, und die zumindest eine Abbildungseinheit dazu konfiguriert ist, den zumindest einen Wert der Steuerdaten auf den zumindest einen aktualisierten Wert der Steuerdaten zu ändern, der von der Kommunikationseinheit empfangen wurde.
  • Diese Konfiguration der Abbildungsvorrichtung gemäß der vorstehenden beispielhaften Aspekte ermöglicht es, die Zustandsdaten, die den Betriebszustand der zumindest einen Abbildungseinheit angeben, von der Abbildungsvorrichtung über die seriellen Kommunikationen an die externe Vorrichtung zu übertragen, ohne vertikale Austastintervalle zu verwenden. Dies ermöglicht es, eine größere Menge der Steuerdaten ohne die Begrenzung der Länge jedes der vertikalen Austastintervalle von der Abbildungsvorrichtung an die externe Vorrichtung zu übertragen.
  • Die vorstehenden und/oder andere Merkmale, und/oder Vorteile verschiedener Aspekte der Erfindung sind in Anbetracht der folgenden Beschreibung in Verbindung mit den beigefügten Zeichnungen genauer zu entnehmen. Verschiedene Aspekte der Erfindung können anwendungsabhängig unterschiedliche Merkmale und/oder Vorteile beinhalten und/oder ausschließen. Darüber hinaus können verschiedene Aspekte der Erfindung anwendungsabhängig ein oder mehrere Merkmale anderer Ausführungsbeispiele kombinieren. Die Beschreibungen von Merkmalen und/oder Vorteilen bestimmter Ausführungsbeispiel sollten nicht als andere Ausführungsbeispiele oder die Ansprüche begrenzend ausgelegt werden.
  • Andere Aspekte der Erfindung sind der folgenden Beschreibung von Ausführungsbeispielen unter Bezugnahme auf die beigefügten Zeichnungen entnehmbar. Es zeigen:
    • 1 ein Blockdiagramm, das schematisch ein Beispiel der Gesamtstruktur eines Bildverarbeitungssystems gemäß dem ersten Ausführungsbeispiel der Erfindung darstellt;
    • 2A ein Diagramm, das schematisch ein Beispiel einer Pixelanordnung eines Einzelbilds gemäß dem ersten Ausführungsbeispiel darstellt;
    • 2B ein Diagramm, das schematisch darstellt, dass ein Teil von Einzelbilddaten durch Zustandsdaten gemäß dem ersten Ausführungsbeispiel durch Zustandsdaten ersetzt worden sind;
    • 3 ein Diagramm, das schematisch darstellt, wie ein in 1 dargestellter Mischer gemäß dem ersten Ausführungsbeispiel erste Bilddaten mit zweiten Bilddaten mischt;
    • 4 ein Blockdiagramm, das schematisch ein Beispiel der Beziehung zwischen Einzelbildintervallen, Übertragungszeiten, einer ersten Verschlusszeit und vertikalen Austastintervallen gemäß dem ersten Ausführungsbeispiel darstellt;
    • 5 ein Diagramm, das schematisch eine vorteilhafte Wirkung darstellt, die durch den Mischer gemäß dem ersten Ausführungsbeispiel erzielt wird; und
    • 6 ein Blockdiagramm, das schematisch ein Beispiel der Gesamtstruktur eines Bildverarbeitungssystems gemäß dem zweiten Ausführungsbeispiel der Erfindung darstellt.
  • Nachstehend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Nachstehend wird ein Bildverarbeitungssystem 1 gemäß dem ersten Ausführungsbeispiel der Erfindung unter Bezugnahme auf 1 bis 4 beschrieben.
  • Bezugnehmend auf 1 beinhaltet das Bildverarbeitungssystem 1 eine Abbildungsvorrichtung 2, einen Bildprozessor 3 und eine Kommunikationsleitung 4. Die Kommunikationsleitung 4 verbindet kommunikationsfähig zwischen der Abbildungsvorrichtung 2 und dem Bildprozessor 3, und ermöglicht es, serielle Kommunikationen zwischen der Abbildungsvorrichtung 2 und dem Bildprozessor 3 herzustellen. Die seriellen Kommunikationen zwischen ersten und zweiten Vorrichtungen sind derart konfiguriert, dass eine der ersten und zweiten Vorrichtungen Daten bitweise sequenziell über einen Kommunikationskanal, wie beispielsweise die Kommunikationsleitung 4, zu der anderen derselben sendet. Ein verdrilltes Kabelpaar oder ein Koaxialkabel kann als die Kommunikationsleitung 4 verwendet werden.
  • Die Abbildungsvorrichtung 2 beinhaltet zumindest zwei Abbildungseinheiten 21, einen Mischer 22, eine Steuereinrichtung 23 und eine Kommunikationseinheit 24. Nachstehend beinhaltet die Abbildungsvorrichtung 2 gemäß dem ersten Ausführungsbeispiel zwei Abbildungseinheiten 21.
  • Zum Beispiel ist jede der Abbildungseinheiten 21 dazu konfiguriert, eine gemeinsame Szene vor der entsprechenden Kamera aufzunehmen.
  • Die Abbildungseinheiten 21 haben untereinander dieselbe Struktur, so dass das Folgende nur eine der Abbildungseinheiten 21 beschreibt.
  • Die Abbildungseinheit 21 besteht aus einem Abbilder 211, einer Bildschnittstelle (IF) 212, einer Steuerdatenschnittstelle (IF) 213 und einer Einbettungseinheit 214.
  • Der Abbilder 211 beinhaltet einen Bildsensor 211a, wie beispielsweise eine bekannte ladungsgekoppelten (CCD) Bildsensor oder einen komplementären Metalloxid-Halbleiter (CMOS) Bildsensor. Der Bildsensor 211a besteht aus lichtempfindlichen Elementen, von welchen jedes eine CCD-Vorrichtung oder einen CMOS-Schalter beinhaltet; die lichtempfindlichen Elemente dienen als Pixel und sind in einer zweidimensionalen Anordnung angeordnet. Das heißt, die Anordnung der Pixel ist als eine vorbestimmte Anzahl von Spalten mal eine vorbestimmte Anzahl von Reihen konfiguriert. Die zweidimensional angeordneten Pixel bilden einen Abbildungsbereich, an welchem auf den Bildsensor einfallendes Licht empfangen wird.
  • Der Abbilder 211 beinhaltet darüber hinaus eine Steuereinrichtung 211b und einen Speicher 211c. Die Steuereinrichtung 211b steuert den Bildsensor 211a in Übereinstimmung mit Steuerdaten, die in dem Speicher 211s gespeichert sind, dazu, eine Aufnahmeaufgabe durchzuführen, die für einen Bildaufnahmezyklus ein Rahmenbild bzw. Einzelbild bzw. Vollbild der Szene auf der Grundlage von auf den Abbildungsbereich einfallendem Licht derart aufnimmt, dass jedes der zweidimensional angeordneten lichtempfindlichen Elemente (Pixel) während einer Verschlusszeit, d.h. einer Belichtungszeit oder mit einer Verschlussgeschwindigkeit, eine entsprechende Lichtkomponente empfängt. Das heißt, der Abbilder 211 führt periodisch den Bildaufnahmezyklus durch, um periodisch die Einzelbilder mit einer vorbestimmten Einzelbildrate aufzunehmen.
  • Jedes der zweidimensional angeordneten lichtempfindlichen Elemente ist darüber hinaus dazu konfiguriert, den Intensitäts- oder Luminanzpegel bzw. Helligkeitspegel der empfangenen Lichtkomponente in einen analogen Pixelwert oder ein analoges Pixelsignal, d.h. ein analoges Pixelspannungssignal, das proportional zu dem Luminanzpegel der empfangenen Lichtkomponente ist, zu konvertieren.
  • Der Abbilder 211 beinhaltet darüber hinaus einen Verstärker 211d, der dazu konfiguriert ist, von dem Bildsensor 211a die Pixelsignale, d.h. Pixelwerte, zu erhalten, von welchen jedes den Luminanzpegel des entsprechenden Pixels als ein Bild, d.h. ein Einzelbild, repräsentiert. Dann ist der Verstärker 211d dazu konfiguriert, die Pixelwerte des Einzelbilds mit einer analogen Verstärkung bzw. einem analogen Gewinn zu verstärken.
  • Der Abbilder 211 beinhaltet ferner einen analog-digital (A/D)-Wandler 211e, der dazu konfiguriert ist, die durch den Verstärker 211d verstärkten analogen Pixelsignale (analogen Pixelwerte) des Einzelbilds in digitale Pixelsignale (digitale Pixelwerte) auf der Grundlage einer vorbestimmten Bitbreite, d.h. der Anzahl von Bits, zu konvertieren bzw. wandeln.
  • Die Bildschnittstelle 212 ist dazu konfiguriert, die digitalen Pixelwerte des Einzelbilds, d.h. Einzelbilddaten, pixelweise und reihenweise ausgehend von dem linken oberen Pixel zu dem rechten unteren Pixel horizontal abzutasten, d.h. auszulesen, und dadurch die Einzelbilddaten an die Einbettungseinheit 214 zu übertragen.
  • Zum Beispiel besteht, wie in 2A dargestellt ist, das Einzelbild aus n x n Pixeln, worin n eine Ganzzahl gleich oder größer als 2 ist und die Adressen von (1, 1) bis (n, n) jeweils den n x n Pixeln ausgehend von dem linken oberen Pixel zu dem rechten unteren Pixel zugewiesen sind. Das heißt, die Pixel der obersten Reihe, d.h. der ersten Reihe, sind den jeweiligen Adressen von (1, 1) bis (1, n), ..., zugewiesen, und die Pixel der untersten Reihe, d.h. die n-te Reihe, sind den jeweiligen Adressen von (n, 1) bis (n, n) zugewiesen.
  • Die Bildschnittstelle 212 ist dazu konfiguriert, sukzessive die digitalen Pixelwerte der Einzelbilddaten pixelweise ausgehend von der obersten Reihe, d.h. der ersten Reihe, (1, 1) bis (1, n) zu der untersten Reihe (n, 1) bis (n, n) auszulesen. Die oberste Reihe wird daher als eine erste Auslesereihe der Einzelbilddaten bezeichnet werden, und die unterste Reihe wird daher als eine Endauslesereihe der Einzelbilddaten bezeichnet werden.
  • Es wird angemerkt, dass die Bildschnittstelle 212 dazu konfiguriert sein kann, die analogen Pixelwerte des Einzelbilds reihenweise oder pixelweise auszugeben, und dadurch ein analoges Einzelbild auszugeben. Dann kann der Verstärker dazu konfiguriert sein, die analogen Pixelwerte des Einzelbilds zu verstärken, und kann der A/D-Wandler dazu konfiguriert sein, die durch den Verstärker verstärkten analogen Pixelwerte des Einzelbilds zu konvertieren, und dadurch die Einzelbilddaten auszugeben.
  • Die Steuerdatenschnittstelle 213 ist dazu konfiguriert, Befehlswerte der Steuerdaten, die vorangehend in dem Speicher 211b gespeichert wurden, auf Befehlswerte der neu von der Steuereinrichtung 23 gesendeten Steuerdaten zu aktualisieren. Die Steuerdaten beinhalten einen Befehlswert der Verschlusszeit, einen Befehlswert der analogen Verstärkung und einen Befehlswert eines Weißabgleichs, d.h. Grauabgleichs, eines aufzunehmenden Einzelbilds.
  • Die Einbettungseinheit 214 weist einen Speicher ME1 für jedes der Pixel des Einzelbilds auf, und ist dazu konfiguriert, die digitalen Pixelwerte der von der Bildschnittstelle 212 übertragenen Einzelbilddaten zu empfangen und die digitalen Pixelwerte in den jeweiligen Speichern ME1 zu speichern. Das heißt, die Einzelbilddaten werden in den Speichern ME1 gespeichert.
  • Darüber hinaus ist die Einbettungseinheit 214 dazu konfiguriert, die Betriebszustände, d.h. Betriebsparameter, des Abbilders 211 zu erfassen, die Betriebsparameter des Abbilders 211 in aus digitalen Datenwerten bestehende Zustandsdaten zu konvertieren und die Zustandsdaten in die in den Speichern ME1 gespeicherten Einzelbilddaten einzubetten.
  • Zum Beispiel wählt die Einbettungseinheit 214 Pixel in den Einzelbilddaten, die in den Speichern ME1 gespeichert sind, und ersetzt die digitalen Pixelwerte der ausgewählten Pixel durch die digitalen Datenwerte der Zustandsdaten; die ausgewählten Pixel befinden sich an zum Beispiel dem Umfang der Einzelbilddaten.
  • Zum Beispiel kann, wie in 2B dargestellt ist, die Einbettungseinheit 214 ersetzen:
    • (1) Die digitalen Pixelwerte mehrerer Reihen, wie beispielsweise zweier Reihen (Kopfabschnitt), von der ersten Auslesereihe (1, 1) bis (1, n) in den Einzelbilddaten durch die digitalen Werte (vgl. Bezugszeichen CV) der Zustandsdaten,
    • (2) Die digitalen Pixelwerte mehrerer Reihen, wie beispielsweise zweier Reihen (Endabschnitt), von der Endauslesereihe (n, 1) bis (n, n) in den Einzelbilddaten durch die digitalen Werte (vgl. Bezugszeichen CV) der Zustandsdaten, oder
    • (3) Sowohl die digitalen Pixelwerte mehrerer Reihen, wie beispielsweise zweier Reihen (Endabschnitt), von der ersten Auslesereihe (1, 1) bis (1, n) als auch die digitalen Pixelwerte von der Endauslesereihe (n, 1) bis (n, n) in den Einzelbilddaten durch die digitalen Werte (vgl. Bezugszeichen CV) der Zustandsdaten.
  • In 2B werden die digitalen Pixelwerte der verbleibenden Pixel als Bezugszeichen PV repräsentiert.
  • Es wird angemerkt, dass die Einbettungseinheit 214 die digitalen Datenwerte der Zustandsdaten der ersten Auslesereihe in den Einzelbilddaten als zumindest eine Auslesereihe voranstellen kann, und/oder die digitalen Werte der Zustandsdaten an die Endauslesereihe in den Einzelbilddaten als zumindest eine Auslesespalte anhängen kann.
  • Danach ist die Einbettungseinheit 214 dazu konfiguriert, die Einzelbilddaten an den Mischer 22 auszugeben.
  • Das heißt, jede der beiden Abbildungseinheiten 21 ist dazu konfiguriert, die Einzelbilddaten an den Mischer 22 auszugeben.
  • Nachstehend werden die beiden Abbildungseinheiten 21 als erste und zweite Abbildungseinheiten 21a und 21b repräsentiert, werden die von dem Abbilder 211 der ersten Abbildungseinheit 21a ausgegebenen Einzelbilddaten als Einzelbilddaten A bezeichnet, und werden die von dem Abbilder 211 der zweiten Abbildungseinheit ausgegebenen Einzelbilddaten als Einzelbilddaten B bezeichnet. Darüber hinaus werden die Bedingungsdaten bzw. Zustandsdaten, die die Betriebszustände bzw. Betriebsbedingungen des Abbilders 211 der ersten Abbildungseinheit 21a angeben, als Zustandsdaten Ia bezeichnet, und werden die Bedingungsdaten bzw. Zustandsdaten, die die Betriebszustände bzw. Betriebsbedingungen des Abbilders 211 der zweiten Abbildungseinheit 21b angeben, als Zustandsdaten Ib bezeichnet.
  • Diese Definition ermöglicht es, die von der Einbettungseinheit 214 der ersten Abbildungseinheit 21a ausgegebenen Einzelbilddaten, in welchen die Zustandsdaten Ia eingebettet sind, als erste Bilddaten (A + Ia) zu repräsentieren. Ähnlich dazu ermöglicht es diese Definition, die von der Einbettungseinheit 214 der zweiten Abbildungseinheit 21b ausgegebenen Einzelbilddaten, in welchen die Zustandsdaten Ib eingebettet sind, als zweite Bilddaten (B + Ib) zu repräsentieren.
  • Der Mischer 22 weist Speicher, d.h. Einzelbildspeicher, ME2 und ME3 auf. Jeder der Einzelbildspeicher ME2 und ME3 hat eine Speicherregion mit Adressen entsprechend den jeweiligen Pixeln der entsprechenden einen der ersten Einzelbilddaten (A + Ia) und der zweiten Einzelbilddaten (B + Ib).
  • Der Mischer 22 ist dazu konfiguriert, die ersten Bilddaten (A + Ia) und die zweiten Bilddaten (B + Ib) miteinander zu mischen, um erste eingebettete Bilddaten M1 und zweite eingebettete Bilddaten M2 zu generieren, und die ersten eingebetteten Bilddaten M1 und die zweiten eingebetteten Bilddaten M2 an die Kommunikationseinheit 24 zu liefern.
  • Zum Beispiel unterteilt der Mischer 22 die ersten Bilddaten (A + Ia) in sechs Bilddatensegmente A1 bis A6, von welchen jedes eine vorbestimmte Anzahl von Reihen bzw. Zeilen enthält. Das heißt, die Summe der Reihen der jeweiligen Bilddatensegmente A1 bis A6 entspricht der Gesamtanzahl von Reihen der ersten Bilddaten (A + Ia).
  • Ein Bezugszeichen (A) von 3 stellt schematisch die ersten Bilddaten (A + Ia) dar, die in den Speichern ME1 gespeichert sind. Weil der Mischer 22 dazu konfiguriert ist, die ersten Bilddaten (A + Ia) von der obersten Reihe, d.h. der ersten Auslesereihe (vgl. Bezugszeichen FR), bis zu der untersten Reihe, d.h. der Endauslesereihe (vgl. Bezugszeichen ER), auszulesen, wird die erste Auslesereihe FR zuerst ausgelesen, und wird die Endauslesereihe ER zuletzt ausgelesen. Das Bezugszeichen (A) von 3 stellt die Reihen der ersten Bilddaten (A + Ia) entlang einer Zeitachse, d.h. einer chronologischen Reihenfolge, dar, so dass die zuerst ausgelesene Reihe FR am weitesten links angeordnet ist und die zuletzt ausgelesene Reihe ER am weitesten rechts angeordnet ist.
  • Insbesondere beinhaltet, wie in dem Bezugszeichen (A) von 3 dargestellt, das Datensegment A1 eine vorbestimmte Anzahl von Reihen ausgehend von der ersten Auslesereihe FR einschließlich der Zustandsdaten Ia, und beinhaltet das Datensegment A6 eine vorbestimmte Anzahl von Reihen ausgehend von der Endauslesereihe ER einschließlich der Zustandsdaten Ia. Die Datensegmente A1 bis A6 sind ausgehend von der ersten Auslesereihe FR bis zu der Endauslesereihe ER in der Reihenfolge A1, A4, A2, A5, A3 und A6 angeordnet.
  • In ähnlicher Weise unterteilt der Mischer 22 die zweiten Bilddaten (B + Ib) in sechs Bilddatensegments B1 bis B6, von welchen jedes eine vorbestimmte Anzahl von Spalten enthält. Das heißt, die Summe der Spalten der jeweiligen Bilddatensegmente B1 bis B6 entspricht der Gesamtanzahl von Spalten der zweiten Bilddaten (B + Ib).
  • Ein Bezugszeichen (B) von 3 stellt schematisch die zweiten Bilddaten (B + Ib) dar, die in den Speichern ME1 gespeichert sind. Weil der Mischer 22 dazu konfiguriert ist, die Einzelbilddaten ausgehend von der obersten Reihe, d.h. der ersten Auslesereihe (vgl. Bezugszeichen FR), bis zu der untersten Reihe, d.h. der Endauslesereihe (vgl. Bezugszeichen ER), auszulesen, wird die erste Auslesereihe FR zuerst ausgelesen, und wird die Endauslesereihe ER zuletzt ausgelesen. Das Bezugszeichen (B) von 3 stellt die Reihen der zweiten Bilddaten (B + Ib) entlang einer Zeitachse, d.h. einer chronologischen Reihenfolge, dar, so dass die zuerst ausgelesene Reihe FR am weitesten links angeordnet ist und die zuletzt ausgelesene Reihe ER am weitesten rechts angeordnet ist.
  • Insbesondere beinhaltet, wie in dem Bezugszeichen (B) von 3 dargestellt, das Datensegment B1 eine vorbestimmte Anzahl von Reihen ausgehend von der ersten Auslesereihe FR einschließlich der Zustandsdaten Ib, und beinhaltet das Datensegment B6 eine vorbestimmte Anzahl von Reihen ausgehend von der Endauslesereihe ER einschließlich der Zustandsdaten Ib. Die Datensegmente B1 bis B6 sind ausgehend von der ersten Auslesereihe FR bis zu der Endauslesereihe ER in der Reihenfolge B1, B4, B2, B5, B3 und B6 angeordnet.
  • Es wird angemerkt, dass der Teiler für jede der ersten Bilddaten (A + Ia) und der zweiten Bilddaten (B + Ib) auf einen anderen Ganzzahlwert gleich oder größer als 2, welcher sich von 6 unterscheidet, festgelegt werden kann.
  • Dann führt der Mischer 22 die folgende erste Mischprozedur durch, um
    • (1) selektiv das Datensegment A1 aus den ersten Bilddaten (A + Ia) auszulesen, um dadurch das Datensegment A1 in dem entsprechenden Abschnitt, welcher als ein erster Abschnitt bezeichnet werden wird, der Speicherregion des Einzelbildspeichers ME2 zu speichern,
    • (2) selektiv das Datensegment B1 aus den zweiten Bilddaten (B + Ib) auszulesen, um dadurch das Datensegment B1 in einem zweiten Abschnitt der Speicherregion des Einzelbildspeichers ME2 zu speichern; wobei der zweite Abschnitt benachbart zu dem ersten Abschnitt ausgerichtet ist,
    • (3) selektiv das Datensegment A2 aus den ersten Bilddaten (A + Ia) auszulesen, um dadurch das Datensegment A2 in einem dritten Abschnitt der Speicherregion des Einzelbildspeichers ME2 zu speichern; wobei der dritte Abschnitt benachbart zu dem zweiten Abschnitt ausgerichtet ist,
    • (4) selektiv das Datensegment B2 aus den zweiten Bilddaten (B + Ib) auszulesen, um dadurch das Datensegment B2 in einem vierten Abschnitt der Speicherregion des Einzelbildspeichers ME2 zu speichern; wobei der vierte Abschnitt benachbart zu dem dritten Abschnitt ausgerichtet ist,
    • (5) selektiv das Datensegment A3 aus den ersten Bilddaten (A + Ia) auszulesen, um dadurch das Datensegment A3 in einem fünften Abschnitt der Speicherregion des Einzelbildspeichers ME2 zu speichern; wobei der fünfte Abschnitt benachbart zu dem vierten Abschnitt ausgerichtet ist,
    • (6) selektiv das Datensegment B3 aus den zweiten Bilddaten (B + Ib) auszulesen, um dadurch das Datensegment B3 in einem sechsten Abschnitt der Speicherregion des Einzelbildspeichers ME2 zu speichern; wobei der sechste Abschnitt benachbart zu dem fünften Abschnitt ausgerichtet ist.
  • Dies ermöglicht es, die ersten eingebetteten Bilddaten M1, die aus den Datensegmenten A1, B1, A2, B2, A3 und B3 bestehen, in der Speicherregion des Einzelbildspeichers ME2 zu generieren.
  • Das heißt, der Mischer 22 ist dazu konfiguriert, mehrere abwechselnde bzw. wechselnde Auswahlen eines der Datensegmente A1 bis A3 in dieser Reihenfolge und der Datensegmente B1 bis B3 in dieser Reihenfolge zu treffen und die ausgewählten Datensegmente A1 bis A3 mit den ausgewählten jeweiligen Datensegmenten B1 bis B3 zu mischen. Dies ermöglicht es, die ersten eingebetteten Bilddaten M1, die aus den Datensegmenten A1, B1, A2, B2, A3 und B3 bestehen, in der Speicherregion des Einzelbildspeichers ME2 zu generieren.
  • Der Mischer 22 führt darüber hinaus eine zweite Mischprozedur auf der Grundlage der verbleibenden Datensegmente A4, B4, A5, B5, A6 und B6 in derselben Weise wie bei der ersten Mischprozedur unter Verwendung der Datensegmente A1, B1, A2, B2, A3 und B3, vorstehend dargelegt, durch. Dies ermöglicht es, die zweiten eingebetteten Bilddaten M2, die aus den Datensegmenten A4, B4, A5, B5, A6 und B6 bestehen, in der Speicherregion des Einzelbildspeichers ME3 zu generieren.
  • Die Steuereinrichtung 23 ist dazu konfiguriert, die von dem Bildprozessor 3, welcher als ein Beispiel einer externen Vorrichtung dient, über die Kommunikationseinheit 24 gesendeten Steuerdaten zu empfangen; die Steuerdaten beinhalten zum Beispiel die Befehlswerte der jeweiligen Verschlusszeit, der analogen Verstärkung und des Weißabgleichs wie vorstehend beschrieben. Dann ist die Steuereinrichtung 23 dazu konfiguriert, die Steuerdatenschnittstelle 213 dazu zu veranlassen, Befehlswerte der Verschlusszeit, der analogen Verstärkung und des Weißabgleichs, welche in dem Speicher 211b gespeichert worden sind, für ein nächstes aufzunehmendes Einzelbild auf die Befehlswerte der von dem Bildprozessor 3 über die Kommunikationseinheit 24 gesendeten Steuerdaten zu aktualisieren. Es wird angemerkt, dass die von der ersten Abbildungseinheit 21a verwendete Verschlusszeit auch als eine erste Verschlusszeit bezeichnet werden wird, und die von der zweiten Abbildungseinheit 21b verwendete Verschlusszeit auch als eine zweite Verschlusszeit bezeichnet werden wird. Die erste Verschlusszeit und die zweite Verschlusszeit gemäß dem ersten Ausführungsbeispiel sind derart bestimmt, dass die erste Verschlusszeit länger ist als die zweite Verschlusszeit.
  • Die Steuereinrichtung 23 ist darüber hinaus dazu konfiguriert, eine von dem Bildprozessor 3 über die Kommunikationseinheit 24 gesendete Ausleseanweisung zu empfangen und, als eine Antwort, eine der Zustandsdaten Ia der ersten Abbildungseinheit 21a und der Zustandsdaten Ib der zweiten Abbildungseinheit 21b, welche durch die Ausleseanweisung spezifiziert werden, auszulesen. Dann ist die Steuereinrichtung 23 dazu konfiguriert, die Antwort an die Kommunikationseinheit 24 zu liefern.
  • Die Kommunikationseinheit 24 führt serielle Kommunikationen mit dem Bildprozessor 3 über die Kommunikationsleitung 4 durch.
  • Genauer ist die Kommunikationseinheit 24 dazu konfiguriert, über die Kommunikationsleitung 4 die von dem Bildprozessor 3 gesendeten Steuerdaten zu empfangen und die empfangenen Steuerdaten an die Steuereinrichtung 23 zu übertragen.
  • Die Kommunikationseinheit 24 ist darüber hinaus konfiguriert,
    1. 1. abwechselnd eine der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 auszulesen
    2. 2. an den Bildprozessor 3 über die Kommunikationsleitung 4 eine der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 abwechselnd auszulesen.
  • Die Abbildungsvorrichtung 2 ist dazu konfiguriert,
    1. 1. eine erste Aufgabe des Aufnehmens der Bilddaten A auf der Grundlage von von der ersten Abbildungseinheit 21a während der ersten Verschlusszeit empfangenen Lichts und Aufnehmens der Bilddaten B auf der Grundlage von von der zweiten Abbildungseinheit 21b währen der zweiten Verschlusszeit empfangenen Lichts,
    2. 2. eine zweite Aufgabe des Einbettens der Zustandsdaten Ia in die Bilddaten A, um die ersten Bilddaten (A + Ia) zu generieren, und Einbettens der Zustandsdaten Ib in die Bilddaten B, um die zweiten Bilddaten (B + Ib) zu generieren,
    3. 3. eine dritte Aufgabe des Abtastens, d.h. Übertragens, der digitalen Pixelwerte jeder der ersten Bilddaten (A + Ia) und der zweiten Bilddaten (B + Ib) in einer vorbestimmten Übertragungszeit, um dadurch die entsprechenden einen der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 zu generieren,
    4. 4. nach Verstreichen eines vorbestimmten Zeitintervalls, welches als ein vertikales Austastintervall VBlank bezeichnet wird, seit Abschluss der Übertragung jeder der ersten Bilddaten (A + Ia) und der zweiten Bilddaten (B + Ib), Wiederholen der ersten bis dritten Aufgaben und dadurch die eingebetteten Rahmen bzw. Einzelbilder zu erhalten, von welchen jedes aus einem der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 besteht, durchzuführen.
  • 4 stellt schematisch die Beziehung zwischen Einzelbildintervallen (vgl. Bezugszeichen FI1, FI2 und FI3) jeder der ersten Bilddaten (A + Ia) und der zweiten Bilddaten (B + Ib), die auf der Grundlage der Einzelbildrate definiert sind, der Übertragungszeiten (vgl. Bezugszeichen TT1, TT2 und TT3), der ersten oder zweiten Verschlusszeit (vgl. Bezugszeichen ST1 oder ST2) und den vertikalen Austastintervallen VBlank dar.
  • Das heißt, wie noch zu beschreiben ist, der Bildprozessor 3 ist dazu konfiguriert, periodisch die Steuerdaten an die Abbildungsvorrichtung 2 zu senden, so dass jeder Teil der Steuerdaten innerhalb eines entsprechenden einen der vertikalen Austastintervalle VBlank liegt. In ähnlicher Weise, wie noch zu beschreiben ist, ist der Bildprozessor 3 dazu konfiguriert, die Ausleseanweisung an die Abbildungsvorrichtung 2 zu senden, so dass die Ausleseanweisung innerhalb eines ausgewählten einen der vertikalen Austastintervalle VBlank liegt.
  • Die Kommunikationseinheit 24 ist daher dazu konfiguriert, die Steuerdaten innerhalb jedes der vertikalen Austastintervalle VBlank über die Kommunikationsleitung 4 zu empfangen und dadurch die Steuerdaten an die Steuereinrichtung 23 zu übertragen. Die Kommunikationseinheit 24 ist darüber hinaus dazu konfiguriert, die Ausleseanweisung innerhalb eines der vertikalen Austastintervalle VBlank über die Kommunikationsleitung 4 zu empfangen und dadurch die Ausleseanweisung an die Steuereinrichtung 23 zu übertragen. Die Kommunikationseinheit 24 ist ferner dazu konfiguriert, die Antwort von der Steuereinrichtung 23 zu empfangen und innerhalb eines der vertikalen Austastintervalle VBlank die Antwort über die Kommunikationsleitung 4 an den Bildprozessor 3 zu übertragen.
  • Der Bildprozessor 3 beinhaltet eine Kommunikationseinheit 31, einen Separator bzw. Trenner 32, eine Kombinationseinheit 33 und eine Abbildungssteuereinrichtung 34.
  • Die Kommunikationseinheit 31 führt serielle Kommunikationen mit der Abbildungsvorrichtung 2 über die Kommunikationsleitung 4 durchzuführen.
  • Genauer ist die Kommunikationseinheit 31 dazu konfiguriert, die ersten eingebetteten Bilddaten M1 oder die zweiten eingebetteten Bilddaten M2, die von der Abbildungsvorrichtung 2 über die Kommunikationsleitung 4 gesendet wurden, zu empfangen und die empfangenen ersten eingebetteten Bilddaten M1 oder die zweiten eingebetteten Bilddaten M2 an den Separator 32 zu übertragen.
  • Wenn die Steuerdaten oder die Ausleseanweisung von der Bildsteuereinrichtung 34 innerhalb eines vertikalen Austastintervalls VBlank empfangen wird, ist die Kommunikationseinheit 31 dazu konfiguriert, die Steuerdaten oder die Ausleseanweisung innerhalb des vertikalen Austastintervalls VBlank über die Kommunikationsleitung 4 an die Abbildungsvorrichtung 2 zu übertragen. Wenn die Steuerdaten oder die Ausleseanweisung von der Bildsteuereinrichtung 34 außerhalb jedes vertikalen Austastintervalls VBlank empfangen wird, ist die Kommunikationseinheit 31 dazu konfiguriert, die Steuerdaten oder die Ausleseanweisung innerhalb des nächsten vertikalen Austastintervalls VBlank über die Kommunikationsleitung 4 an die Abbildungsvorrichtung 2 zu übertragen.
  • Wenn die von der Abbildungsvorrichtung 2 über die Kommunikationsleitung gesendete Antwort empfangen wird, ist die Kommunikationseinheit 31 dazu konfiguriert, die empfangene Antwort an die Bildsteuereinrichtung 34 zu übertragen.
  • Wenn er die ersten eingebetteten Bilddaten M1, die von der Kommunikationseinheit 31 übertragen wurden, empfängt, ist der Separator 32 dazu konfiguriert,
    1. 1. die ersten eingebetteten Bilddaten M1 in die Datensegmente A1, B1, A2, B2, A3 und B3 zu trennen
    2. 2. die Zustandsdaten Ia, die in zum Beispiel dem Datensegment A1 eingebettet sind, von dem Datensegment A1 zu trennen, und die Zustandsdaten Ib, die in zum Beispiel dem Datensegment B1 eingebettet sind, von dem Datensegment B1 zu trennen
    3. 3. darauffolgend die separierten bzw. getrennten Datensegmente A1, B1, A2, B2, A3 und B3 an die Kombinationseinheit 33 zu übertragen
    4. 4. die Zustandsdaten Ia und die Zustandsdaten Ib an den Bildprozessor 34 zu übertragen.
  • Es wird angemerkt, dass der Separator 32 in der Lage ist, das Datensegment A1, in welches die Zustandsdaten Ia eingebettet sind oder aus welchem die Zustandsdaten Ia entfernt worden sind, an die Kombinationseinheit 33 zu übertragen, und das Datensegment B1, in welches die Zustandsdaten Ib eingebettet sind oder aus welchem die Zustandsdaten Ib entfernt worden sind, an die Kombinationseinheit 33 zu übertragen.
  • In ähnlicher Weise ist dann, wenn er die zweiten eingebetteten Bilddaten M2, die von der Kommunikationseinheit 31 übertragen wurden, empfängt, der Separator 32 dazu konfiguriert,
    1. 1. die zweiten eingebetteten Bilddaten M2 in die Datensegmente A4, B4, A5, B5, A6 und B6 zu trennen
    2. 2. die Zustandsdaten Ia, die in zum Beispiel dem Datensegment A6 eingebettet sind, von dem Datensegment A6 zu trennen, und die Zustandsdaten Ib, die in zum Beispiel dem Datensegment B6 eingebettet sind, von dem Datensegment B6 zu trennen
    3. 3. darauffolgend die separierten bzw. getrennten Datensegmente A4, B4, A5, B5, A6 und B6 an die Kombinationseinheit 33 zu übertragen
    4. 4. die Zustandsdaten Ia und die Zustandsdaten Ib an den Bildprozessor 34 zu übertragen.
  • Es wird angemerkt, dass der Separator 32 in der Lage ist, das Datensegment A6, in welches die Zustandsdaten Ia eingebettet sind oder aus welchem die Zustandsdaten Ia entfernt worden sind, an die Kombinationseinheit 33 zu übertragen, und das Datensegment B6, in welches die Zustandsdaten Ib eingebettet sind oder aus welchem die Zustandsdaten Ib entfernt worden sind, an die Kombinationseinheit 33 zu übertragen.
  • Der Separator 32 kann dazu konfiguriert sein,
    1. 1. aus den separierten Datensegmenten A1 bis A6 erste Bildinformation, die zum Beispiel den mittleren Luminanzpegel der Einzelbilddaten A angibt, zu extrahieren; wobei die erste Bildinformation von den Steuerdaten für die erste Abbildungseinheit 21a abhängt
    2. 2. die erste Bildinformation zusammen mit den Zustandsdaten Ia an die Bildsteuereinrichtung 34 zu übertragen.
  • In ähnlicher Weise kann der Separator 32 dazu konfiguriert sein,
    1. 1. aus den separierten Datensegmenten B1 bis B6 zweite Bildinformation, die zum Beispiel den mittleren Luminanzpegel der Einzelbilddaten B angibt, zu extrahieren; wobei die zweite Bildinformation von den Steuerdaten für die zweite Abbildungseinheit 21b abhängt
    2. 2. die zweite Bildinformation zusammen mit den Zustandsdaten Ib an die Bildsteuereinrichtung 34 zu übertragen.
  • Die Kombinationseinheit 33 ist dazu konfiguriert, die separierten Datensegmente A1, B1, A2, B2, A3, B3, A4, B4, A5, B5, A6 und B6 zu empfangen, die von dem Separator 32 übertragen wurden.
  • Dann ist die Kombinationseinheit 33 dazu konfiguriert, eine Hochdynamikbereich (HDR)-Kombinationsaufgabe durchzuführen, um das Datensegment A1 mit dem Datensegment B1 zu kombinieren.
  • Genauer ist die HDR-Kombinationsaufgabe dazu konfiguriert,
    1. 1. den gesamten Luminanzpegelbereich der Datensegmente A1 und B1 in zumindest zwei unterschiedliche erste und zweite Luminanzpegelbereiche zu unterteilen; wobei der zweite Luminanzpegelbereich höher liegt als der erste Luminanzpegelbereich
    2. 2. die digitalen Pixelwerte der Datensegmente A1 und B1 derart zu kombinieren, dass sich eine Beziehung zwischen jedem Luminanzpegel und einem entsprechenden digitalen Pixelwert innerhalb des ersten Luminanzpegelbereichs in den Datensegmenten A1 und B1 von einer Beziehung zwischen jedem Luminanzpegel und einem entsprechenden digitalen Pixelwert innerhalb des zweiten Luminanzpegelbereichs in den Datensegmenten A1 und B1 unterscheidet. Diese HDR-Kombinationsaufgabe generiert ein partielles HDR-Kompositbild (vgl. HDR-Kombinationsaufgabe in 5).
  • Die Kombinationseinheit 33 ist dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um die digitalen Pixelwert der Datensegmente A2 und B2 in derselben Weise wie die HDR-Kombinationsaufgabe für die Datensegmente A1 und B1 zu kombinieren, und generiert dadurch ein partielles HDR-Kompositbild (vgl. HDR-Kombinationsaufgabe in 5).
  • In ähnlicher Weise ist die Kombinationseinheit 33 dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um die digitalen Pixelwert der Datensegmente A3 und B3 in derselben Weise wie die HDR-Kombinationsaufgabe für die Datensegmente A1 und B1 zu kombinieren, und generiert dadurch ein partielles HDR-Kompositbild (vgl. HDR-Kombinationsaufgabe in 5).
  • Darüber hinaus ist die Kombinationseinheit 33 dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um die digitalen Pixelwert der Datensegmente A4 und B4 in derselben Weise wie die HDR-Kombinationsaufgabe für die Datensegmente A1 und B1 zu kombinieren, und generiert dadurch ein partielles HDR-Kompositbild (vgl. HDR-Kombinationsaufgabe in 5).
  • In ähnlicher Weise ist die Kombinationseinheit 33 dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um das Datensegment A5, das während der ersten Verschlusszeit aufgenommen wurde, mit dem Datensegment B5, das mit der zweiten Verschlusszeit aufgenommen wurde, in derselben Weise wie die Kombination der Datensegmente A1 und B1 zu kombinieren, und generiert dadurch ein teilweises HDR-Kompositbild (vgl. HDR-Kombinationsaufgabe in 5). Darüber hinaus ist die Kombinationseinheit 33 dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um das Datensegment A6, das während der ersten Verschlusszeit aufgenommen wurde, mit dem Datensegment B6, das mit der zweiten Verschlusszeit aufgenommen wurde, in derselben Weise wie die Kombination der Datensegmente A1 und B1 zu kombinieren, und generiert dadurch ein teilweises HDR-Kompositbild (vgl. HDR-Kombinationsaufgabe in 5).
  • Danach kombiniert die Kombinationseinheit 33 die partiellen HDR-Bilder, welche auf der Grundlage der Datensegmente A1 bis A6 und B1 bis B6 generiert werden, miteinander, um dadurch ein HDR-Kompositbild bzw. ein zusammengesetztes HDR-Bild C zu generieren, dessen Dynamikbereich weiter ist als der jedes der Einzelbilddaten A und der Einzelbilddaten B. Danach gibt die Kombinationsaufgabe 33 das HDR-Kompositbild C an eine externe Schaltung, wie beispielsweise eine elektronische Steuereinheit (ECU), aus.
  • Die Bildsteuereinrichtung 34 ist dazu konfiguriert, zumindest eine der Zustandsdaten Ia, der Zustandsdaten Ib, der ersten Bildinformation und der zweiten Bildinformation, die von einem der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 durch den Separator 32 getrennt und von dem Separator 32 geliefert wurden, zu empfangen; eine der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 beruhen auf den Einzelbilddaten A und den in einem aktuellen Bildaufnahmezyklus aufgenommenen Einzelbilddaten B.
  • Dann ist die Bildsteuereinrichtung 34 dazu konfiguriert, auf der Grundlage zum Beispiel der Zustandsdaten Ia Befehlswerte der Steuerdaten zu bestimmen, die für die Abbildungseinheit 21a verwendet werden, um ein nächstes Einzelbild in dem nächsten Bildaufnahmezyklus aufzunehmen. In ähnlicher Weise ist die Bildsteuereinrichtung 34 dazu konfiguriert, auf der Grundlage zum Beispiel der Zustandsdaten Ib Befehlswerte der Steuerdaten zu bestimmen, die für die Abbildungseinheit 21b verwendet werden, um ein nächstes Einzelbild in dem nächsten Bildaufnahmezyklus aufzunehmen. Die Bildsteuereinrichtung 34 ist darüber hinaus dazu konfiguriert, die Steuerdaten für jede der Abbildungseinheiten 21a und 21b für den nächsten Bildaufnahmezyklus an die Abbildungsvorrichtung 2 zu übertragen, über die Kommunikationseinheit 31 innerhalb des vertikalen Austastintervalls VBlank, das nach einem der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 erscheint.
  • Darüber hinaus ist die Bildsteuereinrichtung 34 dazu konfiguriert, zu prüfen, ob jede der Abbildungseinheiten 21a und 21b normal arbeitet, in Übereinstimmung mit den Befehlswerten der Steuerdaten, die von diesen an die entsprechende Abbildungseinheit geliefert werden.
  • Darüber hinaus ist die Bildsteuereinrichtung 34 dazu konfiguriert, die Ausleseanweisung innerhalb einer ausgewählten einen der vertikalen Austastintervalle VBlank über die Kommunikationseinheit 31 an die Abbildungsvorrichtung 2 zu senden und eine Antwort auf die Ausleseanweisung, die von der Abbildungsvorrichtung 2 über die Kommunikationseinheit 31 innerhalb des vertikalen Austastintervalls VBlank an sie gesendet wurde, zu empfangen.
  • Es wird angemerkt, dass die Funktion jedes der funktionellen Module 212, 213, 214, 22, 23 und 24 der Abbildungsvorrichtung 2 durch zumindest eine Hardwareeinheit implementiert sein kann. Falls zum Beispiel die Funktion jedes der funktionellen Module 212, 213, 214, 22, 23 und 24 durch eine elektronische Schaltung wie beispielsweise eine Hardwareeinheit implementiert ist, kann die elektronische Schaltung durch zumindest eine digitale Schaltung mit vielen Logikschaltkreisen, zumindest eine analoge Schaltung oder zumindest eine analoge und digitale Hybridschaltung implementiert sein. Jedes der funktionellen Module 212, 213, 214, 22, 23 und 24 kann durch zumindest eine Mikrocomputerschaltung mit einer CPU und einem Speicher, wie beispielsweise einem Halbleiterspeicher, implementiert sein; der Halbleiterspeicher ist zumindest einer eines RAM, eines ROM und eines Flash-Speichers. Der Halbleiterspeicher ist ein Beispiel eines nichtflüchtigen Speichermediums. Falls jedes der funktionellen Module 212, 213, 214, 22, 23 und 24 durch zumindest eine Mikrocomputerschaltung mit einer CPU und einem Speicher implementiert ist, ist die CPU dazu konfiguriert, zumindest ein in dem Speicher gespeichertes Programm auszuführen, und dadurch Funktionen der jeweiligen funktionellen Module 212, 213, 214, 22, 23 und 24 zu implementieren, oder dadurch ein Verfahren auf der Grundlage des zumindest einen Programms durchzuführen.
  • In ähnlicher Weise kann die Funktion jedes der funktionellen Module 31, 32, 33 und 34 des Bildprozessors 3 durch zumindest eine Hardwareeinheit implementiert sein kann. Falls zum Beispiel die Funktion jedes der funktionellen Module 31, 32, 33 und 34 durch eine elektronische Schaltung wie beispielsweise eine Hardwareeinheit implementiert ist, kann die elektronische Schaltung durch zumindest eine digitale Schaltung mit vielen Logikschaltkreisen, zumindest eine analoge Schaltung oder zumindest eine analoge und digitale Hybridschaltung implementiert sein. Jedes der funktionellen Module 31, 32, 33 und 34 kann durch zumindest eine Mikrocomputerschaltung mit einer CPU und einem Speicher, wie beispielsweise einem Halbleiterspeicher, implementiert sein; der Halbleiterspeicher ist zumindest einer eines RAM, eines ROM und eines Flash-Speichers. Der Halbleiterspeicher ist ein Beispiel eines nichtflüchtigen Speichermediums. Falls jedes der funktionellen Module 31, 32, 33 und 34 durch zumindest eine Mikrocomputerschaltung mit einer CPU und einem Speicher implementiert ist, ist die CPU dazu konfiguriert, zumindest ein in dem Speicher gespeichertes Programm auszuführen, und dadurch Funktionen der jeweiligen funktionellen Module 31, 32, 33 und 34 zu implementieren, oder dadurch ein Verfahren auf der Grundlage des zumindest einen Programms durchzuführen.
  • Das Folgende beschreibt, wie das Bildverarbeitungssystem 1 gemäß dem ersten Ausführungsbeispiel arbeitet, und beschreibt darüber hinaus vorteilhafte Wirkungen, die durch das Bildverarbeitungssystem 1 erzielt werden.
  • Wie vorstehend beschrieben wurde, überträgt die Abbildungsvorrichtung 2 des Bildverarbeitungssystems 1 jedes von
    1. 1. den ersten eingebetteten Bilddaten M1, die mit den Zustandsdaten Ia eingebettet sind, die die Betriebszustände der ersten Abbildungseinheit 21a angeben
    2. 2. den zweiten eingebetteten Bilddaten M2, die mit den Zustandsdaten Ib eingebettet sind, die die Betriebszustände der zweiten Abbildungseinheit 21b angeben.
  • Dies ermöglicht es als ein Beispiel eines schnelleren seriellen Kommunikationskanals ohne Verwenden des vertikalen Austastintervalls VBlank, jede der Zustandsdaten Ia und der Zustandsdaten Ib, welche erforderlich sind, um Befehlswerte der Steuerdaten für ein Einzelbild zu bestimmen, das von der entsprechenden einen der ersten und zweiten Abbildungseinheiten 21a und 21b aufzunehmen ist, von der Abbildungsvorrichtung 2 über die Kommunikationsleitung 4 an den Bildprozessor 3 zu übertragen. Dies ermöglicht es, eine größere Menge an Steuerdaten, die von der Abbildungsvorrichtung 2 an den Bildprozessor 3 zu kommunizieren sind, zu kommunizieren, welches es der Bildsteuereinrichtung 34 des Bildprozessors 3 ermöglicht, die Befehlswerte der für jede Abbildungseinheit 21 verwendeten Steuerdaten zu ändern, um ein nächstes Einzelbild abhängig von den Betriebsbedingungen bzw. Betriebszuständen der entsprechenden Abbildungseinheit 21 korrekt aufzunehmen. Dies erzielt eine erste vorteilhafte Wirkung des Erhaltens von Einzelbildern höherer Qualität.
  • Darüber hinaus überträgt die Abbildungsvorrichtung 2 des Bildverarbeitungssystems 1 jede der Bilddaten A, die von der ersten Abbildungseinheit 21a aufgenommen wurden, und der Bilddaten B, die von der zweiten Abbildungseinheit 21b aufgenommen wurden, während die Datensegmente A1 bis A6 der ersten Bilddaten A und die Datensegmente B1 bis B6 der zweiten Bilddaten B in einer Zeitteilungs-Mehrfachübertragung bzw. Zeitmultiplex-Übertragung miteinander gemischt werden.
  • Dies ermöglicht es dem Bildprozessor 3, eine gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe, für zumindest ein Paar von Datensegmenten Ai und Bi in den Datensegmenten A1 bis A6 und B1 bis B6 durchzuführen, worin i irgendeines von 1 bis 6 repräsentiert, wenn zumindest ein Paar von Datensegmenten Ai und Bi empfangen worden sind.
  • Wie in 5 dargestellt ist, zeigt ein Vergleichsbeispiel, dass die gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe (vgl. HDR in 5), auf die Bilddaten A und die Bilddaten B angewandt wird, wenn die Bilddaten A und die Bilddaten B zur Zeit t1 empfangen worden sind. Falls die Zeitdauer, die der Bildprozessor 3 benötigt, um die gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe, auf der Grundlage der Bilddaten A und der Bilddaten B abzuschließen, als TL bezeichnet wird, wird eine Gesamtzeit TA, repräsentiert als (t1 + TL), benötigt, bis die gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe, auf der Grundlage der Bilddaten A und der Bilddaten B abgeschlossen ist.
  • Demgegenüber ist dann, wenn die Zeitdauer, die der Bildprozessor 3 benötigt, um die gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe, auf der Grundlage des Paars der Datenblöcke Ai und Bi abzuschließen, als TL1 bezeichnet wird, die Zeitdauer TL1 kürzer als die Zeitdauer TL. Aus diesem Grund wird eine Gesamtzeit TB, welche kürzer ist als die Gesamtzeit TA, benötigt, bis die gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe, auf der Grundlage der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 abgeschlossen ist.
  • Dies resultiert daher in, als eine zweite vorteilhafte Wirkung, der kürzeren Zeit, die der Bildprozessor 3 benötigt, um die gewünschte Aufgabe, wie beispielsweise die HDR-Kombinationsaufgabe, auf der Grundlage der ersten eingebetteten Bilddaten M1 und der zweiten eingebetteten Bilddaten M2 abzuschließen.
  • Zweites Ausführungsbeispiel
  • Das Folgende beschreibt das zweite Ausführungsbeispiel der Erfindung unter Bezugnahme auf 6.
  • Ein Bildverarbeitungssystem 1a gemäß dem zweiten Ausführungsbeispiel unterscheidet sich von dem Bildverarbeitungssystem 1 in den folgenden Punkten. Daher beschreibt das Folgende hauptsächlich die sich unterscheidenden Punkte des Bildverarbeitungssystems 1a gemäß dem zweiten Ausführungsbeispiel, und lässt Beschreibungen von zwischen dem ersten und dem zweiten Ausführungsbeispiel gleichen Teilen, welchen identische oder gleiche Bezugszeichen zugewiesen sind, weg oder vereinfacht diese, und eliminiert dadurch redundante Beschreibung.
  • Die Abbildungsvorrichtung 2 gemäß dem zweiten Ausführungsbeispiel ist dazu konfiguriert,
    1. 1. die ersten Bilddaten (A + Ia) und die zweiten Bilddaten (B + Ib) miteinander zu mischen, um die ersten eingebetteten Bilddaten M1, in die die Zustandsdaten Ia eingebettet sind, und die zweiten eingebetteten Bilddaten M2, in die die Zustandsdaten Ib eingebettet sind, zu generieren
    2. 2. die ersten eingebetteten Bilddaten M1 und die zweiten eingebetteten Bilddaten M2 an den Bildprozessor 3 zu übertragen.
  • Demgegenüber ist eine Abbildungsvorrichtung 2a des Bildverarbeitungssystems 1a gemäß dem zweiten Ausführungsbeispiel dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um die Bilddaten A und die Bilddaten B zu kombinieren und dadurch HDR-Kompositbilddaten bzw. zusammengesetzte HDR-Bilddaten C zu generieren. Dann ist die Abbildungsvorrichtung 2a dazu konfiguriert, die Zustandsdaten Ia und die Zustandsdaten Ib in die HDR-Kompositbilddaten C einzubetten, um dadurch eingebettete Bilddaten, bezeichnet als (C + I), zu generieren und die eingebetteten Bilddaten (C + I) an einen Bildprozessor 3a des Bildverarbeitungssystems 1a zu übertragen.
  • Genauer und Bezug nehmend auf 6 beinhaltet das Bildverarbeitungssystem 1a die Abbildungsvorrichtung 2a, den Bildprozessor 3a und die Kommunikationsleitung 4.
  • Die Abbildungsvorrichtung 2a beinhaltet zumindest zwei Abbildungseinheiten 21a1 und 21b1, die Steuereinrichtung 23, die Kommunikationseinheit 24, eine Kombinationseinheit 25 und eine Einbettungseinheit 26.
  • Die Abbildungseinheiten 21a1 und 21b1 haben dieselbe Struktur, so dass das Folgende nur die Abbildungseinheit 21a1 beschreibt.
  • Die Abbildungseinheit 21a1 besteht aus dem Abbilder 211, der Bildschnittstelle 212 und einer Steuerdatenschnittstelle 213. Das heißt, im Vergleich mit der Abbildungseinheit 21 wurde die Einbettungseinheit 214 aus der Abbildungseinheit 21a1 eliminiert. Die Bilddaten A, die von der Abbildungseinheit 21a1 ausgegeben werden, enthalten nicht die Zustandsdaten Ia, und die Bilddaten B, die von der Abbildungseinheit 21b1 ausgegeben werden, enthalten nicht die Zustandsdaten Ib.
  • Insbesondere ist die Steuerdatenschnittstelle 213a der Abbildungseinheit 21a1 dazu konfiguriert, die Betriebszustände des Abbilders 211 zu erfassen, die Betriebszustände des Abbilders 211 in Zustandsdaten Ia, die aus digitalen Datenwerten bestehen, zu konvertieren und die Zustandsdaten Ia an die Einbettungseinheit 26 zu übertragen. In ähnlicher Weise ist die Steuerdatenschnittstelle 213a der Abbildungseinheit 21b1 dazu konfiguriert, die Betriebszustände des Abbilders 211 zu erfassen, die Betriebszustände des Abbilders 211 in Zustandsdaten Ib, die aus digitalen Datenwerten bestehen, zu konvertieren und die Zustandsdaten Ib an die Einbettungseinheit 26 zu übertragen.
  • Die Kombinationseinheit 25 ist dazu konfiguriert, die Bilddaten A, die von der Abbildungseinheit 21a1 geliefert wurden, und die Bilddaten B, die von der Abbildungseinheit 21b1 geliefert wurden, zu empfangen. Dann ist die Kombinationseinheit 25 dazu konfiguriert, die HDR-Kombinationsaufgabe durchzuführen, um die Bilddaten A, die während der ersten Verschlusszeit aufgenommen wurden, mit den Bilddaten B, die mit der zweiten Verschlusszeit, die kürzer ist als die erste Verschlusszeit, aufgenommen wurden, zu kombinieren.
  • Genauer ist die HDR-Kombinationsaufgabe dazu konfiguriert,
    1. 1. den gesamten Luminanzpegelbereich der Bilddaten A und der Bilddaten B in zumindest zwei unterschiedliche erste und zweite Luminanzpegelbereiche zu unterteilen; wobei der zweite Luminanzpegelbereich höher liegt als der erste Luminanzpegelbereich
    2. 2. die digitalen Pixelwerte der Bilddaten A und die digitalen Pixelwerte der Bilddaten B derart zu kombinieren, dass sich eine Beziehung zwischen jedem Luminanzpegel und einem entsprechenden digitalen Pixelwert innerhalb des ersten Luminanzpegelbereichs in den Bilddaten A und den Bilddaten B von einer Beziehung zwischen jedem Luminanzpegel und einem entsprechenden digitalen Pixelwert innerhalb des zweiten Luminanzpegelbereichs in den Bilddaten A und den Bilddaten B unterscheiden. Diese HDR-Kombinationsaufgabe generiert die HDR-Kompositbilddaten bzw. die zusammengesetzten HDR-Daten C.
  • Die Einbettungseinheit 26, welche als zum Beispiel ein kollektiver Einbetter dient, ist dazu konfiguriert, die Zustandsdaten Ia, die von der Steuerdatenschnittstelle 213 der Abbildungseinheit 21a1 geliefert wurden, und die Zustandsdaten Ib, die von der Steuerdatenschnittstelle 213 der Abbildungseinheit 21b1 geliefert wurden, zu empfangen. Dann ist die Einbettungseinheit 26 dazu konfiguriert, die Zustandsdaten Ia und die Zustandsdaten Ib in derselben Weise wie die Einbettungseinheit 214, die die Zustandsdaten Ia in die Bilddaten A einbettet und die Zustandsdaten Ib in die Bilddaten B einbettet, in die HDR-Kompositbilddaten C einzubetten. Dieser Einbettungsbetriebsablauf resultiert darin, dass die eingebetteten Bilddaten (C + I) generiert werden.
  • Die Kommunikationseinheit 24 ist dazu konfiguriert, über die Kommunikationsleitung 4 die eingebetteten Bilddaten (C + I) in Übereinstimmung mit den Einzelbildintervallen an den Bildprozessor 3a zu übertragen.
  • Der Bildprozessor 3a beinhaltet die Kommunikationseinheit 31, einen Separator 32a und die Abbildungssteuereinrichtung 34.
  • Wenn er die eingebetteten Bilddaten (C + I), die von der Abbildungsvorrichtung 1a übertragen wurden, empfängt, ist der Separator 32a dazu konfiguriert,
    1. 1. die Zustandsdaten Ia, die in die eingebetteten Bilddaten (C + I) eingebettet sind, aus den eingebetteten Bilddaten (C + I) zu separieren bzw. zu trennen
    2. 2. die Zustandsdaten Ib, die in die eingebetteten Bilddaten (C + I) eingebettet sind, aus den eingebetteten Bilddaten (C + I) zu separieren bzw. zu trennen
    3. 3. dementsprechend die HDR-Kompositbilddaten C zu generieren und dadurch die HDR-Kompositbilddaten C an eine externe Schaltung, wie beispielsweise eine ECU, auszugeben.
  • Wie in dem ersten Ausführungsbeispiel überträgt der Separator 32a die separierten Zustandsdaten Ia und die separierten Steuerdaten Ib an die Bildsteuereinrichtung 34. Der Separator 32a kann auch dazu konfiguriert sein,
    1. 1. aus den eingebetteten Bilddaten (C + I) die erste Bildinformation zu extrahieren, die zum Beispiel den mittleren Luminanzpegel der Bilddaten A angibt; wobei die erste Bildinformation von den Steuerdaten für die erste Abbildungseinheit 21a1 abhängt
    2. 2. die erste Bildinformation zusammen mit den Zustandsdaten Ia an die Bildsteuereinrichtung 34 zu übertragen
    3. 3. aus den eingebetteten Bilddaten (C + I) zweite Bildinformation zu extrahieren, die zum Beispiel den mittleren Luminanzpegel der Bilddaten B angibt; wobei die zweite Bildinformation von den Steuerdaten für die zweite Bildeinheit 21b1 abhängt
    4. 4. die zweite Bildinformation zusammen mit den Zustandsdaten Ib an die Bildsteuereinrichtung 34 zu übertragen.
  • Das Folgende beschreibt vorteilhafte Wirkungen, die durch das Bildverarbeitungssystem 1a erzielt werden.
  • Wie vorstehend beschrieben wurde, führt die Abbildungsvorrichtung 2a des Bildverarbeitungssystems 1a die HDR-Kombinationsaufgabe in jeder der ersten und der zweiten Abbildungseinheiten 21a1 und 21b1 durch, um dadurch die eingebetteten Bilddaten (C + I) zu generieren, und überträgt über die Kommunikationsleitung 4 die eingebetteten Bilddaten (C + I) an den Bildprozessor 3a.
  • Diese Konfiguration erzielt daher zusätzlich zu der ersten vorteilhaften Wirkung eine dritte vorteilhafte Wirkung des Resultierens in einer großen Verringerung der Menge an Kommunikationsdaten zwischen der Abbildungsvorrichtung 2a und dem Bildprozessor 3a über die Kommunikationsleitung 4.
  • Die Erfindung ist nicht auf die Beschreibungen der ersten und zweiten Ausführungsbeispiele beschränkt, und die Beschreibungen jedes Ausführungsbeispiels können innerhalb des Rahmens der Erfindung weithin modifiziert werden.
  • Die Einbettungseinheit 214 gemäß dem ersten Ausführungsbeispiel ist in der Abbildungseinheit 21 installiert, aber die Einbettungseinheit 214 kann separat von der Abbildungseinheit 21 bereitgestellt sein. In dieser Modifikation kann die Einbettungseinheit 214 zwischen der Abbildungseinheit 21 und dem Mischer 22 bereitgestellt sein.
  • Jede der Abbildungsvorrichtungen 2 und 2a beinhaltet zwei Abbildungseinheiten 21a und 21b (Abbildungseinheiten 21a1 und 21b1), aber die Anzahl von Abbildungseinheiten ist nicht auf zwei beschränkt. Genauer kann jede der Abbildungsvorrichtungen 2 und 2a drei oder mehr Abbildungseinheiten beinhalten. Insbesondere kann die Abbildungsvorrichtung 2 eine einzelne Abbildungsvorrichtung 21 beinhalten. In dieser Modifikation kann der Mischer 22 aus der Abbildungsvorrichtung 21 eliminiert sein.
  • Die Funktionen eines Elements in jedem Ausführungsbeispiel kann als eine Vielzahl von Elementen verteilt sein, und die Funktionen, die mehrere Elemente haben, kann in einem Element kombiniert sein. Zumindest ein Teil der Struktur jedes Ausführungsbeispiels kann durch eine bekannte Struktur mit derselben Funktion wie der zumindest eine Teil der Struktur des entsprechenden Ausführungsbeispiels ersetzt sein. Ein Teil der Struktur jedes Ausführungsbeispiels kann eliminiert sein. Alle Aspekte, die in den technologischen Ideen enthalten sind, die durch die von den Ansprüchen verwendete Sprache spezifiziert werden, bilden Ausführungsbeispiele der Erfindung.
  • Die Erfindung kann durch verschiedenartige Ausführungsbeispiele zusätzlich zu den Abbildungsvorrichtungen 2 und 2a implementiert sein; die verschiedenartigen Ausführungsbeispiele beinhalten Systeme, von welchen jedes die Bilderzeugungsvorrichtung 2 oder 2a, Programme zum Dienen als ein Computer als der Mischer 22 und die Kommunikationseinheit 24 der Abbildungsvorrichtung 2 oder als die Kombinationseinheit 25 und die Einbettungseinheit 26 der Abbildungsvorrichtung 2a, Speichermedien, wie beispielsweise nichtflüchtige Medien, die die Programme speichern, und Abbildungsverfahren beinhaltet.
  • Während die darstellenden Ausführungsbeispiel der Erfindung hierin beschrieben wurden, ist die Erfindung nicht auf die hierin beschriebenen Ausführungsbeispiele beschränkt, sondern beinhaltet jegliche Ausführungsbeispiele mit Modifikationen, Weglassungen (beispielsweise von Aspekten über verschiedene Ausführungsbeispiele hinweg), Anpassungen und/oder Alternierungen, wie sie sich für den Fachmann auf der Grundlage der vorliegenden Offenbarung ergeben. Die Beschränkungen in den Ansprüchen sind auf der Grundlage der in den Ansprüchen verwendeten Sprache breit auszulegen und nicht auf in der vorliegenden Spezifikation oder während der Weiterverfolgung der Anmeldung beschriebene Beispiele, welche Beispiele als nicht ausschließlich auszulegen sind, beschränkt.

Claims (9)

  1. Abbildungsvorrichtung, umfassend: zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit Steuerdaten aufzunehmen; eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu erzeugen; und eine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit einer externen Vorrichtung durchzuführen, um dadurch die Steuerdaten von der externen Vorrichtung zu empfangen; und die eingebetteten Daten an die externe Vorrichtung zu übertragen, wobei: die zumindest eine Abbildungseinheit eine erste und eine zweite Abbildungseinheit umfasst, wobei die erste Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe zum Aufnehmen erster Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, die zweite Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um zweite Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen; und die Einbettungseinheit umfasst: einen Einbetter, der dazu konfiguriert ist: in die ersten Bilddaten erste Zustandsdaten als die Zustandsdaten einzubetten und dadurch erste Bilddaten als die eingebetteten Bilddaten zu erzeugen; und in die zweiten Bilddaten zweite Zustandsdaten als die Zustandsdaten einzubetten und dadurch zweite Bilddaten zu erzeugen, wobei die ersten Zustandsdaten den Betriebszustand der ersten Abbildungseinheit repräsentieren, die zweiten Zustandsdaten den Betriebszustand der zweiten Abbildungseinheit repräsentieren, und einen Mischer, der dazu konfiguriert ist: die ersten Bilddaten in erste Datensegmente zu unterteilen; die zweiten Bilddaten in zweite Datensegmente zu unterteilen; und zumindest einen Teil der ersten Datensegmente mit zumindest einem Teil der zweiten Datensegmente zu mischen, um dementsprechend zumindest die eingebetteten Bilddaten zu generieren.
  2. Abbildungsvorrichtung nach Anspruch 1, wobei der Einbetter dazu konfiguriert ist: einen Teil der ersten Bilddaten durch die ersten Zustandsdaten zu ersetzen, um dementsprechend die ersten Zustandsdaten in die ersten Bilddaten einzubetten; und einen Teil der zweiten Bilddaten durch die zweiten Zustandsdaten zu ersetzen, um dementsprechend die zweiten Zustandsdaten in die zweiten Bilddaten einzubetten.
  3. Abbildungsvorrichtung nach Anspruch 1, wobei der Einbetter dazu konfiguriert ist: von der ersten Abbildungseinheit die ersten Bilddaten ausgehend von einem vorbestimmten Kopfabschnitt bis zu einem vorbestimmten Endabschnitt der ersten Bilddaten zu empfangen; von der zweiten Abbildungseinheit die zweiten Bilddaten ausgehend von einem vorbestimmten Kopfabschnitt bis zu einem vorbestimmten Endabschnitt der zweiten Bilddaten zu empfangen; die ersten Zustandsdaten in zumindest einen des Kopfabschnitts und des Endabschnitts der ersten Bilddaten einzufügen, um entsprechend die ersten Zustandsdaten in die ersten Bilddaten einzubetten; und die zweiten Zustandsdaten in zumindest einen des Kopfabschnitts und des Endabschnitts der zweiten Bilddaten einzufügen, um entsprechend die zweiten Zustandsdaten in die zweiten Bilddaten einzubetten.
  4. Abbildungsvorrichtung nach Anspruch 1, wobei der Mischer dazu konfiguriert ist: mehrere wechselnde Auswahlen eines der ersten Datensegmente und eines der zweiten Datensegmente durchzuführen; und die ausgewählten ersten Datensegmente mit den ausgewählten zweiten Datensegmenten zu mischen, um dementsprechend zumindest die eingebetteten Bilddaten zu generieren.
  5. Abbildungsvorrichtung, umfassend: zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit Steuerdaten aufzunehmen; eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu erzeugen; und eine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit einer externen Vorrichtung durchzuführen, um dadurch die Steuerdaten von der externen Vorrichtung zu empfangen; und die eingebetteten Daten an die externe Vorrichtung zu übertragen, wobei: die zumindest eine Abbildungseinheit eine erste und eine zweite Abbildungseinheit umfasst, wobei die erste Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um erste Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, die zweite Abbildungseinheit dazu konfiguriert ist, die Aufnahmeaufgabe durchzuführen, um zweite Bilddaten als die Bilddaten in Übereinstimmung mit den Steuerdaten aufzunehmen, jede der ersten Bilddaten und der zweiten Bilddaten Pixel umfassen mit Pixelwerten, von welchen jeder einen entsprechenden Luminanzpegel angibt; und die Einbettungseinheit umfasst: eine Kombinationseinheit, die dazu konfiguriert ist: einen Gesamtluminanzpegelbereich der ersten Bilddaten und der zweiten Bilddaten in zumindest eine erste und eine zweite Luminanzpegelregion, die sich voneinander unterscheiden, zu unterteilen; und die ersten Bilddaten mit den zweiten Bilddaten zu kombinieren, um dadurch zusammengesetzte Bilddaten derart zu generieren, dass sich eine Beziehung zwischen jedem Luminanzpegel und einem entsprechenden Pixelwert innerhalb des ersten Luminanzpegelbereichs von einer Beziehung zwischen jedem Luminanzpegel und einem entsprechenden Pixelwert innerhalb des zweiten Luminanzpegelbereichs unterscheidet; und einen kollektiven Einbetter, der dazu konfiguriert ist, erste Zustandsdaten als die Zustandsdaten in die zusammengesetzten Bilddaten einzubetten, und zweite Zustandsdaten als die Zustandsdaten in die zusammengesetzten Bilddaten einzubetten, und dadurch die eingebetteten Bilddaten zu generieren.
  6. Abbildungsvorrichtung nach Anspruch 5, wobei der kollektive Einbetter dazu konfiguriert ist: einen Teil der zusammengesetzten Bilddaten durch die ersten Zustandsdaten zu ersetzen, um dementsprechend die ersten Zustandsdaten in die zusammengesetzten Bilddaten einzubetten; und einen Teil der zusammengesetzten Bilddaten durch die zweiten Zustandsdaten zu ersetzen, um dementsprechend die zweiten Zustandsdaten in die zusammengesetzten Bilddaten einzubetten
  7. Abbildungsvorrichtung nach Anspruch 5, wobei der kollektive Einbetter dazu konfiguriert ist: von der Kombinationseinheit die zusammengesetzten Bilddaten ausgehend von einem vorbestimmten Kopfabschnitt der zusammengesetzten Daten bis zu einem vorbestimmten Endabschnitt der zusammengesetzten Daten zu empfangen; die ersten Zustandsdaten in zumindest einen des Kopfabschnitts und des Endabschnitts der zusammengesetzten Bilddaten einzufügen, um dementsprechend die ersten Zustandsdaten in die zusammengesetzten Bilddaten einzubetten; und die zweiten Zustandsdaten in zumindest einen des Kopfabschnitts und des Endabschnitts der zusammengesetzten Bilddaten einzufügen, um dementsprechend die zweiten Zustandsdaten in die zusammengesetzten Bilddaten einzubetten.
  8. Abbildungsvorrichtung nach Anspruch 1, wobei: die Zustandsdaten der zumindest einen Abbildungseinheit dazu verwendet werden, die Steuerdaten für die zumindest eine Abbildungseinheit zu bestimmen.
  9. Bildverarbeitungssystem, umfassend: eine Abbildungsvorrichtung; eine externe Vorrichtung; und eine Kommunikationsleitung, die kommunikationsfähig zwischen der Abbildungsvorrichtung und der externen Einrichtung verbindet, wobei die Abbildungsvorrichtung umfasst: zumindest eine Abbildungseinheit, die dazu konfiguriert ist, eine Aufnahmeaufgabe durchzuführen, um Bilddaten in Übereinstimmung mit zumindest einem Wert von Steuerdaten aufzunehmen; eine Einbettungseinheit, die dazu konfiguriert ist, in die Bilddaten Zustandsdaten einzubetten, die einen Betriebszustand der Abbildungseinheit angeben, und dadurch eingebettete Bilddaten zu generieren; und eine Kommunikationseinheit, die dazu konfiguriert ist, serielle Kommunikationen mit der externen Vorrichtung über die Kommunikationsleitung durchzuführen, um dadurch: die Steuerdaten von der externen Vorrichtung zu empfangen; und die eingebetteten Bilddaten an die externe Vorrichtung zu übertragen; und wobei die externe Vorrichtung umfasst: einen Separator, der dazu konfiguriert ist, die eingebetteten Bilddaten zu empfangen; und die Zustandsdaten von den eingebetteten Bilddaten zu trennen, wobei: die externe Vorrichtung eine Steuereinrichtung umfasst, die dazu konfiguriert ist, zumindest einen aktualisierten Wert der Steuerdaten in Übereinstimmung mit den Zustandsdaten zu bestimmen, die von den eingebetteten Bilddaten getrennt wurden, und die Steuerdaten über die Kommunikationsleitung an die Abbildungsvorrichtung zu übertragen, wobei die Kommunikationseinheit dazu konfiguriert ist, die von der Steuereinrichtung übertragenen Steuerdaten zu empfangen, und die zumindest eine Abbildungseinheit dazu konfiguriert ist, den zumindest einen Wert der Steuerdaten auf den zumindest einen aktualisierten Wert der Steuerdaten zu ändern, der von der Kommunikationseinheit empfangen wurde.
DE102017220083.9A 2016-11-11 2017-11-10 Abbildungsvorrichtung und bildverarbeitungssystem Active DE102017220083B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-220711 2016-11-11
JP2016220711A JP6740868B2 (ja) 2016-11-11 2016-11-11 撮像装置、及び画像処理システム

Publications (2)

Publication Number Publication Date
DE102017220083A1 DE102017220083A1 (de) 2018-05-17
DE102017220083B4 true DE102017220083B4 (de) 2024-02-29

Family

ID=62026785

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017220083.9A Active DE102017220083B4 (de) 2016-11-11 2017-11-10 Abbildungsvorrichtung und bildverarbeitungssystem

Country Status (4)

Country Link
US (1) US10306126B2 (de)
JP (1) JP6740868B2 (de)
CN (1) CN108076322B (de)
DE (1) DE102017220083B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111756963B (zh) * 2019-03-29 2022-01-14 华为技术有限公司 图像摄取模组及电子终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010030761A1 (en) 2000-04-10 2001-10-18 Hiriyuki Ideyama Image data processing apparatus and method for embedding additional information into image data, data processing apparatus and method, and image forming apparatus
WO2013043661A1 (en) 2011-09-21 2013-03-28 Magna Electronics, Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326887A (ja) 1991-04-26 1992-11-16 Fujitsu General Ltd 映像信号の伝送制御方式
JP2003163926A (ja) * 2001-11-26 2003-06-06 Sumitomo Electric Ind Ltd 車内通信システム、データ処理装置、及び車載機器
JP4560430B2 (ja) * 2005-03-17 2010-10-13 株式会社リコー 画像形成装置、画像印刷システム、プログラムおよび画像合成出力方法
KR100876006B1 (ko) * 2005-08-04 2008-12-26 니폰 덴신 덴와 가부시끼가이샤 전자 워터마크 임베딩방법, 전자 워터마크 임베딩장치 및 프로그램
JP4670740B2 (ja) * 2006-06-07 2011-04-13 富士ゼロックス株式会社 画像生成装置、画像処理システム、及びプログラム
JP2008205594A (ja) * 2007-02-16 2008-09-04 Auto Network Gijutsu Kenkyusho:Kk 車載映像通信システム
JP2013026787A (ja) 2011-07-20 2013-02-04 Sony Corp 送信装置、受信システム、通信システム、送信方法、受信方法、及びプログラム
JP6035842B2 (ja) * 2012-04-25 2016-11-30 ソニー株式会社 撮像装置、撮像処理方法、画像処理装置および撮像処理システム
CN103220469A (zh) * 2013-04-27 2013-07-24 林宁 相机智能盒、数据处理系统和方法
JP2015041792A (ja) 2013-08-20 2015-03-02 株式会社ニコン 画像処理装置および撮像装置
JP6393999B2 (ja) * 2014-02-18 2018-09-26 株式会社リコー 画像出力装置、画像出力システム、画像出力制御方法及び画像出力制御プログラム
JP2016178435A (ja) * 2015-03-19 2016-10-06 カシオ計算機株式会社 撮像制御装置、撮像制御方法及びプログラム
JP6322600B2 (ja) 2015-05-26 2018-05-09 ファミリーイナダ株式会社 マッサージ機

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010030761A1 (en) 2000-04-10 2001-10-18 Hiriyuki Ideyama Image data processing apparatus and method for embedding additional information into image data, data processing apparatus and method, and image forming apparatus
WO2013043661A1 (en) 2011-09-21 2013-03-28 Magna Electronics, Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable

Also Published As

Publication number Publication date
JP6740868B2 (ja) 2020-08-19
CN108076322A (zh) 2018-05-25
JP2018078519A (ja) 2018-05-17
US20180139373A1 (en) 2018-05-17
DE102017220083A1 (de) 2018-05-17
CN108076322B (zh) 2021-02-05
US10306126B2 (en) 2019-05-28

Similar Documents

Publication Publication Date Title
DE10084276B4 (de) Ein verbesserter Lichtsensor mit einem erhöhten Dynamikbereich
DE102005009622B4 (de) Bildsensor und zugehöriges Treiberverfahren
DE102012215525B4 (de) Bildsensor mit flexiblen Verbindungsfähigkeiten
DE3315108C2 (de)
DE4231158C5 (de) Verfahren und Einrichtung für die Zusammensetzung und Anzeige von Bildern
DE112014003573T5 (de) System, Verfahren und computerlesbares Medium für das Übertragen von Takt- und Steuerungssignalen zu entfernten Kameraeinheiten
DE3218815C2 (de)
WO2012076274A1 (de) Verfahren und vorrichtung zum verarbeiten von bildinformationen zweier zur bilderfassung geeigneter sensoren eines stereo-sensor-systems
DE102009018255A1 (de) Endoskopsteuereinheit und Endoskopeinheit
DE112017004892T5 (de) Bilderzeugungsvorrichtung, Bilderzeugungsverfahren, Aufzeichnungsmedium und Bildverarbeitungssystem
DE2952453C2 (de)
DE102007060716A1 (de) Bildsignalübertragungssystem, elektronisches Endoskop und Endoskopprozessor
DE112019006340T5 (de) Kommunikationsvorrichtung, kommunikationsverfahren und programm
DE102017220083B4 (de) Abbildungsvorrichtung und bildverarbeitungssystem
DE102010026348B4 (de) Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem
DE102005010647A1 (de) Bildsignalverarbeitungsvorrichtung
DE3823921A1 (de) Verfahren und geraet zum speichern digitaler videosignale
EP1262060B1 (de) Verfahren und Vorrichtung zum teilweisen Auslesen der Bilddaten eines Bildsensors
DE3243248A1 (de) Einrichtung zur digitalen bilddarstellung
DE3545157A1 (de) Verfahren und schaltungsanordnung zur aufloesungsumwandlung von binaeren pseudo-halbtonbildern
DE69737642T2 (de) Festkörperbildsensor, Steuerungsverfahren und Verwendung desselben in einer Kamera
DE4027180A1 (de) Vorrichtung zum erzeugen von vertikalrolladressen
DE4116870C2 (de) Bildredigiervorrichtung
DE102018117129B3 (de) Kamera sowie Verfahren zur Steuerung einer Kamera
DE102016120845B4 (de) Kamerasystem und Betriebsverfahren hierfür

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division