DE112021001996T5 - Übertragungsvorrichtung, empfangsvorrichtung und übertragungssystem - Google Patents

Übertragungsvorrichtung, empfangsvorrichtung und übertragungssystem Download PDF

Info

Publication number
DE112021001996T5
DE112021001996T5 DE112021001996.1T DE112021001996T DE112021001996T5 DE 112021001996 T5 DE112021001996 T5 DE 112021001996T5 DE 112021001996 T DE112021001996 T DE 112021001996T DE 112021001996 T5 DE112021001996 T5 DE 112021001996T5
Authority
DE
Germany
Prior art keywords
roi
interest
image
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021001996.1T
Other languages
English (en)
Inventor
Hirokazu Satou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112021001996T5 publication Critical patent/DE112021001996T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Geometry (AREA)

Abstract

Eine Aufgabe besteht darin, eine Schattierungskorrekturverarbeitung einiger interessierender Bereiche (ROIs) zu implementieren, die aus einem erfassten Bild ausgeschnitten wurden. Eine Übertragungsvorrichtung schließt Folgendes ein: eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf Grundlage von Koordinateninformationen des ROI durchführt, und eine Übertragungseinheit, welche die Bilddaten des ROI, die der Schattierungskorrekturverarbeitung unterzogen werden, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Übertragungsvorrichtung, eine Empfangsvorrichtung und ein Übertragungssystem.
  • ALLGEMEINER STAND DER TECHNIK
  • In den letzten Jahren nimmt die Übertragung einer großen Menge an massiven Daten zu. Auf ein Übertragungssystem wird wahrscheinlich eine große Last ausgeübt, und im schlimmsten Fall besteht die Möglichkeit, dass das Übertragungssystem ausfällt und eine Datenübertragung nicht durchgeführt werden kann.
  • Es ist bekannt, dass ein abzubildendes Objekt spezifiziert wird und nur ein Bild eines ausgeschnittenen Teils des spezifizierten Objekts übertragen wird, anstatt zum Beispiel alle erfassten Bilder zu übertragen, um zu verhindern, dass das Übertragungssystem ausfällt (zum Beispiel Patentdokumente 1 bis 4).
  • ZITATVERZEICHNIS
  • PATENTDOKUMENT
    • Patentdokument 1: Japanische Patentanmeldung Offenlegungsnr. 2016-201756
    • Patentdokument 2: Japanische Patentanmeldung Offenlegungsnr. 2014-39219
    • Patentdokument 3: Japanische Patentanmeldung Offenlegungsnr. 2013-164834
    • Patentdokument 4: Japanische Patentanmeldung Offenlegungsnr. 2012-209831
  • KURZDARSTELLUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Die Schattierungskorrekturverarbeitung in einem Fall des Übertragens einiger interessierender Bereiche (ROIs), die aus einem erfassten Bild ausgeschnitten wurden, wurde überhaupt nicht untersucht.
  • Eine Aufgabe der vorliegenden Offenbarung besteht darin, eine Schattierungskorrekturverarbeitung einiger interessierender Bereiche (ROIs) zu implementieren, die aus einem erfassten Bild ausgeschnitten wurden.
  • LÖSUNGEN FÜR DIE PROBLEME
  • Eine Übertragungsvorrichtung gemäß einem Gesichtspunkt der vorliegenden Offenbarung schließt Folgendes ein: eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf der Grundlage von Koordinateninformationen des ROI durchführt, und eine Übertragungseinheit, welche die Bilddaten des ROI, die der Schattierungskorrekturverarbeitung unterzogen werden, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet.
  • Eine Empfangsvorrichtung gemäß einem Gesichtspunkt der vorliegenden Offenbarung schließt Folgendes ein: eine Empfangseinheit, die ein Übertragungssignal empfängt, in dem Bilddaten eines interessierenden Bereichs (ROI), der aus einem vorbestimmten erfassten Bild ausgeschnitten ist, in Nutzdaten eingeschlossen werden und ROI-Informationen, die dem ROI entsprechen, in eingebettete Daten eingeschlossen werden, und eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an den Bilddaten des ROI auf der Grundlage von Koordinateninformationen des ROI durchführt, die aus den ROI-Informationen extrahiert wurden.
  • Ein Übertragungssystem gemäß einem Gesichtspunkt der vorliegenden Offenbarung schließt Folgendes ein: eine Übertragungsvorrichtung, die eine Verarbeitungseinheit einschließt, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf der Grundlage von Koordinateninformationen des ROI durchführt, und eine Übertragungseinheit, welche die Bilddaten des ROI, welcher der Schattierungskorrekturverarbeitung unterzogen wird, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet; und eine Empfangsvorrichtung, die eine Empfangseinheit einschließt, die ein Übertragungssignal empfängt, in dem Bilddaten eines Bildes, die in dem ROI enthalten sind, in den Nutzdaten eingeschlossen werden und die ROI-Informationen in die eingebetteten Daten eingeschlossen werden.
  • Darüber hinaus schließt ein Übertragungssystem gemäß einem weiteren Gesichtspunkt der vorliegenden Offenbarung Folgendes ein: eine Übertragungsvorrichtung, die Bilddaten eines interessierenden Bereichs (ROI) als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet; und eine Empfangsvorrichtung, die eine Empfangseinheit einschließt, die ein Übertragungssignal empfängt, in dem die Bilddaten des interessierenden Bereichs (ROI), der aus einem vorbestimmten erfassten Bild ausgeschnitten ist, in die Nutzdaten eingeschlossen werden und die ROI-Informationen, die dem ROI entsprechen, in die eingebetteten Daten eingeschlossen werden, und eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an den Bilddaten des ROI auf Grundlage von Koordinateninformationen des ROI durchführt, die aus den ROI-Informationen extrahiert wurden.
  • Figurenliste
    • 1 ist ein Diagramm, das ein schematisches Konfigurationsbeispiel eines Videoübertragungssystems veranschaulicht.
    • 2 ist ein Diagramm, das ein schematisches Konfigurationsbeispiel einer Videoübertragungsvorrichtung von 1 veranschaulicht.
    • 3 ist ein Diagramm, das ein Beispiel einer Übertragungsdaten-Erzeugungsprozedur in einem Fall veranschaulicht, in dem zwei interessierende Bereiche (ROIs) in einem erfassten Bild enthalten sind.
    • 4 ist ein Diagramm, das ein Konfigurationsbeispiel eines Paket-Header veranschaulicht.
    • 5 ist ein Diagramm, das ein Konfigurationsbeispiel von Übertragungsdaten veranschaulicht.
    • 6 ist ein Diagramm, das ein Konfigurationsbeispiel der Übertragungsdaten veranschaulicht.
    • 7 ist ein Diagramm, das ein Konfigurationsbeispiel von Nutzdaten eines langen Pakets veranschaulicht.
    • 8 ist ein Diagramm, das ein schematisches Konfigurationsbeispiel einer Videoempfangsvorrichtung von 1 veranschaulicht.
    • 9 ist ein Diagramm, das ein Beispiel einer Prozedur zum Erzeugen von zwei ROI-Bildern veranschaulicht, die in einem erfassten Bild enthalten sind, in einem Fall, in dem zwei Bilder in Übertragungsdaten enthalten sind.
    • 10 ist ein Diagramm, das schematisch einen Bereich veranschaulicht, in dem ein spezifisches Objekt in einem erfassten Bild angeordnet ist.
    • 11 ist ein Diagramm, das ein Beispiel eines ROI-Satzes für ein spezifisches Objekt veranschaulicht.
    • 12 ist ein Diagramm, das ein Konfigurationsbeispiel von Übertragungsdaten veranschaulicht, in denen Positionsinformationen von jedem ROI-Bild in Nutzdaten eines langen Pakets enthalten sind.
    • 13 ist ein Diagramm, das schematisch ein Beispiel eines interessierenden Bereichs veranschaulicht, der in einem erfassten Bild enthalten ist, das einer Schattierungskorrektur unterzogen werden soll.
    • 14 ist ein Diagramm, das ein Beispiel einer Korrekturwerttabelle veranschaulicht, die zur Schattierungskorrekturverarbeitung verwendet wird.
    • 15 ist ein Diagramm, das die Schattierungskorrekturverarbeitung in der vorliegenden Offenbarung schematisch veranschaulicht.
    • 16 ist ein Blockdiagramm, das eine schematische Konfiguration einer Videoübertragungsvorrichtung, einer Videoempfangsvorrichtung und eines Videoübertragungssystems gemäß einer ersten Ausführungsform veranschaulicht.
    • 17 ist ein Flussdiagramm, das ein Beispiel eines Ablaufs einer Koordinateninformation-Erzeugungsverarbeitung zum Erzeugen von Koordinateninformationen eines interessierenden Bereichs veranschaulicht, die für die Schattierungskorrekturverarbeitung in der vorliegenden Offenbarung verwendet wird.
    • 18 ist ein Flussdiagramm, das ein Beispiel eines Ablaufs einer Schattierungskorrekturverarbeitung in der Videoübertragungsvorrichtung, der Videoempfangsvorrichtung und dem Videoübertragungssystem gemäß der ersten Ausführungsform veranschaulicht.
    • 19 ist ein Blockdiagramm, das eine schematische Konfiguration einer Videoübertragungsvorrichtung, einer Videoempfangsvorrichtung und eines Videoübertragungssystems gemäß einer zweiten Ausführungsform veranschaulicht.
    • 20 ist ein Flussdiagramm, das ein Beispiel eines Ablaufs einer Schattierungskorrekturverarbeitung in der Videoübertragungsvorrichtung, der Videoempfangsvorrichtung und dem Videoübertragungssystem gemäß der zweiten Ausführungsform veranschaulicht.
  • ART UND WEISE ZUR AUSFÜHRUNG DER ERFINDUNG
  • Im Folgenden werden unter Bezugnahme auf die Zeichnungen ausführlich Arten und Weisen zum Ausführen der vorliegenden Offenbarung beschrieben. Die folgende Beschreibung ist ein spezifisches Beispiel der vorliegenden Offenbarung, und die vorliegende Offenbarung ist nicht auf die folgenden Gesichtspunkte beschränkt.
  • Im Folgenden wird eine Art zum Ausführen der Technologie gemäß der vorliegenden Offenbarung (im Folgenden als „Ausführungsform“ bezeichnet) in der folgenden Reihenfolge beschrieben.
    1. 1. Zugrunde liegende Technologie 1 der vorliegenden Offenbarung (Technologie zum Übertragen einiger interessierender Bereiche (ROIs) (mit rechteckiger Form), die aus dem erfassten Bild geschnitten wurden)
    2. 2. Zugrunde liegende Technologie 2 der vorliegenden Offenbarung (Technologie zum Übertragen einiger interessierender Bereiche (ROIs) (mit nicht rechteckiger Form), die aus dem erfassten Bild geschnitten wurden)
    3. 3. Prinzip der Schattierungskorrekturverarbeitung in der Ausführungsform der vorliegenden Offenbarung
    4. 4. Videoübertragungsvorrichtung, Videoempfangsvorrichtung und Videoübertragungssystem gemäß der ersten Ausführungsform der vorliegenden Offenbarung
    5. 5. Videoübertragungsvorrichtung, Videoempfangsvorrichtung und Videoübertragungssystem gemäß der zweiten Ausführungsform der vorliegenden Offenbarung
  • 1. Zugrunde liegende Technologie 1 der vorliegenden Offenbarung:
  • [Konfiguration]
  • In den letzten Jahren wurde bei tragbaren Vorrichtungen wie Smartphones, Kameravorrichtungen und dergleichen die Kapazität der gehandhabten Bilddaten erhöht, und es bestand ein Bedarf an höherer Geschwindigkeit und geringerem Stromverbrauch für die Datenübertragung in den Vorrichtungen oder zwischen unterschiedlichen Vorrichtungen. Um solche Anforderungen zu erfüllen, werden Hochgeschwindigkeits-Schnittstellenstandards wie ein C-PHY-Standard und ein D-PHY-Standard, die von der MIPI Alliance festgelegt werden, als Verbindungsschnittstellen für tragbare Vorrichtungen und Kameravorrichtungen standardisiert. Der C-PHY-Standard und der D-PHY-Standard sind Schnittstellenstandards einer physikalischen Schicht (PHY) eines Kommunikationsprotokolls. Außerdem gibt es eine serielle Anzeigeschnittstelle (DSI) zur Anzeige einer tragbaren Vorrichtung und eine serielle Kameraschnittstelle (CSI) für eine Kameravorrichtung als höhere Protokollschichten des C-PHY-Standards und des D-PHY-Standards.
  • Ein Videoübertragungssystem 1 gemäß der zugrundeliegenden Technologie der vorliegenden Offenbarung ist ein System, das ein Signal gemäß verschiedenen Standards senden und empfangen kann und ein Signal gemäß zum Beispiel einem MIPI-CSI-2-Standard, einem MIPI CSI-3-Standard oder einem MIPI DSI-Standard senden und empfangen kann. 1 veranschaulicht einen Umriss des Videoübertragungssystems 1 gemäß der zugrundeliegenden Technologie der vorliegenden Offenbarung. Das Videoübertragungssystem 1 wird auf die Übertragung eines Datensignals, eines Taktsignals und eines Steuersignals angewendet und schließt eine Videoübertragungsvorrichtung 100 und eine Videoempfangsvorrichtung 200 ein. Das Videoübertragungssystem 1 schließt eine Datenspur DL zum Übertragen eines Datensignals wie Bilddaten, eine Taktspur CL zum Übertragen eines Taktsignals und eine Kamera-Steuerschnittstelle CCI zum Übertragen eines Steuersignals über die Videoübertragungsvorrichtung 100 und die Videoempfangsvorrichtung 200 ein. Obwohl 1 ein Beispiel veranschaulicht, in dem eine Datenspur DL bereitgestellt ist, kann eine Vielzahl von Datenspuren DL bereitgestellt werden. Die Kamera-Steuerschnittstelle CCI ist eine bidirektionale Steuerschnittstelle, die mit einem Inter-Integrated-Circuit-(I2C - inter-integrierte Schaltung)-Standard kompatibel ist.
  • Die Videoübertragungsvorrichtung 100 ist eine Vorrichtung, die ein Signal gemäß dem MIPI-CSI-2-Standard, dem MIPI-CSI-3-Standard oder dem MIPI-DSI-Standard sendet. Ein CSI-Sender 100A und ein CCI-Slave 100B werden bereitgestellt. Die Videoempfangsvorrichtung 200 schließt einen CSI-Empfänger 200A und einen CCI-Master 200B ein. In der Taktspur CL verbindet eine Taktsignalleitung den CSI-Sender 100A und den CSI-Empfänger 200A. In der Datenspur DL verbindet eine Taktsignalleitung den CSI-Sender 100A und den CSI-Empfänger 200A. In der Kamera-Steuerschnittstelle CCI verbindet eine Steuersignalleitung den CCI-Slave 100B und den CCI-Master 200B.
  • Der CSI-Sender 100A ist zum Beispiel eine Differenzsignal-Übertragungsschaltung, die ein Differenztaktsignal als ein Taktsignal erzeugt und das Differenztaktsignal an die Taktsignalleitung ausgibt.
    Der CSI-Sender 100A kann konfiguriert sein, um nicht nur das Differenztaktsignal, sondern auch ein einpoliges Signal oder ein dreiphasiges Signal zu übertragen. Der CSI-Sender 100A ist auch eine Differenzsignal-Übertragungsschaltung, die ein Differenzdatensignal als ein Datensignal erzeugt und das Differenzdatensignal an eine Datensignalleitung ausgibt. Der CSI-Empfänger 200A ist eine Differenzsignalempfangsschaltung, die ein Differenztaktsignal als ein Taktsignal über die Taktsignalleitung empfängt und eine vorbestimmte Verarbeitung an dem empfangenen Differenztaktsignal durchführt. Der CSI-Empfänger 200A ist auch eine Differenzsignalempfangsschaltung, die ein Differenzdatensignal als ein Datensignal über die Datensignalleitung empfängt und eine vorbestimmte Verarbeitung an dem empfangenen Differenzdatensignal durchführt.
  • (Videoübertragungsvorrichtung 100)
  • 2 veranschaulicht ein Beispiel einer Konfiguration der Videoübertragungsvorrichtung 100. Die Videoübertragungsvorrichtung 100 entspricht einem spezifischen Beispiel des CSI-Senders 100A. Die Videoübertragungsvorrichtung 100 schließt zum Beispiel eine Abbildungseinheit 110, Bildverarbeitungseinheiten 120 und 130 und eine Übertragungseinheit 140 ein. Die Videoübertragungsvorrichtung 100 überträgt Übertragungsdaten 147A, die durch Durchführen einer vorbestimmten Verarbeitung an einem erfassten Bild 111 erzeugt werden, das von der Abbildungseinheit 110 erhalten wird, über die Datenspur DL an die Videoempfangsvorrichtung 200. 3 veranschaulicht ein Beispiel einer Prozedur des Erzeugens von Übertragungsdaten 147A.
  • Die Abbildungseinheit 110 wandelt zum Beispiel ein durch eine optische Linse oder dergleichen erhaltenes optisches Bildsignal in Bilddaten um. Die Abbildungseinheit 110 schließt zum Beispiel einen Bildsensor wie einen CCD-Bildsensor (Charge Coupled Device), einen CMOS-Bildsensor (Complementary Metal Oxide Semiconductor) oder dergleichen ein. Die Abbildungseinheit 110 schließt eine Analog-Digital-Umwandlungsschaltung ein und wandelt analoge Bilddaten in digitale Bilddaten um. Ein Datenformat nach der Umwandlung kann ein YCbCr-Format sein, in dem die Farbe jedes Pixels durch eine Luminanzkomponente Y und Chrominanzkomponenten Cb und Cr, ein RGB-Format oder dergleichen ausgedrückt wird. Die Abbildungseinheit 110 gibt das erfasste Bild 111 (digitale Bilddaten), die durch Abbilden erhalten wurden, an die Bildverarbeitungseinheit 120 aus.
  • Die Bildverarbeitungseinheit 120 ist eine Schaltung, die eine vorbestimmte Verarbeitung an dem erfassten Bild 111 durchführt, das von der Abbildungseinheit 110 eingegeben wird. In der zugrundeliegenden Technologie 1 wird ein Fall, in dem die Bildverarbeitungseinheit 120 eine vorbestimmte Verarbeitung an dem erfassten Bild 111 durchführt, das von der Abbildungseinheit 110 eingegeben wird, in einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, beschrieben. Die zugrundeliegende Technologie 1 kann jedoch auch auf einen Fall angewendet werden, in dem die Videoübertragungsvorrichtung 100, d. h., eine Übertragungsseite, die Koordinaten eines auszuschneidenden ROI spezifiziert. In diesem Fall ist die Übertragungsseite zum Beispiel konfiguriert, um Informationen wie eine „Person“ oder ein „Objekt“, die in dem von einer Empfangsseite gesendeten ROI erhalten werden sollen, zu empfangen und die Koordinaten des Schneidens zu bestimmen und zu spezifizieren. Als Ergebnis erzeugt die Bildverarbeitungseinheit 120 verschiedene Datenelemente (120A, 120B und 120C) und gibt die verschiedenen Datenelemente an die Übertragungseinheit 140 aus. Die Bildverarbeitungseinheit 130 ist eine Schaltung, die eine vorbestimmte Verarbeitung an dem erfassten Bild 111 durchführt, das von der Abbildungseinheit 110 eingegeben wird. Die Bildverarbeitungseinheit 130 führt eine vorbestimmte Verarbeitung an dem erfassten Bild 111 durch, das von der Abbildungseinheit 110 eingegeben wird, in einem Fall, in dem ein Steuersignal zum Anweisen des Ausgebens eines Normalbildes von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird. Als Ergebnis erzeugt die Bildverarbeitungseinheit 130 Bilddaten 130A und gibt die Bilddaten 130A an die Übertragungseinheit 140 aus.
  • Die Bildverarbeitungseinheit 130 schließt zum Beispiel eine Codiereinheit 131 ein. Die Codiereinheit 131 codiert das erfasste Bild 111, um komprimierte Bilddaten 130A zu erzeugen. Zum Beispiel komprimiert die Bildverarbeitungseinheit 130 das erfasste Bild 111 in einem Komprimierungsformat, das dem JPEG-Standard (Joint Photographic Experts Group) oder dergleichen entspricht, als das Format der komprimierten Bilddaten 130A.
  • Die Bildverarbeitungseinheit 120 schließt zum Beispiel eine ROI-Schneideinheit 121, eine ROI-Analyseeinheit 122, eine Überlappungserkennungseinheit 123, eine Prioritätseinstelleinheit 124, eine Codiereinheit 125 und eine Bildverarbeitungssteuereinheit 126 ein.
  • Die ROI-Schneideinheit 121 spezifiziert eines oder mehrere abzubildende Objekte, die in dem erfassten Bild 111 enthalten sind, das von der Abbildungseinheit 110 eingegeben wurde, und legt einen interessierenden Bereich ROI für jedes spezifizierte Objekt fest. Der interessierende Bereich ROI ist zum Beispiel ein quadratischer Bereich, der das spezifizierte Objekt einschließt. Die ROI-Schneideinheit 121 schneidet ein Bild aus jedem interessierenden Bereich ROI (zum Beispiel ein ROI-Bild 112 in 3) aus dem erfassten Bild 111. Die ROI-Schneideinheit 121 weist ferner jedem eingestellten interessierenden Bereich ROI eine Bereichsnummer als Kennung zu. In einem Fall, in dem zum Beispiel zwei interessierende Bereiche ROI in dem erfassten Bild 111 eingestellt sind, weist die ROI-Schneideinheit 121 einem interessierenden Bereich ROI (zum Beispiel einem interessierenden Bereich ROI1 in 3) eine Bereichsnummer 1 zu und weist dem anderen interessierenden Bereich ROI (zum Beispiel einem interessierenden Bereich ROI2 in 3) eine Bereichsnummer 2 zu. Zum Beispiel speichert die ROI-Schneideinheit 121 die zugewiesene Kennung (Bereichsnummer) in einer Speicherungseinheit. Zum Beispiel speichert die ROI-Schneideinheit 121 jedes ROI-Bild 112 , das aus dem erfassten Bild 111 geschnitten wurde, in der Speicherungseinheit. Die ROI-Schneideinheit 121 speichert ferner zum Beispiel die Kennung (Bereichsnummer), die jedem interessierenden Bereich ROI zugewiesen ist, in der Speicherungseinheit in Zuordnung mit dem ROI-Bild 112.
  • Die ROI-Analyseeinheit 122 leitet Positionsinformationen 113 eines interessierenden Bereichs ROI in dem erfassten Bild 111 für jeden interessierenden Bereich ROI ab. Die Positionsinformationen 113 schließen zum Beispiel die oberen linken Endkoordinaten (Xa, Ya) eines interessierenden Bereichs ROI, die Länge eines interessierenden Bereichs ROI in einer X-Achsenrichtung und die Länge eines interessierenden Bereichs ROI in Y-Achsenrichtung ein. Die Länge eines interessierenden Bereichs ROI in der X-Achsenrichtung ist zum Beispiel eine physikalische Bereichslänge XLa eines interessierenden Bereichs ROI in der X-Achsenrichtung. Die Länge eines interessierenden Bereichs ROI in Y-Achsenrichtung ist zum Beispiel eine physikalische Bereichslänge YLa eines interessierenden Bereichs ROI in Y-Achsenrichtung. Die physikalische Bereichslänge gibt eine physikalische Länge (Datenlänge) eines interessierenden Bereichs ROI an. Die Positionsinformationen 113 können Koordinaten einer Position einschließen, die sich von dem oberen linken Ende eines interessierenden Bereichs ROI unterscheidet. Die ROI-Analyseeinheit 122 speichert zum Beispiel die abgeleiteten Positionsinformationen 113 in der Speicherungseinheit. Zum Beispiel speichert die ROI-Analyseeinheit 122 in der Speicherungseinheit die Positionsinformationen 113 um Zusammenhang mit der Kennung (Bereichsnummer), die dem interessierenden Bereich ROI zugewiesen ist.
  • Die ROI-Analyseeinheit 122 kann ferner zum Beispiel eine Ausgabebereichslänge XLc eines interessierenden Bereichs ROI in X-Achsenrichtung und eine Ausgabebereichslänge YLc eines interessierenden Bereichs ROI in Y-Achsenrichtung als die Positionsinformationen 113 für jeden interessierenden Bereich ROI ableiten. Die Ausgabebereichslänge ist zum Beispiel eine physikalische Länge (Datenlänge) eines interessierenden Bereichs ROI, nachdem die Auflösung eines interessierenden Bereichs ROI durch Ausdünnungsverarbeitung, Pixeladdition oder dergleichen geändert wurde. Zum Beispiel kann die ROI-Analyseeinheit 122 zusätzlich zu den Positionsinformationen 113 zum Beispiel Abtastinformationen, Belichtungsinformationen, Verstärkungsinformationen, eine analog-digitale (AD) Wortlänge, ein Bildformat und dergleichen für jeden interessierenden Bereich ROI ableiten und die abgeleiteten Informationen in der Speicherungseinheit speichern.
  • Die Abtastinformationen beziehen sich auf einen Berechnungsinhalt für ein Objekt, das in einem interessierenden Bereich ROI enthalten ist, ergänzende Informationen für eine nachträgliche Signalverarbeitung für das ROI-Bild 112 und dergleichen. Die Belichtungsinformationen beziehen sich auf eine Belichtungszeit eines interessierenden Bereichs ROI. Die Verstärkungsinformationen beziehen sich auf Verstärkungsinformationen eines interessierenden Bereichs ROI. Die AD-Wortlänge bezieht sich auf eine Wortlänge von Daten pro Pixel, die einer AD-Umwandlung in einem interessierenden Bereich ROI unterzogen wird. Das Bildformat bezieht sich auf das Format eines Bildes eines interessierenden Bereichs ROI. Zum Beispiel kann die ROI-Analyseeinheit 122 die Anzahl von interessierenden Bereichen ROI (die Anzahl von ROIs) ableiten, die in dem erfassten Bild 111 enthalten sind, und die Anzahl in der Speicherungseinheit speichern.
  • In einem Fall, in dem mehrere abzubildende Objekte in dem erfassten Bild 111 spezifiziert sind, erkennt die Überlappungserkennungseinheit 123 einen überlappenden Bereich (ROO), in dem zwei oder mehr interessierende Bereiche ROI einander überlappen, auf der Grundlage der Positionsinformationen 113 der Vielzahl von interessierenden Bereichen ROI in dem erfassten Bild 111. Das heißt, die Überlappungserkennungseinheit 123 leitet Positionsinformationen 114 eines überlappenden Bereichs ROO in dem erfassten Bild 111 für jeden überlappenden Bereich ROO ab. Zum Beispiel speichert die Überlappungserkennungseinheit 123 die abgeleiteten Positionsinformationen 114 in der Speicherungseinheit. Zum Beispiel speichert die Überlappungserkenungseinheit 123 die abgeleiteten Positionsinformationen 114 in der Speicherungseinheit in Zuordnung zu dem überlappenden Bereich ROO. Der überlappende Bereich ROO ist zum Beispiel ein quadratförmiger Bereich mit der gleichen Größe wie oder kleiner als der kleinste interessierende Bereich ROI unter zwei oder mehr einander überlappenden interessierenden Bereichen ROI. Die Positionsinformationen 114 schließen zum Beispiel die oberen linken Endkoordinaten (Xb, Yb) eines überlappenden Bereichs ROO, die Länge eines überlappenden Bereichs ROO in der X-Achsenrichtung und die Länge eines überlappenden Bereichs ROO in der Y-Achsenrichtung ein. Die Länge eines überlappenden Bereichs ROO in der X-Achsenrichtung ist zum Beispiel eine physikalische Bereichslänge XLb. Die Länge eines überlappenden Bereichs ROO in Y-Achsenrichtung ist zum Beispiel eine physikalische Bereichslänge YLb. Die Positionsinformationen 114 können Koordinaten einer Position einschließen, die sich von dem oberen linken Ende eines interessierenden Bereichs ROI unterscheidet.
  • Die Prioritätseinstelleinheit 124 weist jedem interessierenden Bereich ROI in dem erfassten Bild 111 eine Priorität 115 zu. Die Prioritätseinstelleinheit 124 speichert zum Beispiel die zugewiesene Priorität 115 in der Speicherungseinheit. Zum Beispiel speichert die Prioritätseinstelleinheit 124 die zugewiesene Priorität 115 in der Speicherungseinheit in Zuordnung zu dem interessierenden Bereich ROI. Die Prioritätseinstelleinheit 124 kann jedem interessierenden Bereich ROI die Priorität 115 getrennt von der jedem interessierenden Bereich ROI zugewiesenen Bereichsnummer zuweisen oder kann die jedem interessierenden Bereich ROI zugewiesene Bereichsnummer durch die Priorität 115 ersetzen. Zum Beispiel kann die Prioritätseinstelleinheit 124 die Priorität 115 in der Speicherungseinheit in Zuordnung zu dem interessierenden Bereich ROI speichern oder kann die Bereichsnummer, die jedem interessierenden Bereich ROI zugewiesen ist, in der Speicherungseinheit in Zuordnung zu dem interessierenden Bereich ROI speichern.
  • Die Priorität 115 ist eine Kennung jedes interessierenden Bereichs ROI und ist Bestimmungsinformationen, die eine Bestimmung ermöglichen, aus welcher einer Vielzahl von interessierenden Bereichen ROI in dem erfassten Bild 111 ein überlappender Bereich ROO weggelassen wurde. Zum Beispiel weist die Prioritätseinstelleinheit 124 für zwei interessierende Bereiche ROI, die jeweils einen überlappenden Bereich ROO einschließen, 1 als die Priorität 115 eines interessierenden Bereichs ROI zu und weist 2 als die Priorität 115 des anderen interessierenden Bereichs ROI zu. In diesem Fall wird zum Zeitpunkt des Erzeugens eines später beschriebenen Übertragungsbildes 116 der überlappende Bereich ROO aus dem interessierenden Bereich ROI weggelassen, dessen Priorität 115 einen größeren Wert aufweist. Es sei zu beachten, dass die Prioritätseinstelleinheit 124 einem interessierenden Bereich ROI dieselbe Nummer zuweisen kann wie eine Bereichsnummer, die jedem interessierenden Bereich ROI als die Priorität 115 zugewiesen ist. Zum Beispiel speichert die Prioritätseinstelleinheit 124 die Priorität 115, die jedem interessierenden Bereich ROI in der Speicherungseinheit zugewiesen ist, in Zuordnung zu dem ROI-Bild 112.
  • Die Codiereinheit 125 codiert jedes Übertragungsbild 116, um komprimierte Bilddaten 120A zu erzeugen. Zum Beispiel komprimiert die Codiereinheit 125 jedes Übertragungsbild 116 in einem Komprimierungsformat, das dem JPEG-Standard oder dergleichen entspricht, als das Format der komprimierten Bilddaten 120A. Die Codiereinheit 125 erzeugt jedes Übertragungsbild 116 vor dem Durchführen der oben beschriebenen Komprimierungsverarbeitung. Die Codiereinheit 125 erzeugt eine Vielzahl von Übertragungsbildern 116, die durch Weglassen eines Bildes 118 des überlappenden Bereichs ROO aus einer Vielzahl von ROI-Bildern 112, die aus dem erfassten Bild 111 erhalten wurde, derart erhalten wird, dass das Bild 118 nicht redundant in der Vielzahl von ROI-Bildern 112, die aus dem erfassten Bild 111 erhalten wurde, enthalten ist.
  • Zum Beispiel bestimmt die Codiereinheit 125, von welcher der Vielzahl von ROI-Bildern 112 das Bild 118 wegzulassen ist, auf der Grundlage der Priorität 115, die jedem interessierenden Bereich ROI zugewiesen ist. Es sei zu beachten, dass die Codiereinheit 125 bestimmen kann, von welchem der Vielzahl von ROI-Bildern 112 das Bild 118 wegzulassen ist, indem zum Beispiel die Bereichsnummer verwendet wird, die jedem interessierenden Bereich ROI als die Priorität 115 zugewiesen ist. Die Codiereinheit 125 verwendet ein Bild, das durch Weglassen des Bildes 118 aus dem wie oben beschriebenen spezifizierten ROI-Bild 112 erhalten wird, als das Übertragungsbild 116 (zum Beispiel ein Übertragungsbild 116a2 in 3). In einem Fall eines ROI-Bildes 112, das keinen überlappenden Bereich ROO einschließt, oder eines ROI-Bildes 112, aus dem das Bild 118 gemäß der oben beschriebenen Bestimmung nicht weggelassen wurde, verwendet die Codiereinheit 125 das ROI-Bild 112 selbst als das Übertragungsbild 116 (zum Beispiel ein Übertragungsbild 116a1 in 3).
  • Die Bildverarbeitungssteuereinheit 126 erzeugt ROI-Informationen 120B und Frame-Informationen 120C und überträgt die ROI-Informationen 120B und die Frame-Informationen 120C an die Übertragungseinheit 140. Die ROI-Informationen 120B schließen zum Beispiel jedes Element von Positionsinformationen 113 ein. Die ROI-Informationen 120B schließen ferner zum Beispiel mindestens eines von einem Datentyp von jedem interessierenden Bereich ROI, der Anzahl von interessierenden Bereichen ROI, die in dem aufgenommenen Bild 111 enthalten sind, der Bereichsnummer (oder der Priorität 115) jedes interessierenden Bereichs ROI, die Datenlänge jedes interessierenden Bereichs ROI oder das Bildformat jedes interessierenden Bereichs ROI ein. Die Frame-Informationen 120C schließen zum Beispiel eine virtuelle Kanalnummer, die jedem Frame zugewiesen ist, den Datentyp jedes interessierenden Bereichs ROI, die Nutzlastlänge jeder Zeile und dergleichen ein. Der Datentyp schließt zum Beispiel YUV-Daten, RGB-Daten, RAW-Daten oder dergleichen ein. Der Datentyp schließt ferner zum Beispiel ROI-Formatdaten oder Normalformatdaten ein. Die Nutzlastlänge ist zum Beispiel die Anzahl von Pixeln, die in einer Nutzlast eines langen Pakets enthalten sind, und ist zum Beispiel die Anzahl von Pixeln für jeden interessierenden Bereich ROI. Hier bezieht sich die Nutzlast auf Hauptdaten (Anwendungsdaten), die zwischen der Videoübertragungsvorrichtung 100 und der Videoempfangsvorrichtung 200 übertragen werden. Das lange Paket bezieht sich auf ein Paket, das zwischen einem Paket-Header PH und einem Paket-Footer PF angeordnet ist.
  • Die Übertragungseinheit 140 ist eine Schaltung, welche die Übertragungsdaten 147A auf der Grundlage verschiedener Datenelemente (120A, 120B, 120C und 130A) erzeugt und sendet, die von den Bildverarbeitungseinheiten 120 und 130 eingegeben werden. Die Übertragungseinheit 140 sendet die ROI-Informationen 120B bezüglich jedes interessierenden Bereichs ROI in dem erfassten Bild 111 als eingebettete Daten (Eingebettete Daten). Ferner sendet in einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, die Übertragungseinheit 140 Bilddaten (komprimierte Bilddaten 120A) jedes interessierenden Bereichs ROI als Nutzdaten (Payload Data) des langen Pakets. Zu diesem Zeitpunkt sendet die Übertragungseinheit 140 die Bilddaten (komprimierte Bilddaten 120A) jedes interessierenden Bereichs ROI über einen gemeinsamen virtuellen Kanal. Zusätzlich sendet die Übertragungseinheit 140 die Bilddaten (komprimierte Bilddaten 120A) jedes interessierenden Bereichs ROI durch ein Bilddaten-Frame und sendet die ROI-Informationen 120B bezüglich jedes interessierenden Bereichs ROI durch einen Header des Bilddaten-Frame. Ferner sendet in einem Fall, in dem ein Steuersignal zum Anweisen des Ausgebens eines Normalbildes von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, die Übertragungseinheit 140 Normalbilddaten (komprimierte Bilddaten 130A) als Nutzdaten des langen Pakets.
  • Die Übertragungseinheit 140 schließt zum Beispiel eine LINK-Steuereinheit 141, eine ECC-Erzeugungseinheit 142, eine PH-Erzeugungseinheit 143, einen EBD-Puffer 144, einen ROI-Datenpuffer 145, einen Normalbild-Datenpuffer 146 und eine Kombinationseinheit 147 ein. Die LINK-Steuereinheit 141, die ECC-Erzeugungseinheit 142, die PH-Erzeugungseinheit 143, der EBD-Puffer 144 und der ROI-Datenpuffer 145 führen das Ausgeben an die Kombinationseinheit 147 in einem Fall durch, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird. In einem Fall, in dem ein Steuersignal zum Anweisen des Ausgebens eines Normalbildes von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, gibt der Normalbild-Datenpuffer 146 ein Normalbild an die Kombinationseinheit 147 aus.
  • Es sei zu beachten, dass der ROI-Datenpuffer 145 auch als Normalbild-Datenpuffer 146 dienen kann. In diesem Fall kann die Übertragungseinheit 140 einen Selektor einschließen, der eine Ausgabe von einem von dem ROI-Datenpuffer 145 und dem ROI-Datenpuffer 145 zwischen einem Ausgabeanschluss von jedem des ROI-Datenpuffers 145 und des ROI-Datenpuffers 145 und einem Eingabeanschluss der Kombinationseinheit 147 auswählt.
  • Zum Beispiel gibt die LINK-Steuereinheit 141 die Frame-Informationen 120C an die ECC-Erzeugungseinheit 142 und die PH-Erzeugungseinheit 143 für jede Zeile aus. Die ECC-Erzeugungseinheit 142 erzeugt einen Fehlerkorrekturcode einer Zeile auf der Grundlage von Daten (zum Beispiel einer virtuellen Kanalnummer, dem Datentyp jedes interessierenden Bereichs ROI, der Nutzlastlänge jeder Zeile und dergleichen) der Zeile in den Frame-Informationen 120C, zum Beispiel. Die ECC-Erzeugungseinheit 142 gibt den erzeugten Fehlerkorrekturcode an die PH-Erzeugungseinheit 143 aus, zum Beispiel. Die PH-Erzeugungseinheit 143 erzeugt den Paket-Header PH für jede Zeile zum Beispiel unter Verwendung der Frame-Informationen 120C und des von der ECC-Erzeugungseinheit 142 erzeugten Fehlerkorrekturcodes. Zu diesem Zeitpunkt ist zum Beispiel, wie in 4 veranschaulicht, der Paket-Header PH ein Paket-Header von Nutzdaten eines langen Pakets. Der Paket-Header PH schließt zum Beispiel DI, WC und ECC ein. WC ist ein Bereich zum Angeben eines Endes eines Pakets durch die Anzahl von Wörtern für die Videoempfangsvorrichtung 200. WC schließt zum Beispiel die Nutzlastlänge ein und schließt zum Beispiel die Anzahl von Pixeln jedes interessierenden Bereichs ROI ein. ECC ist ein Bereich zum Speichern eines Werts zum Korrigieren eines Bitfehlers. ECC schließt einen Fehlerkorrekturcode ein. DI ist ein Bereich zum Speichern einer Datenkennung. DI schließt eine Nummer des virtuellen Kanals (VC) und einen DataType (den Datentyp jedes interessierenden Bereichs ROI) ein. Der virtuelle Kanal (VC) ist ein Konzept, das für die Paketflusssteuerung eingeführt wurde, und ist ein Mechanismus zum Unterstützen einer Vielzahl unabhängiger Datenströme, die sich dieselbe Verbindung teilen. Die PH-Erzeugungseinheit 143 gibt den erzeugten Paket-Header PH an die Kombinationseinheit 147 aus.
  • Der EBD-Puffer 144 speichert primär die ROI-Informationen 120B und gibt die ROI-Informationen 120B als die eingebetteten Daten zu einem vorbestimmten Zeitpunkt an die Kombinationseinheit 147 aus. Die eingebetteten Daten beziehen sich auf zusätzliche Informationen, die in einem Header oder Footer eines Bilddaten-Frame eingebettet werden können (siehe 5, wie später beschrieben). Die eingebetteten Daten schließen zum Beispiel die ROI-Informationen 120B ein.
  • Der ROI-Datenpuffer 145 speichert primär die komprimierten Bilddaten 120A und gibt die komprimierten Bilddaten 120A als die Nutzdaten des langen Pakets zu einem vorbestimmten Zeitpunkt an die Kombinationseinheit 147 aus. In einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, gibt der ROI-Datenpuffer 145 die komprimierten Bilddaten 120A an die Kombinationseinheit 147 als die Nutzdaten des langen Pakets aus. Der Normalbild-Datenpuffer 146 speichert primär die komprimierten Bilddaten 130A und gibt die komprimierten Bilddaten 130A an die Kombinationseinheit 147 als die Nutzdaten des langen Pakets zu einem vorbestimmten Zeitpunkt aus. In einem Fall, in dem ein Steuersignal zum Anweisen des Ausgebens eines Normalbildes von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, gibt der Normalbild-Datenpuffer 146 die komprimierten Bilddaten 130A an die Kombinationseinheit 147 als die Nutzdaten des langen Pakets aus.
  • In einem Fall, in dem ein Steuersignal zum Anweisen des Ausgebens eines Normalbildes von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, erzeugt die Kombinationseinheit 147 die Übertragungsdaten 147A auf der Grundlage der Eingabedaten (komprimierten Bilddaten 130A). Die Kombinationseinheit 147 gibt die erzeugten Übertragungsdaten 147A über die Datenspur DL an die Videoempfangsvorrichtung 200 aus. In einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, erzeugt die Kombinationseinheit 147 währenddessen die Übertragungsdaten 147A auf der Grundlage verschiedener Eingabedatenelemente (Paket-Header PH, ROI-Informationen 120B und komprimierte Bilddaten 120A). Die Kombinationseinheit 147 gibt die erzeugten Übertragungsdaten 147A über die Datenspur DL an die Videoempfangsvorrichtung 200 aus. Das heißt, die Kombinationseinheit 147 schließt in den Paket-Header PH der Nutzdaten des langen Pakets DataType (den Datentyp jedes interessierenden Bereichs ROI) ein und sendet das Paket. Zusätzlich sendet die Kombinationseinheit 147 die Bilddaten (komprimierte Bilddaten 120A) jedes interessierenden Bereichs ROI über einen gemeinsamen virtuellen Kanal.
  • Die Übertragungsdaten 147A schließen zum Beispiel den Bilddaten-Frame, wie in 5 veranschaulicht, ein. Der Bilddaten-Frame schließt in der Regel einen Header-Bereich, einen Paket-Bereich und einen Footer-Bereich ein. Der Footer-Bereich ist in 5 der Einfachheit halber weggelassen. Ein Frame-Header-Bereich R1 der Übertragungsdaten 147A schließt die eingebetteten Daten ein. Zu diesem Zeitpunkt schließen die eingebetteten Daten die ROI-Informationen 120B ein. In 5 schließt ein Paket-Bereich R2 der Übertragungsdaten 147A die Nutzdaten des langen Pakets für jede Zeile ein und schließt ferner den Paket-Header PH und den Paket-Footer PF an Positionen ein, wobei sich die Nutzdaten des langen Pakets dazwischen befinden. Darüber hinaus sind Stromsparmodi LP an Positionen enthalten, die den Paket-Header PH und den Paket-Footer PF dazwischen aufweisen.
  • Zu diesem Zeitpunkt schließt der Paket-Header PH zum Beispiel DI, WC und ECC ein. WC schließt zum Beispiel die Nutzlastlänge ein und schließt zum Beispiel die Anzahl von Pixeln jedes interessierenden Bereichs ROI ein. ECC schließt einen Fehlerkorrekturcode ein. DI schließt eine virtuelle Kanalnummer (VC) und einen DataType (den Datentyp jedes interessierenden Bereichs ROI) ein. In der vorliegenden Ausführungsform wird dem VC jeder Zeile eine gemeinsame virtuelle Kanalnummer zugewiesen. Außerdem sind in 5 komprimierte Bilddaten 147B in dem Paket-Bereich R2 der Übertragungsdaten 147A enthalten. Die komprimierten Bilddaten 147B schließen ein Element komprimierter Bilddaten 120A oder eine Vielzahl von Elementen komprimierter Bilddaten 120A ein. Hier schließt in 5 eine Paketgruppe näher des Paket-Header PH zum Beispiel die komprimierten Bilddaten 120A (120A1) des Übertragungsbildes 116a1 von 3 ein, und eine Paketgruppe weg von dem Paket-Header PH schließt zum Beispiel die komprimierten Bilddaten 120A (120A2) des Übertragungsbildes 116a2 von 3 ein. Die zwei Elemente komprimierter Bilddaten 120A1 und 120A2 bilden die komprimierten Bilddaten 147B. Die Nutzdaten des langen Pakets jeder Zeile schließen Pixeldaten für eine Zeile in den komprimierten Bilddaten 147B ein.
  • 6 veranschaulicht ein Konfigurationsbeispiel der Übertragungsdaten 147A. Die Übertragungsdaten 147A schließen zum Beispiel den Frame-Header-Bereich R1 und den Paket-Bereich R2 ein. Es ist zu beachten, dass 6 den Inhalt des Frame-Header-Bereichs R1 im Detail darstellt. Darüber hinaus sind in 6 die Stromsparmodi LP weggelassen.
  • Der Frame-Header-Bereich R1 schließt zum Beispiel eine Frame-Nummer F1 als Kennung der Übertragungsdaten 147A ein. Der Frame-Header-Bereich R1 schließt Informationen bezüglich der komprimierten Bilddaten 147B, die in dem Paket-Bereich R2 enthalten sind, ein. Der Frame-Header-Bereich R1 schließt zum Beispiel die Anzahl von komprimierten Bilddatenelementen 120A (die Anzahl von ROIs), die in den komprimierten Bilddaten 147B enthalten sind, und Informationen bezüglich des ROI-Bildes 112 entsprechend jedem darin enthaltenen komprimierten Bilddatenelement 120A, das in den komprimierten Bilddaten 147B (die ROI-Informationen 120B) enthalten ist, ein.
  • Zum Beispiel ordnet die Kombinationseinheit 147 die komprimierten Bilddaten 147B separat für jede Pixelreihe der komprimierten Bilddaten 120A in dem Paket-Bereich R2 der Übertragungsdaten 147A an. Daher sind die komprimierten Bilddaten, die dem Bild 118 des überlappenden Bereichs ROO entsprechen, nicht redundant in dem Paket-Bereich R2 der Übertragungsdaten 147A enthalten. Ferner lässt die Kombinationseinheit 147 zum Beispiel eine Pixelreihe des erfassten Bildes 111 weg, die nicht jedem Übertragungsbild 116 in dem Paket-Bereich R2 der Übertragungsdaten 147A entspricht. Daher schließt der Paket-Bereich R2 der Übertragungsdaten 147A keine Pixelreihe des erfassten Bildes 111, das nicht jedem Übertragungsbild 116 entspricht, ein. Es ist zu beachten, dass ein von einer gestrichelten Linie umgebener Abschnitt im Paket-Bereich R2 in 6 den komprimierten Bilddaten des Bildes 118 des überlappenden Bereichs ROO entspricht.
  • Eine Grenze zwischen einer Paketgruppe (zum Beispiel 1(n) in 6) näher des Paket-Header PH und einer Paketgruppe (zum Beispiel 2(1) in 6) weg von dem Paket-Header PH wird durch eine physikalische Bereichslänge XLa1 des ROI-Bildes 112 entsprechend den komprimierten Bilddaten der Paketgruppe (zum Beispiel 1(n) in 6) näher an dem Paket-Header PH spezifiziert. In den komprimierten Bilddaten, die dem Bild 118 des überlappenden Bereichs ROO entsprechen, der in der Paketgruppe (z. B. 1(n) in 6) näher des Paket-Header PH enthalten ist, wird eine Startposition des Pakets durch eine physikalische Bereichslänge XLa2 des ROI-Bildes 112 entsprechend der Paketgruppe (zum Beispiel 2(1) in 6) weg von dem Paket-Header PH spezifiziert.
  • Zum Beispiel kann die Kombinationseinheit 147 in den Nutzdaten des langen Pakets die ROI-Informationen 120B zusätzlich zu zum Beispiel den Pixeldaten einer Zeile in den komprimierten Bilddaten 147B einschließen, wie in 7 veranschaulicht, zu einem Zeitpunkt des Erzeugens der Nutzdaten des langen Pakets für jede Zeile in dem Paket-Bereich R2 der Übertragungsdaten 147A. Das heißt, die Kombinationseinheit 147 kann die ROI-Informationen 120B in die Nutzdaten des langen Pakets einschließen und die Nutzdaten senden. Zu diesem Zeitpunkt schließen zum Beispiel, wie in 7(A) bis 7(K) veranschaulicht, die ROI-Informationen 120B ferner zum Beispiel mindestens eines von einem Datentyp von jedem interessierenden Bereich ROI (die Anzahl an ROIs), der Anzahl von interessierenden Bereichen ROI, die in dem aufgenommenen Bild 111 enthalten sind, der Bereichsnummer (oder der Priorität 115) jedes interessierenden Bereichs ROI, die Datenlänge jedes interessierenden Bereichs ROI oder das Bildformat jedes interessierenden Bereichs ROI ein. Die ROI-Informationen 120B sind vorzugsweise an einem Endabschnitt (d. h. dem Kopf der Nutzdaten des langen Pakets) auf der Seite des Paket-Header PH in den Nutzdaten des langen Pakets angeordnet.
  • (Videoempfangsvorrichtung 200)
  • Als nächstes wird die Videoempfangsvorrichtung 200 beschrieben. 8 veranschaulicht ein Beispiel einer Konfiguration der Videoempfangsvorrichtung 200. 9 veranschaulicht ein Beispiel eines Ablaufs zum Erzeugen eines ROI-Bildes 223A in der Videoempfangsvorrichtung 200. Die Videoempfangsvorrichtung 200 ist eine Vorrichtung, die ein Signal gemäß einem herkömmlichen Standard (zum Beispiel, MIPI-CSI-2-Standard, MIPI-CSI-3-Standard oder MIPI-DSI-Standard) mit der Videoübertragungsvorrichtung 100 empfängt. Die Videoempfangsvorrichtung 200 schließt zum Beispiel die Empfangseinheit 210 und eine Informationsverarbeitungseinheit 220 ein. Die Empfangseinheit 210 ist eine Schaltung, welche die von der Videoübertragungsvorrichtung 100 über die Datenspur DL ausgegebenen Übertragungsdaten 147A empfängt, verschiedene Datenelemente(214A , 215A und 215B) erzeugt, indem sie eine vorbestimmte Verarbeitung an den empfangenen Übertragungsdaten 147A durchführt und die verschiedenen Datenelemente an die Informationsverarbeitungseinheit 220 ausgibt. Die Informationsverarbeitungseinheit 220 ist eine Schaltung, die das ROI-Bild 223A auf der Grundlage der verschiedenen Datenelemente (214A und 215A) erzeugt, die von der Empfangseinheit 210 empfangen werden, und die ein Normalbild 224A auf der Grundlage der empfangenen Daten (215B), die von der Empfangseinheit 210 empfangen werden, erzeugt.
  • Die Empfangseinheit 210 schließt zum Beispiel eine Header-Trenneinheit 211, eine Header-Interpretationseinheit 212, eine Nutzlast-Trenneinheit 213, eine EBD-Interpretationseinheit 214 und eine ROI-Daten-Trenneinheit 215 ein.
  • Die Header-Trenneinheit 211 empfängt die Übertragungsdaten 147A über die Datenspur DL von der Videoübertragungsvorrichtung 100 aus. Das heißt, die Header-Trenneinheit 211 empfängt die Übertragungsdaten 147A, in denen die ROI-Informationen 120B bezüglich jedes interessierenden Bereichs ROI in dem erfassten Bild 111 eingeschlossen sind, in den eingebetteten Daten und die Bilddaten (komprimierten Bilddaten 120A) jedes interessierenden Bereichs ROI werden in die Nutzdaten des langen Pakets eingeschlossen. Die Header-Trenneinheit 211 trennt die empfangenen Übertragungsdaten 147A in den Frame-Header-Bereich R1 und den Paket-Bereich R2. Die Header-Interpretationseinheit 212 spezifiziert die Position der Nutzdaten des langen Pakets, die in dem Paket-Bereich R2 enthalten sind, auf der Grundlage der Daten (insbesondere der eingebetteten Daten), die in dem Frame-Header-Bereich R1 enthalten sind. Die Nutzlast-Trenneinheit 213 trennt die Nutzdaten des langen Pakets, die in dem Paket-Bereich R2 enthalten sind, von dem Paket-Bereich R2 auf der Grundlage der Position der Nutzdaten des langen Pakets, die durch die Header-Interpretationseinheit 212 spezifiziert sind.
  • Die EBD-Interpretationseinheit 214 gibt die eingebetteten Daten als EBD-Daten 214A an die Informationsverarbeitungseinheit 220 aus. Die EBD-Interpretationseinheit 214 bestimmt ferner, ob die Bilddaten, die in den Nutzdaten des langen Pakets enthalten sind, komprimierte Bilddaten 120A von Bilddaten 116 eines ROI oder komprimierte Bilddaten 130A von Normalbilddaten auf der Grundlage des Datentyps, der in den eingebetteten Daten enthalten ist, sind. Die EBD-Interpretationseinheit 214 gibt das Bestimmungsergebnis an die ROI-Datentrenneinheit 215 aus.
  • In einem Fall, in dem die in den Nutzdaten des langen Pakets enthaltenen Bilddaten die komprimierten Bilddaten 120A der Bilddaten 116 des ROI sind, gibt die ROI-Datentrenneinheit 215 die Nutzdaten des langen Pakets als Nutzdaten 215A an die Informationsverarbeitungseinheit 220 (insbesondere eine ROI-Decodiereinheit 222) aus. In einem Fall, in dem die in den Nutzdaten enthaltenen Bilddaten die komprimierten Bilddaten 130A der Normalbilddaten sind, gibt die ROI-Datentrenneinheit 215 die Nutzdaten des langen Pakets als Nutzdaten 215B an die Informationsverarbeitungseinheit 220 aus (insbesondere an eine Normalbild-Decodiereinheit 224). In einem Fall, in dem die ROI-Informationen 120B in den Nutzdaten des langen Pakets enthalten sind, schließen die Nutzdaten 215A die ROI-Informationen 120B und Pixeldaten einer Zeile der komprimierten Bilddaten 147B ein.
  • Die Informationsverarbeitungseinheit 220 extrahiert die ROI-Informationen 120B aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Die Informationsverarbeitungseinheit 220 extrahiert auf der Grundlage der durch die Informationsextraktionseinheit 221 extrahierten ROI-Informationen 120B ein Bild jedes interessierenden Bereichs ROI (ROI-Bild 112) in dem erfassten Bild 111 aus den Nutzdaten des langen Pakets, die in den von der Empfangseinheit 210 empfangenen Übertragungsdaten 147A enthalten sind. Die Informationsverarbeitungseinheit 220 schließt zum Beispiel eine Informationsextraktionseinheit 221, die ROI-Decodiereinheit 222, eine ROI-Bilderzeugungseinheit 223 und die Normalbild-Decodiereinheit 224 ein.
  • Die Normalbild-Decodiereinheit 224 decodiert die Nutzdaten 215B, um das Normalbild 224A zu erzeugen. Die ROI-Decodiereinheit 222 decodiert die komprimierten Bilddaten 147B, die in den Nutzdaten 215A enthalten sind, um Bilddaten 222A zu erzeugen. Die Bilddaten 222A schließen eines oder mehrere Übertragungsbilder 116 ein.
  • Die Informationsextraktionseinheit 221 extrahiert die ROI-Informationen 120B aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Zum Beispiel extrahiert die Informationsextraktionseinheit 221 die Anzahl von interessierenden Bereichen ROIs, die in dem erfassten Bild 111 enthalten sind, die Bereichsnummer (oder die Priorität 115) jedes interessierenden Bereichs ROI, die Datenlänge jedes interessierenden Bereichs ROI und das Bildformat jedes interessierenden Bereichs ROI aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Das heißt, die Übertragungsdaten 147A schließen die Bereichsnummer (oder die Priorität 115) des interessierenden Bereichs ROI entsprechend jedem Übertragungsbild 116 als Bestimmungsinformationen ein, die eine Bestimmung ermöglichen, von welchem der Vielzahl von Übertragungsbildern 116, die aus den Übertragungsdaten 147A erhalten wird, das Bild 118 des überlappenden Bereichs ROO weggelassen wurde.
  • Die ROI-Bilderzeugungseinheit 223 erkennt einen überlappenden Bereich ROO, in dem zwei oder mehr interessierende Bereiche ROI einander überlappen, auf der Grundlage der ROI-Informationen 120B, die von der Informationsextraktionseinheit 221 erhalten werden.
  • Zum Beispiel extrahiert die Informationsextraktionseinheit 221 die Koordinaten (zum Beispiel die oberen linken Endkoordinaten (Xa1, Ya1)), die Längen (zum Beispiel die physikalischen Bereichslängen XLa1 und YLa1) und die Bereichsnummer 1 (oder die Priorität 115 (= 1)) des interessierenden Bereichs ROI entsprechend einem ROI-Bild 112a1 aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Die Informationsextraktionseinheit 221 extrahiert ferner die Koordinaten (zum Beispiel die oberen linken Endkoordinaten (Xa2, Ya2)), die Längen (zum Beispiel die physikalischen Bereichslängen XLa2 und YLa2) und die Bereichsnummer 2 (oder die Priorität 115 (= 2)) des interessierenden Bereichs ROI entsprechend einem ROI-Bild 112a2 aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind.
  • Zu diesem Zeitpunkt leitet die ROI-Bilderzeugungseinheit 223 die Positionsinformationen 114 des überlappenden Bereichs ROO auf der Grundlage dieser Elemente von extrahierten Informationen (im Folgenden als „extrahierte Informationen 221A “ bezeichnet) ab. Die ROI-Bilderzeugungseinheit 223 leitet zum Beispiel die Koordinaten (zum Beispiel die oberen linken Endkoordinaten (Xb1, Yb1)) und die Längen (zum Beispiel die physikalischen Bereichslängen XLb1 und YLb1) des überlappenden Bereichs ROO als die Positionsinformationen 114 des oben beschriebenen überlappenden Bereichs ROO ab.
  • Es ist zu beachten, dass die ROI-Bilderzeugungseinheit 223 die ROI-Informationen 120B aus den Nutzdaten 215A erfassen kann, anstatt die ROI-Informationen 120B aus den in den EBD-Daten 214A enthaltenen eingebetteten Daten zu erfassen. In diesem Fall kann die ROI-Bilderzeugungseinheit 223 einen überlappenden Bereich ROO erkennen, in dem zwei oder mehr interessierende Bereiche ROI einander überlappen, auf der Grundlage der ROI-Informationen 120B, die in den Nutzdaten 215A enthalten sind. Ferner kann die ROI-Bilderzeugungseinheit 223 die extrahierten Informationen 221A aus den in den Nutzdaten 215A enthaltenen ROI-Informationen 120B extrahieren und kann die Positionsinformationen 114 des überlappenden Bereichs ROO auf der Grundlage der auf diese Weise extrahierten extrahierten Informationen 221A ableiten.
  • Die ROI-Bilderzeugungseinheit 223 erzeugt ferner Bilder (ROI-Bilder 112a1 und 112a2) jeweiliger interessierender Bereiche ROI in dem erfassten Bild 111 auf der Grundlage von Bilddaten 222A, der extrahierten Information 221A und den Positionsinformationen 114 des überlappenden Bereichs RO. Die ROI-Bilderzeugungseinheit 223 gibt das erzeugte Bild als das ROI-Bild 223A aus.
  • [Prozedur]
  • Als nächstes wird ein Beispiel einer Prozedur zur Datenübertragung in dem Videoübertragungssystem 1 unter Bezugnahme auf 3 und 9 beschrieben.
  • Zuerst gibt die Abbildungseinheit 110 das erfasste Bild 111 (digitale Bilddaten), die durch Abbilden erhalten wurden, an die Bildverarbeitungseinheit 120 aus. Die ROI-Schneideinheit 121 spezifiziert zwei interessierende Bereiche ROI1 und ROI2, die in dem erfassten Bild 111 enthalten sind, das von der Abbildungseinheit 110 eingegeben wird. Die ROI-Schneideinheit 121 schneidet Bilder (ROI-Bilder 112a1 und 112a2) der jeweiligen interessierenden Bereiche ROI1 und ROI2 aus dem erfassten Bild 111. Die ROI-Schneideinheit 121 weist die Bereichsnummer 1 als Kennung dem interessierenden Bereich ROI1 zu und weist die Bereichsnummer 2 als Kennung dem interessierenden Bereich ROI2 zu.
  • Die ROI-Analyseeinheit 122 leitet Positionsinformationen 113 eines interessierenden Bereichs ROI in dem erfassten Bild 111 für jeden interessierenden Bereich ROI ab. Die ROI-Analyseeinheit 122 leitet die oberen linken Endkoordinaten (Xa1, Ya1) des interessierenden Bereichs ROI1, die Länge (XLa1) des interessierenden Bereichs ROI1 in X-Achsenrichtung und die Länge (YLa1) des interessierenden Bereichs ROI1 in Y-Achsenrichtung auf der Grundlage des interessierenden Bereichs ROI1 zu. Die ROI-Analyseeinheit 122 leitet die oberen linken Endkoordinaten (Xa2, Ya2) des interessierenden Bereichs ROI2, die Länge (XLa2) des interessierenden Bereichs ROI2 in X-Achsenrichtung und die Länge (YLa2) des interessierenden Bereichs ROI2 in Y-Achsenrichtung auf der Grundlage des interessierenden Bereichs ROI2 zu.
  • Die Überlappungserkennungseinheit 123 erkennt einen überlappenden Bereich ROO, in dem die zwei interessierenden Bereiche ROI1 und ROI2 einander überlappen, auf der Grundlage der Positionsinformationen 113 der zwei interessierenden Bereiche ROI1 und ROI2 in dem erfassten Bild 111. Das heißt, die Überlappungserkennungseinheit 123 leitet Positionsinformationen 114 eines überlappenden Bereichs ROO in dem erfassten Bild 111 ab. Die Überlappungserkennungseinheit 123 leitet die oberen linken Endkoordinaten (Xb1, Yb1) des überlappenden Bereichs ROO, die Länge (XLb1) des überlappenden Bereichs ROO in X-Achsenrichtung und die Länge (YLb1) des überlappenden Bereichs ROO in Y-Achsenrichtung als die Positionsinformationen 114 des überlappenden Bereichs ROO in dem erfassten Bild 11 ab.
  • Für zwei interessierende Bereiche ROI weist die Prioritätseinstelleinheit 124 1 als die Priorität 115 eines interessierenden Bereichs ROI1 zu und weist 2 als die Priorität 115 des anderen interessierenden Bereichs ROI2 zu.
  • Die Codiereinheit 125 erzeugt zwei Übertragungsbilder 116a1 und 116a2, die durch Weglassen eines Bildes 118 eines überlappenden Bereichs ROO aus den zwei ROI-Bildern 112a1 und 112a2 erhalten werden, die aus dem erfassten Bild 111 erhalten wurden, derart, dass das Bild 118 nicht redundant in den zwei interessierenden Bereichen ROI1 und ROI2 enthalten ist.
  • Die Codiereinheit 125 bestimmt auf der Grundlage der Bereichsnummern (oder Prioritäten 115) der zwei interessierenden Bereiche ROI1 und ROI2, aus welchem der zwei ROI-Bilder 112a1 und 112a2 das Bild 118 wegzulassen ist. Die Codiereinheit 125 lässt das Bild 118 aus dem ROI-Bild 112a2 weg, das dem interessierenden Bereich ROI2 mit der größeren Bereichsnummer (oder höheren Priorität 115) unter den zwei interessierenden Bereichen ROI1 und ROI2 entspricht, wodurch das Übertragungsbild 116a2 erzeugt wird. In einem Fall, in dem das ROI-Bild 112a1 dem interessierenden Bereich ROI1 mit der kleineren Bereichsnummer (oder niedrigeren Priorität 115) unter den zwei interessierenden Bereichen ROI1 und ROI2 entspricht, verwendet die Codiereinheit 125 das ROI-Bild 112a1 selbst als Übertragungsbild 116a1.
  • Die Bildverarbeitungssteuereinheit 126 erzeugt ROI-Informationen 120B und Frame-Informationen 120C und überträgt die ROI-Informationen 120B und die Frame-Informationen 120C an die Übertragungseinheit 140. Die Übertragungseinheit 140 erzeugt und sende die Übertragungsdaten 147A auf der Grundlage verschiedener Datenelemente (120A, 120B, 120C und 130A), die von den Bildverarbeitungseinheiten 120 und 130 eingegeben werden. Die Übertragungseinheit 140 sendet die erzeugten Übertragungsdaten 147A über die Datenspur DL an die Videoempfangsvorrichtung 200.
  • Die Empfangseinheit 210 empfängt die Übertragungsdaten 147A über die Datenspur DL von der Videoübertragungsvorrichtung 100 aus. Die Empfangseinheit 210 führt eine vorbestimmte Verarbeitung an den empfangenen Übertragungsdaten 147A durch, um die EBD-Daten 214A und die Nutzdaten 215A zu erzeugen, und gibt die erzeugten Daten an die Informationsverarbeitungseinheit 220 aus.
  • Die Informationsextraktionseinheit 221 extrahiert die ROI-Informationen 120B aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Die Informationsextraktionseinheit 221 extrahiert die Koordinaten (zum Beispiel die oberen linken Endkoordinaten (Xa1, Ya1)), die Längen (zum Beispiel die physikalischen Bereichslängen XLa1 und YLa1) und die Bereichsnummer 1 (oder die Priorität 115 (= 1)) des interessierenden Bereichs ROI entsprechend einem ROI-Bild 112a1 aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Die Informationsextraktionseinheit 221 extrahiert ferner die Koordinaten (zum Beispiel die oberen linken Endkoordinaten (Xa2, Ya2)), die Längen (zum Beispiel die physikalischen Bereichslängen XLa2 und YLa2) und die Bereichsnummer 2 (oder die Priorität 115 (= 2)) des interessierenden Bereichs ROI, die dem ROI-Bild 112a2 entspricht. Die ROI-Decodiereinheit 222 decodiert die komprimierten Bilddaten 147B, die in den Nutzlastdaten 215A enthalten sind, um Bilddaten 222A zu erzeugen.
  • Die ROI-Bilderzeugungseinheit 223 leitet die Positionsinformationen 114 des überlappenden Bereichs ROO auf der Grundlage dieser Elemente von extrahierten Informationen (extrahierte Informationen 221A) ab. Die ROI-Bilderzeugungseinheit 223 leitet zum Beispiel die Koordinaten (zum Beispiel die oberen linken Endkoordinaten (Xb1, Yb1)) und die Längen (zum Beispiel die physikalischen Bereichslängen XLb1 und YLb1) des überlappenden Bereichs ROO als die Positionsinformationen 114 des oben beschriebenen überlappenden Bereichs ROO ab. Die ROI-Bilderzeugungseinheit 223 erzeugt ferner Bilder (ROI-Bilder 112a1 und 112a2) jeweiliger interessierender Bereiche ROI in dem erfassten Bild 111 auf der Grundlage von Bilddaten 222A, den extrahierten Information 221A und den Positionsinformation 114 des überlappenden Bereichs RO.
  • [Wirkungen]
  • Als nächstes werden Wirkungen des Videoübertragungssystems 1 gemäß der vorliegenden Ausführungsform beschrieben.
  • In den letzten Jahren nimmt die Übertragung einer großen Menge an massiven Daten zu. Auf ein Übertragungssystem wird wahrscheinlich eine große Last ausgeübt, und im schlimmsten Fall besteht die Möglichkeit, dass das Übertragungssystem ausfällt und eine Datenübertragung nicht durchgeführt werden kann.
  • Herkömmlicherweise wird ein abzubildendes Objekt spezifiziert und nur ein Bild eines ausgeschnittenen Teils des spezifizierten Objekts übertragen wird, anstatt zum Beispiel alle erfassten Bilder zu übertragen, um zu verhindern, dass das Übertragungssystem ausfällt.
  • Währenddessen kann der MIPI CSI-2 als ein Verfahren verwendet werden, das zur Übertragung von einem Bildsensor an einen Anwendungsprozessor verwendet wird. In einem Fall, in dem versucht wird, einen ROI unter Verwendung dieses Verfahrens zu übertragen, ist die Übertragung des ROI aufgrund verschiedener Beschränkungen in einigen Fällen nicht einfach.
  • Andererseits werden in der vorliegenden Ausführungsform die ROI-Informationen 120B bezüglich jedes interessierenden Bereichs ROI in dem erfassten Bild 111 als eingebettete Daten gesendet und die Bilddaten jedes interessierenden Bereichs ROI werden als die Nutzdaten des langen Pakets gesendet. Als Ergebnis kann die Vorrichtung (Videoempfangsvorrichtung 200), welche die von der Videoübertragungsvorrichtung 100 übertragenen Übertragungsdaten 147A empfangen hat, die Bilddaten (ROI-Bild 112) jedes interessierenden Bereichs ROI leicht aus den Übertragungsdaten 147A extrahieren. Dadurch kann der interessierende Bereich ROI auch unter verschiedenen Einschränkungen gesendet werden.
  • Darüber hinaus werden in der vorliegenden Ausführungsform die Bilddaten (komprimierte Bilddaten 120A) jedes interessierenden Bereichs ROI über einen gemeinsamen virtuellen Kanal gesendet. Als Ergebnis kann eine Vielzahl von ROI-Bildern 112 in demselben Paket gesendet werden, und es ist somit nicht erforderlich, während des Sendens der Vielzahl von ROI-Bildern 112 in den LP-Modus einzutreten, wodurch eine hohe Übertragungseffizienz erhalten werden kann.
  • Darüber hinaus ist in der vorliegenden Ausführungsform der Datentyp jedes interessierenden Bereichs ROI in dem Paket-Header PH der Nutzdaten des langen Pakets enthalten und wird gesendet. Als Ergebnis kann der Datentyp jedes interessierenden Bereichs ROI nur durch Zugreifen auf den Paket-Header PH der Nutzdaten des langen Pakets erhalten werden, ohne auf die eingebetteten Daten zuzugreifen. Daher kann eine Verarbeitungsgeschwindigkeit in der Videoempfangsvorrichtung 200 erhöht werden, wodurch eine hohe Übertragungseffizienz erhalten werden kann.
  • Darüber hinaus können in der vorliegenden Ausführungsform in einem Fall, in dem die ROI-Informationen 120B in den Nutzdaten des langen Pakets enthalten sind und gesendet werden, die ROI-Informationen 120B nur durch Zugreifen auf die Nutzdaten des langen Pakets ohne Zugreifen auf die eingebetteten Daten erhalten werden. Daher kann eine Verarbeitungsgeschwindigkeit in der Videoempfangsvorrichtung 200 erhöht werden, wodurch eine hohe Übertragungseffizienz erhalten werden kann.
  • Darüber hinaus werden in der vorliegenden Ausführungsform die ROI-Informationen 120B bezüglich jedes interessierenden Bereichs ROI aus den eingebetteten Daten extrahiert, die in den Übertragungsdaten 147A enthalten sind, und das Bild (ROI-Bild 112) jedes interessierenden Bereichs ROI wird aus den Nutzdaten des langen Pakets extrahiert, die in den Übertragungsdaten 147A enthalten sind, auf der Grundlage der extrahierten ROI-Informationen 120B. Als Ergebnis kann das Bild (ROI-Bild 112) jedes interessierenden Bereichs ROI leicht aus den Übertragungsdaten 147A extrahiert werden. Dadurch kann der interessierende Bereich ROI auch unter verschiedenen Einschränkungen gesendet werden.
  • 2. Zugrunde liegende Technologie 2 der vorliegenden Offenbarung:
  • Eine Technologie zum Übertragen einiger (nicht rechteckiger) interessierender Bereiche (ROIs), die aus einem erfassten Bild ausgeschnitten sind, wird unter Bezugnahme auf 1 bis 9 und 10 bis 12 beschrieben. Das heißt, eine Technologie zum Übertragen und Empfangen eines Bildes eines zu erfassenden Objekts mit einer anderen Form als einer quadratischen Form (rechteckige Form) wird beschrieben. 10 ist ein Diagramm, das schematisch einen Bereich veranschaulicht, in dem ein spezifisches Objekt in dem erfassten Bild 111 angeordnet ist. Es ist zu beachten, dass 10 schematisch das erfasste Bild 111 veranschaulicht, das in einem Abbildungsbereich erfasst wurde, der 15 Zeilen × 23 Spalten von Abbildungselementen einschließt, um das Verständnis zu erleichtern. 11 ist ein Diagramm, das ein Beispiel eines ROI-Satzes für ein spezifisches Objekt veranschaulicht.
  • In der zugrundeliegenden Technologie 2 wird ähnlich wie in der zugrundeliegenden Technologie 1 ein Fall, in dem die vorbestimmte Verarbeitung an dem erfassten Bild 111 durchgeführt wird, in einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI an die Videoübertragungsvorrichtung 100 eingegeben wird, beschrieben. Die zugrundeliegende Technologie 2 kann jedoch auch auf einen Fall angewendet werden, in dem die Videoübertragungsvorrichtung 100, d. h., eine Übertragungsseite, die Koordinaten eines auszuschneidenden ROI spezifiziert. In diesem Fall ist die Übertragungsseite zum Beispiel konfiguriert, um Informationen wie eine „Person“ oder ein „Objekt“, die in dem von einer Empfangsseite gesendeten ROI erhalten werden sollen, zu empfangen und die Koordinaten des Schneidens zu bestimmen und zu spezifizieren.
  • Das Steuersignal zum Anweisen des Schneidens eines ROI wird von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben. Als Ergebnis spezifiziert die ROI-Schneideinheit 121, wie in 10 veranschaulicht, vier zu erfassende Objekte 1 bis 4, die in dem erfassten Bild 111 enthalten sind. Das Objekt 1 hat zum Beispiel eine rechteckige Form, die einen Teil des oberen linken Bereichs in dem erfassten Bild 111 einnimmt. Das Objekt 2 belegt zum Beispiel einen Teilbereich auf der rechten Seite des Objekts 1 in dem erfassten Bild 111 und hat eine Form, in der gegenüberliegende obere Seitenecken eines Rechtecks und ein Teil des unteren Randes des Rechtecks fehlen. Das Objekt 3 belegt zum Beispiel einen Teilbereich unterhalb des Objekts 2 in dem erfassten Bild 111 und hat eine Form, in der vier Ecken eines Rechtecks fehlen. Das Objekt 4 belegt zum Beispiel einen Teilbereich unter dem Objekt 3 in dem erfassten Bild 111 und hat eine Form, in der gegenüberliegende obere Seitenecken eines Rechtecks fehlen. Objekt 3 und Objekt 4 überlappen sich teilweise.
  • Wie in 11 veranschaulicht, stellt die ROI-Schneideeinheit 121 (siehe 2) die kleinsten Rechtecke, welche die spezifizierten Objekte 1 bis 4 einschließen, jeweils als interessierende Bereiche ROI1 bis ROI4 ein. Die ROI-Schneideinheit 121 stellt den interessierenden Bereich ROI1 für das Objekt 1 ein und schneidet ein ROI-Bild 112a1. Zusätzlich stellt die ROI-Schneideinheit 121 den interessierenden Bereich ROI2 für das Objekt 2 ein und schneidet ein ROI-Bild 112a2. Zusätzlich stellt die ROI-Schneideinheit 121 den interessierenden Bereich ROI3 für das Objekt 3 ein und schneidet ein ROI-Bild 112a3. Außerdem stellt die ROI-Schneideinheit 121 den interessierenden Bereich ROI4 für das Objekt 4 ein und schneidet ein ROI-Bild 112a4.
  • Die ROI-Schneideinheit 121 speichert den interessierenden Bereich ROI1 und die dem interessierenden Bereich ROI1 zugewiesene Bereichsnummer „1“ in der Speicherungseinheit in Zuordnung miteinander. Die ROI-Schneideinheit 121 speichert den interessierenden Bereich ROI2 und die dem interessierenden Bereich ROI2 zugewiesene Bereichsnummer „2“ in der Speicherungseinheit in Zuordnung zueinander. Die ROI-Schneideinheit 121 speichert den interessierenden Bereich ROI3 und die dem interessierenden Bereich ROI3 zugewiesene Bereichsnummer „3“ in der Speicherungseinheit in Zuordnung zueinander. Die ROI-Schneideinheit 121 speichert den interessierenden Bereich ROI4 und die dem interessierenden Bereich ROI4 zugewiesene Bereichsnummer „4“ in der Speicherungseinheit in Zuordnung zueinander.
  • Die ROI-Analyseeinheit 122 (siehe 2) leitet die Positionsinformationen jedes der interessierenden Bereiche ROI1 bis ROI4 ab. Die ROI-Analyseeinheit 122 leitet zum Beispiel eine physikalische Bereichslänge XLa1 in X-Achsenrichtung und eine physikalische Bereichslänge YLa1 in Y-Achsenrichtung als die Positionsinformationen des interessierenden Bereichs ROI1 ab. Die ROI-Analyseeinheit 122 leitet zum Beispiel eine physikalische Bereichslänge XLa2 in X-Achsenrichtung und eine physikalische Bereichslänge YLa2 in Y-Achsenrichtung als die Positionsinformationen des interessierenden Bereichs ROI2 ab. Die ROI-Analyseeinheit 122 leitet zum Beispiel eine physikalische Bereichslänge XLa3 in X-Achsenrichtung und eine physikalische Bereichslänge YLa3 in Y-Achsenrichtung als die Positionsinformationen des interessierenden Bereichs ROI3 ab. Die ROI-Analyseeinheit 122 leitet zum Beispiel eine physikalische Bereichslänge XLa4 in X-Achsenrichtung und eine physikalische Bereichslänge YLa4 in Y-Achsenrichtung als die Positionsinformationen des interessierenden Bereichs ROI4 ab. Die ROI-Analyseeinheit 122 kann ferner zum Beispiel eine Ausgabebereichslänge XLc eines interessierenden Bereichs ROI in X-Achsenrichtung und eine Ausgabebereichslänge YLc eines interessierenden Bereichs ROI in Y-Achsenrichtung als die Positionsinformationen 113 für jeden interessierenden Bereich ROI ableiten.
  • Die ROI-Analyseeinheit 122 leitet die Längen jedes interessierenden Bereichs ROI in X-Achsenrichtung und Y-Achsen-Richtung ab, wodurch die Größe und die Gesamtdatenmenge jedes der interessierenden Bereiche ROI1 bis ROI4 als Information für die nachfolgende Stufe abgeleitet werden. Als Ergebnis kann die der nachfolgenden Stufe entsprechende Videoempfangsvorrichtung 200 einen Speicherbereich sichern.
  • Die ROI-Analyseeinheit 122 ist konfiguriert, um die Positionsinformationen der ROI-Bilder 112a1 bis 112a4 anstelle der Positionsinformationen der interessierenden Bereiche ROI in einem Fall abzuleiten, in dem die Formen des zu erfassenden Objekts und des interessierenden Bereichs nicht übereinstimmen. Die ROI-Analyseeinheit 122 leitet die linken Endkoordinaten (xn, yn) jeder Zeile und eine physikalische Bereichslänge XLn in X-Achsenrichtung als die Positionsinformationen der ROI-Bilder 112a1 bis 112a4 ab. Zusätzlich leitet in einem Fall, in dem die ROI-Bilder wie in der zweiten Zeile des ROI-Bildes 112a2 getrennt sind, die ROI-Analyseeinheit 122 die Positionsinformationen von jedem der getrennten Abschnitte ab. Die ROI-Analyseeinheit 122 speichert die Bereichsnummern der interessierenden Bereiche ROI1 bis ROI4 und die Positionsinformationen der ROI-Bilder 112a1 bis 112a4 in der Speicherungseinheit in Zuordnung zueinander.
  • Darüber hinaus kann die ROI-Analyseeinheit 122 zusätzlich zu den Positionsinformationen zum Beispiel Abtastinformationen, Belichtungsinformationen, Verstärkungsinformationen, eine AD-Wortlänge, ein Bildformat und dergleichen für jeden der interessierenden Bereiche ROI1 zu ROI4 ableiten und die abgeleiteten Informationen in der Speicherungseinheit in Zuordnung mit der Bereichsnummer speichern.
  • In einem Fall, in dem das zu erfassende Objekt eine rechteckige Form hat, leitet die Überlappungserkennungseinheit 123 (siehe 2) einen Bereich, in dem die ROI-Bilder einander überlappen, als einen überlappenden Bereich anstelle eines Bereichs, in dem die interessierenden Bereiche einander überlappen, ab. Wie in 11 veranschaulicht, leitet die Überlappungserkennungseinheit 123 einen überlappenden Bereich ROO als einen Bereich ab, in dem das ROI-Bild 112a3 und das ROI-Bild 123a4 einander überlappen. Die Überlappungserkennungseinheit 123 speichert den abgeleiteten überlappenden Bereich ROO in der Speicherungseinheit in Zuordnung mit den Positionsinformationen von jedem der interessierenden Bereiche ROI3 und ROI4.
  • Die Prioritätseinstelleinheit 124 (siehe 2) weist dem interessierenden Bereich ROI1 die Priorität „1“ zu und speichert die Priorität (1) in der Speicherungseinheit in Zuordnung mit dem interessierenden Bereich ROI1. Die Prioritätseinstelleinheit 124 weist dem interessierenden Bereich ROI2 die Priorität „2“, die niedriger als die Priorität „1“ ist, zu und speichert die Priorität (2) in der Speicherungseinheit in Zuordnung mit dem interessierenden Bereich ROI2. Die Prioritätseinstelleinheit 124 weist dem interessierenden Bereich ROI3 die Priorität „3“, die niedriger als die Priorität „2“ ist, zu und speichert die Priorität (3) in der Speicherungseinheit in Zuordnung mit dem interessierenden Bereich ROI3. Die Prioritätseinstelleinheit 124 weist dem interessierenden Bereich ROI4 die Priorität „4“, die niedriger als die Priorität „3“ ist, zu und speichert die Priorität (4) in der Speicherungseinheit in Zuordnung mit dem interessierenden Bereich ROI4.
  • Die Codiereinheit 125 (siehe 2) erzeugt ein Übertragungsbild für jedes der ROI-Bilder 112a1 bis 112a4. Da der interessierende Bereich ROI4 eine niedrigere Priorität hat als der interessierende Bereich ROI3, erzeugt die Codiereinheit 125 das Übertragungsbild durch Weglassen des überlappenden Bereichs ROO aus dem ROI-Bild 112a4.
  • Die Bildverarbeitungssteuereinheit 126 (siehe 2) erzeugt ROI-Informationen und Frame-Informationen und überträgt die ROI-Informationen und die Frame-Informationen an die Übertragungseinheit 140 (siehe 2). Die ROI-Informationen schließen zum Beispiel die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 ein. Die ROI-Informationen schließen ferner Informationen ähnlich denen in dem Fall, in dem das zu erfassende Objekt eine rechteckige Form hat (zum Beispiel den Datentyp jedes der interessierenden Bereiche ROI1 bis ROI4, die Anzahl der interessierenden Bereiche ROI1 bis ROI4, die in dem erfassten Bild 111 enthalten ist, die Bereichsnummern und Prioritäten der interessierenden Bereiche ROI1 bis ROI4 und dergleichen), ein. Die Frame-Informationen schließen zum Beispiel Informationen ähnlich denen in dem Fall, in dem das abzubildende Objekt eine rechteckige Form hat, ein, wie die Datentypen der interessierenden Bereiche ROI1 bis ROI4.
  • Die in der Übertragungseinheit 140 (siehe 2) bereitgestellte LINK-Steuereinheit 141 gibt die Frame-Informationen und die ROI-Informationen, die von der Bildverarbeitungssteuereinheit 126 eingegeben wurden, an die ECC-Erzeugungseinheit 142 und die PH-Erzeugungseinheit 143 (siehe 2) für jede Zeile aus. Die ECC-Erzeugungseinheit 142 erzeugt einen Fehlerkorrekturcode einer Zeile auf der Grundlage von Daten (zum Beispiel einer virtuellen Kanalnummer, dem Datentyp jedes der interessierenden Bereiche ROI1 bis ROI4, der Nutzlastlänge jeder Zeile und dergleichen) der Zeile in den Frame-Informationen, zum Beispiel. Die ECC-Erzeugungseinheit 142 gibt den erzeugten Fehlerkorrekturcode an die PH-Erzeugungseinheit 143 aus, zum Beispiel. Die PH-Erzeugungseinheit 143 erzeugt den Paket-Header PH (siehe 4) für jede Zeile zum Beispiel unter Verwendung der Frame-Informationen und des von der ECC-Erzeugungseinheit 142 erzeugten Fehlerkorrekturcodes.
  • Der EBD-Puffer 144 (siehe 2) speichert primär die ROI-Informationen und gibt die ROI-Informationen als eingebettete Daten zu einem vorbestimmten Zeitpunkt an die Kombinationseinheit 147 (siehe 2) aus.
  • Der ROI-Datenpuffer 145 (siehe 2) speichert primär die komprimierte Bilddateneingabe von der Codiereinheit 125 und gibt, in einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, die komprimierten Bilddaten 120A an die Kombinationseinheit 147 als Nutzdaten eines langen Pakets aus, zum Beispiel.
  • In einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, erzeugt die Kombinationseinheit 147 die Übertragungsdaten 147A auf der Grundlage verschiedener Eingabedatenelemente (dem Paket-Header PH, den ROI-Informationen und den komprimierten Bilddaten, die von der Codiereinheit 125 über den ROI-Datenpuffer 145 eingegeben werden) aus. Die Kombinationseinheit 147 gibt die erzeugten Übertragungsdaten 147A über die Datenspur DL an die Videoempfangsvorrichtung 200 aus. Das heißt, die Kombinationseinheit 147 schließt in den Paket-Header PH der Nutzdaten des langen Pakets den Datentyp jedes der interessierenden Bereiche ROI1 bis ROI4 ein und sendet das Paket. Zusätzlich sendet die Kombinationseinheit 147 die Bilddaten (komprimierte Bilddaten) jedes der interessierenden Bereichs ROI1 zu ROI4 durch einen gemeinsamen virtuellen Kanal.
  • In einem Fall, in dem das zu erfassende Objekt keine rechteckige Form hat, sind die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 in dem Paket-Header PH oder den Nutzdaten des langen Pakets enthalten. Die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 werden in den Paket-Header PH durch die PH-Erzeugungseinheit 143 eingeschlossen. Währenddessen werden die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 durch die Kombinationseinheit 147 in die Nutzdaten des langen Pakets eingeschlossen.
  • 12 ist ein Diagramm, das ein Konfigurationsbeispiel von Übertragungsdaten 147A veranschaulicht, in denen die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 in die Nutzdaten des langen Pakets eingeschlossen werden. Wie in 12 veranschaulicht, schließen die Übertragungsdaten 147A zum Beispiel einen Frame-Header-Bereich R1 und einen Paket-Bereich R2 ein. Es ist zu beachten, dass 12 den Inhalt des Frame-Header-Bereichs R1 im Detail darstellt. Darüber hinaus sind in 12 die Stromsparmodi LP weggelassen.
  • Der Frame-Header-Bereich R1 schließt zum Beispiel eine Frame-Nummer F1 als Kennung der Übertragungsdaten 147A ein. Der Frame-Header-Bereich R1 schließt Informationen bezüglich der komprimierten Bilddaten, die in dem Paket-Bereich R2 enthalten sind, ein. Der Frame-Header-Bereich R1 schließt zum Beispiel die Anzahl komprimierter Bilddatenelemente (die Anzahl an ROIs) und Informationen bezüglich jedes der ROI-Bilder 112a1 bis 112a4 entsprechend den jeweiligen komprimierten Bilddaten (ROI-Informationen) ein. Die ROI-Informationen schließen eine Bereichsnummer, eine physikalische Bereichslänge, eine rechteckige Ausgabebereichsgröße, eine Priorität, Belichtungsinformationen, Verstärkungsinformationen, eine AD-Wortlänge und ein Bildformat ein. Die physikalische Bereichslänge ist die maximale Länge eines ROI-Bildes, und die Größe des rechteckigen Ausgabebereichs ist die Größe eines interessierenden Bereichs ROI.
  • „Info“, wie in 12 veranschaulicht, gibt Bereichsinformationen an, die in der Nutzlast des langen Pakets gespeichert sind. Die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 werden zum Beispiel in „Info“ gespeichert. Die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 sind in dem Kopfabschnitt der Nutzlast des langen Pakets gespeichert. In einem Fall, in dem die physikalischen Bereichslängen der jeweiligen aufeinanderfolgenden Pixelreihen, die in dem ROI-Bild in X-Achsenrichtung enthalten sind, gleich sind und die ROI-Bilder mit unterschiedlichen Bereichsnummern nicht in den jeweiligen Pixelreihen enthalten sind, brauchen die Bereichsinformationen „Info “ nicht in der Nutzlast des langen Pakets gespeichert werden, das die Bilddaten der zweiten und nachfolgenden Pixelreihen unter den jeweiligen Pixelreihen einschließt. In diesem Beispiel sind in dem ROI-Bild 112a1 die physikalischen Bereichslängen der ersten bis vierten aufeinanderfolgenden Pixelreihen von allen Pixelreihen in X-Achsenrichtung gleich, und die ROI-Bilder mit unterschiedlichen Bereichsnummern sind nicht in der ersten bis vierten Pixelreihe eingeschlossen. Daher werden die Bereichsinformationen „Info“ nicht in der Nutzlast jedes langen Pakets gespeichert, das die Bilddaten der zweiten bis vierten Pixelreihe einschließt, die der zweiten und nachfolgenden Pixelreihe unter den ersten bis vierten aufeinanderfolgenden Pixelreihen entspricht, die in dem ROI-Bild 112a1 enthalten sind. Darüber hinaus sind in diesem Beispiel in dem ROI-Bild 112a4 die physikalischen Bereichslängen der zweiten und dritten aufeinanderfolgenden Pixelreihen von allen Pixelreihen in X-Achsenrichtung gleich, und die ROI-Bilder mit unterschiedlichen Bereichsnummern werden nicht in die zweite und dritte Pixelreihe eingeschlossen. Daher werden die Bereichsinformationen „Info“ nicht in der Nutzlast des langen Pakets gespeichert, das die Bilddaten der dritten Pixelreihe einschließt, die der zweiten und nachfolgenden Pixelreihen unter der zweiten und dritten aufeinanderfolgenden Pixelreihen entsprechen, die in dem ROI-Bild 112a4 enthalten sind. Es ist zu beachten, dass selbst in einem Fall, in dem die physikalischen Bereichslängen in X-Achsenrichtung gleich sind und die ROI-Bilder mit unterschiedlichen Bereichsnummern nicht in jeder Pixelreihe eingeschlossen sind, die Bereichsinformationen „Info“ in der Nutzlast jeder Zeile gespeichert werden können.
  • Zum Beispiel unterteilt die Kombinationseinheit 147 komprimierte Bilddaten, die durch Komprimieren jedes der ROI-Bilder 112a1 bis 112a4 erzeugt werden, für jede Pixelreihe in dem Paket-Bereich R2 der Übertragungsdaten 147A und ordnet diese an. „1“, veranschaulicht in 12, gibt die komprimierten Bilddaten des ROI-Bildes 112a1 an, die in der Nutzlast des langen Pakets gespeichert sind. „2“, veranschaulicht in 12, gibt die komprimierten Bilddaten des ROI-Bildes 112a2 an, die in der Nutzlast des langen Pakets gespeichert sind. „3“, veranschaulicht in 12, gibt die komprimierten Bilddaten des ROI-Bildes 112a3 an. „4“, veranschaulicht in 12, gibt die komprimierten Bilddaten des ROI-Bildes 112a4 an, die in der Nutzlast des langen Pakets gespeichert sind. Es ist zu beachten, dass in 12 jedes Element komprimierter Bilddaten zum leichteren Verständnis unterteilt veranschaulicht ist, aber es gibt keine Unterteilung in den Daten, die in einer Nutzlast eines langen Pakets gespeichert sind. Komprimierte Bilddaten 112b, die dem Bild des überlappenden Bereichs ROO entsprechen, sind nicht redundant in dem Paket-Bereich R2 der Übertragungsdaten 147A eingeschlossen. Ferner lässt die Kombinationseinheit 147 zum Beispiel eine Pixelreihe des erfassten Bildes 111 weg, die nicht jedem Übertragungsbild in dem Paket-Bereich R2 der Übertragungsdaten 147A entspricht. Daher schließt der Paket-Bereich R2 der Übertragungsdaten 147A keine Pixelreihe des erfassten Bildes 111, das nicht jedem Übertragungsbild entspricht, ein.
  • Als nächstes wird ein Betrieb der Videoempfangsvorrichtung 200 in einem Fall beschrieben, in dem die Übertragungsdaten 147A empfangen werden.
  • Die Header-Trenneinheit 211 (siehe 8), die in der Empfangseinheit 210 bereitgestellt ist, empfängt die Übertragungsdaten 147A über die Datenspur DL von der Videoübertragungsvorrichtung 100 aus. Das heißt, die Header-Trenneinheit 211 empfängt die Übertragungsdaten 147A, in denen die ROI-Informationen bezüglich jedes der interessierenden Bereiche ROI1 bis ROI4 in dem erfassten Bild 111 eingeschlossen sind, in den eingebetteten Daten und die Bilddaten (komprimierten Bilddaten) jedes der interessierenden Bereiche ROI1 bis ROI4 sind in den Nutzdaten des langen Pakets eingeschlossen. Die Header-Trenneinheit 211 trennt die empfangenen Übertragungsdaten 147A in den Frame-Header-Bereich R1 und den Paket-Bereich R2.
  • Die Header-Interpretationseinheit 212 (siehe 8) spezifiziert die Position der Nutzdaten des langen Pakets, die in dem Paket-Bereich R2 enthalten sind, auf der Grundlage der Daten (insbesondere der eingebetteten Daten), die in dem Frame-Header-Bereich R1 enthalten sind.
  • Die Nutzlast-Trenneinheit 213 (siehe 8) trennt die Nutzdaten des langen Pakets, die in dem Paket-Bereich R2 enthalten sind, von dem Paket-Bereich R2 auf der Grundlage der Position der Nutzdaten des langen Pakets, die durch die Header-Interpretationseinheit 212 spezifiziert sind.
  • Die EBD-Interpretationseinheit 214 gibt die eingebetteten Daten als EBD-Daten an die Informationsverarbeitungseinheit 220 (siehe 8) aus. Die EBD-Interpretationseinheit 214 bestimmt ferner, ob die Bilddaten, die in den Nutzdaten des langen Pakets enthalten sind, komprimierte Bilddaten von Bilddaten 116 eines ROI oder komprimierte Bilddaten von Normalbilddaten auf der Grundlage des Datentyps, der in den eingebetteten Daten enthalten ist, sind. Die EBD-Interpretationseinheit 214 gibt das Bestimmungsergebnis an die ROI-Datentrenneinheit 215 (siehe 8) aus.
  • In einem Fall, in dem Bilddaten eines ROI als die in den Nutzdaten des langen Pakets eingeschlossenen Bilddaten eingegeben werden, gibt die ROI-Datentrenneinheit 215 die Nutzdaten des langen Pakets als die Nutzdaten an die Informationsverarbeitungseinheit 220 aus (insbesondere die ROI-Decodiereinheit 222 (siehe 8)). Die Nutzdaten des langen Pakets mit den ROI-Informationen schließen Pixeldaten einer Zeile der ROI-Informationen und der komprimierten Bilddaten ein.
  • Die Informationsextraktionseinheit 221 (siehe 8), die in der Informationsverarbeitungseinheit 220 bereitgestellt ist, extrahiert die Anzahl der interessierenden Bereiche ROI1 bis ROI4, die in dem erfassten Bild 111 enthalten sind (in diesem Beispiel vier), die Bereichsnummern 1 bis 4 und die Prioritäten 1 bis 4 der interessierenden Bereiche ROI1 bis ROI4, die Datenlänge jedes der interessierenden Bereiche ROI1 bis ROI4 und das Bildformat jedes der interessierenden Bereiche ROI1 bis ROI4 aus den in der EBD-Dateneingabe eingeschlossenen eingebetteten Daten von der EBD-Interpretationseinheit 214. Darüber hinaus extrahiert die Informationsextraktionseinheit 221 die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 aus den eingebetteten Daten.
  • Die ROI-Decodiereinheit 222 decodiert die komprimierten Bilddaten 147B, die in den Nutzdaten enthalten sind, extrahiert die Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4 und erzeugt die Bilddaten (erzeugt aus dem Übertragungsbild). Zum Beispiel extrahiert in einem Fall, in dem die Nutzdaten entsprechend der sechsten Pixelreihe eingegeben werden, die ROI-Decodiereinheit 222 ein Element von Positionsinformationen des ROI-Bildes 112a1 und zwei Elemente von Positionsinformationen des ROI-Bildes 112a2 aus den Nutzdaten und erzeugt die Bilddaten (Übertragungsbild) von jedem der ROI-Bilder 112a1 und 112b1 entsprechend der sechsten Pixelreihe.
  • Zum Beispiel extrahiert in einem Fall, in dem die Nutzdaten entsprechend der zehnten Pixelreihe eingegeben werden, die ROI-Decodiereinheit 222 ein Element der Positionsinformationen des ROI-Bildes 112a3 und ein Element der Positionsinformationen des ROI-Bildes 112a4 aus den Nutzdaten und erzeugt die Bilddaten (Übertragungsbild) von jedem der ROI-Bilder 112a3 und 112b4.
  • Die ROI-Bilderzeugungseinheit 223 (siehe 8) erzeugt die ROI-Bilder 112a1 bis 112a4 der interessierenden Bereiche ROI1 bis ROI4 in dem erfassten Bild 111 auf der Grundlage der durch die Informationsextraktionseinheit 221 erhaltenen ROI-Informationen, der Positionsinformationen von jedem der ROI-Bilder 112a1 bis 112a4, die von der ROI-Decodiereinheit 222 extrahiert wurden, und dem von der ROI-Decodiereinheit 222 erzeugten Übertragungsbild. Zum Beispiel erzeugt in einem Fall, in dem ein Element von Positionsinformationen des ROI-Bildes 112a1 und zwei Elemente von Positionsinformationen des ROI-Bildes 112a2, die aus den Nutzdaten entsprechend der sechsten Pixelreihe extrahiert wurden und deren Übertragungsbilder eingegeben werden, die ROI Bilderzeugungseinheit 223 das ROI-Bild 112a1, das fünf Pixeln entspricht und sich in X-Achsenrichtung erstreckt, das ROI-Bild 112a2, das vier Pixeln entspricht und sich in X-Achsenrichtung an einer Position erstreckt, die von dem ROI-Bild 112a1 um fünf Pixel getrennt ist, und das ROI-Bild 112a2, das zwei Pixeln entspricht und sich in X-Achsenrichtung an einer Position erstreckt, die von dem ROI-Bild 112a2 um zwei Pixel getrennt ist (siehe 10).
  • Zusätzlich erkennt die ROI-Bilderzeugungseinheit 223 den überlappenden Bereich ROO, in dem sich der interessierende Bereich ROI3 und der interessierende Bereich ROI4 einander überlappen, auf der Grundlage der ROI-Informationen, die von der Informationsextraktionseinheit 221 erhalten werden. Die ROI-Bilderzeugungseinheit 223 erzeugt auf der Grundlage des erfassten überlappenden Bereichs ROO die Positionsinformationen von jedem der ROI-Bilder 112a3 und 112a4, die aus den Nutzdaten entsprechend der zehnten Pixelreihe extrahiert wurden, und das Übertragungsbild, das ROI Bild 112a3, das vier Pixeln entspricht und sich in X-Achsenrichtung erstreckt, und das ROI-Bild 112a4, das drei Pixeln entspricht und sich in X-Achsenrichtung erstreckt, in einem Zustand, in dem ein Pixel das ROI-Bild 112a3 überlappt (siehe 10).
  • Die ROI-Bilderzeugungseinheit 223 gibt das erzeugte Bild als ein ROI-Bild an eine Vorrichtung in der nachfolgenden Stufe (nicht veranschaulicht) aus.
  • Auf diese Weise können die Videoübertragungsvorrichtung 100 und die Videoempfangsvorrichtung 200 ein ROI-Bild selbst in einem Fall übertragen und empfangen, in dem ein zu erfassendes Objekt eine andere Form als eine rechteckige Form hat.
  • 3. Prinzip der Schattierungskorrekturverarbeitung in der Ausführungsform der vorliegenden Offenbarung:
  • Als nächstes wird ein Prinzip der Schattierungskorrekturverarbeitung gemäß einer Ausführungsform der vorliegenden Offenbarung unter Bezugnahme auf 13 bis 15 beschrieben. 13 ist ein Diagramm, das ein Beispiel eines ROI veranschaulicht, der in einem erfassten Bild enthalten ist, das einer Schattierungskorrekturverarbeitung unterzogen wird. 14 ist ein Diagramm, das ein Beispiel einer Korrekturwerttabelle veranschaulicht, die zur Schattierungskorrekturverarbeitung verwendet wird. Darüber hinaus ist 15 ein Diagramm, das die Schattierungskorrekturverarbeitung in der vorliegenden Offenbarung schematisch veranschaulicht.
  • Wie in 13 veranschaulicht, schließt ein erfasstes Bild α drei interessierende Bereiche (interessierende Bereiche ROIO bis ROI2) ein. Zum Beispiel kann in einem Bild (in diesem Beispiel das erfasste Bild α), das unter Verwendung einer Linse erfasst wurde, ein Phänomen (Luminanzungleichmäßigkeit oder Dichteungleichmäßigkeit), bei dem der periphere Abschnitt des Bildes dunkler als der zentrale Abschnitt des Bildes ist, aufgrund einer Richtung einer Lichtquelle, einer Linsenaberration und dergleichen auftreten. Die Schattierungskorrektur ist ein Verfahren zur Lösung dieses Phänomens.
  • Bei der Schattierungskorrekturverarbeitung ist es zum Beispiel möglich, die Luminanzungleichmäßigkeit, die Dichteungleichmäßigkeit und dergleichen zu korrigieren, um die Luminanz des erfassten Bildes gleichmäßig zu machen, indem die Luminanz des Bildes in Abhängigkeit von einem Bereich in dem erfassten Bild angepasst (verstärkt) wird. Daher wird bei der Schattierungskorrekturverarbeitung der Verstärkungsgrad der Luminanz in Abhängigkeit von einem Bereich in dem erfassten Bild angepasst. Zum Beispiel wird der Verstärkungsgrad der Luminanz im peripheren Abschnitt des erfassten Bildes erhöht, da der periphere Abschnitt des erfassten Bildes eine relativ geringe Luminanz aufweist. Darüber hinaus wird der Verstärkungsgrad der Luminanz verringert oder die Luminanz zum Zeitpunkt der Abbildung wird beibehalten, ohne im zentralen Abschnitt des erfassten Bildes verstärkt zu werden, wenn der zentrale Abschnitt des erfassten Bildes eine relativ hohe Luminanz aufweist. Daher wird bei der Schattierungskorrekturverarbeitung für das gesamte erfasste Bild die Luminanz jedes Bereichs in dem erfassten Bild auf der Grundlage eines Schattierungskorrekturwerts (ein Korrekturwert, der zur Luminanzverstärkung verwendet wird) verstärkt, der einem Bereich in dem erfassten Bild entspricht. Als Ergebnis wird die Luminanz des gesamten erfassten Bildes gleichmäßig gemacht.
  • Der Bereich und die Größe des interessierenden Bereichs (ROI), der jedes Mal aus dem erfassten Bild ausgeschnitten wird, sind jedoch unbekannt. Daher ist es in einem Fall, in dem die Schattierungskorrektur an dem interessierenden Bereich durchgeführt wird, erforderlich, den Verstärkungsgrad der Luminanz, das heißt den Schattierungskorrekturwert, abhängig davon zu bestimmen, in welchem Bereich in dem erfassten Bild sich der interessierende Bereich befindet.
  • Zum Beispiel variiert ein entsprechender Schattierungskorrekturwert in Abhängigkeit davon, ob der interessierende Bereich dem peripheren Abschnitt in dem erfassten Bild entspricht oder dem zentralen Abschnitt in dem erfassten Bild entspricht. Daher kann eine Schattierungskorrekturverarbeitung ähnlich derjenigen für das gesamte erfasste Bild (das erfasste Bild α in diesem Beispiel) nicht für einen interessierenden Bereich durchgeführt werden, dessen Position und Größe willkürlich in dem erfassten Bild ausgewählt wurden. Zum Beispiel ist, wie in 13 veranschaulicht, in einem Fall, in dem drei interessierende Bereiche (die interessierenden Bereiche ROIO bis ROI2) in dem erfassten Bild α enthalten sind, der Grad der Anpassung der Empfindlichkeit für jeden interessierenden Bereich unterschiedlich. Darüber hinaus wird in einem Fall, in dem eine Vielzahl von interessierenden Bereichen mit Zwischenräumen dazwischen vorhanden ist, wie die interessierenden Bereiche ROIO bis ROI2, die Schattierungskorrektur an einem diskontinuierlichen Bereich beim Abbilden durchgeführt. Des Weiteren ist auch in jedem interessierenden Bereich der Verstärkungsgrad der Luminanz für jedes Pixel, d. h. der entsprechende Schattierungskorrekturwert, in Abhängigkeit von einem Abstand zu dem peripheren Abschnitt des erfassten Bildes α und einem Abstand zum zentralen Abschnitt des erfassten Bildes α kürzer.
  • Daher ist das Übertragungssystem gemäß der vorliegenden Ausführungsform konfiguriert, um die Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs auf der Grundlage von Koordinateninformationen des interessierenden Bereichs in einem erfassten Bild entweder in der Videovorrichtung oder der Videoempfangsvorrichtung durchzuführen. Als Ergebnis kann die Luminanz der Bilddaten des interessierenden Bereichs um einen Grad verstärkt werden, der dem Bereich in dem erfassten Bild entspricht, und die Luminanz kann gleichmäßig gemacht werden. Hier sind die Koordinateninformationen Informationen (Positionsinformationen), welche die Position des interessierenden Bereichs in dem erfassten Bild α angeben. In der vorliegenden Ausführungsform werden mindestens die Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs als die Koordinateninformationen des interessierenden Bereichs verwendet. Die Koordinateninformationen des interessierenden Bereichs, die bei der Schattierungskorrekturverarbeitung verwendet werden, werden nachstehend beschrieben.
  • (Koordinateninformationen des interessierenden Bereichs)
  • Hier werden die Koordinateninformationen des interessierenden Bereichs, die bei der Schattierungskorrekturverarbeitung verwendet werden, beschrieben.
  • Wie in 13 veranschaulicht, sind die rechteckigen interessierenden Bereiche ROIO bis ROI2 in vorbestimmten Intervallen in dem erfassten Bild α angeordnet. Der Ursprung α_o (0,0) des erfassten Bildes α entspricht einem Pixel am oberen linken Endabschnitt des erfassten Bildes α. Wie oben beschrieben, werden in einem Fall, in dem der interessierende Bereich eingestellt ist, die Koordinateninformationen und die Größeninformationen (die Länge in X-Achsenrichtung und die Länge in Y-Achsenrichtung) des interessierenden Bereichs abgeleitet. In diesem Beispiel, in einem Fall, in dem die interessierenden Bereiche ROIO bis ROI2 in dem erfassten Bild α eingestellt sind, werden zum Beispiel die Koordinaten (ROX, R0Y) eines Startpunkts Pr0, die den oberen linken Endabschnitt des interessierenden Bereichs ROIO angeben, als die Koordinateninformationen des interessierenden Bereichs ROIO abgeleitet, wie in 13 veranschaulicht. Hier sind die Koordinaten (ROX, R0Y) des Startpunkts Pr0 des interessierenden Bereichs ROIO Pixel am oberen linken Endabschnitt des interessierenden Bereichs ROIO. Des Weiteren werden zusätzlich zu den Koordinateninformationen eine Länge R0W in X-Achsenrichtung und Länge R0H in Y-Achsenrichtung als die Größeninformationen des interessierenden Bereichs ROIO abgeleitet.
  • Ferner werden in ähnlicher Weise zum Beispiel Koordinaten (R1X, R1Y) eines Startpunkts Pr1 als die Koordinateninformationen des interessierenden Bereichs ROI1 abgeleitet. Hier entsprechen die Koordinaten (R1X, R1Y) des Startpunkts Pr1 einem Pixel am oberen linken Endabschnitt des interessierenden Bereichs ROIO. Darüber hinaus werden eine Länge R1W in X-Achsenrichtung und Länge R1H in Y-Achsenrichtung als die Größeninformationen des interessierenden Bereichs ROI1 abgeleitet. Ferner werden in ähnlicher Weise zum Beispiel Koordinaten (R2X, R2Y) eines Startpunkts Pr2 als die Koordinateninformationen des interessierenden Bereichs ROI2 abgeleitet. Hier entsprechen die Koordinaten (R2X, R2Y) des Startpunkts Pr2 einem Pixel am oberen linken Endabschnitt des interessierenden Bereichs ROI2. Darüber hinaus werden eine Länge R2W in X-Achsenrichtung und Länge R2H in Y-Achsenrichtung als die Größeninformationen des interessierenden Bereichs ROI2 abgeleitet.
  • Die jeweiligen Koordinaten der Startpunkte Pr0, Pr1 und Pr2 der interessierenden Bereiche ROIO, ROI1 und ROI2 stellen die Positionen der interessierenden Bereiche ROIO, ROI1 und ROI2 in dem erfassten Bild α dar. Daher sind die jeweiligen Koordinaten der Startpunkte Pr0, Pr1 und Pr2 Koordinaten basierend auf dem Ursprung α_o (0,0) des erfassten Bildes, das heißt dem Pixel am oberen linken Endabschnitt des erfassten Bildes α. In der vorliegenden Ausführungsform werden die Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs als die Koordinateninformationen zum Zeitpunkt des Einstellens des interessierenden Bereichs in der Übertragungsvorrichtung abgeleitet und zur Verwendung in der nachfolgenden Verarbeitung gehalten. Wie später ausführlich beschrieben wird, werden die Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs auch in der Schattierungskorrekturverarbeitung verwendet. Des Weiteren werden zum Zeitpunkt des Einstellens des interessierenden Bereichs auch die Größeninformationen (die Länge in X-Achsenrichtung und die Länge in Y-Achsenrichtung) zusammen mit den Koordinateninformationen abgeleitet und zur späteren Verwendung in der nachfolgenden Verarbeitung (die Schattierungskorrekturverarbeitung und dergleichen) gehalten.
  • Des Weiteren werden in der vorliegenden Ausführungsform bei der Schattierungskorrekturverarbeitung die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs in dem erfassten Bild als die Koordinateninformationen erzeugt. Die Koordinaten jedes Pixels als Koordinateninformationen werden auf der Grundlage der Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs erzeugt. Das heißt, die für die Schattierungskorrekturverarbeitung verwendeten Koordinateninformationen schließen die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs zusätzlich zu den Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs ein. Dann wird die Luminanz für jedes Pixel der Bilddaten des interessierenden Bereichs verstärkt, die unter Verwendung des Schattierungskorrekturwerts gemäß den Koordinateninformationen erzeugt werden. Als Ergebnis kann die Genauigkeit der Schattierungskorrekturverarbeitung für die Bilddaten des interessierenden Bereichs verbessert werden. Hier wird die Erzeugung der Koordinaten jedes Pixels (Einheiten von Pixeln) der Bilddaten des interessierenden Bereichs beschrieben.
  • (Koordinateninformationen jedes Pixels in dem interessierenden Bereich)
  • In der vorliegenden Ausführungsform werden die Koordinaten jedes Pixels in den Bilddaten des interessierenden Bereichs unter Verwendung der Koordinaten, die das Pixel am oberen linken Endabschnitt (Startpunkt) des interessierenden Bereichs angeben, und der Größeninformationen des interessierenden Bereichs erzeugt. In der vorliegenden Ausführungsform geben die Größeninformationen des interessierenden Bereichs die Anzahl von Pixeln an. Das heißt, die Länge des interessierenden Bereichs in X-Achsenrichtung gibt die Anzahl von Pixeln in X-Achsenrichtung in den Bilddaten des interessierenden Bereichs an, und die Länge in Y-Achsenrichtung gibt die Anzahl von Pixeln in Y-Achsenrichtung in den Bilddaten des interessierenden Bereichs an. Des Weiteren wird die Anzahl der Pixel im gesamten interessierenden Bereich durch Multiplizieren der Länge (der Anzahl der Pixel) in X-Achsenrichtung mit der Länge (der Anzahl der Pixel) in Y-Achsenrichtung (Länge in X-Achsenrichtung × Länge in Y-Achsenrichtung) berechnet. Des Weiteren gibt die Länge in Y-Achsenrichtung die Anzahl der Pixelreihen in den Bilddaten des interessierenden Bereichs an. In einem Fall, in dem die Länge der Bilddaten in der Y-Achsenrichtung zum Beispiel 10 Pixel in einem vorbestimmten interessierenden Bereich beträgt, schließen die Bilddaten 10 Pixelreihen ein.
  • In der vorliegenden Ausführungsform werden Bilddaten eines Pixel an jeder Koordinatenposition in dem erfassten Bild angeordnet. Das heißt, jede Koordinate in dem interessierenden Bereich und jedes Pixel der Bilddaten in dem interessierenden Bereich entsprechen einander auf einer Eins-zu-Eins-Basis. In der vorliegenden Ausführungsform werden die X-Koordinaten auf der Grundlage der Länge (der Anzahl der Pixel) in X-Achsenrichtung, beginnend mit den Koordinaten, die das Pixel am oberen linken Endabschnitt (Startpunkt) des interessierenden Bereichs angeben, gemessen (gezählt). Als Ergebnis können die relativen Koordinaten (Pixelkoordinaten) jedes Pixels der Bilddaten des interessierenden Bereichs in dem erfassten Bild in Einheiten von Pixelreihen erzeugt werden. Des Weiteren können die Pixelkoordinaten der gesamten Bilddaten des interessierenden Bereichs erzeugt werden, indem die Erzeugung der Pixelkoordinaten in Einheiten von Pixelreihen auf der Grundlage der Länge (der Anzahl der Pixel) der Bilddaten des interessierenden Bereichs in Y-Achsenrichtung wiederholt werden, d. h. die Anzahl der Pixelreihen.
  • Zum Beispiel gibt die Länge R0W des interessierenden Bereichs ROIO in X-Achsenrichtung die Anzahl der Pixel in X-Achsenrichtung (die Anzahl der Pixel, die in den Pixelreihendaten enthalten ist) in den Bilddaten des interessierenden Bereichs ROIO an. Zusätzlich gibt die Länge R0H des interessierenden Bereichs ROIO in Y-Achsenrichtung die Anzahl der Pixel (die Anzahl der Pixeldatenelemente) in Y-Achsenrichtung in den Bilddaten des interessierenden Bereichs ROIO an. Daher wird die Messung (Zählung) durchgeführt, während 1 zu der X-Koordinate des Startpunkts PR0 durch die Anzahl der Pixel addiert wird, die einer „Länge R0W-1 in X-Achsenrichtung“ entspricht, beginnend bei der Koordinate (ROX, R0Y) des Startpunkts Pr0 des interessierenden Bereichs ROIO. Als Ergebnis werden Koordinaten, die der Anzahl von Pixeln entsprechen, die durch die Länge R0W in X-Achsenrichtung einschließlich der Koordinaten (ROX, R0Y) des Startpunkts Pr0 angegeben ist, für die obere Pixelreihe der Bilddaten des interessierenden Bereichs ROIO erzeugt.
  • Danach werden die Pixelkoordinaten entsprechend der Länge (der Anzahl von Pixeln) in X-Achsenrichtung in Einheiten von Pixelreihen erzeugt, während die Koordinaten (R0X, R0Y) des Startpunkts Pr0 des interessierenden Bereichs ROIO um eine Koordinate (ein Pixel) in Y-Achsenrichtung verschoben werden. Die Verarbeitung zum Erzeugen der Pixelkoordinaten in dem interessierenden Bereich ROIO wird wiederholt durch die Anzahl von Pixelreihen (die Länge R0H in Y-Achsenrichtung) durchgeführt. Insbesondere wird die Verarbeitung zum Erzeugen der Pixelkoordinaten in Einheiten von Pixelreihen so oft wiederholt, bis sie der „Länge in Y-Achsenrichtung - 1“ entspricht. Als Ergebnis werden schließlich Koordinaten (R0X + (R0W - 1),ER0Y + (R0H - 1)) eines unteren rechten Endes (Endpunkt) Er0 des interessierenden Bereichs ROIO erzeugt. Das heißt, die Koordinaten aller Pixelreihen, welche die Bilddaten in dem interessierenden Bereich ROIO bilden, das heißt, die Koordinaten aller Pixel in den Bilddaten des interessierenden Bereichs ROI, werden erzeugt.
  • Wie oben beschrieben, werden die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs ROIO auf der Grundlage der Koordinaten (ROX, R0Y) des Startpunkts Pr0 des interessierenden Bereichs ROIO erzeugt. Spezifischer werden die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs ROIO unter Verwendung der Koordinaten (ROX, R0Y) des Startpunkts Pr0 des interessierenden Bereichs ROIO und der Größeninformationen (der Länge R0W in X-Achsenrichtung und der Länge R0H in Y-Achsenrichtung) erzeugt. Dadurch können die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs ROIO in dem erfassten Bild α erzeugt werden. Die Koordinaten aller Pixel der Bilddaten werden ähnlich für die interessierenden Bereiche ROI1 und ROI2 erzeugt.
  • (Blockbereich des erfassten Bildes)
  • In der vorliegenden Ausführungsform wird bei der Schattierungskorrekturverarbeitung die Luminanz unter Verwendung des Schattierungskorrekturwerts für die Bilddaten des interessierenden Bereichs verstärkt. Der Schattierungskorrekturwert ist zum Beispiel ein Wert (nummerischer Wert), mit dem für Bilddaten eine Multiplikation durchgeführt wird, um die Luminanz zu verstärken. In der vorliegenden Ausführungsform ist der Schattierungskorrekturwert einem Blockbereich (in diesem Beispiel einem Blockbereich Br) zugeordnet, der ein Bereich ist, der durch Dividieren eines erfassten Bildes (in diesem Beispiel das erfasste Bild α) durch eine vorbestimmte Anzahl von Pixeln erhalten wird.
  • Wie in 13 veranschaulicht, ist der Blockbereich Br in dem erfassten Bild α ein Bildbereich, der 256 (Pixel) × 256 (Pixel) = 65536 Pixel pro Bereich einschließt. Das heißt, jeder Blockbereich entspricht den Koordinaten von Bilddaten, die 65536 Pixeln entsprechen. Des Weiteren ist, wie in 13 veranschaulicht, das erfasste Bild α ein Bild, das 3538944 Pixel = 2304 Pixel (Länge in X-Achsenrichtung) × 1536 Pixel (Länge in RY-Achsenrichtung) einschließt. Daher beträgt die Anzahl von Blockbereichen Br in dem erfassten Bild α 54 (= 3538944 Pixel (Gesamtzahl von Pixeln)/65536 Pixel (die Anzahl von Pixeln pro Blockbereich)). Das heißt, das erfasste Bild α wird in 54 Blockbereiche Br unterteilt. Spezifischer wird das erfasste Bild α in 54 Koordinatenbereiche unterteilt (neun in X-Achsenrichtung und sechs in Y-Achsenrichtung). 13 veranschaulicht zum leichteren Verständnis nur den Blockbereich Br am oberen rechten Ende von den 54 Blockbereichen Br.
  • In dem erfassten Bild α ist jedem Blockbereich Br ein geeigneter Schattierungskorrekturwert gemäß der Position (Koordinate) in dem erfassten Bild zugeordnet. Zum Beispiel ist ein relativ großer Schattierungskorrekturwert einem Blockbereich Br entsprechend dem peripheren Abschnitt des erfassten Bildes α zugeordnet. Daher ist es möglich, die Luminanz der Bilddaten in dem peripheren Abschnitt des erfassten Bildes α angemessen zu verstärken, wobei der periphere Abschnitt eine relativ niedrige Luminanz aufweist. Des Weiteren ist zum Beispiel ein relativ kleiner Schattierungskorrekturwert einem Blockbereich Br entsprechend dem zentralen Abschnitt des erfassten Bildes α zugeordnet. Daher ist es möglich, einen Ausgleich mit der Luminanz des peripheren Bereichs durch Verringern des Verstärkungsgrades der Luminanz der Bilddaten am zentralen Abschnitt des erfassten Bildes α herzustellen, wobei der zentrale Abschnitt eine relativ hohe Luminanz aufweist.
  • In der vorliegenden Ausführungsform wird bei der Schattierungskorrekturverarbeitung für den interessierenden Bereich bestimmt, zu welchem Blockbereich Br jedes Pixel der Bilddaten des interessierenden Bereichs gehört. Das heißt, es wird bestimmt, welcher Koordinate des Blockbereichs Br die Pixelkoordinaten der Bilddaten des interessierenden Bereichs entsprechen. Als Ergebnis wird eine Schattierungskorrekturverarbeitung durchgeführt, die für die Bilddaten jedes Pixels geeignet ist, indem der Schattierungskorrekturwert verwendet wird, der dem Blockbereich Br entspricht, zu dem jedes Pixel der Bilddaten in dem interessierenden Bereich gehört.
  • (Korrekturwerttabelle)
  • In der vorliegenden Ausführungsform wird der dem Blockbereich in dem erfassten Bild entsprechende Schattierungskorrekturwert in der Korrekturwerttabelle gehalten. Hier wird die Schattierungskorrekturtabelle unter Bezugnahme auf 14 unter gleichzeitiger Bezugnahme auf 13 beschrieben.
  • 14 ist ein Diagramm, das jeden Speicherungsbereich in einer Korrekturwerttabelle t1 in Zuordnung mit dem Blockbereich Br in dem erfassten Bild α der vorliegenden Ausführungsform veranschaulicht. In der Korrekturwerttabelle t1 werden Korrekturwerte in Zuordnung mit den Koordinateninformationen in dem erfassten Bild α gehalten. Insbesondere schließt die Korrekturwerttabelle T1 in der vorliegenden Ausführungsform eine Vielzahl von Adressbereichen As ein. Jeder der Vielzahl von Adressbereichen As ist jedem der Blockbereiche Br zugeordnet, die durch Dividieren des erfassten Bildes α durch eine vorbestimmte Anzahl von Pixeln (in diesem Beispiel 65536 Pixel) erhalten werden. In einem Adressbereich As wird ein Schattierungskorrekturwert entsprechend einem zugeordneten Blockbereich Br gehalten. Das heißt, in einem Adressbereich As wird ein Korrekturwert in Zuordnung mit einem Blockbereich Br gehalten, der eine vorbestimmte Anzahl von Pixelkoordinaten (Pixelkoordinaten von Bilddaten entsprechend 65536 Pixeln in diesem Beispiel) in dem erfassten Bild α einschließt.
  • Wie in 14 veranschaulicht, schließt in diesem Beispiel die Korrekturwerttabelle t1 54 Adressbereiche As, die jeweils 54 Koordinatenbereichen des erfassten Bildes α zugeordnet sind, ein. Der Adressbereich As ist ein Speicherungsbereich, der einen Schattierungskorrekturwert halten kann. In der Korrekturwerttabelle t1 dieses Beispiels sind Adressen mit fortlaufenden Nummern von 0 bis 53 den 54 Adressbereichen As zugeordnet. Der Adresswert „0“ ist ein Adresswert, der den Adressbereich As angibt, der dem Blockbereich Br am oberen linken Endabschnitt in dem erfassten Bild α entspricht, und der Adresswert „53“ ist ein Adresswert, der den Adressbereich As entsprechend dem Blockbereich Br am unteren Endabschnitt im erfassten Bild α angibt.
  • Jeder Speicherungsbereich der Korrekturwerttabelle t1 entspricht einem Blockbereich Br in dem erfassten Bild α, das heißt Pixelkoordinaten entsprechend 65536 Pixel = 256 (Pixel) × 256 (Pixel). Daher wird ein Korrekturwert, der jeder der Pixelkoordinaten entspricht, die in den 54 Blockbereichen Br des erfassten Bildes α positioniert sind, in jedem Speicherungsbereich der Korrekturwerttabelle t1 gehalten. Das heißt, ein Schattierungskorrekturwert im Adressbereich As entspricht einer Vielzahl von (65536 Pixel in diesem Beispiel) Pixelkoordinaten im Blockbereich Br, und der Schattierungskorrekturwert und die Pixelkoordinaten haben eine Eins-zu-Viele-Beziehung.
  • Zum Beispiel entsprechen, wie in 14 veranschaulicht, neun Adressbereiche As den Adresswerten „0“ bis „8“ in der Korrekturwerttabelle T1 neun Blockbereichen Br, die in dem oberen peripheren Abschnitt in dem erfassten Bild α positioniert sind. Spezifischer entspricht der Speicherungsbereich mit dem Adresswert „0“ dem Blockbereich Br, der den Ursprung α_o des erfassten Bildes α einschließt. Daher wird zum Beispiel der in dem Speicherungsbereich mit dem Adresswert „0“ gehaltene Schattierungskorrekturwert verwendet, um die Luminanz für jedes Pixel in dem Blockbereich Br einschließlich des Ursprungs α_o des erfassten Bildes α zu verstärken.
  • Wie oben beschrieben, wird bei der Schattierungskorrekturverarbeitung in der vorliegenden Ausführungsform die Luminanz der Bilddaten des interessierenden Bereichs unter Verwendung des Schattierungskorrekturwerts verstärkt, der aus der Korrekturwerttabelle auf der Grundlage der Koordinateninformationen des interessierenden Bereichs in dem erfassten Bild entnommen wird. Speziell wird der Schattierungskorrekturwert entsprechend den Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs aus der Korrekturwerttabelle entnommen und die Luminanz wird für jedes Pixel der Bilddaten des interessierenden Region angepasst.
  • Hier wird die Schattierungskorrekturverarbeitung für die Bilddatenelemente der interessierenden Bereiche ROIO bis ROI2 unter Bezugnahme auf 15 beschrieben. Zum leichteren Verständnis veranschaulicht 15 54 Blockbereiche Br in dem erfassten Bild α und die Adressbereiche As der Korrekturwerttabelle t1, die den jeweiligen Blockbereichen Br entsprechen, zusammen. Ferner veranschaulicht 15 die Zuordnung zwischen dem Blockbereich Br und dem Adressbereich As und den interessierenden Bereichen ROIO bis ROI2.
  • In diesem Beispiel wird in einem Fall, in dem die Schattierungskorrekturverarbeitung an den Bilddaten des interessierenden Bereichs ROIO durchgeführt wird, bestimmt, zu welchem Blockbereich Br jedes Pixel des interessierenden Bereichs ROIO gehört, auf der Grundlage der Koordinateninformationen des interessierenden Bereichs ROIO in dem erfassten Bild α, d. h., der relativen Koordinaten des interessierenden Bereichs ROIO. In einem Fall, in dem ein Blockbereich Br bestimmt wird, zu dem jedes Pixel gehört, wird der Adresswert der Korrekturwerttabelle t1 entsprechend dem Blockbereich Br abgeleitet. Dann wird ein dem Blockbereich Br entsprechender Schattierungskorrekturwert dem Adressbereich As entnommen, der dem abgeleiteten Adresswert zugeordnet ist, und die Luminanz der Bilddaten des interessierenden Bereichs ROIO wird für jedes Pixel unter Verwendung des entnommenen Schattierungskorrekturwerts verstärkt. Als Ergebnis wird die Schattierungskorrekturverarbeitung für die Bilddaten jedes Pixels des interessierenden Bereichs ROIO unter Verwendung des Schattierungskorrekturwerts entsprechend dem Blockbereich Br durchgeführt.
  • Wie in 15 veranschaulicht, sind die Bilddaten des interessierenden Bereichs ROIO über sechs Blockbereiche Br in der Korrekturwerttabelle T1 angeordnet. Die sechs Blockbereiche Br entsprechen sechs Adressbereichen As, die den Adresswerten „1“, „2“, „10“, „11“, „19“ bzw. „20“ entsprechen. Daher werden die in diesen sechs Adressbereichen As gehaltenen Schattierungskorrekturwerte für die Schattierungskorrekturverarbeitung in Bezug auf die Bilddaten des interessierenden Bereichs ROIO verwendet.
  • Bei der Schattierungskorrekturverarbeitung für die Bilddaten des interessierenden Bereichs ROIO werden die relativen Koordinaten (Pixelkoordinaten) jedes Pixels der Bilddaten des interessierenden Bereichs ROIO erzeugt. Dann wird der Blockbereich Br bestimmt, zu dem die erzeugten Pixelkoordinaten gehören, und dann wird der Adresswert der Korrekturwerttabelle t1 entsprechend dem bestimmten Blockbereich Br abgeleitet. Wie oben beschrieben, ist der Blockbereich Br in dem erfassten Bild α dem Adresswert zugeordnet, der den Adressbereich der Korrekturwerttabelle t1 auf einer Eins-zu-Eins-Basis angibt. Daher kann der Adresswert der Korrekturwerttabelle t1, der jeder der Pixelkoordinaten der Bilddaten des interessierenden Bereichs ROIO entspricht, abgeleitet werden, indem die Pixelkoordinaten der Bilddaten des interessierenden Bereichs ROIO erzeugt werden und bestimmt wird, zu welchem Blockbereich Br in dem erfassten Bild α die Pixelkoordinaten gehören.
  • Ferner kann zum Beispiel der Adresswert der Korrekturwerttabelle t1, der jeder der Pixelkoordinaten der Bilddaten des interessierenden Bereichs ROIO entspricht, unter Verwendung einer Umwandlungstabelle (nicht veranschaulicht) zum Umwandeln der Koordinaten jedem Koordinatenbereich in dem erfassten Bild α in einem Adresswert jedes Speicherungsbereichs der Korrekturwerttabelle T1 entnommen werden.
  • Zum Beispiel wird angenommen, dass die Pixelkoordinaten der Bilddaten des interessierenden Bereichs ROIO, die in der Schattierungskorrekturverarbeitung erzeugt werden, Koordinaten sind, die zu dem Blockbereich Br gehören, der dem Adresswert „1“ in der Korrekturwerttabelle t1 entspricht. In diesem Fall wird die Luminanz der Bilddaten, die den Pixelkoordinaten in dem interessierenden Bereich ROIO entsprechen, verstärkt, indem der in dem Adressbereich As mit dem Adresswert „1“ in der Korrekturwerttabelle T1 gehaltene Schattierungskorrekturwert verwendet wird. In ähnlicher Weise wird in einem Fall, in dem die Pixelkoordinaten, die in dem Blockbereich Br enthalten sind, der dem Adresswert „2“ in der Korrekturwerttabelle t1 entspricht, erzeugt werden, die Luminanz der Bilddaten entsprechend den Pixelkoordinaten unter Verwendung des Schattierungskorrekturwerts verstärkt, der in dem Adressbereich As entsprechend dem Adresswert „2“ gehalten wird. Außerdem wird auch in einem Fall, in dem die erzeugten Pixelkoordinaten der Bilddaten des interessierenden Bereichs ROIO in den Blockbereichen Br eingeschlossen sind, die den Adresswerten „10“, „11“, „19“ und „20“ der Korrekturwerttabelle T1 entsprechen, in ähnlicher Weise die Luminanz der Bilddaten, die jeder der Pixelkoordinaten entsprechen, verstärkt, indem die Schattierungskorrekturwerte verwendet werden, die in den Adressbereichen As mit den entsprechenden Adresswerten gehalten werden.
  • Für die interessierenden Bereiche ROI1 und ROI2 in dem erfassten Bild α wird ähnlich der Adresswert der Korrekturwerttabelle t1 auf der Grundlage des Blockbereichs Br abgeleitet, zu dem die Pixelkoordinaten gehören, welche die relativen Koordinaten jedes Pixels der Bilddaten sind, und die Luminanz der Bilddaten für jedes Pixel, das den Pixelkoordinaten entspricht, wird verstärkt, indem der Schattierungskorrekturwert verwendet wird, der in dem Adressbereich As gehalten wird, der dem abgeleiteten Adresswert zugeordnet ist. Das heißt, die Bilddaten des interessierenden Bereichs ROI1 sind über Blockbereiche Br angeordnet, die sechs Adresswerten „14“, „15“, „23“, „24“, „32“ und „33“ in den Adressbereichen As der Korrekturwerttabelle t1 entsprechen. Daher wird für die Bilddaten jedes Pixels des interessierenden Bereichs ROI1 die Luminanz verstärkt, indem der Schattierungskorrekturwert verwendet wird, der durch den Adressbereich As gehalten wird, der einem der sechs Adresswerte zugeordnet ist. Der Adresswert, der jeder der Pixelkoordinaten entspricht, wird auf der Grundlage des Blockbereichs Br abgeleitet, zu dem die Pixelkoordinaten gehören. Ferner wird für die Bilddaten des interessierenden Bereichs ROI2 in ähnlicher Weise die Luminanz verstärkt, indem der Schattierungskorrekturwert verwendet wird, der in dem Adressbereich As gehalten wird, der einem der sechs Adresswerte der vier Adresswerte „39“, „40“, „48“ und „49“ zugeordnet ist.
  • Es ist zu beachten, dass, wie oben beschrieben, der periphere Abschnitt des erfassten Bildes eine niedrigere Luminanz als die des zentralen Abschnitts aufweist.
    Daher werden relativ große Schattierungskorrekturwerte in den Adressbereichen As mit den Adressen 0 bis 8 in der Korrekturwerttabelle t1 entsprechend den Blockbereichen Br in dem oberen peripheren Abschnitt des erfassten Bildes α, den Adressbereichen As mit den Adresswerten 45 bis 53, die den Blockbereichen Br im unteren peripheren Abschnitt entsprechen, die Adressbereiche As mit den Adresswerten 9, 18, 27 und 36, die den Blockbereichen Br im linken peripheren Abschnitt entsprechen, und die Adressbereiche As mit den Adresswerten 17, 26, 35 und 44, die den Blockbereichen Br im rechten peripheren Abschnitt entsprechen, gehalten. Daher wird in einem Fall der Verwendung eines Korrekturwerts, der einem Koordinatenbereich in dem peripheren Abschnitt entspricht, der Verstärkungsgrad der Luminanz der Bilddaten des interessierenden Bereichs erhöht. Als Ergebnis kann zum Beispiel die Luminanz der Bilddaten des interessierenden Bereichs ROI (z. B. der interessierenden Bereiche ROIO und ROI2), die in dem peripheren Abschnitt des erfassten Bildes α angeordnet sind, auf eine ähnliche Luminanz wie diejenige der Bilddaten in dem zentralen Abschnitt des erfassten Bildes α verstärkt werden.
  • Ferner werden relativ kleinere Schattierungskorrekturwerte in den Adressbereichen As gehalten, die den Adresswerten 21 bis 23 und 30 bis 32 der Korrekturwerttabelle t1 zugeordnet sind, die den Blockbereichen Br in dem zentralen Abschnitt des erfassten Bildes α entsprechen. Daher wird in einem Fall der Verwendung eines Schattierungskorrekturwertes, der einem Blockbereich Br in dem zentralen Abschnitt entspricht, der Verstärkungsgrad der Luminanz der Bilddaten des interessierenden Bereichs verringert. Als Ergebnis ist es möglich, eine Erhöhung der Differenz zwischen der Luminanz der Bilddaten im zentralen Abschnitt des aufgenommenen Bildes α und der Luminanz der Bilddaten im peripheren Abschnitt zu unterdrücken, wodurch die Luminanz der Bilddaten in dem erfassten Bild α gleichmäßig gemacht wird. Es ist zu beachten, dass der Schattierungskorrekturwert, der in dem Adressbereich As, der dem Blockbereich Br in dem zentralen Abschnitt entspricht, gehalten wird, auf „0“ oder einen Wert nahe „0“ eingestellt werden kann, so dass die Luminanz nicht wesentlich verstärkt wird.
  • Es ist zu beachten, dass zum Beispiel ein Schattierungskorrekturwert, der kleiner als derjenige des Adressbereichs As, der dem Blockbereich Br in dem peripheren Abschnitt entspricht, ist und größer als derjenige des Adressbereichs As, der dem Blockbereich Br in dem zentralen Abschnitt entspricht, ist in einem Adressbereich As gehalten werden können, der einem anderen Blockbereich Br entspricht als denen in dem peripheren Abschnitt und dem zentralen Abschnitt des erfassten Bildes α. Wie oben beschrieben, wird der Schattierungskorrekturwert, der jedem Blockbereich Br des erfassten Bild α entspricht, in der Korrekturwerttabelle t1 gehalten.
  • Des Weiteren ist jeder Adressbereich As der Korrekturwerttabelle t1, die den Schattierungskorrekturwert hält, jedem Blockbereich Br des erfassten Bildes α auf einer Eins-zu-Eins-Basis zugeordnet. Daher werden bei der Schattierungskorrekturverarbeitung für die Bilddatenelemente der interessierenden Bereiche ROIO bis ROI2 die Koordinaten (Pixelkoordinaten) jedes Pixels der Bilddaten jedes interessierenden Bereichs erzeugt und der Blockbereich Br, zu dem die erzeugten Pixelkoordinaten gehören, wird bestimmt, wodurch der Adresswert der Korrekturwerttabelle t1 entsprechend dem Blockbereich Br abgeleitet werden kann. Daher kann der dem Blockbereich Br entsprechende Schattierungskorrekturwert entnommen werden. Daher kann die Luminanzverstärkung unter Verwendung des Schattierungskorrekturwerts entsprechend dem Blockbereich Br in dem erfassten Bild α für jedes Pixel der Bilddatenelemente der interessierenden Bereiche ROIO bis ROI2 durchgeführt werden. Auf diese Weise kann in der vorliegenden Ausführungsform die Luminanz der Bilddaten jedes der interessierenden Bereiche ROIO bis ROI2 durch die Schattierungskorrekturverarbeitung angemessen angepasst werden.
  • 4. Erste Ausführungsform der vorliegenden Offenbarung:
  • Als nächstes werden eine Übertragungsvorrichtung, eine Empfangsvorrichtung und ein Übertragungssystem gemäß einer ersten Ausführungsform der vorliegenden Offenbarung unter Bezugnahme auf 13 bis 15 und 16 bis 18 beschrieben. Zuerst wird eine schematische Konfiguration der Übertragungsvorrichtung, der Empfangsvorrichtung und des Übertragungssystems gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 16 beschrieben. 16 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration eines Videoübertragungssystems 10 veranschaulicht. Das Videoübertragungssystem 10 gemäß der vorliegenden Ausführungsform schließt eine Videoübertragungsvorrichtung 3 und eine Videoempfangsvorrichtung 200 ein. Das Videoübertragungssystem 10 ist zum Durchführen einer Übertragung und eines Signalempfangs zwischen der Videoübertragungsvorrichtung 3 und der Videoempfangsvorrichtung 200 gemäß zum Beispiel dem MIPI CSI-3-Standard oder dem MIPI DSI-Standard konfiguriert, ähnlich wie das Videoübertragungssystem 1 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2.
  • Da die in dem Videoübertragungssystem 10 enthaltene Videoempfangsvorrichtung 200 eine Komponente ist, die denselben Betrieb und Funktion wie jene der Videoempfangsvorrichtung 200 in den oben beschriebenen zugrundeliegenden Technologien 1 und 2 implementiert, werden dieselben Bezugszeichen gegeben und eine Beschreibung davon wurde weggelassen.
  • Die in dem Videoübertragungssystem 10 enthaltene Videoübertragungsvorrichtung 3 ist konfiguriert, um eine Funktion zu implementieren, die derjenigen der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 entspricht. Das heißt, die Videoübertragungsvorrichtung 3 ist konfiguriert, um eine ähnliche Verarbeitung wie die durch die Videoübertragungsvorrichtung 100 durchgeführte Verarbeitung an einem erfassten Bild durchführen zu können, das von einer Bildsensorvorrichtung 30 in einem Fall eingegeben wird, in dem ein Steuersignal zum Anweisen des Schneidens eines interessierenden Bereichs von einer vorbestimmten externen Vorrichtung (zum Beispiel der Videoempfangsvorrichtung 200) eingegeben wird. Die Videoübertragungsvorrichtung 3 unterscheidet sich von der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 darin, dass die Videoübertragungsvorrichtung 3 konfiguriert ist, um die oben beschriebene Schattierungskorrekturverarbeitung durchführen zu können.
  • Ferner ist in einem Fall, in dem ein Steuersignal zum Anweisen des Ausgebens eines Normalbildes von der Videoempfangsvorrichtung 200 eingegeben wird, die Videoübertragungsvorrichtung 3 konfiguriert, um eine Verarbeitung ähnlich der durchführen zu können, die von der Videoübertragungsvorrichtung 100 an einem erfassten Bild durchgeführt wird, das von der Bildsensorvorrichtung 30 eingegeben wird. Hier veranschaulicht 16 hauptsächlich Komponenten, die sich auf die Schattierungsverarbeitung in der Videoübertragungsvorrichtung 3 beziehen. Daher sind Komponenten zum Durchführen einer Verarbeitung in Bezug auf ein Normalbild in 16 nicht veranschaulicht.
  • Die Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform führt jede Verarbeitung in der Vorrichtung synchron mit einem vorbestimmten Taktsignal durch. Daher können Verarbeitungen, die von den jeweiligen Komponenten durchgeführt werden, zusammen (zum Beispiel synchron) miteinander erfolgen, indem die Verarbeitungen auf der Grundlage des Taktsignals durchgeführt werden.
  • Wie in 16 veranschaulicht, schließt die Videoübertragungsvorrichtung 3 die Bildsensorvorrichtung 30 ein, die ein Objekt abbildet, und eine Übertragungsverarbeitungseinheit 31, die eine vorbestimmte Verarbeitung für ein erfasstes Bild und eine Bilddatenübertragungsverarbeitung durchführt. Die Bildsensorvorrichtung 30 ist eine ähnliche Komponente wie die Abbildungseinheit 110 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2.
    Die Bildsensorvorrichtung 30 schließt zum Beispiel einen CCD-Bildsensor (CCD - Charge Coupled Device) oder einen CMOS-Bildsensor (CMOS - Complementary Metal Oxide Semiconductor) ein und wandelt ein durch eine optische Linse oder dergleichen erhaltenes optisches Bildsignal in digitale Bilddaten um. Die Bildsensorvorrichtung 30 gibt ein erfasstes Bild (zum Beispiel das erfasste Bild α), das durch Abbildung erhalten wird, an die Übertragungsverarbeitungseinheit 31 (insbesondere eine Bildverarbeitungsschaltung 300) aus.
  • Die Übertragungsverarbeitungseinheit 31 schließt die Bildverarbeitungsschaltung (ein Beispiel einer Verarbeitungseinheit in einer Übertragungsvorrichtung) 300 und eine Bildübertragungseinheit 330 ein. Die Bildverarbeitungsschaltung 300 ist eine Komponente, die der Bildverarbeitungseinheit 120 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 entspricht, und ist eine Schaltung, die eine vorbestimmte Verarbeitung an einem erfassten Bild durchführt, das von der Abbildungseinheit (Bildsensorvorrichtung 30) eingegeben wird. Außerdem ist die Bildübertragungseinheit 330 eine Komponente, die der Übertragungseinheit 140 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 entspricht, und ist eine Schaltung, die Übertragungsdaten 347A auf der Grundlage verschiedener Datenelemente (120A, 120B, 120C und dergleichen) erzeugt und überträgt, die von der Bildverarbeitungsschaltung 300 eingegeben werden. In der vorliegenden Ausführungsform ist die Übertragungsverarbeitungseinheit 31 als ein IC-Chip konfiguriert.
  • Die Interessierender-Bereich-Kennzeichnungsinformationen 90A werden als Informationen bezüglich des Einstellens eines auszuschneidenden interessierenden Bereichs zusammen mit einem Steuersignal zum Anweisen des Ausschneidens des interessierenden Bereichs von einer externen Vorrichtung (zum Beispiel der Videoempfangsvorrichtung 200) in die Bildverarbeitungsschaltung 300 eingegeben. Die Interessierender-Bereich-Kennzeichnungsinformationen 90A sind zum Beispiel Informationen, die eine Position und eine Größe in dem erfassten Bild angeben. Die Interessierender-Bereich-Kennzeichnungsinformationen 90A werden in eine Bildverarbeitungssteuereinheit 126, eine Korrekturschaltung 301 (insbesondere eine ROI-Bildkoordinaten-Informationserzeugungseinheit 311) und eine ROI-Schneideinheit 121 eingegeben, die in der Bildverarbeitungsschaltung 300 enthalten sind.
  • Insbesondere schließen die Interessierender-Bereich-Kennzeichnungsinformationen 90A als Positionsinformationen Informationen (Koordinateninformationen) über die relativen Koordinaten des interessierenden Bereichs in dem erfassten Bild ein. Die Koordinaten schließen mindestens Koordinaten (Startpunktkoordinaten) des oberen linken Endabschnitts des interessierenden Bereichs ein. Es ist zu beachten, dass in der vorliegenden Ausführungsform die Positionsinformationen nicht auf die Startpunktkoordinaten beschränkt sind und Koordinaten (Endpunktkoordinaten) des unteren rechten Endabschnitts des interessierenden Bereichs einschließen können. Die Positionsinformationen in der vorliegenden Offenbarung können Koordinaten sein, die eine von vier Ecken in einem Fall angeben, in dem der interessierende Bereich eine rechteckige Form aufweist. Des Weiteren schließen die Größeninformationen die Größe des interessierenden Bereichs ROI in X-Achsenrichtung und die Größe des interessierenden Bereichs ROI in Y-Achsenrichtung ein. In diesem Beispiel schließen die Interessierender-Bereich-Kennzeichnungsinformationen 90A bezüglich der interessierenden Bereiche ROIO bis ROI2 in dem erfassten Bild α die Positionsinformationen und die Größeninformationen von jedem der drei interessierenden Bereiche ROIO bis ROI2 ein.
  • Die Bildverarbeitungsschaltung 300 schließt die Bildverarbeitungssteuereinheit 126, die Korrekturschaltung 301, die ROI-Schneideeinheit 303 und eine Codiereinheit 305 ein. Die Bildverarbeitungssteuereinheit 126 hat eine äquivalente Konfiguration zu derjenigen der Bildverarbeitungssteuereinheit 126 der Bildverarbeitungseinheit 120 in den oben beschriebenen zugrundeliegenden Technologien 1 und 2. In der vorliegenden Ausführungsform erzeugt die Bildverarbeitungssteuereinheit 126 ROI-Informationen 120B und Frame-Informationen 120C auf der Grundlage der Interessierender-Bereich-Kennzeichnungsinformationen 90A und überträgt die ROI-Informationen 120B und die Frame-Informationen 120C an die Bildübertragungseinheit 330. Des Weiteren gibt die Bildverarbeitungssteuereinheit 126 die eingegebenen Interessierender-Bereich-Kennzeichnungsinformationen 90A an die Codiereinheit 305 und die Codiereinheit 305 aus.
  • Die Korrekturschaltung 301 in der Bildverarbeitungsschaltung 300 der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform führt die oben beschriebene Schattierungskorrekturverarbeitung durch. Die Korrekturschaltung 301 führt die Schattierungskorrekturverarbeitung für Bilddaten eines interessierenden Bereichs auf der Grundlage von Koordinateninformationen des interessierenden Bereichs (ROI) in einem erfassten Bild durch. Die Korrekturschaltung 301 erzeugt die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs in dem erfassten Bild auf der Grundlage der Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs und verstärkt eine Luminanz für jedes Pixel der Bilddaten des interessierenden Bereichs auf der Grundlage der erzeugten Koordinaten jedes Pixel. Als Ergebnis wird die Schattierungskorrektur an den Bilddaten des interessierenden Bereichs durchgeführt. Die Korrekturschaltung 301 schließt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, einen Korrekturwerttabellen-R_AM 312 und eine Korrektureinheit 313 ein. Der Korrekturwerttabellen-RAM 312 hält Schattierungskorrekturwerte, die für die Schattierungskorrekturverarbeitung verwendet werden. Die Korrekturschaltung 301 führt jede Verarbeitung bezüglich der Schattierungskorrekturverarbeitung mit diesen Komponenten durch. Details zu jeder Komponente der Korrekturschaltung 301 werden später beschrieben.
  • Die ROI-Schneideeinheit 303 hat eine äquivalente Komponente wie die ROI-Schneideinheit 121 der Bildverarbeitungseinheit 120 in den oben beschriebenen zugrundeliegenden Technologien 1 und 2. Die ROI-Schneideinheit 303 stellt einen interessierenden Bereich ROI in einem erfassten Bild ein, das von der Abbildungseinheit (Bildsensorvorrichtung 30) eingegeben wird. Die ROI-Schneideinheit 303 schneidet einen interessierenden Bereich (ROI) aus einem erfassten Bild (zum Beispiel dem erfassten Bild α), das von der Abbildungseinheit (Bildsensorvorrichtung 30) eingegeben wird, zum Beispiel auf der Grundlage der Interessierender-Bereich-Kennzeichnungsinformationen 90A. In der vorliegenden Ausführungsform gibt die ROI-Schneideinheit 303 Bilddaten eines interessierenden Bereichs, der aus einem erfassten Bild geschnitten wurde, an die Korrekturschaltung 301 (insbesondere die Korrektureinheit 313) aus. Die ROI-Schneideeinheit 303 gibt Bilddaten eines interessierenden Bereichs an die Korrekturschaltung 301 zum Beispiel in Einheiten von Pixeln synchron mit dem oben beschriebenen Taktsignal aus.
  • Die Codiereinheit 305 hat eine äquivalente Komponente wie die Codiereinheit 125 der Bildverarbeitungseinheit 120 in den oben beschriebenen zugrundeliegenden Technologien 1 und 2. Die Codiereinheit 305 codiert Bilddaten eines interessierenden Bereichs, welcher der Schattierungskorrekturverarbeitung in der Korrekturschaltung 301 unterzogen wird, um komprimierte Bilddaten 120A zu erzeugen. Die Codiereinheit 305 gibt die erzeugten komprimierten Bilddaten 120A an die Bildübertragungseinheit 330 (insbesondere einen später beschriebenen ROI-Datenpuffer 345) aus.
  • (Details der Korrekturschaltung)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 erzeugt relative Koordinaten (Pixelkoordinaten) jedes Pixels von Bilddaten eines geschnittenen interessierenden Bereichs (ROI). In der vorliegenden Ausführungsform erzeugt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die Pixelkoordinaten der Bilddaten des interessierenden Bereichs unter Verwendung eines Zählers. In der vorliegenden Ausführungsform schließt die Bildverarbeitungsschaltung 300 eine Zählereinheit ein, die für verschiedene Arten von Messverarbeitung verwendet wird. In der vorliegenden Ausführungsform schließt die Korrekturschaltung 301 einen horizontalen Zähler Xct und einen vertikalen Zähler Yct als die Zählereinheiten ein.
  • Der horizontale Zähler (ein Beispiel eines ersten Zählers) Xct ist ein Zähler, der eine Position (horizontale Position) jedes Pixels der Bilddaten des interessierenden Bereichs in X-Achsenrichtung in dem erfassten Bild misst. Ein Zählerwert des horizontalen Zählers Xct entspricht einer X-Koordinate in einem erfassten Bild (zum Beispiel dem erfassten Bild α). In der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform misst der horizontale Zähler Xct die X-Koordinaten des interessierenden Bereichs in dem erfassten Bild, beginnend mit den Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs (die Pixelkoordinaten des oberen linken Endabschnitts).
  • Des Weiteren ist der vertikale Zähler (ein Beispiel eines zweiten Zählers) Yct ist ein Zähler, der eine Position (vertikale Position) jedes Pixels der Bilddaten des interessierenden Bereichs in Y-Achsenrichtung in dem erfassten Bild misst. Ein Wert des vertikalen Zählers Yct entspricht einer Y-Koordinate in einem erfassten Bild und gibt die Position einer Pixelreihe in dem erfassten Bild an. In der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform misst der vertikale Zähler Yct die Y-Koordinaten des interessierenden Bereichs in dem erfassten Bild, beginnend mit den Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs (die Pixelkoordinaten des oberen linken Endabschnitts). Zum Beispiel wird in einem Fall, in dem die Werte sowohl des horizontalen Zählers Xct als auch des vertikalen Zählers Yct „0“ sind, der Ursprung α_o (0,0) in dem erfassten Bild angegeben.
  • Es ist zu beachten, dass es ausreichend ist, wenn der horizontale Zähler Xct und der vertikale Zähler Yct bereitgestellt werden, um eine Steuerung (in Bezug auf den Zählerwert, Zurücksetzen des Zählerwerts und dergleichen) in Bezug auf den Zählerwert aus dem ROI-Bildkoordinaten-Informationserzeugungseinheit 311 durchzuführen. Daher sind die Installationsorte des horizontalen Zählers Xct und des vertikalen Zählers Yct nicht auf das Innere der Korrekturschaltung 301 beschränkt und können an jedem Ort in der Bildverarbeitungsschaltung 300 sein, zum Beispiel. Außerdem sind der horizontale Zähler Xct und der vertikale Zähler Yct konfiguriert, um die Zählerwerte auf willkürliche Werte zurückzusetzen, die von der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 eingestellt werden.
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 in der Korrekturschaltung 301 erzeugt die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs unter Verwendung des horizontalen Zählers Xct und des vertikalen Zählers Yct. Hier wird ein Beispiel eines Ablaufs einer Pixelkoordinaten-Erzeugungsverarbeitung (Pixelkoordinaten-Erzeugungsverarbeitungsverfahren) unter Bezugnahme auf 17 beschrieben. 17 ist ein Flussdiagramm, das ein Beispiel eines Flusses der Pixelkoordinaten-Erzeugungsverarbeitung in der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform veranschaulicht.
  • (Schritt S101)
  • In der in der Videoübertragungsvorrichtung 3 enthaltenen Korrekturschaltung 301 bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, ob ein Bilddaten-Frame gestartet wurde oder nicht. In der vorliegenden Ausführungsform zeigt der Start des Bilddaten-Frame in der Pixelkoordinaten-Erzeugungsverarbeitung an, dass die Interessierender-Bereich-Kennzeichnungsinformationen 90A von der Videoempfangsvorrichtung 200 übertragen wurden. In diesem Beispiel bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, dass der Bilddaten-Frame in einem Fall gestartet wurde, in dem die Interessierender-Bereich-Kennzeichnungsinformationen 90A für einen interessierenden Bereich (die interessierenden Bereiche ROIO bis ROI2 in diesem Beispiel) übertragen wurde, und geht zu Schritt S102. Andererseits bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, dass der Bilddaten-Frame nicht gestartet wurde, in einem Fall, in dem die Interessierender-Bereich-Kennzeichnungsinformationen 90A nicht übertragen wurden, und wiederholt die Verarbeitung von Schritt S101 in vorbestimmten Intervallen, bis die Interessierender-Bereich-Kennzeichnungsinformationen 90A übertragen werden.
  • (Schritt S102)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 extrahiert die Positionsinformationen des interessierenden Bereichs und geht zu Schritt S103. Insbesondere extrahiert die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die Koordinateninformationen jedes interessierenden Bereichs in dem erfassten Bild α als die Positionsinformationen jedes der interessierenden Bereiche ROIO bis ROI2 aus den Interessierender-Bereich-Kennzeichnungsinformationen 90A. Die Koordinateninformationen schließen mindestens die Startpunktkoordinaten (die Pixelkoordinaten des oberen linken Endabschnitts) des interessierenden Bereichs (in diesem Beispiel die interessierenden Bereiche ROIO bis ROI2) ein.
  • (Schritt S103)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 stellt als Referenzkoordinaten in der Pixelkoordinaten-Erzeugungsverarbeitung die Startpunktkoordinaten eines interessierenden Bereichs ein, der dem Ursprung in dem erfassten Bild am nächsten ist, und geht zu Schritt S104. Insbesondere setzt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die Zählerwerte des horizontalen Zählers Xct und des vertikalen Zählers Yct auf der Grundlage der Startpunktkoordinaten des interessierenden Bereichs zurück, der dem Ursprung am nächsten ist. Das Zurücksetzen gibt eine Verarbeitung zum Einstellen des Zählerwerts auf einen willkürlichen Wert an.
  • Hier wird die Bestimmung der Referenzkoordinaten beschrieben. Sobald Elemente von Koordinateninformationen für eine Vielzahl von interessierenden Bereichen aus den Interessierender-Bereich-Kennzeichnungsinformationen 90A in Schritt S103 extrahiert wurden, ordnet die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die jeweiligen Elemente von extrahierten Koordinateninformationen in aufsteigender Reihenfolge der Werte der Y-Koordinaten der Startpunktkoordinaten (die Pixelkoordinaten der oberen linken Endabschnitte der interessierenden Bereiche) neu an, um die Y-Koordinaten-Reihenfolgedaten zu erzeugen. Die Y-Koordinaten-Reihenfolgedaten schließen Endpunkt-Y-Koordinaten (Pixelkoordinaten der unteren rechten Endabschnitte der interessierenden Bereiche) ein, die aus den Y-Koordinaten der Startpunktkoordinaten und der Anzahl von Pixeln berechnet werden, welche die Größe in Y-Achsenrichtung angeben. Die Y-Koordinate des Endpunkts wird aus „Wert der Y-Koordinate des Startpunkts + Größe in Y-Achsenrichtung (- 1)“ berechnet. Die erzeugten Y-Koordinaten-Reihenfolgedaten können zum Beispiel während der Ausführung einer Reihe von Schattierungskorrekturverarbeitungen basierend auf einem Element der eingegebenen Interessierender-Bereich-Kennzeichnungsinformationen 90A in einem vorbestimmten Register gehalten werden.
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt, als Referenzkoordinaten, die Startpunktkoordinaten eines interessierenden Bereichs, deren Wert der Y-Koordinate der kleinste in den Y-Koordinaten-Reihenfolgedaten ist. Sobald die Referenzkoordinaten bestimmt sind, setzt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des horizontalen Zählers Xct auf den Wert der X-Koordinate der Referenzkoordinaten zurück und setzt den Zählerwert des vertikalen Zählers Yct auf den Wert der Y-Koordinate der Referenzkoordinaten zurück.
  • In diesem Beispiel ist in dem erfassten Bild α (siehe 13) ein interessierender Bereich, der dem Ursprung am nächsten ist, der interessierende Bereich ROIO. Daher werden die Koordinaten (ROX, R0Y) des Startpunkts Pr0, die den oberen linken Endabschnitt des interessierenden Bereichs ROIO angeben, als die Referenzkoordinaten bestimmt. Daher wird in Schritt S103 der Zählerwert des horizontalen Zählers Xct auf „R0X“ zurückgesetzt und der Zählerwert des vertikalen Zählers Yct wird auf „R0Y“ zurückgesetzt. Auf diese Weise werden die Pixelkoordinaten der Bilddaten des interessierenden Bereichs erzeugt.
  • (Schritt S104)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 erzeugt die Pixelkoordinaten aus dem derzeitigen Zählerwert des horizontalen Zählers Xct und dem derzeitigen Zählerwert des vertikalen Zählers Yct und geht zu Schritt S105. Wie später ausführlich beschrieben wird, wird die Adresse der Korrekturwerttabelle t1 auf der Grundlage der hier erzeugten Pixelkoordinaten abgeleitet. Als Ergebnis wird der Schattierungskorrekturwert aus dem Adressbereich As (siehe 14) entnommen, der dem Adresswert zugeordnet ist.
  • (Schritt S105)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 entnimmt den Zählerwert des horizontalen Zählers Xct, der synchron mit dem Taktsignal aktualisiert (um 1 inkrementiert) wird, und geht zu Schritt S106.
  • (Schritt S106)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt, ob der aktualisierte Zählerwert des horizontalen Zählers Xct einen Wert überschreitet oder nicht, der das rechte Ende der X-Koordinaten des interessierenden Bereichs angibt, d. h. das Ende einer Pixelreihe (Zeile) in den Bilddaten des interessierenden Bereichs. In diesem Beispiel hat eine X-Koordinate der Koordinaten Mr0, die das rechte Ende einer vorbestimmten Pixelreihe des interessierenden Bereichs ROIO (siehe 13) angibt, einen Wert „R0X + (R0W - 1)“, der durch Inkrementieren (Addieren von 1) des Startpunkt (R0X) der X-Koordinaten durch die Anzahl von Pixeln der „Länge R0W in X-Achsenrichtung - 1“ erhalten wird. In einem Fall, in dem bestimmt wird, dass der Zählerwert des horizontalen Zählers Xct den Wert überschreitet, der dem Ende der X-Koordinaten des interessierenden Bereichs (zum Beispiel des interessierenden Bereichs ROIO) entspricht, geht die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S107. Andererseits, in einem Fall, in dem bestimmt wird, dass der Zählerwert des horizontalen Zählers Xct den Wert nicht überschreitet, der dem Ende der X-Koordinaten der interessierenden Region entspricht (zum Beispiel der interessierenden Region ROI0), kehrt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S104 zurück. Es ist zu beachten, dass in einem Fall, in dem eine Vielzahl von interessierenden Bereiche angeordnet ist, die sich in einer Zeile überlappen, die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 in Schritt S106 bestimmt, ob Werte, welche die Enden aller interessierenden Bereiche angeben, angeordnet werden, während sie sich einander überlappen, überschritten werden oder nicht
  • (Schritt S107)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt, ob es einen anderen interessierenden Bereich als den interessierenden Bereich gibt, der ein Ziel der derzeitigen Pixelkoordinaten in derselben Zeile (Pixelreihe) ist wie derjenige der Y-Koordinate, der durch den derzeitigen Zählerwert des vertikalen Zählers Yct in dem erfassten Bild angegeben wird. Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt, ob es einen anderen interessierenden Bereich in derselben Zeile (Pixelreihe) wie den der Y-Koordinate gibt, der durch den derzeitigen Zählerwert des vertikalen Zählers Yct in dem erfassten Bild angegeben wird. Zum Beispiel bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, ob es einen anderen interessierenden Bereich gibt oder nicht, der den derzeitigen Zählerwert des vertikalen Zählers Yct einschließt, indem auf die Y-Koordinaten-Reihenfolgedaten Bezug genommen wird. In einem Fall, in dem bestimmt wird, dass es einen anderen interessierenden Bereich in derselben Zeile gibt, für die bestimmt wird, ob es einen anderen interessierenden Bereich gibt oder nicht, geht die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S108.
  • Hier bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 in einem Fall, in dem es zwei oder mehr andere interessierende Bereiche in derselben Zeile wie derjenigen der Y-Koordinate gibt, die durch den Zählerwert des vertikalen Zählers Yct angegeben wird, einen interessierenden Bereich, dessen Wert des Startpunkts der X-Koordinate kleiner als ein interessierender Bereich ist, das nächste Pixelkoordinaten-Erzeugungsziel (nächster Ziel-ROI) sein wird. Wenn andererseits bestimmt wird, dass es keinen nächsten Ziel-ROI-Bereich in derselben Zeile gibt wie diejenige der Y-Koordinate, die durch den Zählerwert des vertikalen Zählers Yct angegeben wird, geht die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S109.
  • Der nächste Ziel-ROI wird unter Verwendung der X-Koordinaten-Reihenfolgedaten bestimmt, die durch Neuanordnen der jeweiligen Elemente von Koordinateninformationen, die aus den Interessierender-Bereich-Kennzeichnungsinformationen 90A in aufsteigender Reihenfolge der Werte der X-Koordinaten der Startpunktkoordinaten (die Pixelkoordinaten der oberen linken Endabschnitte der interessierenden Bereiche) extrahiert wurden. Zum Beispiel ist es ausreichend, wenn die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die X-Koordinaten-Reihenfolgedaten zusammen mit den Y-Koordinaten-Reihenfolgedaten in Schritt S103 erzeugt. Die X-Koordinaten-Reihenfolgedaten schließen Endpunkt-X-Koordinaten (Pixelkoordinaten der rechten Endabschnitte der jeweiligen Pixelreihen der interessierenden Bereiche) ein, die aus den X-Koordinaten der Startpunktkoordinaten und der Anzahl von Pixeln berechnet werden, welche die Größe in X-Achsenrichtung angeben. Darüber hinaus können die X-Koordinaten-Reihenfolgedaten die Y-Koordinaten der Startpunktkoordinaten und die Endpunkt-Y-Koordinaten einschließen, die in den Y-Koordinaten-Reihenfolgedaten enthalten sind. Die X-Koordinate des Endpunkts wird aus „Wert der X-Koordinate des Startpunkts + Größe in X-Achsenrichtung (- 1)“ berechnet. Ähnlich wie die Y-Koordinaten-Reihenfolgedaten können die erzeugten X-Koordinaten-Reihenfolgedaten zum Beispiel während der Ausführung einer Reihe von Schattierungskorrekturverarbeitungen basierend auf einem Element von eingegebenen Interessierender-Bereich-Kennzeichnungsinformationen 90A in einem vorbestimmten Register gehalten werden. Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt den nächsten Ziel-ROI in aufsteigender Reihenfolge der Startpunkt-X-Koordinaten unter den interessierenden Bereichen ROI in derselben Zeile durch Bezugnahme auf die X-Koordinaten-Reihenfolgedaten.
  • In diesem Beispiel bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zum Beispiel in einem Fall, in dem der Zählerwert des horizontalen Zählers Xcnt den Wert der Koordinaten Mr0 überschreitet, die das rechte Ende der vorbestimmten Pixelreihe des interessierenden Bereichs ROIO angeben, in Schritt S107, ob es einen anderen interessierenden Bereich in derselben Zeile wie derjenigen der Y-Koordinate der Koordinaten Mr0 gibt oder nicht. Wie in 13 veranschaulicht, befindet sich der interessierende Bereich ROI1 in der gleichen Zeile wie die der Koordinaten Mr0. Daher bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, dass es einen anderen interessierenden Bereich gibt (in diesem Beispiel den interessierenden Bereich ROI1) und geht zu Schritt S108. Andererseits bestimmt zum Beispiel in einem Fall, in dem die Erzeugung der Pixelkoordinaten bis zum Ende der obersten Pixelreihe des interessierenden Bereichs ROIO geendet ist, die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, dass es keine anderen interessierenden Bereich in derselben Zeile wie die der Y-Koordinate der Koordinaten des Endes (rechtes Ende) der oberen Pixelreihe des interessierenden Bereichs ROIO gibt, und geht zu Schritt S109.
  • (Schritt S108)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 setzt den Zählerwert des horizontalen Zählers Xct auf die X-Koordinate des Startpunkts (linker Endabschnitt) eines anderen interessierenden Bereichs zurück und kehrt zu Schritt S104 zurück. Insbesondere setzt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des horizontalen Zählers Xct auf den Wert der X-Koordinate der Startpunktkoordinaten des interessierenden Bereichs (nächster Ziel-ROI) zurück, der das nächste Pixelkoordinaten-Erzeugungsziel ist. Als Ergebnis wird die Erzeugung der Pixelkoordinaten von dem Kopfpixel der Pixelreihe des interessierenden Bereichs gestartet, der das nächste Pixelkoordinaten-Erzeugungsziel ist. Zum Beispiel werden in einem Fall, in dem der interessierende Bereich, der das nächste Pixelkoordinaten-Erzeugungsziel ist, der interessierende Bereich ROI1, der Zählerwert des horizontalen Zählers Xct auf den Wert „R1X“ der X-Koordinate der Koordinaten (R0X,R0Y) des Startpunkts Pr0 zurückgesetzt.
  • Wie oben beschrieben, aktualisiert in der Pixelkoordinaten-Erzeugungsverarbeitung die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des horizontalen Zählers Xct auf einen diskontinuierlichen Wert. Das heißt, der horizontale Zähler Xct ist ein Zähler, der eine Aktualisierung auf einen diskontinuierlichen Wert durchführen kann.
  • (Schritt S109)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt, ob es Bilddaten eines interessierenden Bereichs in der nächsten Zeile (Pixelreihe) in dem erfassten Bild gibt oder nicht. Insbesondere aktualisiert die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des vertikalen Zählers Yct auf einen Wert, der durch Addieren von 1 erhalten wird, und bestimmt, ob es Bilddaten eines interessierenden Bereichs an der Y-Koordinate in dem erfassten Bild, die durch den aktualisierten Wert angegeben werden, gibt oder nicht. In einem Fall, in dem bestimmt wird, dass es Bilddaten eines interessierenden Bereichs an der Y-Koordinate gibt, die durch den aktualisierten Zählerwert des vertikalen Zählers Yct angegeben werden, indem auf die Y-Koordinaten-Reihenfolgedaten Bezug genommen wird, geht die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S110. Wenn andererseits bestimmt wird, dass es keine Bilddaten eines interessierenden Bereichs an der Y-Koordinate gibt, die durch den aktualisierten Zählerwert des vertikalen Zählers Yct angegeben werden, geht die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S111.
  • (Schritt S110)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 setzt den Zählerwert des horizontalen Zählers Xcnt auf den Wert der Startpunkt-X-Koordinate des am weitesten links gelegenen interessierenden Bereichs in der nächsten Zeile (Pixelreihe) durch Bezugnahme auf die X-Koordinaten-Reihenfolgedaten zurück und geht zu Schritt S104. Insbesondere entnimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 eine Startpunkt-X-Koordinate, bei welcher der Zählerwert des vertikalen Zählers Yct, der in Schritt S109 aktualisiert wird, der kleinste in dem interessierenden Bereich an der Y-Koordinate ist, unter Bezugnahme auf die X-Koordinaten-Reihenfolgedaten, und setzt den Zählerwert des horizontalen Zählers Xcnt auf die Startpunkt-X-Koordinate zurück. Als Ergebnis wird die Erzeugung der Pixelkoordinaten von dem interessierenden Bereich ganz links in der nächsten Zeile in dem erfassten Bild gestartet.
  • (Schritt S111)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 bestimmt, ob es einen interessierenden Bereich (nächster Ziel-ROI, der das nächste Pixelkoordinaten-Erzeugungsziel ist) unterhalb der nächsten Zeile (Pixelreihe) in dem erfassten Bild gibt oder nicht. Insbesondere bestimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, ob es einen nächsten Ziel-ROI unterhalb der Y-Koordinate gibt oder nicht, die durch den Zählerwert des vertikalen Zählers Yct angegeben wird, der in Schritt S109 durch Bezugnahme auf die Y-Koordinaten-Reihenfolgedaten aktualisiert wird. In einem Fall, in dem bestimmt wird, dass es einen nächsten Ziel-ROI unterhalb der nächsten Zeile gibt, geht die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 zu Schritt S112. Andererseits bestimmt in einem Fall, in dem bestimmt wird, dass es keinen nächsten Ziel-ROI unter der nächsten Zeile gibt, die ROI-Bildkoordinaten-Informationserzeugungseinheit 311, dass die Pixelkoordinaten der Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild erzeugt wurden, und beendet die Pixelkoordinaten-Erzeugungsverarbeitung.
  • (Schritt S112)
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 setzt den Zählerwert des vertikalen Zählers Yct und den Zählerwert des horizontalen Zählers Xct zurück und kehrt zu Schritt S104 zurück. Insbesondere setzt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des vertikalen Zählers Yct auf den Wert der Y-Koordinate der Startpunktkoordinaten des nächsten Ziel-ROI durch Bezugnahme auf die Y-Koordinaten-Reihenfolgedaten zurück. Zusätzlich setzt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des horizontalen Zählers Xct auf den Wert der X-Koordinate der Startpunktkoordinaten des nächsten Ziel-ROI durch Bezugnahme auf die X-Koordinaten-Reihenfolgedaten zurück. Als Ergebnis ist es möglich, die Pixelkoordinaten für alle Bilddatenelemente einer Vielzahl von interessierenden Bereichen zu erzeugen, die in dem erfassten Bild in Y-Achsenrichtung in Intervallen angeordnet ist.
  • In diesem Beispiel wird vorausgesetzt, dass die Pixelkoordinaten bis zu den Endpunktkoordinaten (den Koordinaten des Pixel am unteren rechten Endabschnitt) des interessierenden Bereichs ROI1 und des interessierenden Bereichs, der das nächste Pixelkoordinaten-Erzeugungsziel ist, der interessierende Bereich ROI2 ist. In diesem Fall setzt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des horizontalen Zählers Xcnt auf den Wert „R2X“ der X-Koordinate der Koordinaten (R2X, R2Y) des Startpunkts Pr2 des interessierenden Bereichs ROI2 zurück und setzt den vertikalen Zähler Ycnt auf den Wert „R2Y“ der Y-Koordinate zurück. Als Ergebnis kann die Erzeugung von den Pixelkoordinaten des Pixel am Startpunkt (oberer linker Endabschnitt) des interessierenden Bereichs ROI2 nach dem interessierenden Bereich ROI1 gestartet werden.
  • In Schritt S112 der Pixelkoordinaten-Erzeugungsverarbeitung aktualisiert die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Zählerwert des vertikalen Zählers Ycnt auf einen diskontinuierlichen Wert. Das heißt, der vertikale Zähler Ycnt ist ein Zähler, der eine Aktualisierung auf einen diskontinuierlichen Wert durchführen kann. In der vorliegenden Ausführungsform kann die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die Koordinaten jedes Pixels von Bilddatenelementen einer Vielzahl von interessierenden Bereichen (ROI), die in einem erfassten Bild (in diesem Beispiel das erfasste Bild α) enthalten ist, unter Verwendung des horizontalen Zählers Xcnt und des vertikalen Zählers Ycnt erzeugen.
  • Die Pixelkoordinaten-Erzeugungsverarbeitung wurde oben unter Bezugnahme auf 17 beschrieben. Wie oben beschrieben, erzeugt die in der Korrekturschaltung 301 enthaltene ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die Pixelkoordinaten unter Verwendung mindestens der Koordinaten (Startpunktkoordinaten) des oberen linken Endabschnitts des interessierenden Bereichs als die Koordinateninformation. Insbesondere erzeugt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die Y-Koordinaten-Reihenfolgedaten und die X-Koordinaten-Reihenfolgedaten unter Verwendung der Startpunktkoordinaten des interessierenden Bereichs und der Größeninformationen und erzeugt die Pixelkoordinaten der Bilddaten des interessierenden Bereichs.
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 leitet einen Adresswert der Korrekturwerttabelle t1 auf der Grundlage der erzeugten Pixelkoordinaten jedes Mal ab, wenn die Pixelkoordinaten erzeugt werden. Insbesondere spezifiziert die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 einen Blockbereich Br (siehe 15) in dem erfassten Bild, zu dem die erzeugten Pixelkoordinaten gehören. Sobald der dem spezifizierten Blockbereich Br zugeordnete Adresswert abgeleitet ist, entnimmt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 eine Schattierungskorrektur, die in einem Adressbereich gehalten wird, der dem abgeleiteten Adresswert zugeordnet ist, und gibt die Schattierungskorrektur an die Korrektureinheit 313 aus.
  • Die in der Korrekturschaltung 301 enthaltene Korrektureinheit 313 verstärkt die Luminanz der Bilddaten des interessierenden Bereichs (ROI) unter Verwendung des Schattierungskorrekturwerts, der aus der Korrekturwerttabelle t1 auf der Grundlage der Koordinateninformationen durch die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 entnommen wird. Genauer entnimmt in der Korrekturschaltung 301 die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 den Schattierungskorrekturwert entsprechend den Koordinaten (Pixelkoordinaten) jedes Pixels der Bilddaten des interessierenden Bereichs aus der Korrekturwerttabelle t1 und die Korrektureinheit 313 führt eine Empfindlichkeitsanpassung für jedes Pixel der Bilddaten des interessierenden Bereichs durch, indem sie den entnommenen Schattierungskorrekturwert verwendet.
  • Die Korrektureinheit 313 multipliziert die Bilddaten jedes Pixels des interessierenden Bereichs, die von der ROI-Schneideeinheit 303 eingegeben werden, mit dem Schattierungskorrekturwert, der von der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 eingegeben wird, um die Luminanz zu verstärken. Als Ergebnis kann die Luminanz von Bilddaten jedes Pixels eines interessierenden Bereichs der Korrekturschaltung einschließlich der Korrektureinheit 313 auf der Grundlage des Schattierungskorrekturwerts verstärkt werden, der dem Bereich in dem erfassten Bild entspricht. Daher kann die Videoübertragungsvorrichtung 3 einschließlich der Korrekturschaltung 301 die Luminanz der Bilddaten des interessierenden Bereichs um einen Grad entsprechend dem Bereich in dem erfassten Bild durch Schattierungskorrekturverarbeitung verstärken, um die Luminanz gleichmäßig zu machen.
  • Die Korrekturschaltung 301 gibt an die Codiereinheit 305 korrigierte Bilddaten 313A aus, die Bilddaten des interessierenden Bereichs sind, die der Schattierungskorrekturverarbeitung unterzogen wurden. Wie oben beschrieben, gibt die Codiereinheit 305 die korrigierten Bilddaten 303A an die Bildübertragungseinheit 330 aus. Die Codiereinheit 305 sammelt in Einheiten von Pixelreihen die Bilddaten des interessierenden Bereichs, die in Einheiten von Pixeln eingegeben wurden, und erzeugt ein Übertragungsbild für eine Zeile (eine Pixelreihe). Zum Beispiel sammelt die Codiereinheit 305 die Bilddaten in Einheiten von Pixeln des interessierenden Bereichs ROIO entsprechend der Anzahl von Pixeln entsprechend der Länge R0W in X-Achsenrichtung und erzeugt ein Übertragungsbild einer Pixelreihe des interessierenden Bereichs ROIO. Die Codiereinheit 305 erzeugt ein Übertragungsbild für jeden interessierenden Bereich in Einheiten von Pixelreihen (Zeilen) auf der Grundlage der von der Bildverarbeitungssteuereinheit 126 eingegebenen Interessierender-Bereich-Kennzeichnungsinformationen 90A. Die Codiereinheit 305 gibt an die Bildübertragungseinheit 330 die komprimierten Bilddaten 120A aus, die durch Komprimieren des Übertragungsbildes in einem Kompressionsformat oder dergleichen gemäß dem JPEG-Standard erhalten wurden.
  • (Bildübertragungseinheit)
  • Die Bildübertragungseinheit 330 schließt eine LINK-Steuerschaltung 341, eine ECC-Erzeugungsschaltung 342, eine PH-Erzeugungsschaltung 343, einen EBD-Puffer 344, einen ROI-Datenpuffer 345, eine Kombinationsschaltung 347 und eine Übertragungsschaltung 350 ein. Zusätzlich schließt die Bildübertragungseinheit 330 einen Normalbild-Datenpuffer (nicht veranschaulicht) ein.
  • Die LINK-Steuerschaltung 341 ist eine äquivalente Komponente zu derjenigen der LINK-Steuereinheit 141 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien. Die LINK-Steuerschaltung 341 gibt die von der Bildverarbeitungssteuereinheit 126 eingegebene Frame-Information 120C zum Beispiel an die ECC-Erzeugungsschaltung 342 und die PH-Erzeugungsschaltung 343 für jede Zeile aus. Die ECC-Erzeugungsschaltung 342 hat eine äquivalente Komponente wie die ECC-Erzeugungseinheit 142 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien. Die ECC-Erzeugungsschaltung 342 erzeugt einen Fehlerkorrekturcode einer Zeile auf der Grundlage von Daten (zum Beispiel einer virtuellen Kanalnummer, dem Datentyp jedes der interessierenden Bereiche ROI1 bis ROI2, der Nutzlastlänge jeder Zeile und dergleichen) der Zeile in den Frame-Informationen, zum Beispiel. Die ECC-Erzeugungsschaltung 342 gibt den erzeugten Fehlerkorrekturcode an die PH-Erzeugungsschaltung 343 aus, zum Beispiel. Es ist zu beachten, dass die ECC-Erzeugungsschaltung 342 den Fehlerkorrekturcode an die Kombinationsschaltung 347 ausgeben kann.
  • Die PH-Erzeugungsschaltung 343 hat eine äquivalente Komponente wie die PH-Erzeugungseinheit 143 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien. Die PH-Erzeugungsschaltung 343 erzeugt den Paket-Header PH (siehe 4) für jede Zeile zum Beispiel unter Verwendung der Frame-Informationen, der Interessierender-Bereich-Kennzeichnungsinformationen 90A und des von der ECC-Erzeugungsschaltung 342 erzeugten Fehlerkorrekturcodes. Zusätzlich kann die PH-Erzeugungsschaltung 343 die von der Bildverarbeitungssteuereinheit 126 eingegebenen Interessierender-Bereich-Kennzeichnungsinformationen 90A an die ECC-Erzeugungsschaltung 342 ausgeben. Die PH-Erzeugungsschaltung 343 gibt den erzeugten Paket-Header PH an die Kombinationseinheit 147 aus.
  • Der EBD-Puffer 344 ist eine äquivalente Komponente zu EBD-Puffer 144 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien. Der EBD-Puffer 344 speichert primär die ROI-Informationen, die durch die Bildverarbeitungseinheit 126 erzeugt werden, und gibt die ROI-Informationen als eingebettete Daten zu einem vorbestimmten Zeitpunkt an die Kombinationsschaltung 347 aus.
  • Der ROI-Datenpuffer 345 ist eine äquivalente Komponente zu ROI-Datenpuffer 145 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien. Der ROI-Datenpuffer 345 speichert primär die komprimierten Bilddaten 120B, die von der Codiereinheit 302 eingegeben werden, und gibt die komprimierten Bilddaten 120B als Nutzdaten eines langen Pakets zu einem vorbestimmten Zeitpunkt an die Kombinationsschaltung 347 aus.
  • Die Kombinationsschaltung 347 ist eine äquivalente Komponente zu Kombinationseinheit 147 der Videoübertragungsvorrichtung 100 gemäß den oben beschriebenen zugrundeliegenden Technologien. In einem Fall, in dem ein Steuersignal zum Anweisen des Schneidens eines ROI von der Videoempfangsvorrichtung 200 über die Kamera-Steuerschnittstelle CCI eingegeben wird, erzeugt die Kombinationsschaltung 347 die Übertragungsdaten 347A auf der Grundlage verschiedener Eingabedatenelemente (dem Paket-Header PH, den ROI-Informationen 120B und den komprimierten Bilddaten 120A). Die Kombinationseinheit 147 gibt die erzeugten Übertragungsdaten 147A an die Übertragungsschaltung 350 aus.
  • Die Übertragungsschaltung 350 der Bildübertragungseinheit 330, die in der Übertragungsverarbeitungseinheit (ein Beispiel einer Übertragungseinheit) 31 enthalten ist, gibt die Übertragungsdaten 147A an die Videoempfangsvorrichtung 200 durch die Datenspur DL aus. Insbesondere überträgt die Übertragungsschaltung 350 Bilddaten eines interessierenden Bereichs (ROI), die der Schattierungskorrekturverarbeitung unterzogen werden, als Nutzdaten. Als Ergebnis werden die Bilddaten des interessierenden Bereichs, die der Schattierungskorrekturverarbeitung unterzogen werden, zusammen mit eingebetteten Daten als Nutzdaten an die Videoempfangsvorrichtung 200 übertragen.
  • (Schattierungskorrektur-Verarbeitungsverfahren in der Übertragungsvorrichtung)
  • Als nächstes wird ein Schattierungskorrektur-Verarbeitungsverfahren in der Übertragungsvorrichtung, der Empfangsvorrichtung und dem Übertragungssystem gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 18 unter gleichzeitiger Bezugnahme auf 13 bis 17 beschrieben. 18 ist ein Flussdiagramm, das ein Beispiel eines Ablaufs eines Schattierungskorrektur-Verarbeitungsverfahren in der Übertragungsvorrichtung, der Empfangsvorrichtung und dem Übertragungssystem veranschaulicht, das die Schattierungskorrektur gemäß der vorliegenden Ausführungsform durchführen kann.
  • Sobald das Videoübertragungssystem 10 aktiviert ist und ein Frame-Startauslöser eingegeben ist, geht eine Informationsverarbeitungseinheit 220 (eine CamCPU in der Zeichnung), die in der Videoempfangsvorrichtung 200 enthalten ist, zu Schritt S21.
  • (Schritt S21)
  • Sobald das Videoübertragungssystem 10 aktiviert ist und ein Frame-Startauslöser eingegeben ist, bestimmt die in der Videoempfangsvorrichtung 200 enthaltene Informationsverarbeitungseinheit 220 (die CamCPU in der Zeichnung) eine Schnittposition, an der ein Bild (ein interessierender Bereich) aus einem erfassten Bild der Bildsensorvorrichtung 30 der Videoübertragungsvorrichtung 3 geschnitten wird und beendet die Schnittposition-Bestimmungsverarbeitung. Insbesondere sendet die CamCPU, sobald die Schnittposition bestimmt ist, ein Steuersignal zum Anweisen des Schneidens und die Interessierender-Bereich-Kennzeichnungsinformationen 90A. Die Interessierender-Bereich-Kennzeichnungsinformationen 90A schließen die Positionsinformationen (Koordinateninformationen) und die Größeninformationen (die Größen in X-Achsenrichtung und Y-Achsenrichtung) des interessierenden Bereichs ein. Das Steuersignal und die Interessierender-Bereich-Kennzeichnungsinformationen 90A werden von der Videoempfangsvorrichtung 200 an die Videoübertragungsvorrichtung 3 durch Kommunikation unter Verwendung von Hardware (HW) unter Verwendung von MIPI übertragen.
  • (Schritt S31)
  • Sobald ein Schnittposition-Kennzeichnungsauslöser erkannt wird, entnimmt die Bildverarbeitungsschaltung 300 (eine Sensor-CPU in der Zeichnung), die in der Übertragungsverarbeitungseinheit 31 der Videoübertragungsvorrichtung 3 enthalten ist, die Schnittposition und die Größe in dem erfassten Bild der Bildsensorvorrichtung 30 und geht zu Schritt S32. Insbesondere entnimmt die Bildverarbeitungsschaltung 300 die Positionsinformationen (die Koordinateninformationen des interessierenden Bereichs) und die Größeninformationen (die Größen in X-Achsenrichtung und Y-Achsenrichtung) aus den Interessierender-Bereich-Kennzeichnungsinformationen 90A in der Bildverarbeitungssteuereinheit 126, der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 in der Korrekturschaltung 301 und der ROI-Schneideeinheit 121.
  • (Schritt S32)
  • Die Bildverarbeitungsschaltung 300 bestimmt durch die ROI-Schneideinheit 121 die Schnittposition, an welcher der interessierende Bereich in dem erfassten Bild geschnitten wird, auf der Grundlage der Interessierender-Bereich-Kennzeichnungsinformationen 90A und geht zu Schritt S33. Sobald die Schnittposition bestimmt ist, schneidet die ROI-Schneideeinheit 121 die Bilddaten des interessierenden Bereichs aus dem erfassten Bild und gibt die Bilddaten an die Korrektureinheit 313 in der Korrekturschaltung 301 in Einheiten von Pixeln aus.
  • (Schritt S33)
  • Die Bildverarbeitungsschaltung 300 erzeugt durch die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 der Korrekturschaltung 301 die Pixelkoordinaten der Bilddaten des interessierenden Bereichs und geht zu Schritt S34. Insbesondere führt die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 die in 17 veranschaulichte Pixelkoordinaten-Erzeugungsverarbeitung durch. Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 spezifiziert einen Blockbereich Br (siehe 15) in dem erfassten Bild, zu dem die Bilddaten jedes Pixels des interessierenden Bereichs gehören, auf der Grundlage der erzeugten Pixelkoordinaten. Sobald der Blockbereich Br spezifiziert ist, leitet die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 einen Adresswert der Korrekturwerttabelle t1 entsprechend dem Blockbereich Br ab. Die ROI-Bildkoordinaten-Informationserzeugungseinheit 311 entnimmt einen Schattierungskorrekturwert aus einem Adressbereich As der Korrekturwerttabelle t1, die dem Adresswert zugeordnet ist, und gibt den Schattierungskorrekturwert an die Korrektureinheit 313 der Korrekturschaltung 301 aus.
  • (Schritt S34)
  • Die Bildverarbeitungsschaltung 300 führt durch die Korrektureinheit 313 der Korrekturschaltung 301 die Schattierungskorrektur der Bilddaten des interessierenden Bereichs durch und geht zu Schritt S35. Insbesondere verstärkt die Korrektureinheit 313 die Luminanz der Bilddaten des interessierenden Bereichs in Einheiten von Pixeln, die von der ROI-Schneideeinheit 121 eingegeben werden, unter Verwendung des Schattierungskorrekturwerts, der von der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 eingegeben wird. Die Korrektureinheit 313 gibt die korrigierten Bilddaten 313A, die Bilddaten des interessierenden Bereichs sind, die der Schattierungskorrekturverarbeitung unterzogen wurden, an die Codiereinheit 305 aus.
  • (Schritt S35)
  • Die Bildverarbeitungsschaltung 300 bestimmt, durch die Korrektureinheit 313 der Korrekturschaltung 301, ob die Schattierungskorrektur für die Bilddatenelemente aller interessierenden Bereichs in dem erfassten Bild abgeschlossen wurde oder nicht. Insbesondere bestimmt die Bildverarbeitungsschaltung 300, ob die Schattierungskorrektur für alle interessierenden Bereiche abhängig davon abgeschlossen wurde oder nicht, ob die Erzeugung der Pixelkoordinaten aller interessierenden Bereiche in der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 beendet ist oder nicht. In einem Fall, in dem die Pixelkoordinaten der Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild erzeugt worden sind (NEIN in Schritt S111), bestimmt die Bildverarbeitungsschaltung 300, dass die Schattierungskorrektur für Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild abgeschlossen wurde und geht zu Schritt S36. Andererseits bestimmt die Bildverarbeitungsschaltung 300 in einem Fall, in dem die Pixelkoordinaten der Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild nicht erzeugt worden sind (JA in Schritt S111), dass die Schattierungskorrektur für die Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild nicht abgeschlossen wurde, und kehrt zu Schritt S33 zurück.
  • (Schritt S36)
  • Die Bildverarbeitungsschaltung 300 erzeugt durch die Bildverarbeitungssteuereinheit 126 die ROI-Informationen, in denen die Positionsinformationen (Koordinateninformationen) und die Größeninformationen (die Größen in X-Achsenrichtung und Y-Achsenrichtung) des interessierenden Bereichs enthalten sind von Interesse eingestellt sind, und gibt die ROI-Informationen an die Bildübertragungseinheit 330 (insbesondere den EBD-Puffer 344) aus. Zusätzlich gibt die Bildverarbeitungsschaltung 300 durch die Codiereinheit 305 die komprimierten Bilddaten 120A, die durch Komprimieren der korrigierten Bilddaten 313A erhalten wurden, an die Bildübertragungseinheit 330 (insbesondere den ROI-Datenpuffer 345) aus. Als Ergebnis erzeugt die Kombinationsschaltung 347 der Bildübertragungseinheit 330 als die Übertragungsdaten 347A die eingebetteten Daten einschließlich der ROI-Informationen und der Nutzdaten einschließlich der Bilddaten des interessierenden Bereichs, die der Schattierungskorrekturverarbeitung unterzogen wurden. Die erzeugten Übertragungsdaten 347A werden an die Videoempfangsvorrichtung 200 durch die Übertragungsschaltung 350 durch Kommunikation unter Verwendung von Hardware (HW) unter Verwendung von MIPI übertragen.
  • Wie oben beschrieben, werden, sobald die Schattierungskorrekturverarbeitung der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform durchgeführt ist, die Bilddaten des interessierenden Bereichs, die der Schattierungskorrektur unterzogen wurden, an die Videoempfangsvorrichtung 200 übertragen. Als Ergebnis kann die Videoempfangsvorrichtung 200 verschiedene Verarbeitungsarten an den Bilddaten des interessierenden Bereichs durchführen, die der Schattierungskorrektur unterzogen wurden.
  • Das Videoübertragungssystem 10, das die Schattierungskorrekturverarbeitung in der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform durchführt, wurde oben beschrieben. In der vorliegenden Ausführungsform schließt die in dem Übertragungssystem 10 enthaltene Videoübertragungsvorrichtung 3 Folgendes ein: die Bildverarbeitungsschaltung 300, welche die Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) auf der Grundlage von Koordinateninformationen des interessierenden Bereichs in einem erfassten Bild durchführt; und die Bildübertragungseinheit 330, die als Nutzdaten, die Bilddaten des interessierenden Bereichs überträgt, die der Schattierungskorrekturverarbeitung unterzogen wurden. Daher kann die Videoübertragungsvorrichtung 3 in dem Übertragungssystem 10 die Schattierungskorrekturverarbeitung an den Bilddaten des interessierenden Bereichs durchführen.
  • Die Bildverarbeitungsschaltung 300 der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform ist als Hardware konfiguriert, welche die Schattierungskorrekturverarbeitung durchführen kann. Außerdem ist die Bildübertragungseinheit 330 der Videoübertragungsvorrichtung 3 gemäß der vorliegenden Ausführungsform als Hardware konfiguriert, die Bilddaten eines interessierenden Bereichs ROI übertragen kann. Als Ergebnis kann die Videoübertragungsvorrichtung 3 die Schattierungskorrekturverarbeitung und die Übertragungsverarbeitung für Bilddaten eines interessierenden Bereichs beschleunigen und die Anzahl von Bilddaten-Frames erhöhen, die pro Zeiteinheit in dem Übertragungssystem 10 verarbeitet werden. Das heißt, es ist möglich, die mit einer hohen Framerate durchgeführte Verarbeitung zu implementieren.
  • 5. Zweite Ausführungsform der vorliegenden Offenbarung:
  • Als nächstes werden eine Übertragungsvorrichtung, eine Empfangsvorrichtung und ein Übertragungssystem gemäß einer zweiten Ausführungsform der vorliegenden Offenbarung unter Bezugnahme auf 13 bis 15 und 19 und 20 beschrieben. Zuerst wird eine schematische Konfiguration der Übertragungsvorrichtung, der Empfangsvorrichtung und des Übertragungssystems gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 19 beschrieben. 16 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration eines Videoübertragungssystems 20 veranschaulicht. Das Videoübertragungssystem 20 gemäß der vorliegenden Ausführungsform schließt eine Videoübertragungsvorrichtung 100 und eine Videoempfangsvorrichtung 4 ein. Das Videoübertragungssystem 20 ist zum Durchführen einer Übertragung und eines Signalempfangs zwischen der Videoübertragungsvorrichtung 100 und der Videoempfangsvorrichtung 4 gemäß zum Beispiel dem MIPI CSI-3-Standard oder dem MIPI DSI-Standard konfiguriert, ähnlich wie das Videoübertragungssystem 1 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2.
  • Da die in dem Videoübertragungssystem 20 enthaltene Videoübertragungsvorrichtung 100 eine Komponente ist, die denselben Betrieb und Funktion wie jene der Videoübertragungsvorrichtung 100 in den oben beschriebenen zugrundeliegenden Technologien 1 und 2 implementiert, werden dieselben Bezugszeichen gegeben und eine Beschreibung davon wurde weggelassen.
  • Die in dem Videoübertragungssystem 20 enthaltene Videoempfangsvorrichtung 4 ist konfiguriert, um eine Funktion zu implementieren, die derjenigen der Videoempfangsvorrichtung 200 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 entspricht. Das heißt, die Videoempfangsvorrichtung 4 ist konfiguriert, um eine ähnliche Verarbeitung wie die der Videoempfangsvorrichtung 200 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 an Übertragungsdaten durchführen zu können, die von der Videoübertragungsvorrichtung 100 übertragen werden. Darüber hinaus ist die Videoempfangsvorrichtung 4 konfiguriert, um eine Schattierungskorrekturverarbeitung unter Verwendung von ROI-Informationen durchführen zu können, die von der Videoübertragungsvorrichtung 100 übertragen werden. Daher veranschaulicht 19 hauptsächlich Komponenten, die sich auf die Schattierungsverarbeitung in der Videoempfangsvorrichtung 4 beziehen.
  • Die Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform schließt eine Empfangseinheit 210 und eine Signalverarbeitungseinheit (ein Beispiel einer Verarbeitungseinheit in einer Empfangsvorrichtung) 40 ein. Die Empfangseinheit 210 in der Videoempfangsvorrichtung 4 empfängt ein Übertragungssignal (in diesem Beispiel Übertragungsdaten 147A ), in dem Bilddaten eines interessierenden Bereichs (ROIs), die aus einem vorbestimmten erfassten Bild ausgeschnitten sind, in die Nutzdaten eingeschlossen werden, und ROI-Informationen, die einer vorbestimmten Anzahl von interessierenden Bereichen entsprechen, in die eingebetteten Daten eingeschlossen werden. Ähnlich wie die Videoübertragungsvorrichtung 100 in den zugrundeliegenden Technologien 1 und 2 sendet die im Übertragungssystem 20 gemäß der vorliegenden Ausführungsform enthaltene Videoübertragungsvorrichtung 100 (siehe 18) Bilddaten jedes interessierenden Bereichs (ROI) in einem erfassten Bild 111 als Nutzdaten eines langen Pakets und sendet ROI-Informationen 120B bezüglich des interessierenden Bereichs als eingebettete Daten. Als Ergebnis kann die Vorrichtung (die Videoempfangsvorrichtung 4 in diesem Beispiel), welche die von der Videoübertragungsvorrichtung 100 übertragenen Übertragungsdaten 147A empfangen hat, die Bilddaten (ROI-Bild 112) jedes interessierenden Bereichs ROI leicht aus den Übertragungsdaten 147A extrahieren.
  • Die Empfangseinheit 210 ist eine Schaltung, die verschiedene Datenelemente(214A , 215A und 215B) erzeugt, indem sie eine vorbestimmte Verarbeitung an den empfangenen Übertragungsdaten 147A durchführt und die verschiedenen Datenelemente an die Signalverarbeitungseinheit 40 ausgibt. In der vorliegenden Ausführungsform gibt die Empfangseinheit 210, sobald ein Paket (SOF) empfangen wird, das angibt, dass die Kommunikation eines Bilddaten-Frame mit der Videoübertragungsvorrichtung 100 begonnen hat, ein vorbestimmtes Signal, das den Empfang des SOF an der Signalverarbeitungseinheit 40 angibt, aus.
  • Ähnlich der Videoempfangsvorrichtung 200 in den zugrundeliegenden Technologien 1 und 2, die oben beschrieben sind, schließt auch in der Videoempfangsvorrichtung 4 die Empfangseinheit 210 zum Beispiel eine Header-Trenneinheit 211, eine Header-Interpretationseinheit 212, eine Nutzlast-Trenneinheit 213, eine EBD-Interpretationseinheit 214 und eine ROI-Daten-Trenneinheit 215 ein. Darunter haben die Header-Trenneinheit 211 und die Header-Interpretationseinheit 212 ähnliche Konfigurationen wie jene der Videoempfangsvorrichtung 200 und eine Beschreibung davon wird daher weggelassen.
  • Die EBD-Interpretationseinheit 214 bestimmt, ob die Bilddaten, die in den Nutzdaten der Übertragungsdaten 147A enthalten sind, Bilddaten eines ROI sind (die komprimierten Bilddaten 120A der Bilddaten 116 des interessierenden Bereichs in den zugrundeliegenden Technologien 1 und 2) oder Normalbilddaten (die komprimierten Bilddaten 130A), auf der Grundlage des Datentyps, der in den eingebetteten Daten 213A enthalten ist, die von der Nutzlast-Trenneinheit 213 eingegeben werden. Ferner gibt die EBD-Interpretationseinheit 214 das Bestimmungsergebnis an die ROI-Datentrenneinheit 215 aus. Des Weiteren gibt die EBD-Interpretationseinheit 214 die eingebetteten Daten einschließlich ROI-Informationen (die angeben, dass die Bilddaten des interessierenden Bereichs in den Nutzdaten enthalten sind) als EBD-Daten 214A an die Signalverarbeitungseinheit 40 (insbesondere eine Informationsextraktionseinheit 401) aus.
  • In einem Fall, in dem bestimmt wird, dass die Bilddaten, die in den Nutzdaten der Übertragungsdaten 147A enthalten sind, Bilddaten eines interessierenden Bereichs sind (die komprimierten Bilddaten 120A der Bilddaten 116), auf der Grundlage des Datentyp-Bestimmungsergebnisses von der EBD-Interpretationseinheit 214, gibt die ROI-Datentrenneinheit 215 jede Zeile der Nutzdaten als Nutzdaten 215A an die Signalverarbeitungseinheit 40 (insbesondere eine ROI-Decodiereinheit 402) für jede Zeile aus. Die Nutzdaten 215A schließen ROI-Pixelreihendaten ein, d. h. Pixeldaten für eine Zeile komprimierter Bilddaten 147B. Hier geben die ROI-Pixelreihendaten Bilddaten eines interessierenden Bereichs in Einheiten von Y-Achsenkoordinaten (in Einheiten von Pixelreihen) in einem erfassten Bild (zum Beispiel einem erfassten Bild α) an.
  • In der vorliegenden Ausführungsform wird zum Beispiel jede Zeile der Nutzdaten an die Videoempfangsvorrichtung 4 in Transaktionseinheiten übertragen, die einen Bilddaten-Frame bilden, der sich auf die von der Videoübertragungsvorrichtung 100 gesendeten Übertragungsdaten 147A bezieht. Sobald ein Header jeder Zeile der Nutzdaten des langen Pakets in der Header-Interpretationseinheit 212 der Empfangseinheit 210 erkannt wird, wird jede Zeile der Nutzdaten von einem Paket-Bereich R2 in der Nutzlast-Trenneinheit 213 getrennt, und die Nutzdaten 215A einschließlich eines Nutzlast-Header PH, ROI-Pixelreihendaten und eines Nutzlast-Footer PF jeder Zeile werden in der ROI-Datentrenneinheit 215 erzeugt.
  • Andererseits gibt in einem Fall, in dem die in den Nutzdaten enthaltenen Bilddaten die komprimierten Bilddaten 130A sind, die Normalbilddaten sind, die ROI-Datentrenneinheit 215 die Nutzdaten an die erste Informationsverarbeitungseinheit 230a (insbesondere eine Normalbild-Decodiereinheit 236) als Nutzdaten 215B aus. Zusätzlich gibt die ROI-Datentrenneinheit 215 das von der EBD-Interpretationseinheit 214 eingegebene Datentyp-Bestimmungsergebnis (das Bestimmungsergebnis, das angibt, dass die Bilddaten Normalbilddaten sind) an die Signalverarbeitungseinheit 40 (insbesondere eine Normalbild-Koordinaten-Informationserzeugungseinheit 404) aus.
  • Die Signalverarbeitungseinheit 40 ist konfiguriert, um eine Funktion zu implementieren, die äquivalent zu derjenigen der Informationsverarbeitungseinheit 220 der Videoempfangsvorrichtung 200 gemäß den oben beschriebenen zugrundeliegenden Technologien 1 und 2 ist. Das heißt, die Signalverarbeitungseinheit 40 ist eine Schaltung, die ROI-Bild 223A auf der Grundlage der verschiedenen Datenelemente (214A und 215A) erzeugt, die von der Empfangseinheit 210 empfangen werden, und die ein Normalbild 224A auf der Grundlage der empfangenen Daten (215B), die von der Empfangseinheit 210 empfangen werden, erzeugt.
  • Die Signalverarbeitungseinheit 40 ist eine Schaltung, welche die Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs auf der Grundlage von Koordinateninformationen des interessierenden Bereichs durchführt, die aus ROI-Informationen entsprechend dem aus eingebetteten Daten extrahierten interessierenden Bereich (ROI) extrahiert wurden. Des Weiteren führt die Signalverarbeitungseinheit 40 auch die Schattierungskorrekturverarbeitung an Normalbilddaten (Nutzdaten 215B) durch.
  • Die Signalverarbeitungseinheit 40 schließt eine Informationsextraktionseinheit 401, eine ROI-Decodiereinheit 402, eine ROI-Bilderzeugungseinheit 403 und eine Korrekturverarbeitungseinheit 410 als Komponenten ein, die sich auf die Schattierungskorrekturverarbeitung für Bilddaten eines interessierenden Bereichs beziehen. Zuerst werden diese Komponenten zum Durchführen der Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs beschrieben.
  • Die Informationsextraktionseinheit 401, die in der Signalverarbeitungseinheit 40 enthalten ist, extrahiert die ROI-Informationen 120B aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind. Die ROI-Informationen 120B schließen Informationen (Koordinateninformationen) von relativen Koordinaten eines interessierenden Bereichs in einem erfassten Bild als Positionsinformationen ein. Des Weiteren schließen die ROI-Informationen 120B die Größen eines interessierenden Bereichs ROI in X-Achsenrichtung und Y-Achsenrichtung als Größeninformationen ein.
  • Insbesondere extrahiert die Informationsextraktionseinheit 401 mindestens die Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs ROI als die Koordinateninformationen des interessierenden Bereichs aus den Positionsinformationen der ROI-Informationen 120B. In diesem Beispiel schließen die ROI-Informationen 120B bezüglich der interessierenden Bereiche ROIO bis ROI2 in dem erfassten Bild α die Positionsinformationen und die Größeninformationen von jedem der drei interessierenden Bereiche ROIO bis ROI2 ein. Daher extrahiert die Informationsextraktionseinheit 401 die Startpunktkoordinaten von jedem der drei interessierenden Bereiche ROIO bis ROI2 in dem erfassten Bild α als die Koordinateninformationen und extrahiert die Längen von jedem der interessierenden Bereiche ROIO bis ROI2 in X-Achsenrichtung und Y-Achsenrichtung als Größeninformation.
  • Es ist zu beachten, dass die Positionsinformationen der ROI-Informationen 120B nicht auf die Koordinaten (Startpunktkoordinaten) des oberen linken Endabschnitts des interessierenden Bereichs ROI beschränkt sind und Koordinaten (Endpunktkoordinaten) des unteren rechten Endabschnitts des interessierenden Bereichs einschließen können. Die Positionsinformationen in der vorliegenden Offenbarung können Koordinaten sein, die eine von vier Ecken in einem Fall angeben, in dem der interessierende Bereich eine rechteckige Form aufweist.
  • Die Informationsextraktionseinheit 401 erzeugt die Y-Koordinaten-Reihenfolgedaten und die X-Koordinaten-Reihenfolgedaten in der ersten Ausführungsform aus den extrahierten ROI-Informationen (den Koordinateninformationen und den Größeninformationen) und gibt die Y-Koordinaten-Reihenfolgedaten und die X-Koordinaten-Reihenfolgedaten an die Korrekturverarbeitungseinheit 410 (insbesondere eine ROI-Bildkoordinaten-Informationserzeugungseinheit 411) und die ROI-Bilderzeugungseinheit 403 aus. Sobald Elemente von Koordinateninformationen für eine Vielzahl von interessierenden Bereichen aus den ROI-Informationen 120B extrahiert sind, ordnet die Informationsextraktionseinheit 401 die extrahierten Elemente von Koordinateninformationen in den zugehörigen interessierenden Bereichen in aufsteigender Reihenfolge der Werte der Y-Koordinaten der Startpunktkoordinaten (die Pixelkoordinaten der oberen linken Endabschnitte der interessierenden Bereiche) neu an, um die Y-Koordinaten-Reihenfolgedaten zu erzeugen. Die Y-Koordinaten-Reihenfolgedaten schließen Endpunkt-Y-Koordinaten (Pixelkoordinaten der unteren rechten Endabschnitte der interessierenden Bereiche) ein, die aus den Y-Koordinaten der Startpunktkoordinaten und der Anzahl von Pixeln berechnet werden, welche die Größe in Y-Achsenrichtung angeben.
  • Des Weiteren schließen die X-Koordinaten-Reihenfolgedaten Endpunkt-X-Koordinaten (Pixelkoordinaten der rechten Endabschnitte der jeweiligen Pixelreihen der interessierenden Bereiche) ein, die aus den X-Koordinaten der Startpunktkoordinaten und der Anzahl von Pixeln berechnet werden, welche die Größe in X-Achsenrichtung angeben. Darüber hinaus können die X-Koordinaten-Reihenfolgedaten die Y-Koordinaten der Startpunktkoordinaten und die Endpunkt-Y-Koordinaten einschließen, die in den Y-Koordinaten-Reihenfolgedaten enthalten sind.
  • Die ROI-Decodiereinheit 402 decodiert die ROI-Pixelreihendaten (komprimierte Bilddaten 147B) in den Nutzdaten 215A, die von der ROI-Datentrenneinheit 215 eingegeben werden, um die ROI-decodierten Bilddaten 232A zu erzeugen. Die ROI-Decodiereinheit 402 gibt die erzeugten ROI-decodierten Bilddaten 232A an die ROI-Bilderzeugungseinheit 403 aus.
  • Die ROI-Bilderzeugungseinheit 403 gibt Bilddaten eines interessierenden Bereichs an die Korrekturverarbeitungseinheit 410 (insbesondere eine Bilddatenauswahleinheit 414) in Einheiten von Nutzdaten auf der Grundlage der Y-Koordinaten-Reihenfolgedaten und der X-Koordinaten-Reihenfolgedaten aus. Insbesondere teilt die ROI-Bilderzeugungseinheit 403 die ROI-Pixelreihendaten in den Nutzdaten 215A für jeden interessierenden Bereich auf der Grundlage der Y-Koordinaten-Reihenfolgedaten und der X-Koordinaten-Reihenfolgedaten ein und gibt die unterteilten ROI-Pixelreihendaten an die Korrekturverarbeitungseinheit 410 aus.
  • (Korrekturverarbeitungseinheit)
  • Die Korrekturverarbeitungseinheit 410 in der Signalverarbeitungseinheit 40 der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform führt die Schattierungskorrekturverarbeitung basierend auf dem oben beschriebenen Prinzip durch. Die Korrekturverarbeitungseinheit 410 führt die Schattierungskorrekturverarbeitung an den Bilddaten eines interessierenden Bereichs auf der Grundlage von Koordinateninformationen des interessierenden Bereichs durch, die aus den ROI-Informationen extrahiert wurden. Die Korrekturverarbeitungseinheit 410 erzeugt die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs in dem erfassten Bild auf der Grundlage von Koordinaten (Startpunktkoordinaten) des oberen linken Endabschnitts des interessierenden Bereichs und verstärkt eine Luminanz für jedes Pixel der Bilddaten des interessierenden Bereichs auf der Grundlage der erzeugten Koordinaten jedes Pixel. Als Ergebnis wird die Schattierungskorrektur an den Bilddaten des interessierenden Bereichs durchgeführt. Die Korrekturverarbeitungseinheit 410 schließt die ROI-Bildkoordinaten-Informationserzeugungseinheit 411, eine Koordinateninformation-Auswahleinheit 412, einen Korrekturwerttabellen-RAM 413, die Bilddaten-Auswahleinheit 414 und eine Korrektureinheit 415 ein. Der Korrekturwerttabellen-RAM 413 hält Schattierungskorrekturwerte, die für die Schattierungskorrekturverarbeitung verwendet werden. Die Korrekturverarbeitungseinheit 410 führt jede Verarbeitung bezüglich der Schattierungskorrekturverarbeitung mit diesen Komponenten durch.
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 in der Korrekturverarbeitungseinheit 410 der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform ist eine äquivalente Komponente zu der ROI-Bildkoordinaten-Informationserzeugungseinheit 311, die in der Korrekturschaltung 301 der Videoübertragungsvorrichtung 3 gemäß der ersten Ausführungsform eingeschlossen ist. Das heißt, die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 erzeugt relative Koordinaten (Pixelkoordinaten) jedes Pixels von Bilddaten eines geschnittenen interessierenden Bereichs (ROI).
  • In der vorliegenden Ausführungsform erzeugt die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 die Pixelkoordinaten der Bilddaten des interessierenden Bereichs unter Verwendung eines Zählers, ähnlich der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 in der ersten Ausführungsform. In der vorliegenden Ausführungsform schließt die Korrekturverarbeitungseinheit 410 eine Zählereinheit ein, die für verschiedene Arten von Messverarbeitung verwendet wird. In der vorliegenden Ausführungsform schließt die Korrekturverarbeitungseinheit 410 einen horizontalen Zähler Xct und einen vertikalen Zähler Yct als die Zählereinheiten ein.
  • Der horizontale Zähler Xct misst die X-Koordinaten des interessierenden Bereichs in dem erfassten Bild, beginnend mit den Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs (die Pixelkoordinaten des oberen linken Endabschnitts). Des Weiteren misst der vertikale Zähler Yct die Y-Koordinaten des interessierenden Bereichs in dem erfassten Bild, beginnend mit den Koordinaten des oberen linken Endabschnitts des interessierenden Bereichs (die Pixelkoordinaten des oberen linken Endabschnitts). Es ist zu beachten, dass der horizontale Zähler Xct und der vertikale Zähler Yct in der Korrekturverarbeitungseinheit 410 der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform äquivalente Komponenten zu dem horizontalen Zähler Xct und dem vertikalen Zähler Yct in der Korrekturschaltung 301 der Videoübertragungsvorrichtung 3 gemäß der ersten Ausführungsform sind und somit mit den gleichen Bezugszeichen bezeichnet sind, weshalb eine ausführliche Beschreibung davon weggelassen wird. Die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 erzeugt die Koordinaten jedes Pixels der Bilddaten des interessierenden Bereichs unter Verwendung des horizontalen Zählers Xct und des vertikalen Zählers Yct. Hier ist die von der ROI-Bildkoordinaten-Informationserzeugungseinheit 411 durchgeführte Pixelkoordinaten-Erzeugungsverarbeitung äquivalent zu der Pixelkoordinaten-Erzeugungsverarbeitung (siehe 17), die von der ROI-Bildkoordinaten-Informationserzeugungseinheit 311 der Korrekturschaltung 301 der Korrekturschaltung 301 in der ersten Ausführungsform durchgeführt wird. Daher wird eine ausführliche Beschreibung davon weggelassen. Die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 führt die Pixelkoordinaten-Erzeugungsverarbeitung unter Verwendung der X-Koordinaten-Reihenfolgedaten und der Y-Koordinaten-Reihenfolgedaten durch, die von der Informationsextraktionseinheit 401 anstelle der Interessierender-Bereich-Kennzeichnungsinformationen 90A der Pixelkoordinaten-Erzeugungsverarbeitung eingegeben werden.
  • Das heißt, die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 erzeugt die Pixelkoordinaten unter Verwendung mindestens der Koordinaten (Startpunktkoordinaten) des oberen linken Endabschnitts des interessierenden Bereichs als die Koordinateninformation. Spezifischer erzeugt die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 die Pixelkoordinaten der Bilddaten des interessierenden Bereichs auf der Grundlage der Y-Koordinaten-Reihenfolgedaten und der X-Koordinaten-Reihenfolgedaten, die von der Informationsextraktionseinheit 401 unter Verwendung der Startpunktkoordinaten und der Größeninformationen des interessierenden Bereichs erzeugt werden.
  • Die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 gibt die erzeugten Pixelkoordinaten jedes Mal, wenn die Pixelkoordinaten erzeugt werden, an die Koordinateninformation-Auswahleinheit 412 aus. Sobald die Pixelkoordinaten eingegeben wurden, spezifiziert die Koordinateninformation-Auswahleinheit 412 einen Blockbereich Br (siehe 15) in dem erfassten Bild, zu dem die eingegebenen Pixelkoordinaten gehören. Sobald eine dem spezifizierten Blockbereich Br zugeordnete Korrekturwerttabelle t1 abgeleitet ist, entnimmt die Koordinateninformation-Auswahleinheit 412 eine Schattierungskorrektur, die in einem Adressbereich gehalten wird, die aus der Korrekturwerttabelle t1 abgeleitet ist, und gibt die Schattierungskorrektur an die Korrektureinheit 413 aus.
  • Die in der Korrekturverarbeitungseinheit 410 der Signalverarbeitungseinheit 40 enthaltene Korrektureinheit 415 verstärkt die Luminanz der Bilddaten des interessierenden Bereichs (ROI) unter Verwendung des Schattierungskorrekturwerts, der aus der Korrekturwerttabelle t1 auf der Grundlage der Koordinateninformationen durch die Koordinateninformation-Auswahleinheit 412 entnommen wird. Insbesondere erzeugt in der Korrekturverarbeitungseinheit 410 die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 die Koordinaten (Pixelkoordinaten) jedes Pixels der Bilddaten des interessierenden Bereichs, die Koordinateninformation-Auswahleinheit 412 entnimmt den Schattierungskorrekturwert, der den Pixelkoordinaten aus der Korrekturwerttabelle t1 entspricht, und die Korrektureinheit 415 führt eine Empfindlichkeitsanpassung für jedes Pixel der Bilddaten des interessierenden Bereichs unter Verwendung des entnommenen Schattierungskorrekturwerts durch.
  • Die Korrektureinheit 415 multipliziert die Bilddaten jedes Pixels des interessierenden Bereichs, die von der Bilddaten-Auswahleinheit 414 eingegeben werden, mit dem Schattierungskorrekturwert, der von der Koordinateninformation-Auswahleinheit 412 eingegeben wird, um die Luminanz zu verstärken. Die Bilddaten-Auswahleinheit 414 unterteilt die Bilddaten jedes interessierenden Bereichs, die von der ROI-Bilderzeugungseinheit 403 eingegeben werden, in Einheiten von Pixeln und gibt die unterteilten Bilddaten an die Korrektureinheit 415 aus. Die Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform führt jede Verarbeitung in der Vorrichtung synchron mit einem vorbestimmten Taktsignal durch. Daher können Verarbeitungen, die von den jeweiligen Komponenten durchgeführt werden, zusammen (zum Beispiel synchron) miteinander erfolgen, indem die Verarbeitungen auf der Grundlage des Taktsignals durchgeführt werden. Die Bilddaten-Auswahleinheit 414 gibt Bilddaten eines interessierenden Bereichs an die Korrektureinheit 415 zum Beispiel in Einheiten von Pixeln synchron mit dem oben beschriebenen Taktsignal aus. Ferner gibt die Koordinateninformation-Auswahleinheit 412 den Schattierungskorrekturwert zum Beispiel synchron mit dem oben beschriebenen Taktsignal an die Korrektureinheit 415 aus.
  • Wie oben beschrieben, verstärkt in der Korrekturverarbeitungseinheit 410 der Signalverarbeitungseinheit 40 die Korrektureinheit 415 die Luminanz der Bilddaten des interessierenden Bereichs in Einheiten von Pixeln, die von der Bilddaten-Auswahleinheit 414 eingegeben werden. Als Ergebnis kann die Korrektureinheit 415 die Luminanz von Bilddaten jedes Pixels eines interessierenden Bereichs auf der Grundlage des Schattierungskorrekturwerts verstärken, der dem Bereich in dem erfassten Bild entspricht. Daher kann die Videoempfangsvorrichtung 4 einschließlich der Korrektureinheit 415 die Luminanz der Bilddaten des interessierenden Bereichs um einen Grad entsprechend dem Bereich in dem erfassten Bild durch Schattierungskorrekturverarbeitung verstärken, um die Luminanz gleichmäßig zu machen.
  • Als nächstes wird eine Konfiguration bezüglich einer Schattierungskorrekturverarbeitung für ein Normalbild in der Signalverarbeitungseinheit 40 beschrieben. Die Signalverarbeitungseinheit 40 schließt die Normalbild-Koordinateninformation-Erzeugungseinheit 404, eine Normalbild-Decodiereinheit 405 und eine Normalbild-Erzeugungseinheit 406 als Komponenten zum Durchführen einer Verarbeitung in Bezug auf ein Normalbild ein.
  • Die Normalbild-Decodiereinheit 405 decodiert die Nutzdaten 215B, die von der ROI-Datentrenneinheit 215 eingegeben werden, und erzeugt ein Normalbild 405A. Die Normalbild-Decodiereinheit 405 gibt das Normalbild 405A an die Normalbild-Erzeugungseinheit 406 aus. Des Weiteren erzeugt die Normalbild-Koordinateninformation-Erzeugungseinheit 404 Koordinaten (Pixelkoordinaten) in Einheiten von Pixeln für Normalbilddaten auf der Grundlage des Eingebens des Bestimmungsergebnisses, das angibt, dass die in den Nutzdaten enthaltenen Bilddaten die Normalbilddaten (die Nutzdaten 215b einschließlich der Daten des Normalbildes wurden an die Normalbild-Decodiereinheit 405 ausgegeben) von der ROI-Datentrenneinheit 215 sind, und gibt die Koordinaten an die Koordinateninformation-Auswahleinheit 412 aus. Die Normalbild-Koordinateninformation-Erzeugungseinheit 404 erzeugt zum Beispiel hintereinander jede Pixelkoordinate vom Ursprung α_o (0,0) des erfassten Bildes α (siehe 13) bis zu den Koordinaten des Pixel am unteren rechten Endabschnitt (Endpunkt) des erfassten Bildes α und gibt die erzeugten Koordinaten an die Koordinateninformation-Auswahleinheit 412 zu einem Zeitpunkt aus, der mit dem Taktsignal synchronisiert ist.
  • Sobald die Pixelkoordinaten von der Normalbild-Koordinateninformation-Erzeugungseinheit 404 eingegeben wurden, spezifiziert die Koordinateninformation-Auswahleinheit 412 einen Blockbereich Br (siehe 15) in dem erfassten Bild, zu dem die eingegebenen Pixelkoordinaten gehören, und leitet einen Adresswert ab, der dem spezifizierten Blockbereich Br zugeordnet ist, ähnlich einem Fall, in dem die Pixelkoordinaten von der ROI-Bildkoordinaten-Informationserzeugungseinheit 411 eingegeben werden. Darüber hinaus entnimmt die Koordinateninformation-Auswahleinheit 412 eine Schattierungskorrektur, die in einem Adressbereich gehalten wird, der dem abgeleiteten Adresswert zugeordnet ist, und gibt die Schattierungskorrektur an die Korrektureinheit 413 aus. Dadurch kann die Videoempfangsvorrichtung 4 die Schattierungskorrektur auch an den Daten des Normalbildes auf der Grundlage der Schattierungskorrektur, die in der Korrekturwerttabelle t1 gehalten wird, durchführen, und die Luminanz der Daten des Normalbildes bis zu einem Grad verstärken, der dem Bereich in dem erfassten Bild entspricht, wodurch die Luminanz gleichmäßig gemacht wird.
  • Es ist zu beachten, dass auch in der Videoübertragungsvorrichtung 3 gemäß der ersten Ausführungsform ähnlich der Videoempfangsvorrichtung 4 die Schattierungskorrektur an den Daten des Normalbildes auf der Grundlage der in der Korrekturwerttabelle t1 gehaltenen Schattierungskorrektur durchgeführt werden kann. In diesem Fall kann die Bildverarbeitungsschaltung 300 äquivalente Komponenten zu der Normalbild-Koordinateninformation-Erzeugungseinheit 404 und der Koordinateninformation-Auswahleinheit 412 einschließen.
  • Die Korrektureinheit 415 gibt die der Schattierungskorrekturverarbeitung unterzogenen Bilddaten (die Bilddaten des interessierenden Bereichs oder die Bilddaten des Normalbildes) als korrigierte Bilddaten 415A aus.
  • (Schattierungskorrektur-Verarbeitungsverfahren in der Empfangsvorrichtung)
  • Als nächstes wird ein Schattierungskorrektur-Verarbeitungsverfahren in der Übertragungsvorrichtung, der Empfangsvorrichtung und dem Übertragungssystem gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 20 unter gleichzeitiger Bezugnahme auf 13 bis 19 beschrieben. 20 ist ein Flussdiagramm, das ein Beispiel eines Ablaufs eines Schattierungskorrektur-Verarbeitungsverfahren in der Empfangsvorrichtung, der Übertragungsvorrichtung und dem Übertragungssystem veranschaulicht, das die Schattierungskorrektur gemäß der vorliegenden Ausführungsform durchführen kann.
  • Sobald das Videoübertragungssystem 20 aktiviert ist und ein Frame-Startauslöser eingegeben ist, geht eine Signalverarbeitungseinheit 40 (eine CamCPU in der Zeichnung), die in der Videoempfangsvorrichtung 4 enthalten ist, zu Schritt S40.
  • (Schritt S40)
  • Sobald das Videoübertragungssystem 10 aktiviert ist und ein Frame-Startauslöser eingegeben ist, bestimmt die in der Videoempfangsvorrichtung 200 enthaltene Signalverarbeitungseinheit 40 (die CamCPU in der Zeichnung) eine Schnittposition, an der ein Bild (ein interessierender Bereich) aus einem erfassten Bild der Abbildungseinheit 110 (siehe 2) der Videoübertragungsvorrichtung 100 geschnitten wird und beendet die Schnittposition-Bestimmungsverarbeitung. Insbesondere sendet die CamCPU, sobald die Schnittposition bestimmt ist, ein Steuersignal zum Anweisen des Schneidens. Das Steuersignal wird von der Videoempfangsvorrichtung 4 an die Videoübertragungsvorrichtung 100 durch Kommunikation unter Verwendung von Hardware (HW) unter Verwendung von MIPI übertragen.
  • (Schritt S11)
  • Sobald ein Schnittposition-Kennzeichnungsauslöser erkannt wird, entnimmt die Bildverarbeitungseinheit 120 (eine Sensor-CPU in der Zeichnung), die in der Videoübertragungsvorrichtung 100 enthalten ist, die Schnittposition und die Größe in dem erfassten Bild der Abbildungseinheit 110 und geht zu Schritt S12. Insbesondere entnimmt die ROI-Schneideinheit 121 die Positionsinformationen (die Koordinateninformationen des interessierenden Bereichs) und die Größeninformationen (die Größen in X-Achsenrichtung und Y-Achsenrichtung) von dem Steuersignal.
  • (Schritt S12)
  • Die Bildverarbeitungseinheit 120 bestimmt durch die ROI-Schneideinheit 121 die Schnittposition, an welcher der interessierende Bereich in dem erfassten Bild auf der Grundlage des Steuersignals geschnitten wird, und geht zu Schritt S13. Sobald die Schnittposition bestimmt ist, schneidet die ROI-Schneideeinheit 121 die Bilddaten des interessierenden Bereichs aus dem erfassten Bild und gibt die Bilddaten an die Codiereinheit 125 aus.
  • (Schritt S13)
  • Die Bildverarbeitungseinheit 120 erzeugt durch die Bildverarbeitungssteuereinheit 126 die ROI-Informationen, in denen die Positionsinformationen (Koordinateninformationen) und die Größeninformationen (die Größen in X-Achsenrichtung und Y-Achsenrichtung) des interessierenden Bereichs enthalten sind von Interesse eingestellt sind, und gibt die ROI-Informationen an die Übertragungseinheit 140 (insbesondere den EBD-Puffer 144) aus. Zusätzlich gibt die Bildverarbeitungseinheit 120 durch die Codiereinheit 125 die komprimierten Bilddaten 120A, die durch Komprimieren der Bilddaten des interessierenden Bereichs an die Übertragungseinheit 140 (insbesondere den ROI-Datenpuffer 145) aus. Als Ergebnis erzeugt die Kombinationseinheit 147 der Übertragungseinheit 140 als die Übertragungsdaten 147A die eingebetteten Daten einschließlich der ROI-Informationen und der Nutzdaten einschließlich der Bilddaten des interessierenden Bereichs. Die erzeugten Übertragungsdaten 147A werden durch die Videoempfangsvorrichtung 200 durch Kommunikation unter Verwendung von Hardware (HW) unter Verwendung von MIPI übertragen.
  • Die Videoempfangsvorrichtung 4 startet durch die Signalverarbeitungseinheit 40 die Verarbeitung von Schritt S61 zu einem Zeitpunkt, zu dem die eingebetteten Daten von der EBD-Interpretationseinheit 214 als ein Auslöser in die Informationsextraktionseinheit 401 eingegeben werden.
  • (Schritt S41)
  • Die Videoempfangsvorrichtung 4 extrahiert durch 401 der Signalverarbeitungseinheit 40 die ROI-Informationen 120B aus den eingebetteten Daten, die in den EBD-Daten 214A enthalten sind, extrahiert ferner die Positionsinformationen (Koordinateninformationen) und die Größeninformationen (die Größen in X -Achsenrichtung und Y-Achsenrichtung) des interessierenden Bereichs aus den ROI-Informationen 120B und geht zu Schritt S42. Die Informationsextraktionseinheit 401 erzeugt die Y-Koordinaten-Reihenfolgedaten und die X-Koordinaten-Reihenfolgedaten aus den extrahierten ROI-Informationen (den Koordinateninformationen und den Größeninformationen) und gibt die Y-Koordinaten-Reihenfolgedaten und die X-Koordinaten-Reihenfolgedaten an die Korrekturverarbeitungseinheit 410 aus.
  • (Schritt S42)
  • Die Videoempfangsvorrichtung 4 erzeugt durch die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 der Korrekturverarbeitungseinheit 410 die Pixelkoordinaten der Bilddaten des interessierenden Bereichs und geht zu Schritt S43. Die Koordinateninformation-Auswahleinheit 412 spezifiziert einen Blockbereich Br (siehe 15) in dem erfassten Bild, zu dem die Bilddaten jedes Pixels des interessierenden Bereichs gehören, auf der Grundlage der Pixelkoordinaten, die durch die ROI-Bildkoordinaten-Informationserzeugungseinheit 411 erzeugt werden. Sobald der Blockbereich Br spezifiziert ist, leitet die Koordinateninformation-Auswahleinheit 412 einen Adresswert der Korrekturwerttabelle t1 entsprechend dem Blockbereich Br ab. Die Koordinateninformation-Auswahleinheit 311 entnimmt einen Schattierungskorrekturwert aus einem Adressbereich As der Korrekturwerttabelle t1, die dem Adresswert zugeordnet ist, und gibt den Schattierungskorrekturwert an die Korrektureinheit 415 aus.
  • (Schritt S43)
  • Die Videoempfangsvorrichtung 4 führt durch die Korrektureinheit 415 der Korrekturverarbeitungseinheit 410 die Schattierungskorrektur an den Bilddaten des interessierenden Bereichs durch und geht zu Schritt S44. Insbesondere verstärkt die Korrektureinheit 415 die Luminanz der Bilddaten des interessierenden Bereichs in Einheiten von Pixeln, die von der Bilddaten-Auswahleinheit 414 eingegeben werden, unter Verwendung des Schattierungskorrekturwerts, der von der Koordinateninformation-Auswahleinheit 412 eingegeben wird.
  • (Schritt S44)
  • Die Videoempfangsvorrichtung 4 bestimmt, durch die Korrekturverarbeitungseinheit 410, ob die Schattierungskorrektur für die Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild durch die Korrektureinheit 415 abgeschlossen wurde oder nicht. Insbesondere bestimmt die Korrekturverarbeitungseinheit 410, ob die Schattierungskorrektur für alle interessierenden Bereiche abhängig davon abgeschlossen wurde oder nicht, ob die Erzeugung der Pixelkoordinaten aller interessierenden Bereiche in der ROI-Bildkoordinaten-Informationserzeugungseinheit 411 beendet ist oder nicht. In einem Fall, in dem die Pixelkoordinaten der Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild erzeugt worden sind (NEIN in Schritt S111), bestimmt die Korrekturverarbeitungseinheit 410, dass die Schattierungskorrektur für Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild abgeschlossen wurde und beendet die Schattierungskorrekturverarbeitung. Andererseits bestimmt die Korrekturverarbeitungseinheit 410 in einem Fall, in dem die Pixelkoordinaten der Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild nicht erzeugt wurden (JA in Schritt S111), dass die Schattierungskorrektur für die Bilddatenelemente aller interessierenden Bereiche in dem erfassten Bild nicht abgeschlossen wurde, und kehrt zu Schritt S42 zurück.
  • Wie oben beschrieben, werden, sobald die Schattierungskorrekturverarbeitung der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform durchgeführt ist, die Bilddaten (korrigierte Bilddaten 415A) des interessierenden Bereichs, die der Schattierungskorrektur unterzogen wurden, an die Korrektureinheit 415 ausgegeben. Daher kann die Videoempfangsvorrichtung 4 die Bilddaten des interessierenden Bereichs, die der Schattierungskorrektur in der nachfolgenden Verarbeitung (zum Beispiel Anzeige der Bilddaten des interessierenden Bereichs auf einer vorbestimmten Anzeigevorrichtung (nicht veranschaulicht))unterzogen werden, verwenden.
  • Das Übertragungssystem 20, das die Schattierungskorrekturverarbeitung in der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform durchführt, wurde oben beschrieben. In der vorliegenden Ausführungsform schließt die in dem Übertragungssystem 20 enthaltene Videoempfangsvorrichtung 4 die Empfangseinheit 210, die ein Übertragungssignal empfängt, in dem Bilddaten eines interessierenden Bereichs (ROI), die aus einem vorbestimmten erfassten Bild ausgeschnitten sind, in Nutzdaten eingeschlossen werden, und
  • ROI-Informationen, die dem interessierenden Bereich entsprechen, werden in die eingebetteten Daten eingeschlossen, und die Signalverarbeitungseinheit 40, welche die Schattierungskorrekturverarbeitung an den Bilddaten des interessierenden Bereichs auf der Grundlage von Koordinateninformationen des interessierenden Bereichs durchführt, die aus den ROI-Informationen extrahiert wurden, ein. Daher kann die Videoempfangsvorrichtung 4 in dem Übertragungssystem 20 die Schattierungskorrekturverarbeitung an den Bilddaten des interessierenden Bereichs durchführen.
  • Die Signalverarbeitungseinheit 40 der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform ist als Hardware konfiguriert, welche die Schattierungskorrekturverarbeitung durchführen kann. Des Weiteren ist die Empfangseinheit 210 der Videoempfangsvorrichtung 4 gemäß der vorliegenden Ausführungsform als Hardware konfiguriert, die Übertragungsdaten 147A einschließlich der eingebetteten Daten und der Nutzdaten empfangen kann. Als Ergebnis kann die Videoempfangsvorrichtung 4 die Schattierungskorrekturverarbeitung und die Übertragungsverarbeitung für Bilddaten eines interessierenden Bereichs beschleunigen und die Anzahl von Bilddaten-Frames erhöhen, die pro Zeiteinheit in dem Übertragungssystem 20 verarbeitet werden. Das heißt, es ist möglich, die mit einer hohen Framerate durchgeführte Verarbeitung zu implementieren.
  • Obwohl die vorliegende Offenbarung oben unter Bezugnahme auf die zugrundeliegenden Technologien, die Ausführungsform und die modifizierten Beispiele davon beschrieben wurde, ist die vorliegende Offenbarung nicht auf die oben beschriebene Ausführungsform und dergleichen beschränkt, und es können verschiedene Modifikationen vorgenommen werden. Es sei zu beachten, dass die in der vorliegenden Patentschrift beschriebenen Wirkungen lediglich Beispiele sind. Die Wirkungen der vorliegenden Offenbarung sind nicht auf die hierin beschriebenen Wirkungen beschränkt. Die vorliegende Offenbarung kann andere Wirkungen als die hierin beschriebenen haben.
  • Darüber hinaus kann die vorliegende Offenbarung zum Beispiel die folgende Konfiguration aufweisen.
  • (1)
  • Eine Übertragungsvorrichtung, die Folgendes einschließt:
    • eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf der Grundlage von Koordinateninformationen des ROI durchführt; und
    • eine Übertragungseinheit, welche die Bilddaten des ROI, welcher der Schattierungskorrekturverarbeitung unterzogen wird, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet.
  • (2)
  • Die Übertragungsvorrichtung nach (1), wobei
    die Verarbeitungseinheit mindestens Koordinaten eines oberen linken Endabschnitts des ROI als die Koordinateninformationen des ROI verwendet.
  • (3)
  • Die Übertragungsvorrichtung nach (2), wobei
    die Verarbeitungseinheit
    Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild auf der Grundlage der Koordinaten des oberen linken Endabschnitts des ROI erzeugt und eine Luminanz für jedes Pixel der Bilddaten des ROI auf der Grundlage der erzeugten Koordinaten jedes Pixels verstärkt.
  • (4)
  • Die Übertragungsvorrichtung nach (3), die ferner einschließt:
    • einen ersten Zähler, der X-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI; und
    • einen zweiten Zähler, der Y-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI, wobei
    • die Verarbeitungseinheit
    • die Koordinaten jedes Pixels der Bilddaten des ROI unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  • (5)
  • Die Übertragungsvorrichtung nach (4), wobei
    Zählerwerte des ersten Zählers und des zweiten Zählers auf diskontinuierliche Werte aktualisierbar sind und
    die Verarbeitungseinheit Koordinaten jedes Pixels von Bilddaten einer Vielzahl von ROIs, die in dem erfassten Bild enthalten ist, unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  • (6)
  • Die Übertragungsvorrichtung nach einem von (1) bis (5), die ferner einschließt
    eine Korrekturwerttabelle, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, wobei
    die Verarbeitungseinheit eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf der Grundlage der Koordinateninformationen verstärkt.
  • (7)
  • Die Übertragungsvorrichtung nach (6), wobei
    die Verarbeitungseinheit den Korrekturwert entsprechend den Koordinaten jedes Pixels der Bilddaten des ROI aus der Korrekturwerttabelle erhält und eine Empfindlichkeitsanpassung für jedes Pixel der Bilddaten des ROI durchführt.
  • (8)
  • Ein Übertragungssystem, das Folgendes einschließt:
    • eine Übertragungsvorrichtung, die eine Verarbeitungseinheit einschließt, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf der Grundlage von Koordinateninformationen des ROI durchführt, und eine Übertragungseinheit, welche die Bilddaten des ROI, die der Schattierungskorrekturverarbeitung unterzogen werden, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet; und
    • eine Empfangsvorrichtung, die eine Empfangseinheit einschließt, die ein Übertragungssignal empfängt, in dem Bilddaten eines Bildes, das in dem ROI enthalten ist, in die Nutzdaten eingeschlossen werden und die ROI-Informationen in die eingebetteten Daten eingeschlossen werden.
  • (9)
  • Das Übertragungssystem nach (8), wobei
    die Übertragungsvorrichtung, durch die Verarbeitungseinheit, Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild als Koordinateninformationen auf der Grundlage von Koordinaten des oberen linken Endabschnitts des ROI erzeugt und eine Luminanz für jedes Pixel der erzeugten Bilddaten des ROI verstärkt.
  • (10)
  • Das Übertragungssystem nach (8) oder (9), wobei
    die Übertragungsvorrichtung eine Korrekturwerttabelle einschließt, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, und eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf der Grundlage der Koordinateninformationen verstärkt.
  • (11)
  • Eine Empfangsvorrichtung, die einschließt:
    • eine Empfangseinheit, die ein Übertragungssignal empfängt, in dem Bilddaten eines interessierenden Bereichs (ROI), die aus einem vorbestimmten erfassten Bild ausgeschnitten sind, in Nutzdaten eingeschlossen werden und ROI-Informationen, die dem ROI entsprechen, in eingebettete Daten eingeschlossen werden; und
    • eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an den Bilddaten des ROI auf der Grundlage von Koordinateninformationen des ROI durchführt, die aus den ROI-Informationen extrahiert wurden.
  • (12)
  • Die Empfangsvorrichtung nach (11), wobei die Verarbeitungseinheit mindestens Koordinaten eines oberen linken Endabschnitts des ROI aus den ROI-Informationen als die Koordinateninformationen des ROI extrahiert.
  • (13)
  • Die Empfangsvorrichtung nach (12), wobei
    die Verarbeitungseinheit Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild auf der Grundlage der Koordinaten des oberen linken Endabschnitts des ROI erzeugt und eine Luminanz für jedes Pixel der Bilddaten des ROI auf der Grundlage der erzeugten Koordinaten jedes Pixels verstärkt.
  • (14)
  • Die Empfangsvorrichtung nach (13), die ferner einschließt:
    • einen ersten Zähler, der X-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI; und
    • einen zweiten Zähler, der Y-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI, wobei
    • die Verarbeitungseinheit
    • die Koordinaten jedes Pixels der Bilddaten des ROI unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  • (15)
  • Die Empfangsvorrichtung nach (14), wobei
    Zählerwerte des ersten Zählers und des zweiten Zählers auf diskontinuierliche Werte aktualisierbar sind und
    die Verarbeitungseinheit Koordinaten jedes Pixels von Bilddaten einer Vielzahl von ROIs, die in dem erfassten Bild enthalten ist, unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  • (16)
  • Die Empfangsvorrichtung nach einem von (11) bis (15), die ferner einschließt
    eine Korrekturwerttabelle, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, wobei
    die Verarbeitungseinheit eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf der Grundlage der Koordinateninformationen verstärkt.
  • (17)
  • Die Empfangsvorrichtung nach (16), wobei
    die Verarbeitungseinheit den Korrekturwert entsprechend den Koordinaten jedes Pixels der Bilddaten des ROI aus der Korrekturwerttabelle erhält und eine Empfindlichkeitsanpassung für jedes Pixel der Bilddaten des ROI durchführt.
  • (18)
  • Ein Übertragungssystem, das Folgendes einschließt:
    • eine Übertragungsvorrichtung, die Bilddaten eines interessierenden Bereichs (ROI) als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet; und
    • eine Empfangsvorrichtung, die eine Empfangseinheit einschließt, die ein Übertragungssignal empfängt, in dem die Bilddaten des interessierenden Bereichs (ROI), der aus einem vorbestimmten erfassten Bild ausgeschnitten ist, in die Nutzdaten eingeschlossen werden und die ROI-Informationen, die dem ROI entsprechen, in eingebettete Daten eingeschlossen werden, und eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an den Bilddaten des ROI auf der Grundlage von Koordinateninformationen des ROI durchführt, die aus den ROI-Informationen extrahiert wurden.
  • (19)
  • Das Übertragungssystem nach (18), wobei
    die Empfangsvorrichtung, durch die Verarbeitungseinheit, mindestens Koordinaten eines oberen linken Endabschnitts des ROI aus den ROI-Informationen als Koordinateninformationen des ROI extrahiert, Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild als die Koordinateninformationen auf der Grundlage der extrahierten Koordinaten des oberen linken Endabschnitts erzeugt und eine Luminanz für jedes Pixel der erzeugten Bilddaten des ROI verstärkt.
  • (20)
  • Das Übertragungssystem nach (18) oder (19), wobei
    die Empfangsvorrichtung
    eine Korrekturwerttabelle einschließt, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, und, durch die Verarbeitungseinheit, eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf der Grundlage der Koordinateninformationen verstärkt wird.
  • Bezugszeichenliste
  • 1, 10, 20
    Videoübertragungssystem
    3, 100
    Videoübertragungsvorrichtung
    4, 200
    Videoempfangsvorrichtung
    110
    Abbildungseinheit
    42
    Bildverarbeitungseinheit
    100A
    CSI-Sender
    100B
    CCI-Slave
    111
    Erfasstes Bild
    112, 112a1, 112a2, 112a3, 112a4, 112b1, 112b4, 123a4, 223A
    ROI-Bild
    112b
    Komprimierte Bilddaten
    113, 114
    Positionsinformationen
    115
    Priorität
    116, 116a1, 116a2
    Übertragungsbild
    118
    Bild
    120, 130
    Bildverarbeitungseinheit
    120A, 120A1, 120A2, 130A, 147B
    Komprimierte Bilddaten
    120B
    ROI-Informationen
    120C
    Frame-Informationen
    121
    ROI-Schneideinheit
    122
    ROI-Analyseeinheit
    123
    Erkennungseinheit
    124
    Prioritätseinstelleinheit
    125, 131
    Codiereinheit
    126
    Bildverarbeitungssteuereinheit
    140
    Übertragungseinheit
    141
    LINK-Steuereinheit
    142
    ECC-Erzeugungseinheit
    143
    PH-Erzeugungseinheit
    145
    ROI-Datenpuffer
    144
    EBD-Puffer
    146
    Normalbild-Datenpuffer
    147
    Kombinationseinheit
    147A
    Übertragungsdaten
    200A
    CSI-Empfänger
    200B
    CCI-Master
    210
    Empfangseinheit
    211
    Header-Trenneinheit
    212
    Header-Interpretationseinheit
    213
    Nutzlast-Trenneinheit
    214
    EBD-Interpretationseinheit
    214A
    EBD-Daten
    215
    ROI-Datentrenneinheit
    215A, 215B
    Nutzdaten
    220
    Informationsverarbeitungseinheit
    221
    Informationsextraktionseinheit
    221A
    Extrahierte Informationen
    222
    ROI-Decodiereinheit
    222A
    Bilddaten
    223
    ROI-Bilderzeugungseinheit
    224
    Normalbild-Decodiereinheit
    224A
    Normalbild
    Cb
    Chrominanzkomponente
    CCI
    Kamera-Steuerungsschnittstelle
    CL
    Taktspur
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012209831 [0003]

Claims (20)

  1. Übertragungsvorrichtung, umfassend: eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf der Grundlage von Koordinateninformationen des ROI durchführt; und eine Übertragungseinheit, welche die Bilddaten des ROI, welcher der Schattierungskorrekturverarbeitung unterzogen wird, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet.
  2. Übertragungsvorrichtung nach Anspruch 1, wobei die Verarbeitungseinheit mindestens Koordinaten eines oberen linken Endabschnitts des ROI als die Koordinateninformationen des ROI verwendet.
  3. Übertragungsvorrichtung nach Anspruch 2, wobei die Verarbeitungseinheit Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild auf Grundlage der Koordinaten des oberen linken Endabschnitts des ROI erzeugt und eine Luminanz für jedes Pixel der Bilddaten des ROI auf Grundlage der erzeugten Koordinaten jedes Pixels verstärkt.
  4. Übertragungsvorrichtung nach Anspruch 3, ferner umfassend: einen ersten Zähler, der X-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI; und einen zweiten Zähler, der Y-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI, wobei die Verarbeitungseinheit die Koordinaten jedes Pixels der Bilddaten des ROI unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  5. Übertragungsvorrichtung nach Anspruch 4, wobei Zählerwerte des ersten Zählers und des zweiten Zählers auf diskontinuierliche Werte aktualisierbar sind und die Verarbeitungseinheit Koordinaten jedes Pixels von Bilddaten einer Vielzahl von ROIs, die in dem erfassten Bild enthalten ist, unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  6. Übertragungsvorrichtung nach Anspruch 1, ferner umfassend eine Korrekturwerttabelle, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, wobei die Verarbeitungseinheit eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf Grundlage der Koordinateninformationen verstärkt.
  7. Übertragungsvorrichtung nach Anspruch 6, wobei die Verarbeitungseinheit den Korrekturwert entsprechend den Koordinaten jedes Pixels der Bilddaten des ROI aus der Korrekturwerttabelle erhält und eine Empfindlichkeitsanpassung für jedes Pixel der Bilddaten des ROI durchführt.
  8. Übertragungssystem, umfassend: eine Übertragungsvorrichtung, die eine Verarbeitungseinheit einschließt, die eine Schattierungskorrekturverarbeitung an Bilddaten eines interessierenden Bereichs (ROI) in einem erfassten Bild auf Grundlage von Koordinateninformationen des ROI durchführt, und eine Übertragungseinheit, welche die Bilddaten des ROI, die der Schattierungskorrekturverarbeitung unterzogen werden, als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet; und eine Empfangsvorrichtung, die eine Empfangseinheit einschließt, die ein Übertragungssignal empfängt, in dem Bilddaten eines Bildes, das in dem ROI enthalten ist, in die Nutzdaten eingeschlossen werden und die ROI-Informationen in die eingebetteten Daten eingeschlossen werden.
  9. Übertragungssystem nach Anspruch 8, wobei die Übertragungsvorrichtung, durch die Verarbeitungseinheit, Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild als Koordinateninformationen auf Grundlage von Koordinaten des oberen linken Endabschnitts des ROI erzeugt und eine Luminanz für jedes Pixel der erzeugten Bilddaten des ROI verstärkt.
  10. Übertragungssystem nach Anspruch 8, wobei die Übertragungsvorrichtung eine Korrekturwerttabelle einschließt, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, und eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf Grundlage der Koordinateninformationen verstärkt.
  11. Empfangsvorrichtung, umfassend: eine Empfangseinheit, die ein Übertragungssignal empfängt, in dem Bilddaten eines interessierenden Bereichs (ROI), die aus einem vorbestimmten erfassten Bild ausgeschnitten sind, in Nutzdaten eingeschlossen werden und ROI-Informationen, die dem ROI entsprechen, in eingebettete Daten eingeschlossen werden; und eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an den Bilddaten des ROI auf Grundlage von Koordinateninformationen des ROI durchführt, die aus den ROI-Informationen extrahiert wurden.
  12. Empfangsvorrichtung nach Anspruch 11, wobei die Verarbeitungseinheit mindestens Koordinaten eines oberen linken Endabschnitts des ROI aus den ROI-Informationen als die Koordinateninformationen des ROI extrahiert.
  13. Empfangsvorrichtung nach Anspruch 12, wobei die Verarbeitungseinheit Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild auf Grundlage der Koordinaten des oberen linken Endabschnitts des ROI erzeugt und eine Luminanz für jedes Pixel der Bilddaten des ROI auf Grundlage der erzeugten Koordinaten jedes Pixels verstärkt.
  14. Empfangsvorrichtung nach Anspruch 13, ferner umfassend: einen ersten Zähler, der X-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI; und einen zweiten Zähler, der Y-Koordinaten des ROI in dem erfassten Bild misst, beginnend mit den Koordinaten des oberen linken Endabschnitts des ROI, wobei die Verarbeitungseinheit die Koordinaten jedes Pixels der Bilddaten des ROI unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  15. Empfangsvorrichtung nach Anspruch 14, wobei Zählerwerte des ersten Zählers und des zweiten Zählers auf diskontinuierliche Werte aktualisierbar sind und die Verarbeitungseinheit Koordinaten jedes Pixels von Bilddaten einer Vielzahl von ROIs, die in dem erfassten Bild enthalten ist, unter Verwendung des ersten Zählers und des zweiten Zählers erzeugt.
  16. Empfangsvorrichtung nach Anspruch 11, ferner umfassend eine Korrekturwerttabelle, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, wobei die Verarbeitungseinheit eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf Grundlage der Koordinateninformationen verstärkt.
  17. Empfangsvorrichtung nach Anspruch 16, wobei die Verarbeitungseinheit den Korrekturwert entsprechend den Koordinaten jedes Pixels der Bilddaten des ROI aus der Korrekturwerttabelle erhält und eine Empfindlichkeitsanpassung für jedes Pixel der Bilddaten des ROI durchführt.
  18. Übertragungssystem, umfassend: eine Übertragungsvorrichtung, die Bilddaten eines interessierenden Bereichs (ROI) als Nutzdaten sendet und ROI-Informationen als eingebettete Daten sendet; und eine Empfangsvorrichtung, die eine Empfangseinheit einschließt, die ein Übertragungssignal empfängt, in dem die Bilddaten des interessierenden Bereichs (ROI), der aus einem vorbestimmten erfassten Bild ausgeschnitten ist, in die Nutzdaten eingeschlossen werden und die ROI-Informationen, die dem ROI entsprechen, in die eingebetteten Daten eingeschlossen werden, und eine Verarbeitungseinheit, die eine Schattierungskorrekturverarbeitung an den Bilddaten des ROI auf Grundlage von Koordinateninformationen des ROI durchführt, die aus den ROI-Informationen extrahiert wurden.
  19. Übertragungssystem nach Anspruch 18, wobei die Empfangsvorrichtung, durch die Verarbeitungseinheit, mindestens Koordinaten eines oberen linken Endabschnitts des ROI aus den ROI-Informationen als Koordinateninformationen des ROI extrahiert, Koordinaten jedes Pixels der Bilddaten des ROI in dem erfassten Bild als die Koordinateninformationen auf Grundlage der extrahierten Koordinaten des oberen linken Endabschnitts erzeugt und eine Luminanz für jedes Pixel der erzeugten Bilddaten des ROI verstärkt.
  20. Übertragungssystem nach Anspruch 18, wobei die Empfangsvorrichtung eine Korrekturwerttabelle einschließt, in der ein für die Schattierungskorrekturverarbeitung verwendeter Korrekturwert gehalten wird, und, durch die Verarbeitungseinheit, eine Luminanz der Bilddaten des ROI unter Verwendung des aus der Korrekturwerttabelle erhaltenen Korrekturwerts auf Grundlage der Koordinateninformationen verstärkt.
DE112021001996.1T 2020-03-31 2021-03-09 Übertragungsvorrichtung, empfangsvorrichtung und übertragungssystem Pending DE112021001996T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-064353 2020-03-31
JP2020064353 2020-03-31
PCT/JP2021/009096 WO2021199944A1 (ja) 2020-03-31 2021-03-09 送信装置、受信装置及び伝送システム

Publications (1)

Publication Number Publication Date
DE112021001996T5 true DE112021001996T5 (de) 2023-02-02

Family

ID=77928570

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021001996.1T Pending DE112021001996T5 (de) 2020-03-31 2021-03-09 Übertragungsvorrichtung, empfangsvorrichtung und übertragungssystem

Country Status (5)

Country Link
US (1) US11900572B2 (de)
JP (1) JP7450704B2 (de)
CN (1) CN115299038A (de)
DE (1) DE112021001996T5 (de)
WO (1) WO2021199944A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118032176A (zh) * 2024-04-10 2024-05-14 国网山东省电力公司潍坊供电公司 一种巡检机器人用触觉传感器、感知方法及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209831A (ja) 2011-03-30 2012-10-25 Panasonic Corp 画像データ制御装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3273810B2 (ja) * 1992-07-30 2002-04-15 キヤノン株式会社 画像形成装置
JPH08321989A (ja) 1995-05-25 1996-12-03 Minolta Co Ltd 画像読取装置
JP4131052B2 (ja) * 1998-07-17 2008-08-13 ソニー株式会社 撮像装置
JP4228180B2 (ja) 2001-08-24 2009-02-25 富士フイルム株式会社 デジタルカメラ及びプリンタ
US7072490B2 (en) * 2002-11-22 2006-07-04 Digimarc Corporation Symmetry watermark
JP4863438B2 (ja) * 2004-09-10 2012-01-25 キヤノン株式会社 データ処理装置及び処理方法
US7859574B1 (en) * 2005-07-19 2010-12-28 Maxim Integrated Products, Inc. Integrated camera image signal processor and video encoder
WO2008015751A1 (en) * 2006-08-03 2008-02-07 Pioneer Corporation Image display device causing display means to display an image based on processed image data obtained by subjecting predetermined image data to a predetermined process, image processing device, image display control method, its program, and recording medium recorded by the program
JP5115497B2 (ja) * 2009-02-27 2013-01-09 富士通セミコンダクター株式会社 画像処理プログラム、画像処理装置および画像処理方法
JP2013106151A (ja) * 2011-11-11 2013-05-30 Canon Inc 画像処理装置及び画像処理方法
US11263829B2 (en) * 2012-01-02 2022-03-01 Digimarc Corporation Using a predicted color for both visibility evaluation and signal robustness evaluation
JP2013164834A (ja) 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP5700703B2 (ja) 2012-08-20 2015-04-15 日本電信電話株式会社 映像復号装置、映像送受信システム、映像復号方法及び映像送受信方法
US20150030258A1 (en) * 2013-07-26 2015-01-29 Qualcomm Incorporated System and method of corner noise reduction in an image
US9186909B1 (en) * 2014-09-26 2015-11-17 Intel Corporation Method and system of lens shading color correction using block matching
JP6604019B2 (ja) 2015-04-14 2019-11-13 ソニー株式会社 画像処理装置、画像処理方法、および画像処理システム
WO2018225449A1 (ja) 2017-06-09 2018-12-13 ソニーセミコンダクタソリューションズ株式会社 映像送信装置および映像受信装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209831A (ja) 2011-03-30 2012-10-25 Panasonic Corp 画像データ制御装置

Also Published As

Publication number Publication date
US11900572B2 (en) 2024-02-13
JP7450704B2 (ja) 2024-03-15
CN115299038A (zh) 2022-11-04
WO2021199944A1 (ja) 2021-10-07
US20230126368A1 (en) 2023-04-27
JPWO2021199944A1 (de) 2021-10-07

Similar Documents

Publication Publication Date Title
DE112009005418B4 (de) Bildverarbeitungsgerät
DE19983600B4 (de) Ein neuer Skalierungsalgorithmus für eine effiziente Farbdarstellung / Wiederherstellung bei Video
DE60221757T2 (de) Verfahren und Vorrichtung zur gleichzeitigen Entfernung des Mosaikeffekts und Grössenänderung von Rohbilddaten
DE10084276B4 (de) Ein verbesserter Lichtsensor mit einem erhöhten Dynamikbereich
DE4231158C5 (de) Verfahren und Einrichtung für die Zusammensetzung und Anzeige von Bildern
DE3804938A1 (de) Bildverarbeitungseinrichtung
DE112008001090T5 (de) Mehrformatvideoanzeige
DE102013113721A1 (de) Ein System, ein Verfahren und ein Computerprogrammprodukt, die eine Bildverarbeitungs-Pipeline für Bilder mit hoch dynamischem Bereich realisieren
DE102015111787A1 (de) Entschachteln eines verschachtelten Hoch-Dynamik-Bereich-Bildes mittels eines Benutzens von YUV-Interpolation
DE19919600A1 (de) Einrichtung und Verfahren zum Komprimieren von Bilddaten, die von einem Bildsensor empfangen werden, der ein Bayer-Muster aufweist
DE102016224166B3 (de) Head-Up-Display
DE10331292B3 (de) Vorrichtung und Verfahren zum Herstellen einer Schnittstelle zwischen einem Bildsensor und einem Bildprozessor
DE112020003638T5 (de) Sender, empfänger und kommunikationssystem
DE60038550T2 (de) Verfahren und Vorrichtung zur Farbbilddatenbearbeitung und Kompression
DE102010040273A1 (de) Bildabtastvorrichtung, Bildabtastverfahren, Bildanzeigesteuervorrichtung, Bildanzeigesteuerverfahren, Bildverarbeitungssystem und Computerprogramm
DE112019006340T5 (de) Kommunikationsvorrichtung, kommunikationsverfahren und programm
DE102021117548A1 (de) Bildsensormodul, bildverarbeitungssystem, und bildkomprimierungsverfahren
DE112021001996T5 (de) Übertragungsvorrichtung, empfangsvorrichtung und übertragungssystem
DE112020001290T5 (de) Videocodierungsverfahren mit Syntaxelementsignalisierung einer Guard-Band-Konfiguration eines projektionsbasierten Rahmens und dazugehörige Videodecodierungsverfahren und Vorrichtungen
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
DE102010026348A1 (de) Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem
JPH03227179A (ja) 画像データ処理装置
DE2816839C3 (de) Schaltungsanordnung zum Aufbereiten eines abgetasteten Musters
DE112016001914T5 (de) Anzeigesteuervorrichtung und Bilderfassungsvorrichtung
DE102017220083A1 (de) Abbildungsvorrichtung und bildverarbeitungssystem