DE102020128827A1 - Übertragung von Dateiinhalten als Teil eines Videostreams - Google Patents

Übertragung von Dateiinhalten als Teil eines Videostreams Download PDF

Info

Publication number
DE102020128827A1
DE102020128827A1 DE102020128827.1A DE102020128827A DE102020128827A1 DE 102020128827 A1 DE102020128827 A1 DE 102020128827A1 DE 102020128827 A DE102020128827 A DE 102020128827A DE 102020128827 A1 DE102020128827 A1 DE 102020128827A1
Authority
DE
Germany
Prior art keywords
video
processing unit
processing system
pixel
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020128827.1A
Other languages
English (en)
Inventor
Chup-Chung Wong
Thomas Sojan
Rodrigo Faria
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102020128827.1A priority Critical patent/DE102020128827A1/de
Priority to PCT/EP2021/079030 priority patent/WO2022096261A1/en
Publication of DE102020128827A1 publication Critical patent/DE102020128827A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1004Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's to protect a block of data words, e.g. CRC or checksum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1008Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's in individual solid state devices
    • G06F11/1048Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's in individual solid state devices using arrangements adapted for a specific error detection or correction feature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2352/00Parallel handling of streams of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Ein Videoverarbeitungssystem (2) weist eine Verarbeitungseinheit (7), eine Videoausgangsschnittstelle (10) und wenigstens eine Speicherschnittstelle (12, 14) auf. Die Verarbeitungseinheit (7) ist dazu eingerichtet ist, Dateiinhalte zu erhalten, erste Pixelwerte für ein erstes Pixel gemäß einem vordefinierten Farbraum basierend auf den Dateiinhalten zu bestimmen, wobei die ersten Pixelwerte eine Bitfolge der Dateiinhalte kodieren, und zweite Pixelwerte für ein zweites Pixel gemäß dem Farbraum unabhängig von dem Dateiinhalt zu bestimmen. Die Verarbeitungseinheit (7) ist dazu eingerichtet, ein Einzelbild für einen Videostream zu erzeugen, wobei das Einzelbild das erste Pixel innerhalb eines Bereichs von Interesse (22) des Einzelbildes und das zweite Pixel außerhalb des Bereichs von Interesse (22) enthält. Die Verarbeitungseinheit (7) ist dazu eingerichtet, den Videostream über die Videoausgangsschnittstelle (10) bereitzustellen.

Description

  • Die vorliegende Erfindung betrifft die Übertragung von Dateiinhalten durch ein Videoverarbeitungssystem, ein Kraftfahrzeug mit einem solchen Videoverarbeitungssystem und ein entsprechendes Verfahren zur Übertragung von Dateiinhalten als Teil eines Videostreams.
  • Elektronische Steuergeräte, ECUs, in Kraftfahrzeugen können Videostreams über eine Videoverbindung übertragen. Dabei kann ein erstes ECU entsprechende Bilddaten von einer Videoquelle, wie einer Kamera, oder von einem Speichermedium erhalten und einen entsprechenden Videostream an ein zweites ECU übermitteln, die beispielsweise einem Infotainment-ECU des Fahrzeugs entsprechen kann. Es kann auch wünschenswert sein, Dateien, insbesondere Binärdateien, die auf dem ersten ECU gespeichert sind, an das zweite ECU zu übertragen. Die Binärdatei kann zum Beispiel einem gespeicherten Video oder anderen Inhalten entsprechen.
  • Die unterschiedlichen ECUs eines Kraftfahrzeugs sind typischerweise über ein Fahrzeugnetzwerk oder ein Fahrzeug-Bus-System, wie etwa CAN, verbunden. Im Prinzip könnten die Dateiinhalte daher über das Fahrzeugnetzwerk übermittelt werden. Jedoch ist die Datenübertragungsrate über derartige Fahrzeugnetzwerke relativ niedrig, was zu einer inakzeptabel langen Übertragungszeit bei der Übertragung von großen Dateien führt. Alternativ könnte eine Ethernet-Verbindung zwischen den ECUs eingerichtet werden, um die Datenübertragungsrate zu verbessern. Allerdings bringt dies eine zusätzliche Komplexität des Systems sowie zusätzliche Kosten mit sich, was ebenfalls inakzeptabel sein kann.
  • Die US 2018/0333646 A1 beschreibt ein Verfahren zur Dateiübertragung über einen Videoport. Dabei erzeugt ein Sende-Computergerät eine Vielzahl von Bitmapbildern basierend auf der Datei und scannt die Bitmapbilder als Einzelbilder an den Videoport. Ein Empfänger-Computergerät empfängt die Video-Einzelbilder über einen Videoeingangsport und konvertiert jedes der Einzelbilder zurück in ein Bitmapbild mit einem Headerteil und einem Datenteil. Das Empfänger-Computergerät rekonstruiert die Datei basierend auf den rekonstruierten Bitmapbildern gemäß den Headerteilen.
  • Ein Nachteil dieser Herangehensweise besteht darin, dass die übermittelten Videoeinzelbilder, wenn sie auf einer Anzeige betrachtet werden, als Zufallsrauschen erscheinen. Einerseits beeinträchtigt dies das Nutzererlebnis, falls die Videoeinzelbilder dennoch angezeigt werden. Andererseits kann es wünschenswert sein, zusätzliche Informationen, beispielsweise einen Fortschritt der Dateiübertragung und so weiter, während der Dateiübertragung anzuzeigen.
  • Es ist daher Aufgabe der vorliegenden Erfindung, ein verbessertes Konzept für die Dateiübertragung über eine Videoverbindung bereitzustellen, welches eine Übertragung von Dateiinhalten und ein paralleles Anzeigen eines Videostreams mit reduzierten visuellen Störungen erlaubt.
  • Diese Aufgabe wird gelöst durch den jeweiligen Gegenstand der unabhängigen Ansprüche. Weitere Ausgestaltungen und bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
  • Das verbesserte Konzept beruht auf dem Gedanken, einen Teil der Dateiinhalte als Pixelwerte für ein erstes Pixel zu kodieren, welches sich in einem vordefinierten Bereich von Interesse eines Einzelbildes befindet.
  • Gemäß dem verbesserten Konzept wird ein Videoverarbeitungssystem zur Übertragung von Dateiinhalten bereitgestellt. Das Videoverarbeitungssystem weist eine Verarbeitungseinheit, eine Videoausgangsschnittstelle zum Koppeln der Verarbeitungseinheit mit einer Empfängereinheit und wenigstens eine Speicherschnittstelle zum Koppeln der Verarbeitungseinheit mit der wenigstens einen Speichereinheit auf. Die Verarbeitungseinheit ist dazu eingerichtet, die Dateiinhalte über die wenigstens eine Speicherschnittstelle, insbesondere von der wenigstens einen Speichereinheit, zu erhalten, wenn die Speichereinheit mit der Verarbeitungseinheit über die wenigstens eine Speicherschnittstelle gekoppelt ist. Die Verarbeitungseinheit ist dazu eingerichtet, erste Pixelwerte für ein erstes Pixel gemäß einem vordefinierten Farbraum basierend auf den Dateiinhalten zu bestimmen, wobei die ersten Pixelwerte eine Bitfolge der Dateiinhalte kodieren. Die Verarbeitungseinheit ist dazu eingerichtet, zweite Pixelwerte für ein zweites Pixel gemäß dem Farbraum unabhängig von den Dateiinhalten zu bestimmen. Die Verarbeitungseinheit ist dazu eingerichtet, ein Einzelbild für einen Videostream derart zu erzeugen, dass das Einzelbild das erste Pixel innerhalb eines vordefinierten Bereichs von Interesse des ersten Einzelbildes enthält und das Einzelbild das zweite Pixel außerhalb des Bereichs von Interesse enthält. Die Verarbeitungseinheit ist dazu eingerichtet, einen Videostream mit dem Einzelbild über die Videoausgangsschnittstelle, insbesondere an die Empfängereinheit bereitzustellen, wenn die Empfängereinheit mit der Verarbeitungseinheit über die Videoausgangsschnittstelle gekoppelt ist.
  • Das Videoverarbeitungssystem kann zum Beispiel als ein Videoverarbeitungssystem für ein Kraftfahrzeug ausgebildet sein. Mit anderen Worten kann das Videoverarbeitungssystem eine oder mehrere elektronische Steuergeräte, ECUs, aufweisen, wobei eine der ECUs zum Beispiel die Verarbeitungseinheit enthalten kann.
  • Die Verarbeitungseinheit kann zum Beispiel als einer oder mehrere integrierte Schaltkreise, Mikrocontroller, Ein-Chip-Systeme, SoCs, und so weiter ausgebildet sein oder diese enthalten. Die Empfängereinheit kann insbesondere Teil des Videoverarbeitungssystems sein oder extern zu dem Videoverarbeitungssystems sein. In manchen Ausführungen kann das Videoverarbeitungssystem die Empfängereinheit teilweise enthalten. Die Empfängereinheit kann als eine weitere Verarbeitungseinheit betrachtet werden und kann einen oder mehrere weitere integrierte Schaltkreise, Mikrocontroller, SoCs und so weiter enthalten. Die Empfängereinheit kann zum Beispiel von einem weiteren ECU des Fahrzeugs beinhaltet sein, zum Beispiel einem Infotainment-ECU. Zum Koppeln der Empfängereinheit mit der Verarbeitungseinheit über die Videoausgangsschnittstelle kann die Empfängereinheit eine entsprechende Videoeingangsschnittstelle aufweisen und die Videoausgangsschnittstelle kann mit der Videoeingangsschnittstelle gekoppelt oder verbunden sein, zum Beispiel über ein Koaxialkabel oder über eine andere Videoverbindung.
  • Die wenigstens eine Speichereinheit kann Teil des Videoverarbeitungssystems sein oder kann extern zu dem Videoverarbeitungssystem sein. Zum Beispiel kann die wenigstens eine Speichereinheit eine Flash-Speichereinheit, eine RAM-Speichereinheit, insbesondere ein DDR-RAM, eine Festplatte oder ein anderes Speichermedium enthalten.
  • Der vordefinierte Farbraum kann zum Beispiel durch eine Anzahl von Kanälen und eine entsprechende Bittiefe für jeden der Kanäle gekennzeichnet sein. Die Kanäle können zum Beispiel Farbkanälen, einem die Transparenz kennzeichnenden α-Kanal, und so weiter entsprechen. Im Falle eines Farbkanals kann die Bittiefe auch als Farbtiefe des entsprechenden Kanals bezeichnet werden. Pixelwerte gemäß dem Farbraum entsprechen daher einer jeweiligen Folge von Binärwerten oder einer Bitfolge mit einer Länge, die durch die entsprechende Bittiefe für jeden Kanal gegeben ist. Bei Betrachtung des Farbraums RGB888 beinhalten die Pixelwerte oder ein gegebenes Pixel beispielsweise jeweils acht Binärwerte für einen roten Farbkanal, einen grünen Farbkanal und einen blauen Farbkanal. Folglich kann jeder Pixel 24 Bit an Informationen tragen.
  • Die von den zweiten Pixelwerten gespeicherten Informationen werden dazu benutzt, zum Beispiel ausschließlich dazu benutzt, eine entsprechende Farbe und/oder Transparenz des Pixels, das gemäß den Bilddaten angezeigt werden soll, zu kodieren. Andererseits wird im Fall des ersten Pixels wenigstens ein Teil der ersten Pixelwerte dazu benutzt, die Bitfolge der Dateiinhalte zu speichern, die nicht notwendigerweise eine anzuzeigende Farbe betreffen.
  • Die Dateiinhalte können Teil einer Datei sein, insbesondere einer Binärdatei, die über die wenigstens eine Speicherschnittstelle erhalten wurde. Die Dateiinhalte enthalten die Bitfolge und können eine oder mehrere weitere Bitfolgen enthalten. Erläuterungen und hinsichtlich der Bitfolge beschriebene Schritte können auch auf die weiteren Bitfolgen der Dateiinhalte übertragen werden.
  • Eine Bitfolge ist eine Folge oder Serie von entsprechenden Binärwerten einer bestimmten Länge. Ist die Länge einer Bitfolge 8, so kann die Bitfolge auch als Byte bezeichnet werden. Jedoch kann eine Bitfolge ebenso eine andere Länge aufweisen.
  • Das Einzelbild für den Videostream stellt eine Vielzahl von Pixel einschließlich des ersten und des zweiten Pixels dar, wobei die Vielzahl der Pixel zum Beispiel gemäß einem rechteckigen Pixelraster angeordnet sein kann. Jedes Pixel wird, wenn es mittels einer Anzeigeeinheit angezeigt wird, die von der Empfängereinheit enthalten oder mit dieser gekoppelt sein kann, als entsprechender Bereich auf einem Bildschirm der Anzeigeeinheit mit einer entsprechenden, durch die jeweiligen Pixelwerte definierten Farbe gezeigt. Der Bereich von Interesse entspricht einem oder mehreren Untermengen der Vielzahl von Pixel des Einzelbildes beziehungsweise des Pixelrasters, insbesondere einer zusammenhängenden Untermenge, der daher in entsprechenden Bereichen des Bildschirms angezeigt werden kann.
  • Insbesondere ist der Bereich von Interesse kleiner als das Pixelraster. Mit anderen Worten ist die Anzahl der Pixel, die in dem Bereich von Interesse enthalten sind, geringer als die Gesamtanzahl der Vielzahl von Pixel des Einzelbildes. Insbesondere kann außer dem zweiten Pixel eine Vielzahl von weiteren zweiten Pixel außerhalb des Bereichs von Interesse in gleicher Weise, wie für das zweite Pixel beschrieben, durch die Verarbeitungseinheit erzeugt werden. In analoger Weise kann außer dem ersten Pixel eine Vielzahl von weiteren ersten Pixel innerhalb des Bereichs von Interesse in gleicher Weise, wie für das erste Pixel beschrieben, durch die Verarbeitungseinheit erzeugt werden, insbesondere durch Kodieren entsprechender weiterer Bitfolgen der Dateiinhalte mittels entsprechender weiterer erster Pixelwerte.
  • Die ersten Pixelwerte müssen nicht notwendigerweise identisch mit den entsprechenden Binärwerten der Bitfolge sein. Mit anderen Worten können die ersten Pixelwerte zusätzlich zur Bitfolge weitere Informationen kodieren. Die weiteren Informationen können statisch oder vordefiniert sein und daher insbesondere dazu benutzt werden, die Auswirkungen des visuellen Rauschens zu reduzieren beziehungsweise das visuelle Rauschen zu verschleiern.
  • Mittels des Videoverarbeitungssystems gemäß dem verbesserten Konzept ist es daher möglich, eine Hochgeschwindigkeitsübertragung von Dateiinhalten oder Binärdateien zu erreichen, während gleichzeitig das zweite Pixel und die weiteren zweiten Pixel angezeigt werden können. Mit anderen Worten werden die Dateiinhalte in ein reguläres Videoeinzelbild verpackt und somit eine Dateiübertragung parallel zur Videoanzeige ermöglicht. Wenn man zum Beispiel einen RGB888-Farbraum, einen Bereich von Interesse mit einem Megapixel und eine Einzelbildrate von 20 Einzelbildern pro Sekunde betrachtet, kann eine Bitrate von bis zu 480 Mbit/s für die Übertragung der Binärdatei erreicht werden. Zum Vergleich: herkömmliche Fahrzeugnetzwerke wie CAN-Busse können nur eine Bitrate in der Größenordnung von einigen Mbit/s erreichen.
  • Das Videobearbeitungssystem kann auch eine Eingangsschnittstelle zum Koppeln der Verarbeitungseinheit mit einer Videoquelle aufweisen. Die Videoquelle kann zum Beispiel eine Kamera des Fahrzeugs oder eine der wenigstens einen Speichereinheit beinhalten. Auch die Kamera kann Teil des Videoverarbeitungssystems sein oder extern zu dem Videoverarbeitungssystem.
  • Das Videoverarbeitungssystem kann zum Beispiel dazu eingerichtet sein, in einem Normalmodus und einem Dateiübertragungsmodus zu arbeiten. Bei Betrieb im Dateiübertragungsmodus kann die Verarbeitungseinheit die oben beschriebenen Schritte ausführen, insbesondere das Erzeugen des Einzelbildes, welches das erste und das zweite Pixel enthält. Bei Betrieb im Normalmodus kann die Verarbeitungseinheit zum Beispiel einen weiteren Videostream mit einer Vielzahl von aufeinanderfolgenden Einzelbildern erzeugen, ohne Dateiinhalte zu übertragen. Im Normalbetriebsmodus kann die Verarbeitungseinheit zum Beispiel Bilddaten über die Eingangsschnittstelle von der Videoquelle erhalten und den weiteren Videostream basierend auf den Bilddaten erzeugen. Im Folgenden wird von einem Betrieb des Videoverarbeitungssystems im Dateiübertragungsmodus ausgegangen, falls nicht anders angegeben.
  • Gemäß mehreren Ausführungen des Videoverarbeitungssystems ist die Verarbeitungseinheit dazu eingerichtet, die Binärdatei über die wenigstens eine Speicherschnittstelle zu erhalten und die Binärdatei in eine Vielzahl von Teilen abhängig von einer vordefinierten Größe des Bereichs von Interesse aufzuteilen, wobei die Dateiinhalte einem der Vielzahl von Teilen entsprechen.
  • Die Größe des Bereichs von Interesse kann insbesondere durch eine Gesamtanzahl von Pixel des Bereichs von Interesse gegeben sein. Durch Aufteilen der Binärdatei in eine Vielzahl von Teilen abhängig von der Größe des Bereichs von Interesse, kann jeder Teil durch ein Einzelbild übertragen oder kodiert werden. Insbesondere ist eine Gesamtanzahl von Bits eines entsprechenden Teils der Binärdatei kleiner oder gleich der Gesamtanzahl von Bits, die mittels aller verfügbaren Pixel des Bereichs von Interesse speicherbar sind. Zum Beispiel kann die Anzahl speicherbarer Bits beschränkt sein durch die Anzahl von Pixel des Bereichs von Interesse multipliziert mit der Anzahl der pro Pixel speicherbaren Bits gemäß dem Farbraum.
  • Zu diesem Zweck können alle Teile der Vielzahl von Teilen dieselbe Größe haben. Jedoch sind auch andere Konventionen für die Aufteilungen möglich. Zum Beispiel können alle Teile außer einem die maximal mögliche Größe haben und der verbleibende Teil kann den restlichen Teil der Binärdatei enthalten.
  • Durch entsprechendes Aufteilen der Binärdatei kann die Übertragungsrate für die Übertragung der Dateiinhalte an den vordefinierten Farbraum und die Größe des Bereichs von Interesse angepasst werden. Somit ist eine gesteigerte Flexibilität erreicht.
  • Im Gegensatz zu den ersten Pixelwerten, werden die zweiten Pixelwerte unabhängig von der Binärdatei bestimmt.
  • Gemäß mehreren Ausführungen ist die Verarbeitungseinheit dazu eingerichtet, Bilddaten über die wenigstens eine Speicherschnittstelle zu erhalten und die zweiten Pixelwerte abhängig von den Bilddaten zu bestimmen.
  • Die Bilddaten können zum Beispiel identisch oder äquivalent zu den entsprechenden zweiten Pixelwerten des zweiten Pixels sein. Folglich können durch Erzeugen des Einzelbildes, welches das zweite Pixel und zum Beispiel die weiteren zweiten Pixel enthält, in analoger Weise die Bilddaten mittels des Videostreams von der Verarbeitungseinheit an die Empfängereinheit übertragen werden. Parallel dazu können jedoch die Dateiinhalte oder wenigstens ein Teil der Dateiinhalte von der Verarbeitungseinheit an die Empfängereinheit übermittelt werden, kodiert anhand des ersten Pixels und zum Beispiel der weiteren ersten Pixel.
  • Da wenigstens ein Teil der ersten Pixelwerte durch die Bitfolge der Dateiinhalte definiert wird, kann der Bereich von Interesse, wenn er mittels der Anzeigeeinheit angezeigt wird, eine bestimmte Menge an visuellem Rauschen enthalten. Jedoch ist dieses Rauschen auf einen Bereich von Interesse beschränkt, so dass das Nutzererlebnis noch akzeptabel ist. Des Weiteren kann das visuelle Rauschen zum Beispiel durch Auswählen bestimmter Teile des Einzelbildes oder Pixelrasters für das Einzelbild, für die eine Ablenkung des Benutzers durch visuellen Rauschens nicht bedeutsam oder unerheblich ist, verschleiert werden.
  • Gemäß mehreren Ausführungen ist die Anzahl der Kanäle des Farbraums durch eine Kanalzahl gegeben, die größer oder gleich zwei ist, und zum Bestimmen der ersten Pixelwerte ist die Verarbeitungseinheit dazu eingerichtet, die Bitfolge in eine Anzahl von Unterfolgen gleich der Kanalzahl aufzuteilen. Die Verarbeitungseinheit ist dazu eingerichtet, eine erste Unterfolge der Anzahl von Unterfolgen für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines ersten Kanals der Anzahl von Kanälen des Farbraums zu benutzen.
  • Die Unterfolgen der Vielzahl von Unterfolgen haben nicht notwendigerweise alle dieselbe Länge. Insbesondere können die Längen der Unterfolgen alle geringer sein als eine minimale Bittiefe der Kanäle. Abhängig von der Länge der Bitfolge und der Kanalzahl, können alle Unterfolgen dieselbe Länge haben oder es können alle Unterfolgen bis auf eine dieselbe Länge haben. Ausgehend von einer Länge der Bitfolge von 8 Bit und einer Kanalzahl von drei als ein nicht beschränkendes Beispiel können die drei entsprechenden Unterfolgen Längen von 3 Bit, 3 Bit und 2 Bit aufweisen. Ausgehend von einer Länge der Bitfolge von 8 Bit und einer Kanalzahl von vier als ein nicht beschränkendes Beispiel können die entsprechenden Unterfolgen alle Längen von 2 Bit haben und so weiter.
  • Insbesondere entsprechen die Bits mit den niedrigsten Stellenwerten, die für die erste Unterfolge benutzt werden, einer Anzahl von Bits mit niedrigsten Stellenwerten, die erforderlich ist, um die Unterfolge darzustellen. Weist der erste Kanal zum Beispiel eine Bittiefe von 8 Bit auf und ist die Länge der ersten Unterfolge drei, werden die drei Bits mit den niedrigsten Stellenwerten des ersten Kanals dazu benutzt, die erste Unterfolge zu speichern, so dass 5 Bits zum Speichern der weiteren Informationen verbleiben. Alternativ oder zusätzlich zum Speichern der weiteren Informationen kann die erste Unterfolge auch redundant im ersten Kanal gespeichert werden.
  • Gemäß mehreren Ausführungen ist die Verarbeitungseinheit dazu eingerichtet, eine Bitfolge eines vordefinierten Bitmapbildes für eine entsprechende Anzahl der Bits mit den höchsten Stellenwerten des ersten Kanals für das erste Pixel zu benutzen, um die ersten Pixelwerte zu bestimmen.
  • Das Bitmapbild kann zum Beispiel in einem Zwischenspeicher der Verarbeitungseinheit oder des Videoverarbeitungssystems oder in der wenigstens einen Speichereinheit gespeichert sein. Die Anzahl der Bits mit den höchsten Stellenwerten entspricht den Bits mit den höchsten Stellenwerte gemäß dem ersten Kanal, die zur Speicherung der Bitfolge des Bitmapbildes erforderlich sind. Die Bitfolge des Bitmapbildes entspricht den weiteren Informationen.
  • Da die erste Unterfolge in den Bits mit den niedrigsten Stellenwerten gespeichert ist und somit die Bits mit den höchsten Stellenwerten für die Bitfolge des Bitmapbildes übrig bleiben, werden die visuellen Auswirkungen der übertragenen Dateiinhalte reduziert. Wenn das Einzelbild von der Anzeigeeinheit angezeigt wird, kann die visuelle Erscheinung des Bereichs von Interesse von dem vordefinierten Bitmapbild beherrscht werden und die Bedeutung des visuellen Rauschens, das durch die kodierten Dateiinhalte verursacht wird, ist reduziert, da die Bits mit den höchsten Stellenwerten für das Bitmapbild benutzt werden. Auf diese Weise kann das Nutzererlebnis durch Reduzierung der negativen Auswirkungen des visuellen Rauschens erheblich verbessert werden.
  • Gemäß mehreren Ausführungen ist die Verarbeitungseinheit dazu eingerichtet, eine zweite Unterfolge der Anzahl von Unterfolgen und ein Paritätsbit für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines zweiten Kanals des Farbraums zu benutzen.
  • Der Wert des Paritätsbits kann von der Verarbeitungseinheit derart gewählt werden, dass sichergestellt ist, dass die Parität der von dem zweiten Kanal gespeicherten Werte immer gerade oder immer ungerade ist, abhängig von der tatsächlichen Ausführung. Die Empfängereinheit kann die Integrität des übertragenen Einzelbildes kontrollieren, indem sie die Parität der erhaltenen und von dem zweiten Kanal gespeicherten Werte bestimmt, wobei diese im Fall einer für die Übertragung vereinbarten geraden Parität gerade und im Fall einer vereinbarten ungeraden Parität ungerade sein sollte.
  • Gemäß mehreren Ausführungen ist die Verarbeitungseinheit dazu eingerichtet, alle Unterfolgen der Anzahl von Unterfolgen derart auf die Kanäle zu verteilen, dass jeder der Kanäle wenigstens ein Bit der Bitfolge beinhaltet.
  • Mit anderen Worten speichert jeder Kanal eine der Unterfolgen, wobei die Unterfolgen als die entsprechenden Bits mit den niedrigsten Stellenwerten des entsprechenden Kanals gespeichert werden. Dabei ist in Ausführungen, die das Paritätsbit wie beschrieben benutzen, die zweite Unterfolge zusammen mit dem Paritätsbit in den Bits mit den niedrigsten Stellenwerten des zweiten Kanals gespeichert.
  • Durch Verteilen der Unterfolgen, und daher der Bitfolge der Dateiinhalte auf die Kanäle, werden die Auswirkungen des visuellen Rauschens reduziert.
  • Gemäß mehreren Ausführungen weist der Farbraum zwei oder mehr Kanäle auf. Um die ersten Pixelwerte zu bestimmen, ist die Verarbeitungseinheit dazu eingerichtet, einen Wert der Bitfolge der Dateiinhalte durch eine Anzahl der zwei oder mehr Kanäle des Farbraums zu teilen, um einen Quotientenwert und einen Restwert zu erhalten. Die Verarbeitungseinheit ist dazu eingerichtet, den Quotientenwert für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten des ersten Kanals der zwei oder mehr Kanäle des Farbraums zu benutzen und eine Summe des Quotientenwerts und des Restwerts für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten des zweiten Kanals zu benutzen.
  • Mit anderen Worten entspricht die Teilung der Bitfolge einer Teilung mit Rest, die auch als Euklidische Teilung bezeichnet wird. Der Quotientenwert wie auch der Restwert sind daher ganze Zahlen.
  • Insbesondere ist die Gesamtanzahl der zwei oder mehr Kanäle kleiner oder gleich einer minimalen Bittiefe der zwei oder mehr Kanäle. Zum Beispiel falls die Bittiefe aller der zwei oder mehr Kanäle gleich ist, ist die Anzahl der zwei oder mehr Kanäle kleiner oder gleich dieser Bittiefe. Folglich ist die Wortlänge des Quotientenwerts wenigstens um ein Bit geringer als die minimale Bittiefe. Mit anderen Worten wird wenigstens ein Bit, nämlich das Bit mit dem höchsten Stellenwert, des ersten Kanals nicht von dem Quotientenwert benutzt und kann daher dazu benutzt werden, die weiteren Informationen zu kodieren.
  • Zur Rekonstruktion der Bitfolge muss die Empfängereinheit nur den Quotientenwert, die Summe und die Anzahl der zwei oder mehr Kanäle kennen. Auf diese Weise kann die zu übertragende Datenmenge reduziert werden oder Redundanz implementiert werden.
  • Gemäß mehreren Ausführungen ist die Verarbeitungseinheit dazu eingerichtet, eine weitere Bitfolge des Bitmapbildes für eine entsprechende Anzahl von Bits mit den höchsten Stellenwerten des zweiten Kanals zu benutzen, um die ersten Pixelwerte zu bestimmen.
  • Insbesondere können entsprechende weitere Bitfolgen des Bitmapbildes durch die verschiedenen Kanäle der zwei oder mehr Kanäle kodiert werden, um für die Darstellung des Bitmapbildes alle verfügbaren Kanäle auszunutzen.
  • Gemäß mehreren Ausführungen ist die Verarbeitungseinheit dazu eingerichtet, das Einzelbild derart zu erzeugen, dass das Einzelbild eine Menge von Pixel außerhalb des Bereichs von Interesse enthält, wobei die Metadaten durch entsprechende Pixelwerte der Menge von Pixel kodiert sind.
  • Die Menge von Pixel kann zum Beispiel einer Menge entsprechen, die nicht von der Anzeigeeinheit angezeigt wird oder nicht für den Benutzer sichtbar ist. Die Menge von Pixel kann zum Beispiel an einer Kante des Pixelrasters des entsprechenden Einzelbildes angeordnet sein.
  • Auf diese Weise ist eine effiziente Möglichkeit der Übertragung der Metadaten parallel zu den Dateiinhalten erreicht. Insbesondere hat dies den Vorteil, dass es nicht notwendig ist, die Metadaten oder andere Typen von Headerinformationen innerhalb des Bereichs von Interesse zu speichern. Folglich kann die Übertragungsrate für die Dateiinhalte gesteigert werden.
  • Gemäß mehreren Ausführungen weist die Videoausgangsschnittstelle einen mit der Verarbeitungseinheit gekoppelten Serialisierer auf.
  • Gemäß mehreren Ausführungen weist das Videoverarbeitungssystem, insbesondere die Videoeingangsschnittstelle der Empfängereinheit, einen mit dem Serialisierer der Videoausgangsschnittstelle gekoppelten Deserialisierer auf, wobei der Deserialisierer von der Empfängereinheit beinhaltet ist oder dazu eingerichtet ist, mit dieser gekoppelt zu werden.
  • Die Verbindung zwischen dem Serialisierer und dem Deserialisierer kann zum Beispiel mittels eines Koaxialkabels oder eines anderen zur Übertragung von Videodaten geeigneten Kabels implementiert sein. Mit anderen Worten kann die Verarbeitungseinheit über den Serialisierer, den Deserialisierer und das Koaxialkabel mit der Empfängereinheit gekoppelt sein. Die Benutzung der Serialisierer-Deserialisierer-Architektur kann eine Integritätsprüfung auf Hardwarebasis ermöglichen.
  • Jedoch können auch sonstige Typen von Videoverbindungen und Videoports, wie etwa HDMI und andere, für die Videoausgangsschnittstelle beziehungsweise die Videoeingangsschnittstelle benutzt werden.
  • Gemäß mehreren Ausführungen weist das Videoverarbeitungssystem die Empfängereinheit oder die Videoeingangsschnittstelle auf.
  • Gemäß mehreren Ausführungen weist die Eingangsschnittstelle zum Koppeln der Verarbeitungseinheit mit der Videoquelle einen weiteren Deserialisierer auf.
  • Auf diese Weise können eine oder mehrere Kameras des Videoverarbeitungssystems oder des Fahrzeugs mit der Verarbeitungseinheit über die Eingangsschnittstelle gekoppelt werden.
  • Gemäß mehreren Ausführungen weist das Videoverarbeitungssystem ein erstes ECU für ein Kraftfahrzeug auf, wobei das erste ECU die Verarbeitungseinheit enthält.
  • Gemäß mehreren Ausführungen weist das erste ECU die Videoausgangsschnittstelle und/oder die wenigstens eine Speicherschnittstelle und/oder die Eingangsschnittstelle und/oder die wenigstens eine Speichereinheit auf.
  • Gemäß mehreren Ausführungen weist das Videoverarbeitungssystem ein zweites ECU für ein Kraftfahrzeug auf, wobei das zweite ECU die Empfängereinheit enthält.
  • Gemäß mehreren Ausführungen weist das zweite ECU die Videoeingangsschnittstelle und/oder eine Anzeigeschnittstelle zum Koppeln der Anzeigeeinheit mit der Empfängereinheit auf.
  • Gemäß mehreren Ausführungen weist das Videoverarbeitungssystem die Anzeigeschnittstelle und/oder die Anzeigeeinheit auf.
  • Gemäß dem verbesserten Konzept wird auch ein Kraftfahrzeug bereitgestellt, welches ein Videoverarbeitungssystem gemäß dem verbesserten Konzept aufweist.
  • Gemäß dem verbesserten Konzept wird auch ein Verfahren zur Übertragung von Dateiinhalten als Teil eines Videostreams bereitgestellt. Gemäß dem Verfahren wird eine Verarbeitungseinheit dazu benutzt, die Dateiinhalte von wenigstens einer Speichereinheit zu erhalten. Die Verarbeitungseinheit wird dazu benutzt, erste Pixelwerte für ein erstes Pixel gemäß einem vordefinierten Farbraum basierend auf den Dateiinhalten zu bestimmen, wobei die ersten Pixelwerte eine Bitfolge der Dateiinhalte kodieren. Die Verarbeitungseinheit wird dazu benutzt, zweite Pixelwerte für ein zweites Pixel gemäß dem Farbraum unabhängig von den Dateiinhalten zu bestimmen und ein Einzelbild für einen Videostream zu erzeugen, so dass das Einzelbild das erste Pixel innerhalb eines vordefinierten Bereichs von Interesse des Einzelbildes und das zweite Pixel außerhalb des Bereichs von Interesse enthält. Die Verarbeitungseinheit wird dazu benutzt, den Videostream mit dem Einzelbild einer Empfängereinheit bereitzustellen.
  • Gemäß mehreren Ausführungen des Verfahrens ist eine Anzahl von Kanälen des Farbraums durch eine Kanalzahl gegeben, die größer oder gleich zwei ist. Um die ersten Pixelwerte zu bestimmen, wird die Verarbeitungseinheit dazu benutzt, die Bitfolge in eine Anzahl von Unterfolgen aufzuteilen, die gleich der Kanalzahl ist, und eine erste Unterfolge der Anzahl von Unterfolgen für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines ersten Kanals des Farbraums zu benutzen.
  • Weitere Ausführungen des Verfahrens gemäß dem verbesserten Konzept ergeben sich unmittelbar aus den verschiedenen Ausführungen des Videoverarbeitungssystems gemäß dem verbesserten Konzept und umgekehrt. Insbesondere kann ein Videoverarbeitungssystem gemäß dem verbesserten Konzept dazu eingerichtet oder programmiert sein, ein Verfahren gemäß dem verbesserten Konzept auszuführen, oder das Videoverarbeitungssystem führt ein solches Verfahren aus.
  • Gemäß dem verbesserten Konzept wird auch ein Computerprogramm bereitgestellt, das Befehle beinhaltet. Wenn die Befehle beziehungsweise das Computerprogramm von einem Rechensystem, insbesondere von einem Videoverarbeitungssystem gemäß dem verbesserten Konzept, zum Beispiel von der Verarbeitungseinheit, ausgeführt werden, veranlassen die Befehle das Rechensystem beziehungsweise das Videoverarbeitungssystem dazu, ein Verfahren gemäß dem verbesserten Konzept durchzuführen.
  • Gemäß dem verbesserten Konzept wird auch ein computerlesbares Speichermedium bereitgestellt, welches ein Computerprogramm gemäß dem verbesserten Konzept speichert.
  • Das Computerprogramm sowie das computerlesbare Speichermedium gemäß dem verbesserten Konzept können als entsprechende Computerprogrammprodukte betrachtet werden, die die Befehle beinhalten.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen können von dem verbesserten Konzept nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen umfasst sein. Es sind somit Ausführungen des verbesserten Konzepts umfasst und offenbart, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es können auch Ausführungen und Merkmalskombinationen von dem verbesserten Konzept umfasst sein, die nicht alle Merkmale eines ursprünglich formulierten Anspruchs aufweisen. Darüber hinaus können Ausführungen und Merkmalskombinationen von dem verbesserten Konzept umfasst sein, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder von diesen abweichen.
  • In den Figuren zeigen:
    • 1 schematisch eine beispielhafte Ausführung eines Kraftfahrzeugs gemäß dem verbesserten Konzept;
    • 2 schematisch eine beispielhafte Ausführung eines Videoverarbeitungssystems gemäß dem verbesserten Konzept;
    • 3 eine schematische Darstellung eines Einzelbildes das auf einem Bildschirm angezeigt wird, gemäß einer beispielhaften Ausführungsform eines Verfahrens gemäß dem verbesserten Konzept;
    • 4 schematisch Pixelwerte von Farbkanälen gemäß einem Farbraum;
    • 5 schematisch eine Sequenzfolge gemäß einer beispielhaften Ausführung eines Verfahrens gemäß dem verbesserten Konzept;
    • 6 ein Flussdiagramm eines Verschlüsselungsvorgangs gemäß einer weiteren beispielhaften Ausführung eines Verfahrens gemäß dem verbesserten Konzept; und
    • 7 ein Flussdiagramm eines weiteren Verschlüsselungsprozesses gemäß einer weiteren beispielhaften Ausführung eines Verfahrens gemäß dem verbesserten Konzept.
  • In 1 ist eine beispielhafte Ausführung eines Kraftfahrzeugs 1 gemäß einer beispielhaften Ausführung des verbesserten Konzepts schematisch gezeigt. Das Kraftfahrzeug 1 weist eine beispielhafte Ausführung eines Videoverarbeitungssystems 2 gemäß dem verbesserten Konzept auf.
  • Das Videoverarbeitungssystem 2 kann ein erstes ECU 3, zum Beispiel ein Kamera-ECU, und ein zweites ECU 4, zum Beispiel ein Infotainment-ECU, aufweisen. Das zweite ECU 4 kann mit einer Anzeigeeinheit 5 des Fahrzeugs 1 oder des Videoverarbeitungssystems 2 gekoppelt sein. Das Kraftfahrzeug 1 kann ein Fahrzeugnetzwerk 6, zum Beispiel einen CAN-Bus, einen CAN-FD-Bus, ein LIN-Netzwerk oder ein FlexRay-Netzwerk, aufweisen und die ECUs 3, 4 können miteinander über ein Fahrzeugnetzwerk 6 verbunden sein.
  • Zusätzlich sind die ECUs 3, 4 über eine Videoverbindung verbunden, die es ermöglicht, einen Videostream von der ersten ECU 3 an die zweite ECU 4 zu senden. Das zweite ECU 4 ist dazu imstande, den Videostream entsprechend auf der Anzeigeeinheit 5 anzuzeigen. Die Videoverbindung kann jede geeignete Schnittstelle für Videoanwendungen in einem Automobil-Kontext sein. Diese beinhalten Serialisierungs-Deserialisierungs-Verbindungen, wie GMSL, GMSL2, GMSL3, FPDLink, FPDLinkll oder FPDLinklll, ohne darauf beschränkt zu sein. Zusätzlich zu den ECUs 3, 4 können zusätzliche ECUs (nicht gezeigt) in dem Fahrzeug 1 enthalten sein, die auch mit dem Fahrzeugnetzwerk 6 verbunden sein können.
  • Das Videoverarbeitungssystem 2 kann auch in einem Dateiübertragungsmodus betrieben werden, was im Folgenden anhand der übrigen Figuren genauer erklärt wird.
  • 2 zeigt schematisch ein Blockdiagramm einer beispielhaften Ausführungsform des Videoverarbeitungssystems 2 gemäß dem verbesserten Konzept, welches beispielsweise in einem Kraftfahrzeug 1 benutzt werden kann, wie mit Bezug auf 1 beschrieben.
  • Das Videoverarbeitungssystem 2, zum Beispiel das erste ECU 3, weist eine Verarbeitungseinheit 7 auf, die als ein SoC implementiert sein kann. Das Videoverarbeitungssystem weist des Weiteren eine Eingangsschnittstelle 8 zum Koppeln der einen oder der mehreren Kameras 9 des Fahrzeugs 1 oder des Videoverarbeitungssystems 2 mit der Verarbeitungseinheit 7 auf, wobei die Eingangsschnittstelle 8 zum Beispiel einen Deserialisierer 27 aufweisen kann. Des Weiteren weist die Videoverarbeitungseinheit 2 eine oder mehrere Speicherschnittstellen 12, 14 zum Koppeln einer oder mehrerer entsprechender Speichereinheiten 13, 15 mit der Verarbeitungseinheit 7 auf. Zum Beispiel kann die Speichereinheit 13 als eine DDR-RAM-Einheit implementiert sein und die Speichereinheit 15 kann als eine Flashspeichereinheit implementiert sein. Das Videoverarbeitungssystem 2 weist auch eine Videoausgangsschnittstelle 10 auf, welche als ein Serialisierer implementiert sein kann und die Verarbeitungseinheit 7 mit einem Verbindungselement 33 koppelt. Zum Beispiel kann das erste ECU 3 die Speichereinheiten 13, 15, die Speicherschnittstellen 12, 14, die Videoausgangsschnittstelle 10 und/oder die Eingangsschnittstelle 8 beinhalten.
  • Das Fahrzeug 1, zum Beispiel das Videoverarbeitungssystem 2, weist eine Empfängereinheit 11 auf, die auch als ein SoC implementiert sein kann. Das Fahrzeug 1 oder das Videoverarbeitungssystem 2 weist des Weiteren eine Videoeingangsschnittstelle 16, die zum Beispiel als ein Deserialisierer implementiert sein kann, zum Koppeln der Empfängereinheit 11 mit dem Verbindungselement 33 auf, sowie eine Anzeigeschnittstelle 5' zum Koppeln der Anzeigeeinheit 5 mit der Empfängereinheit 11. Des Weiteren kann das Fahrzeug 1 oder das Videoverarbeitungssystem 2 weitere Speichereinheiten 20, 21, die mit der Empfängereinheit 11 gekoppelt sind, und/oder eine Massenspeicherschnittstelle 19 zum Koppeln eines externen Massenspeichergeräts (nicht gezeigt) mit der Empfängereinheit 11 aufweisen. Die Empfängereinheit 5, die Videoeingangsschnittstelle 16, die Anzeigeschnittstelle 5', die weiteren Speichereinheiten 20, 21 und/oder die Massenspeicherschnittstelle 19 können zum Beispiel von dem zweiten ECU 4 beinhaltet sein. Das Verbindungselement 33 verbindet die Videoeingangsschnittstelle 16 mit der Videoausgangsschnittstelle 10 und kann zum Beispiel als ein Koaxialkabel, insbesondere ein Hochfrequenz-Koaxialkabel, ausgebildet sein.
  • Zusätzlich kann das Fahrzeug 1, zum Beispiel das erste beziehungsweise das zweite ECU 3, 4, jeweilige Netzwerktransceiver 17, 18, zum Beispiel CAN-Transceiver, zum Verbinden der ECUs 3, 4 mit dem Fahrzeugnetzwerk 6 aufweisen.
  • In einem Normalbetriebsmodus erzeugt die Verarbeitungseinheit 7 einen Videostream und stellt ihn über die Videoausgangsschnittstelle 10 und die Videoeingangsschnittstelle 16 der Empfängereinheit 11 bereit. Zum Beispiel konvertiert der Deserialisierer der Videoeingangsschnittstelle 16 die serialisierten Daten in ein Videoschnittstellenformat, das mit der Empfängereinheit 11 über eine Schnittstelle verbunden werden kann.
  • Das Fahrzeugnetzwerk 6 kann zum Beispiel dazu benutzt werden, Befehle und Antworten zwischen den ECUs 3, 4 und/oder weiteren ECUs des Fahrzeugs 1 auszutauschen.
  • In dem Fall, dass eine große Datendatei, insbesondere eine Binärdatei, wie etwa ein komprimiertes Video, das in einer der Speichereinheiten 13, 15 der ersten ECU 3 gespeichert ist, von dem ersten ECU 3 an das zweite ECU 4 gesendet werden soll, kann dies im Prinzip auch über ein Fahrzeugnetzwerk 6 erfolgen. Jedoch wäre die Datenübertragung aufgrund der durch typische Fahrzeugnetzwerke 6 beschränkten erreichbaren Bitrate für die Datenübertragung sehr langsam.
  • Daher kann das Videoverarbeitungssystem 2 gemäß dem verbesserten Konzept in einem Datenübertragungsmodus arbeiten, um die Datendatei über die Videoverbindung zu senden, die durch die Videoausgangsschnittstelle 10, die Videoeingangsschnittstelle 16 und das Verbindungselement 33 gegeben ist. Auf diese Weise kann eine Hochgeschwindigkeits-Dateiübertragung ohne gesteigerte Hardwarekosten erreicht werden.
  • Zu diesem Zweck kann die Verarbeitungseinheit 7 Bilddaten sowie Dateiinhalte einer Binärdatei über die Speicherschnittstellen 12, 14 von den Speichereinheiten 13, 15 erhalten. Die Verarbeitungseinheit 7 kann zum Beispiel die Binärdatei in eine Vielzahl von Teilen aufteilen, die die Dateiinhalte beinhalten. Zum Erzeugen eines Einzelbildes für einen Videostream im Dateiübertragungsmodus, wird ein Bereich von Interesse 22 innerhalb des Einzelbildes definiert, wie schematisch in 3 dargestellt, die ein Beispiel für einen Bildschirminhalt der Anzeigeeinheit 5 während des Dateiübertragungsmodus zeigt. Um Pixelwerte für ein Pixel innerhalb des Bereichs von Interesse 22 gemäß einem vordefinierten Farbraum zu bestimmen, wird eine Bitfolge der Dateiinhalte gemäß Pixelwerten des Farbraums kodiert. Auf diese Weise kodiert jedes Pixel in dem Bereich von Interesse 22 eine oder mehrere entsprechende Bitfolgen der Dateiinhalte. Des Weiteren werden die Bilddaten von der Verarbeitungseinheit 7 dazu benutzt, Pixelwerte für entsprechende Pixel außerhalb des Bereichs von Interesse 22 zu definieren. Dann stellt die Verarbeitungseinheit 7 den Videostream mit dem Einzelbild an der Videoausgangsschnittstelle 10 an die Videoeingangsschnittstelle 16 beziehungsweise an die Empfängereinheit 11 bereit.
  • Zum Beispiel kann die Verarbeitungseinheit 7 einen bestimmten Bereich der Speichereinheiten 13, 15 regelmäßig auslesen, gemäß der Einzelbildgröße und der Einzelbildrate. Zum Beispiel kann ein Videoringspeicher dazu benutzt werden, es der Verarbeitungseinheit 7 zu ermöglichen, die Speichereinheiten 13, 15 auszulesen, während Videoprozessoren der Verarbeitungseinheit 7, zum Beispiel eine Graphikverarbeitungseinheit GPU oder eine Anwendungsverarbeitungseinheit APU, das Videoeinzelbild im Hintergrund bereitstellen können. Zum Senden der Binärdatei über die Videoausgangsschnittstelle 10, können die Dateiinhalte in den Bereich der Speichereinheiten 13, 15 kopiert werden, der von dem Videoringspeicher ausgelesen werden soll.
  • 3 zeigt schematisch ein beispielhaftes Bildschirmlayout für die Anzeigeeinheit 5 und ein entsprechendes Einzelbild. Während der Übertragung der Datei kann ein Fortschrittsbalken 23 zum Beispiel außerhalb des Bereichs von Interesse 22 angezeigt werden und entsprechend aktualisiert werden, zum Beispiel basierend auf den Bilddaten.
  • In mehreren Ausführungen können einer oder mehrere Bereiche von Pixel, die als eingebettete Linien 24, 25 bezeichnet werden, außerhalb des Bereichs von Interesse 22, zum Beispiel an entsprechenden Kanten des Einzelbildes, angeordnet sein. Die eingebetteten Linien 24, 25 können zum Übermitteln von Zusatzinformationen wie Metadaten von der Verarbeitungseinheit 7 oder des ersten ECU an die Empfängereinheit 11 beziehungsweise das zweite ECU 4 genutzt werden. Abhängig von konstruktiven Einschränkungen hinsichtlich anderer Videoanwendungen, können die Informationen auf die eingebetteten Linien 24, 25 verteilt werden. Die Metadaten können ein oder mehrere der folgenden Informationen enthalten, ohne auf diese Typen von Informationen beschränkt zu sein: einen Einzelbildzähler, eine horizontale Anzeigegröße, eine vertikale Anzeigegröße, ein Flag, das einen Betriebsmodus des Videoverarbeitungssystems anzeigt, einen Dateinamen, eine Dateigröße und/oder einen Zähler für die Übertragung von Dateiinhalten und so weiter. Die Metadaten können auch Informationen betreffend den Bereich von Interesse 22, insbesondere eine Größe, eine Position und/oder eine Form des Bereichs von Interesse 22 enthalten. Im Fall eines rechteckigen Bereichs von Interesse 22 können die Metadaten zum Beispiel eine horizontalen und vertikale Startposition des Bereichs von Interesse 22 und/oder eine horizontale und/oder eine vertikale Größe des Bereichs von Interesse 22 enthalten.
  • Während der Übertragung der Binärdatei werden sich die Inhalte 26 innerhalb des Bereichs von Interesse 22 im Allgemeinen gemäß der geladenen Inhalte von der Binärdatei ändern. Das verbesserte Konzept erlaubt es, dass die Anzeigeanwendung und die Dateiübertragungsanwendung parallel ablaufen.
  • Die Empfängereinheit 11 kann zum Beispiel die Informationen, die in dem Bereich von Interesse 22 gespeichert sind, über die Massenspeicherschnittstelle 19 auf das Massenspeichergerät oder auf eine der weiteren Speichereinheiten 20, 21 kopieren. Abhängig von den Verarbeitungskapazitäten des zweiten ECU 4 beziehungsweise der Empfängereinheit 11 können die Bildschirminhalte modifiziert werden, um den Ansprüchen von Endnutzern zu genügen. Der Bereich von Interesse 22 kann zum Beispiel kopiert werden und der Inhalt des Bereichs von Interesse kann durch eine Bitmap ersetzt werden, die in den weiteren Speichereinheiten 20, 21 gespeichert ist, um ein angenehmeres visuelles Erscheinungsbild zu erreichen. Insbesondere können zufällige Mosaikanzeigeeffekte innerhalb des Bereichs von Interesse 22 auf diese Weise reduziert werden. Alternativ kann der gesamte Inhalt des Bildschirms von der Empfängereinheit 11 konstruiert werden, um den von der Verarbeitungseinheit 7 erhaltenen Anzeigeinhalt anzuzeigen.
  • Der Dateiübertragungsfluss kann durch verschiedene Verfahren gesteuert werden. Zum Beispiel kann das Videoverarbeitungssystem 2 eine unidirektionale Flusssteuerung auf Einzelbildbasis, eine bidirektionale Flusssteuerung auf Softwarebasis oder eine bidirektionale Flusssteuerung auf Hardwarebasis implementieren. Abhängig von den tatsächlichen Ressourcen der ECUs 3, 4 kann entsprechend eines der Flusssteuerungsverfahren gewählt werden.
  • Gemäß einer unidirektionalen Flusssteuerung auf Einzelbildbasis vereinbaren die ECUs 3, 4 eine Einzelbildrate, die von beiden ECUs 3, 4 gehandhabt werden kann. Die Datenübertragungsrate zur Übertragung von Dateiinhalten ist durch ein Produkt aus der Einzelbildrate, der Anzahl der benutzten Pixel innerhalb des Bereichs von Interesse 22 und der Anzahl der zur Verteilung der Dateiinhalte benutzten Kanäle gegeben. Die Datenübertragungseinzelbildrate ist daher im Allgemeinen verschieden von der Videoeinzelbildrate. Zum Beispiel kann eine Videoeinzelbildrate von 30 Einzelbildern pro Sekunde und die Datenübertragungseinzelbildrate von 10 Einzelbildern pro Sekunde implementiert sein, so dass die Videoschnittstellenhardware des ECU 3 den Videoringspeicher mit 30 Einzelbildern pro Sekunde ausliest. Das erste ECU 3 kann die Inhalte des Bereichs von Interesse 22 und die Informationen in den eingebetteten Linien 24, 25 in diesem Beispiel entsprechend mit 10 Einzelbildern pro Sekunde modifizieren. Folglich erhält die zweite ECU 4 den Videostream mit 30 Einzelbildern pro Sekunde, während die Dateiinhalte in dem Bereich von Interesse 22 mit nur 10 Einzelbildern pro Sekunde aktualisiert werden.
  • Gemäß bidirektionaler Flusssteuerung auf Softwarebasis kann entweder das Fahrzeugnetzwerk 6 oder eine Kommunikation mit Rückkanal eingesetzt werden, die über die Benutzung des Serialisierers der Videoausgangsschnittstelle 10 verfügbar ist. Wenn das erste ECU 3 zum Senden der Dateiinhalte bereit ist, kann es eine Nachricht an die Empfängereinheit 11 senden. Kann die Empfängereinheit 11 die erhaltenen Inhalte aufgrund begrenzter Ressourcen nicht verarbeiten, so kann sie eine Nachricht an die Verarbeitungseinheit 7 senden, um die Übertragung auszusetzen.
  • Gemäß bidirektionaler Flusssteuerung auf Hardwarebasis können Allzweckeingangs-Ausgangs-Anschlüsse, GPIO-Pins, benutzt werden, die an der Videoausgangsschnittstelle 10 und der Videoeingangsschnittstelle 16 zur Verfügung stehen. In ähnlicher Weise können Hardwareanschlüsse, die für die Flusssteuerung an der Videoeingangsschnittstelle 16 benutzt werden von der Videoeingangsschnittstelle 16 auf die Videoausgangsschnittstelle 10 gespiegelt werden. Dies ermöglicht eine Übermittlung des Hardwareanschlusssignals von dem ersten ECU 3 an das zweite ECU 4 und umgekehrt, ohne zusätzliche Nutzung der Ressourcen des Fahrzeugnetzwerks 6.
  • Die Integrität der Dateiinhalte, die an die Empfängereinheit 11 übertragen werden, kann durch eine eingebaute Fehlerkontrollfunktionalität des Serialisierers und Deserialisierers geprüft werden. Der eingebaute Fehlerkontrollmechanismus kann ein CRC-Prüfsummenverfahren und ein ECC-Fehlerdetektions- und korrekturverfahren beinhalten, ist aber nicht darauf beschränkt. Die Implementierung erfordert dann keine Softwareroutine, um die Prüfsumme der Datei oder der Abschnitte der erhaltenen Datei auszuwerten.
  • 5 zeigt ein beispielhaftes Softwaredesign beziehungsweise eine Sequenzfolge für eine beispielhafte Implementierung eines Verfahrens gemäß dem verbesserten Konzept. Module 28, 29, 30, 31, 32 sind auf der Verarbeitungseinheit 7 implementiert. Insbesondere kann ein Renderer-Modul 29 vorgesehen sein, welches für die Erzeugung der Videoeinzelbilder verantwortlich ist. Es kann die Videoeinzelbildstruktur erzeugen und auch die Dateiinhalte auf das Videoeinzelbild kopieren. Es kann auf einem speziellen Hardware-Modul oder auf einer herkömmlichen GPU der Verarbeitungseinheit 7 implementiert sein.
  • Ein Videoausgangsservermodul 30 kann für das Verteilen und Einsammeln der Einzelbilder von dem beziehungsweise an das Renderer-Modul 29 zuständig sein. Ein Videocontrollerausgangsmodul 31 kann für die Konfigurierung, Steuerung und Synchronisierung mit Hardwareanzeigeuntersystemen einerseits und dem Videoausgangsservice andererseits zuständig sein.
  • Ein Dateihandhabungsmodul 28 kann für die Bereitstellung der Dateiinhalte verantwortlich sein, die in jedem der Videoeinzelbilder gespeichert werden sollen. Des Weiteren kann das Dateihandhabungsmodul 28 für die Verwaltung und Erzeugung der Metadaten oder Headerinformationen verantwortlich sein, die mit jedem der Blöcke von Dateiinhalten verknüpft sind. Eine periphere Hardware-Treiberschicht 32 kann es den Treibern ermöglichen, mit der Hardware-Peripherie, hauptsächlich dem Anzeigeuntersystem und den Serialisierer, zu kommunizieren.
  • In Schritt A kann das Videocontrollerausgangsmodul 31 ein Signal zur vertikalen Synchronisierung des Ausgangsvideos, Vsync, registrieren. In Schritt B wird das Renderer-Modul 29 als ein Client für das Videoausgangsservermodul 30 registriert. In den Schritten C und D wird das Videoausgangsservermodul 30 über das Vsync in Kenntnis gesetzt. In Schritt E wird der Einzelbildzwischenspeicher dem Renderer-Modul 29 zur Verfügung gestellt. In Schritt F kann das Renderer-Modul 29 die zu übertragenden Einzelbilder erzeugen. In den Schritten K und G erhält das Renderer-Modul 29 die Dateiinhalte, die zusammen mit den entsprechenden Metadaten in das aktuelle Einzelbild gespeichert werden müssen und füllt den Bereich von Interesse 22. In den Schritten H, I und J wird dann das gesamte Videoeinzelbild über das Videoausgangsservermodul 30 und den Videoausgangscontroller 31 gemäß der vereinbarten Einzelbildrate abhängig von dem Flusssteuerungsschema verbreitet.
  • Wie vorstehend beschrieben, wird während des Fortschreitens der Dateiübertragung das Gebiet innerhalb des Bereichs von Interesse 22 entsprechend den Dateiinhalten aktualisiert. Daher können schnelle Änderungen der Farben oder der Helligkeit visuelle Auswirkungen auf den Bereich von Interesse 22 haben. Um diese visuellen Auswirkungen zu reduzieren, kann ein visueller Camouflage-Modus aktiviert werden. In diesem Modus wird jedes Pixel innerhalb des Bereichs von Interesse 22 unter minimalen Auswirkungen auf Farbe und Helligkeit aufgrund der Inhalte der Datei aktualisiert.
  • Als beispielhafte Ausführung kann eine vordefinierte Bitmap vorab erstellt und in dem ersten ECU 3, insbesondere in einem Zwischenspeicher oder einer der Speichereinheiten 13, 15 gespeichert werden. Als ein nicht beschränkendes Beispiel wird ein RGB888-Farbraum mit 8 Bits pro Farbe oder anders ausgedrückt 24 Bits pro Pixel betrachtet. Das Bitmap wird zur Anzeige in den Bereich von Interesse 22 kopiert. In 4 ist die Gestaltung eines Pixels mit 24 Bit für die Farbkanäle C1, C1' und C2 gezeigt, wobei C1, C1' und C2 zum Beispiel Rot, Grün beziehungsweise Blau entsprechen können. Falls eine 8-Bit-Folge der Dateiinhalte übertragen werden soll, wird sie in drei Unterfolgen S1, S1', S2 aufgeteilt, eine für jeden Farbkanal C1, C1', C2. In dem Beispiel von RGB888 können die Unterfolgen S1, S1' zum Beispiel jeweils drei Bits beinhalten, während die Unterfolge S2 die übrigen 2 Bits der Bitfolge der Dateiinhalte beinhaltet.
  • Die Unterfolgen S1 und S1' werden dann in die drei Bits mit den niedrigsten Stellenwerten der Kanäle C1 beziehungsweise C1' gespeichert. Die Unterfolge S2 kann in die zwei Bits mit den niedrigsten Stellenwerten des Kanals C2 gespeichert werden. Die übrigen fünf Bits der Kanäle C1, C1' und die übrigen sechs Bits des Kanals C2 speichern die entsprechenden Inhalte des Bitmapbildes. Alternativ kann ein Paritätsbit P zusammen mit der Unterfolge S2 in die Bits mit den niedrigsten Stellenwerten des Kanals C2 gespeichert werden. In diesem Fall speichert jeder der Kanäle C1, C1', C2 entsprechende fünf Bits des Bitmapbildes.
  • Auf diese Weise werden die für den Endnutzer sichtbaren Auswirkungen auf Kosten dessen reduziert, dass jedes Pixel nur ein Byte an Dateiinhalten, statt drei Bytes in dem beispielhaften Fall des RGB888-Farbraums, übertragen kann. Jedoch kann das Bildschirmlayout derart ausgestaltet sein, dass der Bereich von Interesse 22 vergrößert wird, theoretisch bis zur Größe der Bildschirmauflösung, um die reduzierte Anzahl von Bits pro Pixel für die Dateiübertragung zu kompensieren.
  • Aufgrund von Bedenken hinsichtlich der Privatsphäre und der Sicherheit der übertragenen Datei, kann auch ein Verschlüsselungsvorgang bei einem Verfahren gemäß dem verbesserten Konzept enthalten sein, um den Zugriff unbefugter Nutzer auf die Dateiinhalte zu verhindern. Die zu übertragenden Dateiinhalte können zum Beispiel auf Seite des ersten ECU 3 verschlüsselt werden und auf Seite des zweiten ECU 4 entschlüsselt werden. Die zur Verschlüsselung und Entschlüsselung verwendeten Profile werden von den ECUs 3, 4, wie im Folgenden beschrieben, vor Beginn der Datenübertragung durch ein Protokoll über die Videoverbindung vereinbart. Beispielhafte Flussdiagramme zur Veranschaulichung des Flusses des Verschlüsselungsprotokolls sind in den 6 und 7 gezeigt.
  • Die zweite ECU 4 kann die übertragenen Metadaten auf ein Dateiübertragungsmodus-Flag prüfen. Ist eine Verschlüsselung erforderlich, so kann das zweite ECU 4 Einzelheiten des Verschlüsselungsschemas von der ersten ECU 3 anfordern.
  • Insbesondere können unterschiedliche Herangehensweisen zur Wahl eines Geheimschlüssels angewendet werden. Zum Beispiel kann ein vorab ausgetauschter Schlüssel, PSK, verwendet werden. In diesem Fall vereinbaren die ECUs 3, 4 die Verwendung eines Geheimschlüssels, der beiden vorab bekannt ist und der zum Beispiel während der Produktion des Fahrzeugs 1 bereitgestellt oder während der Produktion der ECUs 3, 4 mittels sicheren Speichers hinterlegt wurde. Im Falle eines Schlüsselaustausches vereinbaren die ECUs 3, 4 jeweils bei jeder Initialisierung einer Übertragungssitzung mittels eines Schlüsselvereinbarungsprotokolls, zum Beispiel eines Elliptic Curve Diffie-Hellman, ECDH, Protokolls, einen gemeinsamen Geheimschlüssel.
  • Für den Verschlüsselungsalgorithmus vereinbaren die ECUs 3, 4 den zu verwendenden Verschlüsselungsalgorithmus, zum Beispiel einen Advanced Encryption Standard, AES, oder einen Galois/Counter Mode, GCM. Die inhärenten Spezifika des Verschlüsselungsmodus, zum Beispiel ein Initialisierungsvektor, werden durch die erste ECU 3 mittels eines Zufallszahlengenerators mit ausreichender Entropie, beispielsweise gemäß TRNG AIS-31, erzeugt. Der Verschlüsselungs-/Entschlüsselungsprozess kann dann mittels Hardwarebeschleunigung oder auf Softwarebasis erfolgen.
  • In dem Flussdiagramm von 6 ist die zweite ECU 4 der Initiator des Schlüsselvereinbarungsprotokolls. Das Protokoll beginnt in Schritt S61. In Schritt S62 fordert die zweite ECU 4 die Übertragung einer bestimmten Datei durch das erste ECU 3 an. In Schritt S63 verifiziert das erste ECU 3 die Anfrage und bestimmt, ob die Datei verschlüsselt ist. Ist die durch das zweite ECU 4 angeforderte Datei verschlüsselt, so stellt das erste ECU 3 in Schritt S64 einen Verschlüsselungsmodus ein und beantworte die Anfrage mit einem Verschlüsselungs-Flag und einem zu verwendenden Verschlüsselungsschema.
  • In Schritt S65 erhält das zweite ECU 4 die Verschlüsselungs-Flag und das zu verwendende Schema. In Schritt S66 lädt das zweite ECU 4 den von den Verschlüsselungsmaschinen zu verwendenden vorab ausgetauschten Schlüssel. In Schritt S67 fordert das zweite ECU 4 die Initialisierung der Übertragung der verschlüsselten Datei an und in Schritt S68 beginnt das erste ECU 3 mit der Übertragung der verschlüsselten Datei.
  • Wie in dem Flussdiagramm von 7 dargestellt, wird in Schritt S71 die Datei, die vorab gespeichert oder während der Übertragung erzeugt werden kann, durch das erste ECU 3 bereitgestellt. In Schritt S72 kann die Datei in kleinere Stücke aufgeteilt werden und zur Aufbereitung für die Verschlüsselung in einen flüchtigen Hochgeschwindigkeits-Zwischenspeicher geladen werden. In Schritt S73 wird die Verschlüsselungsmaschine dazu benutzt, die Daten aus dem Zwischenspeicher zu verschlüsseln, und hat Zugriff auf Geheimschlüssel, die für den Verschlüsselungsvorgang erforderlich sind.
  • In Schritt S74 werden die verschlüsselten Daten zur Aufbereitung für die Übermittlung an das zweite ECU 4 einem ersten weiteren Zwischenspeicher zugewiesen. In Schritt S75 werden die Daten von Schritt S74 an das zweite ECU 4 übermittelt. In Schritt S76 werden die übermittelten Daten durch das zweite ECU 4 erhalten. In Schritt S77 wird ein zweiter weiterer Zwischenspeicher benutzt, um die erhaltenen verschlüsselten Daten zur Aufbereitung für die Entschlüsselung zu laden. In Schritt S78 wird eine Entschlüsselungsmaschine, die Zugriff auf die für den Entschlüsselungsvorgang erforderlichen Geheimschlüssel hat, dazu benutzt, die Daten zu entschlüsseln.
  • In Schritt S79 werden die entschlüsselten Daten zur Aufbereitung für die Rekonstruktion einem dritten weiteren Zwischenspeicher zugewiesen. In Schritt S710 wird die in Schritt S71 aufgeteilte Datei an dem zweiten ECU 4 aus den mehreren in Schritt S79 dynamisch zugewiesenen Stücken rekonstruiert. In Schritt S711 wird die Datei an das Speichersystem des zweiten ECUs 4 oder an eine andere Anwendung weitergeleitet.
  • Wie beschrieben wird gemäß dem verbesserten Konzept eine Möglichkeit zur Hochgeschwindigkeits-Datenübertragung über eine Videoverbindung bereitgestellt, die eine Datenübertragung bei paralleler Videoanzeige erlaubt. Insbesondere zeichnet sich das verbesserte Konzept durch einen sehr geringen Rechenaufwand und niedrige Rechenkosten aus. Zudem können zusätzliche Hardwarekosten vermieden werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2018/0333646 A1 [0004]

Claims (15)

  1. Videoverarbeitungssystem zur Übertragung von Dateiinhalten, wobei - das Videoverarbeitungssystem (2) eine Verarbeitungseinheit (7), eine Videoausgangsschnittstelle (10) zum Koppeln der Verarbeitungseinheit (7) mit einer Empfängereinheit (11) und wenigstens eine Speicherschnittstelle (12, 14) zum Koppeln der Verarbeitungseinheit (7) mit wenigstens einer Speichereinheit (13, 15) aufweist; und - die Verarbeitungseinheit (7) dazu eingerichtet ist, - die Dateiinhalte über die wenigstens eine Speicherschnittstelle (12, 14) zu erhalten; - erste Pixelwerte für ein erstes Pixel gemäß einem vordefinierten Farbraum basierend auf den Dateiinhalten zu bestimmen, wobei die ersten Pixelwerte eine Bitfolge der Dateiinhalte kodieren; - zweite Pixelwerte für ein zweites Pixel gemäß dem Farbraum unabhängig von den Dateiinhalten zu bestimmen; - ein Einzelbild für einen Videostream zu erzeugen, wobei das Einzelbild das erste Pixel innerhalb eines vordefinierten Bereichs von Interesse (22) des Einzelbildes und das zweite Pixel außerhalb des Bereichs von Interesse (22) enthält; und - den Videostream mit dem Einzelbild über die Videoausgangsschnittstelle (10) bereitzustellen.
  2. Videoverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass die Verarbeitungseinheit (7) dazu eingerichtet ist, eine Binärdatei über die wenigstens eine Speicherschnittstelle (12, 14) zu erhalten und die Binärdatei abhängig von einer Größe des Bereichs von Interesse (22) in eine Vielzahl von Teilen aufzuteilen, wobei die Dateiinhalte einem der Vielzahl von Teilen entsprechen.
  3. Videoverarbeitungssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit (7) dazu eingerichtet ist, Bilddaten über die wenigstens eine Speicherschnittstelle (12, 14) zu erhalten und die zweiten Pixelwerte abhängig von den Bilddaten zu bestimmen.
  4. Videoverarbeitungssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Anzahl von Kanälen (C1, C1', C2) des Farbraums durch eine Kanalzahl gegeben ist, die größer oder gleich zwei ist, und, um die ersten Pixelwerte zu bestimmen, die Verarbeitungseinheit (7) dazu eingerichtet ist, - die Bitfolge in eine Anzahl von Unterfolgen (S1, S1', S2) aufzuteilen, die gleich der Kanalzahl ist; - eine erste Unterfolge (S1, S1') der Anzahl von Unterfolgen (S1, S1', S2) für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines ersten Kanals (C1, C1') des Farbraums zu benutzen.
  5. Videoverarbeitungssystem nach Anspruch 4, dadurch gekennzeichnet, dass die Verarbeitungseinheit (7) dazu eingerichtet ist, eine zweite Unterfolge (S2) der Anzahl von Unterfolgen (S1, S1', S2) und ein Paritätsbit (P) für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines zweiten Kanals (C2) des Farbraums zu benutzen.
  6. Videoverarbeitungssystem nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass die Verarbeitungseinheit (7) dazu eingerichtet ist, die Anzahl von Unterfolgen (S1, S1', S2) auf die Kanäle (C1, C1', C2) zu verteilen, so dass jeder der Kanäle (C1, C1', C2) wenigstens ein Bit der Bitfolge beinhaltet.
  7. Videoverarbeitungssystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Farbraum zwei oder mehr Kanäle (C1, C1', C2) aufweist und die Verarbeitungseinheit (7) dazu eingerichtet ist, um die ersten Pixelwerte zu bestimmen, - einen Wert der Bitfolge der Dateiinhalte durch eine Anzahl der zwei oder mehr Kanäle (C1, C1', C2) des Farbraums zu teilen, um einen Quotientenwert und einen Restwert (R) zu erhalten; - den Quotientenwert für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines ersten Kanals des Farbraums zu benutzen; und - eine Summe des Quotientenwerts und des Restwerts (R) für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines zweiten Kanals (C2) des Farbraums zu benutzen.
  8. Videoverarbeitungssystem nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass, um die ersten Pixelwerte zu bestimmen, die Verarbeitungseinheit (7) dazu eingerichtet ist, eine Bitfolge eines vordefinierten Bitmapbildes (26) für eine entsprechende Anzahl von Bits mit den höchsten Stellenwerten des ersten Kanals (C1, C1') zu benutzen.
  9. Videoverarbeitungssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit (7) dazu eingerichtet ist, das Einzelbild derart zu erzeugen, dass das Einzelbild eine Menge von Pixel außerhalb des Bereichs von Interesse (22) enthält, wobei die Metadaten durch entsprechende Pixelwerte der Menge von Pixel kodiert sind.
  10. Videoverarbeitungssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Videoausgangsschnittstelle (10) einen Serialisierer (10) aufweist, der mit der Verarbeitungseinheit (7) gekoppelt ist.
  11. Videoverarbeitungssystem nach Anspruch 10, dadurch gekennzeichnet, dass das Videoverarbeitungssystem (2) einen Deserialisierer (16) aufweist, der mit dem Serialisierer (10) verbunden ist, wobei der Deserialisierer (16) dazu eingerichtet ist, mit der Empfängereinheit (11) gekoppelt zu werden.
  12. Kraftfahrzeug mit einem Videoverarbeitungssystem (2) nach einem der vorhergehenden Ansprüche.
  13. Verfahren zur Übertragung von Dateiinhalten als Teil eines Videostreams, wobei es das Verfahren beinhaltet, eine Verarbeitungseinheit (7) zu benutzen, um - die Dateiinhalte von wenigstens einer Speichereinheit (13, 15) zu erhalten; - erste Pixelwerte für ein erstes Pixel gemäß einem vordefinierten Farbraum basierend auf den Dateiinhalten zu bestimmen, wobei die ersten Pixelwerte eine Bitfolge der Dateiinhalte kodieren; - zweite Pixelwerte für ein zweites Pixel gemäß dem Farbraum unabhängig von den Dateiinhalten zu bestimmen; - ein Einzelbild für einen Videostream zu erzeugen, wobei das Einzelbild das erste Pixel innerhalb eines vordefinierten Bereichs von Interesse (22) des Einzelbildes und das zweite Pixel außerhalb des Bereichs von Interesse (22) enthält; und - den Videostream mit dem Einzelbild einer Empfängereinheit (11) bereitzustellen.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass eine Anzahl von Kanälen (C1, C1' C2) des Farbraums durch eine Kanalzahl gegeben ist, die größer oder gleich zwei ist, und, um die ersten Pixelwerte zu bestimmen, die Verarbeitungseinheit (7) dazu benutzt wird, - die Bitfolge in eine Anzahl von Unterfolgen (S1, S1', S2) aufzuteilen, die gleich der Kanalzahl ist; - eine erste Unterfolge (S1, S1') der Anzahl von Unterfolgen (S1, S1', S2) für eine entsprechende Anzahl von Bits mit den niedrigsten Stellenwerten eines ersten Kanals (C1, C1') des Farbraums zu benutzen.
  15. Computerprogrammprodukt, welches Befehle beinhaltet, die, wenn sie durch ein Rechensystem, insbesondere ein Videoverarbeitungssystem (2) gemäß einem der Ansprüche 1 bis 11, ausgeführt werden, das Rechensystem dazu veranlassen, ein Verfahren nach einem der Ansprüche 13 oder 14 durchzuführen.
DE102020128827.1A 2020-11-03 2020-11-03 Übertragung von Dateiinhalten als Teil eines Videostreams Pending DE102020128827A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020128827.1A DE102020128827A1 (de) 2020-11-03 2020-11-03 Übertragung von Dateiinhalten als Teil eines Videostreams
PCT/EP2021/079030 WO2022096261A1 (en) 2020-11-03 2021-10-20 Transfer of file content as part of a video stream

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020128827.1A DE102020128827A1 (de) 2020-11-03 2020-11-03 Übertragung von Dateiinhalten als Teil eines Videostreams

Publications (1)

Publication Number Publication Date
DE102020128827A1 true DE102020128827A1 (de) 2022-05-05

Family

ID=78302778

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020128827.1A Pending DE102020128827A1 (de) 2020-11-03 2020-11-03 Übertragung von Dateiinhalten als Teil eines Videostreams

Country Status (2)

Country Link
DE (1) DE102020128827A1 (de)
WO (1) WO2022096261A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8856853B2 (en) 2010-12-29 2014-10-07 Echostar Technologies L.L.C. Network media device with code recognition
WO2014208860A1 (en) 2013-06-25 2014-12-31 Samsung Electronics Co., Ltd. Broadcast image displaying apparatus and method for providing information related to broadcast image
US20150113557A1 (en) 2013-10-23 2015-04-23 Samsung Electronics Co., Ltd. Display device and method for processing information code in image
US20150248394A1 (en) 2013-06-28 2015-09-03 Quickmii Corporation Automatically uploading user profile information
US20180333646A1 (en) 2017-05-22 2018-11-22 Microsoft Technology Licensing, Llc File transfer via a video port

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282677A (ja) * 2003-01-21 2004-10-07 Canon Inc 画像処理方法
FR2935579B1 (fr) * 2008-08-28 2010-11-05 Centre Nat Etd Spatiales Procede d'acquisition, de reduction et de transmission d'images satellitaires
US10848272B2 (en) * 2017-12-13 2020-11-24 Qualcomm Incorporated Error detection in automobile tell-tales

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8856853B2 (en) 2010-12-29 2014-10-07 Echostar Technologies L.L.C. Network media device with code recognition
WO2014208860A1 (en) 2013-06-25 2014-12-31 Samsung Electronics Co., Ltd. Broadcast image displaying apparatus and method for providing information related to broadcast image
US20150248394A1 (en) 2013-06-28 2015-09-03 Quickmii Corporation Automatically uploading user profile information
US20150113557A1 (en) 2013-10-23 2015-04-23 Samsung Electronics Co., Ltd. Display device and method for processing information code in image
US20180333646A1 (en) 2017-05-22 2018-11-22 Microsoft Technology Licensing, Llc File transfer via a video port

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KHUPSE, Sneha; PATIL, Nitin N.: An Adaptive Steganography Technique for Videos Using Steganoflage. IEEE International Conference on Issues and Challenges in Intelligent Computing Techniques, ICICT 2014, 7 - 8 Feb. 2014, Ghaziabad, India. Conference Proceedings, ISBN 978-1-4799-2900-9, pp. 811 - 815.
STANESCU, Daniela; STRATULAT, Mircea; CIUBOTARU, Bogdan et al.: Embedding Data in Video Stream using Steganography. 4th IEEE International Symposium on Applied Computational Intelligence and Informatics, Timisoara, Romania, 17 - 18 May 2007. Conference Proceedings, ISBN 1-4244-1234-X, pp. 241 - 244.
XIE, Kun; GABOURY, Sébastien; HALLÈ, Sylvain: Real-Time Streaming Communication With Optical Codes. IEEE Access, Vol. 4, 04 January 2016, ISSN 2169-3536, pp. 284 - 298.

Also Published As

Publication number Publication date
WO2022096261A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
DE112010002704B4 (de) Mehrere Komprimierungstechniken für Informationen in Paketform
DE69821050T2 (de) Datenstromdifferenzierungssystem für Endgerätemulator
DE102011010613B4 (de) Verfahren zum Speichern und Wiederherstellen von Daten, Verwendung der Verfahren in einer Storage Cloud, Speicherserver und Computerprogrammprodukt
DE69816986T2 (de) Verfahren und vorrichtung zur versiegelung und unterschrift von objekten
DE69915725T2 (de) Datenkompression unter Verwendung von Primzahlexponenten
DE10334423A1 (de) Übertragung von Daten in auswählbaren Übertragungsmodi
DE10351317A1 (de) Speicherungs- und Zugriffsverfahren für ein Bildretrievalsystem in einer Client/Server-Umgebung
EP1776807A1 (de) Verfahren und vorrichtung zum zugriff auf daten eines botschaftsspeichers eines kommunikationsbausteins
DE2707783A1 (de) Datenverarbeitungsanlage
DE112017005708T5 (de) Einrichtungen und Verfahren zum Überleiten von Videoinformationen über ein Erweiterungsmedium
DE112015001145T5 (de) Komprimierter Videotransfer über eine Multimediaverbindung
DE112018000227B4 (de) Verfahren zum teilweisen Aktualisieren von Dateninhalten in einem verteilten Speichernetzwerk
DE102017115187A1 (de) Verfahren und Systeme zur Authentifizierung eines Kopfhörers für ein Transportfahrzeug
WO2016188859A1 (de) Verfahren zur sicherstellung der informationssicherheit von über einen datenbus übertragenen daten sowie datenbussystem
DE69631742T2 (de) Kodierungs- und Dekodierungsverfahren für Datenübertragung
EP1776808A1 (de) Verfahren zur speicherung von botschaften in einem botschaftsspeicher und botschaftsspeicher
DE19900150B4 (de) Apparat und Verfahren zum Kodieren von Information mit einem finiten Automaten
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
DE102018121086A1 (de) Vorrichtungen, systeme und verfahren zum augenblicklichen videoschalten in einer erweiterungsumgebung
DE102020128827A1 (de) Übertragung von Dateiinhalten als Teil eines Videostreams
DE102018105848A1 (de) CPU-Fehlerkorrektur während Erasure-Code-Codierung
DE102021118436A1 (de) Mipi-übersetzung in gmsl-tunnelmodus
DE60104213T2 (de) Teilverschlüsselung von zusammengesetzten bitströmen
DE102021131171A1 (de) Automatisierte leichte und sichere Paarung von Geräten
EP1518412B1 (de) Verfahren zur Ver- und Entschlüsselung von nach dem Verfahren der priorisierten Pixelübertragung betragenen oder gespeicherten digitalen Daten

Legal Events

Date Code Title Description
R163 Identified publications notified