DE112015001145T5 - Komprimierter Videotransfer über eine Multimediaverbindung - Google Patents

Komprimierter Videotransfer über eine Multimediaverbindung Download PDF

Info

Publication number
DE112015001145T5
DE112015001145T5 DE112015001145.5T DE112015001145T DE112015001145T5 DE 112015001145 T5 DE112015001145 T5 DE 112015001145T5 DE 112015001145 T DE112015001145 T DE 112015001145T DE 112015001145 T5 DE112015001145 T5 DE 112015001145T5
Authority
DE
Germany
Prior art keywords
video data
compressed
video
data
compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112015001145.5T
Other languages
English (en)
Inventor
Hoon Choi
Ju Hwan Yi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lattice Semiconductor Corp
Original Assignee
Lattice Semiconductor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lattice Semiconductor Corp filed Critical Lattice Semiconductor Corp
Publication of DE112015001145T5 publication Critical patent/DE112015001145T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/04Protocols for data compression, e.g. ROHC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/083Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical and the horizontal blanking interval, e.g. MAC data signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/084Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the horizontal blanking interval only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/084Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the horizontal blanking interval only
    • H04N7/085Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the horizontal blanking interval only the inserted signal being digital
    • H04N7/0855Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the horizontal blanking interval only the inserted signal being digital the signal being time-compressed before its insertion and subsequently decompressed at reception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0881Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital the signal being time-compressed before its insertion and subsequently decompressed at reception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/93Run-length coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Power Engineering (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

Eine Übertragungsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung weist auf: eine Sicherungsschicht-Schaltung zum Empfangen von Videodaten und zum Komprimieren der Videodaten in komprimierte Videodaten. Die Übertragungsvorrichtung weist auch einen Kompressionsinformation-Schaltkreis auf, welcher Videokompression-Steuerinformationen, welche die Kompression der Videodaten beschreiben, generiert. Die Übertragungsvorrichtung weist ferner eine Schnittstelle auf, welche Signale, welche zu den komprimierten Videodaten korrespondieren, überträgt mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Übertragen von Signalen, welche zu den Videokompression-Steuerinformationen korrespondieren mittels der Multimediaverbindung.

Description

  • HINTERGRUND
  • 1. GEBIET DER OFFENBARUNG
  • Ausführungsformen der vorliegenden Offenbarung betreffen im Allgemeinen das Gebiet der elektrischen Vorrichtungen und insbesondere komprimierten Videoinhalttransfer über eine Hochauflösung-Multimedia-Schnittstelle („High-Definition-Multimedia Interface“ – HDMI) und eine mobile-Hochauflösungsverbindung („Mobile High-Definition Link“ – MHL).
  • 2. BESCHREIBUNG DES TECHNISCHEN HINTERGRUNDES
  • HDMI (z.B. HDMI1 und HDMI2) und MHL (z.B. MHL1, MHL2, und MHL3) wurden entworfen zum Transferieren von unkomprimiertem Videoinhalt (und Audioinhalt) von Quelle-Vorrichtungen zu Senke-Vorrichtungen. Das unkomprimierte Video stellt die beste Videoqualität bereit, so lange die Verbindung (z.B. HDMI und MHL) die volle benötigte Bandbreite (BW) unterstützen kann. Kürzlich erfolgte Fortschritte in der Displaytechnologie haben die Nachfrage für Hochauflösung-Videos (z.B. 8k) vergrößert. Es ist allerdings aufgrund von Bandbreitebegrenzungen schwierig, solche Hochauflösung-Videos über herkömmliche HDMI- und MHL-Verbindungen zu transferieren. Insbesondere sind HDMI und MHL nicht für komprimierten Videoinhalt-Transfer ausgelegt. Daher besteht ein Bedürfnis für eine Lösung zum Transferieren von komprimiertem Videoinhalt über die HDMI- und MHL-Verbindungen.
  • ÜBERBLICK
  • Ausführungsformen der vorliegenden Offenbarung betreffen im Allgemeinen komprimierten Videotransfer über HDMI und MHL. In einigen Ausführungsformen sind eine Übertragungsvorrichtung, eine Empfangsvorrichtung oder ein nicht-flüchtiges computerlesbares Medium, welches eine Repräsentation von der Übertragungsvorrichtung oder der Empfangsvorrichtung speichert, offenbart für komprimierten Videotransfer über HDMI und MHL. Die Übertragungsvorrichtung weist auf: eine Sicherungsschicht-Schaltung (mit anderen Worten Verbindungschicht-Schaltung) zum Empfangen von Videodaten und zum Komprimieren der Videodaten in komprimierte Videodaten; einen Kompressionsinformation-Schaltkreis zum Generieren von Videokompression-Steuerinformationen, welche die Kompression der Videodaten beschreiben; und eine Schnittstelle zum Übertragen von Signalen, welche zu den komprimierten Videodaten korrespondieren, mittels eines oder mehreren (mit anderen Worten via eines oder mehreren) Multimediakanälen der Multimediaverbindung und zum Übertragen von Signalen, welche zu den Videokompression-Steuerinformationen korrespondieren, mittels der Multimediaverbindung (mit anderen Worten via der Multimediaverbindung).
  • In einer Ausführungsform weisen die Videokompression-Steuerinformationen Kompressionsparameter auf, welche während der Kompression der Videodaten verwendet wurden. In einer Ausführungsform werden die Videokompression-Steuerinformationen als eine Präambel oder ein führendes Schutzband vorangehend zu einem Video-Übertragungszeitraum (einer Video-Übertragungsperiode) der komprimierten Videodaten übertragen. In einer Ausführungsform werden die Videokompression-Steuerinformationen in einer Dateninsel während eines Austastungszeitraums (mit anderen Worten einer Austastperiode) übertragen. In einer Ausführungsform werden die Videokompression-Steuerinformationen mittels des einen oder der mehreren Multimediakanäle der Multimediaverbindung übertragen. In einer Ausführungsform werden die Videokompression-Steuerinformationen mittels eines Steuerkanals der Multimediaverbindung übertragen.
  • In einer Ausführungsform weisen die aktiven Videodaten eine Mehrzahl von Farbkomponenten auf, und die Sicherungsschicht-Schaltung ist eingerichtet zum Komprimieren von Linien der Farbkomponenten in komprimierte Linien der Farbkomponenten, welche dieselbe Länge aufweisen. In einer Ausführungsform weisen die aktiven Videodaten eine Mehrzahl von Farbkomponenten auf, und die Sicherungsschicht-Schaltung ist eingerichtet zum Komprimieren von Linien der Farbkomponenten in komprimierte Linien der Farbkomponenten und zum Auffüllen von einem oder mehreren Füllbits auf die komprimierten Linien der Farbkomponenten bis die komprimierten Linien dieselbe Länge aufweisen. In einer Ausführungsform weisen die aktiven Videodaten eine Mehrzahl von Farbkomponenten auf, und die Sicherungsschicht-Schaltung ist eingerichtet zum Komprimieren von Linien der Farbkomponenten in komprimierte Linien der Farbkomponenten und zum Verschlüsseln der komprimierten Linien der Farbkomponenten in serieller Reihenfolge in verschlüsselte Videodaten, und die Signale, welche zu den komprimierten Videodaten, welche von der Schnittstelle übertragen werden, korrespondieren, sind Signale, welche zu den verschlüsselten Videodaten korrespondieren.
  • Andere Ausführungsformen der vorliegenden Offenbarung sind eine Empfangsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung. Die Empfangsvorrichtung weist auf: eine Schnittstelle zum Empfangen von Signalen, welche zu komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Empfangen von Signalen, welche zu Videokompression-Steuerinformationen korrespondieren, mittels der Multimediaverbindung, wobei die Videokompression-Steuerinformationen die Kompression der komprimierten Videodaten beschreiben; und eine Sicherungsschicht-Schaltung zum Dekomprimieren der komprimierten Videodaten in Videodaten basierend auf den Videokompression-Steuerinformationen, welche die Kompression der komprimierten Videodaten beschreiben.
  • In einer Ausführungsform, weisen die Videokompression-Steuerinformationen Kompressionsparameter auf, welche während der Kompression der Videodaten verwendet wurden. In einer Ausführungsform werden die Videokompression-Steuerinformationen als eine Präambel oder ein führendes Schutzband vorangehend zu einem Video-Übertragungszeitraum der komprimierten Videodaten empfangen. In einer Ausführungsform werden die Videokompression-Steuerinformationen in einer Dateninsel während eines Austastungszeitraums empfangen. In einer Ausführungsform werden die Videokompression-Steuerinformationen mittels des einen oder der mehreren Multimediakanäle der Multimediaverbindung empfangen. In einer Ausführungsform werden die Videokompression-Steuerinformationen mittels eines Steuerkanals der Multimediaverbindung empfangen.
  • In einer Ausführungsform weisen die komprimierten Videodaten komprimierte Linien von Farbkomponenten auf, welche dieselbe Länge aufweisen. In einer Ausführungsform weisen die komprimierten Videodaten komprimierte Linien von Farbkomponenten, welche Füllbits aufweisen, auf, wobei die Sicherungsschicht-Schaltung die Füllbits entfernt, wenn diese die komprimierten Videodaten dekomprimiert. In einer Ausführungsform sind die Signale, welche zu den komprimierten Videodaten korrespondieren, Signale, welche zu verschlüsselten Videodaten korrespondieren, und die Sicherungsschicht-Schaltung entschlüsselt die verschlüsselten Videodaten in entschlüsselte Videodaten und separiert die entschlüsselten Videodaten in Linien für verschiedene Farbkomponenten.
  • Gemäß einer anderen Ausführungsform der vorliegenden Offenbarung wird ein nicht-flüchtiges computerlesbares Medium bereitgestellt, welches eine Repräsentation von einer Übertragungsvorrichtung speichert. Die Übertragungsvorrichtung weist auf: eine Sicherungsschicht-Schaltung zum Empfangen von aktiven Videodaten und zum Komprimieren der aktiven Videodaten in komprimierte Videodaten; einen Kompressionsinformation-Schaltkreis zum Generieren von Videokompression-Steuerinformationen, welche die Kompression der aktiven Videodaten beschreiben; und eine Schnittstelle zum Übertragen von Signalen, welche zu den komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Übertragen von Signalen, welche zu den Videokompression-Steuerinformationen korrespondieren mittels der Multimediaverbindung.
  • Gemäß einer noch anderen Ausführungsform der vorliegenden Offenbarung wird ein nicht-flüchtiges computerlesbares Medium bereitgestellt, welches eine Repräsentation einer Empfangsvorrichtung speichert. Die Empfangsvorrichtung weist auf: eine Schnittstelle zum Empfangen von Signalen, welche zu komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Empfangen von Signalen, welche zu Videokompression-Steuerinformationen korrespondieren, mittels der Multimediaverbindung, wobei die Videokompression-Steuerinformationen die Kompression der komprimierten Videodaten beschreiben; und eine Sicherungsschicht-Schaltung zum Dekomprimieren der komprimierten Videodaten in Videodaten basierend auf den Videokompression-Steuerinformationen, welche die Kompression der komprimierten Videodaten beschreiben.
  • Gemäß zusätzlichen Ausführungsformen der vorliegenden Offenbarung wird eine Übertragungsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung bereitgestellt. Die Übertragungsvorrichtung weist auf: eine Kompression-Schaltung zum Empfangen von Austastungszeitraum-Daten, welche zu Austastungszuständen von Video-Austastungszeiträumen korrespondieren, wobei die Kompression-Schaltung die Austastungszeitraum-Daten in komprimierte Austastungszeitraum-Daten komprimiert; und eine Schnittstelle zum Übertragen von Signalen, welche zu den komprimierten Austastungszeitraum-Daten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung.
  • In einer Ausführungsform generiert die Kompression-Schaltung Austastung-Kompressionsinformationen, welche die Kompression der komprimierten Austastungszeitraum-Daten beschreiben, und die Schnittstelle überträgt die Austastung-Kompressionsinformationen mittels der Multimediaverbindung. In einer Ausführungsform weisen die komprimierten Austastungszeitraum-Daten Austastungsereignisse, welche für Zustandsänderungen innerhalb der Austastungszeitraum-Daten indikativ (mit anderen Worten anzeigend) sind, auf. In einer Ausführungsform komprimiert die Kompression-Schaltung die Austastungszeitraum-Daten mittels Anwendens einer Lauflängencodierung auf die Austastungszeitraum-Daten zum Generieren der komprimierten Austastung-Daten.
  • In einer Ausführungsform komprimiert die Kompression-Schaltung für zumindest einen Video-Austastungszeitraum die Austastungszeitraum-Daten für den Video-Austastungszeitraum mittels Teilens der Austastungszeitraum-Daten in verschiede Abschnitte, welche von Dateninseln separiert sind, und separaten Komprimierens jedes von den verschieden Abschnitten. In einer Ausführungsform komprimiert die Kompression-Schaltung für zumindest einen Video-Austastungszeitraum, welcher Dateninseln aufweist, die Austastungszeitraum-Daten für den Video-Austastungszeitraum mittels Komprimierens der Austastungszeitraum-Daten in einen einzelnen Satz von Zeitabstimmung-Informationen (mit anderen Worten Timing-Informationen), welche die Zustände der Austastungszeitraum-Daten beschreiben. In einer Ausführungsform ersetzt die Übertragungsvorrichtung zusätzlich Video-Austastungszeiträume mit komprimierten Videodaten, wobei die Schnittstelle Signale, welche zu den komprimierten Videodaten korrespondieren, mittels des einen oder der mehreren Multimediakanäle der Multimediaverbindung überträgt.
  • Gemäß noch zusätzlichen Ausführungsformen der vorliegenden Offenbarung wird eine Empfangsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung bereitgestellt. Die Empfangsvorrichtung weist auf: eine Schnittstelle zum Empfangen, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung, von Signalen, welche zu komprimierten Austastungszeitraum-Daten korrespondieren; und eine Dekompression-Schaltung zum Dekomprimieren der komprimierten Austastungszeitraum-Daten in Austastungszeitraum-Daten, welche zu Zuständen von Video-Austastungszeiträumen korrespondieren.
  • In einer Ausführungsform empfängt die Schnittstelle mittels der Multimediaverbindung auch Austastung-Kompressionsinformationen, welche die Kompression der komprimierten Austastungszeitraum-Daten beschreiben, wobei die Dekompression-Schaltung die komprimierten Austastungszeitraum-Daten dekomprimiert basierend auf den Austastung-Kompressionsinformationen. In einer Ausführungsform weisen die komprimierten Austastungszeitraum-Daten Austastungsereignisse auf, welche für Zustandsänderungen innerhalb der Austastung-Daten indikativ sind. In einer Ausführungsform werden die komprimierten Austastungszeitraum-Daten dekomprimiert mittels Anwendens einer Lauflängendekodierung auf die komprimierten Austastungszeitraum-Daten zum Generieren der Austastungszeitraum-Daten.
  • In einer Ausführungsform, für zumindest einen Video-Austastungszeitraum, weisen die komprimierten Austastungszeitraum-Daten für den Video-Austastungszeitraum verschiede Abschnitte auf, welche von Dateninseln separiert sind, und der Dekompression-Schaltkreis dekomprimiert die Abschnitte in die Austastungszeitraum-Daten. In einer Ausführungsform, für zumindest einen Video-Austastungszeitraum, welcher Dateninseln aufweist, weisen die komprimierten Austastungszeitraum-Daten für den Video-Austastungszeitraum einen einzelnen Satz von Zeitabstimmung-Informationen, welche zu den Zuständen der Austastungszeitraum-Daten korrespondieren, auf, und der Dekompression-Schaltkreis dekomprimiert den einzelnen Satz von Zeitabstimmung-Informationen in die Austastungszeitraum-Daten.
  • Gemäß einer anderen Ausführungsform der vorliegenden Offenbarung wird ein nicht-flüchtiges computerlesbares Medium bereitgestellt, welches eine Repräsentation von einer Übertragungsvorrichtung speichert. Die Übertragungsvorrichtung weist auf: eine Kompression-Schaltung zum Empfangen von Austastungszeitraum-Daten, welche zu Austastungszuständen von Video-Austastungszeiträumen korrespondieren, wobei die Kompression-Schaltung die Austastungszeitraum-Daten in komprimierte Austastungszeitraum-Daten komprimiert; und eine Schnittstelle zum Übertragen von Signalen, welche zu den komprimierten Austastungszeitraum-Daten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung.
  • In einer Ausführungsform generiert die Kompression-Schaltung Austastung-Kompressionsinformationen, welche die Kompression der komprimierten Austastungszeitraum-Daten beschreiben, und die Schnittstelle überträgt die Austastung-Kompressionsinformationen mittels der Multimediaverbindung. In einer Ausführungsform weisen die komprimierten Austastungszeitraum-Daten Austastungsereignisse, welche für Zustandsänderungen innerhalb der Austastungszeitraum-Daten indikativ sind, auf. In einer Ausführungsform, komprimiert die Kompression-Schaltung die Austastungszeitraum-Daten mittels Anwendens einer Lauflängencodierung auf die Austastungszeitraum-Daten zum Generieren der komprimierten Austastung-Daten.
  • In einer Ausführungsform, für zumindest einen Video-Austastungszeitraum, komprimiert die Kompression-Schaltung die Austastungszeitraum-Daten für den Video-Austastungszeitraum mittels Teilens der Austastungszeitraum-Daten in verschiede Abschnitte, welche von Dateninseln separiert sind, und komprimiert separat jeden von den verschieden Abschnitten. In einer Ausführungsform, für zumindest einen Video-Austastungszeitraum, welcher Dateninseln aufweist, komprimiert die Kompression-Schaltung die Austastungszeitraum-Daten für den Video-Austastungszeitraum mittels Komprimierens der Austastungszeitraum-Daten in einen einzelnen Satz von Zeitabstimmung-Informationen, welche die Zustände der Austastungszeitraum-Daten beschreiben.
  • Gemäß noch einer anderen Ausführungsform der vorliegenden Offenbarung wird ein nicht-flüchtiges computerlesbares Medium bereitgestellt, welches eine Repräsentation einer Empfangsvorrichtung speichert. Die Empfangsvorrichtung weist auf: eine Schnittstelle zum Empfangen, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung, von Signalen, welche zu komprimierten Austastungszeitraum-Daten korrespondieren; und eine Dekompression-Schaltung zum Dekomprimieren der komprimierten Austastungszeitraum-Daten in Austastungszeitraum-Daten, welche zu Zuständen von Video-Austastungszeiträumen korrespondieren.
  • In einer Ausführungsform empfängt die Schnittstelle mittels der Multimediaverbindung auch Austastung-Kompressionsinformationen, welche die Kompression der komprimierten Austastungszeitraum-Daten beschreiben, wobei die Dekompression-Schaltung die komprimierten Austastungszeitraum-Daten dekomprimiert basierend auf den Austastung-Kompressionsinformationen.
  • Ausführungsformen der vorliegenden Offenbarung beschreiben, wie man komprimierte Videodaten über eine Verbindung wie etwa HDMI oder MHL transferiert. Dies befähigt MHL3 und HDMI2 höhere Auflösungen von Inhalten (wie etwa 8K) mit gegenwärtigen physischen Schichten (mit anderen Worten physischen Ebenen, „PHYs“) zu tragen und ermöglicht eine geringere Leistungsaufnahme für dieselben Auflösungen.
  • KURZBESCHREIBUNG DER FIGUREN
  • Die Lehren der Ausführungsformen, welche hierin offenbart werden, können leicht verstanden werden, indem die folgende detaillierte Beschreibung in Verbindung mit den zugehörigen Figuren berücksichtigt wird.
  • 1 zeigt ein schematisches Blockdiagramm eines Systems für Datenkommunikationen gemäß einer Ausführungsform.
  • 2 zeigt eine detaillierte Ansicht einer Rechnenvorrichtung, welche geeignet ist für die Verwendung als die Quelle-Vorrichtung oder Senke-Vorrichtung von 1, gemäß einer Ausführungsform.
  • 3 zeigt ein Ablaufdiagramm, welches einen Datenpfad zum Transferieren komprimierter Daten über HDMI und MHL veranschaulicht, gemäß einer Ausführungsform.
  • 4A zeigt ein Schaltkreisdiagramm, welches einen Transmitter zum Übertragen komprimierter Daten über HDMI veranschaulicht, gemäß einer Ausführungsform.
  • 4B zeigt ein Schaltkreisdiagramm, welches einen Empfänger zum Dekomprimieren empfangener komprimierter Daten, welche über HDMI übertragen werden, veranschaulicht, gemäß einer Ausführungsform.
  • 5 zeigt ein Diagramm, welches einen ersten Weg zur Handhabung (mit anderen Worten zur Bearbeitung oder Behandlung) komprimierte Videodaten veranschaulicht, gemäß einer Ausführungsform.
  • 6 zeigt ein Diagramm, welches einen zweiten Weg zur Handhabung komprimierter Videodaten veranschaulicht, gemäß einer Ausführungsform.
  • 7 zeigt ein Diagramm, welches einen dritten Weg zur Handhabung komprimierter Videodaten veranschaulicht, gemäß einer Ausführungsform.
  • 8 zeigt ein Diagramm, welches einen vierten Weg zur Handhabung komprimierter Videodaten veranschaulicht, gemäß einer Ausführungsform.
  • 9 veranschaulicht eine Kompression von Austastungszeiträumen in Austastungsereignisse gemäß einer Ausführungsform.
  • 9D veranschaulicht eine Kompression einer Zeitabstimmung (mit anderen Worten einer Zeiteinteilung) zwischen Austastungsereignissen gemäß einer Ausführungsform.
  • 9A9C zeigen Diagramme, welches drei Beispiele für Austastungszeitraum-Kompression veranschaulichen, gemäß einer Ausführungsform.
  • 10 zeigt ein Diagramm, welches den Nutzen einer Austastungszeitraum-Kompression veranschaulicht, gemäß einer Ausführungsform.
  • 11 zeigt ein Diagramm, welches den Einfluss von Austastungszeitraum-Kompression auf die benötigte Bandbreite für eine 4K-Videoauflösung veranschaulicht, gemäß einer Ausführungsform.
  • 12 zeigt ein Diagramm, welches den HDMI-Strom mit komprimierten Daten veranschaulicht, gemäß einer Ausführungsform.
  • 13 zeigt eine Übersicht, welche die Paketkopf-Bytes (mit anderen Worten Paketheader-Bytes) eines MHL3-Strom-Pakets veranschaulicht, gemäß einer Ausführungsform.
  • DETAILLIERTE BESCHREIBUNG
  • Die Figuren (FIG.) und die folgende Beschreibung betreffen diverse Ausführungsformen lediglich zur Veranschaulichung. Es ist darauf hinzuweisen, dass alternative Ausführungsformen der Strukturen und Verfahren, welche hierin offengelegt sind, als leicht umsetzbare Alternativen aus der folgenden Diskussion begreiflich sind, welche zum Einsatz kommen können, ohne von den hierin diskutierten Prinzipien abzuweichen. Im Folgenden wird im Detail auf einige Ausführungsformen Bezug genommen, von denen Beispiele in den beigefügten Figuren veranschaulicht sind. Es ist darauf hinzuweisen, dass ähnliche oder gleichartige Bezugszeichen in den Figuren, wo auch immer praktikabel, verwendet werden können und ähnliche oder gleichartige Funktionalität anzeigen können.
  • Ausführungsformen der vorliegenden Offenbarung verwenden eine Kompression (mit anderen Worten eine Verdichtung) zum Transferieren von Videodaten und Austastung-Daten (mit anderen Worten Blanking-Daten) über eine Multimediaverbindung, was etliche Vorteile bietet. Erstens kann mit derselben Verbindungstechnologie (z.B. mit der derselben BW) eine höhere Auflösung unterstützt werden, z.B. ist mit 4-facher Kompression eine 4K-Auflösung für die derzeitige 1080p-Verbindung möglich. Zweitens ermöglicht Kompression für dieselbe Auflösung eine geringere Leistungsaufnahme. Drittens werden für dieselbe Auflösung weniger physische (mit anderen Worten körperliche) Kontakte (oder Pins) oder Leitungen (mit anderen Worten Adern) zum Transferieren komprimierter Daten benötigt als für unkomprimierte Daten. Insbesondere begünstigt der erste Vorteil besonders Unterhaltungselektronikprodukte (CE-Produkte, „Customer Electronics“ – CE), während der zweite und dritte Vorteil für mobile Vorrichtungen wichtig sind. Die folgende Beschreibung der Figuren zeigt, auf welche Weise komprimierte Videodaten und Austastung-Daten über eine Multimediaverbindung transferiert werden können.
  • 1 zeigt ein schematisches Blockdiagramm eines Systems 100 für Datenkommunikationen gemäß einer Ausführungsform. Das System 100 weist eine Quelle-Vorrichtung 110 auf, welche mit einer Senke-Vorrichtung 115 durch (mit anderen Worten mittels) ein oder mehrere Schnittstelle-Kabel 120, 150, 180 kommuniziert. Die Quelle-Vorrichtung 110 überträgt Multimediadatenströme (z.B. Audio/Videoströme) zu der Senke-Vorrichtung 115 und tauscht auch Steuerdaten mit der Senke-Vorrichtung 115 aus durch die Schnittstelle-Kabel 120, 150, 180. In einer Ausführungsform kann die Quelle-Vorrichtung 110 und/oder Senke-Vorrichtung 115 eine Wiederholer-Vorrichtungen (Regenerator-Vorrichtungen) sein.
  • Die Quelle-Vorrichtung 110 weist physische Kommunikation-Anschlüsse 112, 142, 172 (mit anderen Worten Kommunikation-Ports) auf, welche mit den Schnittstelle-Kabeln 120, 150, 180 gekoppelt sind. Die Senke-Vorrichtung 115 weist auch physische Kommunikation-Anschlüsse 117, 147, 177 auf, welche mit den Schnittstelle-Kabeln 120, 150, 180 gekoppelt sind. Signale, welche zwischen der Quelle-Vorrichtung 110 und der Senke-Vorrichtung 115 über die Schnittstelle-Kabel ausgetauscht werden, durchlaufen die physischen Kommunikation-Anschlüsse.
  • Die Quelle-Vorrichtung 110 und Senke-Vorrichtung 115 tauschen Daten unter Verwendung diverser Protokolle aus. In einer Ausführungsform repräsentiert das Schnittstelle-Kabel 120 eine Hochauflösung-Multimediaschnittstelle-Kabel (HDMI-Kabel). Das HDMI-Kabel 120 unterstützt differentielle Signale (mit anderen Worten symmetrische Signale), welche mittels einer data0+ Leitung 121, data0– Leitung 122, data1+ Leitung 123, data1– Leitung 124, data2+ Leitung 125, und data2– Leitung 126 übertragen werden. Jedes Paar von differentiellen Datenleitungen repräsentiert einen einzelnen Multimediakommunikationskanal. Das HDMI-Kabel 120 kann ferner aufweisen: differentielle Taktleitungen clock+ 127 und clock– 128; einen Unterhaltungselektroniksteuerung-Steuerbus 129 (CEC-Steuerbus, „Consumer Electronics Control“ – CEC); einen Anzeige-Datenkanal-Bus 130 (DDC-Bus, „Display Daten Kanal“ – DDC); eine Leistung- 131, eine Masse- 132 (mit anderen Worten Erde- 132); eine heißer-Stecker-Detektion- 133; und vier Abschirmungsleitungen 844 für die differentiellen Signale. In einigen Ausführungsformen kann die Senke-Vorrichtung 115 den CEC-Steuerbus 129 für die Übertragung von geschlossene-Rückkopplung-Steuerdaten zur Quelle-Vorrichtung 110 verwenden.
  • In einer Ausführungsform repräsentiert das Schnittstelle-Kabel 150 ein mobile-Hochauflösungsverbindung-Kabel (MHL-Kabel). Das MHL-Kabel 150 unterstützt differentielle Signale, welche mittels data0+ Leitung 151 und data0– Leitung 152 übertragen werden. In der veranschaulichten Ausführungsform von MHL gibt es nur ein einzelnes Paar von differentiellen Datenleitungen (z.B. 151 und 152). Eingebettete Gleichtaktbetrieb-Takte werden mittels der differentiellen Datenleitungen übertragen. Das MHL-Kabel 150 kann ferner aufweisen: einen Steuerbus (CBUS) 159, Leistung 160 und Masse 161. Der CBUS 159 trägt Steuerinformationen wie etwa Feststellungsdaten, Konfigurationsdaten und Fernsteuerbefehle.
  • Ausführungsformen der vorliegenden Offenbarung betreffen den Transfer von komprimierten Videodaten und komprimierten Video-Austastungszeitraum-Daten über die Multimediakanäle einer Multimediaverbindung, wie etwa HDMI oder MHL. Dadurch werden MHL3 und HDMI2 befähigt, einen größeren Auflösungsinhalt (wie etwa 8K) mit gegenwärtigen PHYs zu tragen, und es wird eine geringere Leistungsaufnahme für dieselben Auflösungen ermöglicht.
  • In einer Ausführungsform kann eine Repräsentierung der Quelle-Vorrichtung 110, der Senke-Vorrichtung 115 oder von Komponenten innerhalb der Quelle-Vorrichtung 110 oder Senke-Vorrichtung 115 als Daten in einem nicht-flüchtigen computerlesbaren Medium (z.B. ein Festplattenlaufwerk, ein Flash-Laufwerk, ein optisches Laufwerk) gespeichert werden. Diese Beschreibungen können Verhaltensschicht-, Registertransferschicht-, Logikkomponente-Schicht-, Transistorschicht- und Aufbaugeometrie-Schicht-Beschreibungen sein.
  • 2 zeigt eine detaillierte Ansicht einer Rechnenvorrichtung 200 (mit anderen Worten einer rechnenden Vorrichtung), welche zur Verwendung als Quelle-Vorrichtung 110 oder Senke-Vorrichtung 115 aus 1 geeignet ist, gemäß einer Ausführungsform. Die Rechnenvorrichtung 200 kann zum Beispiel ein Mobiltelefon, ein Fernseher, ein Laptop, ein Tablet, usw. sein. Die Rechnenvorrichtung 200 weist Komponenten auf, wie etwa einen Prozessor 202, einen Datenspeicher 203 (mit anderen Worten Memory), ein Speichermodul 204, ein Eingabemodul (z.B. Tastatur, Maus und Ähnliches) 206, ein Anzeigemodul 207 (z.B. eine Flüssigkristallanzeige, eine organische Leuchtanzeige und Ähnliches) und einen Transmitter oder Empfänger 205, welche Daten und Steuersignale mittels eines Busses 201 miteinander austauschen.
  • Das Speichermodul 204 ist als ein oder mehrere nicht-flüchtige computerlesbare Speichermedien (z.B. eine Festplatte, einen Halbleiterspeicher („Solid-State-Speicher“), usw.) implementiert und speichert Softwareanweisungen, welche von dem Prozessor 202 ausgeführt werden in Verbindung mit dem Datenspeicher 203. Eine Betriebssystemsoftware und andere Anwendungssoftware kann demnach in dem Speichermodul 204 gespeichert sein, um auf dem Prozessor 202 zu laufen.
  • Der Transmitter oder Empfänger 205 ist mit den Anschlüssen zum Empfangen oder Übertragen von Multimediadaten und Steuerdaten gekoppelt. Multimediadaten, welche empfangen oder übertragen werden, können Videodaten-Ströme oder Audio-Videodaten-Ströme aufweisen, wie etwa HDMI- und MHL-Daten. Die Multimediadaten können zur Übertragung verschlüsselt sein unter Verwendung eines Verschlüsselungsschemas wie etwa HDCP (hoch-Bandbreite digitaler Inhaltsschutz, „High-Bandbreite Digital-Content Protection“). Der Transmitter oder Empfänger können verschiedene Schaltkreise wie etwa Schnittstelle-Schaltkreise zum Ankoppeln an die MHL/HDMI-Verbindungen und eine Kompressionsengine (mit anderen Worten Kompression-Funktionseinheit) zum Komprimieren und Dekomprimieren von Videodaten aufweisen.
  • Bezugnehmend auf 3 ist ein Ablaufdiagramm dargestellt, welches einen Datenpfad zum Transferieren komprimierter Daten über HDMI und MHL veranschaulicht, gemäß einer Ausführungsform. Die veranschaulichte Ausführungsform des Datenpfads in 3 zeigt einen Datenfluss zur Handhabung (mit anderen Worten Bearbeitung) komprimierter Videodaten, wie auch einen Datenfluss zur Handhabung von komprimierten Austastungszeitraum-Daten.
  • Am Anfang beginnt der Datenpfad für Videokompression mit den aktiven Videodaten 302. Aktive Videodaten 302 können Daten oder ein Datenstrom sein, welcher das Video repräsentiert. Die aktiven Videodaten 302 können zum Beispiel Videodaten für mehrere Videobilder (mit anderen Worten Videoframes) aufweisen. Die aktiven Videodaten 303 werden in komprimierte Videodaten 304 komprimiert. Die komprimierten Videodaten 304 werden dann 305 in verschlüsselten Videodaten 306 verschlüsselt.
  • Der Datenpfad für eine Austastungszeitraum-Kompression beginnt mit Austastungszeitraum-Daten und Dateninseln (DIs) 312, welche zusammen einen Austastungszeitraum bilden (mit anderen Worten diesen ausmachen). Ein Austastungszeitraum kann einen vertikalen Austastungszeitraum und/oder einen horizontalen Austastungszeitraum aufweisen. Ein vertikaler Austastungszeitraum weist einen vertikalen Synchronisationspuls auf, welcher ein neues Bild (mit anderen Worten einen neuen Frame) signalisiert (mit anderen Worten anzeigt), und ein horizontaler Austastungszeitraum weist einen horizontalen Synchronisationspuls auf, welcher eine neue Linie (mit anderen Worten neue Zeile) innerhalb des Bildes (Frames) signalisiert. Zustände innerhalb des vertikalen Austastungszeitraums und horizontalen Austastungszeitraums werden von den Austastungszeitraum-Daten repräsentiert. In einer Ausführungsform können Dateninseln auftreten, während der horizontalen und/oder vertikalen Austastungszeiträume. Während einer Dateninsel können Audio- und/oder Hilfsdaten innerhalb einer Serie von Paketen übertragen werden. Die Austastungszeitraum-Daten 312 werden komprimiert 313, was in komprimierten Austastungszeitraum-Daten mit Dateninseln 314 resultiert. Die Dateninseln werden verschlüsselt 305 unter Verwendung von HDCP, um verschlüsselte Dateninseln zu erhalten. Das Resultat sind komprimierte Austastungszeitraum-Daten mit verschlüsselten Dateninseln 316.
  • Darüber hinaus kann das verschlüsselte Video 306 gemäß dem veranschaulichten Datenfluss in 3 paketiert (mit anderen Worten in Pakete überführt) werden 307 zum Generieren eines paketierten Videos 308. Die komprimierten Austastung-Daten mit verschlüsselten DIs 316 können paketiert 307 werden zum Generieren eines paketierten Austastungszeitraums 318. Der paketierte Zustand (z.B. angegeben mit 307) kann nur in Ausführungsformen einbezogen sein, welche MHL3 verwenden, wobei Ausführungsformen, die HDMI und frühere Versionen von MHL verwenden, den paketierten Zustand nicht aufweisen können.
  • Bezugnehmend auf 4A ist ein Schaltkreisdiagramm eines Transmitters 400 zum Übertragen komprimierter Daten über HDMI veranschaulicht, gemäß einer Ausführungsform. Der veranschaulichte Transmitter 400 weist auf: einen Videokompression-Schaltkreis 402, einen Video-HDCP-Verschlüsselung-Schaltkreis 404a, einen Dateninsel-HDCP-Verschlüsselung-Schaltkreis 404b, einen Übergangsminimiert-differentielle-Signalübertragung-Kodierung-Schaltkreis 406 (TMDS-Kodierung-Schaltkreis, „transition-minimized differentiel Signaling“ – TMDS), einen Austastung-Kompression-Schaltkreis 408, einen Kompressionsinformation-Schaltkreis (Kompression-info-Schaltkreis) 410 und einen Übertragungsschnittstelle-Schaltkreis 412. In einer Ausführungsform können eine oder mehrere der Komponenten des Transmitters 400 Teil einer Daten-Sicherungsschicht von HDMI oder MHL sein. Daher können die eine oder mehreren Komponenten auch als “Sicherungsschicht-Schaltung” bezeichnet sein. Diejenigen, welche in der Technik befähigt sind, werden bemerken, dass andere Ausführungsformen des Transmitters 400 in 4A verschiede und/oder zusätzliche Schaltkreise aufweisen können neben oder anders als diejenigen, welche hier beschrieben sind, und dass die Funktionen auf eine andere Weise unter den Modulen verteilt werden können.
  • Der Videokompression-Schaltkreis 402 empfängt aktive Videodaten 401 und komprimiert die Videodaten 401 in komprimierte Videodaten 403. Die aktiven Videodaten 401 können separate R-, G- und B-Videodaten 401 aufweisen, welche in komprimierte R-, G-, B-Videodaten 403 komprimiert werden. In einer Ausführungsform kann der Videokompression-Schaltkreis 402 von dem Kompressionsinformation-Schaltkreis 410 gesteuert und/oder geregelt werden zum Implementieren der Kompression der Videodaten 401. Zum Beispiel empfängt der Videokompression-Schaltkreis 402 von dem Kompressionsinformation-Schaltkreis 410 Videokompression-Steuerinformationen 411, welche Kompressionsparameter, die die Kompression der Videodaten beeinflussen, beschreiben. Beispiele der Kompressionsparameter weisen auf: eine Kompressionsrate, welche ein Maß (mit anderen Worten einen Anteil) der Kompression definiert, und einen Kompressionsalgorithmus, welcher einen spezifischen Kompressionsalgorithmus identifiziert, der verwendet werden soll. Der Videokompression-Schaltkreis 402 komprimiert die Videodaten 401 basierend auf den Videokompression-Steuerinformationen 411.
  • Der Video-HDCP-Verschlüsselung-Schaltkreis 404a empfängt die komprimierten Videodaten 403 von dem Videokompression-Schaltkreis 402 und verschlüsselt die komprimierten Videodaten 403 unter Verwendung von HDCP zum Generieren verschlüsselter Videodaten 405.
  • Der Dateninsel-HDCP-Verschlüsselung-Schaltkreis 404b empfängt Daten für eine oder mehrere Dateninseln 421 eines Austastungszeitraum und verschlüsselt die Dateninseln 421 unter Verwendung von HDCP. Der Dateninsel-HDCP-Verschlüsselung-Schaltkreis 404b empfängt auch Videokompression-Steuerinformationen 411 von dem Kompressionsinformation-Schaltkreis 410 und verwendet die empfangenen Videokompression-Steuerinformationen 411 zum Generieren von Informationsframes (mit anderen Worten Informationssätze), welche die Kompressionsparameter, die von dem Videokompression-Schaltkreis 402 verwendet werden, beschreiben. Der Dateninsel-HDCP-Verschlüsselung-Schaltkreis 404b generiert zum Beispiel Dateninseln für Kompressionsparameter 423 basierend auf den Videokompression-Steuerinformationen 411. In einer Ausführungsform können der Video-HDCP-Verschlüsselung-Schaltkreis 404a und der Dateninsel-HDCP-Verschlüsselung-Schaltkreis 404b derselbe Schaltkreis sein, welcher die Verschlüsselung der Videodaten 401 wie auch der Dateninseln 421 implementiert.
  • Der TMDS-Kodierung-Schaltkreis 406 empfängt verschlüsselte Videodaten 405 und kodiert die verschlüsselten Videodaten 405 in TMDS-Symbole 407 zum Transfer mittels des Übertragungsschnittstelle-Schaltkreises 412 und der Multimediaverbindung. Der TMDS-Kodierung-Schaltkreis 406 implementiert zum Beispiel eine 8b/10b Kodierung der Videodaten 401, welche 8-Bit Symbole in 10-Bit Symbole abbildet. In einer Ausführungsform empfängt der TMDS-Kodierung-Schaltkreis 406 auch die Dateninseln für Kompressionsparameter 423 und andere komprimierte Austastungszeiträume 427, welche von dem Austastung-Kompression-Schaltkreis 408 ausgegeben werden, und konvertiert diese in 10-Bit Symbole. In einigen Ausführungsformen empfängt der TMDS-Kodierung-Schaltkreis 406 auch die Videokompression-Steuerinformationen 411 und verwendet diese Informationen zum Generieren von Präambeln oder Leitschutzbändern, welche die Video-Kompressionsinformationen 411 aufweisen.
  • Der Austastung-Kompression-Schaltkreis 408 empfängt Austastungszeitraum-Daten 425 und komprimiert die Austastungszeitraum-Daten 425 zum Generieren von komprimierten Austastungszeitraum-Daten 427. Die Austastungszeitraum-Daten 425 indizieren den Austastungszustand (z.B. vordere Austastschulter, Synchronisationspuls, hintere Austastschulter), in welchem sich der Austastungszeitraum derzeit befindet (mit anderen Worten geben die diesen an). Die Austastungszeitraum-Daten 425 werden transferiert mittels eines oder mehrerer Signale wie etwa ein vertikales Synchronisationssignal (VS-Signal), ein horizontales Synchronisationssignal (HS-Signal), und ein Datenfreigabe (DE-Signal). Der Austastungszeitraum kann auch bezeichnet sein als ein “SYNC-Zeitraum” und die Austastungszustände können auch bezeichnet sein als “SYNC-Zustände.”
  • Wie in 4A veranschaulicht, werden die komprimierten Austastungszeitraum-Daten 427 zu dem TMDS-Kodierung-Schaltkreis 406 ausgegeben, welcher die komprimierten Austastungszeitraum-Daten 427 in TMDS-Symbole kodiert zur Übertragung von dem Übertragungsschnittstelle-Schaltkreis 412 mittels einer Multimediaverbindung zwischen dem Transmitter 400 und dem Empfänger 450. In einer Ausführungsform kann der Austastung-Kompression-Schaltkreis 408 auch Austastung-Kompressionsinformationen generieren, welche die Kompression der komprimierten Austastungszeitraum-Daten 427 beschreiben. Die Austastung-Kompressionsinformationen können zu dem Empfänger mittels des Schnittstelle-Schaltkreises 412 und der Multimediaverbindung übertragen werden.
  • Der Übertragungsschnittstelle-Schaltkreis 412 serialisiert (mit anderen Worten bringt diese in eine serielle Reihenfolge) die TMDS-Symbole 407 in differentielle Signale für jeden Multimediakommunikationskanal und überträgt die differentiellen Signale über verschiedene Multimediakommunikationskanäle einer Multimediaverbindung. Daher überträgt der Übertragungsschnittstelle-Schaltkreis 412 Signale, welche komprimierte Videodaten 403, Kompression-Steuerinformationen 411, komprimierte Austastungszeitraum-Daten 427, Austastung-Kompressionsinformationen und Dateninseln neben anderen Typen von Informationen innerhalb des Empfängers 400 repräsentieren.
  • In einer Ausführungsform kann der Übertragungsschnittstelle-Schaltkreis 412 auch die Videokompression-Steuerinformationen 411 von dem Kompressionsinformation-Schaltkreis 410 empfangen (mit gestricheltem Pfeil in 4A dargestellt) und die Videokompression-Steuerinformationen 411 als Signale übertragen mittels eines DDC-Kanals 430 der Multimediaverbindung. Der DDC-Kanal 430 ist zum Beispiel ein separater Steuerkanal, welcher verschieden ist von dem Multimediakanal oder den Kanälen, welche zum Übertragen der TMDS-Symbole 407 verwendet werden.
  • In dem Fall von MHL werden die komprimierten R-, G-, B-Videodaten, welche von den TMDS-Symbolen 407 repräsentiert werden, in Serie (mit anderen Worten nacheinander) über einen einzelnen Multimediakanal übertragen. Zusätzlich können die Videokompression-Steuerinformationen 411 über einen CBUS-Kanal anstatt einem DDC übertragen werden.
  • 4B zeigt ein Schaltkreisdiagramm, welches einen Empfänger 450 zum Dekomprimieren komprimierter Daten, welche über HDMI übertragen werden, veranschaulicht, gemäß einer Ausführungsform. Der veranschaulichte Empfänger 450 weist auf: einen Empfangsschnittstelle-Schaltkreis 452, einen Kompression-Steuerung-Schaltkreis 454, einen TMDS-Dekodierung-Schaltkreis 456, einen Video-HDCP-Entschlüsselung-Schaltkreis 458a, einen Dateninsel-HDCP-Entschlüsselung-Schaltkreis 458b, einen Video-Dekompression-Schaltkreis 460 und einen Austastung-Dekompression-Schaltkreis 464. In einer Ausführungsform können eine oder mehrere der Komponenten des Empfängers 450 in der Daten-Sicherungsschicht von HDMI oder MHL gespeichert werden. Daher können die eine oder mehreren Komponenten auch bezeichnet sein als “Sicherungsschicht-Schaltung”. Diejenigen, welche in der Technik befähigt sind, werden bemerken, dass andere Ausführungsformen des Empfängers 450 in 4B zusätzliche Schaltkreise aufweisen können, neben denjenigen oder andere als diejenigen, welche hier beschrieben sind, und dass die Funktionen auf eine andere Weise kann unter den Schaltkreisen verteilt sein können.
  • Der Empfangsschnittstelle-Schaltkreis 452 empfängt eingehende Signale von dem Transmitter 400 mittels der Multimediakanäle der Multimediaverbindung. Die Signale repräsentieren TMDS-Symbole, welche verwendet werden zum Übertragen von Informationen, wie etwa komprimierte Videodaten, komprimierte Austastungszeitraum-Daten 465, Videokompression-Steuerinformationen 411, welche die Kompression der aktiven Videodaten 401 beschreiben, und Austastung-Kompressionsinformationen, welche die Kompression der komprimierten Austastungszeitraum-Daten 465 beschreiben. Der Empfangsschnittstelle-Schaltkreis 452 deserialisiert (mit anderen Worten aus der seriellen Reihenfolge herausbringen) die Signale in TMDS-Symbole.
  • Der TMDS-Dekodierung-Schaltkreis 456 empfängt die TMDS-Symbole und wendet die TMDS-Dekodierung auf die Symbole an. Der TMDS-Dekodierung-Schaltkreis 456 gibt die dekodierten Videodaten 457 zu dem Video-HDCP-Entschlüsselung-Schaltkreis 458a, die dekodierten Dateninseln 459 zu dem Dateninsel-HDCP-Entschlüsselung-Schaltkreis 458b und die komprimierten Austastungszeitraum-Daten 465 zu dem Austastung-Dekompression-Schaltkreis 464 aus. Der Video-HDCP-Entschlüsselung-Schaltkreis 458a und der Dateninsel-HDCP-Entschlüsselung-Schaltkreis 458b entschlüsseln die entsprechenden Daten (z.B. die dekodierten Videodaten 457, die dekodierten DI 463), welche von dem TMDS-Dekodierung-Schaltkreis 456 empfangen werden. Der Video-HDCP-Entschlüsselung-Schaltkreis 458a gibt die entschlüsselten Videodaten 461 zu dem Video-Dekompression-Schaltkreis 460 aus. Der Dateninsel-HDCP-Entschlüsselung-Schaltkreis 458b gibt die entschlüsselten Dateninseln 463 zu dem Kompression-Steuerung-Schaltkreis 454 aus.
  • In einer Ausführungsform können die entschlüsselten Dateninseln 463 Videokompression-Steuerinformationen 411 aufweisen, welche dem Kompression-Steuerung-Schaltkreis 454 bereitgestellt werden. In einer anderen Ausführungsform werden die Videokompression-Steuerinformationen 411 (mit einem gestrichelten Pfeil dargestellt) stattdessen mittels des DDC empfangen. In noch einer anderen Ausführungsform sind die Videokompression-Steuerinformationen 411 (mit einem gestrichelten Pfeil dargestellt) in einer Präambel eines Steuerzeitraums oder in einem führenden Schutzband eines Videodaten-Zeitraum, welche von dem TMDS-Dekodierung-Schaltkreis 456 extrahiert wird. Der Kompression-Steuerung-Schaltkreis 454 verwendet die Kompressionsparameter in den Kompression-Steuerinformationen 411 zum Kontrollieren (mit anderen Worten Steuern und/oder Regeln), wie der Video-Dekompression-Schaltkreis 460 die entschlüsselten Videodaten 461 dekomprimiert.
  • Der Austastung-Dekompression-Schaltkreis 464 dekomprimiert die komprimierten Austastungszeitraum-Daten 465, welche von dem TMDS-Dekodierung-Schaltkreis 456 empfangen werden, zum Generieren der Austastungszeitraum-Daten 469. Der Video-Dekompression-Schaltkreis 460 dekomprimiert die entschlüsselten Videodaten 461 unter der Kontrolle (mit anderen Worten der Steuerung und/oder Regelung) des Kompression-Steuerung-Schaltkreises 454 und gibt die Videodaten 471 aus.
  • In dem Fall von MHL, werden die R-, G-, B-Videodaten in einer Serie (mit anderen Worten in einer Reihe) über einen einzelnen Multimediakommunikationskanal empfangen. Zusätzlich können die Videokompression-Steuerinformationen 411 über einen CBUS-Kanal anstatt des DDC übertragen werden.
  • Zum Ermöglichen des Videotransfers werden einige technische Belange von der vorliegenden Offenbarung gelöst. Einige sind allen Verbindungen (HDMI und MHL) gemeinsam, während einige für jede Verbindung spezifisch sind. Diese Offenbarung beginnt mit den gemeinsamen Teilen: Videokompression und Austastung-Kompression. Die Offenbarung beschreibt dann den verbindungsspezifischen Teil.
  • Handhabung eines komprimierten Videos
  • Die Handhabung eines komprimierten Videos betrifft, wie man die komprimierten Daten an dem Datenpfad, welcher einen 24b-Datenblock (z.B. HDCP Schritt in 3) annimmt, angleicht (mit anderen Worten an diesen anpasst). Es gibt zumindest vier mögliche Wege zum Komprimieren von Videodaten. In einer Ausführungsform werden die ersten zwei Wege, wie in 5 und 6 veranschaulicht, für HDMI und MHL bevorzugt, während die letzten zwei Wege, wie in 7 und 8 veranschaulicht, für MHL3 bevorzugt werden.
  • 5 zeigt ein Diagramm, welches einen ersten Weg zur Handhabung komprimierter Videodaten veranschaulicht, gemäß einer Ausführungsform. Das Originalvideo 500 (mit anderen Worten das originale Video) weist zum Beispiel Farbkomponenten R 501, G 503, B 505 und/oder andere Komponenten wie etwa Y, Cb und Cr (nicht dargestellt) auf. Jede Komponente 501, 503, 505 weist eine Line (mit anderen Worten Zeile) von Videodaten auf, wie etwa 8 Bit × 1000 Pixel = 8000 Bit von Daten pro Line.
  • Ein Videokompression-Schaltkreis, wie etwa 402, der in 4A veranschaulicht ist, kann die originalen Videodaten 500 komprimieren, und resultiert daher in einem komprimierten Video 510, welches Linien der komprimierten Videokomponenten R 511, G 513, B 515 und/oder anderer komprimierter Komponenten wie etwa Y, Cb und Cr (nicht dargestellt) aufweist. Die komprimierten Videokomponenten R 511, G 513, B 515 haben jede dieselbe komprimierte Liniengröße und können an eine Bytegrenze 517 anglichen (mit anderen Worten an dieser ausgerichtet) werden. Zum Beispiel kann Videokomponente R 501 mit 8000 Bits in einer Line unter Verwendung einer 2:1 Kompression komprimiert werden in eine komprimierte Videokomponente R 511 mit 4000 Bits in einer Line. Eine 4000 Bit Line ist das exakte Vielfache von 8 Bit, was bedeutet, die Line ist an eine Bytegrenze anglichen (mit anderen Worten ist diese bündig mit der Bytegrenze).
  • In einem solchen Fall kann der Video-HDCP-Verschlüsselung-Schaltkreis, wie etwa der in 4A veranschaulichte 404a, eine HDCP-Verschlüsselung für die komprimierten Videodaten 510 auf dem 24b-Blocklevel durchführen (mit anderen Worten diese einer HDCP-Verschlüsselung unterziehen), ohne zu wissen, dass die Daten 510 komprimierte Daten sind. Mit anderen Worten kann die HDCP-Verschlüsselung für 24b-Blöcke der komprimierten Daten durchgeführt werden, welche 8 Bit von R, 8 Bit von G, und 8 Bit von B aufweisen. Dies ermöglicht für herkömmliche HDCP-Schaltkreise, zur Kompression wiederverwendet zu werden, ohne die HDCP-Logik neu zu gestalten.
  • In einer anderen Ausführungsform kann ein Videokompression-Schaltkreis, wie etwa der in 4A veranschaulichte 402, das Originalvideo 500, welches RGB-Komponenten aufweist, separat komprimieren, was in verschieden Liniengrößen für jede Komponente R, G, B resultiert. Das komprimierte Video kann zum Beispiel komprimierte R-, G-, und B-Komponenten mit verschieden Linienlängen aufweisen. In einem solchen Fall kann es drei verschiede Herangehensweisen zur Handhabung der komprimierten Videodaten geben, wie nachfolgend bezugnehmend auf 6, 7 und 8 beschrieben wird.
  • 6 zeigt ein Diagramm, welches einen Weg zur Handhabung komprimierter Videodaten veranschaulicht, gemäß einer anderen Ausführungsform. In der veranschaulichten Ausführungsform in 6 füllt ein HDCP-Verschlüsselung-Schaltkreis, wie etwa der Video-HDCP-Verschlüsselung-Schaltkreis 404a in 4A, 0s (mit anderen Worten Nullen) 617a, 617b auf eine oder mehrere Komponenten (z.B. R, G) des komprimierten Video auf, um komprimierte Video mit einer Auffüllung 610 zu erhalten, welche entsprechend Komponenten (mit aufgefüllten Nullbits) 611, 613, 615 aufweist. Die Auffüllung stellt sicher, dass jede Komponentenlinie dieselbe Liniengröße aufweist und Byte-anglichen (mit anderen Worten Byte-bündig) ist. Auf diesem Weg kann ein HDCP-Verschlüsselung-Schaltkreis, wie etwa der in 4A veranschaulichte 404a, eine HDCP-Verschlüsselung auf das komprimierte Video mit der Auffüllung 610 auf dem 24b-Blocklevel durchführen. Allerdings kann diese Herangehensweise in einer Verschwendung eines Abschnitts der Bandbreite resultieren, indem in den Komponenten der Videodaten Nullen aufgefüllt werden.
  • Auf der Empfängerseite entfernt der Video-Dekompression-Schaltkreis 460 die Füllbits 617a, 617b, wenn die entschlüsselten Videodaten dekomprimiert werden. Die Linien der komprimierten Komponenten R, G und B können dann in das Originalvideo 500 dekomprimiert werden.
  • 7 zeigt ein Diagramm, welches einen Weg zur Handhabung von komprimierten Videodaten veranschaulicht, gemäß einer zusätzlichen Ausführungsform. Diese veranschaulichte Ausführungsform setzt Linien der komprimierten R-, G-, und B-Komponenten in eine Reihe 720 (mit anderen Worten bringt diese in die Reihe). Dann wird die HDCP-Verschlüsselung auf die Reihe 720 angewandt, so dass die Linien der komprimierten R-, G- und B-Komponenten 24b-Block-stückweise seriell verschlüsselt werden. In einem solchen Fall wird ein Grenzmarke 710a, 710b, 710c zwischen die Komponenten eingefügt und indiziert eine Grenze zwischen zwei benachbarten Komponenten.
  • Diese Ausführungsform wird typischerweise in MHL verwendet, wo die ganzen Farbkomponenten R, G und B unter Verwendung von Paketen über einen einzelnen Kommunikationskanal seriell übermittelt werden. Zusätzlich würden die verschlüsselten Videodaten in einer MHL-Umgebung paketiert bevor diese über einen einzelnen MHL-Kommunikationskanal übertragen werden. In anderen Ausführungsformen von MHL, welche mehrere Kommunikationskanäle aufweisen können, können die resultierenden Pakete über die mehreren Kommunikationskanäle verteilt werden.
  • Auf der Empfängerseite entschlüsselt der Entschlüsselung-Schaltkreis 458a die dekodierten Videodaten zum Generieren einer Reihe 702 eines komprimierten Videos. Die Reihe 720 des komprimierten Videos wird dann in verschiede komprimierte Linien von Farbkomponenten R, G, B separiert, indem die Grenzmarker 710a, 710b, 710c identifiziert werden und die Farbkomponenten R, G, B entlang der Grenzmarker 710a, 710b, 710c separiert werden. Die separierten komprimierten Linien von Farbkomponenten R, G, B werden dann von dem Video-Dekompression-Schaltkreis 460 dekomprimiert.
  • 8 zeigt ein Diagramm, welches einen Weg zur Handhabung komprimierter Videodaten veranschaulicht, gemäß noch einer anderen Ausführungsform. In der veranschaulichten Ausführungsform weist das komprimierte Video 710 komprimierte Komponenten R 811, G 813, B 815 mit verschieden Liniengrößen auf. Die HDCP-Verschlüsselung wird auf einem 24b-Blocklevel (mit anderen Worten 24b-Blockebene) an dem komprimierten Video 710 durchgeführt. Für die Teile der komprimierten Komponenten, z.B. R 811, G, 813, die keinerlei Daten zum Verschlüsseln aufweisen, werden die korrespondierenden Bits des HDCP Chiffrewerts (mit anderen Worten Verschlüsselungswerts), der von dem HDCP-Verschlüsselung-Schaltkreis 404a produziert wird, einfach verworfen. Das Resultat ist ein verschlüsseltes Video 810 mit drei verschlüsselten Videokomponenten R 821, G 823, B 825, welche verschiede Liniengrößen aufweisen. Jede Komponente kann paketiert werden und eines nach dem anderen über einen einzelnen MHL-Kommunikationskanal gesendet werden. In anderen Ausführungsformen von MHL, welches mehrere Kommunikationskanäle aufweisen können, können die resultierenden Pakete kann über die mehreren Kommunikationskanäle verteilt werden.
  • Austastungszeitraum-Kompression
  • Die Videokompressionsengines behandeln lediglich den aktiven Videoteil der Daten. Allerdings wird das Gesamt-Kompressionsverhältnis der Daten, welche über eine Multimediaverbindung (z.B. HDMI oder MHL) übertragen werden, auch von dem Austastungszeitraum beeinflusst. Wenn der Austastungszeitraum zum Beispiel 20% der Bandbreite verwendet, resultiert eine 2:1 Kompression der Videodaten in 0.2 + 0.8 × 0.5 = 0.6, beispielsweise einer 40% Kompressionsrate, was weniger ist als eine 2:1 Kompressionsrate. Es gibt einige Wege das Problem mittels Komprimierens des Austastungszeitraums abzuschwächen.
  • Der erste Weg des Komprimierens des Austastungszeitraums ist (1) die Austastungszeitraum-Daten mit Austastungsereignissen zu ersetzen, welche Zustandsänderungen innerhalb des Austastungszeitraums indizieren, und (2) die Zeit zwischen den Austastungsereignissen zu reduzieren. Wie vorstehend definiert können die Austastungszeiträume horizontale Austastungszeiträume oder vertikale Austastungszeiträume sein, welche auch als horizontale SYNC-Zeiträume (HS-Zeiträume) und vertikale SYNC-Zeiträume (VS-Zeiträume) bezeichnet sein können. In einer Ausführungsform komprimiert der Austastung-Kompression-Schaltkreis 408, wie in 4A veranschaulicht, Austastungszeitraum-Daten in ein oder mehrere von folgenden: ein Austastungszeitraumanfang-Ereignis (BS-Ereignis), ein horizontales SYNC-Anfang-Ereignis (HSS-Ereignis), ein horizontales SYNC-Ende-Ereignis (HSE-Ereignis), ein vertikales SYNC-Anfang-Ereignis (VSS-Ereignis) und ein vertikales SYNC-Ende-Ereignis (VSE-Ereignis). Das BS-Ereignis, HSS-Ereignis, HSE-Ereignis, VSS-Ereignis und VSE-Ereignis indizieren den Anfang (mit anderen Worten Beginn) oder das Ende von verschieden spezifischen Austastungszuständen (z.B. Änderungen zwischen Zuständen). Daher können diese Ereignisse kollektiv (mit anderen Worten gemeinsam) auch als Austastungsereignisse bezeichnet sein.
  • 9 veranschaulicht die Kompression von Austastungszeitraum-Daten in Austastungsereignisse gemäß einer Ausführungsform. 9 weist drei Signale, DE, HS und VS auf, welche zum Tragen von Austastungszeitraum-Daten 425 verwendet werden. Austastungszeiträume 970, 980 treten auf, wenn das DE-Signal niedrig (mit anderen Worten auf niedrig-Pegel) ist, und die aktiven Videozeiträume treten auf, wenn das DE Signal hoch (mit anderen Worten auf hoch-Pegel) ist. Dateninseln sind in 9 nicht dargestellt, würden aber irgendwann während der Austastungszeiträume 970 und 980 übermittelt werden.
  • Der horizontale Austastungszeitraum (HBLK-Zeitraum) 970 beginnt, wenn DE niedrig wird. Der HBLK-Zeitraum 970 endet, wenn DE hoch wird. Der HBLK-Zeitraum 970 weist verschiede Zustände auf: eine vordere Austastschulter 971, einen HS-Puls 972, welcher eine neue Line innerhalb eines Bildes (mit anderen Worten innerhalb eines Frames) signalisiert, und eine hintere Austastschulter 973. Jede von diesen Zuständen kann eine Länge von mehreren Taktzyklen aufweisen. Der HBLK-Zeitraum 970 wird in ein BS-Ereignis, welches den Beginn (Anfang) einer vorderen Austastschulter 971 indiziert, ein HSS-Ereignis, welches den Beginn des HS-Pulses 972 indiziert, und ein HSE-Ereignis, welches das Ende des HS-Pulses 972 indiziert, komprimiert.
  • Der vertikale Austastungszeitraum (VBLK-Zeitraum) 980 beginnt, wenn DE niedrig wird. Der VBLK-Zeitraum 980 endet, wenn DE hoch wird. Der VBLK-Zeitraum 980 weist verschiede Zustände auf: eine vordere Austastschulter 981, einen HS-Puls 982, welcher eine neue Line innerhalb eines Bildes signalisiert, und eine hintere Austastschulter 983. Jede von diesen Zuständen kann eine Länge von mehreren Taktzyklen aufweisen. Der VBLK-Zeitraum kann komprimiert werden in ein BS-Ereignis, welches den Beginn der vorderen Austastschulter 981 indiziert, ein VSS-Ereignis, welches den Beginn des VS-Pulses 982 indiziert, und ein VSE-Ereignis, welches das Ende des VS-Pulses 982 indiziert.
  • 9D veranschaulicht die Kompression der Zeitabstimmung zwischen Austastungsereignissen gemäß einer Ausführungsform. Nach der in 9 gezeigten Ereignis-Generierung passt die Zeitabstimmung (mit anderen Worten das Timing) der Austastungsereignisse zunächst zu der Zeitabstimmung der Austastung-Zustandsänderungen (mit anderen Worten diese entsprechen einander). Wie in 9D gezeigt, ist das BS-Ereignis durch 16 Taktzyklen von dem HSS-Ereignis separiert, und HSS ist durch 18 Taktzyklen von HSE separiert. Die Separation zwischen Ereignissen wird dann gemäß dem vorbestimmten 2:1 Kompressionsverhältnis reduziert. Als Resultat ist das BS-Ereignis nur durch 8 Taktzyklen von dem HSS-Ereignis separiert und das HSS-Ereignis ist von dem HSE-Ereignis nur durch 9 Taktzyklen separiert. Dies halbiert die Gesamtzeit, welche zum Übertragen Daten für eines Austastungszeitraums benötigt wird, von 34 Taktzyklen auf 17 Taktzyklen. In anderen Ausführungsformen kann das vorbestimmte Kompressionsverhältnis ein anderes Verhältnis sein, wie etwa 3:1 oder 4:1.
  • In einer Ausführungsform komprimiert der Austastung-Kompression-Schaltkreis 408 die Austastungszeitraum-Daten unter Verwendung einer Anpassungstabelle 900, wie in 9A gezeigt. In der Tabelle 900 ist auf der linken Seite eine Liste von Austastungsereignissen gezeigt. Ist ein Austastenereignis einmal aus den Austastungszeitraum-Daten 425 identifiziert, kann das Austastenereignis in einen Ereigniscode kodiert werden, welcher als die komprimierten Austastungszeitraum-Daten 427 übertragen wird.
  • Die Austastungsereignisse können in weniger Zeit übertragen werden, als die eigentlichen Austastungszeitraum-Daten, welche zum Generieren der Austastungsereignisse verwendet werden. In einem herkömmlichen System muss die Quelle-Vorrichtung während eines Austastungszeitraums 970 oder 980 wiederholt Symbole für Austastungszeitraum-Daten durch den ganzen Austastungszeitraum hindurch übertragen, was eine signifikante Menge der Bandbreite verbrauchen kann. Dementsprechend werden die Austastungszeiträume komprimiert, indem die eigentlichen Austastungszeitraum-Daten mit den Austastungsereignissen ersetzt und die Menge an Zeit zwischen den Austastungsereignissen reduziert wird. Dies resultiert ein einem guten Kompressionsverhältnis (z.B. gleich zu dem Videoabschnitt oder mehr) und stellt dennoch die exakte Zeitabstimmung für den Austastungszeitraum bereit.
  • Auf der Empfängerseite kann der Empfänger 450 die Austastungszeitraum-Daten basierend auf der bereitgestellten Zeitabstimmung der Austastungsereignisse regenerieren (mit anderen Worten nachbilden). Insbesondere identifiziert der Empfänger 450 die Austastungsereignisse, expandiert die Zeit zwischen den Austastungsereignissen gemäß einem vorbestimmt Kompressionsverhältnis (1:2, 1:3), um die Zeitabstimmung zwischen Austastungsereignissen zurückzugewinnen, und regeneriert dann die Austastungszeitraum-Daten.
  • Der zweite Weg zur Kompression des Austastungszeitraums besteht darin, eine Lauflängencodierung auf die Austastungszeitraum-Daten anzuwenden, während die Position der Dateninseln bewahrt (mit anderen Worten erhalten) wird. Unter Bezugnahme auf 9B, wendet die veranschaulichte Ausführungsform eine Lauflängencodierung (RLC) auf den Austastungszeitraum 920 an, während die Positionen der entsprechenden Dateninseln (DIs) 921a, 921b in dem komprimierten Austastungszeitraum 922 beibehalten werden. Der Austastungszeitraum 920 weist Austastung-Abschnitte, während welcher keine Daten transferiert werden (indiziert durch großgeschriebenes B), und Dateninsel-Abschnitte, während welchen Dateninseln übertragen werden (indiziert mit schraffiertem Schatten und Buchstaben DI), auf. Die Austastung-Abschnitte B und Dateninsel-Abschnitte P sind miteinander vermischt.
  • Wie in 4A veranschaulicht, kann der Austastung-Kompression-Schaltkreis 408 die Austastungszeitraum 920 mittels Anwendens einer RLC auf den Austastungszeitraum 920 komprimieren zum Generieren des komprimierten Austastungszeitraums 922. Insbesondere teilt der Austastung-Kompression-Schaltkreis 408 die Austastungszeitraum-Daten in verschiede Abschnitte, welche von den DIs separiert sind. Die Austastung-Abschnitte sind mit RLC separat komprimiert und die Dateninsel-Abschnitte sind nicht komprimiert (mit anderen Worten unkomprimiert). Die komprimierten Austastung-Abschnitte (indiziert durch kleingeschriebenes b) sind eventuell mit den Dateninsel-Abschnitten 921a und 921b vermischt, um den komprimierten Austastungszeitraum 922 zu bilden.
  • RLC ist eine Form der Daten-Kompression, in welcher Sequenzen derselben Datenwerte als ein einzelner Datenwert gespeichert werden und eine gezählte Anzahl (mit anderen Worten eine Nummer), welche die Anzahl der Zeiten (mit anderen Worten Häufigkeit) indiziert, mit der sich der Datenwert wiederholt. Der RLC produziert, wenn auf Austastungszeitraum-Daten angewendet, Zeitabstimmung-Informationen, welche Zustände innerhalb der Austastungszeitraum-Daten und die Dauer der Zustände spezifizieren. Ein Austastungszeitraum weist zum Beispiel typischerweise einen vordere-Austastschulter-Zeitraum vor einem Synchronisationspuls, einen Synchronisationspuls, und dann eine hintere Austastschulter, welche dem Synchronisationspuls nachfolgt, auf. Die Zustände innerhalb eines Austastungszeitraums können daher komprimierte werden in drei Zustände und drei Anzahlen: eine vordere Austastschulter-Zeitabstimmung, welche die Dauer der vorderen Austastschulter (z.B. 4 Zyklen) spezifiziert, eine SYNC-Zeitabstimmung, welche die Länge des Synchronisationspulses (z.B. 3 Zyklen) spezifiziert, und eine hintere Austastschulter-Zeitabstimmung, welche die Dauer der hintere Austastschulter (z.B. 5 Zyklen) spezifiziert. In der Praxis spezifizieren die RLC-Informationen, welche zwischen benachbarten DIs 921a und 921b übermittelt werden, typischerweise einen oder zwei Zustände (z.B. vordere Austastschulter, Synchronisationspuls oder hintere Austastschulter) und die Dauer von diesen Zuständen.
  • Indem die Position der DIs beibehalten wird, behält diese Ausführungsform auch Präambel bei, welche spezielle Indikatoren sind, die in HDMI und MHL zum Indizieren verwendet werden, ob die Information, welche dem Präambel nachfolgt, ein DI 921a, 921b oder ein Austastung-Abschnitt ohne DI ist. Dies erlaubt der Senke-Vorrichtung 115 die empfangene Informationen nahtlos zurück in die originalen Austastung-Daten 920 eines aktiven Videostroms zu konvertieren.
  • Auf der Empfängerseite wird der Austastung-Dekompression-Schaltkreis 464 komprimierte Austastungszeitraum-Daten 465 empfangen, welche verschiedene komprimierte Austastung-Abschnitte aufweisen, die von Dateninseln separiert sind. Der Austastung-Dekompression-Schaltkreis 464 dekomprimiert die komprimierten Austastung-Abschnitte in die Austastungszeitraum-Daten 469 unter Verwendung einer Lauflängendekodierung zum Wiederherstellen der richtigen Zeitabstimmung für einen Austastungszeitraum.
  • Der dritte Weg zum Komprimieren der Austastungszeitraum besteht darin, den Austastungszeitraum unter Verwendung von Austastung-Zeitabstimmung-Informationen zu repräsentieren und alle DIs zusammen zu senden. Bezugnehmend auf 9C ist der Austastungszeitraum 920 in der veranschaulichten Ausführungsform in einen komprimierten Austastungszeitraum 924 komprimiert. Die Zustände des Austastungszeitraums 920 werden als ein einzelner Satz von Austastung-Zeitabstimmung-Informationen 926 repräsentiert und einige DIs 921a, 921b werden zusammen gesendet. Wie in 4A veranschaulicht, kann der Austastung-Kompression-Schaltkreis 408 den Austastungszeitraum 920 (welcher verschiedene Abschnitte 920a, 920b, 920c aufweist) komprimieren, indem die Dauer der Austastungszustände gezählt wird und dann die Austastung-Zeitabstimmung-Informationen 926 aus der Dauer der Austastungszustände generiert werden. Die Austastung-Zeitabstimmung-Informationen 926 beschreiben die Dauer der verschieden Zustände des Austastungszeitraums 920a, 920b, 920c. Die Austastung-Zeitabstimmung-Informationen 926 können zum Beispiel eine 4-Zyklus vordere-Austastschulter, einen 5-Zyklus HS-Puls, und eine 6-Zyklus hintere Austastschulter spezifizieren.
  • Die Zustände des gesamten Austastungszeitraums 920 werden daher mit einem einzelnen Block der Austastung-Zeitabstimmung-Informationen 926 repräsentiert, welcher am Anfang des komprimierten Austastungszeitraums 924 gesendet wird. Alle der DIs 921a, 921b sind kombiniert und werden am Ende des komprimierten Austastungszeitraums 924 zusammen gesendet.
  • Auf der Empfängerseite wird der Austastung-Dekompression-Schaltkreis 464 komprimierte Austastungszeitraum-Daten 465 empfangen, welche einen einzelnen Satz von Austastung-Zeitabstimmung-Informationen 926 für jeden Austastungszeitraum aufweisen. Der Austastung-Dekompression-Schaltkreis 464 dekomprimiert die Austastung-Zeitabstimmung-Informationen 926 in die Austastungszeitraum-Daten 469 zum Wiederherstellen der richtigen (mit anderen Worten der korrekten) Zeitabstimmung für einen Austastungszeitraum.
  • Die Ausführungsform ermöglicht ein besseres Kompressionsverhältnis für die Kompression des Austastungszeitraums 920, als die in 9B veranschaulichte Ausführungsform. Allerdings, obwohl in 9C nicht dargestellt, können die Austastung-Abschnitte B auch Präambel aufweisen, welche den DIs vorausgehen und den DIs nachfolgen. Die Präambel sind verloren und müssen an dem Empfänger wiederhergestellt werden. Daher kann diese Ausführungsform einen Zeitabstimmung-Generator auf der Empfängerseite (z.B. der Empfänger 450) zum Widerherstellen der Präambel verwenden. Der Zeitabstimmung-Generator stellt die Präambel wieder her, indem dieser annimmt dass jede der DIs eine fixierte (mit anderen Worten festgesetzte) Größe aufweist. Der Zeitabstimmung-Generator teilt die kombinierte Dateninsel in separate fixiert große DIs 921a und 921b, und fügt dann Präambel vor und nach den DIs 921a und 921b ein.
  • 10 zeigt ein Diagramm, welches den Nutzen einer Video- und Austastungszeitraum-Kompression veranschaulicht gemäß einer Ausführungsform. In der veranschaulichten Ausführungsform repräsentiert Reihe 1002 unkomprimierte aktive Videodaten 1010 mit unkomprimierten Austastungszeiträumen 1012. Die Austastungszeiträume 1012 und deren Zustände können von verschieden Signal-Komponenten indiziert werden, wie etwa DE 1012x, HS 1012y und VS 1012z. Reihe 1004 repräsentiert die 2:1 Kompression der Videodaten, ohne Austastungszeitraum-Kompression. Die aktiven Videodaten 1010 sind zum Beispiel bei einem 2:1 Kompressionsverhältnis komprimiert, um komprimierte Videodaten 1020 zu erhalten. Das bedeutet 100 KBits von Videodaten sind komprimiert in 50 KBits von Videodaten. Allerdings ist der Austastungszeitraum 1012 noch nicht komprimiert.
  • Reihe 1006 repräsentiert die komprimierten Videodaten 1020 mit Austastungszeitraum-Kompression unter Verwendung der Austastungsereignisse (z.B. BS 1022a, HSS 1022b, HSE 1022c). Das bedeutet Austastungszeitraum-Daten innerhalb des Austastungszeitraums 1012 werden mit Austastungsereignissen BS 1022a, HSS 1022b und HSE 1022c ersetzt. Die Zeitabstimmung der Austastungsereignisse ist auch komprimiert, so dass die Austastungsereignisse in einer kleineren Anzahl von Taktzyklen (z.B. 25 Zyklen) übermittelt werden können.
  • Ferner kann der Transmitter 400 die Austastungszeiträume reduzieren und die Austastungszeiträume stattdessen für ein aktives Video verwenden. Es gibt zwei Weg, um dies zu erreichen: Reduzieren des HBLK-Zeitraums und Verwenden der eingesparten Bandbreite (BW) zur Übertragung von aktiven Videodaten, oder Reduzieren des VBLK-Zeitraums und Verwenden der eingesparten BW zur Übertragung von aktiven Videodaten. Reihe 1008 repräsentiert die komprimierten Videodaten 1020 mit Austastungszeitraum-Kompression mit überhaupt keinem HBLK-Zeitraum oder horizontal-SYNC (HSYNC). Der Block 1024 repräsentiert den Abschnitt der BW, welcher nunmehr zur Übertragung von komprimierten aktiven Videodaten 1020 verwendet wird und vorher zum Übertragen der Austastungszeiträume verwendet wurde. Indem, wie gezeigt, die ersten zwei horizontalen Austastungszeiträume entfernt und die aktiven Videodaten anstelle der Austastungszeiträume übertragen werden, gibt es nun zusätzliche BW zum Transferieren komprimierter Videodaten.
  • Diese Vorgehensweise in Reihe 1008 ist typischerweise geeignet, wenn die Austastungszeiträume keinerlei DIs aufweisen. Diese Vorgehensweise kann den Zeitabstimmung-Generator auf der Empfängerseite 450 verwenden, um die korrekte Zeitabstimmung der Austastungszustände wiederherzustellen. Der Zeitabstimmung-Generator wird mit Auflösung-Informationen bereitgestellt, welche die Auflösung der aktiven Videodaten beschreiben. Da jede Auflösung typischerweise einer Liniengröße, der Anzahl von Pixel in jeder Linie und der Synchronisation-Zeitabstimmung zugeordnet ist, kann die Auflösung zum Widerherstellen der richtigen Zeitabstimmung der Austastungszustände verwendet werden.
  • 11 zeigt ein Diagramm, welches den Einfluss von Austastungszeitraum-Kompression auf die benötigte Bandbreite für ein 4K-Video veranschaulicht gemäß einer Ausführungsform. In der veranschaulichten Ausführungsform weist das originale Schema 1102 unkomprimierte aktiven Videodaten und unkomprimierte Austastungszeiträume auf. In dem originalen Schema 1102 wird ein 14,3 Gbps PHY zum Senden aller Daten in 16 ms benötigt. Das zweite Schema 1104 weist Videodaten auf, welche bei einer 2:1 Rate ohne Austastungszeitraum-Kompression komprimiert sind. Es benötigt eine 7,1 Gbps PHY zum Senden der Daten. Das dritte Schema 1106 komprimiert die Austastungszeiträume, indem die horizontalen Austastung-HBLK-Zeiträume reduziert werden und benötigt 6,5 Gbps PHY zum Senden aller Daten. Das vierte Schema 1108 komprimiert ferner die Austastungszeiträume, indem auch die vertikalen Austastung-VBLK-Zeiträume reduziert werden und benötigt 6,3 Gbps PHY zum Senden aller Daten.
  • Außerdem ist es erforderlich, dass HBLK und VBLK groß genug sind, um den Transfer von DIs zu erlauben. Das Kompressionsverhältnis der Austastungszeiträume, welche DI-Pakete aufweisen, kann nicht garantiert werden, da die DI überhaupt nicht komprimiert werden. Um dieses Problem zu lösen, werden die DIs in jeder Line auf die Menge begrenzt, welche in dem komprimierten AV-Strom, z.B. dem Austastungszeitraum in dem Zielstromformat, welches die komprimierten Daten tragen wird, untergebracht werden können. Wenn zum Beispiel ein 4K-Video um ein 4:1 Verhältnis komprimiert wird, ist die Menge von DIs begrenzt auf einen Wert, welcher in einen 1080p Strom hineingebracht (mit anderen Worten eingesetzt) werden kann, um zu erreichen, dass diese in einen 1080p Strom passen. Alternativ wird das komprimierte Video nach dem Komprimieren des aktiven Videoteils in den aktiven Video-Zeitraum des Ziel-HDMI-Stroms hineingebracht, während der Audioteil ohne irgendeine Kompression in den Austastungszeitraum des Ziel-HDMI-Stroms (1080p in diesem Beispiel) hineingebracht wird. Dies garantiert eine geeignete Menge von Audiodaten in dem komprimierten HDMI-Strom, da Audio direkt in den (komprimierten) Ziel-HDMI-Strom gestreckt wird anstatt in den originalen HDMI-Strom, welcher einer Kompression durchläuft, gestreckt wird.
  • Als nächstes soll der verbindungsspezifische Abschnitt der Kompression beschrieben werden unter Bezugnahme auf 12, z.B. wie das Hineinbringen (mit anderen Worten das Einsetzen) des komprimierten Videostroms und wie das Informieren des Empfängers über die Kompression gegenüber nicht-Kompression funktioniert.
  • Verbindungsspezifisches – HDMI1, HDMI2, MHL1, MHL2
  • Die Transmitterseite eines HDMI-Systems wird die komprimierten Videodaten anstelle des aktiven-Video-Zeitraums des HDMI-Stroms setzen. 12 zeigt ein Diagramm, welches den HDMI-Strom mit komprimierten Daten veranschaulicht, gemäß einer Ausführungsform. In der veranschaulichten Ausführungsform weist der “Videokodierung”-Teil die komprimierten Videodaten auf. Der Transmitter 400 kann den Empfänger 450 darüber informieren (mit anderen Worten diesem melden), dass die Daten die komprimierten Videodaten sind. Darüber hinaus kann der Transmitter 400 auch Videokompression-Steuerinformationen 411 zu dem Empfänger 450 übertragen, um den Empfänger 450 darüber zu benachrichtigen, welcher Kompressionsalgorithmus (z.B. unter Verwendung einer Algorithmus-ID) in dem Transmitter 400 verwendet wurde und über jegliche möglichen Parameter, in dem spezifischen Algorithmus verwendet wurden, um diverse Kompressionsmechanismen zu unterstützen. Dies kann auf einigen Wegen implementiert werden.
  • Erstens kann ein Seitenkanal, wie etwa DDC in HDMI und CBUS in MHL, zum Transferieren der Kompression-Steuerinformationen 411 verwendet werden. Der Transmitter 400 schreibt spezifische Werte in die Register in dem Empfänger 450 über den DDC oder CBUS und der Empfänger 450 kann ermitteln, dass der eingehende Strom ein komprimierter Strom ist mittels Interpretierens der Werte in den Registern. Nach diesem Informationsprozess (mit anderen Worten informierenden Prozess) sendet der Transmitter 400 komprimierte Videodaten zu dem Empfänger 450 und der Empfänger 450 kann den eingehenden Strom der komprimierten Videodaten korrekt interpretieren als einen komprimierten Strom.
  • Zweitens kann eine “Präambel” und/oder “ führendes Schutzband (LGB)” zum Transferieren der Videokompression-Steuerinformationen 411 verwendet werden. Wie in 12 gezeigt gehen die Präambel und/oder die LGBs einem Videodaten-Zeitraum für die komprimierten Videodaten voraus. Mittels Einbringens (Einsetzens) eines spezifischen Werts in einen von beiden oder in beide von diesen kann der Transmitter 400 den Empfänger 450 benachrichtigen, dass der eingehende Strom ein komprimierter Strom ist. Bezugnehmend zurück auf 4A können die Videokompression-Steuerinformationen 411 als eine Präambel oder ein führendes Schutzband (LGB) vorangehend zu einem Video-Übertragungszeitraum für die Kompression Videodaten 403 mittels des Übertragungsschnittstelle-Schaltkreises 412 und einer Multimediaverbindung (nicht dargestellt) zwischen dem Transmitter 400 und einem Empfänger 450 übermittelt werden. Der TMDS-Kodierung-Schaltkreis 406 kann verantwortlich sein für das Generieren des Präambels oder führenden Schutzbands (LGB) aus den Videokompression-Steuerinformationen 411.
  • Drittens kann ein Informationsframe zum Transferieren der Videokompression-Steuerinformationen 411 verwendet werden. Der Informationsframe kann zum Beispiel eine Dateninsel (welche Audio- und andere Informationen während des Austastungszeitraums übermittelt) in dem Austastungszeitraum sein. Der Informationsframe ist nicht komprimiert, daher können Informationen in dem Informationsframe korrekt in der Empfängerseite dekodiert werden, ohne Rücksicht auf eine Kompression der aktiven Videodaten. Bezugnehmend zurück auf 4A4B überträgt der Transmitter 400 die Videokompression-Steuerinformationen 411 in einem Informationsframe während eines Austastungszeitraums zu dem Empfänger 450. Dementsprechend kann der Empfänger 450 ermitteln, ob das eingehende Video komprimiert ist oder nicht, basierend auf dem Informationsframe.
  • Falls der Empfänger 450 ermittelt, dass der eingehende Strom ein komprimierter Strom ist, leitet der Empfänger 450 die komprimierten Videodaten zu dem Video-Dekompression-Schaltkreis 460 weiter zum Extrahieren der Originalvideodaten (mit anderen Worten originaler Videodaten). Nach dem Extrahieren wird der HDMI-Strom derselbe wie der normale nicht-komprimierte HDMI-Strom und auf der Empfängerseite werden alle die normalen Prozesse folgen.
  • Für den Austastungszeitraum, wie vorangehend erwähnt, bringt der Transmitter 400 die DIs in den komprimierten Ziel-HDMI-Strom ein, damit nicht zu viele DIs in den Austastungszeitraum eingebracht werden. Wenn eine RLC (Lauflängencodierung) und/oder Austastungsereignisse zum Komprimieren des Austastungszeitraums verwendet werden, informiert der Transmitter 400 den Empfänger 450 davon unter Verwendung einer verschieden “Präambel” und/oder einer Kombination von Austastungszeitraum-Zeichen. Die verschieden Präambel und/oder Austastungszeitraum-Zeichen können zum Benachrichtigen des Empfängers 450 verwendet werden, ob die folgenden Daten ein normaler Austastungszeitraum oder ein komprimierter Austastungszeitraum sind.
  • Der Transmitter 400 kann den Empfänger auch von der Zielauflösung (z.B. der Auflösung nach der Dekompression) benachrichtigen, insbesondere wenn irgendwelche Austastenreduktion verwendet wird. Der Empfänger 450 kann die korrekte Austastungszeitraum-Zeitabstimmung unter Verwendung der Zielauflösung regenerieren. Diese Informationen können den Empfänger 450 entweder durch DIs und/oder Seitenbandband-Register (ähnlich zu dem Schema, welches für die Kompressionsbenachrichtigung verwendet wurde) erreichen.
  • In einer Ausführungsform regeneriert der Empfänger 450 den normalen (nicht-komprimierten) HDMI/MHL-Strom. Der Empfänger 450 kann zum Beispiel einen der folgenden Schritte ausführen, wie auch ein Dekomprimieren der Videodaten. Erstens regeneriert der Empfänger 450 die ganze Austastung-Zeitabstimmung, wenn eine Austastenreduktion in der Transmitterseite verwendet wurde, z.B. einen reduzierten Austastungszeitraum zu einen normalen Austastungszeitraum. Zweitens extrahiert der Empfänger 450 DIs, wie etwa diejenigen, welche Audioinhalt oder Hilfsinformationen tragen, von dem eingehenden (komprimierten) Strom und sendet diese pro Ziel-(z.B. 4K)-HDMI/MHL-Strom zugleich mit den dekomprimierte Videodaten aus. Daher wird der Inhalt der DIs (z.B. Audiodaten) erhalten.
  • Drittens, für einige andere DIs (z.B. AVI, AIF), verwirft der Empfänger 450 diese aus dem eingehenden Strom und regeneriert diese pro Zielstrom vollständig. Dies liegt daran, dass der Inhalt solcher DIs stromspezifisch ist und DIs in dem komprimiertem Strom nicht für die Zielstrom-Ausgabe wiederverwendet werden können aufgrund der verschieden Auflösungen.
  • Viertens kann ein Latenzangleicher die Latenz zwischen dem Videopfad, welcher den Video-Dekompression-Schaltkreis 460 durchläuft, und Audio-DIs angleichen. Andere DIs, welche Zeitabstimmungs-kritisch pro Zielstrom (z.B. GCP, VSI, etc.) sind, werden vollständig pro Zielstrom‘s Zeitabstimmung regeneriert.
  • Verbindungsspezifisch – MHL3
  • MHL3 ist ein paketbasierender Strom und eines von seinen Paketen (z.B. ein AV-Strom-Paket) kann den HDMI- und MHL-Strom tragen, da es Tunneltechnologie verwendet. Darüber hinaus, unterstützt es Seitenkanal-Tunnel, welches einen Seitenkanal von HDMI und MHL tunnelt. Daher können alle diese Techniken, welche zuvor für HDMI und MHL erwähnt wurden, für MHL3 ohne Änderungen verwendet werden. Darüber hinaus stellt MHL3’s paketbasiertes Schema einige zusätzliche Optionen zum Übertragen der Kompressionsinformation bereit. Die Kompressionsinformationen darüber, ob die eingehenden Daten komprimierte sind oder nicht, können zum Beispiel in einem Header (Kopf) eines Pakets angeordnet werden. 13 ist eine Übersicht, welche die Paketkopf-Bytes (mit anderen Worten Paketheader-Bytes) eines Strompakets gemäß einer Ausführungsform veranschaulicht. Wenn ein Paket unkomprimierte Videodaten aufweist, kann das pkt_Typ-Feld auf 0b0001 gesetzt werden zum Indizieren, dass das Paket unkomprimierte Videodaten aufweist. Wenn das Paket komprimierte Videodaten aufweist, kann das pkt_Typ-Feld auf 0b0111 gesetzt werden zum Indizieren, dass das Paket komprimierte Videodaten aufweist.
  • Die Kompressionsalgorithmus ID, welche einen spezifischen Kompressionsalgorithmus, der für den eingehenden Strom verwendet wird, indiziert und die korrespondieren Kompressionsparameter können in einigen Stellen eingefügt werden. Erstens können diese in ein MHL-anbieterspezifisches Info-Frame (VSIF) eingesetzt werden, welches in dem AV-Strom-Paket kommt. Zweitens kann ein separates Paket anstatt eines AV-Strom-Pakets verwendet werden. Das separate Paket kann zum Beispiel ein Inhaltschutz-Paket (CP-Paket) von MHL sein, welches bei jedem Frame kommt. Diese Herangehensweise beeinflusst die AV-Strom-Paket-Seite gar nicht und kann auch die Synchronisationsprobleme minimieren.
  • In der vorhergehenden Beschreibung sind zum Zweck der Erklärung zahlreiche spezifische Details dargelegt, um ein umfassendes Verständnis der vorliegenden Erfindung bereitzustellen. Es wird allerdings für jemanden, der im Fachgebiet befähigt ist, ersichtlich sein, dass die vorliegende Erfindung ohne einige dieser spezifischen Details ausgeführt werden kann. In anderen Beispielen sind bekannte Strukturen und Vorrichtungen in Blockdiagrammform gezeigt. Es kann eine dazwischenliegende Struktur zwischen veranschaulichten Komponenten geben. Die Komponenten, welche hierin beschrieben oder veranschaulicht sind, können zusätzliche Eingänge oder Ausgänge aufweisen, welche nicht veranschaulicht oder beschrieben sind. Die veranschaulichten Elemente oder Komponenten können auch in verschieden Anordnungen oder Reihenfolgen angeordnet werden, einschließend des Umordnens von einigen Feldern oder der Modifikation von Feldgrößen.
  • Die vorliegende Erfindung kann verschiedene Prozesse aufweisen. Die Prozesse der vorliegenden Erfindung können mittels Ausrüstungskomponenten (mit anderen Worten mittels Hardwarekomponenten) durchgeführt werden oder können in computer-lesbaren Instruktionen verkörpert sein, welche verwendet werden können, um einen Allzweck- oder Spezialzweck-Prozessor oder logischen Schaltkreis, welcher mit den Instruktionen programmiert ist, dazu zu bringen, die Prozesse durchzuführen. Alternativ, können die Prozesse mittels einer Kombination von Ausrüstung und Software durchgeführt werden.
  • Viele der Verfahren sind in ihrer grundlegendsten Form beschrieben, allerdings können jedem der Verfahren Prozesse hinzugefügt oder von diesen entfernt werden und Informationen können jeder der beschriebenen Botschaften hinzugefügt oder von diesen entfernt werden, ohne von dem Grundumfang der vorliegende Erfindung abzuweichen. Es wird denjenigen, der im Fachgebiet befähigt ist, ersichtlich sein, dass viele zusätzliche Modifikationen und Adaptionen vorgenommen werden können. Die jeweiligen Ausführungsformen sind nicht zum Limitieren der Erfindung bereitgestellt, sondern dazu, diese zu veranschaulichen.
  • Wenn gesagt wird, dass ein Element “A” gekoppelt ist zu, mit, oder zusammen mit Element “B”, kann Element A direkt mit Element B gekoppelt sein oder indirekt gekoppelt sein, zum Beispiel durch Element C hindurch. Wenn die Beschreibung aussagt, dass eine Komponente, ein Merkmal, eine Struktur, ein Prozess oder eine Charakteristik A eine Komponente, ein Merkmal, eine Struktur, ein Prozess oder eine Charakteristik B “bewirkt oder verursacht”, ist damit gemeint, dass “A” zumindest ein Teilgrund von “B” ist, allerdings kann es auch zumindest eine andere Komponente, ein Merkmal, eine Struktur, ein Prozess oder eine Charakteristik geben, welche mithilft “B” zu bewirken oder verursachen. Wenn die Beschreibung andeutet, eine Komponente, ein Merkmal, eine Struktur, ein Prozess oder eine Charakteristik “kann”, “dürfte” oder “könnte” inbegriffen sein, ist es nicht erforderlich, dass die entsprechende Komponente, das Merkmal, die Struktur, der Prozess, oder die Charakteristik inbegriffen ist. Wenn die Beschreibung auf “ein” oder “eins (mit anderen Worten 1)” Element bezugnimmt, bedeutet dies nicht, dass es nur eines der beschriebenen Elemente gibt.
  • Eine Ausführungsform ist eine Implementierung oder ein Beispiel der Erfindung. Bezugnahme in der Beschreibung auf “eine Ausführungsform,” “eine (mit anderen Worten 1) Ausführungsform”, “einige Ausführungsformen” oder “andere Ausführungsformen” bedeutet, dass ein bestimmtes Merkmal, eine Struktur oder ein Charakteristik, welche in Verbindung mit den Ausführungsformen beschrieben werden, in zumindest einigen Ausführungsformen inbegriffen sind, allerdings nicht notwendigerweise in allen Ausführungsformen. Die verschiedenen Erscheinungen von “eine Ausführungsform”, “eine (mit anderen Worten 1) Ausführungsform” oder “einige Ausführungsformen” sind nicht notwendigerweise alle bezugnehmend auf dieselben Ausführungsformen. Es sollte gewürdigt werden, dass verschiedene Merkmale der Erfindung von exemplarischen Ausführungsformen der Erfindung in der vorstehenden Beschreibung manchmal in einer einzelnen Ausführungsform, Figur oder Beschreibung davon zum Zweck der Straffung der Offenbarung und dem Unterstützung des Verständnisses von einem oder mehr der verschiedene erfinderischen Aspekten zusammen gruppiert sind.
  • Nach dem Lesen dieser Offenbarung werden diejenigen, die in dem Fachgebiet befähigt sind, immer noch zusätzliche alternative Gestaltungen für komprimierten Videoinhalttransfer über HDMI und MHL wahrnehmen. Während spezielle Ausführungsformen und Anwendungen der vorliegenden Offenlegung veranschaulicht und beschrieben wurden, kann daher verstanden werden, dass die Ausführungsformen nicht begrenzt sind auf die präzise Konstruktion und Komponenten, welche hierin offengelegt sind, und dass verschiedene Modifikationen, Änderungen und Variationen, welche für diejenigen mit Fertigkeiten in der Technik ersichtlich sind, durchgeführt werden können in der Anordnung, im Betrieb und Details des Verfahrens sowie des Gerätes der vorliegenden Offenlegung, welche hierin offengelegt sind, ohne von dem Geist und Umfang der Offenlegung, wie sie in den beigefügten Ansprüchen definiert ist, abzuweichen.

Claims (20)

  1. Eine Übertragungsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung, die Vorrichtung aufweisend: eine Sicherungsschicht-Schaltung zum Empfangen von Videodaten und zum Komprimieren der Videodaten in komprimierte Videodaten; einen Kompressionsinformation-Schaltkreis zum Generieren von Videokompression-Steuerinformationen, welche die Kompression der Videodaten beschreiben; und eine Schnittstelle zum Übertragen von Signalen, welche zu den komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Übertragen von Signalen, welche zu den Videokompression-Steuerinformationen korrespondieren mittels der Multimediaverbindung.
  2. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die Videokompression-Steuerinformationen Kompressionsparameter aufweisen, welche während der Kompression der Videodaten verwendet wurden.
  3. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die Videokompression-Steuerinformationen als eine Präambel oder ein führendes Schutzband vorangehend zu einem Video-Übertragungszeitraum der komprimierten Videodaten übertragen werden.
  4. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die Videokompression-Steuerinformationen in einer Dateninsel während eines Austastungszeitraums übertragen werden.
  5. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die Videokompression-Steuerinformationen mittels des einen oder der mehreren Multimediakanäle der Multimediaverbindung übertragen werden.
  6. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die Videokompression-Steuerinformationen mittels eines Steuerkanals der Multimediaverbindung übertragen werden.
  7. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die aktiven Videodaten eine Mehrzahl von Farbkomponenten aufweisen, und die Sicherungsschicht-Schaltung eingerichtet ist zum Komprimieren von Linien der Farbkomponenten in komprimierte Linien der Farbkomponenten, welche dieselbe Länge aufweisen.
  8. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die aktiven Videodaten eine Mehrzahl von Farbkomponenten aufweisen, und die Sicherungsschicht-Schaltung eingerichtet ist zum Komprimieren von Linien der Farbkomponenten in komprimierte Linien der Farbkomponenten und zum Auffüllen von einem oder mehr Füllbits auf die komprimierten Linien der Farbkomponenten, bis die komprimierten Linien dieselbe Länge aufweisen.
  9. Die Übertragungsvorrichtung gemäß Anspruch 1, wobei die aktiven Videodaten eine Mehrzahl von Farbkomponenten aufweisen, wobei die Sicherungsschicht-Schaltung eingerichtet ist zum Komprimieren von Linien der Farbkomponenten in komprimierte Linien der Farbkomponenten und zum Verschlüsseln der komprimierten Linien der Farbkomponenten in serieller Reihenfolge in verschlüsselte Videodaten, und wobei die Signale, welche zu den komprimierten Videodaten, welche von der Schnittstelle übertragen werden, korrespondieren, Signale sind, welche zu den verschlüsselten Videodaten korrespondieren.
  10. Eine Empfangsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung, aufweisend: eine Schnittstelle zum Empfangen von Signalen, welche zu komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Empfangen von Signalen, welche zu Videokompression-Steuerinformationen korrespondieren, mittels der Multimediaverbindung, wobei die Videokompression-Steuerinformationen die Kompression der komprimierten Videodaten beschreiben; und eine Sicherungsschicht-Schaltung zum Dekomprimieren der komprimierten Videodaten in Videodaten basierend auf den Videokompression-Steuerinformationen, welche die Kompression der komprimierten Videodaten beschreiben.
  11. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die Videokompression-Steuerinformationen Kompressionsparameter aufweisen, welche während der Kompression der Videodaten verwendet wurden.
  12. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die Videokompression-Steuerinformationen empfangen werden als eine Präambel oder ein führendes Schutzband vorangehend zu einem Video-Übertragungszeitraum der komprimierten Videodaten.
  13. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die Videokompression-Steuerinformationen empfangen werden in einer Dateninsel während eines Austastungszeitraums.
  14. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die Videokompression-Steuerinformationen empfangen werden mittels des einen oder der mehreren Multimediakanäle der Multimediaverbindung.
  15. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die Videokompression-Steuerinformationen empfangen werden mittels eines Steuerkanals der Multimediaverbindung.
  16. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die komprimierten Videodaten komprimierte Linien von Farbkomponenten aufweisen, welche dieselbe Länge aufweisen.
  17. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die komprimierten Videodaten komprimierte Linien von Farbkomponenten, welche Füllbits aufweisen, aufweisen, wobei die Sicherungsschicht-Schaltung die Füllbits entfernt, wenn diese die komprimierten Videodaten dekomprimiert.
  18. Die Empfangsvorrichtung gemäß Anspruch 10, wobei die Signale, welche zu den komprimierten Videodaten korrespondieren, Signale sind, welche zu verschlüsselten Videodaten korrespondieren, wobei die Sicherungsschicht-Schaltung die verschlüsselten Videodaten in entschlüsselte Videodaten entschlüsselt und die entschlüsselten Videodaten in Linien für verschiedene Farbkomponenten separiert.
  19. Ein nicht-flüchtiges computerlesbares Medium, welches eine Repräsentation von eine Übertragungsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung speichert, die Übertragungsvorrichtung aufweisend: eine Sicherungsschicht-Schaltung zum Empfangen von aktiven Videodaten und zum Komprimieren der aktiven Videodaten in komprimierte Videodaten; eine Kompressionsinformation-Schaltkreis zum Generieren von Videokompression-Steuerinformationen, welche die Kompression der aktiven Videodaten beschreiben; und eine Schnittstelle zum Übertragen von Signalen, welche zu den komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Übertragen von Signalen, welche zu den Videokompression-Steuerinformationen korrespondieren mittels der Multimediaverbindung.
  20. Ein nicht-flüchtiges computerlesbares Medium, welches eine Repräsentation von einer Empfangsvorrichtung zum Kommunizieren mittels einer Multimediaverbindung speichert, die Empfangsvorrichtung aufweisend: eine Schnittstelle zum Empfangen von Signalen, welche zu komprimierten Videodaten korrespondieren, mittels eines oder mehrerer Multimediakanäle der Multimediaverbindung und zum Empfangen von Signalen, welche zu Videokompression-Steuerinformationen korrespondieren, mittels der Multimediaverbindung, wobei die Videokompression-Steuerinformationen die Kompression der komprimierten Videodaten beschreiben; und eine Sicherungsschicht-Schaltung zum Dekomprimieren der komprimierten Videodaten in Videodaten basierend auf den Videokompression-Steuerinformationen, welche die Kompression der komprimierten Videodaten beschreiben.
DE112015001145.5T 2014-03-07 2015-02-19 Komprimierter Videotransfer über eine Multimediaverbindung Ceased DE112015001145T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461949901P 2014-03-07 2014-03-07
USUS-61/949,901 2014-03-07
US14/470,613 US20150256842A1 (en) 2014-03-07 2014-08-27 Compressed Video Transfer over a Multimedia Link
USUS-14/470,613 2014-08-27
PCT/US2015/016711 WO2015134203A1 (en) 2014-03-07 2015-02-19 Compressed video transfer over a multimedia link

Publications (1)

Publication Number Publication Date
DE112015001145T5 true DE112015001145T5 (de) 2016-11-17

Family

ID=54018734

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112015001136.6T Pending DE112015001136T5 (de) 2014-03-07 2015-02-10 Komprimierte Austastlückenübertragung über eine Multimedia-Verbindung
DE112015001145.5T Ceased DE112015001145T5 (de) 2014-03-07 2015-02-19 Komprimierter Videotransfer über eine Multimediaverbindung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112015001136.6T Pending DE112015001136T5 (de) 2014-03-07 2015-02-10 Komprimierte Austastlückenübertragung über eine Multimedia-Verbindung

Country Status (7)

Country Link
US (3) US9800886B2 (de)
JP (2) JP6684223B2 (de)
KR (2) KR101996334B1 (de)
CN (2) CN106105186B (de)
DE (2) DE112015001136T5 (de)
TW (2) TWI660627B (de)
WO (2) WO2015134159A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170094289A1 (en) * 2015-09-29 2017-03-30 Lattice Semiconductor Corporation Dynamic Control of Pixel Color Formats Used to Encode Color Video Streams
CN108886368A (zh) * 2016-04-04 2018-11-23 美国莱迪思半导体公司 通过多媒体链路的视频数据传输的前向纠错和不对称编码
US10630768B1 (en) * 2016-08-04 2020-04-21 Amazon Technologies, Inc. Content-based media compression
US10069511B2 (en) 2016-12-12 2018-09-04 Texas Instruments Incorporated Lossless data compression
CN108769795B (zh) * 2018-05-31 2020-12-25 福建星网智慧科技股份有限公司 视讯实现系统及方法
CN112788256B (zh) * 2019-11-06 2022-05-10 瑞昱半导体股份有限公司 自适应调整带宽的视频传输方法及其系统

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946630A (ja) * 1995-07-28 1997-02-14 Matsushita Electric Ind Co Ltd 画像情報記録装置及び画像情報再生装置及び光ディスク
JPH0951489A (ja) * 1995-08-04 1997-02-18 Sony Corp データ符号化/復号化方法および装置
ATE216168T1 (de) * 1996-07-30 2002-04-15 Tiernan Communications Inc System und verfahren zur kodierung und kompression von digitalen vertikalaustastzeitsignalen
US6996096B2 (en) * 1997-02-14 2006-02-07 Canon Kabushiki Kaisha Communication apparatus and a method of controlling a communication apparatus
US20100321466A1 (en) 1998-12-21 2010-12-23 Roman Kendyl A Handheld Wireless Digital Audio and Video Receiver
JP3903721B2 (ja) * 2001-03-12 2007-04-11 ソニー株式会社 情報送信装置および方法、情報受信装置および方法、情報送受信システムおよび方法、記録媒体およびプログラム
US7236177B2 (en) 2001-12-04 2007-06-26 Qualcomm Incorporated Processing digital video data
CN100473138C (zh) 2003-04-02 2009-03-25 松下电器产业株式会社 数据再生装置、视频显示装置和使用它们的软件更新系统
US8068485B2 (en) 2003-05-01 2011-11-29 Genesis Microchip Inc. Multimedia interface
DE60317578T2 (de) 2003-09-22 2008-09-18 Inova Semiconductors Gmbh System und verfahren zur bildung einer bidirektionalen multimediaverbindung
JP4459590B2 (ja) * 2003-10-10 2010-04-28 パナソニック株式会社 Dtvデータ処理装置
US7009533B1 (en) 2004-02-13 2006-03-07 Samplify Systems Llc Adaptive compression and decompression of bandlimited signals
US7333555B2 (en) * 2004-03-30 2008-02-19 Intel Corporation Device, system and method for wireless combined-signal communication
JP4385841B2 (ja) * 2004-04-22 2009-12-16 ソニー株式会社 画像処理装置
WO2006057324A1 (ja) 2004-11-25 2006-06-01 Matsushita Electric Industrial Co., Ltd. リピータ装置およびその制御方法
US8615038B2 (en) 2004-12-06 2013-12-24 Nokia Corporation Video coding, decoding and hypothetical reference decoder
US20060209880A1 (en) 2004-12-10 2006-09-21 Mediatek Incorporation Method of audio data transmission and system thereof
US20060140268A1 (en) * 2004-12-29 2006-06-29 Samsung Electronics Co., Ltd. Method and apparatus for reduction of compression noise in compressed video images
US7599439B2 (en) * 2005-06-24 2009-10-06 Silicon Image, Inc. Method and system for transmitting N-bit video data over a serial link
JP5082209B2 (ja) * 2005-06-27 2012-11-28 株式会社日立製作所 送信装置、受信装置、及び映像信号送受信システム
US7844762B2 (en) * 2006-02-24 2010-11-30 Silicon Image, Inc. Parallel interface bus to communicate video data encoded for serial data links
US8204104B2 (en) 2006-03-09 2012-06-19 Sony Corporation Frame rate conversion system, method of converting frame rate, transmitter, and receiver
US20080101467A1 (en) * 2006-10-27 2008-05-01 Radiospire Networks, Inc. Method and system for secure and efficient wireless transmission of HDCP-encrypted HDMI/DVI signals
JP2008113198A (ja) * 2006-10-30 2008-05-15 Sony Corp 伝送方法、伝送システム、送信装置及び受信装置
CN101627625A (zh) * 2007-03-13 2010-01-13 索尼株式会社 通信系统、发送装置、发送方法、接收装置以及接收方法
JP2008252834A (ja) 2007-03-30 2008-10-16 Toshiba Corp 音声再生装置
JP4971881B2 (ja) * 2007-06-20 2012-07-11 キヤノン株式会社 画像符号化装置及び画像復号装置、並びにそれらの制御方法
JP5358931B2 (ja) * 2007-11-28 2013-12-04 ソニー株式会社 送信装置及び受信装置
JP5593596B2 (ja) * 2008-02-04 2014-09-24 ソニー株式会社 映像信号送信装置および映像信号送信方法
JP2009206696A (ja) * 2008-02-27 2009-09-10 Mitsubishi Electric Corp 伝送システム
US20090295987A1 (en) * 2008-05-30 2009-12-03 Mediatek Inc. Apparatus and Method for Processing a Vertical Blanking Interval Signal
EP2146343A1 (de) * 2008-07-16 2010-01-20 Deutsche Thomson OHG Verfahren und Vorrichtung zur Synchronisation von stark komprimierten Erweiterungsschichtdaten
JP5131101B2 (ja) 2008-09-09 2013-01-30 富士通株式会社 動画像編集装置および動画像編集プログラム
US20120008044A1 (en) * 2008-12-25 2012-01-12 Shigetaka Nagata Transmitting apparatus, receiving apparatus, system, and method used therein
JP5332773B2 (ja) 2009-03-18 2013-11-06 ソニー株式会社 画像処理装置および方法
US8341168B1 (en) 2009-06-04 2012-12-25 Workday, Inc. System for displaying hierarchical data
US8705623B2 (en) * 2009-10-02 2014-04-22 Texas Instruments Incorporated Line-based compression for digital image data
JP5460405B2 (ja) * 2010-03-24 2014-04-02 キヤノン株式会社 画像表示装置およびその制御方法
US8930692B2 (en) * 2010-07-23 2015-01-06 Silicon Image, Inc. Mechanism for internal processing of content through partial authentication on secondary channel
JP2012039476A (ja) * 2010-08-09 2012-02-23 Sony Corp 送受信装置および送受信方法
JP5655562B2 (ja) * 2010-12-28 2015-01-21 ソニー株式会社 電子機器、電子機器の制御方法、送信装置および受信装置
EP2785051A4 (de) * 2011-11-25 2015-11-25 Hitachi Maxell Bildübertragungsvorrichtung, bildübertragungsverfahren, bildempfangsvorrichtung und bildempfangsverfahren
US8897398B2 (en) * 2012-01-27 2014-11-25 Apple Inc. Methods and apparatus for error rate estimation
WO2013122385A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
JP6541933B2 (ja) * 2012-12-28 2019-07-10 ヤマハ株式会社 信号処理装置及び信号処理方法

Also Published As

Publication number Publication date
TWI660627B (zh) 2019-05-21
US20150256863A1 (en) 2015-09-10
JP2017512031A (ja) 2017-04-27
WO2015134159A1 (en) 2015-09-11
KR101996334B1 (ko) 2019-07-04
US10027971B2 (en) 2018-07-17
DE112015001136T5 (de) 2016-11-24
JP6684223B2 (ja) 2020-04-22
CN106105186B (zh) 2019-04-19
KR20160131083A (ko) 2016-11-15
TW201536040A (zh) 2015-09-16
CN106105186A (zh) 2016-11-09
US9800886B2 (en) 2017-10-24
US20150256842A1 (en) 2015-09-10
TW201536041A (zh) 2015-09-16
WO2015134203A1 (en) 2015-09-11
TWI662837B (zh) 2019-06-11
KR20160132070A (ko) 2016-11-16
JP2017512030A (ja) 2017-04-27
CN106256113A (zh) 2016-12-21
US20180035122A1 (en) 2018-02-01
KR102232017B1 (ko) 2021-03-25

Similar Documents

Publication Publication Date Title
DE112015001145T5 (de) Komprimierter Videotransfer über eine Multimediaverbindung
DE69216339T2 (de) Neue Video-Misch-Technik mit JPEG-komprimierten Daten
DE69523937T2 (de) Chipkarte, signalverarbeitungsgerät und verfahren zur signalverarbeitung
DE69732271T2 (de) Hochbitrate Huffman Dekodierung
DE112006002579B4 (de) Verfahren und Vorrichtung zum drahtlosen Übertragen von Anzeigesignalen, und Anzeigevorrichtung
DE102019130366A1 (de) Bildskalierung
DE202015009983U1 (de) Empfangsvorrichtung, Anzeigevorrichtung und Sendevorrichtung
DE112011105224T5 (de) Bildinformations-Wiedergabeeinheit, Bildinformations-Wiedergabevorrichtung und Synchronisationskontrollverfahren
DE112014003562T5 (de) Funkfrequenzinterferenz-Reduktion in Multimedia-Schnittstellen
DE112017005708T5 (de) Einrichtungen und Verfahren zum Überleiten von Videoinformationen über ein Erweiterungsmedium
DE69319931T2 (de) Realzeitkodierer für digitaltonpakete
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
DE112015002124T5 (de) Medienstromdaten und Kontrollparametersynchronisation
DE69623055T2 (de) Vorrichtung und verfahren zur erzeugung von osd-nachrichten mit zeilenverdopplung
DE69623502T2 (de) Verfahren und vorrichtung zum erzeugen von bildschirmanzeigemeldungen mit echtfarbenmodus
DE60128257T2 (de) Serielle komprimierte busschnittstelle mit einer reduzierten pinanzahl
DE102008059270B4 (de) Verfahren zum Übertragen eines Videodatenstroms in Echtzeit, Verfahren, Vorrichtung und Computerprogrammprodukt zum Senden eines Videodatenstroms in Echtzeit und Verfahren, Vorrichtung und Computerprogrammprodukt zum Empfangen eines Videodatenstroms in Echtzeit
DE60206827T2 (de) Elementenformat zur Bildung von Abbildungen in Abwärtsrichtung in Punkt-zu-Mehrpunkt-Systemen mit verschiedenen physikalischen Modi
WO2023175201A1 (de) Hardwarebasiertes und effizientes weiterleiten von daten
DE102020100695A1 (de) Verfahren und Vorrichtung zur Übertragung von Multi-View-Videodaten
DE102023122981A1 (de) Objektverwischung auf komprimierten Videos
DE102013020484A1 (de) Gerät, System und Verfahren zur Übertragung von Netzwerkdaten
DE102019111771A1 (de) Systeme und Verfahren für einen asymmetrischen Bildsplitter mit Zeilenmarkierungsspeicher
DE102005062077A1 (de) Verfahren zum Komprimieren von Daten, Verfahren zum Dekomprimieren komprimierter Daten und Vorrichtungen dazu
WO1996025732A1 (de) Verfahren zur darstellung von in nicht äquidistanter form übertragenen bildsignalen auf einem datensichtgerät, das nur äquidistante bildsignale anzeigt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04L0029080000

Ipc: H04N0019420000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final