DE69227879T2 - Stehbildübertragungssystem - Google Patents

Stehbildübertragungssystem

Info

Publication number
DE69227879T2
DE69227879T2 DE69227879T DE69227879T DE69227879T2 DE 69227879 T2 DE69227879 T2 DE 69227879T2 DE 69227879 T DE69227879 T DE 69227879T DE 69227879 T DE69227879 T DE 69227879T DE 69227879 T2 DE69227879 T2 DE 69227879T2
Authority
DE
Germany
Prior art keywords
mode
signal
image signal
digital image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69227879T
Other languages
English (en)
Other versions
DE69227879D1 (de
Inventor
Katsumi C/O Sony Corporation Shinagawa-Ku Tokyo Tahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE69227879D1 publication Critical patent/DE69227879D1/de
Application granted granted Critical
Publication of DE69227879T2 publication Critical patent/DE69227879T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Communication Control (AREA)

Description

    Stehbildübertragungssystem
  • Die vorliegende Erfindung betrifft ein Informationsübertragungsgerät und ein Informationsempfangsgerät, die beispielsweise zur Verwendung bei einem Videokonferenzsystem, einem Bewegungsbild-Telefonsystem oder dgl. geeignet sind.
  • Neuerdings ist ein Übertragungssystem vorgeschlagen worden, bei welchem Stehbildinformation und Bewegungsbildinformation zusätzlich mit Audioinformation kombiniert sind, und diese Information wird an einen anderen Ort übertragen.
  • Bei einem Videokonferenzsystem oder dgl. können beispielsweise Benutzer an entfernten Orten durch Audio- und Videoinformation über sogenannte audiovisuelle Geräte (AV- Geräte) miteinander kommunizieren.
  • Wenn die Benutzer an entfernten Orten mittels der Kombination aus Audio- und Videoinformation ähnlich dem obigen Videokonferenzsystem miteinander kommunizieren, werden diese Audio- und Videoinformationen codiert und dann jeweils übertragen.
  • Die Codierung der Bildinformation ist entsprechend der Video-CODEC-Empfehlung H.261 (CODEC steht für Codierer und Decodierer) standardisiert, die im Dezember 1990 durch das von dem unter der Kontrolle der International Telecommunication Union (ITU) stehenden Comité Consultatif International des Télégraphique et Téléfonique (CCITT) erstellt worden ist.
  • Die Anwendung der Bewegungsbildcodierung deckt als eine Anwendung beispielsweise Rundfunkkommunikation ab, bei welcher ein Standard-Fernsehempfänger oder hochauflösender Fernsehempfänger (HD-Empfänger) als eine Signalquelle zum Bewirken der Signalübertragung an den entfernten Ort und als ein Nutzspeicher verwendet wird, in welchem die lokale Signalverarbeitung bewirkt wird.
  • Als ein Videoformat gemäß der obigen Empfehlung H.261 ist ein herkömmliches Zwischenformat (CIF = Common Intermediate Format) erwähnt, welches Probleme lösen kann, die durch verschiedene Fernsehsysteme in den Bereichen (der ganzen Welt) verursacht sind, und welches die Kommunikation zwischen den CODECs bewirken kann.
  • Die Auflösung eines Bildes auf der Basis des CIF beträgt 352 Punkte (in der horizontalen Richtung) · 288 Punkte (in der vertikalen Richtung).
  • Die Struktur von zu übertragenden Bilddaten ist als eine in Fig. 1 der beigefügten Zeichnungen dargestellte hierarchische Struktur ausgebildet.
  • Wie in Fig. 1 dargestellt bildet ein Bild (jedes von 1 bis 12 in Fig. 1) eine Blockgruppe (GOB) (1 bis 33 in Fig. 1). Eine GOB ist ein Makroblock, der aus einer Luminanzinformation Y und Farbinformationen CB und CR besteht. Außerdem ist eine einzelne Luminanzinformation Y (1 bis 4 in Fig. 1) ein Block, der aus 8 Pixeln und 8 Pixeln besteht.
  • Ein quellencodiertes Ausgangssignal, d. h., ein quantisierter Index eines Konversionkoeffizienten, eine Bewegungvektorinformation, eine Blocktypinformation und/oder dgl. werden außerdem durch den variablen Längencodierungsprozeß unter Verwendung einer statistischen Eigenschaft datenkomprimiert und dann zu einer Bitfolge gemultiplext.
  • Jeder effektive einzelne Block aus 6 Blöcken, die den oben angegebenen Makroblock bilden, wird als ein Muster codiert.
  • An die Übertragungsleitung übertragenen Bilddaten wird bei jedem aus 6 Blöcken bestehenden Makroblock eine Makroblock-Attributinformation hinzugefügt, der bei jedem die GOB bildenden Makroblock ein GOB-Nachrichtenkopf hinzugefügt und auch bei jeder GOB ein das Bild aufbauender Bildnachrichtenkopf hinzugefügt ist, wodurch sie in eine Datenfolge umgewandelt wird.
  • Bei der Übertragung von Bilddaten wird eine Bildinformation eines interpolierenden Rahmens auf der Übertragungsseite gebildet und dann zur Empfangsseite übertragen.
  • Übertragungsdaten DATA bestehen aus Bilddaten, die, wie in den Fig. 2A, 2B und Fig. 3 dargestellt, entsprechend dem hocheffizienten Codierungsprozeß verarbeitet werden.
  • Bei dem hocheffizienten Codierungsprozeß werden, wenn Bewegungsbilder PC1, PC2, PC3, ... zu Zeitpunkten t = t1, t2, t3, ... in digitale Daten umgewandelt und dann zur Empfangsseite übertragen werden, zu übertragende digitale Daten unter Verwendung der Eigenschaft, daß das Videosignal eine starke Autokorrelation aufweist komprimiert, um dadurch die Übertragungseffizienz zu verstärken. Demgemäß werden eine Interrahmen-Codierungsverarbeitung und eine Intrarahmen-Codierungsverarbeitung ausgeführt.
  • Gemäß der Intrarahmen-Codierungsverarbeitung werden, wie in Fig. 2A dargestellt, die Bilder PC1, PC2, PC3 ... derart komprimiert, daß eine Differenz zwischen benachbarten Bilddaten beispielsweise entlang der horizontalen Abtastlinienrichtung auf ein- oder zweidimensionale Art und Weise angeordnet ist. Infolgedessen werden in Bezug auf die jeweiligen Bilder PC1, PC2, PC3, ... Übertragungsrahmendaten mit komprimierter Bitzahl gebildet.
  • Gemäß der Interrahmen-Codierungsverarbeitung werden, wie in Fig. 2B dargestellt, Bilder PC12, PC23, welche Abweichungen zwischen benachbarten Bildern PC1 und PC2 bzw. PC2 und PC3, ... ausdrücken, sequentiell gewonnen. Diese Bilder PC12, PC23 ... werden zusammen mit (aus Interrahmen-Codierungsdaten bestehenden) Bilddaten eines Anfangsbildes PC1 zum Zeitpunkt t = t1 als Vektordaten x&sub0;, x&sub1;, x&sub2;, x&sub3;, ... und Differenzdaten zwischen sequentiellen benachbarten Bildern übertragen.
  • Deshalb kann das Videosignal in digitale Daten mit einer der hocheffizienten Codierungsverarbeitung entsprechenden geringeren Bitzahl codiert und dann im Vergleich mit dem Fall übertragen werden, daß alle Bilddaten des Bildes PC1, PC2, PC3, ... übertragen werden.
  • Zu übertragende Bilddaten werden in Blöcke einer vorbestimmten Zahl Rahmen (beispielsweise 10 Rahmen bzw. Datenübertragungsblöcke) geteilt, und Blockdaten... BL(N - 1), BLN, BL(N + 1)... werden entsprechend der hocheffizienten Codie rungsverarbeitung sequentiell codiert und dann in dieser Ordnung von der Übertragungsseite zur Übertragungsleitung übertragen.
  • Die Blockdaten BLN (N = ... N - 1, N, N + 1, ...) enthalten jeweils durch Interrahmencodierung verarbeitete Daten als erste Rahmendaten D1 und durch Intrarahmencodierung verarbeitete Daten als zweite bis zehnte Rahmendaten D2 bis D10.
  • Die durch Interrahmencodierung verarbeiteten Daten bestehen, wie früher unter Bezugnahme auf die Fig. 2A angegeben, aus Differenzdaten aller das Bild eines einzelnen Rahmens bildenden Pixeln. Die Empfangsseite reproduziert ein einzelnes Bild darstellende Rahmenbilddaten durch sequentielle Addition der Differenzdaten eines einzelnen Rahmens.
  • Andererseits werden die zweiten bis zehnten Rahmendaten D2 bis D10, welche die Intrarahmen-Codierungsdaten nur der Pixel sind, die in den aufeinanderfolgenden Rahmen geändert werden, in Bewegungsvektordaten und Differenzdaten umgewandelt, die für eine Differenz zwischen den Intrarahmenbildern repräsentativ sind.
  • Deshalb bilden die zweiten bis zehnten Rahmendaten D2 bis D10, da die ersten Rahmendaten D1 Übertragungsdaten bilden, deren Kompressionseffizienz durch Bildung der für Differenzen aller Pixel eines Rahmens bzw. Datenübertragungsblocks repräsentativen Daten relativ niedrig ist (beispielsweise eine große Zahl Bits aufweisen), Übertragungsdaten, deren Kompressionseffizienz relativ hoch ist (beispielsweise eine niedrigere Bitzahl aufweisen) und die nur eine Bewegung zwischen Bilddaten darstellen.
  • Die Fig. 4 der beigefügten Zeichnungen zeigt ein universelles Kommunikationsformat auf der Basis des obigen gemeinsamen Zwischenformats (CIF).
  • Nach Fig. 4 werden Bilddaten aus einer Videokamera 31 (beispielsweise eine Videokamera des PAL-Systems), bei welcher eine Frequenz 50 Hz und die Zahl an Abtastzeilen 625 beträgt, oder Bilddaten aus einer Videokamera (beispielsweise eine Videokamera des NTSC-Systems), bei welcher eine Frequenz 60 Hz und die Zahl an Abtastzeilen 525 beträgt, durch einen Wandler 32 bzw. 34 in Bilddaten des CIF-Formats umgeandelt.
  • Dann werden diese Bilddaten von einem Codierer 35 codiert und übertragen. Die vom Codierer 35 so codierten und dann übertragenen Bilddaten werden von einem Decodierer 36 decodiert und in die Bilddaten des CIF-Formats umgewandelt.
  • Überdies werden die Bilddaten des CIF-Formats durch einen Wandler 37 oder 39 in das ursprüngliche Videosignal umgewandelt, und ein Fernsehempfänger 38 (beispielsweise ein Fernsehempfänger des PAL-Systems) mit einer Frequenz von 50 Hz und 625 Abtastzeilen oder ein Fernsehempfänger 40 (beispielsweise ein Fernsehempfänger des NTSC-Systems mit einer Frequenz von 60 Hz und 525 Abtastzeilen zeigt das so gewandelte Videosignal an.
  • Beim obigen Kommunikationsprozeß deckt die Empfehlung H.261 den Codierer 35 und den Decodierer 36 ab.
  • Die Fig. 5 der beigefügten Zeichnungen zeigt in Blockform ein Beispiel eines Videokonferenzsystems. Das Beispiel des Videokonferenzsystems wird nachfolgend unter Bezugnahme auf die Fig. 5 beschrieben.
  • In der Fig. 5 stellt das Bezugszeichen 41 ein Endgerät dar. Das Endgerät 41 kann mit einem anderen Endgerät 42 über ein Netzwerk 43 unter der Kontrolle einer Mehrpunktsteuerungseinheit 44 kommunizieren.
  • Nachfolgend wird eine Ausgestaltung des Endgeräts 41 beschrieben. In diesem Fall ist das Endgerät 42 ähnlich wie das unten beschriebene Endgerät 41 aufgebaut und braucht deshalb hier nicht beschrieben zu werden.
  • Bei einer Übertragung wird ein von einer Video-Eingangs- und -Ausgangseinrichtung 45 zugeführtes Videosignal einem Video-CODEC (Codierer und Decodierer) 46 zugeführt, in welchem es entsprechend den gemeinsamen Zwischenformat (CIF) in Bilddaten umgewandelt und entsprechend einiger geeigneter Prozesse, beispielsweise einem Filterungsprozeß oder dgl. zur Eliminierung von Rauschen verarbeitet wird. Dann werden die so verarbeiteten Bilddaten einer Multimedia-Multiplexer/Separierungs-Einrichtung 53 zugeführt.
  • Eine Einrichtung, welche die Bilddaten der Video-Eingangs- und -Ausgangseinrichtung 45 zuführt, ist nicht beschränkt, und es kann jede beliebige Einrichtung verwendet werden, solange diese der Video-Eingangs- und -Ausgangseinrichtung 45 Bilddaten zuführen kann.
  • Andererseits wird ein Audiosignal von einer Audio- Eingangs- und -Ausgangseinrichtung 48 einem Audio-CODEC 49 zugeführt, in welchem es codiert und um eine vorbestimmte Verzögerungszeit verzögert wird. Dann werden die so verarbeiteten Audiodaten der Multimedia-Multiplexer/Separierungs- Einrichtung 53 zugeführt.
  • Information aus einer Telematikeinrichtung 51 wird der Multimedia-Multiplexer/Separierungs-Einrichtung 53 zugeführt.
  • Der Multimedia-Multiplexer/Separierungs-Einrichtung 53 jeweils zugeführte Daten werden von der Multimedia-Multiplexer/Separierungs-Einrichtung 53 unter der Kontrolle einer Systemssteuerungseinrichtung 52 gemultiplext und dann dem anderen Endgerät 42 über eine Netzwerkschnittstelle 54 und das Netzwerk 43 zugeführt.
  • Beim Empfang des vom anderen Endgerät 42 übertragenen Signals wird ein gemultiplextes Signal durch die Netzwerkschnittstelle 54 der Multimedia-Multiplexer/Separierungs- Einrichtung 53 zugeführt, in der es separiert wird, um Videodaten und Audiodaten bereitzustellen. Die Videodaten werden dem Video-CODEC 46 zuführt, die Audiodaten werden durch eine Verzögerungseinrichtung 50 dem Audio-CODEC 49 zugeführt, und Telematikeinrichtungsdaten werden der Telematikeinrichtung 51 zugeführt.
  • Die codierten Videodaten werden vom Video-CODEC 46 in das ursprüngliche Videosignal decodiert und dann durch die Video-Eingangs- und -Ausgangseinrichtung 45 einem Fernsehempfänger (nicht gezeigt) oder dgl. zugeführt, wobei es auf einem Bildschirm des Fernsehempfängers als ein Fernsehbild angezeigt wird.
  • Die codierten Audiodaten werden vom Audio-CODEC 49 in das ursprüngliche Audiosignal decodiert und dann einem Laut sprecher (nicht gezeigt) oder dgl. zugeführt, wobei es vom Lautsprecher oder dgl. abgestrahlt wird.
  • Bei dem oben erwähnten Videokonferenzsystem deckt der Video-CODEC 46 den Bereich der Videoempfehlung H.261 ab.
  • Wie früher erwähnt, ist der Video-CODEC 46 so ausgebildet, daß er Bilddaten oder dgl. bei einer Übertragung der Bilddaten oder dgl. codiert und die codierten Bilddaten bei einem Empfang der Bilddaten decodiert.
  • Die Fig. 6 der beigefügten Zeichnungen zeigt ein Blockschaltbild der Sende- bzw. Übertragungsseite (Codierer) und einer Empfangsseite (Decodierer) von Bilddaten.
  • Zur Vereinfachung der Beschreibung ist in der Fig. 6 der CODEC nicht dargestellt, sondern als der Codierer des Endgeräts auf der Übertragungsseite und als der Decodierer des Endgeräts auf der Empfangsseite dargestellt. Deshalb sind in der Fig. 6 ein Decodierer des Endgeräts auf der Übertragungsseite und der Codierer des Endgeräts auf der Empfangsseite nicht dargestellt.
  • In der Fig. 6 stellt das Bezugszeichen 1 einen Eingangsanschluß dar, dem das Videosignal aus der in Bezug auf die Fig. 5 beschriebenen Video-Eingangs- und -Ausgangseinrichtung oder dgl. zugeführt ist. Ein Videosignal aus dem Eingangsanschluß 1 wird von einem Analog-Digital-Wandler (A/D-Wandler) 2 umgewandelt und dann einer Bewegungsdetektions- und Bewegungskorrekturschaltung 3 zugeführt.
  • Die Bewegungsdetektions- und Bewegungskorrekturschaltung 3 führt die Bewegungskorrektur-Zwischenrahmenvorhersage an 16 · 16 Pixeln auf der Basis des digitalen Videosignals aus dem A/D-Wandler 2 und von Bilddaten eines vorhergehenden Rahmens aus dem Rahmenspeicher 23 aus und führt nur eine Bewegungsinformation des digitalen Videosignals einer Entscheidungsschaltung 4 zu.
  • Die Entscheidungsschaltung 4 bestimmt auf der Basis einer Überlaufinformation aus einem Puffer 8, ob die Bewegungsinformation aus der Bewegungsdedektor- und Bewegungskorrekturschaltung 3 in einem Intermodus oder einem Intramodus ist.
  • Gemäß dem Intermodus wird die Differenz zwischen dem vorhergehenden Rahmen und einem nachfolgendem Rahmen abgeleitet, um ein Interrahmen-Differenzsignal zu erhalten, während gemäß dem Intramodus eine Menge Information aus einem einzelnen Rahmen gewonnen wird, um ein Intrarahmen-Voraussagesignal zu erhalten.
  • Daten aus der Entscheidungsschaltung 4 werden einer Orthogonaltransformationsschaltung 5 zugeführt.
  • Die Orthogonaltransformationsschaltung 5 transformiert orthogonal die Daten aus der Entscheidungsschaltung 4 durch eine Blockgröße von 8 · 8 Pixeln und führt die so übertragenen Daten einer Quantisierungsschaltung 6 zu.
  • Gemäß der Orthogonaltransformation durch die Orthogonaltransformationsschaltung 5 werden die Daten (Zeitbasisdaten) aus der Entscheidungsschaltung 4 in Frequenzachsendaten umgewandelt, die eine kleine Menge Information aufweisen.
  • Die Quantisierungsschaltung 6 quantisiert die umgewandelten Daten aus der Orthogonaltransformationsschaltung 5 auf der Basis der Überlaufinformation aus dem Puffer 8 und führt die so quantisierten Bilddaten einer Huffman-Codierungsschaltung 7 zu.
  • Die so von der Quantisierungsschaltung 6 quantisierten Bilddaten werden einer Inverse Quantisierungsschaltung 20 zugeführt und dabei von dieser Inverse Quantisierungsschaltung 20 invers quantisiert. Dann werden die so verarbeiteten Bilddaten von einer Invers-Orthogonaltransformationsschaltung 21 invers orthogonal transformiert, von einem Decodierer (lokaler Decodierer) 22 dekodiert und dann einem Rahmenspeicher 23 zugeführt.
  • Die Bilddaten aus dem Rahmenspeicher 23 werden einem Schleifenfilter 24, in welchem Verzerrungen zwischen Blöcken beseitigt werden, und dann der oben angegebenen Bewegungsdetektions- und Bewegungskorrekturschaltung 3 zugeführt.
  • Die Huffman-Codierungsschaltung 7 ist so ausgebildet, daß sie die Bilddaten aus der obigen Quantisierungsschaltung 7 mit einem einer Anzahl Nullen "0" entsprechenden kurzen Code codiert werden.
  • Die Bilddaten aus der Huffman-Codierungsschaltung 7 werden durch den Puffer 8 einer Fehlerkorrekturcodierungsschaltung 9 zugeführt.
  • Die Fehlerkorrekturcodierungsschaltung 9 addiert zu den Bilddaten aus dem Puffer 8 einen Fehlerkorrekturcode, um Rauschen in einer (mit dem in Bezug auf die Fig. 5 beschriebenen Netzwerk 43 oder dgl. korrespondierenden) Übertragungsleitung zu beseitigen.
  • Die Bilddaten aus der Fehlerkorrekturcodierungsschaltung 9 werden einem Multiplexer 10 zugeführt, und der Multiplexer 10 wandelt verschiedene Daten zusätzlich zu diesen Bilddaten in variable Längencode um und so multiplext diese mit einer Codefolge einer vorbestimmten Datenstruktur.
  • Die Bilddaten aus dem Multiplexer 10 werden einem Demultiplexer 11 auf der Empfangsseite zugeführt.
  • Daten der vom Demultiplexer 11 auf der Empfangsseite gemultiplexten Codefolge werden in die ursprünglichen Bilddaten umgewandelt und dann durch eine Fehlerkorrekturcodierungsschaltung 12 einer inversen Huffman-Codierungsschaltung 13 zugeführt.
  • Die obigen Daten werden von der inversen Huffman- Korrekturschaltung 13 zu quantisierten Bilddaten verarbeitet. Diese quantisierten Bilddaten werden dann einer inversen Quantisierungsschaltung 14 zugeführt, in welcher sie invers quantisiert werden, um Bilddaten der Frequenzachse zu erzeugen.
  • Die Bilddaten der Frequenzachse werden der Invers- Orthogonaltransformationsschaltung 14 zugeführt, in welcher sie in Bilddaten auf der Zeitbasis umgewandelt werden. Diese Bilddaten der Zeitbasis werden einem Decodierer 16 zugeführt, in welchem sie in die ursprünglichen Bilddaten umgewandelt werden. Dann werden diese Bilddaten zeitweilig in einem Rahmenspeicher 17 gespeichert und einem Digital-Analog-Wandler (D/A-Wandler) 18 zugeführt, in welchem sie in ein analoges Videosignal umgewandelt werden.
  • Dieses analoge Videosignal wird durch einen Ausgangsanschluß 19 und die in Bezug auf die Fig. 5 beschriebene Vi deoausgangsschaltung 45 einem Fernsehempfänger (nicht gezeigt) oder dgl. zugeführt, wobei sie auf einem Bildschirm als ein empfangenes Bild angezeigt werden.
  • Im Videokonferenzsystem oder dgl., bei welchem das bewegte Bild auf der Basis der Inhalte der obigen Videoempfehlung H.261 übertragen wird, wird bei der Übertragung eines Bildes wie beispielsweise eines Dokuments oder dgl. als Stehbild dieses Bild entsprechend seinem eigenen Modus übertragen, da die Videoempfehlung H.261 keine Regelung bezüglich der Übertragung des unbewegten Bildes aufweist.
  • Bei dem Videokonferenzsystem oder dgl. jedoch, bei welchem die Verarbeitung bei der entsprechend der Videoempfehlung H.261 regulierten Übertragung bewirkt wird, gibt es bei der Ausführung einer anderen Verarbeitung nur bei der Übertragung des Stehbildes Unzulänglichkeiten in Bezug auf den Standpunkt der Effizienz und des Schaltungsmaßstabs. Deshalb wird bevorzugt eine ähnliche Verarbeitung bei der Übertragung eines Stehbildes ausgeführt.
  • Das Dokument EP-A-0 411 906 beschreibt ein System, welches eine Auswahl zwischen Stehbildern und Bewegungsbildern erlaubt. Bei diesem System kann der Benutzer wählen, um ein Bewegungsbild als ein Stehbild oder Bewegungsbild mit der gleichen Auflösung für beide zu sehen.
  • Bei dem Videokonferenzsystem (oder anderen Übertragungssystem usw.) gemäß den Standards der Videoempfehlung H.261 beträgt bei der Ausführung der Verarbeitung auf der Basis der Regelung der Videoempfehlung H.261 zur Übertragung eines unbewegten Bildes eine Auflösung des unbewegten Bildes ähnlich wie beim bewegten Bild 352 Punkte in der horizontalen Richtung und 288 Punkte in der vertikalen Richtung.
  • Das unbewegte Bild mit einer Auflösung von 352 Punkten (horizontale Richtung) · 288 Punkten (vertikale Richtung) kann jedoch nicht die Erfordernisse der Empfangsseite erfüllen, die ein unbewegtes Bild hoher Genauigkeit benötigt. Deshalb ist die Übertragung eines unbewegten Bildes mit hoher Auflösung erforderlich.
  • Demgemäß ist es Aufgabe der vorliegenden Erfindung ein verbessertes Informationsübertragungsgerät und ein verbessertes Informationsempfangsgerät bereitzustellen, bei welchen die vorstehend angegebenen Unzulängiglichkeiten und Nachteile des Standes der Technik eliminiert werden können.
  • Insbesondere ist es Aufgabe der vorliegenden Erfindung ein Informationsübertragungsgerät und ein Informationsempfangsgerät bereitzustellen, das ein unbewegtes Bild übertragen und empfangen kann, dessen Auflösung höher als die von der Video-CODEC-Empfehlung H.261 geregelte Auflösung ist.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein Informationsübertragungsverfahren und ein Informationsempfangsverfahren bereitzustellen, welches ein unbewegtes Bild senden und empfangen kann, dessen Auflösung höher als die bei der Video-CODEC-Empfehlung H.261 geregelte Auflösung ist.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein Informationsübertragungsgerät und ein Informationsempfangsgerät bereitzustellen, die bei einem Videokonferenzsystem, einem Bewegungsbild-Telefonsystem oder dgl. geeignet verwendet werden können.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung ist ein Gerät zur Übertragung eines digitalen Bildsignals eines Bewegungsbildes oder eines Stehbildes in Form derart komprimierter digitaler Daten bereitgestellt, daß das digitale Bildsignal durch einen Übertragungskanal vorbestimmter Übertragungskapazität übertragen werden kann, mit
  • einem Analog-Digital-Wandler zur Erzeugung des digitalen Bildsignals,
  • einer Kompressionseinrichtung zum Komprimieren des digitalen Bildsignals derart, daß das digitale Bildsignal vom Übertragungskanal übertragen werden kann,
  • einer Auswahleinrichtung zum Auswählen eines Bewegungsbildmodus oder eines Stehbildmodus, und
  • einer Bewegungsbildsignal-Erzeugungseinrichtung zur Bereitstellung zur Übertragung des komprimierten digitalen Bildsignals eines Bewegungsbildes, wenn der Bewegungsbildmodus ausgewählt ist, dadurch gekennzeichnet, daß
  • der Analog-Digital-Wandler im Stehbildmodus Bildsignale mehrerer Bilder durch eine Abtastung bei mehreren verschiedenen Taktphasen erzeugt, und daß
  • eine Speichereinrichtung, die mehrere Bildspeicher aufweist, deren jeder einen Teil des bei einer der verschiedenen Taktphasen abgetasteten digitalen Bildsignals speichert, zum Speichern des digitalen Bildsignals eines Stehbildes, wenn der Stehbildmodus gewählt ist,
  • eine Speicherausgangseinrichtung ein Ausgangssignal jedes Bildspeichers an die Kompressionseinrichtung gibt, und
  • eine Stehbildsignal-Erzeugungseinrichtung zur Erzeugung des komprimierten digitalen Bildsignals eines Stehbildes für eine Übertragung, wenn der Stehbildmodus gewählt ist, vorhanden sind.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung ist ein Gerät zum Empfang eines digitalen Bildsignals von einem Bewegungsbild oder einem Stehbild in Form derart komprimierter digitaler Daten bereitgestellt, daß das digitale Bildsignal durch einen Empfangskanal mit einer vorbestimmten Empfangskapazität empfangen werden kann, mit
  • einer Expansionseinrichtung zum Expandieren des digitalen Bildsignals derart, daß es weiterverarbeitet werden kann,
  • einer Bestimmungseinrichtung zum Bestimmen eines Übertragungsmodus des digitalen Bildsignals als Bewegungsbildmodus oder Stehbildmodus, und
  • einer Ausgabeeinrichtung zum Ausgeben des expandierten digitalen Bildsignals, gekennzeichnet durch
  • eine Speichereinrichtung, die mehrere Bildspeicher aufweist, deren jeder einen anderen Teil des digitalen Bildsignals speichert, zum Speichern des expandierten digitalen Bildsignals, wenn der Stehbildmodus bestimmt ist, und
  • eine Einrichtung zum Rekonstruieren des Stehbildes aus den verschiedenen Teilen des in den mehreren Bildspeichern gespeicherten Signals auf der Basis, daß die verschiedenen Teile bei verschiedenen Taktphasen abgetastet sind.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung ist ein Verfahren zur Übertragung eines digitalen Bildsignals eines Bewegungsbildes oder eines Stehbildes in Form derart komprimierter digitaler Daten bereitgestellt, daß das digitale Bildsignal durch einen Übertragungskanal mit einer vorbestimmten Übertragungskapazität übertragen werden kann, mit den Schritten:
  • Auswählen eines Übertragungsmodus als Bewegungsbildmodus oder Stehbildmodus, und
  • Komprimieren des digitalen Bildsignals des Bewegungsbildes derart, daß es von dem Übertragungskanal übertragen werden kann, wenn der Bewegungsbildmodus ausgewählt ist, gekennzeichnet durch die Schritte
  • Speichern mehrerer verschiedener Teile des bei verschiedenen Taktphasen abgetasteten digitalen Bildsignals, wenn der Bildmodus ausgewählt ist, und
  • Komprimieren des bei den mehreren verschiedenen Phasen derart gespeicherten digitalen Bildsignals, daß es auf dem Übertragungskanal übertragen werden kann, wenn der Stehbildmodus ausgewählt ist.
  • Gemäß einem vierten Aspekt der vorliegenden Erfindung ist ein Verfahren zum Empfang eines digitalen Bildsignals eines Bewegungsbildes oder eines Stehbildes in Form derart komprimierter digitaler Daten, daß das digitale Bildsignal durch einen Empfangskanal mit einer vorbestimmten Empfangskapazität empfangen werden kann, mit den Schritten:
  • Expandieren des empfangenen digitalen Bildsignals,
  • Bestimmen eines Übertragungsmodus als Bewegungsbildmodus oder Stehbildmodus, und
  • Ausgeben des expandierten digitalen Bildsignals, gekennzeichnet durch
  • Speichern mehrerer Teile des expandierten digitalen Bildsignals, deren jeder bei einer anderen Taktphase abgetastet wird, wenn der Stehbildmodus bestimmt ist, und Wiedergeben des Stehbildes von den mehreren Teilen vor dem Ausgabe schritt auf der Basis, daß die verschiedenen Teile bei verschiedenen Taktphasen abgetastet wurden.
  • Die obigen und andere Aufgaben, Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich deutlicher aus der folgenden detaillierten Beschreibung einer illustrativen Ausführungsform, die in Verbindung mit den beigefügten Zeichnungen zu lesen ist, in denen gleiche Bezugszeichen zum Identifizieren der gleichen oder ähnlicher Teile in den verschiedenen Darstellungen verwendet sind.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Fig. 1 ist eine schematische Darstellung, die eine Struktur von Bilddaten zeigt,
  • Fig. 2A und 2B sind jeweilige schematische Darstellungen, die zur Erläuterung eines hocheffizienten Codierungssystems verwendet sind,
  • Fig. 3 ist eine schematische Darstellung, die zur Erläuterung eines Blocks von Bilddaten verwendet ist,
  • Fig. 4 ist ein Blockschaltbild, welches einen Umriß eines Kommunikationssystems zeigt,
  • Fig. 5 ist ein Blockschaltbild, welches einen Aufbau eines Videokonferenzsystems zeigt,
  • Fig. 6 ist ein Blockschaltbild, welches ein Beispiel eines Übertragungsgeräts und Empfangsgeräts nach dem Stand der Technik zeigt,
  • Fig. 7 (gebildet aus Fig. 7A und 7B) ist ein Blockschaltbild, welches ein Informationsübertragungsgerät und Informationsempfangsgerät gemäß einer Ausführungsform der vorliegenden Erfindung zeigt,
  • Fig. 8 (gebildet aus Fig. 8A und 8B) ist ein Diagramm eines Kommunikationsflußdiagramms, das zur Erläuterung des Informationsübertragungsgeräts und Informationsempfangsgerät gemäß der vorliegenden Erfindung verwendet wird,
  • Fig. 9A bis 9D sind jeweils Zeitabstimmungsdiagramme, die zur Erläuterung des Informationsübertragungsgeräts und Informationsempfangsgeräts gemäß der Ausführungsform der vorliegenden Erfindung verwendet sind, und
  • Fig. 10 ist ein Flußdiagramm, auf das bei der Erläuterung des Betriebs des Informationsübertragungs- und Informationsempfangsgeräts gemäß der vorliegenden Erfindung Bezug genommen wird.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Nachfolgend wird ein Informationsübertragungsgerät und ein Informationsempfangsgerät gemäß einer Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Fig. 7 detailliert erläutert.
  • Die Fig. 7, welche zur Ermöglichung der Verwendung eines geeignet großen Maßstabs aus den auf zwei Zeichnungsblättern gezeichneten aus den Fig. 7A und 7B besteht, ist ein Blockschaltbild, welches einen Gesamtaufbau des Informationsübertragungs- und Informationsempfangsgeräts gemäß der vorliegenden Erfindung zeigt. In der Fig. 7 sind Teile, die mit ähnlichen Teilen der Fig. 1 bis 6 korrespondieren, mit den gleichen Bezugszeichen versehen und brauchen deshalb nicht detailliert beschrieben zu werden.
  • Nach Fig. 7 wird das analoge Videosignal aus einer Bilddaten oder dgl ausgebenden Einrichtung dem Eingangsanschluß 25 zugeführt. Das Videosignal aus dem Eingangsanschluß 25 wird der A/D-Wandlerschaltung 26 zugeführt.
  • Die A/D-Wandlerschaltung 26 enthält beispielsweise eine nicht gezeigte CPU (zentrale Verarbeitungseinheit) und wandelt das Videosignal aus dem Eingangsanschluß 25 in digitale Bilddaten um. Die so gewandelten digitalen Bilddaten werden in jeden der Speicher 27a, 27b, 27c und 27d geschrieben, welche den Speicher 27 im Stehbildmodus bilden, der später beschrieben wird.
  • Die A/D-Wandlerschaltung 26 gewinnt Bilddaten von 4 Rahmen durch Abtastung von Bewegungsbilddaten eines einzelnen Rahmens mit jeweiligen Abtasttakten, die beispielsweise vier verschiedene Phasen aufweisen (wobei Phasen von Abtasttakten beispielsweise angezeigt werden).
  • Dann werden die beispielsweise mit dem ersten Abtasttakt abgetasteten Bilddaten a nach Hinzufügung eines Bildidentifizierers (ID) in den Speicher 27a geschrieben, die mit dem zweiten Abtasttakt abgetasteten Bilddaten b nach Hinzufügung des Bildidentifizierers in den Speicher 27b geschrieben, die mit dem dritten Abtasttakt abgetasteten Bilddaten c nach Hinzufügung des Bildidentifizierers in den Speicher 27c geschrieben, und die mit dem vierten Abtasttakt abgetasteten Bilddaten d nach Hinzufügung des Bildidentifizierers in den Speicher 27d geschrieben.
  • Die in diesen Speichern 27 (27a bis 27d) gespeicherten Bilddaten a, b, c, und d werden der Orthogonaltransformationsschaltung 28 als Zwischenmodusdaten (Zwischenrahmen- Differenzsignal) zugeführt.
  • Die Orthogonaltransformationsschaltung 28 konvertiert die aus den Speichern 27a bis 27d ausgelesenen Bilddaten oder die ihr von der A/D-Wandlerschaltung 26 direkt in der Form von Zeitbasisdaten zugeführten Intramodusbilddaten in Frequenzachsendaten bei der in Bezug auf die Fig. 1 beschriebenen und aus aus 8 · 8 Pixeln bestehenden Blockeinheit, um dadurch komprimierte Daten zu gewinnen, die eine excellente Übertragungseffizienz aufweisen. Diese Bilddaten werden einem festen Kontakt 29a eines Schalters 29 zugeführt, der die Entscheidungsschaltung 30 bildet.
  • Die Bewegungsdetektions- und Bewegungskorrekturschaltung 31 führt die Bewegungsdetektion und Bewegungskorrektur der in den Speichern 27a bis 27d gespeicherten Bilddaten a, b, c und d oder der ihr von der A/D-Wandlerschaltung 26 mit der Einheit von beispielsweise 16 · 16 Pixeln auf der Basis von Bilddaten eines Rahmens vor einer Zufuhr aus dem Rahmenspeicher 38 durch das Schleifenfilter 39 direkt zugeführten Bilddaten aus.
  • Die Bewegungsbilddaten oder Stehbilddaten a, b, c und d aus der Bewegungsdetektions- und Bewegungskorrekturschaltung 31 und die Bilddaten eines Rahmens vor einer Verarbeitung durch die Bewegungsdetektions- und Bewegungskorrekturschaltung 31 werden einer Subtraktionsschaltung 32 zugeführt und dabei durch die Subtraktionsschaltung 32 subtrahiert.
  • Ein Zwischenrahmen-Differenzsignal aus der Subtraktionsschaltung 32 wird der Orthogonalwandlerschaltung 32 zuge führt, in welcher es ähnlich wie bei der oben genannten Orthogonaltransformationsschaltung 28 in der Form von zeitbasisdaten in die Frequenzachsendaten umgewandelt und dann dem anderen festen Kontakt 29d des Schalters 29 zugeführt wird, welcher die Entscheidungsschaltung 30 bildet.
  • Die Entscheidungsschaltung 30 verbindet einen beweglichen Kontakt 29c des Schalters 29 mit dem festen Kontakt 29a oder 29b auf der Basis einer Überlaufinformation aus einem Puffer (Übertragungspuffer) 41 oder dem von einem später beschriebenen Algorithmus bereitgestellten Ergebnis, durch welchen bestimmt wird, ob Bilddaten im Intermodus oder Intramodus übertragen werden.
  • Wenn insbesondere die Überlaufinformation aus dem Puffer 41 zugeführt oder von der Entscheidungsschaltung 30 auf der Basis des von dem Algorithmus bereitgestellten Ergebnisses bestimmt wird, daß Bilddaten im Intermodus übertragen werden, wird der bewegliche Kontakt 29c des Schalters 29 mit dem festen Kontakt 29d verbunden, um dabei die Intermodusbilddaten zur Quantisierungsschaltung 34 zu übertragen. In anderen Fällen, oder wenn auf der Basis des durch den Algorithmus bereitgestellten Ergebnisses bestimmt wird, daß Bilddaten im Intramodus übertragen werden, wird der bewegliche Kontakt 29c des Schalters 29 mit dem festen Kontakt 29a verbunden, um dadurch die Intramodus-Bilddaten der Quantisierungsschaltung 34 zuzuführen.
  • Die Quantisierungsschaltung 34 quantisiert die Bilddaten aus der Entscheidungsschaltung 30 mit der Einheit eines Makroblocks, der in Bezug auf die Fig. 1 beschrieben worden ist. Dann führt die Quantisierungsschaltung 34 die so quantisierten Bilddaten der Makroblockeinheit der Huffman-Codierungsschaltung 40 und der Inverse Quantisierungsschaltung 35 zu.
  • Die inverse Quantisierungsschaltung 35 quantisiert die Bilddaten der Makroblockeinheit aus der Quantisierungsschaltung 34 invers und führt die so invers quantisierten Bilddaten der inversen Orthogonaltransformationsschaltung 36 zu.
  • Die inverse Orthogonaltransformationsschaltung 36 wandelt die Frequenzachsenbilddaten aus der inversen Quantisierungsschaltung 35 in die Zeitachsenbilddaten um und führt die so gewandelten Bilddaten einem Decodierer 49 zu.
  • Der Decodierer 49 schreibt die Bilddaten aus einer inversen Orthogonaltransformationsschaltung 48 in einen Rahmenspeicher 38.
  • Die in den Rahmenspeicher 38 geschriebenen Bilddaten werden der obigen Bewegungsdetektions- und Bewegungskorrekturschaltung 31 durch ein Schleifenfilter 39 zugeführt, welche eine Störkomponente zwischen den Blöcken eliminiert.
  • Die von der Huffman-Codierungsschaltung 40 quantisierten Bilddaten werden durch den Puffer 41 einer Fehlerkorrekturcodierungsschaltung 42 zugeführt.
  • Die Bilddaten aus dem Puffer 41 werden durch diese Fehlerkorrekturcodierungsschaltung 42 mit dem Fehlerkorrekturcode addiert und dann einem Multiplexer 43 zugeführt, in welchem sie mit anderen Informationen gemultiplext und dann der Empfangsseite zugeführt werden.
  • Ein Demultiplexer 44 auf der Empfangsseite erhält Bilddaten aus den ihm vom Multiplexer 43 zugeführten Daten und führt diese Bilddaten (einschließlich des Bildidentifizierers im Fall des Stehbildmodus) einer Fehlerkorrekturcodierungsschaltung 45 zu.
  • Die auf diese Weise von der Fehlerkorrekturcodierungsschaltung 45 fehlerkorrigierten Bilddaten werden einer inversen Huffman-Codierungsschaltung 46 zugeführt und von dieser inversen Huffman-Codierungsschaltung 46 in die quantisierten Daten rückgewandelt. Diese quantisierten Daten aus der inversen Huffman-Codierungsschaltung 46 werden einer inversen Quantisierungsschaltung 47 zugeführt und dann von dieser inversen Quantisierungsschaltung 47 in die Frequenzachsenbilddaten umgewandelt.
  • Die obigen Bilddaten werden von der inversen Orthogonaltransformationsschaltung 48 von den Frequenzachsendaten invers in die Zeitachsendaten umgewandelt und dann einem Decodierer 49 zugeführt.
  • Die von diesem Decodierer 49 decodierten Bilddaten werden in einem Rahmenspeicher 50 gespeichert und dann so selektiert, daß sie im Stehbildmodus in jedem von Speichern 53a, 53b, 53c und 53d gespeichert werden, der einen Speicher 53 auf der Basis der zu den jeweiligen Stehbilddaten addierten Identifizierungsdaten bildet. Dagegen werden beim Bewegungsbildmodus die obigen Bilddaten durch den Selektor 51 einem D/A-Wandler 54 zugeführt, in welchem sie in ein analoges Videosignal umgewandelt werden. Dieses analoge Videosignal wird durch einen Ausgangsanschluß 55 abgegeben.
  • Im Stehbildmodus spricht der Selektor 51 auf ein Steuerungssignal aus einer Detektorschaltung 52 an, damit die Bilddaten aus dem Rahmenspeicher 50 ausgelesen werden können, um in Abhängigkeit von den zu den Bilddaten addierten Identifizierungsdaten in einen der Speicher 53a, 53b, 53c und 53d geschrieben zu werden.
  • Die Detektorschaltung 52 detektiert die richtigen Bilddaten aus den obigen Bilddaten a, b, c und d auf der Basis der von der inversen Huffman-Codierungsschaltung 56 zu den Bilddaten addierten Bildidentifizierern und führt das Steuerungssignal dem Selektor 51 in Abhängigkeit von dem detektierten Ergebnis zu.
  • Im Fall des Stehbildmodus werden die aus dem Speicher 53 gelesenen Bilddaten a, b, c und d dem D/A-Wandler 54 als ein einzelnes Stehbild zugeführt, in welchem es in ein analoges Videosignal umgewandelt wird. Dieses analoge Videosignal wird durch einen Ausgangsanschluß 55 an eine externe Einrichtung (beispielsweise ein Fernsehempfänger usw.) ausgegeben.
  • Wenn deshalb dieses analoge Stehbild auf dem Bildschirm eines Fernsehempfänger oder dgl. angezeigt wird, kann auf dem Bildschirm ein Stehbild angezeigt werden, das viermal so viele Pixel als das CIF-Bild, d. h. eine doppelt so hohe Auflösung wie das CIF-Bild, aufweist.
  • Ein Kommunikationsflußdiagramm im obigen Informationsübertragungsgerät wird unten unter Bezugnahme auf die Fig. 8 beschrieben. In diesem Fall besteht die Fig. 8 aus den Fig. 8A und 8B, die auf zwei Zeichnungsblättern gezeichnet sind, um die Verwendung eines geeignet großen Maßstabs zu ermöglichen.
  • In den Fig. 8A und 8B stellen feine durchgezogene Linien und Pfeile Verarbeitungsflüsse, gestrichelte Pfeile mit Nummern zu wiederholende Verarbeitungsflüsse und offene Pfeile Kommunikationsverarbeitungsflüsse zwischen jeweiligen Schaltungen dar.
  • Beim Schritt 100a des Bewegungsbildmodus werden Befehlsdaten und Bilddaten aus dem A/D-Wandler 26 der Fehlerkorrekturschaltung 42 zugeführt.
  • Zu diesem Zeitpunkt wird ein Bit 3 im Befehlssignal auf "0" (Freigabe aus) und ein Bit 2 auf "0" (Dokumentkamera aus) gesetzt.
  • Beim Schritt 100b überträgt die Fehlerkorrekturcodierungsschaltung 42 das Bewegungsbild durch den Multiplexer 43 auf der Basis des obigen Befehlssignals und führt auch ein Vervollständigungssignal dem A/D-Wandler 26 zu.
  • Die oben erwähnte Operation, d. h., die Zufuhr der Befehlsdaten und der Bilddaten zur Fehlerkorrekturcodierungsschaltung 42 durch den A/D-Wandler 26 und die Zufuhr des Vervollständigungssignals zum A/D-Wandler 26 durch die Fehlerkorrekturcodierungsschaltung 42 werden wiederholt, wobei die Bewegungsbilddaten durch den Multiplexer 43 übertragen werden.
  • Beim nächsten Schritt 200a fordert die System-CPU ein einzeln aufgenommenes Bild am Multiplexer 43 an.
  • Beim Schritt 200b spricht der Multiplexer 43 auf die Anforderung aus der System-CPU an, um dem Decodierer 37 ein Steuerungssignal zuzuführen, welches den Decodierer 37 zum Ausführen der Einzelbildaufnahmeoperation freigibt.
  • Beim Schritt 200c wird das Vervollständigungssignal aus dem Decodierer 37 dem Multiplexer 43 zugeführt, und der Multiplexer 43 führt ein für die Vervollständigung der Operation repräsentatives Signal der System-CPU zu.
  • Beim Schritt 200d wird die System-CPU auf den Einzelbildaufnahmemodus eingestellt.
  • Beim Schritt 300a wird die System-CPU auf den Stehbildmodus eingestellt und ein Steuerungssignal, welches anzeigt, daß die System-CPU auf den Stehbildmodus eingestellt ist, dem A/D-Wandler 26 zugeführt.
  • Beim Schritt 300b führt der A/D-Wandler 26 der Fehlerkorrekturcodierungsschaltung 42 ein Einzelbildaufnahme- Befehlsdatum in Abhängigkeit von dem Steuerungssignal aus der System-CPU zu.
  • Dies bedeutet, daß ein Bit 3 dieses Befehlsdatums auf "0" (Freigabe ein), ein Bit 2 dieses Datums auf "0" (Dokumentkamera aus) eingestellt und außerdem der CODEC veranlaßt wird, einen bedeutungslosen Block zu erzeugen.
  • Beim Schritt 300c führt die Fehlerkorrekturcodierungsschaltung 42 die Einzelbildaufnahmeoperation aus und das Vervollständigungssignal dem A/D-Wandler 26 zu.
  • Demgemäß wird das Bild während der Aufrechterhaltung des verbundenen Zustandes nicht erneuert.
  • Beim Schritt 400a führt beim Einzelbildaufnahmemodus der A/D-Wandler 26 das Befehlsdatum der Fehlerkorrekturcodierungsschaltung 42 zu und ermöglicht es dem Speicher 27, die Stehbilddaten zu speichern.
  • Beim Schritt 400b führt die Fehlerkorrekturcodierungsschaltung 42 das Vervollständigungssignal dem A/D-Wandler 26 zu.
  • Die Operationen dieser Schritte 400a und 400b werden viermal wiederholt, wobei die Stehbilddaten in dieser Reihenfolge in den Speicher 27a, 27b, 27c und 27d gespeichert werden.
  • Beim Schritt 500a im Stehbildmodus 500 führt der A/D- Wandler 26 der Fehlerkorrekturcodierungsschaltung 42 Befehlsdaten zu, die zur Vorbereitung der Übertragung eines Stehbilds dienen.
  • Insbesondere wird beim obigen Schritt 500a ein Dokumentkamerasignal (siehe Fig. 9B), d. h. das Bit 2 der Befehlsdaten ist auf "1" (Dokumentkamera an) gesetzt, synchron mit einem in Fig. 9A dargestellten Vertikalsynchronisierungssignal (Vertikalsync-Signal) gesetzt, und das Bit 3 wird auf "0" (Freigabe aus) gesetzt.
  • Beim Schritt 500b führt die Fehlerkorrekturcodierungsschaltung 42 dem A/D-Wandler 26 ein Vervollständigungssignal zu, welches für die Tatsache repräsentativ ist, daß die Vorbereitung der Stehbildübertragung beendet ist.
  • Insbesondere führt beim Schritt 500b der A/D-Wandler 26 dann, wenn die Fehlerkorrekturcodierungsschaltung 42 das Vervollständigungssignal dem A/D-Wandler 26 zuführt, der Fehlerkorrekturcodierungsschaltung 42 ein in Fig. 9C dargestelltes Triggersignal synchron mit dem in Fig. 9 dargestellten Vertikalsync-Signal zu.
  • Jetzt wird die Übertragung der Stehbilddaten gestartet. Gemäß dieser Ausführungsform wird der erste Stehbildrahmen progressiv unter Verwendung mehrerer Bewegungsbildrahmen von einer Grobquantisierungsschrittgröße in eine Feinquantisierungsschrittgröße übertragen.
  • Dies bedeutet, daß alle einzelnen Bewegungsbildrahmen nur des ersten Stehbildrahmens im Intramodus übertragen werden. Wenn der Quantisierungsschritt auf den minimalen Pegel abgesenkt ist, wird der nächste Stehbildrahmen übertragen.
  • Ähnlich wird danach der Stehbildrahmen unter Verwendung mehrerer Bewegungsbildrahmen als ein Intrarahmen von der Grobschrittgröße zur Feinschrittgröße übertragen.
  • Mehrere Stehbilddaten werden durch Wiederholung der oben angegebenen Verfahren übertragen.
  • Beim zweiten Rahmen grenzen der unmittelbar vorhergehende Rahmen und die Pixel aneinander, und eine Korrelation zwischen den Pixeln ist derart stark, daß die Stehbilddaten durch Verarbeitung nur der Differenzinformation entsprechend der Orthogonaltransformation und der Quantisierung im Intermodus übertragen werden können.
  • Wenn insbesondere das in Fig. 9C dargestellte Triggersignal der Fehlerkorrekturcodierungsschaltung 42 zugeführt wird, werden die Stehbilddaten des ersten Rahmens aus dem Speicher 27a gelesen und dann von dem in Fig. 9D dargestellten Multiplexer 43 im Intramodus übertragen.
  • Beim Schritt 600a des Modus 600, bei welchem die Stehbilddaten im Intermodus übertragen werden, werden Bilddaten vom A/D-Wandler 26 sequentiell aus den Speichern 27a, 27b, 27c und 27d gelesen und der Fehlerkorrekturcodierungsschaltung 42 zugeführt.
  • Beim Schritt 600b führt die Fehlerkorrekturcodierungsschaltung 42, der vom A/D-Wandler 26 die Bilddaten zugeführt werden, wie in Fig. 9C dargestellt, das Triggersignal dem A/D-Wandler 26 zu.
  • Dann werden von den Speichern 27a, 27b, 27c und 27d ausgelesene Stehbilddaten mittels des Multiplexers 43 übertragen.
  • Nach Fig. 9 werden jedes mal, wenn das Triggersignal (Fig. 9C) aus der Fehlerkorrekturcodierungsschaltung 42 wie in Fig. 9D dargestellt auf "1" geht, die Stehbilddaten des ersten bis vierten Rahmens (Stehbild nur des ersten Rahmens wird zuerst im Intramodus übertragen) sequentiell im Intermodus übertragen.
  • Den obigen Stehbilddaten werden die Identifizierungsdaten hinzugefügt, welche für die Speicher 27a bis 27d repräsentativ sind, von denen sie ausgelesen werden, und dann werden die Stehbilddaten zur Empfangsseite, d. h. zum Demultiplexer 44 übertragen.
  • Wie früher in Bezug auf die Fig. 7A und 7B angegeben, werden dann, wenn vom Selektor 51 die Identifizierungsdaten dieser Stehbilddaten festgestellt werden, die Stehbilddaten vom Selektor 51 in einen korrespondierenden der Speicher 53a, 53b, 53c und 53d geschrieben. Außerdem werden nach dem Schreiben von Stehbilddaten von vier Rahmengrößen diese in ein einzelnes Stehbilddatum umgewandelt, das von einem D/A- Wandler 54 in ein analoges Stehbildsignal umgewandelt und dann durch einen Ausgangsanschluß 55 abgegeben wird.
  • Dann wird dieses analoge Stehbildsignal auf beispielsweise einem Bildschirm eines Monitorempfängers (nicht gezeigt) oder dgl. angezeigt, der beispielsweise mit dem Ausgangsanschluß 55 verbunden ist.
  • Da das auf dem Bildschirm des Monitorempfängers (nicht gezeigt) angezeigte analoge Stehbildsignal durch die Stehbilddaten von vier Rahmen als ein einzelnes Stehbildsignal ausgebildet ist, weist es viermal soviele Pixel wie das auf der Video-CODEC-Empfehlung H.261 basierende CIF-Bild, d. h. eine doppelt so hohe Auflösung wie das CIF-Bild auf.
  • Da das Stehbildsignal wie oben beschrieben mit viermal so vielen Pixeln wie das auf der Video-CODEC-Empfehlung H.261 basierende CIF-Bild gewonnen wird, ist es möglich, ein Stehbild mit einer Anzahl von Pixeln zu erhalten, die gleich einem Ganzfachen der Anzahl von Pixeln ist, die bei einem CIF- Bild erhalten werden kann.
  • Beim Schritt 700a des Einzelbildaufnahmemodus 700 führt die Fehlerkorrekturcodierungsschaltung 42 dem A/D-Wandler 26 ein Vervollständigungssignal zu, welches die Tatsache repräsentiert, daß die Übertragung der Stehbilddaten vollendet ist.
  • Beim Schritt 700b führt der A/D-Wandler 26 das Vervollständigungssignal der System-CPU und auch die Befehlsdaten der Fehlerkorrekturcodierungsschaltung 42 zu.
  • Insbesondere wird der CODEC veranlasst, stationäre Blockdaten auszugeben, und er unterbricht die Übertragung der Stehbilddaten bei Aufrechterhaltung des Verbindungszustandes.
  • Beim Schritt 700c wird der System-CPU das Vervollständigungssignal aus dem A/D-Wandler 26 zugeführt und dadurch der Stehbildmodus freigegeben.
  • Beim Schritt 800a im Bewegungsbildmodus 800 wird die System-CPU auf den Bewegungsbildmodus eingestellt und die System-CPU führt dem A/D-Wandler ein Steuerungssignal zu, das darstellt, daß die System-CPU auf den Bewegungsbildmodus eingestellt ist.
  • Beim Schritt 800b führt der A/D-Wandler 26 der Fehlerkorrekturcodierungsschaltung 42 Befehlsdaten in Abhängigkeit von dem Steuerungssignal aus der System-CPU zu.
  • Dies bedeutet, daß das Bit 3 der Befehlsdaten auf "1" gesetzt wird (Freigabe ein).
  • Beim Schritt 800c wird die Fehlerkorrekturcodierungsschaltung 42 durch die Befehlsdaten aus dem A/D-Wandler 26 auf den Bewegungsbildmodus eingestellt. Auch führt die Fehlerkorrekturcodierungsschaltung 42 das Vervollständigungssignal dem A/D-Wandler 26 zu.
  • Beim Schritt 800d werden die Befehlsdaten und Bilddaten aus dem A/D-Wandler 26 der Fehlerkorrekturcodierungsschaltung 42 zugeführt.
  • Dies bedeutet, wie in Fig. 9B dargestellt, daß das Bit 2 der Befehlsdaten auf "0" (Dokumentkamera aus) und das Bit 3 auf "0" (Freigabe aus) eingestellt ist.
  • Beim Schritt 800e führt die Fehlerkorrekturcodierungsschaltung 42 das Vervollständigungssignal dem A/D-Wandler 26 zu, und die Übertragung von Bilddaten kann mittels des Multiplexers 43 bewirkt werden.
  • Dann führt beim Schritt 900a in einem Bewegungsbildmodus 900 die System-CPU dem A/D-Wandler 26 ein Steuerungssignal zu, welches den Decodierer 37 auffordert, die Einfrieroperation freizugeben.
  • Beim Schritt 900b führt der A/D-Wandler 26 die Befehlsdaten der Fehlerkorrekturcodierungsschaltung 42 zu.
  • Dies bedeutet, daß das Bit 2 der Befehlsdaten auf "0" (Dokumentkamera aus) und das Bit 3 auf "1" (Freigabe an) eingestellt ist.
  • Beim Schritt 900c stoppt die Fehlerkorrekturcodierungsschaltung 42 die Einfrieroperation des Decodierers 37 entsprechend dem Steuerungssignal aus dem A/D-Wandler 26 und führt das Vervollständigungssignal dem A/D-Wandler 26 zu.
  • Beim Schritt 900d werden die Bilddaten (Bewegungsbilddaten) aus dem A/D-Wandler 26 und die Befehlsdaten der Fehlerkorrekturcodierungsschaltung 42 zugeführt.
  • Dies bedeutet, daß das Bit 2 der Befehlsdaten auf "0" (Dokumentkamera aus) und das Bit 3 auf "0" (Freigabe aus) eingestellt ist.
  • Beim Schritt 900e führt die Fehlerkorrekturcodierungsschaltung 42 das Vervollständigungssignal dem A/D-Wandler 26 zu und überträgt die Bilddaten (Bewegungsbilddaten) durch den Multiplexer 93.
  • Es wird nachfolgend die Art und Weise beschrieben, wie der Intermodus und Intramodus festgestellt werden.
  • Gemäß dieser Ausführungsform wird nach Ausführung der Orthogonaltransformationsverarbeitung bestimmt, ob Bilddaten im Intermodus oder im Intramodus übertragen werden.
  • Nach dem oben angegebenen Verfahren kann die Rahmenreduktion und die Steuerung der Quantisierungsschaltung 34 durch ein einziges System bewirkt werden, so daß Schaltungen oder dgl. leicht montiert und die Steuerungsoperation zuverlässig ausgeführt werden können.
  • Ein Algorithmus zur Bestimmung des Intermodus und des Intramodus wird beschrieben. In diesem Fall wird die Berechnung bei der Makroblöckeeinheit an Koeffizienten von vier Luminanzblöcken ausgeführt, die von der Orthogonaltransformationsschaltung 28 transformiert wurden.
  • Da die quadrierten Werte von Wechselwert- bzw. AC-Komponenten des Intermodus und Intramodus oder akkumulativ addierte Werte von Absolutwerten im wesentlichen mit den codierten Beträgen des variablen Längencodierungsprozesses korrespondieren, wird die Berechnung grundsätzlich durch ihren Vergleich ausgeführt.
  • Wenn die Luminanzänderung (Gleichwert- bzw. DC-Komponente der Interblocks) des ganzen Blocks kleiner als ein gewisser Wert ist, gibt es eine große Wahrscheinlichkeit, daß dieser Makroblock als ein bedeutungsloser Block festgestellt wird. Deshalb wird der obige Makroblock ungeachtet des festgestellten Ergebnisses zwangsläufig als der Interblock verwendet.
  • Dies sei wie folgt zusammengefaßt:
  • Die Luminanzänderung des ganzen Makroblocks kann durch die folgende Gleichung
  • ausgedrückt werden.
  • Außerdem werden akkumulativ addierte Werte der Absolutwerte der Wechselkomponenten im Interblock und Intrablock jeweils durch die folgenden Gleichungen
  • ausgedrückt, wobei n gleich 63 ist.
  • Gemäß den obigen Gleichungen (1), (2) und (3) wird der Entscheidungsalgorithmus so wie er in der ein Flußdiagramm bildenden Fig. 10 dargestellt ist.
  • Dieser Entscheidungsalgorithmus wird unter Bezugnahme auf das Flußdiagramm nach Fig. 10 beschrieben.
  • Nach Fig. 10 wird nach der Startoperation bei einem Entscheidungsschritt 100 festgestellt, ob der Inter-DC kleiner oder gleich 256 (Inter-DC ≤ 256) ist oder nicht. Wenn beim Entscheidungsschritt 100 ein JA ausgegeben wird, geht die Verarbeitung zum Schritt 110. Wenn andererseits beim Entscheidungsschritt 100 die Antwort ein NEIN ist, geht die Verarbeitung zum Entscheidungsschritt 120.
  • Dies bedeutet, daß beim Schritt 100 die DC-Komponente des Intermodus bei der Makroblöckeeinheit berechnet wird und der berechnete Wert kleiner oder gleich der Konstanten 256 ist.
  • Beim Schritt 110 wird der Intermodus dargestellt, d. h. zu übertragende Bilddaten werden in den Intermodus gesetzt.
  • Dies bedeutet, daß die in bezug auf die Fig. 7 beschriebene Entscheidungsschaltung 30 den beweglichen Kontakt 29c des Schalters 29 mit dem festen Intermodus-Kontakt 29b verbindet.
  • Deshalb werden die Intermodusbilddaten aus der Orthogonaltransformationsschaltung 33 durch den Schalter 29 der Entscheidungsschaltung 30, die Quantisierungsschaltung 34, die Huffman-Codierungsschaltung 40, den Übertragungspuffer 41 und die Fehlerkorrekturcodierungsschaltung 42 dem Multiplexer 43 zugeführt und dann vom Multiplexer 43 übertragen.
  • Beim Entscheidungsschritt 120 wird festgestellt, ob Inter- ACsum kleiner als Intra-ACsum ist oder nicht. Wenn beim Entscheidungsschritt 120 ein JA ausgegeben wird, geht die Verarbeitung zum Schritt 130. Wenn dagegen beim Entscheidungsschritt 120 ein NEIN ausgegeben wird, geht die Verarbeitung zum Schritt 140.
  • Insbesondere wird beim Entscheidungsschritt 120 die AC- Komponente der Intermodusbilddaten bei der Makroblöckeeinheit berechnet, um dadurch deren Absolutwert, d. h. das Gewicht der Energie bzw. Leistung zu berechnen. Ähnlich wird die AC- Komponente der Intramodusbilddaten bei der Makroblöckeeinheit berechnet, um dadurch deren Absolutwert, d. h. das Gewicht der Energie bzw. Leistung zu berechnen.
  • Dann wird festgestellt, ob das Gewicht der Energie bzw. Leistung im Intermodus kleiner als das der Energie bzw. Leistung im Intramodus ist.
  • Beim Schritt 130 wird der Intermodus dargestellt, d. h. zu übertragende Bilddaten werden in den Intermodus gesetzt.
  • Dies bedeutet, daß die in bezug auf die Fig. 7A und 7B beschriebene Entscheidungsschaltung 30 den beweglichen Kontakt 29c des Schalters 29 mit dem festen Intermodus- Kontakt 29b verbindet.
  • Deshalb werden die Bilddaten des Intermodus aus der Orthogonaltransformationsschaltung 33 durch den Schalter 29 der Entscheidungsschaltung 30, die Quantisierungsschaltung 34, die Huffman-Codierungsschaltung 40, den Übertragungspuffer 41 und die Fehlerkorrekturcodierungsschaltung 42 dem Multiplexer 43 zugeführt und dann vom Multiplexer 43 übertragen.
  • Beim Schritt 140 wird der Intramodus dargestellt, d. h. zu übertragende Bilddaten werden in den Intramodus gesetzt
  • Dies bedeutet, daß die in bezug auf die Fig. 7A und 7B beschriebene Entscheidungsschaltung 30 den beweglichen Kontakt 29c des Schalters 29 mit dem festen Intramodus- Kontakt 29a verbindet.
  • Deshalb werden die Bilddaten des Intramodus aus der Orthogonaltransformationsschaltung 28 durch den Schalter 29 der Entscheidungsschaltung 30, die Quantisierungsschaltung 34, die Huffman-Codierungsschaltung 40, den Übertragungspuffer 41 und die Fehlerkorrekturcodierungsschaltung 42 dem Multiplexer 43 zugeführt und dann vom Multiplexer 43 übertragen.
  • Wie oben beschrieben kann gemäß dieser Ausführungsform, da Bewegungsbilddaten jeweils in den Rahmenspeichern 27a, 27b, 27c und 27d von vier Rahmen gespeichert und bei einer Übertragung des Stehbildes sequentiell übertragen werden, ein Bild mit einer Auflösung, die ebenso groß wie ein ganzzahliges Vielfaches der des auf CIF basierenden Bildes sogar in dem auf der Video-CODEC-Empfehlung H.261 basierenden Format übertragen werden. Da außerdem die Bilddaten des Intermodus und Intramodus jeweils durch die Orthogonaltransformationsverfahren verarbeitet werden und dann festgestellt wird, ob das Intermodusbild oder das Intramodusbild übertragen wird, können die auf der Rückkopplung vom Übertragungspuffer 41 basierenden Steuerungspunkte auf einen Punkt konzentriert werden, und deshalb kann die Steuerungsoperation zentralisiert werden, was die Steuer- und Regelbarkeit eines Systems verbessern kann. Auch kann das Verarbeitungssystem vereinfacht und die Hardware kostenmäßig reduziert werden.
  • Da gemäß der vorliegenden Erfindung Rahmen N-fach (N ist eine ganze Zahl) als Übertragungsrahmen vorbereitet werden, wird ein erstes Pixel in einem ersten Rahmenspeicher gespeichert, ein zweites Pixel in einem zweiten Rahmenspeicher gespeichert, ..., ein (N-1)-tes Pixel in einem -(N-1)-ten Rahmenspeicher gespeichert und ein N-tes Pixel in einem N-ten Rahmenspeicher gespeichert, wodurch ein Stehbild mit Pixeln, deren Zahl ein Ganzfaches der Zahl Pixel in einem bestimmten Bewegungsbildübertragungssystem ist, gewonnen wird, wobei dann der Vorteil besteht, daß ein Stehbild mit einer Auflösung übertragen werden kann, die größer als die des Bildes gemäß dem bestimmten Bewegungsbildübertragungssystem ist.
  • Da gemäß der vorliegenden Erfindung auch Rahmen N-fach (N ist eine ganze Zahl) als Übertragungsrahmen vorbereitet werden, wird ein erstes Pixel in einem ersten Rahmenspeicher gespeichert, ein zweites Pixel in einem zweiten Rahmenspeicher gespeichert, ..., ein (N-1)-tes Pixel in einem (N-1)- ten Rahmenspeicher gespeichert und ein N-tes Pixel in einem N-ten Rahmenspeicher gespeichert, wodurch ein Stehbild mit Pixeln, deren Zahl ein Ganzfaches der Zahl Pixel in einem bestimmten Bewegungsbildübertragungssystem ist, gewonnen wird, wobei dann der Vorteil besteht, daß ein Stehbild mit einer Auflösung übertragen werden kann, die größer als die des Bildes gemäß dem bestimmten Bewegungsbildübertragungssystem ist.

Claims (9)

1. Gerät zur Übertragung eines digitalen Bildsignals eines Bewegungsbildes oder eines Stehbildes in Form derart komprimierter digitaler Daten, daß das digitale Bildsignal durch einen Übertragungskanal vorbestimmter Übertragungskapazität übertragen werden kann, mit
einem Analog-Digital-Wandler (26) zur Erzeugung des digitalen Bildsignals,
einer Kompressionseinrichtung (28, 33) zum Komprimieren des digitalen Bildsignals derart, daß das digitale Bildsignal vom Übertragungskanal übertragen werden kann,
einer Auswahleinrichtung (30, 34, 40) zum Auswählen eines Übertragungsmodus für einen Bewegungsbildmodus oder einen Stehbildmodus, und
einer Bewegungsbildsignal-Erzeugungseinrichtung (31, 32, 35-39) zur Bereitstellung zur Übertragung des komprimierten digitalen Bildsignals eines Bewegungsbildes, wenn der Bewegungsbildmodus ausgewählt ist, dadurch gekennzeichnet, daß
der Analog-Digital-Wandler (26) im Stehbildmodus Bildsignale mehrerer Vollbilder durch eine Abtastung bei mehreren verschiedenen Taktphasen erzeugt, und daß
eine Speichereinrichtung (27), die mehrere Vollbildspeicher (27a-27d) aufweist, deren jeder einen Teil des bei einer der verschiedenen Taktphasen abgetasteten digitalen Bildsignals speichert, zum Speichern des digitalen Bildsignals eines Stehbildes, wenn der Stehbildmodus gewählt ist,
eine Speicherausgangseinrichtung, die ein Ausgangssignal jedes Vollbildspeichers (27a-27d) an die Kompressionseinrichtung (28) gibt, und
eine Stehbildsignal-Erzeugungseinrichtung zur Erzeugung des komprimierten digitalen Bildsignals eines Stehbildes für eine Übertragung, wenn der Stehbildmodus gewählt ist, vorhanden sind.
2. Gerät nach Anspruch 1, wobei den in Abhängigkeit von den verschiedenen Taktphasen erzeugten Bildsignalen jeweiliger Vollbilder Identifizierer (ID) hinzugefügt sind.
3. Gerät nach Anspruch 1 oder 2, wobei die Bewegungsbildsignal-Erzeugungseinrichtung lokale Decodierer (35, 36, 37, 38, 39), eine Bewegungsdetektor- und -korrekturschaltung (31) und eine Differentialeinrichtung (32) zur Gewinnung eines Differenzsignals aufweist.
4. Gerät nach einem der vorhergehenden Ansprüche, wobei die Kompressionseinrichtung eine Orthogonaltransformationsschaltung (28) zur orthogonalen Transformation eines Intramodussignals und eine Orthogonaltransformationsschaltung (33) zur orthogonalen Transformation eines Intermodussignals aufweist, und die Auswahleinrichtung eine Auswahl- und Gewinnungsvorrichtung (30) zum Auswählen einer der Orthogonaltransformationsschaltungen (28, 33) zu einer dem ausgewählten Übertragungsmodus entsprechenden Zeit aufweist.
5. Gerät zum Empfang eines digitalen Bildsignals von einem Bewegungsbild oder einem Stehbild in Form derart komprimierter digitaler Daten, daß das digitale Bildsignal durch einen Empfangskanal mit einer vorbestimmten Empfangskapazität empfangen werden kann, mit
einer Expansionseinrichtung (48) zum Expandieren des digitalen Bildsignals derart, daß es weiterverarbeitet werden kann,
einer Bestimmungseinrichtung (52) zum Bestimmen eines Übertragungsmodus des digitalen Bildsignals als Bewegungsbildmodus oder Stehbildmodus, und
einer Ausgabeeinrichtung (54, 55) zum Ausgeben des expandierten digitalen Bildsignals, gekennzeichnet durch eine Speichereinrichtung (53), die mehrere Vollbildspeicher (53a-53d) aufweist, deren jeder einen anderen Teil des digitalen Bildsignals speichert, zum Speichern des expandierten digitalen Bildsignals, wenn der Stehbildmodus bestimmt ist, und
eine Einrichtung zum Rekonstruieren des Stehbildes aus den verschiedenen Teilen des in den mehreren Bildspeichern (53a-53d) gespeicherten Signals auf der Basis, auf der die verschiedenen Teile bei verschiedenen Taktphasen abgetastet wurden.
6. Gerät nach Anspruch 5, mit einem Selektor (51) zum Bewirken einer Speicherung des digitalen Bildsignals in den Vollbildspeichern (53a-53b), wenn der Stehbildmodus bestimmt ist.
7. Verfahren zur Übertragung eines digitalen Bildsignals eines Bewegungsbildes oder eines Stehbildes in Form derart komprimierter digitaler Daten, daß das digitale Bildsignal durch einen Übertragungskanal mit einer vorbestimmten Übertragungskapazität übertragen werden kann, mit den Schritten:
Auswählen eines Übertragungsmodus als Bewegungsbildmodus oder Stehbildmodus, und
Komprimieren des digitalen Bildsignals des Bewegungsbildes derart, daß es von dem Übertragungskanal übertragen werden kann, wenn der Bewegungsbildmodus ausgewählt ist, gekennzeichnet durch die Schritte
Speichern mehrerer verschiedener Teile des bei verschiedenen Taktphasen abgetasteten digitalen Bildsignals, wenn der Bildmodus ausgewählt ist, und
Komprimieren des bei den mehreren verschiedenen Phasen derart gespeicherten digitalen Bildsignals, daß es auf dem Übertragungskanal übertragen werden kann, wenn der Stehbildmodus ausgewählt ist.
8. Verfahren zum Empfang eines digitalen Bildsignals eines Bewegungsbildes oder eines Stehbildes in Form derart kompri mierter digitaler Daten, daß das digitale Bildsignal durch einen Empfangskanal mit einer vorbestimmten Empfangskapazität empfangen werden kann, mit den Schritten:
Expandieren des empfangenen digitalen Bildsignals,
Bestimmen eines Übertragungsmodus als Bewegungsbildmodus oder Stehbildmodus, und
Ausgeben des expandierten digitalen Bildsignals, gekennzeichnet durch
Speichern mehrerer Teile des expandierten digitalen Bildsignals, deren jeder bei einer anderen Taktphase abgetastet wird, wenn der Stehbildmodus bestimmt ist, und Wiedergeben des Stehbildes von den mehreren Teilen vor dem Ausgabeschritt auf der Basis, daß die verschiedenen Teile bei verschiedenen Taktphasen abgetastet wurden.
9. Videokonferenzgerät, das derart ausgebildet ist, daß es nach einem Verfahren nach Anspruch 7 oder 8 arbeitet.
DE69227879T 1991-10-15 1992-10-14 Stehbildübertragungssystem Expired - Lifetime DE69227879T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26637091A JPH05111008A (ja) 1991-10-15 1991-10-15 情報伝送装置及び情報受信装置

Publications (2)

Publication Number Publication Date
DE69227879D1 DE69227879D1 (de) 1999-01-28
DE69227879T2 true DE69227879T2 (de) 1999-07-01

Family

ID=17430003

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69227879T Expired - Lifetime DE69227879T2 (de) 1991-10-15 1992-10-14 Stehbildübertragungssystem

Country Status (5)

Country Link
US (1) US5691767A (de)
EP (1) EP0538013B1 (de)
JP (1) JPH05111008A (de)
KR (1) KR100251247B1 (de)
DE (1) DE69227879T2 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5592302A (en) * 1992-03-23 1997-01-07 Canon Kabushiki Kaisha Coding method for coding pixel blocks and apparatus therefor
JPH09218833A (ja) * 1996-02-09 1997-08-19 Matsushita Electric Ind Co Ltd 画像通信装置
US6108027A (en) * 1996-12-17 2000-08-22 Netergy Networks, Inc. Progressive still frame mode
JP4215835B2 (ja) * 1996-12-24 2009-01-28 ソニー株式会社 画像記録再生装置及び画像記録再生方法
KR100233460B1 (ko) * 1997-01-11 1999-12-01 윤종용 정지화상 전송장치
US6038257A (en) * 1997-03-12 2000-03-14 Telefonaktiebolaget L M Ericsson Motion and still video picture transmission and display
JP4086344B2 (ja) * 1997-07-31 2008-05-14 キヤノン株式会社 画像送信装置及び制御方法
JP2002520918A (ja) * 1998-07-02 2002-07-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ テレビジョンカメラ
US7023913B1 (en) * 2000-06-14 2006-04-04 Monroe David A Digital security multimedia sensor
JP3840020B2 (ja) * 1999-12-14 2006-11-01 株式会社東芝 動画像符号化装置
JP2005184626A (ja) * 2003-12-22 2005-07-07 Canon Inc 画像処理装置
US8243155B2 (en) * 2007-06-28 2012-08-14 Motorola Mobility Llc Method and apparatus for robust image processing
US20100050221A1 (en) * 2008-06-20 2010-02-25 Mccutchen David J Image Delivery System with Image Quality Varying with Frame Rate
JP2014049991A (ja) * 2012-08-31 2014-03-17 Toshiba Corp 映像信号送信方法、映像信号受信装置及び映像信号受信方法
US9143423B2 (en) * 2013-07-09 2015-09-22 Analog Devices, Inc. JESD test sequencer generator
JP2015130632A (ja) * 2014-01-08 2015-07-16 株式会社リコー 画像処理装置、送受信システム、画像処理方法、およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4692801A (en) * 1985-05-20 1987-09-08 Nippon Hoso Kyokai Bandwidth compressed transmission system
US4682225A (en) * 1985-09-13 1987-07-21 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for telemetry adaptive bandwidth compression
JPH01500236A (ja) * 1986-03-19 1989-01-26 ブリティッシュ・ブロードキャスティング・コーポレーション 帯域巾圧縮ビデオ信号の受信再生装置
JP2540809B2 (ja) * 1986-07-30 1996-10-09 ソニー株式会社 高能率符号化装置
US4774562A (en) * 1987-06-02 1988-09-27 Eastman Kodak Company Image transmission system with preview mode
US4764805A (en) * 1987-06-02 1988-08-16 Eastman Kodak Company Image transmission system with line averaging preview mode using two-pass block-edge interpolation
JPS644185A (en) * 1987-06-26 1989-01-09 Sony Corp Transmitter for still picture
DE3853713T2 (de) * 1987-12-17 1996-01-18 Mitsubishi Electric Corp Verfahren zur Übertragung und Anzeige eines Standbildes in einem Standbild-Videotelefon.
CA1318381C (en) * 1988-04-15 1993-05-25 Jun'ichi Ohki Dual-mode teleconferencing system
KR930008445Y1 (ko) * 1989-07-31 1993-12-22 주식회사 금성사 비디오폰용 정지 및 동작 화면 선택 제어회로
IT1241184B (it) * 1990-03-02 1993-12-29 Cselt Centro Studi Lab Telecom Perfezionamenti ai sistemi ibridi di codifica di segnali video.
US5136371A (en) * 1990-03-15 1992-08-04 Thomson Consumer Electronics, Inc. Digital image coding using random scanning
US5150432A (en) * 1990-03-26 1992-09-22 Kabushiki Kaisha Toshiba Apparatus for encoding/decoding video signals to improve quality of a specific region
JPH0418887A (ja) * 1990-04-20 1992-01-23 Sony Corp 静止画伝送方式
US5093720A (en) * 1990-08-20 1992-03-03 General Instrument Corporation Motion compensation for interlaced digital television signals
DE69131257T2 (de) * 1990-10-31 1999-09-23 Victor Company Of Japan, Ltd. Verfahren zur Kompression von bewegten Bildsignalen nach dem Zeilensprungverfahren
US5192999A (en) * 1991-04-25 1993-03-09 Compuadd Corporation Multipurpose computerized television
US5212742A (en) * 1991-05-24 1993-05-18 Apple Computer, Inc. Method and apparatus for encoding/decoding image data

Also Published As

Publication number Publication date
EP0538013A2 (de) 1993-04-21
KR930009381A (ko) 1993-05-22
JPH05111008A (ja) 1993-04-30
KR100251247B1 (ko) 2000-04-15
DE69227879D1 (de) 1999-01-28
EP0538013B1 (de) 1998-12-16
US5691767A (en) 1997-11-25
EP0538013A3 (en) 1993-10-27

Similar Documents

Publication Publication Date Title
DE69120139T2 (de) Gerät und Verfahren zur adaptiven Kompression von aufeinanderfolgenden Blöcken eines digitalen Videosignals
DE4343211B4 (de) Adaptives Bildkompressionsverfahren und adaptive Bildkompressionsvorrichtung
DE69414899T2 (de) Bildsignalverarbeitung
DE69129595T2 (de) Systeme und Verfahren zur Kodierung alternierender Halbbilder in Zeilensprungbildsequenzen
DE69327375T2 (de) Verfahren und Vorrichtung zur Wiederherstellung von Bilddaten
DE69412834T2 (de) Vorrichtung zur bereitstellung von komprimierten bildsignalen ohne zeilensprung
DE3854302T2 (de) Erzeugung von symbolcoden, ausgehend von der zwischenbild-pulscodenmodulation von zeitmultiplexierten raumfrequenzanalysen von videosignalen.
DE69131438T2 (de) Adaptive Bewegungskompensation für das digitale Fernsehen
DE69031045T2 (de) Einrichtung zur adaptiven Zwischenbild-Prädiktionsdekodierung eines Videosignals
DE69428019T2 (de) Verfahren und vorrichtung zur kodierung/dekodierung von bewegungsvektoren, und verfahren und vorrichtung zur kodierung/dekodierung von bildsignalen
DE69323541T2 (de) Verfahren und System zum Kodieren und/oder Dekodieren der Farbartsignale eines Bildsignals
DE69530336T2 (de) Bewegungskompensation für digitale Videosignale mit Zeilensprung
DE69116869T2 (de) Digitale bildkodierung mit einer zufallsabtastung der bilder
DE69430877T2 (de) Bildkodierungsverfahren und -vorrichtung
DE69322079T2 (de) Videokoder mit zwei schichten
DE69224055T2 (de) Bildsignalkodier- und -dekodiergerät
DE69227879T2 (de) Stehbildübertragungssystem
DE69124536T2 (de) Bildkodiervorrichtung
DE69426584T2 (de) Einrichtung zur Umsetzung der Vollbildfrequenz
DE69223560T2 (de) Einrichtung zur Verminderung von Quantisierungsstörungen in einem Zwischenbild-Hybrid-Kodierungssystem mit Bewegungskompensation
DE69715660T2 (de) Videokodierung
DE19826313A1 (de) Vorrichtung und Verfahren zum Ändern der Vollbildfrequenz
DE69418372T2 (de) Übertragung und Dekodierung von Bildsignalen
DE69222082T2 (de) Kodierung von Videosignalen
DE69414295T2 (de) Verfahren und Vorrichtung zum Übertragen und Empfangen eines Videosignals

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R071 Expiry of right

Ref document number: 538013

Country of ref document: EP