DE112012000563B4 - Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals - Google Patents

Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals Download PDF

Info

Publication number
DE112012000563B4
DE112012000563B4 DE112012000563.5T DE112012000563T DE112012000563B4 DE 112012000563 B4 DE112012000563 B4 DE 112012000563B4 DE 112012000563 T DE112012000563 T DE 112012000563T DE 112012000563 B4 DE112012000563 B4 DE 112012000563B4
Authority
DE
Germany
Prior art keywords
edge
area
image
sliding window
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE112012000563.5T
Other languages
English (en)
Other versions
DE112012000563T5 (de
Inventor
Jeehyun Choe
Jongyeul Suh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE112012000563T5 publication Critical patent/DE112012000563T5/de
Application granted granted Critical
Publication of DE112012000563B4 publication Critical patent/DE112012000563B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

Empfangsvorrichtung für digitales Übertragungssignal, die ein stereoskopisches 3-dimensionales Bild bereitstellt, umfassend:einen Abstimmer (50), der zum Empfangen eines digitalen Übertragungssignals ausgebildet ist, das ein stereoskopisches 3-dimensionales Bildsignal mit einer Kantenbearbeitungsinformation enthält;einen Demultiplexer (52), der zum Demultiplexieren des empfangenen digitalen Übertragungssignals ausgebildet ist;einen Decoder (56), der zum Entnehmen ursprünglicher Bilder und der Kantenbearbeitungsinformation durch Decodieren des 3-dimensionalen Bildsignals aus dem demultiplexierten Übertragungssignal ausgebildet ist;eine Bildaufbereitungseinheit (62a/62b, 63a/63b), die zum Aufbereiten von Bildern durch Beschneiden eines ersten Bereichs, welcher einem Rand entspricht, an welchem Kantenüberschreitung auftritt, und Strecken eines zweiten Bereichs, welcher einem Teil eines verbleibenden Bereichs der ursprünglichen Bilder entspricht, unter Verwendung der Kantenbearbeitungsinformation ausgebildet ist; undeinen Formatierer (69), der zur Ausgabe eines kantenbearbeiteten, stereoskopischen, 3-dimensionalen Bildsignals durch Empfangen der aufbereiteten Bilder ausgebildet ist.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren zum Senden und Empfangen eines digitalen Übertragungssignals, das ein dreidimensionales Bild enthält, und eine Vorrichtung hierfür, insbesondere ein Verfahren zum Senden und Empfangen eines digitalen Übertragungssignals, das ausgebildet ist zum Senden und Empfangen von Signaldaten zur Vermeidung eines Kantenüberschreitungsphänomens, das an einem linken/rechten Rand des Bildschirms auftritt, und eine Vorrichtung hierfür, beim Anzeigen eines digitalen Übertragungssignals, das ein dreidimensionales Bild enthält.
  • HINTERGRUND
  • Mit der rasanten Verbreitung des dreidimensionalen Fernsehens (3DTV) wird sowohl ein Senden von 3D-Bildinhalten durch digitale Übertragung als auch die Verbreitung von 3D-Bildinhalten durch Speichermedien belebt.
  • Im Allgemeinen bietet ein dreidimensionales Bild eine 3D-Wirkung durch Anwendung eines Prinzips des räumlichen Sehvermögens zweier Augen. Da ein Mensch Perspektive aufgrund der Parallaxe der beiden Augen wahrnimmt, mit anderen Worten, durch die binokulare Parallaxe aufgrund des Abstands zwischen den zwei voneinander beabstandeten Augen von etwa 65 mm, kann das 3D-Bild die 3D-Wirkung und die Perspektive dadurch erreichen, dass ein Bild bereitgestellt wird, das ein linkes Auge und ein rechtes Auge jeweils ein in Beziehung stehendes flaches Bild sehen lässt.
  • Das Verfahren zur Darstellung eines 3D-Bilds umfasst eine stereoskopische Technik, eine volumetrische Technik, eine holografische Technik, und dergleichen. Im Fall der stereoskopischen Technik wird ein Bild einer linken Ansicht, das durch ein linkes Auge zu betrachten ist, und ein Bild einer rechten Ansicht, das durch ein rechtes Auge zu betrachten ist, bereitgestellt. Die stereoskopische Technik ermöglicht die Wahrnehmung einer 3D-Bild-Wirkung, indem das linke Auge und das rechte Auge dazu gebracht werden, das Bild der linken Ansicht bzw. das Bild der rechten Ansicht zu betrachten mittels polarisierter Augengläser bzw. einer polarisierten Brille oder durch eine Anzeigevorrichtung selbst.
  • Im Fall eines stereoskopischen 3D-Bildinhalts, wenn zwei ähnliche Bilder mit voneinander verschiedenen Ansichtspunkten gesendet werden, setzt die stereoskopische Technik eine Technik ein, bei der ein Empfänger ein 3D-Bild unter Verwendung der beiden Bilder anzeigt. Wenn das 3D-Bild durch den Empfänger angezeigt wird, wird ein 3D-Bild in der Weise bereitgestellt, dass die binokulare Disparität auftritt aufgrund einer Disparität von linkem Bild und rechtem Bild.
  • Wenn ein 3D-Bild bereitgestellt wird, kann eine Situation eintreten, bei der ein Objekt mit negativer Disparität, die zum Herausragen aus einer Front des Bildschirms (zu einem Betrachter hin) aufgrund der binokularen Disparität ausgebildet ist, sich gemäß dem jeweiligen Inhalt, einer Szene im jeweiligen Inhalt oder einem Einzelbild bzw. Rahmen bis zu einer linken/rechten Randfläche des Bildschirms erstreckt. In diesem Fall kann eine Benutzer eine gestörte Tiefenwahrnehmung empfinden, da ein Unterschied bestehen kann zwischen einer Tiefenwahrnehmung, die durch die binokulare Disparität erkannt wird, und der Tiefenwahrnehmung, die durch eine Einfassung des Bildschirmrands erkannt wird.
  • Dies wird als Kantenüberschreitung bezeichnet. Aufgrund eines Kantenüberschreitungsphänomens kann ein Betrachter eine visuelle Ermüdung empfinden, und es kann dann schwierig sein, den Inhalt normal zu betrachten. Ferner haben gegenwärtige 3D-Bildempfänger kein eigenständiges Verfahren, das in der Lage ist, die Kantenüberschreitung zu verarbeiten.
  • Als Stand der Technik ist aus dem Dokument WO 2010 / 064 774 A1 ein Bildsignalverarbeitungsverfahren bekannt, bei welchem eine Kollision zwischen Tiefenhinweisen verringert werden soll, die in der Nähe von Kanten auf beiden Seiten bei einem 3D-Bildwiedergabeprozess auftreten können. Hierbei wird zuerst ein codiertes Videosignal erhalten. Als nächstes wird das codierte Videosignal decodiert, um mehrere Bildsignale wiederherzustellen, und Informationen über schwebende Fenster werden aus einem Bildkopfbereich des codierten Videosignals extrahiert. Dann wird für mehrere Bilder, die jeweils den mehreren Bildsignalen entsprechen, die Bildunterdrückung in einem inneren Bereich der linken oder rechten Seitenkante gemäß der schwebenden Fensterinformation durchgeführt, und lokal unterdrückte Bilder werden auf stereoskopische Weise angezeigt.
  • OFFENBARUNG DER ERFINDUNG
  • Technische Aufgabe
  • Die vorliegende Erfindung ist darauf gerichtet, die vorgenannten Aufgaben zu lösen. Die technische Aufgabe, die die vorliegende Erfindung sich stellt, ist ein 3D-Bild darzustellen, in dem ein digitales Übertragungssignal empfangen wird, das eine Signalinformation enthält zum Anzeigen des 3D-Bilds ohne die Wahrnehmung des vorgenannten Nachteils gemäß einem Verfahren zum Empfangen des digitalen Übertragungssignals und gemäß einer Vorrichtung hierfür.
  • Technische Lösung
  • Um die vorgenannte technische Aufgabe zu lösen, ist eine Vorrichtung gemäß Anspruch 1 vorgesehen.
  • Beispielsweise umfasst eine Vorrichtung zum Empfangen eines digitalen Übertragungssignals gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung einen Abstimmer zum Empfangen eines digitalen Übertragungssignals, das ein Signal für ein stereoskopisches dreidimensionales Bild mit einer Kantenbearbeitungsinformation umfasst, einen Demultiplexer zum Demultiplexieren des empfangenen digitalen Übertragungssignals, einen Decoder zum Entnehmen ursprünglicher Bilder und der Kantenbearbeitungsinformation durch Decodieren des Signals für das dreidimensionale Bild aus dem demultiplexierten Übertragungssignal, eine Bildaufbereitungseinheit zum Aufbereiten von Bildern durch Beschneiden und Strecken eines Teils eines Bereichs der ursprünglichen Bilder unter Verwendung der Kantenbearbeitungsinformation, eine Grafikfunktionseinheit zum Erzeugen eines gleitenden Fensters unter Verwendung der Kantenbearbeitungsinformation, eine Bildschirmanzeige (On-Screen Display, OSD) zum Überlagern der ursprünglichen Bilder mit dem erzeugten gleitenden Fenster, und einen Formatierer zum Ausgeben eines für ein kantenbearbeitetes, stereoskopisches, dreidimensionales Bild durch Empfangen der aufbereiteten Bilder oder der mit dem gleitenden Fenster überlagerten Bilder als eine Eingabe.
  • Ferner umfasst die Vorrichtung zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung eine Bildauswahlvorrichtung zur wahlweisen Ausgabe entweder des aufbereiteten Bilds oder des mit dem gleitenden Fenster überlagerten Bilds.
  • Ferner umfasst die Kantenbearbeitungsinformation der Vorrichtung zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wenigstens eine Information hinsichtlich der vertikalen Kantenbehandlung und/oder des gleitenden Fensters.
  • Ferner umfasst die Information hinsichtlich der vertikalen Kantenbehandlung der Vorrichtung zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wenigstens eine Information hinsichtlich eines Gebiets eines zu beschneidenden Bereichs, eines Anfangspunkts eines zu streckenden Bereichs, eines Gebiets eines zu streckenden Bereichs und/oder eines Streckungsverfahrens.
  • Ferner umfasst die Information hinsichtlich des gleitenden Fensters der Vorrichtung zum Empfangen des digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wenigstens ein Gebiet des gleitenden Fensters, Farbe und/oder Transparenz.
  • Ferner sind die Bildaufbereitungseinheit, die Grafikfunktionseinheit und die Bildschirmanzeige dazu ausgebildet, nicht zu arbeiten bzw. nicht wirksam zu sein, falls die Kantenbearbeitungsinformation angibt, dass die ursprünglichen Bilder bereits vorverarbeitet sind.
  • Um die vorstehende technische Aufgabe zu lösen, ist ferner ein Verfahren gemäß Anspruch 7 vorgesehen.
  • Beispielsweise umfasst ein Verfahren zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung die Schritte des Empfangens eines digitalen Übertragungssignals, das ein Signal für ein stereoskopisches dreidimensionales Bild mit einer Kantenbearbeitungsinformation umfasst, des Demultiplexierens des empfangenen digitalen Übertragungssignals, des Entnehmens ursprünglicher Bilder und der Kantenbearbeitungsinformation durch Decodieren des Signals für das dreidimensionale Bild aus dem demultiplexierten Übertragungssignal, des Aufbereitens von Bildern durch Beschneiden und Strecken eines Teils eines Bereichs der ursprünglichen Bilder unter Verwendung der Kantenbearbeitungsinformation oder Erzeugen eines gleitenden Fensters und Überlagern der ursprünglichen Bilder mit dem gleitenden Fenster, und des Ausgebens eines Signals für ein kantenbearbeitetes, stereoskopisches, dreidimensionales Bild durch Empfangen der aufbereiteten Bilder oder der mit dem gleitenden Fenster überlagerten Bilder als eine Eingabe.
  • Ferner umfasst das Verfahren zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung den Schritt des Auswählens entweder des aufbereiteten Bilds oder des mit dem gleitenden Fenster überlagerten Bilds vor dem Schritt des Ausgebens des Signals für ein dreidimensionales Bild.
  • Ferner umfasst die Kantenbearbeitungsinformation des Verfahrens zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wenigstens eine Information hinsichtlich einer vertikalen Kantenbehandlung und/oder des gleitenden Fensters.
  • Ferner umfasst die Information hinsichtlich der vertikalen Kantenbehandlung des Verfahrens zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wenigstens eine Information hinsichtlich eines Gebiets eines zu bescheidenden Bereichs, eines Anfangspunkts eines zu streckenden Bereichs, eines Gebiets eines zu streckenden Bereichs und/oder eines Streckungsverfahrens.
  • Ferner umfasst die Information hinsichtlich des gleitenden Fensters des Verfahrens zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wenigstens ein Gebiet des gleitenden Fensters, Farbe und/oder Transparenz.
  • Ferner führt das Verfahren zum Empfangen eines digitalen Übertragungssignals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung den Schritt des Aufbereitens der Bilder oder des Überlagerns des gleitenden Fensters nicht aus, falls die Kantenbearbeitungsinformation angibt, dass die ursprünglichen Bilder bereits vorverarbeitet sind.
  • Vorteilhafte Wirkungen
  • Gemäß der vorliegenden Erfindung weisen ein Verfahren zum Empfangen eines digitalen Übertragungssignals und eine Vorrichtung hierfür folgende Wirkung auf.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kann ein Signal für ein 3D-Bild durch Empfangen eines digitalen Übertragungssignals angezeigt werden.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kann ein Bild, bei dem keine Kantenüberschreitung auftritt, durch Empfangen eines digitalen Übertragungssignals angezeigt werden.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kann eine Nachbearbeitung seitens eines Empfängers begrenzt werden durch Empfangen eines digitalen Übertragungssignals, auf das eine Kantenbearbeitung angewandt ist bzw. wird.
  • Figurenliste
    • 1 ist ein Schaubild für den Fall, dass eine Kantenüberschreitung eines 3D-Bilds gemäß einem Ausführungsbeispiel des Stands der Technik auftritt;
    • 2 ist ein Schaubild eines Bildschirms, auf den ein gleitendes Fenster gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angewendet wird;
    • 3 ist ein Schaubild zur Tiefenwahrnehmung, wie sie durch einen Benutzer wahrgenommen wird im Fall der Anwendung eines gleitenden Fensters gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 4 ist ein Schaubild eines Bildschirms, auf den eine vertikale Kantenbehandlung angewendet wird gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 5 ist ein Schaubild zur Tiefenwahrnehmung eines 3D-Bilds, auf das eine vertikale Kantenbehandlung angewendet wird gemäß einem Ausführungsbeispiel der vorliegenden Erfindung,
    • 6 ist ein Schaubild einer Konvergenzlängenkonfiguration nach Anwendung einer vertikalen Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 7 ist ein Schaubild zur Tiefenwahrnehmung, wie sie durch einen Benutzer wahrgenommen wird im Fall der Anwendung eines vertikalen Kantenbehandlungsschemas gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 8 ist ein Schaubild zur Syntaxstruktur einer Signalinformation für eine Kantenbearbeitung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 9 gibt einen zur Implementierung eines gleitenden Fensters gemäß einem Ausführungsbeispiel der vorliegenden Erfindung notwendigen Parametersatz an;
    • 10 ist ein Schaubild zu einem XY-Bearbeitungstyp („XY_handling_type“) gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 11 ist ein Flussdiagramm, das ein Verfahren zum Entnehmen einer Kantenbearbeitungsinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angibt;
    • 12 ist ein Flussdiagramm, das ein Verfahren zum Ausgeben von Kantenbearbeitungsdaten durch Decodieren im Fall der Verwendung eines vertikalen Kantenbehandlungsschemas gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angibt;
    • 13 ist ein Schaubild einer Anwendung einer vertikalen Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 14 ist ein Schaubild einer Empfangsvorrichtung zum Verarbeiten einer Kantenüberschreitung durch Beschneiden und Strecken gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • BEVORZUGTES AUSFÜHRUNGSBEISPIEL
  • Bezug genommen wird nun im Einzelnen auf die bevorzugten Ausführungsbeispiele der vorliegenden Erfindung, deren Beispiele in den beigefügten Zeichnungen veranschaulicht sind. Jedoch kann die vorliegende Erfindung durch die Ausführungsbeispiele unbeschränkt oder uneingeschränkt bleiben.
  • Wenngleich die in der vorliegenden Beschreibung verwendete Terminologie ausgehend von der allgemeinen Terminologie gewählt wurde, die im Hinblick auf die Funktionen gegenwärtig verwendet und weit verbreitet ist, kann sie sich aufgrund von Intentionen der mit dem entsprechenden Gebiet befassten Technikern, Gewohnheiten, dem Aufkommen neuer Technologien und dergleichen ändern. Vereinzelt kann Terminologie durch den Anmelder oder die Anmelder willkürlich ausgewählt sein. In diesem Fall soll die Bedeutung der willkürlich ausgewählten Terminologie im entsprechenden Teil der ausführlichen Beschreibung der Gesamtbeschreibung erläutert sein. Deshalb ist die in der vorliegenden Beschreibung verwendete Terminologie auf Grundlage der tatsächlichen Bedeutung der entsprechenden Terminologie und dem Gesamtoffenbarungsgehalt in der vorliegenden Beschreibung auszulegen, anstatt einer Auslegung als einfache Bezeichnungen der Terminologien.
  • Das Verfahren zur Darstellung eines dreidimensionalen Bilds kann eine stereoskopische Technik, die zwei Ansichtspunkte betrachtet, und eine Bildtechnik mit Vielfachansicht (oder eine Vielfachansicht-Technik), die mehr als drei Ansichtspunkte berücksichtigt, umfassen. Gleichermaßen kann eine herkömmliche Bildtechnik mit Einzelansicht als eine monoskopische Bildtechnik bezeichnet werden.
  • Die stereoskopische Technik verwendet ein Bildpaar, d.h., ein linkes Ansichtsbild (hiernach als linkes Bild bezeichnet) und ein rechtes Ansichtsbild (hiernach als rechtes Bild bezeichnet), die durch Fotografieren desselben Gegenstands mit einer linken Kamera und einer rechten Kamera erhalten werden, welche voneinander um einen bestimmten Abstand auseinander liegen. Alternativ verwendet die stereoskopische Technik ein Bildpaar mit einem Referenzbild und einem Zusatzbild. Die Mehrfachansicht-Technik verwendet mehr als drei Bilder, die durch Fotografieren mit drei oder mehr Kameras erhalten werden, welche einen bestimmten Abstand oder Winkel aufweisen. Wenngleich in nachstehender Beschreibung die vorliegende Erfindung die stereoskopische Technik als ein Ausführungsbeispiel erläutert, kann das Konzept der vorliegenden Erfindung auch auf die Mehrfachansicht-Technik angewandt werden.
  • Gemäß der vorliegenden Erfindung umfasst die stereoskopische Technik eine Technik zur Anordnung Seite an Seite, übereinander, in einem Schachbrettmuster und dergleichen. Die Technik zur Anordnung Seite an Seite ist eine Technik, die ein stereoskopisches Bild ausbildet durch Ausführen einer halben Unterabtastung in horizontaler Richtung für jeweils ein linkes Bild und ein rechtes Bild und Anordnen eines abgetasteten Bilds in einem linken Bereich und des anderen abgetasteten Bilds in einem rechten Bereich. Die Technik zur Übereinanderanordnung ist eine Technik, die ein stereoskopisches Bild ausbildet durch Ausführen einer halben Unterabtastung in vertikaler Richtung für jeweils ein linkes Bild und ein rechtes Bild und Anordnen eines abgetasteten Bilds in einem oberen Bereich und des anderen abgetasteten Bilds in einem unteren Bereich. Die Technik zur Anordnung in einem Schachbrettmuster ist eine Technik, die ein Bild ausbildet durch halbes Unterabtasten in der Weise, dass ein linkes Bild und ein rechtes Bild jeweils horizontal und vertikal sich überkreuzen. Jedoch kann die stereoskopische Technik gemäß der vorliegenden Erfindung durch die vorstehend genannten Beispiele unbeschränkt oder uneingeschränkt bleiben. So ist es in einem Beispiel möglich, einen 3D-Bilddienst in der Weise bereitzustellen, dass zwei Bilder mit voller Auflösung gesendet bzw. empfangen werden, ohne die vorstehend genannten Verfahren des Unterabtastens zu durchlaufen.
  • 1 ist ein Schaubild eines Falls, bei dem eine Kantenüberschreitung eines 3D-Bilds gemäß einer Ausgestaltung des Stands der Technik auftritt.
  • 1(a) ist eine Vorderansicht eines Bildschirms, der ein 3D-Bild darstellt. Da ein Objekt mit einer Kreisform in einem Zentrum des Bildschirms angeordnet ist, gibt es keinen mit einer Kante eines Anzeigebildschirms überlappenden Teil. Folglich entspricht die Position des Objekts mit Kreisform einem Teil, bei dem keine Kantenüberschreitung auftritt. Jedoch kann die vorstehend genannte Kantenüberschreitung auftreten, da ein rechteckiges Objekt auf der linken Seite und ein rechteckiges Objekt auf der rechten Seite an der Kante des Anzeigebildschirms bestehen.
  • 1(b) ist eine Draufsicht zur relativen Tiefenwahrnehmung für jeden Teil eines von einem Benutzer erkannten Bilds, wenn der Benutzer ein 3D-Bild betrachtet. Das im Zentrum angeordnete kreisförmige Objekt wird als ein nächstes zum Benutzer wahrgenommen, und die linken bzw. rechten Rechtecke werden als an der Rückseite des kreisförmigen Objekts angeordnet wahrgenommen. Da die links bzw. rechts am Bildschirm angeordneten rechteckigen Objekte eine negative Disparität aufweisen, werden die rechteckigen Objekte wahrgenommen, als seien sie angeordnet an einer Position nahe zum Benutzer gegenüber dem Bildschirm.
  • Da jedoch die rechteckigen Objekte zudem an den beiden Kanten des Bildschirms angeordnet sind, kann dies vom Benutzer wahrgenommen werden, als ob ein Teil der Rechtecke durch eine Einfassung, die eine Kante des Bildschirms bildet, blockiert wird. Während die links und rechts gelegenen Rechtecke wahrgenommen werden als nahe zum Benutzer angeordnet auf Grundlage des Bildschirms, können die Rechtecke auch wahrgenommen werden als hinter dem Bildschirm angeordnet, da die Rechtecke durch die Einfassung des Bildschirms blockiert werden, wodurch der Benutzer hinsichtlich der Tiefenwahrnehmung irritiert wird.
  • Gemäß einem Verfahren zum Senden und Empfangen eines digitalen Übertragungssignals und einer Vorrichtung hierfür gemäß der vorliegenden Erfindung, ist es möglich, eine Signalinformation bereitzustellen, um eine Umgebung zu schaffen, die eine stabile Tiefenwahrnehmung erreicht durch Anwenden eines Kantenbearbeitungsschemas, wie etwa einem gleitenden Fenster oder einer vertikalen Kantenbehandlung, auf die Kante eines 3D-Bilds zur Vermeidung der Kantenüberschreitung.
  • Falls die Kantenbearbeitung angewandt wird, kann sich ein angewandtes Verfahren je nach Inhalt unterscheiden. Dementsprechend werden Metadaten beschrieben, die es ermöglichen, ein geeignetes Verfahren auszuwählen und anzuwenden gemäß einer Signalübermittlung.
  • Das Schema des gleitenden Fensters oder der vertikalen Kantenbehandlung kann direkt durch einen Empfänger vorgenommen werden oder kann eine in einem Bilderzeugungsschritt in den Inhalt selbst eingebrachte Form annehmen. Falls das Schema des gleitenden Fensters oder der vertikalen Kantenbehandlung im Bilderzeugungsschritt enthalten ist, wird das gleitende Fenster schrittweise vorwärts gezogen zum Erreichen einer Wirkung, als ob eine Kamera sich von einem Objekt weit weg entfernt oder das gleitende Fenster wird schrittweise zu einem Bildschirm hin geschoben und kann vollständig verschwinden zum Erreichen einer Wirkung, als ob die Kamera sich dem Objekt annähert. Und, falls ein außerhalb des Bildschirms positioniertes Objekt/Figur plötzlich an der linken oder rechten Randfläche erscheint oder das innerhalb des Bildschirms positionierte Objekt/Figur über die Kante des Bildschirms verschwindet, kann ein beiläufiges bzw. zufälliges gleitendes Fenster oder eine vertikale Kantenbehandlung im Inhaltserzeugungsschritt ausgebildet sein.
  • Die vorliegende Erfindung schlägt ein Verfahren vor zur Durchführung einer Kantenbearbeitung auf Grundlage der von einem Empfänger empfangenen Information durch Übermitteln einer Kantenbearbeitungsinformation von einer Rahmeneinheit. Die vorliegende Erfindung wird mit Blick auf ein Schema zur vertikalen Kantenbehandlung beschrieben.
  • Falls eine Kantenbearbeitung im Inhalt selbst enthalten ist, kann ein Teil einer Nachbearbeitungstätigkeit, die von einem Empfänger selbst vorgenommen wird, beschränkt werden durch Verwendung der Information, die angibt, dass die Kantenbearbeitung für den Inhalt bereits empfangsseitig vorgenommen wurde. Diesbezügliche Information kann im Wesentlichen folgende Formen umfassen.
  • Ein edge_treated_flag kann verwendet werden als eine Kennung, die angibt, ob eine Kantenbehandlung in einem gegenwärtigen Inhalt enthalten ist.
  • Ein handled_type vermag anzugeben, ob ein Schema zur Durchführung einer Kantenbearbeitung entsprechend einem gleitenden Fensterschema, einer vertikalen Kantenbehandlung (Strecken) oder ein anderes Schema angewandt ist bzw. wird.
  • Applied_LL_pixels / applied_LR_pixels / applied_RL_pixels / applied_RR_pixels können einen Bereich darstellen, auf den eine Kantenbearbeitung angewandt ist bzw. wird an einem linken/rechten Rand eines linken Bilds und dem linken/rechten Rand eines rechten Bilds durch eine Pixeleinheit.
  • 2 ist ein Schaubild eines Bildschirms, auf den ein gleitendes Fenster gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angewandt wird.
  • Ein gleitendes Fensterschema ist ein Schema zur Vermeidung einer Irritation der Tiefenwahrnehmung durch Blockieren eines Teils des Bereichs mit einem gleitenden Fenster, der dem linken/rechten Rand entspricht, an dem eine Kantenüberschreitung auftritt. Bezugnehmend auf 2 werden ein Teil des Bereichs, der dem linken Rand eines linken Bilds entspricht, und ein Teil des Bereichs, der dem rechten Rand eines rechten Bilds entspricht, durch ein gleitendes Fenster blockiert (das als ein gedrucktes Fenster in 2 bezeichnet ist). Durch Blockieren mit dem gleitenden Fenster eines Teils des Bereichs eines Bilds, das eine negative Disparität im linken/rechten Randbereich aufweist, ist es möglich, eine Überlappung mit einer Einfassung zu vermeiden. Dadurch kann die Irritation der Tiefenwahrnehmung beherrschbar sein, und es kann dann eine stabile Tiefenwahrnehmung erreichbar sein.
  • Um das gleitende Fensterschema anzuwenden, sollte eine Größe des linken/rechten Randbereichs des linken und rechten Bilds durch eine Pixeleinheit übermittelt werden und auch die Transparenz eines gleitenden Fensters und die Farbe sollten übermittelt werden.
  • Somit kann eine übertragene Information über das gleitende Fensterschema ein num_pixels_of_LL_window umfassen zur Angabe einer Größe eines Fensters für den linken Seitenrand des linken Bilds durch eine Pixeleinheit. In gleicher Weise kann umfasst sein ein num_pixels_of_LR_window zur Angabe der Größe eines Fensters für den rechten Seitenrand des linken Bilds, ein num_pixels_of_RL_window zur Angabe der Größe eines Fensters für den linken Seitenrand des rechten Bilds und ein num_pixels_of_RR_window zur Angabe der Größe eines Fensters für den rechten Seitenrand des rechten Bilds.
  • Ferner kann die übertragene Information zum gleitenden Fensterschema ein transparency_LL_window umfassen zur Angabe einer Fenstertransparenz des linken Seitenrands des linken Bilds. In gleicher Weise kann umfasst sein ein transparency_LR_window zur Angabe einer Fenstertransparenz des rechten Seitenrands des linken Bilds, ein transparency_RL_window zur Angabe einer Fenstertransparenz des linken Seitenrands des rechten Bilds und ein transparency_RR_window zur Angabe einer Fenstertransparenz des rechten Seitenrands des rechten Bilds.
  • Ferner kann die übertragene Information zum gleitenden Fensterschema ein color_LL_window umfassen zur Angabe einer Fensterfarbe des linken Seitenrands des linken Bilds. In gleicher Weise kann umfasst sein ein color_LR_window zur Angabe der Fensterfarbe des rechten Seitenrands des linken Bilds, ein color_RL_window zur Angabe der Fensterfarbe des linken Seitenrands des rechten Bilds und ein color_RR_window zur Anzeige der Fensterfarbe des rechten Seitenrands des rechten Bilds.
  • 3 ist ein Schaubild zur Tiefenwahrnehmung, die durch einen Benutzer wahrgenommen wird im Fall der Anwendung eines gleitenden Fensters gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Falls, wie in 3(a) gezeigt, Objekte mit negativer Disparität an beiden Enden bzw. Seiten des durch einen Benutzer betrachteten 3D-Bilds bestehen, wird ein gleitendes Fenster am linken/rechten Randteil angeordnet, wie in 3(b) dargestellt. Falls das gleitende Fenster angeordnet ist, wird bei einem rechteckigen Objekt, das herkömmlicherweise aufgrund der negativen Disparität in 3(a) als überlappend mit einem außerhalb des Bildschirmbereichs positionierten Einfassungsteil gesehen wird, der mit dem Einfassungsteil überlappende Teil dadurch verschwinden, dass ein Teil des rechteckigen Objekts durch das gleitende Fenster blockiert wird. Vom gleitenden Fenster sind so viele Pixel in einem linken Kantenbereich angeordnet, wie es num_pixels_of_LL_window entspricht, und vom gleitenden Fenster sind so viele Pixel in einem rechten Kantenbereich angeordnet, wie es num_pixels_of_RR_window entspricht.
  • Folglich kann eine Irritation der Tiefenwahrnehmung nicht auftreten, da ein mit dem Einfassungsteil überlappendes 3D-Bild dem Benutzer nicht bereitgestellt bzw. dargestellt wird.
  • 4 ist ein Schaubild eines Bildschirms, auf den eine vertikale Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angewandt wird.
  • Das Schema der vertikalen Kantenbehandlung ist ein Schema zur Vermeidung einer Irritation der Tiefenwahrnehmung, indem ein Teil eines Bereichs beschnitten wird, der einem linken/rechten Rand entspricht, in dem eine Kantenüberschreitung auftritt, und indem ein Teil des verbleibenden Bereichs gestreckt wird. In 3 kann ein Ergebnis der Darstellung geprüft werden durch Strecken eines Teils des Bereichs (Streckgebiet), das einem linken Rand des linken Bilds entspricht, und des Teils des Bereichs, der einem rechten Rand eines rechten Bilds entspricht. Um zu verhindern, dass ein Teil des Bereichs mit negativer Disparität im linken/rechten Randbereich mit einer Einfassung überlappt, kann dem Teil des Bereichs eine positive Disparität oder eine Disparität von Null gegeben werden. Dadurch kann eine Irritation der Tiefenwahrnehmung beherrschbar sein, und es kann dann eine stabile Tiefenwahrnehmung erreichbar sein.
  • Um das Schema der vertikalen Kantenbehandlung anzuwenden, sollte ein Gebiet des zu beschneidenden Bereichs im linken/rechten Randbereich durch eine Pixeleinheit übermittelt werden, und das zu streckende Gebiet des Bereichs sollte durch die Pixeleinheit übermittelt werden. Und ebenfalls sollte eine Information bezüglich eines Streckungstyps übermittelt werden.
  • Somit kann die übermittelte Information des Schemas zur vertikalen Kantenbehandlung ein LL_crop_width_pixels umfassen zur Angabe des zu beschneidenden Gebiets des Bereichs für einen linken Rand eines linken Bilds durch die Pixeleinheit. In gleicher Weise können umfasst sein ein LR_crop_width_pixels zur Angabe des Gebiets des zu beschneidenden Bereichs für einen rechten Rand des linken Bilds, ein RL_crop_width_pixels zur Angabe des Gebiets des zu beschneidenden Bereichs für den linken Rand eines rechten Bilds und ein RR_crop_width_pixels zur Angabe des Gebiets des zu beschneidenden Bereichs für den rechten Rand des rechten Bilds.
  • Ferner kann die übertragene Information des Schemas der vertikalen Kantenbehandlung LL_stretch_width_pixels umfassen zur Angabe des Gebiets des zu streckenden Bereichs für einen linken Rand eines linken Bilds durch die Pixeleinheit. In gleicher Weise können umfasst sein LR_stretch_width_pixels zur Angabe des Gebiets des zu streckenden Bereichs für einen rechten Rand eines linken Bilds, RL_stretch_width_pixels zur Angabe des Gebiets des zu streckenden Bereichs für einen linken Rand eines rechten Bilds und ein RR_stretch_width_pixels zur Angabe des Gebiets des zu streckenden Bereichs für einen rechten Rand eines rechten Bilds.
  • Ferner kann die übertragene Information des Schemas der vertikalen Kantenbehandlung einen LL_stretch_type umfassen zur Angabe eines Streckungstyps eines zu streckenden Bereichs für einen linken Rand eines linken Bilds. In gleicher Weise können umfasst sein ein LR_stretch_type zur Angabe eines Streckungstyps eines zu streckenden Bereichs für einen rechten Rand eines linken Bilds, ein RL_stretch_type zur Angabe eines Streckungstyps eines zu streckenden Bereichs für einen linken Rand eines rechten Bilds und ein RR_stretch_type zur Angabe eines Streckungstyps eines zu streckenden Bereichs für einen rechten Rand eines rechten Bilds. In der vorliegenden Erfindung kann der Streckungstyp einer linearen Streckung oder einer nicht-linearen Streckung entsprechen. Ein zur Ausführung einer Streckung notwendiger Parameter kann verschiedenartig sein. Eine Erläuterung des Parameters wird ausführlich in der folgenden Beschreibung gegeben.
  • 5 ist ein Schaubild zur Tiefenwahrnehmung eines 3D-Bilds, auf das eine vertikale Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angewandt wird.
  • 5(a) gibt eine Tiefenwahrnehmung vor Anwendung der vertikalen Kantenbehandlung an. Es kann geprüft werden, dass ein linkes Objekt der 3D-Bilder eine negative Disparität nach vorne gegenüber einem Bildschirm aufweist. Diese Art von Objekt kann eine Kantenüberschreitung aufweisen aufgrund einer Kante des Bildschirms. Somit kann die vertikale Kantenbehandlung auf das Objekt angewandt werden.
  • 5(b) gibt die Tiefenwahrnehmung nach Anwendung der vertikalen Kantenbehandlung an. Es kann geprüft werden, dass das linke Objekt eine negative Disparität in 5(a) aufwies und in 5(b) eine positive Disparität aufweist, indem es in einen hinteren Bereich bezüglich des Bildschirms bewegt wird. Dadurch kann eine Irritation der Tiefenwahrnehmung vermieden werden, da das linke Objekt von einem Benutzer wahrgenommen wird als in einem Bereich hinter der Kante des Bildschirms positioniert. Durch Steuern eines die negative Disparität aufweisenden Teils am linken/rechten Rand des Bildschirms kann ermöglicht werden, die am nächsten zu einem Beobachter liegende Tiefe bedingungsfrei im hinteren Teil des Bildschirms zu positionieren oder auf einer gleichen Linie mit dem Bildschirm am Ende des Bildschirms.
  • 6 ist ein Schaubild einer Konfiguration eines Konvergenzabstands nach Anwendung einer vertikalen Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Wie in Zusammenhang mit 5 beschrieben, können die dargestellten Bilder bei Anwendung der vertikalen Kantenbehandlung im letzten Teil des linken/rechten Bildschirms so gesteuert werden, dass sie eine positive Disparität oder eine Disparität von Null aufweisen. Der in 6 als eine Konvergenzebene bezeichnete Teil ist ein Bereich, in dem die gemäß einem 3D-Bild darzustellende Tiefenwahrnehmung frei bzw. bedingungsfrei darstellt wird.
  • Anders als im Teil der Konvergenzebene ist ein einer Konvergenzkurve entsprechender Teil so gesteuert, dass die Disparität von Null durch Konstruktion einer glatten Kurve an den beiden Enden bzw. Seiten des Bildschirms angenähert wird. Insbesondere wird im Bereich der Konvergenzkurve, obwohl ein 3D-Bild die Darstellung einer negative Disparität vorsieht, die Tiefenwahrnehmung so gesteuert, dass sie eine Disparität von Null oder eine positive Disparität aufweist, um von einem Benutzer so wahrgenommen zu werden, als ob der letzte Teil der linken/rechten Seite hinter der Kante des Bildschirms positioniert ist. Der Bereich der Konvergenzkurze wird durch ein Streckungsgebiet dargestellt, das durch die vertikale Kantenbehandlung gestreckt wird.
  • 7 ist ein Schaubild der durch einen Benutzer wahrgenommenen Tiefenwahrnehmung im Fall der Anwendung eines Schemas zur vertikalen Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Wie in 7(a) gezeigt, beschneidet das Schema zur vertikalen Kantenbehandlung einen Teil des Bereichs und streckt einen Teil des verbleibenden Bereichs im letzten Teil sowohl eines linken als auch eines rechten 3D-Bilds, das von einem Benutzer betrachtet wird, falls ein Objekt mit negativer Disparität besteht. Der zu beschneidende Bereich kann LL_crop_width_pixels an einer linken Kante und RR_crop_width_pixels an einer rechten Kante entsprechen. Der Teil des zu streckenden Bereichs vergrößert eine Bildschirmgröße zur Bildschirmgröße vor dem Beschneiden durch Strecken von LL_stretch_width_pixels an der linken Kante und von RR_stretch_width_pixels an der rechten Kante aus dem nach dem Beschneiden verbleibenden Bereich.
  • Während des Beschneidungs- und Streckungsvorgangs wird die Tiefenwahrnehmung des ursprünglich als mit dem Einfassungsteil überlagert gesehenen rechteckigen Objekts, das aufgrund der negativen Disparität in 7(a) außerhalb des Bildschirmbereichs bestand, so gesteuert, dass sie eine Disparität von Null an den Kanten der beiden Enden des Bildschirms aufweist, wie in 7(b) gezeigt. Somit gibt es keinen Teil eines 3D-Bilds, der mit dem Einfassungsteil zusammenfällt, insbesondere gibt es nicht den Teil des 3D-Bilds, der aussieht, als ob der Teil des 3D-Bilds sich weiter zu einem Benutzer erstreckt als der Einfassungsteil, und es ist möglich, eine Irritation der Tiefenwahrnehmung zu vermeiden.
  • 8 ist ein Schaubild einer Syntaxstruktur einer übertragenen Information zur Kantenbearbeitung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Ein Verfahren zur Vermeidung einer Kantenüberschreitung, die eine Störung aufgrund Nichtübereinstimmung im linken/rechten Ansichtspunkt ist, kann ein Verfahren zum Senden eines 3D-Inhalts nach Ausführung einer Nachverarbeitung des 3D-Inhalts selbst im Vorfeld durch eine Übertragungsstation, ein Verfahren zum Senden eines Parameters eines gleitenden Fensters, der vorgeschlagen wird, ein Verfahren zum Senden eines Parameters einer vertikalen Kantenbehandlung, und dergleichen umfassen. Es ist möglich, verschiedene Verfahren auf jede Kante anzuwenden, situationsabhängig durch eine Kombination der Verfahren, und es ist auch möglich, ein angewandtes Verfahren rahmenweise zu differenzieren.
  • Daten betreffend eine Kantenbearbeitung können mit Metadaten für die Bildinhalte bereitgestellt werden und können gesendet werden, indem sie in Videobenutzerdaten einbezogen werden über EH_data(), wie in 8 gezeigt. Die in EH_data() enthaltene Information ist wie folgt.
  • Ein XY_edge_flag gibt an, dass eine Nachbearbeitungstätigkeit notwendig ist oder bestand an einer Seitenkante Y eines Bilds zum Zeitpunkt X bzw. zum Zeiteinteilungspunkt X. Ein Empfänger kann dazu ausgebildet sein, anhand des XY_edge_flag zu erkennen, dass ein ungültiger Bereich an der Seitenkante Y des Bilds zum Zeitpunkt X bzw. zum Zeiteinteilungspunkt X besteht. In diesem Fall können X, Y jeweils entweder Links oder Rechts angeben.
  • Falls ein LL_edge_flag auf „1“ gesetzt ist, gibt es an, dass eine Nachbearbeitungstätigkeit notwendig ist oder besteht an einer linken Seitenkante eines linken Bilds.
  • Falls ein LR_edge_flag auf „1“ gesetzt ist, gibt es an, dass eine Nachbearbeitungstätigkeit notwendig ist oder besteht bei einer rechten Seitenkante eines linken Bilds.
  • Falls ein RL_edge_flag auf „1“ gesetzt ist, gibt es an, dass eine Nachbearbeitungstätigkeit notwendig ist oder besteht an einer linken Seitenkante eines rechten Bilds.
  • Falls ein RR_edge_flag auf „1“ gesetzt ist, gibt es an, dass eine Nachbearbeitungstätigkeit notwendig ist oder besteht an einer rechten Seitenkante eines rechten Bilds.
  • Ein XY_handling_type benennt ein Schema einer Kantenüberschreitungsverarbeitung, das an einer Seitenkante Y eines Bilds X angewendet wird. Dies wird im Einzelnen anhand 10 beschrieben.
  • Ein XY-floating_window_parameter gibt einen Parametersatz an, der notwendig ist, um ein gleitendes Fenster zu implementieren, das an einer Seitenkante Y eines Bilds X angewandt wird. Dies wird im Einzelnen anhand 9 beschrieben.
  • Ein LL_crop_width_pixel benennt eine Größe eines zu beschneidenden Bereichs, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein linkes Bild vom ganz linken Pixel bis zu dem Pixel, wie durch diesen Wert anzahlmäßig benannt ist.
  • Ein LL_stretch_start_pixel benennt einen Anfangspunkt eines Bereich, auf den eine Streckung anzuwenden ist nach Ausführung einer Beschneidung eines linken Bilds. Eine Position des Anfangspunkts bedeutet einen Pixelabstand von einer linken Kante eines linken Bilds.
  • Ein LL_stretch_width_pixel benennt einen zu streckenden Bereich, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein linkes Bild, ausgehend von einem LL_stretch_start_pixel als einem Anfangspunkt bis zu dem der Anzahl nach durch diesen Wert benannten Pixel, nachdem so viele Pixel ausgeschlossen wurden, wie LL_crop_width_pixel von einer linken Kante bestimmt.
  • Folglich entspricht ein Bereich, auf den eine Streckung angewandt wird nach Ausführung einer Beschneidung für ein linkes Ansichtsbild, einem rechtwinkligen Bereich mit einer Abszisse von LL stretch start_pixel zu (LL_stretch_start_pixel + LL_stretch_width_pixel - 1).
  • Ein LL_stretch_parameter() ist ein Parameter zur Angabe, wie eine linke Kante eines linken Bild gestreckt wird. Verschiedenartige solcher Streckverfahren können bestehen, wie ein lineares Verfahren und ein nicht-lineares Verfahren. In einer Verarbeitung zur Umsetzung der Streckung kann ermöglicht werden, Information zu einem Filterverfahren und einen Koeffizienten zur Ausführung einer Interpolation aufzunehmen.
  • In den Fällen LR/RL/RR wird das vorstehend für den Fall LL erläuterte Schema in der gleichen Weise angewandt. Jedoch besteht folgender Unterschied.
  • Ein LR_crop_width_pixel benennt eine Größe eines zu beschneidenden Bereichs, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein linkes Bild ausgehend von dem ganz rechten Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein LR_stretch_start_pixel benennt einen Anfangspunkt eines Bereichs, auf den eine Streckung anzuwenden ist nach Ausführung einer Beschneidung für ein linkes Bild. Eine Position des Anfangspunkts bedeutet einen Pixelabstand von einer rechten Kante eines linken Bilds.
  • Ein LR_stretch_width_pixel benennt einen zu streckenden Bereich, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein linkes Bild ausgehend von einem LR_stretch_start_pixel als einem Anfangspunkt zu dem Pixel, der anzahlmäßig durch diesen Wert benannt ist, nach Ausschluss so vieler Pixel, wie LR_crop_width_pixel von einer rechten Kante bestimmt.
  • Folglich entspricht ein Bereich, auf den eine Streckung angewandt wird nach Ausführung einer Beschneidung für ein linkes Ansichtsbild, einem rechteckigen Bereich mit einer Abszisse von (eine rechte Kante - LR_stretch_start_pixel - LR_stretch_width_pixel + 1) zu (eine rechte Kante - LL_stretch_start_pixel). In vorstehender Formel bedeutet „die rechte Kante“ einen Pixelwert einer ganz rechten Kante eines linken Ansichtsbilds.
  • Ein LR_stretch_parameter() ist ein Parameter zur Angabe, wie eine rechte Kante eines linken Bilds gestreckt wird. Verschiedenartige solche Streckverfahren können bestehen, wie ein lineares und ein nicht-lineares Verfahren. In einem Verfahren einer Streckungsimplementierung kann ermöglicht sein, Information über ein Filterverfahren und einen Koeffizienten zur Durchführung einer Interpolation aufzunehmen.
  • Ein RL_crop_width_pixel benennt eine Größe eines zu beschneidenden Bereichs, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein rechtes Bild, ausgehend von dem ganz linken Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein RL_stretch_start_pixel benennt einen Anfangspunkt eines Bereichs, auf den eine Streckung anzuwenden ist nach Ausführung einer Beschneidung für ein rechtes Bild.
  • Eine Position des Anfangspunkts bedeutet einen Pixelabstand von einer linken Kante eines rechten Bilds.
  • Ein RL_stretch_width_pixel benennt einen zu streckenden Bereich, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein rechtes Bild, ausgehend von einem RL_stretch_start_pixel als einem Anfangspunkt bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist, nach Ausschluss so vieler Pixel, wie RL_crop_width_pixel ausgehend von einer linken Kante bestimmt.
  • Folglich entspricht ein Bereich, auf den eine Streckung angewandt wird nach Ausführung einer Beschneidung für ein rechtes Ansichtsbild, einem rechteckigen Bereich mit einer Abszisse von dem RL_stretch_start_pixel zu (RL_stretch_start_pixel + RL_stretch_width_pixel - 1).
  • Ein RL_stretch_parameter() ist ein Parameter zur Angabe, wie eine linke Kante eines rechten Bilds gestreckt wird. Verschiedenartige solche Streckungsverfahren können bestehen, wie ein lineares und ein nicht-lineares Verfahren. In einem Verfahren einer Streckungsimplementierung kann ermöglicht sein, Information über ein Filterverfahren und einen Koeffizienten zur Durchführung einer Interpolation aufzunehmen.
  • Ein RR_crop_width_pixel benennt eine Größe eines zu beschneidenden Bereichs, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein rechtes Bild, ausgehend von dem ganz rechten Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein RR_stretch_start_pixel benennt einen Anfangspunkt eines Bereichs auf den eine Streckung angewandt wird, nach Ausführung einer Beschneidung für ein rechtes Bild. Eine Position eines Anfangspunkts bedeutet einen Pixelabstand von einer rechten Kante eines rechten Bilds.
  • Ein RR_stretch_width_pixel benennt einen zu streckenden Bereich, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein rechtes Bild, ausgehend von einem RR_stretch_start_pixel als einem Anfangspunkt bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist, nach Ausschluss so vieler Pixel, wie RR_crop_width_pixel ausgehend von einer rechten Kante bestimmt.
  • Folglich entspricht ein Bereich, auf den eine Streckung angewandt wird nach Ausführung einer Beschneidung für ein rechtes Ansichtsbild, einem rechteckigen Bereich mit einer Abszisse von (eine rechte Kante - RR_stretch_start_pixel - RR_stretch_width_pixel + 1) zu (eine rechte Kante - RR_stretch_start_pixel). In der vorstehenden Formel bedeutet „die rechte Kante“ einen Pixelwert einer ganz rechten Kante eines rechten Ansichtsbilds.
  • Ein RR_stretch_parameter() ist ein Parameter zur Angabe, wie eine rechte Kante eines rechten Bilds gestreckt wird. Verschiedenartige solche Streckungsverfahren können bestehen, wie in lineares und ein nicht-lineares Verfahren. In einem Verfahren zur Streckungsimplementierung kann ermöglicht sein, Information über ein Filterverfahren und einen Koeffizienten zur Ausführung einer Interpolation aufzunehmen.
  • 9 gibt einen zur Implementierung eines gleitenden Fensters gemäß einem Ausführungsbeispiel der vorliegenden Erfindung notwendigen Parametersatz an.
  • Das gleitende Fenster ist ein Schema, das auf ein stereoskopisches Bild angewandt wird und dazu ausgebildet ist, eine bestimmte Wirkung bereitzustellen durch Blockieren eines linken, eines rechten oder sowohl eines linken als auch eines rechten Bildbereichs mit einem sich von oben nach unten erstreckenden Streifen für jeweils ein linkes Bild und ein rechtes Bild. Unter Verwendung dieses Schemas kann eine Wirkung einer optischen Täuschung erreicht werden, die aussieht, als ob ein Bildschirm (wobei ein Bereich durch das gleitende Fenster blockiert wird) sich nach vorne erstreckt. Ferner kann das Schema des gleitenden Fensters ermöglichen, dass eine Störung aufgrund einer Diskrepanz eines linken/rechten Ansichtspunkts, d.h. eine Kantenüberschreitung, vermieden wird. Zum Beispiel kann diese Störung auftreten, falls ein Objekt von einer Bildschirmkante verschwindet aufgrund einer Zeitdifferenz, die zwischen einem linken Bild und einem rechten Bild besteht. Daten zum gleitenden Fenster können als Metadaten für Videoinhalte bereitgestellt werden und können über fw_data() gesendet werden, so dass sie in Videonutzerdaten enthalten sind.
  • Die in fw_data() enthaltenen Informationen sind wie folgt.
  • Falls ein left_view_left_float_window_flag auf „1“ gesetzt ist, gibt es an, dass ein linksseitiges gleitendes Fenster eines linken Bilds besteht.
  • Falls ein left_view_right_float_window_flag auf „1“ gesetzt ist, gibt es an, dass ein rechtsseitiges gleitendes Fenster eines linken Bilds besteht.
  • Falls ein right_view_left_float_window_flag auf „1“ gesetzt ist, gibt es an, dass ein linksseitiges gleitendes Fenster eines rechten Bilds besteht.
  • Falls ein right_view_right_float_window_flag auf „1“ gesetzt ist, gibt es an, dass ein rechtsseitiges gleitendes Fenster eines rechten Bilds besteht.
  • Ein number_pixels_of_LL_window benennt einen Bereich eines linken Fensters, der durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein linkes Bild, ausgehend von einem ganz linken Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein transparency_LL_window benennt eine Transparenz eines linken Fensters für ein linkes Bild.
  • Ein color_LL_window benennt einen Farbwert eines linken Fensters für ein linkes Bild.
  • Ein number_pixels_of_LR_window benennt einen Bereich eines rechten Fensters, das durch einen sich von oben nach unten erstreckenden Streifen ausgebildet ist für ein linkes Bild, ausgehend von einem ganz rechten Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein transparency_LR_window benennt eine Transparenz eines rechten Fensters für ein linkes Bild.
  • Ein color_LR_window benennt einen Farbwert eines rechten Fensters für ein linkes Bild.
  • Ein number_pixel_of_RL_window benennt einen Bereich eines linken Fensters, das ausgebildet ist durch einen sich von oben nach unten erstreckenden Streifen für ein rechtes Bild, ausgehend von einem ganz linken Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein transparency_RL_window benennt eine Transparenz eines linken Fensters für ein rechtes Bild.
  • Ein color_RL_window benennt einen Farbwert eines linken Fensters für ein rechtes Bild.
  • Ein number_pixels_of_RR_window benennt einen Bereich eines rechten Fensters, das ausgebildet ist durch einen sich von oben nach unten erstreckenden Streifen für ein rechtes Bild, ausgehend von einem ganz rechten Pixel bis zu dem Pixel, wie anzahlmäßig durch diesen Wert benannt ist.
  • Ein transparency_RR_window benennt eine Transparenz eines rechten Fensters für ein rechtes Bild.
  • Ein color_RR_window benennt einen Farbwert eines rechten Fensters für ein rechtes Bild.
  • Somit kann es einem Empfänger ermöglicht sein, zu erkennen, dass ein ungültiger Bereich in einem linken Bild besteht, unter Verwendung des
    left_view_left_float_window_flag und des left_view_right_float_window_flag, und es kann ermöglicht sein, zu erkennen, dass ein ungültiger Bereich in einem rechten Bild besteht, unter Verwendung des right_view_left_float_window_flag und des rig ht_view_right_float_wi ndow_flag.
  • Ferner kann es dem Empfänger ermöglicht sein, eine Breite eines vertikalen Balkens zu erkennen zur Ausbildung des gleitenden Fensters unter Verwendung des number_pixels_of_LL_window, des number_pixels_of_LR_window, des number_pixels_of_RL_window und des number_pixels_of_RR_window.
  • Falls der Empfänger das gleitende Fenster auf einem Bildschirm anzeigt, kann diesem ermöglicht sein, eine zur Ausgabe des gleitenden Fensters zu verwendende Farbinformation zu erkennen, unter Verwendung des color_LL_window, des color_LR_window, des color_RL_window und des color_RR_window, und es kann ermöglicht sein, einen transparenzbezogenen Überblendungswert Alpha zu erkennen, unter Verwendung des transparency_LL_window, des transparency_LR_window, des transparency_RL_window und des transparency_RR_window.
  • 10 ist ein Schaubild eines XY_handling_type gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Der XY_handling_type gibt die Art der auf die Seitenkante Y eines Bilds X anzuwendenden Kantenbearbeitung an.
  • Falls der XY_handling_type auf „00“ gesetzt ist, bedeutet dies, dass ein entsprechender Inhalt, eine Szene in dem Inhalt oder ein Rahmen gesendet wird, nachdem eine Übertragungsstation selbst eine Verarbeitung für eine Kantenüberschreitung an einem 3D-Inhalt im Vorfeld vorgenommen hat (vorverarbeitet).
  • Falls der XY_handling_type auf „01“ gesetzt ist, bedeutet dies, dass ein entsprechender Inhalt, eine Szene in dem Inhalt oder ein Rahmen zur Vornahme einer Kantenbearbeitung in einem Empfänger vorgeschlagen wird durch Anwendung eines Schemas für ein gleitendes Fenster.
  • Falls der XY_handling_type of „10“ gesetzt ist, bedeutet dies, dass ein entsprechender Inhalt, eine Szene in dem Inhalt oder ein Rahmen zur Vornahme einer Kantenbearbeitung in einem Empfänger vorgeschlagen wird durch Anwendung eines Schemas für eine vertikale Kantenbehandlung.
  • In nachstehender Beschreibung wird ein Verfahren zum Senden von EH_data() gemäß einem Kodierer-Decodierer (Codec) erläutert.
  • Im Fall eines MPEG-2-Videos werden die EH_data() übertragen durch Aufnahme in user_data() eines Bereichs für Bildergänzung und Nutzerdaten (Picture Extension and User Data) ähnlich bar_data(). Ein Empfänger entnimmt die user_data(), die eine Bedingung erfüllen, nach welcher ein Wert eines user_data_start_code „0 * 0000 01B2“ entspricht und ein Wert einer user_data_identifier „0 * 4741 3934“. Falls die user_data() entnommen werden, liest der Empfänger die in den user_data() enthaltenen Daten user_structure() und entnimmt die EH_data(), die eine Bedingung erfüllen, nach welcher der user_data_type_code „0 * 10“ entspricht. Der Empfänger erhält die die Kantenbearbeitung betreffende Information über gegenwärtige stereoskopische Bilddaten durch Decodieren der entnommenen EH_data().
  • Im Fall eines AVC-Videos (H.264-Videos) werden die EH_data über eine ergänzende Erweiterungsinformation SEI (Supplemental Enhancement Information) einer Rohbytefolge für Nutzdaten RBSP (Raw Byte Sequence Payload) empfangen. Ein Empfänger analysiert eine AVC-NAL-Einheit. Falls ein Wert nal_unit_type „6“ beträgt, entspricht sie SEI-Daten. Der Empfänger prüft einen Wert von user_identifier durch Auslesen einer SEI-Nachricht user_data_registered_itu_t_t35, die eine Bedingung erfüllt, nach welcher ein payloadType „4“ entspricht. Der Empfänger liest eine u-ser_structure(), die eine Bedingung erfüllt, nach der ein Wert von user identifier „0 * 4741 3934“ entspricht, und entnimmt dann die EH_data(), welche der Bedingung genügen, nach welcher der user_data_type_code „0 * 10“ entspricht. Der Empfänger erhält die Kantenbearbeitung betreffende Information über gegenwärtige stereoskopische Bilddaten durch Decodieren der entnommenen EH_data().
  • Die in den EH_data() enthaltene Information stellt einen Parameter zur Ausführung eines Verfahrens zum Vermeiden einer Kantenüberschreitung bereit, falls eine stereoskopische Anzeige beabsichtigt, ein linkes/rechtes Bild auszugeben.
  • Die EH_data() und die bar_data() liegen in einem identischen Bereich vor. Die EH_data() können von den bar_data() mit dem user_data_type_code unterschieden werden. Die Reihenfolge des Empfangens und Decodierens der EH_data() kann zwischen einem Kopf eines entsprechenden Rahmens und einem Bereich für Videodaten des entsprechenden Rahmens liegen.
  • 11 ist ein Flussdiagramm, das ein Verfahren zum Entnehmen einer Kantenbearbeitungsinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angibt.
  • Ein Empfänger decodiert einen Video-Elementarstrom (Elementary Stream, ES)
    [S10]. Danach decodiert der Empfänger einen Bereich eines Sequenzkopfs und eines Bildkopfs [S12] und decodiert zusätzliche Kopfinformation (bzw. Information eines Zusatzkops) [S14]. In diesem Fall entspricht die zusätzliche Kopfinformation der Bilderweiterung und den Benutzerdaten („Picture Extension“ und „User Data“) im Fall des MPEG-2-Videos und entspricht der SEI im Fall des AVC-Videos (H.264-Video).
  • Falls die zusätzliche Kopfinformation decodiert wird, erkennt der Empfänger
    ATSC_user_data() und liest diese ein [S16]. In diesem Fall entnimmt der Empfänger user_data, die eine Bedingung erfüllen, nach welcher der Wert der u-ser_data_identifier „0 * 4741 3934“ entspricht.
  • Der Empfänger entnimmt die EH_data(), die eine Bedingung erfüllen, nach welcher der user_data_type_code „0 * 10“ entspricht in einer user_data_type_structure() der ATSC_user_data() [S18].
  • Der Empfänger entnimmt Parameterinformationen zu einem Flag, das angibt, ob eine Kantenbearbeitung ausgeführt wird, und den jeweiligen Bearbeitungstyp für ein linkes Bild und ein rechtes Bild durch Auslesen der EH_data() [S20].
  • 12 ist ein Flussdiagramm, das ein Verfahren zur Ausgabe von Kantenbearbeitungsdaten durch Decodieren im Fall einer Verwendung eines Schemas zur vertikalen Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angibt.
  • Ein Empfänger decodiert Daten durch Entnehmen der EH_data(), die in einem Kopf eines Video-ES oder eines SEI-Bereichs enthalten sind [S30]. Der Empfänger prüft ein Benutzersteuersignal, das angibt, ob eine Kantenbearbeitung angewandt wird [S32]. Der Empfänger beurteilt, ob ein Benutzer eine Anwendung der Kantenbearbeitung zulässt [S34]. Falls die Anwendung der Kantenbearbeitung zugelassen ist, prüft der Empfänger, ob eine Vorverarbeitung ausgeführt ist (Fall 1) [S36]. Falls die Anwendung der Kantenbearbeitung nicht zugelassen ist, setzt der Empfänger beim Schritt S46 fort.
  • Falls eine Vorverarbeitung im Schritt S36 ausgeführt ist, setzt der Empfänger beim Schritt S46 fort. Falls die Vorverarbeitung nicht ausgeführt ist, beurteilt der Empfänger, ob das gleitende Fenster angewandt wird (Fall 2) [S38]. Falls das gleitende Fenster angewandt wird, wendet der Empfänger das gleitende Fenster auf das linke/rechte Bild des Zeitpunkts bzw. des Zeiteinteilungspunkts an unter Berücksichtigung eines zahlenmäßigen Verhältnisses zwischen einer getrennten Bildgröße und einer praktischen Bildgröße [S40] und setzt beim Schritt [S46] fort.
  • Falls das gleitende Fenster nicht angewandt wird, beurteilt der Empfänger, ob eine vertikale Kantenbehandlung angewandt wird (Fall 3) [S42]. Falls die vertikale Kantenbehandlung angewandt wird, wendet der Empfänger die vertikale Kantenbehandlung auf das Bild des Zeitpunkts bzw. des Zeiteinteilungspunkts an unter Berücksichtigung eines zahlenmäßigen Verhältnisses zwischen einer getrennten Bildgröße und einer praktischen Bildgröße [S44] und setzt beim Schritt [S46] fort.
  • Falls die vertikale Kantenbehandlung nicht angewandt wird, setzt der Empfänger beim Schritt S46 fort.
  • Im Schritt S46 gibt der Empfänger durch Steuern zweier Zeitpunkte bzw. Zeiteinteilungspunkte eine Bildformatierung gemäß einem stereoskopischen Anzeigetyp aus (bzw. durch Steuern der Formatierung zweier Bilder zum Zeitpunkt oder Zeiteinteilungspunkt gemäß einem stereoskopischen Anzeigetyp).
  • 13 ist ein Schaubild einer Anwendung einer vertikalen Kantenbehandlung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • 13 zeigt ein Betriebsbeispiel bei einem 3D-Fernseher, falls eine Parameterinformation einer vertikalen Kantenbearbeitung für eine linke Kante eines linken Bilds bereitgestellt ist. In diesem Fall ist die Parameterinformation wie folgt.
  • Ein LL_edge_flag ist auf „1“ gesetzt zur Angabe, dass eine Kantenbearbeitungstätigkeit für eine linke Kante eines linken Bilds notwendig ist. Ein LL_handling_type ist auf „10“ gesetzt zur Angabe, dass ein Schema einer vertikalen Kantenbehandlung angewandt wird. Ein LL_crop_width_pixel zur Angabe eines Gebiets eines zu beschneidenden Bereichs ist auf „N“ gesetzt, ein LL_stretch_start_pixel zur Angabe eines Pixels, bei dem eine Streckung beginnt, ist auf „L“ gesetzt, und ein LL_stretch_width_pixel zur Angabe eines Gebiets eines zu streckenden Bereichs, ist auf „M“ gesetzt. Ein LL_stretch_parameter() zur Angabe eines Streckungsschemas ist auf eine lineare Streckung gesetzt und gibt dann an, dass eine lineare Streckung angewandt wird.
  • 13 (a) zeigt ein Beispiel eines ursprünglichen Bilds, bei dem eine Kantenüberschreitung auftritt, da ein Objekt mit negativer Disparität in einem Teil einer linken Kante besteht. Bezugnehmend auf 13(b) wird, um die Kantenüberschreitung des ursprünglichen Bilds zu vermeiden, ein linker Teil des ursprünglichen Bilds beschnitten. Da der LL_crop_width_pixel auf „N“ gesetzt ist, wird ein rechteckiger Bereich vom Pixel „0“ zum Pixel „N - 1‟ beschnitten. Somit weist das ursprüngliche Bild mit einer Auflösung „1920 * 1080“ eine Auflösung von „(1920-N) * 1080“ auf.
  • 13 (c) gibt ein Verfahren zum Berechnen eines zu streckenden Bereichs an. Der zu streckende Bereich kann ein rechteckiger Bereich werden, der ein Gebiet von LL_stretch_width_pixel mit dem LL_stretch_start_pixel als einem Anfangspunkt aufweist. Insbesondere kann der rechteckige Bereich ausgehend von einem Pixel „L“ bis zu einem Pixel „(L+M-1)“ als der zu streckende Bereich bestimmt sein.
  • 13 (d) ist ein Schaubild eines linken Bilds als Ergebnis der Streckung. Wie zu sehen ist, wird der rechteckige Bereich ausgehend von einem Pixel „L“ bis zu einem Pixel (L+M-1)‟ geändert zu einem rechteckigen Bereich ausgehend von einem „Pixel „L“ bis zu einem Pixel „N+L+M-1“ durch Strecken in eine linke/rechte Richtung. Somit wird das linke Bild mit einer Auflösung von „(1920-N) * 1080“, das in 13(b) beschnitten wurde, wiederhergestellt mit der Auflösung des ursprünglichen Bilds, welche „1920 * 1080“ entspricht.
  • 14 ist ein Schaubild einer empfängerseitigen Verarbeitung einer Kantenüberschreitung mittels Beschneiden und Strecken gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Ein Verfahren zur Anwendung einer Kantenbehandlung kann ein Verfahren zur direkten Bearbeitung von Videodaten in einem Verfahren zur Videodatennachverarbeitung einsetzen. Wie in 14 gezeigt, können die Videodaten bearbeitet werden durch ein Unterteilen der Videodaten in ein linkes Bild und ein rechtes Bild und durch Durchlaufen eines Steuerungsblocks für jedes der Bilder.
  • Ferner ist es hinsichtlich eines anderen Aspekts notwendig, eine Skalierung abzugleichen, falls ein Bildskalierungsverfahren auftritt oder falls eine Auflösung des Inhalteformats (von Seite zu Seite, von oben nach unten, und dergleichen), das durch ein abgetastetes linkes/rechtes Bild gebildet ist, von der ursprünglich beabsichtigten Auflösung abweicht, da ein Niveau des Inhalteformats vom Niveau der durch die Kantenbearbeitung referenzierten Fenstergröße abweichen kann.
  • Insbesondere basiert im Fall eines sich von Seite zu Seite erstreckenden 3D-Inhalts der Auflösung „1920 * 1080“ eine zu übertragende, die Kantenbearbeitung betreffende Pixelinformation auf einem Bildschirm mit „960 * 1080“. Somit sollte, falls eine Kantenbearbeitung angewandt wird nachdem jeweils das linke Bild und das rechte Bild auf „1920 * 1080“ hochskaliert wurden, der übermittelte Pixelbreitenwert der Kantenbearbeitung durch doppeltes Hochskalieren angewandt werden.
  • Gemäß einem anderen Ausführungsbeispiel der Signalübermittlung kann ein Kantenbearbeitungsparameter auf Grundlage einer Videoauflösung gesendet werden, unabhängig von der Streckung von Seite zu Seite. In diesem Fall darf eine doppelte Hochskalierung nicht ausgeführt werden, wenn eine Anzeige in der Praxis angewandt wird.
  • Gemäß einem weiteren verschiedenen Ausführungsbeispiel kann ermöglicht sein, ein Verfahren zum Senden eines Kantenbearbeitungsparameters für eine feste Referenzauflösung (z.B. eine horizontale Auflösung von „1920“) zu verwenden.
  • Eine Empfangsvorrichtung für ein digitales Übertragungssignal gemäß der vorliegenden Erfindung umfasst einen Abstimmer 50, einen Demultiplexierer (TP Demux) 52, einen Systeminformationsprozessor (SI-Prozessor) 54, einen Audio/Bild-Decoder 56, eine Bildbeschneidungseinheit 62a/62b, eine Bildstreckungseinheit (Lokalstreckung) 63a/63b, eine Grafikfunktionseinheit 65, eine Bildschirmanzeige (On Screen Display, OSD) 67a/67b, eine Bildauswahlvorrichtung 64a/64b und einen Formatierer 69.
  • Falls ein digitales Übertragungssignal durch den Abstimmer 50 empfangen wird, wird das Übertragungssignal durch den Demultiplexer 52 demultiplexiert. Aus den demultiplexierten Übertragungssignalen wird die SI-Information durch den SI-Prozessor 54 verarbeitet und das Audio/Bild-Signal wird an den A/V-Decoder 56 eingegeben.
  • Der A/V-Decoder 56 decodiert einen Videokopf und einen Zusatzkopf 59 und entnimmt dann die Information, ob die empfangsseitige Vorrichtung ein Schema eines gleitenden Fensters oder ein Schema einer vertikalen Kantenbehandlung anwendet. Ferner decodiert der A/V-Decoder 56 ein 3D-Bild über eine Videocodierungsschicht 58.
  • Falls das Schema der vertikalen Kantenbehandlung angewandt wird, werden Freigabe 1 und Freigabe 4 61a/61b aktiviert und dann arbeiten die Bildbeschneidungseinheit 62a/62b und die Bildstreckungseinheit 63a/63b. Die Bildbeschneidungseinheit 62a/62b und die Bildstreckungseinheit 63a/63b arbeiten durch Empfangen eines von dem A/V-Decoder 56 decodierten Videokopfs und eines Beschneidungs- und Streckungsparameters für die vertikale Kantenbearbeitung, der in dem Zusatzkopf 59 enthalten ist.
  • Ein Teil eines decodierten linken Bilds 60a und ein Teil eines decodierten rechten Bilds 60b werden beschnitten auf Grundlage eines von der Bildbeschneidungseinheit 62a/62b eingegebenen Parameters. Das beschnittene linke und das rechte Bild werden an die Bildstreckungseinheiten 63a bzw. 63b eingegeben und werden dann auf die vor Ausführung der Beschneidung gemäß dem eingegebenen Parameter bestehende Auflösung gestreckt. In diesem Fall können die Bildbeschneidungseinheit 62a/62b und die Bildstreckungseinheit 63a/63b betrieben werden in Kombination mit einer (bzw. Integration in eine) Bildaufbereitungseinheit.
  • Falls das Schema des gleitenden Fensters angewandt wird, werden Freigabe 2 und Freigabe 3 61b/61c aktiviert und es nehmen dann die Grafikfunktionseinheit 65 und die Bildschirmanzeige 67a/67b den Betrieb auf. Die Grafikfunktionseinheit 65 bestimmt eine Größe, Farbe, Transparenz und dergleichen eines gleitenden Fensters durch Empfangen einer Eingabe eines decodierten Videokopfs und Information zum gleitenden Fenster, die in dem Zusatzkopf 59 enthalten sind, und erzeugt dann das gleitende Fenster. Das OSD 67a/67b zeigt das gleitende Fenster durch Überlagern des decodierten linken/rechten Bilds 60a/60b mit dem erzeugten gleitenden Fenster an.
  • Die Bedeutung der vorgenannten Freigabe N (N = 1, ..., 4) ist wie folgt. Die Freigabe 1 bedeutet, dass Beschneidung und Streckung auf ein linkes Bild angewandt werden. Die Freigabe 2 bedeutet, dass ein gleitendes Fenster auf das linke Bild angewandt wird. Die Freigabe 3 bedeutet, dass ein gleitendes Fenster auf ein rechtes Bild angewandt wird. Die Freigabe 4 bedeutet, dass die Beschneidung und Streckung auf das rechte Bild angewandt werden.
  • Eine linke und rechte Bildauswahlvorrichtung 64a/64b wählt ein Bild gemäß dem jeweiligen Fall aus und übermittelt das Bild dem Formatierer 69. Zum Beispiel wird, falls das Schema des gleitenden Fensters verwendet wird, ein decodiertes Bild, das mit einem gleitenden Fenster überlagert ist, in den Formatierer eingegeben. Falls das Schema der vertikalen Kantenbehandlung (Beschneiden und Strecken) verwendet wird, wird ein korrigiertes Bild, auf das das Beschneiden und Strecken angewandt ist, dem Formatierer eingegeben. Falls ein vorverarbeitetes Bild eingegeben wird oder falls sowohl das gleitende Fenster als auch die vertikale Kantenbehandlung ausgeschaltet sind, wird ein vom Audio/Bild-Decodierer 56 ausgegebenes Bild direkt zum Formatierer 69 eingegeben, da eine gesonderte Tätigkeit nicht notwendig ist.
  • Der Formatierer gibt ein 3D-Bild durch Kombinieren des eingegebenen linken und rechten Bilds aus.
  • AUSFÜHRUNGSFORM DER ERFINDUNG
  • Wie in vorstehender Beschreibung erwähnt, sind ähnliche Ausführungsbeispiele im bevorzugten Ausführungsbeispiel der Erfindung beschrieben.
  • GEWERBELICHE ANWENDBARKEIT
  • Wie in vorstehender Beschreibung erwähnt, kann die vorliegende Erfindung auf ein digitales Übertragungssystem als Ganzes oder teilweise angewandt bzw. eingesetzt werden.

Claims (12)

  1. Empfangsvorrichtung für digitales Übertragungssignal, die ein stereoskopisches 3-dimensionales Bild bereitstellt, umfassend: einen Abstimmer (50), der zum Empfangen eines digitalen Übertragungssignals ausgebildet ist, das ein stereoskopisches 3-dimensionales Bildsignal mit einer Kantenbearbeitungsinformation enthält; einen Demultiplexer (52), der zum Demultiplexieren des empfangenen digitalen Übertragungssignals ausgebildet ist; einen Decoder (56), der zum Entnehmen ursprünglicher Bilder und der Kantenbearbeitungsinformation durch Decodieren des 3-dimensionalen Bildsignals aus dem demultiplexierten Übertragungssignal ausgebildet ist; eine Bildaufbereitungseinheit (62a/62b, 63a/63b), die zum Aufbereiten von Bildern durch Beschneiden eines ersten Bereichs, welcher einem Rand entspricht, an welchem Kantenüberschreitung auftritt, und Strecken eines zweiten Bereichs, welcher einem Teil eines verbleibenden Bereichs der ursprünglichen Bilder entspricht, unter Verwendung der Kantenbearbeitungsinformation ausgebildet ist; und einen Formatierer (69), der zur Ausgabe eines kantenbearbeiteten, stereoskopischen, 3-dimensionalen Bildsignals durch Empfangen der aufbereiteten Bilder ausgebildet ist.
  2. Die Empfangsvorrichtung für ein digitales Übertragungssignal nach Anspruch 1, ferner umfassend eine Grafikfunktionseinheit (65), die zum Erzeugen eines gleitenden Fensters unter Verwendung der Kantenbearbeitungsinformation ausgebildet ist; eine Bildschirmanzeige (OSD) (67a/67b), die zum Überlagern der ursprünglichen Bilder mit dem erzeugten gleitenden Fenster ausgebildet ist; und eine Bildauswahlvorrichtung (64a/64b), die ausgebildet ist zur wahlweisen Ausgabe an den Formatierer entweder des aufbereiteten Bilds oder des mit dem gleitenden Fenster überlagerten Bilds, wobei der Formatierer zur Ausgabe des kantenbearbeiteten, stereoskopischen, 3-dimensionalen Bildsignals basierend auf den aufbereiteten Bildern oder den mit dem gleitenden Fenster überlagerten Bildern ausgebildet ist.
  3. Die Empfangsvorrichtung für ein digitales Übertragungssignal nach Anspruch 2, wobei die Kantenbearbeitungsinformation zumindest eine Information über die vertikale Kantenbehandlung und/oder das gleitende Fenster umfasst.
  4. Die Empfangsvorrichtung für ein digitales Übertragungssignal nach Anspruch 3, wobei die Information über die vertikale Kantenbehandlung wenigstens eine Information über ein Gebiet eines zu beschneidenden Bereichs, einen Anfangspunkt des Bereichs, ein Gebiet eines zu streckenden Bereichs und/oder ein Streckungsverfahren umfasst.
  5. Die Empfangsvorrichtung für ein digitales Übertragungssignal nach Anspruch 3, wobei die Information über das gleitende Fenster wenigstens eine Information über ein Gebiet des gleitenden Fensters, eine Farbe und/oder eine Transparenz umfasst.
  6. Die Empfangsvorrichtung für ein digitales Übertragungssignal nach Anspruch 2, wobei die Bildaufbereitungseinheit und die OSD dazu ausgebildet sind, außer Funktion zu sein, falls die Kantenbearbeitungsinformation angibt, dass die ursprünglichen Bilder bereits vorverarbeitet sind.
  7. Verfahren zum Empfangen eines digitalen Übertragungssignals, das ein stereoskopisches 3-dimensionales Bild bereitstellt, umfassend die Schritte: Empfangen eines digitalen Übertragungssignals, das ein stereoskopisches 3-dimensionales Bildsignal mit einer Kantenbearbeitungsinformation enthält; Demultiplexieren des empfangenen digitalen Übertragungssignals; Entnehmen ursprünglicher Bilder und der Kantenbearbeitungsinformation durch Decodieren des 3-dimensionalen Bildsignals aus dem demultiplexierten Übertragungssignal; Aufbereiten von Bildern durch Beschneiden eines ersten Bereichs, welcher einem Rand entspricht, an welchem Kantenüberschreitung auftritt, und Strecken eines zweiten Bereichs, welcher einem Teil eines verbleibenden Bereichs der ursprünglichen Bilder entspricht, unter Verwendung der Kantenbearbeitungsinformation; und Ausgeben eines kantenbearbeiteten, stereoskopischen, 3-dimensionalen Bildsignals durch Empfangen der aufbereiteten Bilder.
  8. Das Verfahren nach Anspruch 7, ferner umfassend den Schritt des Erzeugens eines gleitenden Fensters und Überlagern der ursprünglichen Bilder mit dem gleitenden Fenster; und des Auswählens entweder des aufbereiteten Bilds oder des mit dem gleitenden Fenster überlagerten Bilds vor dem Schritt des Ausgebens des 3-dimensionalen Bildsignals, wobei das Ausgeben des kantenbearbeiteten, stereoskopischen, 3-dimensionalen Bildsignals auf den aufbereiteten Bildern oder den mit dem gleitenden Fenster überlagerten Bildern basiert.
  9. Das Verfahren nach Anspruch 8, wobei die Kantenbearbeitungsinformation wenigstens eine Information über eine vertikale Kantenbehandlung und/oder das gleitende Fenster umfasst.
  10. Das Verfahren nach Anspruch 9, wobei die Information über die vertikale Kantenbehandlung wenigstens eine Information über ein Gebiet eines zu beschneidenden Bereichs, einen Anfangspunkt eines zu streckenden Bereichs, ein Gebiet eines zu streckenden Bereichs und/oder ein Streckungsverfahren umfasst.
  11. Das Verfahren nach Anspruch 9, wobei die Information über das gleitende Fenster ein Gebiet des gleitenden Fensters, eine Farbe und/oder eine Transparenz umfasst.
  12. Das Verfahren nach Anspruch 8, wobei der Schritt des Aufbereitens der Bilder oder des Überlagerns des gleitenden Fensters nicht ausgeführt wird, falls die Kantenbearbeitungsinformation angibt, dass die ursprünglichen Bilder bereits vorverarbeitet sind.
DE112012000563.5T 2011-01-25 2012-01-20 Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals Expired - Fee Related DE112012000563B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161435789P 2011-01-25 2011-01-25
US61/435,789 2011-01-25
USUS-61/435,789 2011-01-25
PCT/KR2012/000526 WO2012102522A2 (ko) 2011-01-25 2012-01-20 디지털 방송 신호 송/수신 방법 및 장치

Publications (2)

Publication Number Publication Date
DE112012000563T5 DE112012000563T5 (de) 2013-10-31
DE112012000563B4 true DE112012000563B4 (de) 2021-06-24

Family

ID=46581262

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012000563.5T Expired - Fee Related DE112012000563B4 (de) 2011-01-25 2012-01-20 Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals

Country Status (7)

Country Link
US (1) US9392249B2 (de)
KR (1) KR20140030117A (de)
CN (1) CN103339949B (de)
CA (1) CA2824829C (de)
DE (1) DE112012000563B4 (de)
GB (1) GB2501035B (de)
WO (1) WO2012102522A2 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111352B2 (en) * 2011-12-27 2015-08-18 Avid Technology, Inc. Automated detection and correction of stereoscopic edge violations
EP2914003A4 (de) * 2012-10-25 2016-11-02 Lg Electronics Inc Verfahren und vorrichtung zur verarbeitung eines randübertretungsphänomens in einem mehrfachansichts-3dtv-dienst
CN104767985A (zh) * 2014-01-07 2015-07-08 冠捷投资有限公司 使用区域分布分析以自动检测三维图像格式的方法
CN104811679A (zh) * 2014-01-29 2015-07-29 宏达国际电子股份有限公司 立体图像的调整方法与图像处理装置
US10158904B2 (en) 2015-09-23 2018-12-18 Rovi Guides, Inc. Systems and methods to combine programming from multiple channels
US20170085941A1 (en) * 2015-09-23 2017-03-23 Rovi Guides, Inc. Systems and methods to detect events in programming from multiple channels
EP3528496A1 (de) 2018-02-16 2019-08-21 Ultra-D Coöperatief U.A. Übertastung für eine 3d-anzeige
US10902556B2 (en) * 2018-07-16 2021-01-26 Nvidia Corporation Compensating for disparity variation when viewing captured multi video image streams

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064774A1 (ko) * 2008-12-02 2010-06-10 (주)엘지전자 3차원 영상신호 전송 방법과, 3차원 영상표시 장치 및 그에 있어서의 신호 처리 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
JP2006094083A (ja) 2004-09-24 2006-04-06 Atsushi Aoki Ccd、画像処理手段およびこれらを用いたデジタルカメラ
US8300085B2 (en) * 2005-10-14 2012-10-30 Microsoft Corporation Occlusion handling in stereo imaging
KR100739764B1 (ko) 2005-11-28 2007-07-13 삼성전자주식회사 입체 영상 신호 처리 장치 및 방법
US7679641B2 (en) * 2006-04-07 2010-03-16 Real D Vertical surround parallax correction
KR101114572B1 (ko) * 2008-06-26 2012-02-27 주식회사 이시티 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환방법 및 변환 장치
KR101502419B1 (ko) * 2008-07-11 2015-03-13 삼성디스플레이 주식회사 다시점 영상 표시방법, 이를 수행하기 위한 표시장치
JP2010033367A (ja) 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064774A1 (ko) * 2008-12-02 2010-06-10 (주)엘지전자 3차원 영상신호 전송 방법과, 3차원 영상표시 장치 및 그에 있어서의 신호 처리 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Autodesk®. Stereoscopic Filmmaking Whitepaper. The Business and Technology of Stereoscopic Filmmaking. 2008 Autodesk, Inc. Seiten 1-7. Gefunden im Internet am 24.02.2017 unter folgendem Link:http://images.autodesk.com/latin_am_main/files/stereoscopic_whitepaper_final08.pdf (lediglich zum Beleg der Bedeutung des Fachbegriffs „floating window") *
Klews, N., Stereoskopie im Animationsfilm. Diplomarbeit. Filmuniversität Babelsberg Konrad Wolf. 14.09.2009. Seiten 1-63. Gefunden im Internet am 24.02.2017 unter folgendem Link: https://opus4.kobv.de/opus4-filmuniversitaet/files/64/KlewsDipl.pdf (lediglich zum Beleg der Bedeutung des Fachbegriffs „floating window") *

Also Published As

Publication number Publication date
GB2501035A (en) 2013-10-09
CN103339949A (zh) 2013-10-02
GB2501035B (en) 2017-02-22
DE112012000563T5 (de) 2013-10-31
WO2012102522A2 (ko) 2012-08-02
US20130307928A1 (en) 2013-11-21
US9392249B2 (en) 2016-07-12
KR20140030117A (ko) 2014-03-11
GB201312584D0 (en) 2013-08-28
CA2824829A1 (en) 2012-08-02
CN103339949B (zh) 2016-02-24
WO2012102522A3 (ko) 2012-12-06
CA2824829C (en) 2017-04-25

Similar Documents

Publication Publication Date Title
DE112012000563B4 (de) Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals
DE69628662T2 (de) Bildumwandlungs- und kodierungstechniken
DE69733961T2 (de) Verfahren und vorrichtung zur positionierung zusätzlicher informationen neben einem zusätzlichen bild in einer mehrfachbildanzeige
DE112011103739B4 (de) Empfangsvorrichtung und Verfahren zum Empfang dreidimensionaler Multiview-Sendesignale
WO2008122256A1 (de) Verfahren und anordnung zur dreidimensionalen darstellung
DE102006055641A1 (de) Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
WO2011103866A2 (de) Verfahren zur visualisierung von dreidimensionalen bildern auf einer 3d-anzeigevorrichtung und 3d-anzeigevorrichtung
WO1994024601A1 (de) Wiedergabeeinrichtung
EP2676449B1 (de) Verfahren und vorrichtung zur stereobasis-erweiterung von stereoskopischen bildern und bildfolgen
WO2007056986A1 (de) Verfahren und anordnung zum monoskopischen darstellen wenigstens eines bereiches eines bildes auf einer autostereoskopischen anzeigevorrichtung sowie informationswiedergabegerät mit einer solchen anordnung
DE102010028668B4 (de) Verfahren zur räumlichen Darstellung
DE102013217826A1 (de) Verfahren zum erzeugen, übertragen und empfangen stereoskopischer bilder, und zugehörige geräte
EP3170307B1 (de) Verfahren zur darstellung einer dreidimensionalen szene auf einem autostereoskopischen monitor
DE19545356C2 (de) Vorrichtung zur Darstellung von Stereo-Videobildern
EP2478705A1 (de) Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe
DE112011104584T5 (de) Verfahren und System zur Disparitätsanpassung während stereoskopischen Zoomens
DE102012201564B3 (de) System zur Darstellung stereoskopischer Bilder
WO2010022805A1 (de) Anzeigesystem
EP4008105B1 (de) Verfahren und vorrichtung für eine adaptive disparitätskontrolle
EP2495978A1 (de) Bildwiedergabeverfahren für ein autostereoskopisches Display
EP0567477B1 (de) Verfahren zur wiedergabe dreidimensionaler szenen
DE102011115791A1 (de) 3Devent - stereoskopisches Aufnahme und Wiedergabe-Verfahren zur wirklichkeitsgetreuen Wahrnehmung eines Live-Ereignisses an einem Ort, der ein anderer ist, als der Ort an dem das Ereignis stattfindet

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0013040000

Ipc: H04N0013300000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee