DE60014420T2 - Verfahren zur 2d/3d videoumwandlung - Google Patents

Verfahren zur 2d/3d videoumwandlung Download PDF

Info

Publication number
DE60014420T2
DE60014420T2 DE60014420T DE60014420T DE60014420T2 DE 60014420 T2 DE60014420 T2 DE 60014420T2 DE 60014420 T DE60014420 T DE 60014420T DE 60014420 T DE60014420 T DE 60014420T DE 60014420 T2 DE60014420 T2 DE 60014420T2
Authority
DE
Germany
Prior art keywords
phase
parallax
depth
image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60014420T
Other languages
English (en)
Other versions
DE60014420D1 (de
Inventor
Syugo Yamashita
Haruhiko Murata
Toshiya Iinuma
Mitsuo Daito-shi NAKASHIMA
Takayuki Daito-shi MORI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000109211A external-priority patent/JP2001320731A/ja
Priority claimed from JP2000109210A external-priority patent/JP4036599B2/ja
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Application granted granted Critical
Publication of DE60014420D1 publication Critical patent/DE60014420D1/de
Publication of DE60014420T2 publication Critical patent/DE60014420T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video.
  • Ein Verfahren zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video ist aus WO99/12127 bekannt.
  • Als Verfahren zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video sind auch Verfahren bekannt, die in JP-A-9-107562 und JP-A-10-51812 offenbart sind.
  • Zunächst werden die Grundzüge des Verfahrens zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video, das in JP-A-9-107562 offenbart ist, auf der Basis von 1 beschrieben.
  • In einem zweidimensionalen Video (2D-Video) soll eine Situation, in der ein Vogel vor einem Berg von links nach rechts fliegt, aufgenommen werden, wie in den Bildern 1 bis 5 dargestellt ist.
  • Ein Bewegungsvektor zwischen Bildern, zum Beispiel ein Bewegungsvektor im Falle eines Übergangs von Bild 1 zu Bild 2 oder ein Bewegungsvektor für einen Übergang von Bild 2 zu Bild 3, wird für jede von mehreren Bewegungsvektorerfassungsflächen extrahiert, die in einem Bildschirm eingestellt sind. Dann werden aus dem extrahierten Bewegungsvektor eine Gegenstandsfläche (Vogel) und eine Hintergrundfläche (Berg) bestimmt. Ein Referenzbild wird als Bild des rechten Auges oder Bild des linken Auges bestimmt, und ein Bild, das um mehrere Felder verzögert ist, die der Größe des Bewegungsvektors entsprechen, wird als das Bild des anderen Auges bestimmt, so dass ein Gegenstand vor einem Hintergrund angeordnet ist.
  • Wenn angenommen wird, dass das gegenwärtige Bild, das das Referenzbild darstellt, das Bild 4 ist, und ein Bild (ein verzögertes Bild), das abhängig von der Größe eines Bewegungsvektors, der von dem Bild 3 und dem Bild 4 erhalten wird, um eine vorbestimmte Anzahl von Feldern verzögert ist, Bild 2 ist, werden das Referenzbild (das Bild 4) und das verzögerte Bild (das Bild 2) als Bild des linken Auges beziehungsweise Bild des rechten Auges in Richtung des Bewegungsvektors präsentiert.
  • Die Operationen werden wiederholt durchgeführt, wodurch ein Video mit stereoskopischer Wirkung gezeigt wird, das heißt, ein dreidimensionales Video. Dieses Verfahren soll als MTD-Methode bezeichnet werden.
  • Es wird nun das Konzept des Verfahrens zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video beschrieben, das in JP-A-10-51812 offenbart ist.
  • Zunächst wird ein zweidimensionales Bild in mehrere Flächen unterteilt und Bildmerkmale, wie eine Chrominanzkomponente, eine Hochfrequenzkomponente und ein Kontrast, werden für jede der Flächen extrahiert, die durch die Teilung erhalten werden. Die Flächen, die durch die Teilung erhalten werden, werden dann auf der Basis der Chrominanzkomponente nach Flächen gruppiert, zu denen dasselbe Objekt gehört. Für die Flächen, die durch die Gruppierung erhalten werden, wird abhängig von Informationen, die sich auf den durchschnittlichen Kontrast und die durchschnittliche Hochfrequenzkomponente in den Flächen beziehen, eine Tiefe geschätzt, um eine Parallaxe zu berechnen. Ein Bild des linken Auges und ein Bild des rechten Auges werden horizontal in entgegengesetzte Richtungen für die durch die Gruppierung erhaltenen Flächen auf der Basis der berechneten Parallaxe verschoben, um ein dreidimensionales Video zu erzeugen.
  • Das Video des linken Auges und das Video des rechten Auges, die dadurch hergestellt werden, werden stereoskopisch auf stereoskopischen Anzeigemitteln gezeigt. Dieses Verfahren wird als CID-Methode bezeichnet.
  • Die MTD-Methode und die CID-Methode werden ausführlicher beschrieben.
  • 1. MTD-Methode
  • Bei der MTD-Methode wird ein Video, das entweder in das rechte oder linke Auge eintritt, abhängig von seiner Bewegung auf einem Bildschirm verzögert, um einen stereoskopischen Effekt zu erzielen. In diesem Fall wird eine Feld-Verzögerung (als Sollwert) (eine Sollverzögerung dly_target), die für das Video am geeignetsten ist, durch folgende Gleichung (1) unter Verwendung eines Durchschnitts horizontaler Vektoren in einer Gegenstandsfläche obj_xvec [pixel/field] und eines horizontalen Vektors in einer Hintergrundfläche area bg_xvec [pixel/field], die durch eine Gegenstand/Hintergrund-Beurteilung erhalten werden, bestimmt. Der Vektor nimmt einen positiven Wert in Bezug auf eine Bewegung nach rechts an. dly_target = Mdly_sisa/(obj_xvec – bg_xvec)[field] (1)
  • Hier gibt Mdly_sisa eine Parallaxe [pixel] zur Bestimmung eines stereoskopischen Effekts an, die durch die MTD-Methode erzeugt wird, und ihr Wert wird im Voraus durch eine Benutzerschnittstelle oder dergleichen eingestellt.
  • Die Richtung der Verzögerung, die zeigt, welches der Videos, die in das rechte und linke Auge treten, verzögert sein sollte, wird durch die folgende Gleichung (2) unter Verwendung der Sollverzögerung dly_target bestimmt. dly_target > 0 ... Verzögerung des rechten Auges dly_target < 0 ... Verzögerung des linken Auges dly_target = 0 ... keine Verzögerung (2)
  • Obwohl die Verzögerung beschrieben wurde, wird, wenn die Sollverzögerung der Einfachheit wegen als Beispiel genommen wird, die Anzahl von Feldern, um die das Video verzögert wird, und die Richtung der Verzögerung durch eine reale Verzögerung bestimmt, die durch Glätten der Sollverzögerung auf einer Zeitbasis erhalten wird.
  • 2. Gegenstandspositionskontrolle
  • Die Gegenstandspositionskontrolle wird verwendet, um eine Unbestimmtheit hinsichtlich der Position, in der ein Objekt relativ zu einem Bildschirm präsentiert wird, zu korrigieren, die entsteht, wenn die MTD-Methode durchgeführt wird. Das heißt, bei der MTD-Methode wird ein Video anders gesehen, abhängig davon, ob sich ein Gegenstand oder ein Hintergrund bewegt, wie in 2 dargestellt. Wenn sich in der Gegenstandspositionskontrolle der Gegenstand bewegt, wird der gesamte Bildschirm nach hinten bewegt, indem die Position, an der ein Video des rechten Auges dargestellt wird, nach rechts verschoben wird, und die Position an der ein Video des linken Auges dargestellt wird, nach links verschoben wird, so dass die Anzahl von Pixeln von dem Gegenstand zum Bildschirm gleich der Anzahl von Pixeln vom Bildschirm zum Hintergrund ist. Wenn sich andererseits der Hintergrund bewegt, wird der gesamte Bildschirm nach vorne bewegt, indem die Position, an der ein Video des rechten Auges dargestellt wird, nach links verschoben wird, und die Position an der ein Video des linken Auges dargestellt wird, nach rechts verschoben wird, so dass die Anzahl von Pixeln von dem Gegenstand zum Bildschirm gleich der Anzahl von Pixeln vom Bildschirm zum Hintergrund ist.
  • Eine horizontale Phase t_phr des rechten Auges und eine horizontale Phase t_phl des linken Auges, die von der Gegenstandspositionskontrolle berechnet werden, können durch die folgende Gleichung (4) ausgedrückt werden, wenn eine Phase obj_sisa des Gegenstands und eine Phase bg_sisa des Hintergrunds, die durch eine Feldverzögerung erzeugt werden, durch die folgende Gleichung (3) ausgedrückt werden: obj_sisa = obj_xvec·delay [pixel] obj_sisa = bg_xvec·delay [pixel] (3) t_phr = (obj_sisa + bg_sisa)/2[pixel] t_phl = –t_phr [pixel] (4)
  • Da die reale Verzögerung durch Glätten der Sollverzögerung dly_target auf einer Zeitbasis erhalten wird, stimmt der absolute Wert einer Parallaxe dly_sisa (= obj_sisa – bg_sisa) [pixel], der durch die MTD-Methode erzeugt wird (dly_sisa nimmt einen positiven Wert an, wenn der Gegenstand hervorgehoben wird, während es einen negativen Wert annimmt, wenn er vertieft wird), nicht vollständig mit Mdly_sisa [pixel] überein, der zuvor durch Benutzereinstellung bestimmt wurde. Wenn keine Ver zögerung vorhanden ist (dly_taret = 0), gilt dly_sisa = 0.
  • 3. CID-Methode
  • Die CID-Methode ist ein Verfahren zum Unterteilen eines Bildschirms in mehrere Flächen, Schätzen der Tiefe jeder der Flächen anhand von Bildinformationen, die von der Fläche und einer Komposition erhalten wurden, und Verschieben jedes der Pixels in dem Bildschirm auf der Basis der geschätzten Tiefe, um eine binokulare Parallaxe zu erzeugen.
  • Die Anmelderin der vorliegenden Erfindung hat auch eine CID-Methode entwickelt, die eine weitere Verbesserung der bereits entwickelten CID-Methode ist.
  • 3 zeigt die Prozedur für eine Steuerung bei der CID-Methode nach der Verbesserung (die nicht bekannt ist).
  • Zunächst wird ein Bildschirm in mehrere Flächen unterteilt und Informationen in Bezug auf eine Hochfrequenz, einen Kontrast der Luminanz und eine Chrominanz-(B-Y, R-Y) Komponente von jeder der Flächen erhalten (Schritt 1). Eine Tiefenschätzung für jede der Flächen, die anhand der Informationen und der Komposition geschätzt wird, wird ermittelt (Schritt 2). Wenn die ermittelte Tiefenschätzung nur in ein Verschiebungsmaß umgewandelt wird, wäre eine Verzerrung in einem umgewandelten Bild erkennbar, so dass eine Verzerrungsunterdrückungsverarbeitung durchgeführt wird (Schritt 3). Die Tiefenschätzung nach der Verzerrungsunterdrückungsverarbeitung wird einer Abstandsskala-Umwandlung unterzogen (Schritt 4).
  • Die Verzerrungsunterdrückungsverarbeitung wird nun beschrieben. In der CID-Methode wird ein 2D-Bild verformt, um linke und rechte Bilder zu erzeugen. Wenn die Verformung zu groß ist, wird ein unnatürliches Video erhalten. Bei der CID-Methode wird daher eine Steuerung derart ausgeführt, dass die Phasendifferenz zwischen den benachbarten Flächen nicht größer als ein zulässiger Verzerrungsbereich h_supp_lev [Pixel] eines umgewandelten Bildes ist, der zuvor von einem Benutzer bestimmt wurde. Das heißt, die Phasendifferenz zwischen den benachbarten Flächen wird aus Phasen für die Flächen ermittelt, die durch Zuordnen der geschätzten Tiefe zu dem Abstand zwischen Mfront und Mrear ermittelt werden. Der Maximalwert der Differenz wird als h_dv_max [pixel] angegeben. Wenn h_dv_max den zulässigen Verzerrungsbereich h_supp_lev [pixel] überschreitet, werden Mfront und Mrear in Richtung näher zu 0 [Pixel] verringert, bis die folgende Gleichung (5) erfüllt ist: h_dv_max ≤ h_supp_lev (5)
  • Wenn h_dv_max größer als h_supp_lev ist, werden daher eine Hervorhebungsphase front [Pixel] und eine Vertiefungsphase rear [Pixel] des umgewandelten Bildes kleiner gemacht als die maximale Hervorhebungsphase Mfront [Pixel] und die maximale Vertiefungsphase Mrear [Pixel], die zuvor vom Benutzer durch einer lineare Operation bestimmt wurden, die durch die folgende Gleichung (6) ausgedrückt wird, wie in einem Diagramm an der rechten Seite von 4 dargestellt ist. front = Mfront·h_supp_lev/h_dv_max für h_dv_max > h_supp_lev rear = Mrear·h_supp_lev/h_dv_max für h_dv_max > h_supp_lev (6)
  • Wenn im Gegensatz dazu h_dv_max kleiner als h_supp_lev ist, liegt die Verzerrung des umgewandelten Bildes innerhalb des zulässigen Bereichs. Daher gilt die folgende Gleichung (7), wie in einer Zeichnung auf der linken Seite der 4 dargestellt ist: front = Mfront für h_dv_max ≤ h_supp_lev rear = Mrear für h_dv_max ≤ h_supp_lev (7)
  • Das heißt, wenn h_dv_max kleiner als h_supp_lev ist, ist ein dynamischer Bereich dv_range (= front – rear) in der Phase des umgewandelten Videos gleich einem dynamischen Bereich Mdv_range (= Mfront – Mrear) in der Phase, der zuvor vom Benutzer bestimmt wurde.
  • In der Verzerrungsunterdrückungsverarbeitung zum Unterdrücken des dynamischen Bereichs in einer realen Maschine wird h_supp_lev durch eine Einheit einer geschätzten Tiefe ersetzt, um eine Last an einer CPU (zentralen Rechnereinheit) zu verringern. Der Einfachheit wegen wurde die Beschreibung jedoch unter Verwendung eines Einheitssystems von Pixeln gemacht.
  • Es wird ein Abstandsskala-Umwandlungsverfahren beschrieben.
  • Bei einer stereoskopischen Zweilinsen-Anzeige stehen eine Parallaxe W zwischen entsprechenden Punkten eines Bildes des rechten Auges (eines R-Bildes) und eines Bildes des linken Auges (eines L-Bildes) und ein Abstand Yp von einem Bildschirm, der tatsächlich betrachtet wird, zu einer Position, wo die Bilder miteinander verschmelzen, in einem nichtlinearen Verhältnis.
  • Das heißt, wenn das R-Bild und das L-Bild, zwischen denen eine Parallaxe (W) auf dem Bildschirm der Anzeige liegt, von einer Position betrachtet wird, die einen Abstand K [mm] vom Bildschirm entfernt ist, wird der Abstand Yp [mm] von dem Bildschirm zu der Position, wo die Bilder miteinander verschmelzen, durch die folgende Gleichung (8) ausgedrückt: Yp = KW/(W – 2E) (8)
  • In der vorstehenden Gleichung (8) stellen die Variablen jeweils die folgenden Werte dar:
  • K:
    einen Abstand [mm] vom Bildschirm der Anzeige zum Betrachter
    E:
    eine Länge [mm], die den halben Abstand zwischen den Augen beträgt
    W:
    eine Parallaxe [mm] zwischen den entsprechenden Punkten des Bildes des rechten Auges und des Bildes des linken Auges auf dem Bildschirm der Anzeige
    Yp:
    einen Abstand [mm] vom Bildschirm zu der Position, wo die Bilder miteinander verschmelzen
  • Soweit die vorstehende Gleichung (8) graphisch in 5 dargestellt ist, sei angenommen, dass K = 1000 mm und 2E = 65 mm ist.
  • 5 zeigt, dass eine räumliche Verzerrung in Bildern, die miteinander verschmolzen werden sollen, nur durch lineares Austauschen einer Tiefenschätzung durch eine Einheit von Pixeln nicht verhindert werden kann. In einem Abstandsskala-Verfahren wird daher die Tiefenschätzung in die Einheit von Pixeln unter Berücksichtigung der räumlichen Verzerrung umgewandelt.
  • Das Abstandsskala-Umwandlungsverfahren wird kurz beschrieben.
  • Die Breite eines Pixels auf der Anzeige wird als U [mm] angenommen. Wenn angenommen wird, dass eine Parallaxe W vorhanden ist, die α Pixeln zwischen den entsprechenden Punkten entspricht, wird die Parallaxe W durch die folgende Gleichung (9) ausgedrückt: W = αU (9)
  • Durch Einsetzen der vorstehenden Gleichung (9) in die vorstehende Gleichung (8) wird das Verhältnis zwischen den Pixeln und der Position, wo die Bilder miteinander verschmolzen werden, ermittelt, wie dies durch die folgende Gleichung (10) ausgedrückt wird: Yp = KαU/(αU – 2E) (10)
  • Ferner wird die vorangehende Gleichung (10) umgeformt, um die folgende Gleichung (11) zu erhalten: α = 2E·Yp/{(Yp – K)U} (11)
  • Wenn bei einer vollständigen Abstandsskala-Umwandlung, mit einem maximalen Hervorhebungsmaß Ymax' vom Bildschirm und einem maximalen Vertiefungsmaß Ymin' vom Bildschirm, eine Tiefenschätzung depth (mit einem Wert von 0 bis 100) bestimmt wird, kann eine entsprechende Tiefe Yp durch eine einfache Skalaumwandlung erhalten werden, die durch die folgende Gleichung (12) ausgedrückt ist: Yp = (Ymax' – Ymin') × depth/100 (12)
  • Eine Parallaxe α, die Yp entspricht, wird durch die vorstehende Gleichung (11) ermittelt. Folglich kann die Tiefenschätzung in eine Einheit von Pixeln unter Berücksichtigung der räumlichen Verzerrung umgewandelt werden.
  • Wenn bei der vollständigen Abstandsskala-Umwandlung eine 256-stufige Parallaxen-Umwandlungstabelle W'' verwendet wird, wird der Raum zwischen Ymax' und Ymin' zunächst in 256 gleiche Unterteilungen geteilt und eine entsprechende Parallaxen-Umwandlungstabelle W'' [pixel] für jede Tiefe Yp auf der Basis der vorstehenden Gleichung (11) ermittelt.
  • In diesem Fall ist W'' [255] eine Parallaxe, die Ymax' entspricht, und W'' [0] ist eine Parallaxe, die Ymin' entspricht. Wenn die Tiefeschätzung depth bestimmt wird, wird eine entsprechenden Parallaxe α aus der folgenden Gleichung (13) ermittelt: α = W'' [lev] (13)
  • Hier gibt lev die Anzahl von Stufen auf der Parallaxen-Umwandlungstabelle an und wird durch die folgende Gleichung (14) ausgedrückt: lev = 255 × depth/100 (14)
  • Obwohl das vollständige Abstandsskala-Umwandlungsverfahren bei der 2D/3D-Umwandlung beschreiben wird, weist das Verfahren zwei Probleme auf, die in der Folge beschrieben sind:
    • (1) Wenn das maximale Herorhebungsmaß Ymax' erhöht wird, bis die Tiefe Yp gesättigt ist, wird die Verzerrung des umgewandelten Bildes selbst (die Verzerrung des R-Bildes selbst und des L-Bildes selbst) in einem Abschnitt mit einer Tiefe in der Nähe von Ymax' erhöht.
    • (2) Wenn ein Versuch zur Vergrößerung eines dynamischen Bereichs in einem Tiefenreproduktionsraum vorgenommen wird, gibt es keine Alternative als die Verringerung des maximalen Vertiefungsmaßes Ymin'. Daher wird ein Bereich, der vom Bildschirm nach vorne hervorgehoben wird, deutlich verringert.
  • Zur Vermeidung des oben genannten Problems muss die Umwandlung unter Verwendung nur eines Bereichs durchgeführt werden, wo es bestimmter Grad an Proportionalität zwischen einer Tiefe und einer Parallaxe besteht. Dieses bewirkt jedoch, dass die vollständige Verzerrungsskala-Umwandlung annähernd dieselbe ist wie die Pixel-Skala-Umwandlung. Daher kann nicht mehr länger einfach behauptet werden, dass die vollständige Abstandsskala-Umwandlung nützlich ist, da eine komplizierte Verarbeitung durchgeführt wird.
  • Daher wurde die Polygonlinienabstandsskala-Umwandlung entwickelt, die als nächste vorgestellt wird. Bei der Polygonlinienabstandsskala-Umwandlung wird ein Verhältnis des Hervorhebungsmaßes C [%] eingeführt, um den Raum von Ymax' zu 0 in 255·C/100 in gleiche Abschnitte zu teilen, und den Raum von 0 zu Ymin' in 255{(1 – C)/100} gleiche Abschnitte zu teilen, wodurch eine Parallaxen- Umwandlungstabelle erhalten wird, wie sie in 7 dargestellt ist.
  • Das heißt, das Verhältnis des Hervorhebungsmaßes C wird gesteuert, wodurch es möglich wird, ein Hervorhebungsmaß vorwärts von dem Bildschirm zu ändern und die Verzerrung des umgewandelten Bildes selbst in einem Abschnitt zu unterdrücken, wo das Hervorhebungsmaß sein Maximum erreicht. In der Polygonlinienabstandsskala-Umwandlung ist eine Gleichung, die der vorangehenden Gleichung (12) entspricht, die folgende Gleichung (15): Yp = Ymax' × {depth – (100 – C)}/C für depth ≥ (100 – C) Yp = {–Ymin' × depth/(100 – C)}/C + Ymin' für depth < C (15)
  • Ferner ist eine Gleichung, die der vorstehenden Gleichung (14) entspricht, die die Anzahl von Stufen auf der Parallaxen-Umwandlungstabelle W'' darstellt, die folgende Gleichung (16): lev = (255 – Dlev) × {depth – (100 – C)}/C + Dlev für depth ≥ (100 – C) lev = Dlev × depth/(100 – C) für depth < (100 – C) (16)
  • Hier ist dlev durch die folgende Gleichung (17) definiert und stellt die Anzahl von Stufen auf der Parallaxen-Umwandlungstabelle dar, die dem Bildschirm entspricht: Dlev = (100 – C) × 255/100 (17)
  • Die Polygonlinienabstandsskala-Umwandlung wird so ausgeführt, dass keine räumliche Verzerrung vor und hinter dem Bildschirm eintritt. Anders gesagt, eine räumliche Verzerrung tritt auf dem Bildschirm ein. Dies beruht auf der Hypothese, dass die räumliche Verzerrung in der Nähe des Bildschirms nach der Aussage "wenn ein stereoskopisches Video betrachtet wird, unterscheidet sich die Art, wie ein Video gesehen wird, vor und hinter dem Bildschirm", die von vielen Zusehern erhalten wird, am schwierigsten zu verstehen ist.
  • Als tatsächlich verwendete Werte werden Ymax', Ymin' und C so bestimmt, dass die Neigung (die Stufenbreite) der Tiefenparallaxen-Umwandlungstabelle sich vor und hinter dem Bildschirm nicht stark unterscheidet.
  • Außerdem ist die oben genannte Verzerrungsunterdrückungsverarbeitung unter Verwendung der linearen Operation für die Pixel-Skala-Umwandlung effektiv. Es kann jedoch nicht behauptet werden, dass sie für die Abstandsskala-Umwandlung effektiv ist, Der Grund dafür ist, dass die Abstandsskala-Umwandlung solche Eigenschaften hat, dass sich die Parallaxe vor und hinter dem Bildschirm deutlich unterscheidet, selbst wenn die Tiefenschätzung dieselbe ist, zum Beispiel "1", da die Tiefe Yp und die Parallaxe W [pixel] nichtlinear sind. Diese Tendenz wird bei einer Großbildbildschirmanzeige signifikant. Bei der Polygonlinienabstandsskala, die eine Verbesserung der vollständigen Abstandsskala darstellt, wird das Verhältnis des Hervorhebungsmaßes C eingeführt, selbst im Sinne einer Verminderung der Eigenschaften.
  • Selbst bei der Polygonlinienabstandsskala, die zur Steuerung des Verhältnisses des Hervorhebungsmaßes C imstande ist, kann jedoch der Maximalwert h_dv_max [pixel] der Phasendifferenz zwischen den benachbarten Flächen nicht vollständig in dem zulässigen Verzerrungsbereich h_supp_lev [pixel] unterdrückt werden (das Prinzip der Unterdrückung einer Verzerrung in einer Pixel- Skala kann nicht genau ausgeführt werden). Zur Ausführung des Prinzips einer Unterdrückung einer Verzerrung muss die Verzerrungsunterdrückungsverarbeitung nach der Abstandsskala-Umwandlung durchgeführt werden.
  • 4. Gleichzeitige Anwendung der MTD-Methode und der CID-Methode
  • Im Allgemeinen hat ein Mensch bei einem stereoskopischen Bild ein Gefühl für Abstand, zum Beispiel durch die Differenz zwischen Abschnitten im toten Winkel (Okklusion) von Bildern, die in sein oder ihr rechtes beziehungsweise linkes Auge eintreffen, die zum Beispiel durch die Differenz zwischen Positionen des rechten und linken Auges verursacht werden. In diesem Sinne kann das Gefühl für Abstand oder dergleichen von der MTD-Methode abgedeckt werden. Andererseits kann ein Video, das sich nicht bewegt, oder ein Video, dessen Bewegung kompliziert ist, nicht zufriedenstellend in ein dreidimensionales Video umgewandelt werden. Bei der CID-Methode kann eine Parallaxe zwischen dem Bild des rechten und des linken Auges frei geändert werden. Anderseits kann einem Menschen ein Video nicht so gezeigt werden, als ob seine Abschnitte im toten Winkel, die als Schatten eines Gegenstands dienen, anders wären, abhängig von der Parallaxe in seinem oder ihrem rechten und linken Auge.
  • Daher wird überlegt, dass die 2D/3D-Umwandlung unter gleichzeitiger Verwendung der MTD-Methode, die für ein bewegtes Bild effektiv ist, und der CID-Methode, die auch ein Standbild umwandeln kann, durchgeführt wird. In diesem Fall wird angenommen, dass eine Parallaxe, die durch die MTD-Methode erhalten wird, und eine Parallaxe, die durch die CID-Methode erhalten wird, einfach addiert werden.
  • Die Parallaxe, die durch die MTD-Methode erhalten wird, und die Parallaxe, die durch die CID-Methode erhalten wird, werden jedoch einzeln gesteuert. Daher hängt die Parallaxe, die durch die Umwandlung erzeugt wird, deutlich von dem Vorhandensein oder Fehlen einer Bewegung des eingegebenen Videos ab. Das heißt, wenn das Eingangs-Video ein bewegtes Bild ist, werden eine Parallaxe, die durch die MTD-Methode erhalten wird, und eine Parallaxe, die durch die CID-Methode erhalten wird, auf einem umgewandelten Video reflektiert. Wenn es sich jedoch um ein Standvideo handelt, gibt es keine Parallaxe, die durch die MTD-Methode erhalten wird, sondern nur eine Parallaxe, die durch die CID-Methode erhalten wird.
  • Ein solches Phänomen, dass ein stereoskopischer Effekt eines umgewandelten Videos abhängig von einem Eingangs-Video sehr unterschiedlich ist, ist unpraktisch, wenn ein Benutzer einen stereoskopischen Effekt einstellt.
  • Eine Aufgabe der vorliegenden Erfindung ist die Bereitstellung eines Verfahrens zur Umwandlung eines zweidimensionalen Videos in ein dreidimensionales Video, bei dem verhindert werden kann, dass ein stereoskopischer Effekt eines umgewandelten Videos abhängig ist von einem Eingangs-Video sehr unterschiedlich ist, wenn das zweidimensionale Video unter gleichzeitiger Verwendung der MTD-Methode und der CID-Methode in das dreidimensionale Video umgewandelt wird.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist die Bereitstellung eines Verfahrens zur Umwandlung eines zweidimensionalen Videos in ein dreidimensionales Video, bei dem die Verzerrung eines umgewandelten Bildes unter drückt werden kann, wenn eine Tiefenschätzung unter Verwendung der Abstandsskala-Umwandlung in eine Parallaxe konvertiert wird.
  • Ein Verfahren zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video gemäß der vorliegenden Erfindung umfasst einen ersten Schritt zum Extrahieren eines Bildmerkmals aus jeder von mehreren Parallaxen-Berechnungsflächen, die in einem Bildschirm auf der Basis eines zweidimensionalen Videosignals eingestellt sind, und zum Erstellen einer Tiefenschätzung für die Parallaxen-Berechnungsfläche auf der Basis des extrahierten Bildmerkmals, und ist gekennzeichnet durch einen zweiten Schritt zum Unterziehen jeder der Tiefenschätzungen einer Abstandsskala-Umwandlung unter Verwendung eines dynamischen Bereichs, der durch ein vorbestimmtes maximales Hervorhebungsmaß und ein vorbestimmtes maximales Vertiefungsmaß definiert ist, um eine vorläufige Sollphase für jede der Parallaxen-Berechnungsflächen zu ermitteln; einen dritten Schritt zum Ermitteln des Maximalwertes einer Phasendifferenz zwischen den benachbarten Parallaxen-Berechnungsflächen auf der Basis der vorläufigen Sollphase für jede der Parallaxen-Berechnungsflächen; einen vierten Schritt zur Beurteilung, ob der Maximalwert der Phasendifferenz zwischen den benachbarten Parallaxen-Berechnungsflächen in einem vorbestimmten zulässigen Verzerrungsbereich liegt oder nicht; und einen fünften Schritt zum Suchen, wenn der Maximalwert der Phasendifferenz zwischen den benachbarten Parallaxen-Berechnungsflächen außerhalb des vorbestimmten zulässigen Verzerrungsbereichs liegt, nach einem solchen dynamischen Bereich, dass die Phasendifferenz zwischen den Parallaxen-Berechnungsflächen in dem vorbestimmten zulässigen Verzerrungsbereich liegt, Unterziehen jeder der Tiefenschätzungen einer Abstandsskala-Umwandlung unter Verwendung des gesuchten dynamischen Bereichs und Ermitteln einer vorläufigen Sollphase für jede der Parallaxen-Berechnungsflächen, um mit dem dritten Schritt fortzufahren.
  • Hier bedeutet Abstandskala-Umwandlung eine Methode zur Umwandlung einer Tiefenschätzung in eine Einheit von Pixeln (eine Parallaxe) unter Berücksichtigung eines Abschnittes, in dem die Bilder miteinander verschmelzen. Im Gegensatz dazu wird eine Methode zum linearen Umwandeln einer Tiefenschätzung in eine Einheit von Pixeln (eine Parallaxe) als Pixel-Skala-Umwandlung bezeichnet.
  • Im fünften Schritt kann der gesuchte dynamische Bereich so korrigiert werden, dass das Verhältnis des maximalen Hervorhebungsmaßes zu dem maximalen Vertiefungsmaß, das durch den dynamischen Bereich definiert ist, ein vorbestimmtes Verhältnis ist, und jede der Tiefenschätzungen wird dann unter Verwendung des korrigierten dynamischen Bereichs einer Abstandsskala-Umwandlung unterzogen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung zur Erklärung der herkömmlichen MTD-Methode.
  • 2 ist eine schematische Darstellung zur Erklärung der Gegenstandspositionskontrolle.
  • 3 ist ein Flussdiagramm, das die Prozedur zur Steuerungsverarbeitung bei der herkömmlichen CID-Methode zeigt.
  • 4 ist eine schematische Darstellung zur Erklärung der dynamischen Bereichsunterdrückungsverarbeitung bei der herkömmlichen CID-Methode.
  • 5 ist eine Graphik, die das Verhältnis zwischen einer Parallaxe W zwischen Bildern und einem Abschnitt Yp zeigt, wo die Bilder miteinander verschmelzen.
  • 6 ist eine Graphik zur Erklärung der vollständigen Abstandsskala-Umwandlung.
  • 7 ist eine Graphik zur Erklärung der Polygonlinien-Abstandsskala-Umwandlung.
  • 8 ist eine Graphik, die derartige Eigenschaften zeigt, dass eine Parallaxe W [pixel] vor und hinter einem Bildschirm sehr unterschiedlich ist, selbst wenn eine Tiefenschätzung dieselbe ist, zum Beispiel "1", da eine Tiefe Yp und die Parallaxe nichtlinear sind.
  • 9 ist ein Flussdiagramm, das die Steuerungsprozedur bei der CID-Methode gemäß der vorliegenden Erfindung zeigt.
  • 10 ist ein Flussdiagramm, das die Abstandsskala-Umwandlung und Verzerrungsunterdrückungs-verarbeitung in Schritt 13 zeigt, der in 9 dargestellt ist.
  • 11 ist eine Graphik, die ein Tiefenverhältnis vor und hinter einem Bildschirm zeigt, selbst wenn ein dynamischer Bereich durch Einführen einer Methode zum Aufrechterhalten eines Distanzverhältnisses geändert wird.
  • 12 ist eine schematische Ansicht, die einen Fall zeigt, in dem eine Polygonlinien-Abstandsskala-Umwandlung nur zur Aufrechterhaltung eines Maßverhältnisses ausgeführt wird, sowie einen Fall, in dem die Verarbeitung zur Aufrechterhaltung eines Abstandsverhältnisses durchgeführt wird.
  • 13 ist ein Diagramm, das die schematische Konfiguration einer 2D/3D-Umwandlungsvorrichtung zeigt, die bei dem Verfahren der Erfindung verwendet wird.
  • 14 ist ein Flussdiagramm, das die Operationen der in 1 dargestellten 2D/3D-Umwandlungsvorrichtung zeigt.
  • 15 ist ein Diagramm, das die schematische Konfiguration einer 2D/3D-Umwandlungsvorrichtung gemäß einer zweiten Ausführungsform zeigt.
  • 16 ist ein Flussdiagramm, das die Prozedur für eine gesamte integrierte Phasensteuerungsverarbeitung zeigt.
  • 17 ist eine schematische Ansicht, die das Gesamtverhalten bei der integrierten Phasensteuerung zeigt.
  • 18 ist eine schematische Ansicht, die das Verhalten an jeder Fläche zum Zeitpunkt der integrierten Phasensteuerung zeigt.
  • 19 ist ein Flussdiagramm, das die detaillierte Prozedur zur Verarbeitung in den Schritten 53, 54 und 55 zeigt, die in 16 dargestellt sind.
  • 20 ist eine schematische Ansicht, die ein Beispiel für eine Verzerrungsunterdrückung zeigt, die in der integrierten Phasensteuerung ausgeführt wird.
  • 21 ist eine schematische Ansicht, die einen Fall zeigt, in dem eine Phase durch die MTD-Methode eingestellt werden kann, und einen Fall, in dem sie nicht eingestellt werden muss.
  • 22 ist eine schematische Ansicht zur Erklärung der Phasenunterdrückungsverarbeitung durch die MTD-Methode.
  • 23 ist ein Flussdiagramm, das die Prozedur für eine Verzögerungsunterdrückungsverarbeitung zeigt.
  • Die vorliegende Erfindung wird nun unter Bezugnahme auf 9 bis 12 beschrieben.
  • 9 zeigt die nun zu beschreibende Prozedur zur Steuerung bei der CID-Methode gemäß der vorliegenden Erfindung.
  • Zunächst wird ein Bildschirm in mehrere Flächen unterteilt und die Informationen, die sich auf eine Hochfrequenz und einen Luminanzkonstrast und eine Chrominanz(B-Y, R-Y) Komponente beziehen, werden von jeder der Flächen erhalten (Schritt 11). Eine Tiefenschätzung für jede der Flächen, die aus den Informationen und einer Komposi tion geschätzt wurde, wird ermittelt (Schritt 12). Die ermittelte Tiefenschätzung wird einer Abstandsskala-Umwandlung und einer Verzerrungsunterdrückungsverarbeitung unterzogen, wodurch eine Sollphase erhalten wird (Schritt 13).
  • 10 zeigt die Einzelheiten der Abstandsskala-Umwandlung und Verzerrungsunterdrückungsverarbeitung in Schritt 13, der in 9 dargestellt ist.
  • Zuerst wird die Tiefenschätzung der Abstandsskala-Umwandlung in einem dynamischen Bereich unterzogen, der durch Mfront und Mrear definiert ist, um eine vorläufige Sollphase zu erhalten (Schritt 21 und 22). Der Maximalwert h_dv_max [pixel] einer Phasendifferenz zwischen den benachbarten Flächen wird auf der Basis der erhaltenen vorläufigen Sollphase berechnet (Schritt 23).
  • Es wird beurteilt, ob der Maximalwert h_dv_max [pixel] der Phasendifferenz zwischen den benachbarten Flächen in einem zulässigen Verzerrungsbereich h_supp_lev [pixel] liegt (Schritt 24). Wenn er in dem zulässigen Bereich liegt, wird die vorläufige Sollphase als gültige Sollphase angenommen (Schritt 27).
  • Wenn der Maximalwert der Phasendifferenz zwischen den benachbarten Flächen außerhalb des zulässigen Verzerrungsbereichs liegt, wird ein dynamischer Bereich, der durch Mfront und Mrear definiert ist, allmählich verringert, bis der Maximalwert der Phasendifferenz nicht mehr als h_supp_lev ist, wodurch die geeignetsten Werte für front und rear erhalten werden (Schritt 25). Der Einfachheit wegen soll die Verarbeitung in Schritt 25 als sequenzielle Suchverarbeitung bezeichnet werden. Die Ein zelheiten der sequenziellen Suchverarbeitung werden später beschrieben.
  • Nachdem front und rear so geändert wurden, dass das Abstandsverhältnis von front zu rear, die durch die sequenzielle Suchverarbeitung ermittelt werden, ein Abstandsverhältnis ist, das von einem Benutzer festgelegt wurde (Schritt 26), kehrt das Programm zu Schritt 22 zurück. In Schritt 22 wird des Weiteren die Abstandsskala-Umwandlung ausgeführt.
  • Die Verarbeitung in den Schritten 22, 23, 24, 25 und 26 wird wiederholt, bis der Maximalwert h_dv_max [pixel] der Phasendifferenz zwischen den benachbarten Flächen im zulässigen Verzerrungsbereich h_supp_lev [pixel] liegt, um eine endgültige Sollphase zu erreichen. Die Abstandsskala-Umwandlung wird jedes Mal durchgeführt, wenn der dynamische Bereich geändert wird, um exakt ein solches Abstandsskala-Prinzip zu erreichen, dass ein Zuseher ein stereoskopisches Video sieht, das der Tiefenschätzung unabhängig von einer räumlichen Verzerrung in einer stereoskopischen Anzeige entspricht.
  • Es wird die sequenzielle Suchverarbeitung beschrieben.
  • In einer Abstandsskala, in der eine Tiefenschätzung und eine Phase nichtlinear sind, wird der dynamische Bereich, der durch die Werte front und rear definiert ist, durch die sequenzielle Suchverarbeitung bestimmt, um den dynamischen Bereich zu erhöhen.
  • Bei der sequenziellen Suchverarbeitung kann eine Parallaxe auch unter Verwendung einer Tiefen-Parallaxen-Umwandlungsgleichung (einer Gleichung 15) berechnet wer den. Die Berechnung einer Parallaxen-Umwandlungstabelle W'', die auf folgende Weise im Voraus berechnet wird, ist jedoch effizienter. Dieses Verfahren wird unter Annahme einer Tiefenschätzung auf Bildschirmebene in einem Fall beschrieben, in dem sie zwischen 0 und 100 als surface_depth (= 100 – C) standardisiert ist.
  • Wenn die Anzahl von Stufen auf der Parallaxen-Umwandlungstabelle W'', die dem front-Wert und dem rear-Wert entsprechen, als Max_lev (= 255 – Dlev) beziehungsweise Min_lev (= Dlev – 0) angenommen werden, wird die Anzahl von Stufen lev auf der Parallaxen-Umwandlungstabelle, die einer bestimmten Tiefenschätzung v depth entspricht, durch die folgende Gleichung (18) ausgedrückt: lev = (v_depth – surface_depth)·(Max_lev – Dlev)/(100 – surface_depth) + Dlev für v_depth > surface_depth lev = (v_depth – Min_lev)·(Dlev – 0)/(surface_depth – Min_lev) für v_depth < surface_depth lev = Dlev für v_depth = surface_depth (18)
  • Eine Phase phase, die lev entspricht, kann durch die folgende Gleichung (19) ausgedrückt werden, da sie durch die Parallaxen-Umwandlungstabelle W'' einzigartig ermittelt wird. phase = W''(lev) (19)
  • Bei der sequenziellen Suchverarbeitung können der front-Wert und der rear-Wert, bei welchen die maximale Phasendifferenz zwischen den benachbarten Flächen nicht mehr als h_supp_lev ist, durch allmähliches Ändern von Max_lev und Min_lev ermittelt werden.
  • Wie aus der vorstehenden Gleichung (18) hervorgeht, gibt es bei der sequenziellen Suchverarbeitung folgende drei Arten von Methoden zum Suchen der geeignetsten Werte für front und rear in Übereinstimmung mit dem Verhältnis zwischen Phasen in den zwei benachbarten Flächen, zwischen welchen eine maximale Phasendifferenz besteht:
    Erster Fall: wenn beide Flächen jeweils Phasen vor dem Bildschirm haben, wird der front-Wert nahe zu Null gebracht (Max_lev wird nahe zu Dlev gebracht.)
    Zweiter Fall: Wenn beide der Flächen jeweils Phasen hinter dem Bildschirm haben, wird der rear-Wert nahe zu Null gebracht (Min_lev wird nahe zu Dlev gebracht.)
    Dritter Fall: Wenn eine der Flächen eine Phase vor dem Bildschirm und die andere Fläche eine Phase hinter dem Bildschirm hat, werden sowohl der front-Wert als auch der rear-Wert nahe zu Null gebracht (Max_lev und Min_lev werden nahe zu Dlev gebracht.)
  • Im dritten Fall werden Max_lev und Min_lev nahe zu Dlev gebracht, so dass das Abstandsverhältnis, das zuvor vom Benutzer festgelegt wurde, gehalten wird, das heißt, dass ein Verhältnis, das durch die folgende Gleichung (20) ausgedrückt wird, zum Zeitpunkt der sequenziellen Suchverarbeitung gehalten wird: (255 – Dlev):Dlev = (Max_lev – Dlev):(Dlev – Min_Lev) (20)
  • Die vorstehende Gleichung (20) ist mit der Verarbeitung in Schritt 26, der in 10 dargestellt ist, syn onym. Im ersten Fall und im zweiten Fall wird die Verarbeitung zur Änderung des Abstandsverhältnisses nicht zum Zeitpunkt der sequenziellen Verarbeitung durchgeführt, sondern in Schritt 26, der in 10 dargestellt ist, um den Umfang der Operation zu verringern.
  • Ein Verfahren zur Aufrechterhaltung des Abstandsverhältnisses wird in die Abstandsskala eingeführt, um ein Tiefenverhältnis vor und hinter dem Bildschirm aufrechtzuerhalten, selbst wenn der dynamische Bereich geändert wird. Insbesondere, wie in 11 dargestellt, wenn ein Abstand vor dem Bildschirm um 20% im ersten Fall verringert wird, wird ein Abstand hinter dem Bildschirm auch um 20% verringert, um das Verhältnis vor und hinter dem Bildschirm aufrechtzuerhalten.
  • Wenn das Abstandsverhältnis in der Parallaxen-Umwandlungstabelle aufrechterhalten wird, kann auch ein Verhältnis des Hervorhebungsmaßes C aufrechterhalten werden. Folglich kann ein umgewandeltes Video ohne unangenehmes Gefühl einem Zuseher präsentiert werden, der dazu neigt, einen Raum als relative Tiefe zu erkennen.
  • Es gibt jedoch einen Fall, in dem das Video besser ist, wenn der gesamte dynamische Bereich abhängig von den Eigenschaften der Augen des Zusehers verbreitert wird. In einem solchen Fall wird im ersten Fall und im zweiten Fall nicht das Abstandsverhältnis, sondern nur das Maßverhältnis aufrechterhalten.
  • 12 zeigt einen Fall, in dem eine Polygonlinien-Abstandsskala-Umwandlung nur zur Aufrechterhaltung des Maßverhältnisses ausgeführt wird, und einen Fall, in dem ferner die Verarbeitung zum Aufrechterhalten des Abstandsverhältnisses durchgeführt wird. Bei der Polygon linien-Abstandsskala-Umwandlung nur zum Aufrechterhalten des Maßverhältnisses wird eine Entsprechung zwischen einer Tiefenschätzung an dem Bildschirm und der Parallaxen-Umwandlungstabelle durch Durchführen separater Bereichsumwandlungen mit der Tiefenschätzung als Grenze hergestellt. In einem Fall, in dem das Abstandsverhältnis aufrechterhalten wird, können die Tiefenschätzung und die Parallaxen-Umwandlungstabelle miteinander durch eine Bereichsumwandlung korrespondieren. Eine Funktion lev (phase) in 12 stellt eine inverse Funktion der vorstehenden Gleichung (19) dar und bedeutet, dass die Anzahl von Stufen in der Parallaxen-Umwandlungstabelle aus einer Phase phase [pixel] ermittelt wird.
  • Unter Bezugnahme auf 13 und 14 wird nun ein 2D-3D-Umwandlungssystem beschrieben, das bei dem Verfahren der Erfindung verwendet wird.
  • In 13 bezeichnet das Bezugszeichen 1 eine Videozuleitungsquelle, die als Videosignalzuleitungsmittel dient, wie einen VTR (Video Tape Recorder), eine CD-ROM (Compact Disc Read-Only Memory), oder einen TV-Sender, das Bezugszeichen 2 bezeichnet eine 2D/3D-Umwandlungsvorrichtung zum Umwandeln eines zweidimensionalen Videosignals, das von der Videozuleitungsquelle 1 zugeleitet wird, in ein dreidimensionales Videosignal, das heißt, ein Videosignal des linken Auges L und ein Videosignal des rechten Auges R, und das Bezugszeichen 3 bezeichnet ein stereoskopisches Anzeigemittel, das ein Bildteilungssystem oder dergleichen verwendet, um das dreidimensionale Videosignal anzuzeigen, das von der 2D/3D-Umwandlungsvorrichtung 2 ausgegeben wird.
  • Es wird die Konfiguration der 2D/3D-Umwandlungsvorrichtung 2 beschrieben.
  • Das Bezugszeichen 4 bezeichnet einen Feldspeicher, der das von der Videozuleitungsquelle 1 für jedes Feld zugeführte Videosignal als Video speichert und das Bezugszeichen 5 bezeichnet ein Bewegungsvektorerfassungsmittel zum Erfassen eines Bewegungsvektors von dem Videosignal, das von der Videozuleitungsquelle 1 zugeführt wird.
  • Das Bezugszeichen 6 bezeichnet ein Chrominanzextraktionsmittel zum Extrahieren einer Chrominanzkomponente aus dem Video, das von der Videozuleitungsquelle 1 zugeleitet wird, das Bezugszeichen 7 bezeichnet ein Kontrastextraktionsmittel zum Extrahieren eines Kontrasts aus dem Video, das von der Videozuleitungsquelle 1 zugeleitet wird, und das Bezugszeichen 8 bezeichnet ein Hochfrequenzkomponentenextraktionsmittel zum Extrahieren einer Hochfrequenzkomponente aus dem Video, das von der Videozuleitungsquelle 1 zugeleitet wird. Das Chrominanzextraktionsmittel 6, das Kontrastextraktionsmittel 7 und das Hochfrequenzkomponentenextraktionsmittel 8 bilden ein Bildmerkmalextraktionsmittel.
  • Das Bezugszeichen 9 bezeichnet ein Bewegungsausmaßberechnungsmittel zum Ermitteln der Bewegungsrichtung und des Bewegungsausmaßes (der Größe des Bewegungsvektors) von dem Bewegungsvektor, der von dem Bewegungsvektorerfassungsmittel erfasst wird, und zum Ausgeben der Bewegungsrichtung und des Bewegungsausmaßes. Das Bezugszeichen 10 bezeichnet ein Speichersteuermittel zum Auslesen eines Bildes (eines verzögerten Bildes) aus dem Feldspeicher 4, das um die Anzahl von Feldern verzögert ist, die dem Bewegungsausmaß entspricht, das von dem Bewegungsausmaßberechnungsmittel 9 unter Verwendung des gegenwärtigen Bildes als Basis ausgegeben wird, und das Bezugszeichen 11 bezeichnet ein Umschaltmittel, das auf der Basis der Bewegungsrichtung, die von dem Bewegungsausmaßberechnungsmittel 9 ausgegeben wird, umschaltet, welches von dem Referenzbild (dem gegenwärtigen Bild) oder dem verzögerten Bild als Videosignal des linken Auges L oder als Videosignal des rechten Auges R ausgegeben werden soll.
  • Das Bezugszeichen 12 bezeichnet Gruppierungsmittel zum Gruppieren von Flächen nach Abschnitten, die als dasselbe Objekt angesehen werden, wie ein Gegenstand oder ein Hintergrund, abhängig von der Chrominanzkomponente, die von dem Chrominanzextraktionsmittel 6 extrahiert wird, und dem Ausmaß und der Richtung der Bewegung, das/die von dem Bewegungsausmaßberechnungsmittel 9 aus dem Video berechnet wird, das von der Videozuleitungsquelle 1 zugeleitet wird, und zum Ausgeben von Informationen, die sich auf die Gruppierung beziehen. Das Bezugszeichen 13 bezeichnet ein erstes Tiefenkartenerstellungsmittel zum Berechnen von Tiefeninformationen aus dem Bewegungsausmaß, das von dem Bewegungsausmaßberechnungsmittel 9 berechnet wird, und den Gruppierungsinformationen, die von dem Gruppierungsmittel 12 erhalten werden, um eine Tiefenkarte zu erstellen.
  • Das Bezugszeichen 14 bezeichnet ein zweites Tiefenkartenerstellungsmittel zum Berechnen von Tiefeninformationen aus Informationen, die sich auf den Kontrast beziehen, der von dem Kontrastextraktionsmittel 7 für die Flächen extrahiert wird, die durch die Gruppierung in dem Gruppierungsmittel 12 erhalten werden, um eine Tiefenkarte zu erstellen. Das Bezugszeichen 15 bezeichnet ein drittes Tiefenkartenerstellungsmittel zum Berechnen von Tiefeninformationen aus Informationen, die sich auf die Hochfrequenzkomponente beziehen, die von dem Hochfre quenzkomponentenextraktionsmittel 8 für die Flächen extrahiert wird, die durch die Gruppierung in dem Gruppierungsmittel 12 erhalten werden, um eine Tiefenkarte zu erstellen, und das Bezugszeichen 16 bezeichnet ein viertes Tiefenkartenerstellungsmittel zum Berechnen von Tiefeninformationen aus Informationen, die sich auf eine Komposition beziehen, die zuvor eingestellt wurde, und aus Informationen, die sich auf die Flächen beziehen, die durch die Gruppierung in dem Gruppierungsmittel 12 erhalten werden, um eine Tiefenkarte zu erstellen.
  • Das Bezugszeichen 17 bezeichnet ein Gesamtkartenerstellungsmittel zum Wichten, Addieren und Synthetisieren der Tiefenkarten, die von den Tiefenkartenerstellungsmitteln 13, 14, 15 und 16 erstellt wurden, um eine Gesamtkarte zu erstellen. Das Bezugszeichen 18 bezeichnet ein Parallaxen-Berechnungsmittel zum Berechnen einer Parallaxe für jede Parallaxen-Berechnungsfläche, die zuvor anhand der Gesamtkarte eingestellt wurde, die von dem Gesamtkartenerstellungsmittel 17 erstellt wurde, und das Bezugszeichen 19 bezeichnet Horizontalpositionseinstellmittel zum Verschieben der Bilder des linken und des rechten Auges, die von dem Umschaltmittel 11 ausgegeben werden, in die horizontale Richtung zum Beispiel in Einheiten von Pixeln, um die Bilder auf der Basis der Parallaxe für jede Parallaxen-Berechnungsfläche, die von dem Parallaxen-Berechnungsmittel 18 berechnet wurde, zu synthetisieren.
  • Das Parallaxen-Berechnungsmittel 18 berücksichtigt ein Ausmaß einer Frame-Verzögerung auf der Basis des Bewegungsausmaßes, das von dem Bewegungsausmaßberechnungsmittel 9 berechnet wurde, wodurch die Parallaxe abhängig von dem Bewegungsausmaß korrigiert, das heißt, verringert wird, die an das Horizontalpositionseinstellmittel 19 ausgegeben wird.
  • 14 zeigt die Operationen der 2D/3D-Umwandlungsvorrichtung 2.
  • Ein Videosignal, das von der Videozuleitungsquelle 1 zugeführt wird, wird für jedes Feld in dem Feldspeicher 4 gespeichert (Schritt 31). Von dem zweidimensionalen Videosignal, das von der Videozuleitungsquelle 1 zugeleitet wird, wird durch das Bewegungsvektorerfassungsmittel 5 ein Bewegungsvektor erfasst und das Bewegungsausmaß und die Bewegungsrichtung des Bewegungsvektors werden von dem Bewegungsausmaßberechnungsmittel 9 berechnet (Schritt 32).
  • Insbesondere vergleicht das Bewegungsvektorerfassungsmittel 5 ein Bild in dem gegenwärtigen Feld mit einem Bild, das sich ein Feld vor dem gegenwärtigen Feld befindet, um als Bewegungsvektor das Bewegungsausmaß und die Bewegungsrichtung eines Gegenstandes in dem Bild zu extrahieren.
  • Ein Bild (ein verzögertes Bild), das um eine vorbestimmte Anzahl von Feldern von dem zweidimensionalen Videosignal (dem Referenzbild) von der Videozuleitungsquelle 1 verzögert ist, wird dann aus dem Feldspeicher 4 gelesen und abhängig von dem Bewegungsausmaß des Bewegungsvektors, das in Schritt 32 erfasst wird, zu dem Umschaltmittel 11 geleitet (Schritt 33). Das Umschaltmittel 11 gibt auf der Basis der Bewegungsrichtung des Bewegungsvektors, die in Schritt 32 erfasst wird, entweder das Referenzbild oder das verzögerte Bild als Videosignal des linken Auges L aus und gibt das andere Bild als Videosignal des rechten Auges R aus.
  • Die Operationen der vorangehenden Schritte 31 bis 33 entsprechen den Operationen bei der MTD-Methode.
  • Bildmerkmale werden dann auf der Basis des zweidimensionalen Videosignals von der Videozuleitungsquelle 1 extrahiert (Schritt 34). Eine Bildfläche, die einem Feld entspricht, wird in mehrere Flächen unterteilt, so dass mehrere Bildmerkmalerfassungsflächen in der Bildfläche eingestellt sind, die einem Feld entspricht. Das Chrominanzextraktionsmittel 6 extrahiert Chrominanzinformationen für jede der Bildmerkmalerfassungsflächen. Das Kontrastextraktionsmittel 7 extrahiert einen Kontrast für jede der Bildmerkmalerfassungsflächen. Das Hochfrequenzkomponentenextraktionsmittel 8 extrahiert eine Hochfrequenzkomponente für jede der Bildmerkmalerfassungsflächen. Ferner gruppiert das Gruppierungsmittel 12 die Flächen in dem Bild auf der Basis der Chrominanzinformationen für jede der Bildmerkmalerfassungsflächen, die von dem Chrominanzextraktionsmittel 6 extrahiert wurden, und des Bewegungsausmaßes, das in Schritt 32 erfasst wurde, um die Flächen zur Beurteilung eines Gegenstandes, eines Hintergrundes oder dergleichen zu verwenden.
  • Dann wird eine Tiefenkarte erstellt (Schritt 35). Das heißt, das erste Tiefenkartenerstellungsmittel 13 erstellt eine erste Tiefenkarte auf der Basis des Bewegungsausmaßes des Bewegungsvektors, das von dem Bewegungsausmaßberechnungsmittel 9 berechnet wurde, und der Gruppierungsinformationen, die von dem Gruppierungsmittel 12 erhalten werden.
  • Das zweite Tiefenkartenerstellungsmittel 14 erstellt eine zweite Tiefenkarte auf der Basis des Kontrasts für jede der Bildmerkmalerfassungsflächen, der von dem Kon trastextraktionsmittel 7 extrahiert wurde, und der Gruppierungsinformationen, die von dem Gruppierungsmittel 12 erhalten werden. Das dritte Tiefenkartenerstellungsmittel 15 erstellt eine dritte Tiefenkarte auf der Basis der Hochfrequenzkomponente für jede der Bildmerkmalerfassungsflächen, die von dem Hochfrequenzkomponentenextraktionsmittel 8 extrahiert wurde, und der Gruppierungsinformationen, die von dem Gruppierungsmittel 12 erhalten werden.
  • Ferner erzeugt das vierte Tiefenkartenerstellungsmittel 16 eine vierte Tiefenkarte auf der Basis einer Komposition auf einem Bildschirm, die zuvor eingestellt wurde (zum Beispiel eine solche Komposition, dass, wenn der Bildschirm vorwiegend eine Landschaft zeigt, ein unterer Abschnitt des Bildschirms der Boden ist, ein oberer Abschnitt des Bildschirms der Himmel ist und die Mitte des Bildschirms der Gegenstand ist), und der Gruppierungsinformationen, die von dem Gruppierungsmittel 12 erhalten werden.
  • Dann wird eine Gesamttiefenkarte erstellt (Schritt 36). Das heißt, das Gesamtkartenerstellungsmittel 17 wichtet und addiert die erste bis vierte Tiefenkarte, die vom ersten bis vierten Tiefenkartenerstellungsmittel 13, 14, 15 und 16 erstellt wurden, um die Gesamttiefenkarte zu erstellen.
  • Dann wird eine Parallaxe berechnet (Schritt 37). Das heißt, das Parallaxen-Berechnungsmittel 18 berechnet eine Parallaxe zwischen einem Bild des linken Auges und einem Bild des rechten Auges für jede Parallaxen-Berechnungsfläche, die zuvor bestimmt wurde, auf der Basis der Gesamttiefenkarte, die vom Gesamtkartenerstellungsmittel 17 erstellt wird.
  • Die vorstehenden Schritte 34 bis 37 entsprechen Operationen bei der CID-Methode.
  • Dann wird die Parallaxe korrigiert (Schritt 38). Das heißt, das Parallaxen-Berechnungsmittel 18 korrigiert die Parallaxe für jede der Parallaxen-Berechnungsflächen, die in Schritt 37 berechnet wurden, abhängig von dem Bewegungsausmaß des Bewegungsvektors, das von dem Bewegungsausmaßberechnungsmittel 9 berechnet wurde. Insbesondere wird die Parallaxe, die in Schritt 37 berechnet wird, um eine Parallaxe verringert, die der Verzögerung des verzögerten Bildes von dem Referenzbild entspricht.
  • Das Bild des rechten Auges R und das Bild des linken Auges L werden dann abhängig von der Parallaxe nach der Korrektur horizontal verschoben (Schritt 39). Das heißt, das Horizontalpositionseinstellmittel 19 verschiebt das Bild des linken Auges L und das Bild des rechten Auges R horizontal, die von dem Umschaltmittel 11 für jedes Pixel ausgegeben werden, zum Beispiel auf der Basis der Parallaxe, die in Schritt 38 korrigiert wurde.
  • Das Bild des linken Auges L und das Bild des rechten Auges R, die von dem Horizontalpositionseinstellmittel 19 horizontal verschoben wurden, werden von dem dreidimensionalen Anzeigemittel 3 angezeigt (Schritt 40).
  • Es wird nun ein 2D/3D-Videomwandlungssystem, welches das Verfahren der vorliegenden Erfindung anwendet, unter Bezugnahme auf 15 und 23 beschrieben.
  • 15 zeigt die Konfiguration einer Vorrichtung zur Umwandlung eines zweidimensionalen Videos in ein dreidimensionales Video (einer 2D/3D-Umwandlungsvorrichtung).
  • In 15 bezeichnet das Bezugszeichen 101 eine Videozuleitungsquelle, die als Videosignalzuleitungsmittel dient, wie einen VTR, eine CD-ROM oder einen TV-Sender, das Bezugszeichen 102 bezeichnet eine 2D/3D-Umwandlungsvorrichtung zum Umwandeln eines zweidimensionalen Videosignals, das von der Videozuleitungsquelle 1 zugeleitet wird, in ein dreidimensionales Videosignal, das heißt, ein Videosignal des linken Auges L und ein Videosignal des rechten Auges R, und das Bezugszeichen 103 bezeichnet ein stereoskopisches Anzeigemittel, das ein Bildteilungssystem oder dergleichen verwendet, um ein dreidimensionales Videosignal anzuzeigen, das von der 2D/3D-Umwandlungsvorrichtung 102 ausgegeben wird.
  • Es wird die Konfiguration der 2D/3D-Umwandlungsvorrichtung 102 beschrieben.
  • Das Bezugszeichen 104 bezeichnet einen Feldspeicher, der das Videosignal von der Videozuleitungsquelle 101 für jedes Feld speichert, und das Bezugszeichen 105 bezeichnet ein Bewegungsvektorerfassungsmittel zum Erfassen eines Bewegungsvektors von dem Videosignal, das von der Videozuleitungsquelle 101 zugeleitet wird.
  • Das Bezugszeichen 106 bezeichnet ein Bildmerkmalextraktionsmittel zum Extrahieren von Bildmerkmalen, wie einer Chrominanzkomponente, eines Kontrasts und einer Hochfrequenzkomponente aus einem Video, das von der Videozuleitungsquelle 101 zugeleitet wird.
  • Das Bezugszeichen 110 bezeichnet Verzögerungsberechnungsmittel zum Berechnen einer Verzögerung des Bewegungsvektors, die von dem Bewegungsvektorerfassungsmittel 105 erfasst wird. Das Bezugszeichen 107 bezeichnet ein Speichersteuermittel zum Auslesen eines Bildes (eines verzögerten Bildes) aus dem Feldspeicher 104, das um die Anzahl von Feldern verzögert ist, die der Verzögerung entspricht, die von dem Verzögerungsberechnungsmittel 110 unter Verwendung des gegenwärtigen Eingangsbildes als Basis berechnet wurde. Das Bezugszeichen 108 bezeichnet ein Umschaltmittel, das auf der Basis der Bewegungsrichtung, die von dem Verzögerungsberechnungsmittel 110 ausgegeben wird, umschaltet, welches von dem Eingangsbild oder dem verzögerten Bild als Videosignal des linken Auges L oder als Videosignals des rechten Auges R ausgegeben werden soll.
  • Das Bezugszeichen 109 bezeichnet ein Tiefenschätzungsberechnungsmittel zum Berechnen einer Tiefenschätzung für die Fläche auf der Basis der Bildmerkmale für jede Fläche, die von dem Bildmerkmalextraktionsmittel 106 extrahiert wurden. Das Bezugszeichen 111 bezeichnet ein Parallaxen-Berechnungsmittel zum Berechnen einer Parallaxe (einer Phase), die durch die CID-Methode für die Fläche erzeugt wurde, auf der Basis der Tiefenschätzung für jede Fläche, die von dem Tiefenschätzungsberechnungsmittel 109 berechnet wurde, und zum Korrigieren der Parallaxe, die durch die CID-Methode erzeugt wurde, auf der Basis einer Parallaxe, die durch die MTD-Methode erzeugt wurde, die von dem Verzögerungsberechnungsmittel 110 ausgegeben wird, um eine integrierte Parallaxe (eine integrierte Phase) zu berechnen.
  • Das Bezugszeichen 113 bezeichnet ein stereoskopisches Videosynthesemittel zum Verschieben entsprechender Flächen (zum Beispiel Pixeleinheiten) in Bildern des rechten und des linken Auges, die von dem Umschaltmittel 108 ausgegeben werden, in die horizontale Richtung und Synthetisieren der Flächen auf der Basis der integrierten Parallaxe, die von dem Parallaxen-Berechnungsmittel 111 berechnet wurde.
  • Das Bezugszeichen 112 bezeichnet Parallaxen-Überwachungsmittel zum Steuern einer Verzögerung auf der Basis der integrierten Parallaxe, die von dem Parallaxen-Berechnungsmittel 111 berechnet wurde, und der Parallaxe, die durch die MTD-Methode erzeugt wurde, die von dem Verzögerungsberechnungsmittel 110 ausgegeben wird.
  • In der vorliegenden Ausführungsform wird ein stereoskopischer Raum reproduziert, wobei die Tiefenschätzung, die durch die CID-Methode erhalten wird, als Basis genommen wird. Das heißt, es wird ein stereoskopisches Video präsentiert, das durch das Addieren der Okklusion, die durch die MTD-Methode erzeugt wird, zu der CID-Methode erhalten wird. Als besondere Methode wird eine Phase (eine Parallaxe: eine Phase, die infolge einer Feldverzögerung erzeugt wird), die durch die MTD-Methode berechnet wird, von einer Phase (einer Parallaxe) für jede Fläche, die durch die CID-Methode berechnet wird, subtrahiert, so dass die Phase für die Fläche gleich der Phase ist, die durch die CID-Methode berechnet wurde, selbst nachdem die MTD-Methode und CID-Methode gleichzeitig angewendet wurden. Deshalb werden die Phasen, die durch die MTD-Methode und die CID-Methode erzeugt werden, nach folgenden Prioritäten gesteuert:
    Priorität 1: Der maximale Bereich Urange [pixel] einer Phase, der von einem Benutzer eingestellt wird.
    Priorität 2: Die Grenze einer Bildverzerrung h_supp_lev [pixel], die durch eine Phasenverschiebung in einem umgewandelten Bild verursacht wird.
    Priorität 3: Eine Tiefenform (die Form einer Tiefenschätzung), die durch die CID-Methode geschätzt wird.
    Priorität 4: Eine Phase dly_sisa [pixel], die durch die MTD-Methode erzeugt wird, die Urange nicht überschreitet.
    Priorität 5: Eine Phase [pixel], die durch die CID-Methode erzeugt wird.
  • Es werden nun die Bedeutungen der Prioritäten beschrieben.
  • Die höchste Priorität 1 garantiert, dass die integrierte Phase den maximalen Bereich Urange der Phase, der vom Benutzer eingestellt wird, nicht überschreitet.
  • Die Priorität 2 garantiert, dass die Verzerrung eines Bildes, die durch die integrierte Phasensteuerung erzeugt wird (insbesondere die CID-Methode), innerhalb eines bestimmten Grenzwertes liegt (innerhalb von h_supp_lev).
  • Die Priorität 3 bedeutet, dass die Tiefenschätzung (Tiefenform) für jede Fläche, die durch die CID-Methode berechnet wird, selbst nach gleichzeitiger Anwendung der MTD-Methode und der CID-Methode aufrechterhalten wird.
  • Die Priorität 4 garantiert, dass die Parallaxe, die durch die MTD-Methode erzeugt wird, Urange nicht überschreitet.
  • Die niedrigste Priorität 5 bedeutet, dass die Phase, die durch die CID-Methode erzeugt wird, einen Wert annimmt, der sich von der Phase unterscheidet, die nur durch die CID-Methode erzeugt wird, unter Verwendung der CID-Methode in Verbindung mit der MTD-Methode.
  • 16 zeigt die Prozedur für die integrierte Phasensteuerungsverarbeitung, wobei eine Tiefenform, die durch die CID-Methode geschätzt wird, aufrechterhalten wird. 17 zeigt das Verhalten einer Phase zum Zeitpunkt der Ausführung.
  • Zunächst werden Bildmerkmale durch das Bildmerkmalextraktionsmittel 106 extrahiert (Schritt 51). Das Tiefenschätzungsberechnungsmittel 109 schätzt eine Tiefe durch die CID-Methode auf der Basis der Bildmerkmale, die von dem Bildmerkmalextraktionsmittel 106 extrahiert werden (Schritt 52). Das heißt, eine berechnete Frequenz, ein Kontrast, eine Wichtung der Komposition, und eine Wichtung der Ergebnisse der Gegenstand/Hintergrund-Beurteilung werden bei einem geeigneten Verhältnis addiert, um eine Tiefenschätzung zu ermitteln.
  • In der integrierten Phasensteuerung wird die CID-Methode auch für ein bewegtes Bild verwendet. Daher wird das Additionsverhältnis abhängig von der Geschwindigkeit einer Bewegung in einem Video variabel gemacht. Um die Tendenz des Wertes einer Hochfrequenzkomponente, sich bei rascher Bewegung zu verringern, auszugleichen, wird insbesondere das Additionsverhältnis der Hochfrequenzkompo nente verringert, während die Geschwindigkeit der Bewegung zunimmt.
  • Die derart ermittelte Tiefenschätzung wird einer Abstandsskala-Umwandlung (einer vollständigen Abstandsskala-Umwandlung oder einer Polygonlinien-Abstandsskala-Umwandlung) innerhalb von Ufront und Urear unterzogen, um eine Phase für jede Fläche zu ermitteln, die durch die CID-Methode erzeugt wird (Schritt 53). Eine Differenzphase wird durch Subtrahieren einer Phase, die durch die MTD-Methode erzeugt wurde (MTD-Phase) (= eine Feldverzögerung × dem Wert eines horizontalen Bewegungsvektors in der Fläche) von der Phase, die durch die CID-Methode erzeugt wurde (CID-Phase) ermittelt (Schritt 54). Die Differenzphase wird einer Verzerrungsunterdrückungsverarbeitung unterzogen, so dass die Differenz zwischen den Phasen für die benachbarten Flächen nicht mehr als h_supp_lev [pixel] ist (Schritt 55).
  • Der Grund, weshalb ein rechtes Ende der MTD-Phase und ein linkes Ende der CID-Phase in der Differenzphase (= CID-Phase – MTD-Phase) einander überlappen, wie in 17 dargestellt, ist, dass sich die Phasen, die durch die beiden Methoden erzeugt werden, für jede Fläche unterscheiden. Dies geht aus dem Verhalten einer Differenzphase ph_diffj (= ph_cidj – ph_mtdj) für die Fläche hervor, die durch Subtrahieren einer Phase ph_mtdj für jede Fläche, die durch die MTD-Methode erzeugt wird, von einer Phase ph_cidj für die Fläche, die durch die CID-Methode erzeugt wird, erhalten wird, wie in 18 dargestellt. j gibt eine Flächennummer an.
  • In 18 zeigen Werte in drei Spalten und vier Reihen an der oberen Seite jeweils Phasen in entsprechenden Flächen an, und die Phasen in den entsprechenden Flä chen werden visuell verständlich gemacht, indem sie in einer einzigen Reihe an der unteren Seite angeordnet sind.
  • Die Phase nach der Verzerrungsunterdrückungsverarbeitung, die in 17 dargestellt ist, zeigt, dass die Differenzphase der Verzerrungsunterdrückungsverarbeitung unterzogen wird. Die maximale Hervorhebungsphase front [pixel] und die maximale Vertiefungsphase urear [pixel] einer Phase, die durch Integrieren der MTD-Methode und der CID-Methode (eine integrierte Phase) nach der Verzerrungsunterdrückungsverarbeitung erhalten wurde, werden durch Schleifenverarbeitung ermittelt, wie in 19 dargestellt.
  • 19 zeigt die Einzelheiten der Verarbeitung in den Schritten 53, 54 und 55, die in 16 dargestellt sind. Die Verarbeitung wird von dem Parallaxen-Berechnungsmittel 111 durchgeführt.
  • Ufront und Urear, die vom Benutzer eingestellt sind, werden zunächst auf Variable Ufront' beziehungsweise Urear' eingestellt (Schritt 61) und werden dann einer Abstandsskala-Umwandlung in einem dynamischen Bereich unterzogen, der durch Ufront' und Urear' definiert ist, um eine CID-Phase zu erhalten (Schritt 62). Eine vorläufige Differenzphase, die durch Subtrahieren einer MTD-Phase von der CID-Phase erhalten wird, wird dann ermittelt (Schritt 63). Der Maximalwert h_dv_max [pixel] einer Phasendifferenz zwischen den benachbarten Flächen, der aus der vorläufigen Differenzphase ermittelt wird (der Maximalwert der Differenz in der Phasendifferenz zwischen den benachbarten Flächen), wird ermittelt (Schritt 64). Das Programm fährt dann mit Schritt 65 fort.
  • Wenn der Maximalwert h_dv_max [pixel] der Phasendifferenz zwischen den benachbarten Flächen nicht in einem zulässigen Verzerrungsbereich h_supp_lev [pixel] liegt, wie später beschrieben wird, wird der dynamische Bereich so verringert, dass die Phasendifferenz zwischen den benachbarten Flächen innerhalb des zulässigen Verzerrungsbereichs liegt. Danach wird wieder die Verarbeitung von den vorangehenden Schritten 62, 63 und 64 ausgeführt.
  • In Schritt 65 wird beurteilt, ob in einem Fall, in dem eine solche Schleifenverarbeitung durchgeführt wird, der Maximalwert h_dv_max [pixel] einer Phasendifferenz, der im vorangehenden Schritt 64 berechnet wurde, kleiner als der Maximalwert h_dv_max (pixel] der Phasendifferenz ist, der im gegenwärtigen Schritt 64 berechnet wurde.
  • Zu dem Zeitpunkt, zu dem die Schleifenverarbeitung nicht ausgeführt wird, ist die Antwort in Schritt 65 negativ, um zu beurteilen, ob der Maximalwert h_dv_max [pixel] der Phasendifferenz, der im gegenwärtigen Schritt 64 berechnet wurde, im zulässigen Verzerrungsbereich h_supp_lev [pixel] liegt (Schritt 66). Wenn er in dem Bereich liegt, wird die vorläufige Phasendifferenz als wahre Sollphase angenommen (Schritt 72).
  • Wenn er im Gegensatz dazu außerhalb des Bereichs liegt, wird beurteilt, ob die Anzahl von Schleifen innerhalb der Grenzzahl von Schleifen liegt, um eine Last auf einer CPU zu verringern (Schritt 67). Wenn die Anzahl von Schleifen größer als die Grenzzahl von Schleifen ist, wird die vorläufige Differenzphase einer erzwungenen Verzerrungsunterdrückungsverarbeitung unterzogen, die später beschrieben wird, um eine wahre Sollphase zu ermitteln (Schritt 73).
  • Wenn ferner die Anzahl von Schleifen kleiner als die Grenzzahl von Schleifen ist, wird die vorläufige Differenzphase zurückgesetzt (Schritt 68), und der dynamische Bereich, der durch Ufront' und Urear' definiert ist, wird allmählich verringert, bis die Phasendifferenz zwischen den benachbarten Flächen nicht mehr als h_supp_lev ist, um die geeignetsten Werte für ufront und urear zu erhalten (Schritt 69). Die Verarbeitung soll in der Folge als sequenzielle Suchverarbeitung bezeichnet werden. Die Einzelheiten der sequenziellen Suchverarbeitung werden später beschrieben.
  • Das Abstandsverhältnis von ufront zu urear, die in der sequenziellen Suchverarbeitung ermittelt werden, wird zu einem Abstandsverhältnis geändert, das vom Benutzer festgelegt wird (Schritt 70). Die erhaltenen ufront und urear werden auf Ufront' und Urear' eingestellt, um den dynamischen Bereich zu ändern (Schritt 71). Danach kehrt das Programm zu Schritt 62 zurück. In Schritt 62 wird die Abstandsskala-Umwandlung wieder ausgeführt.
  • Eine Reihe von Verarbeitungen in Schritt 62 bis Schritt 71 wird wiederholt, bis der Maximalwert h_dv_max [pixel] der Phasendifferenz zwischen den benachbarten Flächen im zulässigen Verzerrungsbereich h_supp_lev [pixel] liegt und die Verarbeitung wird in der Mitte unterbrochen, um eine endgültige Sollphase zu erhalten.
  • Zwei Arten von Unterbrechung der Schleifenverarbeitung in 19 werden der Reihe nach beschrieben.
  • Zunächst erfolgt in Schritt 67 die erste Unterbrechung, wenn die Anzahl von Schleifen die Grenzzahl von Schleifen erreicht, um die CPU-Last zu verringern. Wenn die Unterbrechung aufgrund der Bedingungen erfolgt, wird eine vorläufige Differenzphase einer Verzerrungsunterdrückungsverarbeitung in Pixel-Skala-Weise unterzogen, die mit der folgenden Gleichung (6) synonym ist, wie in der folgenden Gleichung (21) dargestellt, um die Werte von ufront und urear zu bestimmen, wodurch eine Bereichsumwandlung einer Tiefenschätzung in einem dadurch definierten Bereich erfolgt. ufront = df_ufront·h_supp_lev/h_dv_max für h_dv – max > h_supp_lev urear = df_urear·h_supp_lev/h_dv_max für h_dv – max > h_supp_lev (21)
  • Hier geben df_ufront und df_urear den Maximalwert beziehungsweise Minimalwert der vorläufigen Differenzphase an, die in dem Schritt zur Berechnung des Maximalwerts der Differenz in der Phasendifferenz zwischen den benachbarten Flächen ermittelt werden. Auf diese Weise soll die Differenzphase in einem neu ermittelten Bereich liegen. Es gibt kein Problem, selbst wenn ufront und urear in der vorangehenden Gleichung (21) einer Abstandsverhältnis-Aufrechterhaltungsverarbeitung unterzogen werden, die durch die folgende Gleichung (22) ausgedrückt ist: (255 – Dlev):Dlev = {lev(ufront) – Dlev}:{Dlev – lev (urear)} (22)
  • Die zweite Unterbrechung erfolgt in Schritt 65, wenn in einem Fall, in dem die Schleifenverarbeitung in Schritt 62 bis Schritt 71 ausgeführt wird, der Maximalwert h_dv_max [pixel] der Phasendifferenz, der in dem vorangehenden Schritt 64 berechnet wurde, kleiner als der Maximalwert h_dv_max [pixel] der Phasendifferenz ist, der im gegenwärtigen Schritt 64 berechnet wurde.
  • Die Unterbrechung erfolgt, wenn der Maximalwert h_dv_max der Phasendifferenz zwischen den benachbarten Flächen in der gegenwärtigen Schleife nicht kleiner als ein Wert ist, der in der vorhergehenden Schleife erhalten wurde, unabhängig von der Tatsache, dass der dynamische Bereich ausreichend verringert ist. Dies geschieht aufgrund der Tatsache, dass eine Phase, die durch die MTD-Methode erzeugt wird, durch die Verzerrungsunterdrückungsverarbeitung nicht verändert wird. Das heißt, wenn die Differenz zwischen den Phasen eines Gegenstandes und eines Hintergrundes, die durch die MTD-Methode erzeugt werden, groß ist, wird der dynamische Bereich bei einer Unterbrechung durch die Phasendifferenz zwischen den MTD-Phasen nicht verringert, selbst wenn die Anzahl von Schleifen erhöht wird. Dadurch ist die Phasendifferenz nicht mehr als h_supp_lev.
  • In einem solchen Fall wird die Verarbeitung unterbrochen, um den dynamischen Bereich durch dieselbe Verarbeitung wie jene von Schritt 73 zu ändern (Schritt 74). In diesem Fall jedoch wird der dynamische Bereich in Bezug auf die vorläufige zurückgesetzte Differenzphase geändert, die in Schritt 68 zurückgesetzt wird. Der dynamische Bereich wird in Bezug auf die vorläufige zurückgesetzte Differenzphase geändert, um die Tendenz der durch die MTD-Methode erzeugten Phase herabzusetzen, die Form der Differenzphase immer dann zu beeinflussen, wenn Verzerrungsunterdrückungsschleifen einander überlappen, und des dynamischen Bereichs, sich in Bezug auf die Differenzphase zu verringern.
  • Ein solches Verfahren ist jedoch eine symptomatische Behandlung. Daher kann die Häufigkeit des Auftretens einer erzwungenen Verzerrungsunterdrückungsverarbeitung, die durch die Phase verursacht wird, die durch die MTD-Methode erzeugt wird, nicht grundlegend verringert werden.
  • Zur Verringerung der Häufigkeit des Auftretens eines solchen Phänomens muss die Phasendifferenz in der MTD-Phase selbst zwischen den benachbarten Flächen verringert werden. In der integrierten Phasensteuerung wird daher als MTD-Phase ph_mtdj für jede Fläche ein Wert nach dem Glätten einer Parallaxe, die die Fläche integral aufweist (= eine Feldverzögerung × dem Wert eines horizontalen Bewegungsvektors in der Fläche), gemeinsam mit einer Parallaxe zwischen den benachbarten Flächen verwendet.
  • Zur Verringerung der Häufigkeit des Auftretens der erzwungenen Verzerrungsunterdrückungsverarbeitung müssen die Formen der Phasen, die durch die MTD-Methode beziehungsweise die CID-Methode erzeugt werden, gleich sein. Daher wird die Tiefenschätzung unter Berücksichtigung der Ergebnisse der Gegenstand/Hintergrund-Beurteilung durchgeführt, so dass in der integrierten Phase die CID-Phase in einer Fläche, wo die MTD-Phase erhöht ist, auch erhöht ist wie in 16 dargestellt.
  • Es wird die sequenzielle Suchverarbeitung unter Verwendung des dynamischen Bereichs in Schritt 69, der in 19 dargestellt ist, beschrieben.
    • (1) Benachbarte Flächen, zwischen welchen eine maximale Phasendifferenz in der Differenzphase besteht, werden bestimmt.
    • (2) Die Suchrichtung wird bestimmt. Insbesondere wird die Suchrichtung abhängig von entsprechenden CID-Phasen in den zwei Flächen bestimmt, zwischen welchen eine maximale Phasendifferenz vorliegt, wie in (1) bestimmt.
    • (3) Die Werte von ufront und urear werden annähernd auf den Wert eines Bildschirms gebracht.
    • (4) Die zwei Flächen werden einer Abstandsskala-Umwandlung unter Anwendung eines dynamischen Bereichs unterzogen, der durch die Werte ufront und urear definiert ist, die aktualisiert wurden, um die CID-Phasen in den zwei Flächen zu berechnen.
    • (5) Eine Differenzphase (= CID-Phase – MTD-Phase) in jeder der zwei Flächen wird berechnet.
    • (6) Eine Phasendifferenz h_dv_max in der Differenzphase zwischen den zwei Flächen wird berechnet.
    • (7) Die Phasendifferenz h_dv_max, die in (6) ermittelt wurde, wird in der folgenden Reihenfolge beurteilt: 1) Wenn h_dv_max nicht mehr als h_supp_lev ist, wird die Verarbeitung beendet. 2) Wenn h_dv_max mehr als h_supp_max in der vorangehenden Schleife ist, wird die Verarbeitung beendet, wobei ein zu ermittelnder Wert als der Wert von ufront oder urear genommen wird, der in der vorangehenden Schleife verwendet wurde. 3) Wenn h_dv_max mehr als h_supp_lev ist, wird das Programm zu (3) beurteilt.
  • Es wird nun ein Verfahren zum Steuern einer Parallaxe (einer Phase), die durch die MTD-Methode erzeugt wird, beschrieben, das von dem Parallaxen-Überwachungsmittel 112 ausgeführt wird.
  • In der integrierten Phasensteuerung unter Aufrechterhaltung der stereoskopischen Reproduzierbarkeit in der CID-Methode wird die Gegenstandspositionssteuerung in der MTD-Methode nicht verwendet. Daher kann die Phase, die durch die MTD-Methode erzeugt wird, in einigen Fällen die maximale Hervorhebungsphase Mfront [pixel] und die maximale Vertiefungsphase Urear [pixel] überschreiten, die zuvor von einem Benutzer eingestellt wurden. Das Verhalten der Phase in einem Fall, in dem ein solches Phänomen auftritt, ist in 21 dargestellt. Eine OK-Marke und eine NG-Marke am rechten Ende in 21 zeigen, dass eine integrierte Phase, die die Summe der MTD-Phase und der Differenzphase ist, in einem dynamischen Bereich Urange liegt, der zuvor von dem Benutzer bestimmt wurde, und dass die integrierte Phase den dynamischen Bereich Urange überschreitet.
  • In einem NG-Fall entsteht das folgende Problem.
  • Wenn Urear annähernd gleich dem Abstand zwischen den Augen ist, kann eine Tiefe, die nicht geringer als der Abstand zwischen den Augen ist, in der Abstandsskala nicht definiert werden. Wenn ferner ein NG-Phänomen selbst nach einer Verzerrungsunterdrückungsverarbeitung aufrechterhalten wird, kann die integrierte Phase das Prinzip der stereoskopischen Reproduktion innerhalb von Urange, das die Hauptprämisse ist, nicht aufrechterhalten.
  • Zur Lösung eines solchen Problems kann eine Parallaxe Mdly_sisa zum Bestimmen eines stereoskopischen Effekts, die durch die MTD-Methode erzeugt wird, im Voraus auf einen kleinen Wert eingestellt werden, so dass kein NG-Phänomen auftritt. Es ist jedoch schwierig zu sagen, dass dieses Verfahren bevorzugt ist, da der stereoskopische Effekt, der durch die MTD-Methode erzeugt wird, verloren geht. Daher ist eine solche Steuerung erforderlich, dass das Auftreten des NG-Phänomens bis zu einem gewissen Grad als Kompensation zur Erhöhung von Mdly-sisa erkannt wird, um eine Sollverzögerung dly_target nur zu verringern, wenn eine Phase, die Ufront und Urear überschreitet, erzeugt wird (siehe 22).
  • Zur Unterdrückung der Phase innerhalb von Urange in diesem Verfahren müssen Werte, deren absolute Werte kleiner als die entsprechenden Werte sind, als interner Ufront und Urear in Vorwegnahme eines Überschreitens der Phase von Urange, die zum Zeitpunkt der gleichzeitigen Verwendung der MTD-Methode erzeugt wird, anstelle von Ufront und Urear verarbeitet werden, die Werte sind, die von Anfang an vom Benutzer eingestellt werden. Ferner muss in einem Verfahren zum Umwandeln der Abstandsskala unter Verwendung einer Parallaxen-Umwandlungstabelle eine Phase außerhalb der Umwandlungstabelle so gerundet sein, dass sie in der Umwandlungstabelle enthalten ist.
  • 23 zeigt die Prozedur zur Steuerungsverarbeitung (die Prozedur zur Steuerungsverarbeitung, die von dem Parallaxen-Überwachungsmittel 112 ausgeführt wird) zur Durchführung der in 22 dargestellten Verarbeitung.
  • In 23 wird eine Sollverzögerung verringert, wenn eine integrierte Phase für jede Fläche (die Summe einer realen Phase und einer Phase mal einer realen Verzögerung) Ufront und Urear überschreitet.
  • Daher müssen entsprechende Phasen, die durch die MTD-Methode in einer Gegenstandsfläche und einer Hintergrundsfläche erzeugt werden, für jedes Feld berechnet werden (Schritt 81). Die Phase im gegenwärtigen Feld wird unter Verwendung einer realen Phase phase [pixel] und einer realen Verzögerung delay [pixel] berechnet, um die Präzision zu verbessern.
  • Bei der tatsächlichen Steuerung werden eine reale Parallaxe obj_sisa' [pixel] in der Gegenstandsfläche und eine reale Parallaxe bg_sisa' [pixel] in der Hintergrundsfläche, die durch eine Feldverzögerung in der MTD-Methode erzeugt werden, und eine reale Parallaxe ng_sisa' [pixel] in einer NG-Fläche (es ist nicht klar, zu welcher der Flächen die NG-Fläche gehört) durch die folgende Gleichung (23) ermittelt: obj_sisa' = obj_vect·delay bg_sisa' = bg_vect·delay ng_sisa' = (obj_sisa' + bg_sisa')/2 (23)
  • Wie durch folgende Gleichung (24) ausgedrückt, werden die reale Parallaxe in jeder der Flächen und eine reale Phase rph_diffj [pixel], die durch Glätten einer wahren Sollphase in der Fläche auf einer Zeitbasis erhalten wird, addiert, wodurch eine reale integrierte Phase u_phasej [pixel] in der Fläche ermittelt wird (Schritt 82) u_phasej = obj_sisa' + ph_diffj für Gegenstandsfläche u_phasej = bg_sisa' + ph_diffj für Hintergrundsfläche u_phasej = ng_sisa' + ph_diffj für NG-Fläche (24)
  • Zur Bestimmung, ob die reale integrierte Phase u_phase in einem Bereich von Ufront und Urear liegt, der vom Benutzer eingestellt wird, wird eine Phase over_phase [pixel], die anzeigt, wie eine Phase in der Fläche von jener, die vom Benutzer eingestellt ist, beabstandet ist, durch die folgende Gleichung (25) ermittelt, wenn die reale integrierte Phase außerhalb des Bereichs ist (Schritt 83): over_phasej = u_phasej – Ufront für u_phasej > Ufront over_phasej = – (u_phasej – Urear) für Urear > u_phasej over_hasej = 0 für Ufront ≥ u_phasej ≥ Urear (25)
  • Dann wird der Maximalwert over_map [pixel] der Phase over_phase in jeder der Flächen, die einen Bildschirm bilden, ermittelt, um eine Sollverzögerungsunterdrückungsverarbeitung zur Verringerung einer Sollverzögerung durchzuführen, wenn over_maxp nicht Null ist (Schritt 84).
  • In der Sollverzögerungsunterdrückungsverarbeitung wird zuerst die Phase over_maxp, die in der vorangehenden Gleichung (25) ermittelt wurde, von dem absoluten Wert der realen Parallaxe dly_sisa' [pixel] in dem gegenwärtigen Feld subtrahiert, das durch eine Feldverzögerung erzeugt wird, um eine Parallaxe dly_sisa'', die durch die MTD-Methode erzeugt werden kann, durch die folgende Gleichung (26) zu ermitteln: dly_sisa'' = |dly_sisa'| – over_maxp = |obj_sisa' – bg_sisa'| – over_maxp (26)
  • Die Sollverzögerung dly_target', die auf der Basis der Parallaxe dly_sisa'' unterdrückt wird, wird durch folgende Gleichung (27) ermittelt: dly_target' = dly_sisa''/(obj_xvec – bg_xvec)[field] (27)
  • Ein Verfahren, bei dem sich die Übergangsgeschwindigkeit einer realen Verzögerung abhängig von der Differenz zwischen der realen Verzögerung und einer Sollverzögerung ändert, ist vorgesehen, um die Sollverzögerung dly_target' und die Sollverzögerung dly_target vor der Unterdrückung zu vergleichen, und die kleinere von ihnen wird als die endgültige Sollverzögerung dly_target'' nach der Unterdrückung genommen. Das heißt, die endgültige Sollverzögerung dly_target" nach der Unterdrückung wird durch die folgende Gleichung (28) ausgedrückt: dly_target'' = delay – 1 für 0 < delay < dly_target' dly_target'' = delay + 1 für 0 > delay > dly_target' dly_target'' = dly_target' für |delay| > |dly_target'] (28)
  • Obwohl die Phase, die durch die MTD-Methode erzeugt wird, durch die reale Verzögerung und die reale Parallaxe unterdrückt wird, kann sie auch durch die Sollphase und die Sollverzögerung unterdrückt werden, wenn eine Last auf einer CPU Priorität gegenüber Präzision erhält.

Claims (2)

  1. Verfahren zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video, umfassend einen ersten Schritt (11) zum Extrahieren eines Bildmerkmals aus jeder von mehreren Parallaxen-Berechnungsflächen, die in einem Schirm auf der Basis eines zweidimensionalen Videosignals eingestellt sind, und zum Erstellen einer Tiefenschätzung (12) für die Parallaxen-Berechnungsfläche auf der Basis des extrahierten Bildmerkmals, dadurch gekennzeichnet, dass es einen zweiten Schritt (13, 22) zum Unterziehen jeder der Tiefenschätzungen einer Abstandsskala-Umwandlung unter Verwendung eines dynamischen Bereichs, der durch ein vorbestimmtes maximales Hervorhebungsmaß und ein vorbestimmtes maximales Vertiefungsmaß definiert ist, um eine vorläufige Sollphase für jede der Parallaxen-Berechnungsflächen zu ermitteln, umfasst sowie einen dritten Schritt (23) zum Ermitteln des Maximalwertes einer Phasendifferenz zwischen den benachbarten Parallaxen-Berechnungsflächen auf der Basis der vorläufigen Sollphase für jede der Parallaxen-Berechnungsflächen, einen vierten Schritt (24) zur Beurteilung, ob der Maximalwert der Phasendifferenz zwischen den benachbarten Parallaxen-Berechnungsflächen in einem vorbestimmten zulässigen Verzerrungsbereich liegt oder nicht, und einen fünften Schritt (25) zum Suchen, wenn der Maximalwert der Phasendifferenz zwischen den benachbarten Parallaxen-Berechnungsflächen außerhalb des vorbestimmten zulässigen Verzerrungsbereichs liegt, nach einem solchen dynamischen Bereich, dass die Phasendifferenz zwischen den Parallaxen-Berechnungsflächen in dem vorbestimmten zulässigen Verzerrungsbereich liegt, Unterziehen jeder der Tiefenschätzungen einer Abstandsskala-Umwandlung unter Verwendung des gesuchten dynamischen Bereichs und Ermitteln einer vorläufigen Sollphase für jede der Parallaxen-Berechnungsflächen, und Fortfahren mit dem dritten Schritt (23).
  2. Verfahren zum Umwandeln eines zweidimensionalen Videos in ein dreidimensionales Video nach Anspruch 1, wobei in dem fünften Schritt (25) der gesuchte dynamische Bereich so korrigiert wird (26), dass das Verhältnis des maximalen Hervorhebungsmaßes zu dem maximalen Vertiefungsmaß, die durch den dynamischen Bereich definiert sind, ein vorbestimmtes Verhältnis ist, und jede der Tiefenschätzungen dann einer Abstandsskala-Umwandlung unter Verwendung des korrigierten dynamischen Bereichs unterzogen wird.
DE60014420T 1999-11-26 2000-11-24 Verfahren zur 2d/3d videoumwandlung Expired - Lifetime DE60014420T2 (de)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
JP33682499 1999-11-26
JP33682499 1999-11-26
JP2000058047 2000-03-02
JP2000058047 2000-03-02
JP2000109211A JP2001320731A (ja) 1999-11-26 2000-04-11 2次元映像を3次元映像に変換する装置及びその方法
JP2000109211 2000-04-11
JP2000109210A JP4036599B2 (ja) 2000-04-11 2000-04-11 2次元映像を3次元映像に変換する方法
JP2000109210 2000-04-11
PCT/JP2000/008315 WO2001039512A1 (en) 1999-11-26 2000-11-24 Device and method for converting two-dimensional video to three-dimensional video

Publications (2)

Publication Number Publication Date
DE60014420D1 DE60014420D1 (de) 2004-11-04
DE60014420T2 true DE60014420T2 (de) 2005-10-13

Family

ID=27480553

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60014420T Expired - Lifetime DE60014420T2 (de) 1999-11-26 2000-11-24 Verfahren zur 2d/3d videoumwandlung

Country Status (6)

Country Link
US (1) US7161614B1 (de)
EP (1) EP1235438B1 (de)
AT (1) ATE278298T1 (de)
DE (1) DE60014420T2 (de)
TW (1) TW521519B (de)
WO (1) WO2001039512A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012100848A1 (de) 2012-02-01 2013-08-01 Christian Hendrich System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102015112411A1 (de) 2015-07-29 2017-02-02 Universal Consulting GmbH System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
EP2357840A3 (de) * 2002-03-27 2012-02-29 Sanyo Electric Co., Ltd. Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
EP1370075B1 (de) * 2002-06-06 2012-10-03 Accenture Global Services Limited Dynamisches Ersetzen eines Schauspielergesichts in einem Videofilm
CN1675937B (zh) 2002-08-20 2011-08-24 江良一成 生成立体图像的方法和装置
US20060103664A1 (en) * 2002-08-27 2006-05-18 Sharp Kabushiki Kaisha Contents reproduction device capable of reproducing a contents in optimal reproduction mode
EP1587329B1 (de) * 2003-01-20 2015-04-15 Sanyo Electric Co., Ltd. Bereitstellungsverfahren für dreidimensionales video und anzeigeeinrichtung für dreidimensionales video
JP3700707B2 (ja) * 2003-03-13 2005-09-28 コニカミノルタホールディングス株式会社 計測システム
KR100505334B1 (ko) * 2003-03-28 2005-08-04 (주)플렛디스 운동 시차를 이용한 입체 영상 변환 장치
AU2004237705B2 (en) * 2003-05-02 2009-09-03 Yoostar Entertainment Group, Inc. Interactive system and method for video compositing
US8027531B2 (en) * 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
KR100649523B1 (ko) * 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
EP2289235A4 (de) 2008-05-20 2011-12-28 Pelican Imaging Corp Aufnahme und verarbeitung von bildern mittels monolithischer kamera anordnung mit heterogenem bildwandler
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5083052B2 (ja) * 2008-06-06 2012-11-28 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
EP2292017A1 (de) * 2008-06-13 2011-03-09 Thomson Licensing System und verfahren zur markierung eines stereoskopischen films
WO2010024479A1 (en) * 2008-08-26 2010-03-04 Enhanced Chip Technology Inc. Apparatus and method for converting 2d image signals into 3d image signals
WO2010025458A1 (en) * 2008-08-31 2010-03-04 Mitsubishi Digital Electronics America, Inc. Transforming 3d video content to match viewer position
CN101673395B (zh) * 2008-09-10 2012-09-05 华为终端有限公司 图像拼接方法及装置
US20110169824A1 (en) * 2008-09-29 2011-07-14 Nobutoshi Fujinami 3d image processing device and method for reducing noise in 3d image processing device
US8233664B2 (en) * 2008-11-12 2012-07-31 Eastman Kodak Company Determining relative depth of points in multiple videos
CN103607585A (zh) * 2009-01-21 2014-02-26 株式会社尼康 图像处理装置、图像处理方法
WO2010085549A1 (en) * 2009-01-21 2010-07-29 Vision Iii Imaging, Inc. System and method for three-dimensional visualization of geographical data
US9172940B2 (en) * 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
CN101815225B (zh) * 2009-02-25 2014-07-30 三星电子株式会社 生成深度图的方法及其设备
CN101631256B (zh) * 2009-08-13 2011-02-09 浙江大学 用于三维电视系统中2d视频到3d视频的转换方法
JP2011101230A (ja) * 2009-11-06 2011-05-19 Sony Corp 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
WO2011115142A1 (ja) * 2010-03-19 2011-09-22 Okiセミコンダクタ株式会社 画像処理装置、方法、プログラム及び記録媒体
US8928793B2 (en) 2010-05-12 2015-01-06 Pelican Imaging Corporation Imager array interfaces
US8421847B2 (en) * 2010-05-21 2013-04-16 Mediatek Inc. Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
JP5530322B2 (ja) * 2010-09-22 2014-06-25 オリンパスイメージング株式会社 表示装置および表示方法
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
TWI454130B (zh) * 2010-12-28 2014-09-21 Himax Media Solutions Inc 二維轉三維的顏色補償系統及其方法
WO2012104759A1 (en) 2011-02-04 2012-08-09 Koninklijke Philips Electronics N.V. Method of recording an image and obtaining 3d information from the image, camera system
US9300947B2 (en) * 2011-03-24 2016-03-29 Kodak Alaris Inc. Producing 3D images from captured 2D video
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
EP2525581A3 (de) * 2011-05-17 2013-10-23 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Umwandeln von 2D-Inhalten in 3D-Inhalte, computerlesbares Speichermedium damit
TR201104918A2 (tr) 2011-05-20 2012-12-21 Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. Derinlik haritası ve 3d video oluşturmak için yöntem ve aygıt.
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
JP5095850B1 (ja) * 2011-08-31 2012-12-12 株式会社東芝 オブジェクト探索装置、映像表示装置およびオブジェクト探索方法
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
IN2014CN03412A (de) 2011-11-01 2015-10-09 Koninkl Philips Nv
JP5303692B1 (ja) * 2011-11-28 2013-10-02 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
CN102427550A (zh) * 2011-12-09 2012-04-25 彩虹集团公司 一种实现2d转3d的方法
TWI483612B (zh) * 2011-12-22 2015-05-01 Nat Univ Chung Cheng Converting the video plane is a perspective view of the video system
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN104662589B (zh) 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
EP2888698A4 (de) 2012-08-23 2016-06-29 Pelican Imaging Corp Eigenschaftsbasierte hochauflösende bewegungsschätzung aus mit einer arrayquelle aufgenommenen niedrigauflösenden bildern
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US9250653B2 (en) 2012-09-28 2016-02-02 City University Of Hong Kong Capturing, processing, and reconstructing audio and video content of mobile devices
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
EP2973476A4 (de) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systeme und verfahren zur stereobildgebung mit kameraarrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
CA2909245C (en) * 2013-04-09 2018-02-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion method and system
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
EP3066690A4 (de) 2013-11-07 2017-04-05 Pelican Imaging Corporation Verfahren zur herstellung von arraykameramodulen zur bildung unabhängig ausgerichteter linsenstapel
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
CN103824303A (zh) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 基于被摄物的位置、方向调整图像透视畸变的方法和装置
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
WO2015191767A1 (en) * 2014-06-10 2015-12-17 Bitanimate, Inc. Stereoscopic depth adjustment and focus point adjustment
US9591290B2 (en) * 2014-06-10 2017-03-07 Bitanimate, Inc. Stereoscopic video generation
US9693042B2 (en) 2014-06-10 2017-06-27 Bitanimate, Inc. Foreground and background detection in a video
US9661309B2 (en) * 2014-06-10 2017-05-23 Bitanimate, Inc. Stereoscopic video zooming
WO2015191768A1 (en) * 2014-06-10 2015-12-17 Bitanimate, Inc Stereoscopic video zooming and foreground and background detection in a video
AU2014397095B2 (en) * 2014-06-12 2018-07-05 Eizo Corporation Haze removal device and image generation method
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
EP3201877B1 (de) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systeme und verfahren zur dynamischen kalibrierung von array-kameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10277879B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including rendering with eye displacement
US10242448B2 (en) 2015-11-13 2019-03-26 Vefxi Corporation 3D system including queue management
US10277880B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including rendering with variable displacement
US10148933B2 (en) 2015-11-13 2018-12-04 Vefxi Corporation 3D system including rendering with shifted compensation
US10284837B2 (en) 2015-11-13 2019-05-07 Vefxi Corporation 3D system including lens modeling
US10121280B2 (en) 2015-11-13 2018-11-06 Vefxi Corporation 3D system including rendering with three dimensional transformation
WO2017083509A1 (en) * 2015-11-13 2017-05-18 Craig Peterson Three dimensional system
US10277877B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including a neural network
US10148932B2 (en) 2015-11-13 2018-12-04 Vefxi Corporation 3D system including object separation
US20170140571A1 (en) * 2015-11-13 2017-05-18 Craig Peterson 3d system including rendering with curved display
US10122987B2 (en) 2015-11-13 2018-11-06 Vefxi Corporation 3D system including additional 2D to 3D conversion
US10225542B2 (en) 2015-11-13 2019-03-05 Vefxi Corporation 3D system including rendering with angular compensation
US10154244B2 (en) 2016-02-18 2018-12-11 Vefxi Corporation 3D system including a marker mode
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
CN110673114B (zh) * 2019-08-27 2023-04-18 三赢科技(深圳)有限公司 校准三维相机深度的方法、装置、计算机装置及存储介质
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100358021B1 (ko) 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JP3214688B2 (ja) * 1994-02-01 2001-10-02 三洋電機株式会社 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置
JP2846830B2 (ja) * 1994-11-22 1999-01-13 三洋電機株式会社 2次元映像を3次元映像に変換する方法
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
JP3454684B2 (ja) 1997-09-22 2003-10-06 三洋電機株式会社 2次元映像を3次元映像に変換する装置
JP3485764B2 (ja) 1997-09-18 2004-01-13 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012100848A1 (de) 2012-02-01 2013-08-01 Christian Hendrich System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102012100848B4 (de) 2012-02-01 2019-05-29 Hans Pfriem System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102015112411A1 (de) 2015-07-29 2017-02-02 Universal Consulting GmbH System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops

Also Published As

Publication number Publication date
EP1235438A4 (de) 2003-03-05
EP1235438B1 (de) 2004-09-29
WO2001039512A1 (en) 2001-05-31
ATE278298T1 (de) 2004-10-15
TW521519B (en) 2003-02-21
DE60014420D1 (de) 2004-11-04
US7161614B1 (en) 2007-01-09
EP1235438A1 (de) 2002-08-28

Similar Documents

Publication Publication Date Title
DE60014420T2 (de) Verfahren zur 2d/3d videoumwandlung
KR100414629B1 (ko) 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
DE69812882T2 (de) Verfahren zur bewegungskompensierten Mehrhalbbildverbesserung von Videostandbildern
CN106504190B (zh) 一种基于3d卷积神经网络的立体视频生成方法
EP0293644B1 (de) Verfahren zur Ermittlung von Bewegungsvektorfeldern aus digitalen Bildsequenzen
DE10016074B4 (de) Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
EP1770635B1 (de) Iteratives Verfahren zur Interpolation von Bildinformationswerten
DE69531583T2 (de) Bildverarbeitungsverfahren und -gerät
WO2003046832A1 (de) Erzeugung einer stereo-bildfolge aus einer 2d-bildfolge
DE60127866T2 (de) Verringern von aura-artigen effekten bei der bewegungskompensierten interpolation
EP2472889A1 (de) Verfahren zur autosteroskopischen Darstellung von Bildinformationen mit einer Anpassung an Änderungen der Kopfposition des Betrachters
DE602005001717T2 (de) Bildverarbeitungsvorrichtung und -verfahren, Speichermedium und Programm
DE2937282A1 (de) Anlage zur unterdrueckung von bildrauschen
EP2676449B1 (de) Verfahren und vorrichtung zur stereobasis-erweiterung von stereoskopischen bildern und bildfolgen
DE69735968T2 (de) Vorrichtung und Verfahren zur Bildinformationsumwandlung
DE69626475T2 (de) Verfahren zur Korrektur von Bewegungsschätzung in Bildern mit periodischen Strukturen
DE69721979T2 (de) Gradientbasierte bewegungsschätzung
EP3844943B1 (de) Verfahren zur anzeige eines modells einer umgebung, steuergerät und fahrzeug
EP3170307A1 (de) Verfahren zur darstellung einer dreidimensionalen szene auf einem autostereoskopischen monitor
EP2105883A1 (de) Verfahren zum Testen eines Bewegungsvektors
DE102008046505B4 (de) Verfahren zur Bildverarbeitung von Stereobildern
DE19909627A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Verschiebung von Bildern einer Bildsequenz
DE602004011646T2 (de) Verfahren zur Einstellung eines Bewegungsvektors im digitalen Video
EP1397002B1 (de) Gradientengestütztes Verfahren zur Bildpunktinterpolation
EP1976288B1 (de) Iteratives Verfahren zur Interpolation von Bildinformationswerten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 1235438

Country of ref document: EP

Representative=s name: PATENTANWAELTE OSTRIGA, SONNET, WIRTHS & VORWE, DE

Ref document number: 1235438

Country of ref document: EP

Representative=s name: ROCHE, VON WESTERNHAGEN & EHRESMANN, DE

R082 Change of representative

Ref document number: 1235438

Country of ref document: EP

Representative=s name: ROCHE, VON WESTERNHAGEN & EHRESMANN, DE