DE60031924T2 - Vorrichtung und Verfahren zur Wiedergabe von Video- und Audiosignalen - Google Patents

Vorrichtung und Verfahren zur Wiedergabe von Video- und Audiosignalen Download PDF

Info

Publication number
DE60031924T2
DE60031924T2 DE60031924T DE60031924T DE60031924T2 DE 60031924 T2 DE60031924 T2 DE 60031924T2 DE 60031924 T DE60031924 T DE 60031924T DE 60031924 T DE60031924 T DE 60031924T DE 60031924 T2 DE60031924 T2 DE 60031924T2
Authority
DE
Germany
Prior art keywords
audio signal
state
original
recorded
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60031924T
Other languages
English (en)
Other versions
DE60031924D1 (de
Inventor
Seong-jin Suwon-City Moon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=36295265&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60031924(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of DE60031924D1 publication Critical patent/DE60031924D1/de
Publication of DE60031924T2 publication Critical patent/DE60031924T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/215Recordable discs
    • G11B2220/216Rewritable discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Description

  • Die vorliegende Erfindung betrifft das Gebiet von Filmen und im Besonderen eine Vorrichtung und ein Verfahren zum Aufzeichnen und/oder Wiedergeben von Zustandsinformationen in Verbindung mit Audiosignal für Filme und ein Aufzeichnungsmedium zum Speichern von Audiosignal-Zustandsinformationen.
  • Entwicklungen auf dem Gebiet digitaler Kompressionstechniken und Erhöhungen bei der Kapazität von Aufzeichnungsmedien ermöglichen inzwischen, dass Filminformationen zu digitalen Daten komprimiert und aufgezeichnet werden können. Kompressionstechniken umfassen eine Vielfalt von Standards. Bei Videosignal ist der Standard MPEG(Moving Pictures Experts Group)-2 Video (ISO/IEC 13818-2) MP@ML (Main Profile at Main Level), der dieselbe Bildqualität wie aktuelle analoge Fernsehen aufweist, nun der am breitesten verwendete. Die Verwendung des Standards MPEG-2 MP@HL (Main Profile at High Level), der die Bildqualität von High Definition Television (HDTV) erreichen kann, nimmt rapide zu. Bei Audiosignal wird AC(Audio Coding)-3 im Allgemeinen in Nordamerika verwendet und der Standard MPEG1/2 Audio (ISO/IEC 13818-3) wird in Europa verwendet. Die Menge von Audiodaten ist geringer als die von Videodaten, so dass der Standard linearer Pulscodemodulation (LPCM), bei dem es keine Kompression gibt, außerdem für Audiosignal verwendet werden kann.
  • Auf diese Weise werden Audiodaten und Videodaten nach jeweiligen Standards signalverarbeitet und dann zu Daten eines Bitstroms kombiniert. Derzeit wird im Allgemeinen der Standard MPEG-2 System (ISO/IEC 13818-1) verwendet. Das heißt, dass die Audiodaten und die Videodaten jeweils paketiert werden und Unterscheidungsinformationen zum Unterscheiden zwischen Audiosignal und Videosignal, Puffersteuerinformationen und Zeitsteuerinformationen zum Synchronisieren eines Audiosignals mit einem Videosignal zu jedem Paket hinzugefügt werden. Zeitsteuerinformationen in Bezug auf ein Taktsignal, das von einem Decodierer zu verwenden ist, werden ebenfalls zu jedem Paket hinzugefügt, was zu Stapeldaten führt. Hier gibt der Digital Versatile Disc(DVD)-Video-Standard vor, dass die Größe eines Datenstapels 2048 Byte beträgt.
  • Eine allgemeine Filmaufzeichnungsvorrichtung umfasst mehrere wichtige Funktionen, unter denen sich eine Nachaufzeichnungsfunktion befindet, um später lediglich einen Audioabschnitt unter Filmdaten, die bereits auf einem Aufzeichnungsmedium aufgezeichnet wurden, zu ersetzen und zu überschreiben. Bestehende analoge Aufzeichnungsmedien besitzen Spuren, auf denen Videosignale für Filme und Audiosignale getrennt aufgezeichnet sind, so dass die Nachaufzeichnungsfunktion leicht durchzuführen ist. Außerdem ist ein Analogsignal nicht in einer besonderen Aufzeichnungseinheit aufgezeichnet, so dass Arbeitsgänge, die für die Nachaufzeichnung erforderlich sind, durch Überschreiben eines gewünschten Abschnitts abgeschlossen werden.
  • Hier wird Audiosignal, das ursprünglich aufgezeichnet wurde, Originalaudiosignal genannt, und Audiosignal, das später zu ersetzen und aufzuzeichnen ist, wird Sekundäraudiosignal genannt. Um Originalaudiosignal bei Aufzeichnen von Sekundäraudiosignal zu bewahren, müssen zwei Audiosignalspuren zum getrennten Aufzeichnen des Originalaudiosignals und des Sekundäraudiosignals hergestellt werden. Entsprechend werden Originalaudiosignal und Sekundäraudiosignal durch die Positionen ihrer Spuren voneinander unterschieden.
  • Auch wenn die beiden Spuren zeitgleich abgespielt werden, wird das Sekundäraudiosignal lediglich dann ausgegeben, wenn ein Audiosignal in der Spur für Sekundäraudiosignal besteht, und ansonsten wird ein Audiosignal, das in der Spur für Originalaudiosignal besteht, ausgegeben. Auf diese Weise kann Sekundäraudiosignal, das teilweise auf einer Spur aufgezeichnet wurde, wiedergegeben werden. Wenn die Wiedergabe von lediglich dem Originalaudiosignal gewünscht wird, kann ein Audiosignal auf der Originalaudiosignalspur unabhängig von dem Bestehen oder Nichtbestehen von Audiosignalen auf der Sekundäraudiosignalspur wiedergegeben werden.
  • Jedoch wurden bei dem digitalen Aufzeichnungsmedium Audio-Video-Signale (AV-Signale) gemischt und auf einem Aufzeichnungsbereich in einer vorgegebenen Aufzeichnungseinheit ohne Klassifizierung aufgezeichnet, so dass Aufzeichnen und Wiedergeben von Sekundäraudiosignal unter Verwendung des Überschreibverfahrens, das von dem analogen Aufzeichnungsmedium verwendet wird, nicht möglich ist.
  • EP 1030307 (Matsushita Electrical Industrial Co., Ltd.) bildet den Stand der Technik nach Artikel 54(3) EPÜ. Diese Anmeldung betrifft ein Informationsaufzeichnungsmedium, eine Vorrichtung und ein Verfahren zum Durchführen von Nachaufzeichnung auf einem Aufzeichnungsmedium. Das Aufzeichnungsmedium umfasst Audiosignalströme, die für Nachaufzeichnungsdaten hergestellt sind, und Audiosignalattributinformationen mit Bitrateninformationen zu dem aufgezeichneten Audiosignalstrom als Verwaltungsinformationen. Eine Aufzeichnungsvorrichtung besitzt eine Prüfeinheit zum Vorabprüfen der Möglichkeit zum Durchführen eines Nachaufzeichnungsvorgangs an dem Audiosignalstrom.
  • EP 924704 (Matsushita Electrical Industrial Co., Ltd.) offenbart eine beschreibbare optische Platte, die ein oder mehrere Videoobjekte speichert. Ein Videosignalstrom, ein erster Audiosignalstrom und ein zweiter Audiosignalstrom, der zum Nachvertonen verwendet wird oder in das Videoobjekt gemultiplext wird. Außerdem erzeugt eine Optische-Platte-Aufzeichnungsvorrichtung den zweiten Audiosignalstrom durch eine Audiosignalstromerzeugungseinrichtung und multiplext den erzeugten zweiten Audiosignalstrom über Multiplexeinrichtungen zusammen mit dem Videoobjekt und dem ersten Audiosignalstrom in jedes Videoobjekt. Die erzeugten Videoobjekte werden durch eine Aufzeichnungseinrichtung auf der beschreibbaren optischen Platte aufgezeichnet. Die optische Platte, auf der solche Videoobjekte gespeichert sind, erleichtert das Nachvertonen.
  • Im Hinblick auf die Lösung oder Verringerung des vorgenannten Problems ist es ein Ziel der vorliegenden Erfindung, eine Wiedergabevorrichtung zum selektiven Wiedergeben von Originalaudiosignal oder Sekundäraudiosignal auf der Basis von Audiosignal-Zustandsinformationen bereitzustellen.
  • Noch ein weiteres Ziel besteht darin, ein Wiedergabeverfahren zum selektiven Wiedergeben von Originalaudiosignal oder Sekundäraudiosignal auf der Basis von Audiosignal-Zustandsinformationen bereitzustellen.
  • Aspekte der vorliegenden Erfindung werden in den angehängten Ansprüchen definiert.
  • Für ein besseres Verstehen der Erfindung und zum Aufzeigen, wie Ausführungen derselben in die Praxis umgesetzt werden können, wird nun in beispielhafter Form Bezug auf die begleitenden grafischen Zeichnungen genommen, bei denen:
  • 1 ein Blockdiagramm einer Ausführung optischer Aufzeichnungs-Wiedergabe-Vorrichtung ist, auf die die vorliegende Erfindung angewendet wird;
  • 2 die hierarchische Struktur von Filmdaten zum Erleichtern des Verstehens der vorliegenden Erfindung zeigt;
  • 3A und 3B das in 2 gezeigte Videoobjekt (VOB) zeigen;
  • 4A bis 4D den in 3 gezeigten Stapel zeigen;
  • 5 ein Beispiel für die Struktur von Audiosignal-Zustandsinformationen in Videoobjektinformationen (VOBI) nach Ausführungen der vorliegenden Erfindung zeigt;
  • 6 eine Zustandsveränderung von dem Zeitpunkt vor dem Neuaufzeichnen von Sekundäraudiosignal bis zu dem Zeitpunkt nach dem Neuaufzeichnen des Sekundäraudiosignals zeigt, wenn lediglich erstes Audiosignal besteht; und
  • 7 eine Zustandsveränderung von dem Zeitpunkt vor dem Neuaufzeichnen von Sekundäraudiosignal bis zu dem Zeitpunkt nach dem Neuaufzeichnen des Sekundäraudiosignals zeigt, wenn erstes und zweites Audiosignal bestehen.
  • Eine Digital Versatile Disk(DVD)-Video-Aufzeichnungsvorrichtung und -Abspielvorrichtung, wie in 1 gezeigt, werden als eine bevorzugte Ausführung einer Aufzeichnungsvorrichtung und einer Wiedergabevorrichtung angenommen, auf die die vorliegende Erfindung angewendet wird.
  • Mit Bezugnahme auf 1 sind die Blöcke 102 bis 114 für die Wiedergabe bestimmt und die Blöcke 116 und 126 sind für die Aufzeichnung bestimmt. Eine Wiedergabevorrichtung kann lediglich Blöcke für die Wiedergabe enthalten und eine Aufzeichnungsvorrichtung kann lediglich Blöcke für die Aufzeichnung enthalten. Eine optische Aufnahme einheit (100), eine Tasteneingabeeinheit und Anzeige (128) zum Bilden einer Schnittstelle mit einem Benutzer und Anzeigen einer Benutzerschnittstelle und eine Systemsteuerung (130) zum Steuern der Operation jedes Blocks sind sowohl in der Aufzeichnungsvorrichtung als auch in der Wiedergabevorrichtung enthalten.
  • Typische Aufzeichnungsvorrichtungen sind zum Aufzeichnen und Wiedergeben in der Lage, so dass alle Blöcke in einer Vorrichtung installiert werden können. Somit kann bei der vorliegenden Erfindung, wenn eine Aufzeichnungsvorrichtung zum Aufzeichnen arbeitet, dies eine Wiedergabevorrichtung sein.
  • Bei den Operationen von Blöcken in einer allgemeinen Wiedergabevorrichtung umfasst die optische Aufnahmeeinheit (100) ein optisches System zum Lesen eines Signals von einem Aufzeichnungsmedium und Umwandeln des gelesenen Signals in ein elektrisches Signal und einen Mechanismus zum Bewegen des optischen Systems, so dass das optische System Daten an gewünschten Positionen auf dem Aufzeichnungsmedium liest und schreibt. Dieser Mechanismus wird durch eine digitale Servoeinheit (102) gesteuert. Ein Hochfrequenzverstärker (HF-Verstärker) (104) verstärkt das elektrische Signal, das durch das optische System von dem Aufzeichnungsmedium gelesen wurde, und stellt das resultierende Signal für einen Datendecodierer (106) bereit. Außerdem stellt der HF-Verstärker (104) ein Servosignal zum Ausgleichen der Position des optischen Systems für die digitale Servoeinheit (102) bereit.
  • Der Datendecodierer (106) wandelt das verstärkte elektrische Signal, das von dem HF-Verstärker (104) ausgegeben wurde, in ein digitales Signal um, das durch die Pegel „0" und „1" auf der Basis eines entsprechenden Signalpegels (der als ein Binarisierungspegel bezeichnet wird) ausgedrückt wird. Das digitale Signal wurde nach den Aufzeichnungskennlinien eines typischen Aufzeichnungsmediums moduliert. Außerdem demoduliert der Datendecodierer (106) das digitale Signal nach einem Demodulationsplan, der einem Modulationsplan entspricht, der bei Modulation verwendet wird. Das demodulierte digitale Signal ist ein Fehlerkorrekturcode-Signal (ECC-Signal), an das eine Parität angehängt wird, um Fehler, die durch Kratzer, Defekte oder Ähnliches an einem Aufzeichnungsmedium verursacht wurden, zu korrigieren. Der Datendecodierer (106) korrigiert einen erzeugten Fehler durch Fehlerkorrekturdecodieren der demodulierten Daten und stellt fehlerkorrekturcodierte Daten für einen Audio-Video-Decodierer (AV-Decodierer) (108) bereit.
  • Daten, die von dem Datendecodierer (106) ausgegeben werden, haben eine Form, bei der wenigstens eines von Videodaten, Audiodaten und Grafikdaten komprimiert wurde. Audiodaten können möglicherweise nicht komprimiert werden, da sie eine kleinere Menge von Informationen im Verhältnis zu der Menge von Videodaten aufweisen. Videodaten werden typischerweise nach dem MPEG-Standard komprimiert. Grafikdaten werden nach einem verlustfreien Kompressionsplan komprimiert, bei dem es keinen Informationsverlust gibt. Der AV-Decodierer (108) decodiert Video-, Audio- und/oder Grafikdaten nach den jeweiligen Kompressionsplänen, um die Video-, Audio- und/oder Grafikdaten wiederherzustellen. Im Besonderen werden die Grafikdaten mit den Videodaten gemischt.
  • Ein Speicher (110), der mit dem AV-Decodierer (108) verbunden ist, speichert vorübergehend die von dem AV-Decodierer (108) empfangenen Daten, bevor die Daten decodiert werden, oder speichert vorübergehend wiederhergestellte Daten, bevor die Daten ausgegeben werden. Nächstfolgend werden Daten, die von dem AV-Decodierer (108) bereitgestellt werden, umgewandelt, um an Ausgabevorrichtungen ausgegeben zu werden. Das heißt, dass ein Video-Digital-Analog-Wandler (DAU) (112) wiederhergestellte digitale Videodaten in ein analoges Videosignal umwandelt und das analoge Videosignal an einen Fernseher oder einen Monitor ausgibt. Ein Audio-DAU (114) wandelt wiederhergestellte digitale Audiodaten in ein analoges Audiosignal um und gibt das analoge Audiosignal an einen Lautsprecher oder einen Audioverstärker aus. Der Fernseher, Monitor, Lautsprecher und Audioverstärker, die Endausgabevorrichtungen sind, werden in 1 nicht gezeigt.
  • Bei der Operation von Blöcken in einer Aufzeichnungsvorrichtung wird ein Audiosignal oder ein Videosignal von einer externen Eingabevorrichtung empfangen. Hier kann die externe Eingabevorrichtung ein Fernseher, eine Kamera oder Ähnliches sein und wird nicht in 1 gezeigt.
  • Empfangene Video- und Audiosignale sind von einer analogen oder digitalen Form und werden auf geeignete Weise vorverarbeitet und in digitale Daten umgewandelt. In 1 werden analoge Video- und Audiosignale empfangen. Im Speziellen führt ein Videovorprozessor (116) eine Funktion, wie einen Filtervorgang zum Minimieren von Nebeneffekten, die beim Umwandeln des analogen Videosignals in digitale Daten erzeugt werden, aus und wandelt dann das analoge Videosignal in ein digitales Videosignal um. Ein Audiovorprozessor (118) führt eine Funktion, wie einen Filtervorgang zum Minimieren von Nebeneffekten, die beim Umwandeln des analogen Audiosignals in digitale Daten erzeugt werden, aus und wandelt dann das analoge Audiosignal in ein digitales Audiosignal um. Ein AV-Codierer (120) komprimiert die digitalen Audio- und/oder Videosignale, um die Menge von Audiodaten und/oder Videodaten zu verringern, und verarbeitet die komprimierten Audio- und/oder Videosignale auf geeignete Weise. Das heißt, dass Videosignal typischerweise unter Verwendung eines Kompressionsplans unter der Bezeichnung MPEG Video (ISO/IEC 13818-2) codiert wird und Audiosignal typischerweise unter Verwendung eines Kompressionsplans wie AC-3 oder MPEG Audio (ISO/IEC 13818-3) codiert wird. Jedoch kann Audiosignal möglicherweise nicht komprimiert werden, da es eine kleinere Menge von Daten im Verhältnis zu der Menge von Videodaten aufweist. Es ist üblich, dass Informationen auf der Basis des MPEG-Systemstandards (ISO/IEC 13818-1) zu den codierten Videodaten und den codierten Audiodaten hinzugefügt werden. Diese Informationen sind für jeweiliges Decodieren der Videodaten und Audiodaten erforderlich und können Informationen zu Pufferbelegungssteuerung bei Decodierung und Zeitsteuerinformationen, die zum Synchronisieren des Audiosignals mit dem Videosignal erforderlich sind, sein.
  • Grafikdaten werden typischerweise durch eine exklusive Eingabevorrichtung empfangen. Alternativ werden Grafikdaten durch die Systemsteuerung (130), die eine Benutzereingabe empfängt, erzeugt, durch einen exklusiven Kompressor komprimiert und mit den AV-Daten gemischt. In dem AV-Codierer (120) kann das Komprimieren und Mischen von Grafikdaten durchgeführt werden. Der Grafikdatenteil wird jedoch in 1 nicht gezeigt.
  • Ein mit dem AV-Codierer (120) verbundener Speicher (122) speichert vorübergehend von dem AV-Codierer empfangene Daten, bevor die empfangenen Daten codiert werden, oder speichert vorübergehend codierte Daten, bevor die codierten Daten ausgegeben werden. Eine Datencodierer(124)-Fehlerkorrektur codiert die von dem AV-Codierer (120) ausgegebenen codierten Daten und moduliert die fehlerkorrektur-codierten Daten nach den Neucodierungsmerkmalen eines Aufzeichnungsmediums. Eine Laserdioden(LD)-Leistungssteuerung (126) strahlt unter Verwendung eines Laserstrahls ein optisches Signal entsprechend den von dem Datencodierer (124) ausgegebenen Daten zu dem Aufzeichnungsmedium aus, wobei Aufzeichnung erreicht wird.
  • Die Tasteneingabeeinheit und Anzeige (128), die zum Bilden einer Schnittstelle eines Benutzers mit der Aufzeichnungs- oder Wiedergabevorrichtung dient, empfängt einen Befehl, wie Wiedergabebeginn, Wiedergabeunterbrechung, Aufzeichnungsbeginn oder Aufzeichnungsunterbrechung, von einem Benutzer, sendet den empfangenen Befehl zu der Systemsteuerung (130) und zeigt die Auswahl des Benutzers auf einem Menü, einer Bildschirmanzeige oder einer Bildschirmgrafik an. Die Systemsteuerung (130) übermittelt erforderliche Funktionen nach jedem von einem Benutzer eingestellten Arbeitsbefehl an alle Blöcke und steuert die Blöcke, wobei der von einem Benutzer eingestellte Arbeitsvorgang durchgeführt wird.
  • Der AV-Decodierer (108) und der AV-Codierer (120), die in 1 getrennt installiert sind, können in einen einzigen Block, der Codieren und Decodieren durchführen kann, integriert sein. Außerdem können der Speicher (110) zum Decodieren und der Speicher (120) zum Codieren in einen einzigen Speicher integriert sein.
  • Entsprechend unterteilt, wenn die in 1 gezeigte optische Aufzeichnungs-Wiedergabe-Vorrichtung einen Film auf einem Aufzeichnungsmedium aufzeichnet, diese die Filminformationen in eine Vielzahl von Grundeinheiten und zeichnet die Vielzahl von Grundeinheiten unter Verwendung der Aufzeichnungsblöcke (116 bis 126 und 100) auf dem Aufzeichnungsmedium auf. Die Systemsteuerung (130) erzeugt Informationen, die zum Wiedergeben/Editieren für jede Grundeinheit erforderlich sind, und verwaltet dies als Grundeinheitsinformationen. Die von der Systemsteuerung (130) erzeugten Grundeinheitsinformationen werden über den Datencodierer (124), die LD-Leistungssteuerung (126) und die optische Aufnahmeeinheit (100) auf dem Aufzeichnungsmedium aufgezeichnet.
  • Hier umfasst die Grundeinheit wenigstens eines von Videodaten, Audiodaten und Grafikdaten. Im Besonderen umfassen Audiodaten lediglich einen Typ von Audiosignal oder umfassen erstes Audiosignal und zweites Audiosignal. Wenn ein Benutzer Sekundärau diosignal aufzeichnet, wird das Sekundäraudiosignal über das gesamte erste Audiosignal oder zweite Audiosignal oder einen Teil davon aufgezeichnet und der veränderte Zustand des ersten Audiosignals oder zweiten Audiosignals wird als die Zustandsinformationen des ersten Audiosignals oder zweiten Audiosignals in den Grundeinheitsinformationen verwaltet. Bei DVD-Videoaufzeichnung als eine bevorzugte Ausführung der vorliegenden Erfindung wird die Grundeinheit als Videoobjekt (VOB) bezeichnet und die Grundeinheitsinformationen werden als Videoobjektinformationen (VOBI) bezeichnet.
  • Bei Wiedergabe prüft die Systemsteuerung (130) Zustandsinformationen des ersten oder zweiten Audiosignals, die in den Grundeinheitsinformationen gespeichert sind, die über die optische Aufnahmeeinheit (100), den HF-Verstärker (104) und den Datendecodierer (106) wiedergegeben werden, und steuert die Tasteneingabeeinheit und Anzeige (128), um die Audiosignal-Zustandsinformationen in den Grundeinheitsinformationen auf einem Menü oder Ähnlichem so anzuzeigen, dass der Benutzer die Audiosignal-Zustandsinformationen erkennt. Daher werden nach der Auswahl eines Benutzers Audiodaten unter Filmdaten, die in einer Vielzahl von Grundeinheiten auf dem Aufzeichnungsmedium aufgezeichnet sind, durch die in 1 gezeigten Blöcke (100 bis 114) für Wiedergabe wiedergegeben. Dies wird später mit Bezugnahme auf die 5 bis 7 beschrieben.
  • Die hierarchische Struktur von Filmdaten werden nun mit Bezugnahme auf 2 beschrieben, um das Verstehen der vorliegenden Erfindung zu erleichtern.
  • Wenn ein Benutzer Filmdaten aufzeichnet, werden die Filmdaten tatsächlich unter Verwendung der in 1 gezeigten Blöcke (116 bis 126 und 100) für Aufzeichnung auf einem Aufzeichnungsmedium aufgezeichnet. Bei DVD-Videoaufzeichnung werden alle aufgezeichneten Daten in Einheiten von Videoobjekten (VOB) unterteilt. Das heißt, dass Filmdaten, die ab dem Zeitpunkt, wenn ein Benutzer eine Aufzeichnungsbeginntaste herunterdrückt, bis zu dem Zeitpunkt, wenn der Benutzer eine Aufzeichnungsunterbrechungstaste heruntergedrückt, aufgezeichnet werden, ein VOB sind.
  • Eine Vielzahl von VOB ist auf einem Aufzeichnungsmedium aufgezeichnet. Zum Beispiel werden VOB#1, VOB#2 und VOB#3 in 2 gezeigt. Wie oben beschrieben wird, werden Videodaten, Audiodaten und Grafikdaten in einem VOB gemischt und aufge zeichnet. Bei der vorliegenden Erfindung werden diese VOB als Echtzeit-Bitstromdaten bezeichnet und jedes VOB wird bei DVD-Videoaufzeichnung in einer Einzeldatei aufgezeichnet.
  • Bei Wiedergabe werden aufgezeichnete VOB decodiert und durch die in 1 gezeigten Blöcke (100 bis 114) für Wiedergabe wiedergegeben. Es ist von Nutzen, für VOB-Wiedergabe erforderliche Informationen getrennt aufzuzeichnen. Zum Beispiel können die Breite und Länge (Auflösung) von Videodaten in einem entsprechenden VOB, der Codierplan von Audiodaten oder Ähnliches getrennt aufgezeichnet werden. Außerdem stimmt, wenn ein VOB mit einer variablen Bitrate (VBR) codiert wurde, die Position von Daten in dem VOB nicht mit einer Wiedergabezeit überein. Entsprechend ist getrennte Aufzeichnung der Position von Daten nach Wiedergabezeit nützlich, um eine spezielle Wiedergabefunktion, wie Zeitsuchlauf, zu vollziehen. Diese Daten bilden VOBI. Das heißt, dass VOBI (die in 2 gezeigten VOBI#1, VOBI#2 und VOBI#3) in jedem VOB bestehen und alle VOBI Informationen enthalten, die zum Wiedergeben oder Editieren eines entsprechenden VOB erforderlich sind.
  • Ein Programm kann eine Einheit von Filminformationen für einen Benutzer sein. Das heißt, dass der Benutzer erkennt, dass eine Vielzahl von Programmen auf einem Aufzeichnungsmedium aufgezeichnet ist. Bei der DVD-Videoaufzeichnung wird die Beziehung zwischen einem Programm und einem VOB wie folgt bestimmt. Das heißt, dass ein Programm eine Vielzahl von Zellen enthält und eine Zelle ein gesamtes VOB oder einen Teil davon bezeichnet. Folglich enthält ein Programm die Gesamtheit einer Vielzahl von VOB oder einen Teil davon.
  • Im Allgemeinen enthält ein Programm eine Zelle und eine Zelle entspricht einem vollständigen VOB. Hier wird, wenn ein Programm einen Editierprozess in Reaktion auf einen Befehl von einem Benutzer, wie Teillöschung eines Programms, Zusammenmischen von Programmen oder Erzeugen eines Programms in der von dem Benutzer gewünschten Reihenfolge, durchläuft, die Form des Programms etwas komplizierter als die vorgenannte allgemeine Form.
  • Informationen in Bezug auf die Vielzahl von Programmen bilden Programmketteninformationen (PGCI). Die VOBI und die PGCI bilden Navigationsdaten. Das heißt, dass ein Echtzeit-Bitstrom, der Bilddaten ist, und Navigationsdaten, die zum Wiedergeben der Filmdaten erforderliche Informationen sind, zusammen auf einem Aufzeichnungsmedium aufgezeichnet sind.
  • Wie oben beschrieben wurde, wird das Programm zum Schluss von einem Benutzer erkannt. Hier wird das Programm unter Verwendung eines Menüs oder von Ähnlichem zu dem Benutzer gesendet. Ein Menü entsprechend jedem Programm (z. B. Programm #1, Programm #2 und Programm #3, wie in 2 gezeigt) wird angezeigt. Wenn ein Benutzer ein Programm #n auswählt, wird nach Zellen, die zu diesem ausgewählten Programm gehören, gesucht und es werden entsprechende Abschnitte von VOB, die von diesen Zellen angezeigt werden, wiedergegeben. Informationen, die für diese Wiedergabe erforderlich sind, können aus entsprechenden VOBI ermittelt werden.
  • Die 3A und 3B zeigen die interne Konfiguration eines in 2 gezeigten VOB. Mit Bezugnahme auf die 3A und 3B enthält ein VOB eine Vielzahl von Videoobjekteinheiten (VOBU) und jede VOBU enthält eine Vielzahl von Videostapeln, Audiostapeln und/oder Grafikstapeln. Die VOBU betrifft ein Verfahren zum Codieren von Videodaten. Der MPEG-Standard, der als ein Videocodierverfahren verwendet wird, verwendet die Korrelation zwischen Frames von Filmdaten.
  • Bei Filmdaten, die aus einer zweistelligen Zahl von Frames pro Sekunden gebildet werden, enthält jeder Frame im Allgemeinen dieselben Informationen. Zum Beispiel bleibt bei Filmen, in denen sich ein Mensch bewegt, der Hintergrund von jedem Bild derselbe und es gibt in jedem Frame nur eine kleine Menge von Bewegung auf Grund des Menschen. Daher wird der vorderste Frame vollständig aufgezeichnet und in den nächsten Frames werden nur Abschnitte, die sich von dem vorhergehenden Frame unterscheiden, aufgezeichnet. Auf diese Weise wird die Menge aufzuzeichnender Daten deutlich verringert.
  • Das MPEG-Codierverfahren verwendet konzeptuell ein solches Aufzeichnungsverfahren. In diesem Fall besteht ein Nachteil insofern, als ein mittlerer Frame erfordert, dass ein vorhergehender Frame wiederhergestellt wird. Daher müssen selbst dann, wenn gewünscht wird, dass ein mittlerer Frame wiedergegeben wird, vorhergehende Frames davon, beginnend mit dem vordersten Frame, wiedergegeben werden. MPEG löst diesen Nachteil unter Verwendung einer Struktur einer Gruppe von Bildern (GOP). Das heißt, dass eine vorgegebene Anzahl von Frames eine Gruppe bilden und alle Informationen zu den Frames auf dem Kopf-Frame in dieser Gruppe aufgezeichnet sind. In diesem Fall kann zum Wiedergeben eines mittleren Frames mit dem Wiedergeben des Kopf-Frames in einer GOP, zu der der mittlere Frame gehört, begonnen werden. Eine typische GOP besteht aus 12 bis 15 Frames. Eine VOBU enthält eine Vielzahl von GOP.
  • Eine VOBU enthält eine Vielzahl von Videostapeln, Audiostapeln und/oder Grafikdatenstapeln in einer Form auf der Basis des MPEG-System-Standards. Jeder Stapel enthält Informationen zu seinem Typ.
  • Die 3A betrifft den Fall, bei dem ein Typ von Audiostrom für einen Videostrom, der als ein Stapel ausgebildet ist, besteht, und 3B betrifft den Fall, bei dem zwei Typen von Audioströmen für einen Videostrom, der als ein Stapel ausgebildet ist, besteht. Wenn eine Vielzahl von Typen von Audioströmen, wie oben beschrieben, besteht, kann ein Benutzer einen gewünschten Typ von Audiostrom auswählen und wiedergeben.
  • Die Stapelstruktur wird nun mit Bezugnahme auf die 4A bis 4D ausführlicher beschrieben. Ein Stapel enthält typischerweise ein Paket. Bei DVD-Videoaufzeichnung sind höchstens zwei Pakete für einen Stapel erforderlich. Wenn zwei Pakete erforderlich sind, muss ein Paket unter zweien ein Füllpaket sein, um einfach einen Platz in Daten zu belegen.
  • Jedes Paket ist in einen Paketkopf und einen Nutzdaten-Teil unterteilt. In einem Paketkopf sind Informationen, die den Typ eines entsprechenden Pakets darstellen, als ein Parameter aufgezeichnet, der als eine Stromkennung (stream_id) bezeichnet wird. Bei Videosignal ist die Stromkennung (stream_id) eine Binärzahl „1110 0000b", wie in 4A gezeigt. Bei Audiosignal kann lediglich MPEG-Audiosignal als eine Stromkennung (stream_id) dargestellt werden, wie in 4B gezeigt, und die Stromkennung (stream_id) lautet „1100 000xb". Hier kann x, das 0 oder 1 ist, zwei Typen von Audiosignal bereitstellen.
  • Wenn Audiosignal AC-3-Audiosignal oder LPCM-Audiosignal ist, ist des Weiteren eine Prozedur zum Erkennen des AC-3-Audiosignals oder des LPCM-Audiosignals erforder lich. Das heißt, dass das AC-3-Audiosignal und das LPCM-Audiosignal dieselbe Stromkennung (stream_id) von „1011 1101b" aufweisen. Kopfinformationen entsprechend dem AC-3-Audiosignal oder dem LPCM-Audiosignal werden in dem Nutzdaten-Teil aufgezeichnet und Realaudiodaten folgen den aufgezeichneten Kopfinformationen. Die Kopfinformationen enthalten einen Parameter, der als eine Teilstromkennung (substream_id) bezeichnet wird. Bei AC-3 wird „1000 000xb" in dem Teilstromkennungsparameter (substream_id) gespeichert, wie in 4D gezeigt. Bei LPCM wird „1010 000xb" in dem Teilstromkennungsparameter (substream_id) gespeichert, wie in 4C gezeigt. Hier kann x „0" oder „1" sein und kann somit zwei Typen von Audiosignal bereitstellen. Bei der vorliegenden Erfindung bezieht sich, wenn x „0" ist, dieser Fall auf erstes Audiosignal (Audio 1), und wenn x „1" ist, bezieht sich dieser Fall auf zweites Audiosignal (Audio 2).
  • Das erste Audiosignal wird zum Aufzeichnen fundamentalen Originalaudiosignals verwendet. Später kann ein Benutzer Sekundäraudiosignal auf einem Teil des ersten Audiosignals aufzeichnen. In diesem Fall wird Originalaudiosignal, das von dem Sekundäraudiosignal überschrieben wird, gelöscht.
  • Das zweite Audiosignal kann zum Aufzeichnen von Originalaudiosignal oder zum Aufzeichnen von Sekundäraudiosignal verwendet werden. Wenn das zweite Audiosignal zum Aufzeichnen von Originalaudiosignal verwendet wird, gibt es zwei Originalaudiosignale zusammen mit dem ersten Audiosignal. Jedoch wird Originalaudiosignal nicht lediglich auf dem zweiten Audiosignal ohne das erste Audiosignal aufgezeichnet. Wenn das zweite Audiosignal Originalaudiosignal ist, erkennt ein Benutzer das zweite Audiosignal als Originalaudiosignal von Beginn an. Daher besitzen das erste Audiosignal und das zweite Audiosignal dieselbe Priorität. Wenn Sekundäraudiosignal aufgezeichnet wird, wird entweder das erste Audiosignal oder das zweite Audiosignal ausgewählt, und dann wird das Sekundäraudiosignal auf das ausgewählte Audiosignal aufgezeichnet.
  • Wenn Sekundäraudiosignal von Beginn an als Sekundäraudiosignal aufgezeichnet wird, müssen die folgenden Beschränkungen beachtet werden. Bei Erstaufzeichnung muss zweites Audiosignal mit genau demselben Inhalt wie der Inhalt von erstem Audiosignal aufgezeichnet werden. Das heißt, dass das zweite Audiosignal in Bezug auf Inhalt das selbe wie das erste Audiosignal ist, so dass ein Benutzer das zweite Audiosignal nicht erkennen kann. Ein solcher Zustand wird als ein Blindaudiosignalzustand bezeichnet.
  • Entsprechend wird, wenn ein Benutzer Sekundäraudiosignal später aufzeichnen möchte, das Sekundäraudiosignal auf einem entsprechenden Abschnitt des zweiten Audiosignals in einem Blindzustand aufgezeichnet. Wenn das zweite Audiosignal auf diese Weise durch das Sekundäraudiosignal überschrieben wird, wird es von dem Benutzer erstmals erkannt, und der Benutzer wählt ein Audiosignal unter dem ersten Audiosignal und dem zweiten Audiosignal aus und gibt dieses wieder. Da das zweite Audiosignal abgesehen von dem Abschnitt, auf dem das zweite Audiosignal aufgezeichnet ist, dasselbe wie das erste Audiosignal ist, wird derselbe Inhalt selbst dann wiedergegeben, wenn die Auswahl von Audiosignal geändert wird. Der Grund, warum zweites Audiosignal mit demselben Inhalt wie der Inhalt von erstem Audiosignal aufgezeichnet wird, besteht darin, dass es bei einem digitalen Aufzeichnungsmedium schwierig ist, Abschnitte, auf denen Sekundäraudiosignal aufgezeichnet wurde, zu extrahieren und wiederzugeben. Das heißt, dass, wenn das zweite Audiosignal reserviert ist und lediglich ein Teil davon durch Sekundäraudiosignal besetzt ist, Audiosignal nicht von Abschnitten, auf denen Sekundäraudiosignal nicht aufgezeichnet wurde, wiedergegeben wird, wenn das zweite Audiosignal ausgewählt wird, was zur Verwirrung eines Benutzers führt.
  • Alternativ kann erstes Audiosignal an leeren Abschnitten des zweiten Audiosignals wiedergegeben werden und zweites Audiosignal kann an Abschnitten des zweiten Audiosignals, auf denen Sekundäraudiosignal aufgezeichnet wurde, wiedergegeben werden. In diesem Fall muss jedoch eine Bestimmung erfolgen, ob Audiosignal auf dem zweiten Audiosignal aufgezeichnet wurde, wodurch es schwierig ist, das alternative Verfahren zu erreichen.
  • Bei der vorliegenden Erfindung wird ein Benutzer über die Zustände von erstem Audiosignal und zweitem Audiosignal informiert, bevor die Zustände auf entsprechenden VOBI in einem VOB aufgezeichnet werden und von diesen wiedergegeben werden oder zum Durchführen eines entsprechenden Vorgangs verwendet werden, wenn ein Benutzer während der Wiedergabe Audioänderung vorgenommen hat.
  • 5 zeigt ein Beispiel für die Struktur von Zustandsinformationen zu erstem Audiosignal und Zustandsinformationen zu zweitem Audiosignal in Videoobjektinformationen (VOBI) nach der vorliegenden Erfindung.
  • Die Zustandsinformationen zu dem ersten Audiosignal (A0_STATUS) stellen einen Zustand (00b), in dem Originalaudiosignal aufgezeichnet wurde, oder einen Zustand, bei dem ein Teil oder die Gesamtheit des Originalaudiosignals Sekundäraudiosignal ist, dar.
  • Der Zustand (00b) stellt dar, dass erstes Audiosignal Originalaudiosignal ist. Wenn zweites Audiosignal nicht aufgezeichnet ist, zeichnet ein Benutzer Sekundäraudiosignal über einen Teil oder die Gesamtheit des Originalaudiosignals auf. Zu diesem Zeitpunkt wird das erste Audiosignal durch Sekundäraudiosignal überschrieben und die Zustandsinformationen des ersten Audiosignals werden von „00b" zu „01b" geändert.
  • Die Zustandsinformationen zu dem zweiten Audiosignal (A1_STATUS) können, zusätzlich zu den oben beschriebenen beiden Zuständen, ein Blindzustand (10b), in dem der Inhalt des zweiten Audiosignals vollständig derselbe ist wie derjenige des ersten Audiosignals, oder ein Zustand (11b), in dem ein Teil oder die Gesamtheit des zweiten Audiosignals durch Sekundäraudiosignal überschrieben wurde, sein. Somit wird ein Zustand unter insgesamt vier Zuständen als die Zustandsinformationen des zweiten Audiosignals (A1_STATUS) aufgezeichnet.
  • Folglich werden die Zustandsinformationen des ersten Audiosignals (A0_STATUS) und die Zustandsinformationen des zweiten Audiosignals (A1_STATUS) wie folgt definiert.
  • A0_STATUS:
    • 00b ... erstes Audiosignal ist Originalaudiosignal.
    • 01b ... erstes Audiosignal ist Sekundäraudiosignal, das über einen Teil oder die Gesamtheit von Originalaudiosignal neu aufgezeichnet wurde.
  • A1_STATUS:
    • 00b ... zweites Audiosignal ist Originalaudiosignal.
    • 01b ... zweites Audiosignal ist Sekundäraudiosignal, das über einen Teil oder die Gesamtheit von Originalaudiosignal neu aufgezeichnet wurde.
    • 10b ... zweites Audiosignal ist Blindaudiosignal, dessen Inhalt genau derselbe ist wie der Inhalt des Originalaudiosignals.
    • 11b ... zweites Audiosignal ist Sekundäraudiosignal, das über einen Teil oder die Gesamtheit von Blindaudiosignal neu aufgezeichnet wurde.
  • Bei einem Verfahren zum Verwenden der ersten und zweiten Audiosignalinformationen ist der Fall, bei dem das zweite Audiosignal in einem Blindaudiosignalzustand ist, der wichtigste. Wenn Zustandsinformationen, die darstellen, dass zweites Audiosignal Blindaudiosignal ist, aufgezeichnet werden, wird dies für einen Benutzer als der Fall berücksichtigt, bei dem zweites Audiosignal nicht aufgezeichnet ist. Somit kann diese Situation auf einem Menü oder Ähnlichem angezeigt werden. Zu diesem Zeitpunkt kann selbst dann, wenn ein Benutzer eine Audioumwandlungsfunktion durchführt, das Wiedergeben des ersten Audiosignals weiterhin fortgesetzt werden. Das heißt, dass in dem Zustand „10b", der Blindaudiosignal darstellt, Wiedergabe des ersten Audiosignals als Standard eingestellt werden kann.
  • Wenn das zweite Audiosignal in einem von drei Zuständen (00b, 01b und 11b) ist, der nicht der Blindaudiosignalzustand (10b) ist, zeigen die drei Zustände des zweiten Audiosignals an, dass Audiodaten mit einem unterschiedlichen Inhalt gegenüber dem Inhalt des ersten Audiosignals aufgezeichnet wurden. Daher wird ein Benutzer über diesen Zustand des zweiten Audiosignals informiert und kann somit Audiosignaländerung durchführen. Im Besonderen kann, wenn die Zustandsinformationen des zweiten Audiosignals (A1_STATUS) der Zustand (11b) sind, bei dem das zweite Audiosignal auf einen Teil oder die Gesamtheit des Blindaudiosignal neu aufgezeichnetes Sekundäraudiosignal ist, Wiedergabe des zweiten Audiosignals als Standard eingestellt werden.
  • Entsprechend wird bei der vorliegenden Erfindung ein Benutzer mit Hilfe eines Menüs oder von Ähnlichem darüber informiert, ob das erste Audiosignal oder das zweite Audio signal Originalaudiosignal oder Sekundäraudiosignal, das auf einen Teil oder die Gesamtheit des ersten Audiosignals oder des zweiten Audiosignals neu aufgezeichnet wurde, ist, so dass der Benutzer den Zustand von Audiosignal eines entsprechenden VOB erkennen kann.
  • 6 zeigt eine Zustandsveränderung von dem Zeitpunkt vor dem Neuaufzeichnen von Sekundäraudiosignal bis zu dem Zeitpunkt nach dem Neuaufzeichnen des Sekundäraudiosignals, wenn lediglich erstes Audiosignal besteht. Das heißt, dass der Fall (A0_STATUS = 00b) von erstem Audiosignal in Originalaudiosignalzustand und der Fall (A0_STATUS = 01b), bei dem lediglich einige Abschnitte (a5 bis a8) des Originalaudiosignals durch Sekundäraudiosignal (b1 bis b4) durch Überschreiben/Editieren überschrieben sind, in 6 gezeigt werden. In diesem Fall werden die Zustandsinformationen des ersten Audiosignals (A0_STATUS) von „00b" zu „01b" erneuert und die Veränderung des Audiosignalzustands kann über ein Menü oder Ähnliches auf der in 1 gezeigten Tasteneingabeeinheit und Anzeige (128) angezeigt werden, so dass ein Benutzer über die Veränderung des Audiosignalzustands informiert wird.
  • 7 zeigt eine Zustandsveränderung von dem Zeitpunkt vor dem Neuaufzeichnen von Sekundäraudiosignal bis zu dem Zeitpunkt nach dem Neuaufzeichnen des Sekundäraudiosignals, wenn erstes Audiosignal und zweites Audiosignal bestehen. Wenn das erste Audiosignal Originalaudiosignal ist (d. h. A0_STATUS = 00b) und das zweite Audiosignal in dem Blindzustand ist, in dem das zweite Audiosignal dasselbe wie das erste Audiosignal ist (d. h. A1_STATUS = 10b), wird Wiedergabe von lediglich dem ersten Audiosignal als Standard eingestellt und die Richtung von Wiedergabe wird durch einen dicken durchgezogenen Pfeil angezeigt.
  • Zweites Audiosignal in einem Blindaudiosignalzustand, bei dem einige Abschnitte (a5 bis a8) durch Sekundäraudiosignal (b1 bis b4) überschrieben sind, wird in 7 gezeigt. Die Zustandsinformationen des zweiten Audiosignals (A1_STATUS) werden von „10b" zu „11b" erneuert. Hier bleibt das erste Audiosignal in dem Originalaudiosignalzustand (d. h. A0_STATUS = 00B).
  • Ein Teil des zweiten Audiosignals in einem Blindzustand wird durch Sekundäraudiosignal überschrieben und dann wird Audiosignaländerung durch einen Benutzer über ein Menü oder Ähnliches durchgeführt. Zu diesem Zeitpunkt wird der Inhalt von wiedergegebenem Audiosignal geändert, wobei dies durch einen dicken durchgezogenen Pfeil, der die Wiedergaberichtung anzeigt, dargestellt wird. Das heißt, dass, wie in 7 gezeigt wird, erste Audiosignale (a1 bis a4) wiedergegeben werden, dann zweite Audiosignale (b1 bis b3) in dem zweiten Audiosignal auf Grund der Audiosignaländerung durch den Benutzer wiedergegeben werden und das erste Audiosignal auf Grund der Audiosignaländerung durch den Benutzer erneut von a8 wiedergegeben wird.
  • Wie oben beschrieben wurde, werden bei der vorliegenden Erfindung Audiosignal-Zustandsinformationen in Bezug auf einen Film, die durch Aufzeichnen/Überschreiben/Editieren erzielt wurden, in Aufzeichnungseinheitsinformationen (VOBI) für eine entsprechende Aufzeichnungseinheit (VOB) gespeichert und vor Wiedergabe des Films an einen Benutzer gemeldet, so dass der Benutzer den Audiosignalzustand erkennen kann. Außerdem kann der Benutzer bei Wiedergabe Audiosignaländerung auf geeignete Weise bewältigen.

Claims (7)

  1. Vorrichtung zum Abspielen eines Aufzeichnungsmediums, auf dem ein Film in eine Vielzahl von Grundeinheiten unterteilt und aufgezeichnet ist, wobei Grundeinheitsinformationen in Bezug auf das Bewegtbild in jeder Grundeinheit aufgezeichnet sind, jede der Grundeinheiten aus wenigstens einem von Videodaten, Audiodaten und Grafikdaten besteht, unter denen die Audiodaten aus erstem Audiosignal oder erstem Audiosignal und zweitem Audiosignal bestehen, die Grundeinheitsinformationen die Zustandsinformationen zu dem ersten Audiosignal und die Zustandsinformationen des zweiten Audiosignals enthalten, wobei die Zustandsinformationen zu dem ersten Audiosignal entweder (i) einen Zustand darstellen, bei dem das erste Audiosignal Originalaudiosignal ist, oder (ii) einen Zustand darstellen, bei dem das erste Audiosignal Sekundäraudiosignal ist, das über das gesamte Originalaudiosignal oder einen Teil davon aufgezeichnet ist, wobei die Vorrichtung Folgendes umfasst: eine Wiedergabesteuerung zum Wiedergeben des Originalaudiosignals und des Sekundäraudiosignals nach den Zustandsinformationen zu dem ersten Audiosignal/Zustandsinformationen zu dem zweiten Audiosignal; wobei die Vorrichtung dadurch gekennzeichnet ist, dass: die Zustandsinformationen zu dem zweiten Audiosignal eines von (i) einem Zustand, bei dem das zweite Audiosignal Originalaudiosignal ist, (ii) einem Zustand, bei dem das zweite Audiosignal Sekundäraudiosignal ist, das über das gesamte Originalaudiosignal oder einen Teil davon aufgezeichnet ist, (iii) einem Zustand, bei dem das zweite Audiosignal Blindaudiosignal ist, das genau dasselbe wie das erste Audiosignal ist, oder (iv) einem Zustand, bei dem das zweite Audiosignal Sekundäraudiosignal ist, das über das gesamte Blindaudiosignal oder einen Teil davon aufgezeichnet ist, darstellen; und es, wenn das zweite Audiosignal zum Aufzeichnen von Originalaudiosignal verwendet wird, immer zwei Originalaudiosignale gibt, wobei dies bedeutet, dass das zweite Audiosignal nie mit Originalaudiosignal aufgezeichnet wird, soweit nicht das erste Audiosignal ebenfalls mit Originalaudiosignal aufgezeichnet wird, so dass bei Abspielen die Wiedergabesteuerung lediglich das erste Audiosignal wiedergibt, wenn die Zustandsinformationen zu dem zweiten Audiosignal einen Zustand darstellen, bei dem das zweite Audiosignal Blindaudiosignal ist, selbst wenn das zweite Audiosignal besteht; und wobei die Wiedergabesteuerung als Standard das zweite Audiosignal wiedergibt, wenn die Zustandsinformationen zu dem zweiten Audiosignal einen Zustand darstellen, bei dem das zweite Audiosignal Sekundäraudiosignal ist, das über das gesamte Blindaudiosignal oder einen Teil davon aufgezeichnet ist.
  2. Wiedergabevorrichtung nach Anspruch 1, des Weiteren eine Anzeigesteuerung umfassend, um anzuzeigen, ob das erste Audiosignal als Originalaudiosignal verbleibt oder das gesamte erste Audiosignal in dem Originalaudiosignalzustand oder ein Teil davon durch Sekundäraudiosignal überschrieben ist.
  3. Wiedergabevorrichtung nach Anspruch 1, des Weiteren eine Anzeigesteuerung umfassend, um anzuzeigen, ob das zweite Audiosignal als Originalaudiosignal verbleibt, das gesamte zweite Audiosignal in dem Originalaudiosignalzustand oder ein Teil davon durch Sekundäraudiosignal überschrieben ist, das zweite Audiosignal in dem Blindsignalzustand ist oder das gesamte zweite Audiosignal in dem Blindaudiosignalzustand oder ein Teil davon durch das Sekundäraudiosignal überschrieben ist.
  4. Vorrichtung zum Abspielen eines Aufzeichnungsmediums, auf dem ein Film in eine Vielzahl von Grundeinheiten unterteilt und aufgezeichnet ist, wobei die Grundeinheitsinformationen in Bezug auf das Bewegtbild in jeder Grundeinheit aufgezeichnet sind, jede der Grundeinheiten aus wenigstens einem von Videodaten, Audiodaten und Grafikdaten besteht, unter denen die Audiodaten aus erstem Audiosignal oder erstem Audiosignal und zweitem Audiosignal bestehen, die Grundein heitsinformationen die Zustandsinformationen zu dem ersten Audiosignal und die Zustandsinformationen des zweiten Audiosignals enthalten, wobei die Zustandsinformationen zu dem ersten Audiosignal entweder (i) einen Zustand darstellen, bei dem das erste Audiosignal Originalaudiosignal ist, oder (ii) einen Zustand darstellen, bei dem das erste Audiosignal Sekundäraudiosignal ist, das über das gesamte Originalaudiosignal oder einen Teil davon aufgezeichnet ist, wobei das Verfahren Folgendes umfasst: (a) Analysieren der Zustandsinformationen zu dem ersten Audiosignal/Zustandsinformationen zu dem zweiten Audiosignal; und (b) Wiedergeben des Originalaudiosignals/Sekundäraudiosignals nach den analysierten Audiosignalzustandsinformationen; wobei das Verfahren dadurch gekennzeichnet ist, dass: die Zustandsinformationen zu dem zweiten Audiosignal eines von (i) einem Zustand, bei dem das zweite Audiosignal Originalaudiosignal ist, (ii) einem Zustand, bei dem das zweite Audiosignal Sekundäraudiosignal ist, das über das gesamte Originalaudiosignal oder einen Teil davon aufgezeichnet ist, (iii) einem Zustand, bei dem das zweite Audiosignal Blindaudiosignal ist, das genau dasselbe wie das erste Audiosignal ist, oder (iv) einem Zustand, bei dem das zweite Audiosignal Sekundäraudiosignal ist, das über das gesamte Blindaudiosignal oder einen Teil davon aufgezeichnet ist, darstellen; und es, wenn das zweite Audiosignal zum Aufzeichnen von Originalaudiosignal verwendet wird, immer zwei Originalaudiosignale gibt, wobei dies bedeutet, dass das zweite Audiosignal nie mit Originalaudiosignal aufgezeichnet wird, soweit nicht das erste Audiosignal ebenfalls mit Originalaudiosignal aufgezeichnet wird, so dass, wenn die analysierten Zustandsinformationen zu dem zweiten Audiosignal einen Zustand darstellen, bei dem das zweite Audiosignal Blindaudiosignal ist, lediglich das erste Audiosignal wiedergegeben wird, selbst wenn das zweite Audiosignal besteht; und wobei als Standard das zweite Audiosignal wiedergegeben wird, wenn die Zustandsinformationen zu dem zweiten Audiosignal einen Zustand darstellen, bei dem das zweite Audiosignal Sekundäraudiosignal ist, das über das gesamte Blindaudiosignal oder einen Teil davon aufgezeichnet ist.
  5. Wiedergabeverfahren nach Anspruch 4, des Weiteren umfassend: (c) Anzeigen, ob das erste Audiosignal als Originalaudiosignal verbleibt oder das gesamte erste Audiosignal in dem Originalaudiosignalzustand oder ein Teil davon durch Sekundäraudiosignal überschrieben ist, als das Ergebnis von Analyse in dem Schritt (a).
  6. Wiedergabeverfahren nach Anspruch 4, des Weiteren umfassend: (c) Anzeigen, ob das zweite Audiosignal als Originalaudiosignal verbleibt, das gesamte zweite Audiosignal in dem Originalaudiosignalzustand oder ein Teil davon durch Sekundäraudiosignal überschrieben ist, das zweite Audiosignal in einem Blindaudiosignalzustand ist oder das gesamte zweite Audiosignal in dem Blindaudiosignalzustand oder ein Teil davon durch das Sekundäraudiosignal überschrieben ist, als das Ergebnis von Analyse in dem Schritt (a).
  7. Verfahren nach Anspruch 4, des Weiteren die folgenden Schritte umfassend: Anzeigen der analysierten Audiosignalzustandsinformationen; und Wiedergeben von Originalaudiosignal/Sekundäraudiosignal, während Audiosignaländerung über Benutzerschnittstelle auf der Basis der angezeigten Audiosignalzustandsinformationen bewältigt wird.
DE60031924T 1999-09-03 2000-02-09 Vorrichtung und Verfahren zur Wiedergabe von Video- und Audiosignalen Expired - Lifetime DE60031924T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR9937307 1999-09-03
KR1019990037307A KR100657241B1 (ko) 1999-09-03 1999-09-03 동영상 기록/재생 장치와 방법 및 기록 매체

Publications (2)

Publication Number Publication Date
DE60031924D1 DE60031924D1 (de) 2007-01-04
DE60031924T2 true DE60031924T2 (de) 2007-04-12

Family

ID=36295265

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60031924T Expired - Lifetime DE60031924T2 (de) 1999-09-03 2000-02-09 Vorrichtung und Verfahren zur Wiedergabe von Video- und Audiosignalen

Country Status (13)

Country Link
US (1) US6640046B2 (de)
EP (4) EP1276113A3 (de)
JP (3) JP2001084706A (de)
KR (1) KR100657241B1 (de)
CN (7) CN1294591C (de)
BR (1) BR0000551B1 (de)
DE (1) DE60031924T2 (de)
HK (3) HK1050420A1 (de)
ID (1) ID27176A (de)
MY (2) MY136042A (de)
RU (3) RU2214632C2 (de)
SG (1) SG80091A1 (de)
TW (1) TW468349B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006006249B4 (de) 2005-02-11 2022-09-15 Dell Products L.P. Realisierung von LPCM-Audiodaten hoher Qualität als zwei separate elementare Datenströme

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6775465B1 (en) 1999-09-03 2004-08-10 Samsung Electronics Co., Ltd. Apparatus and method for recording/reproducing moving picture and recording medium
KR100657241B1 (ko) * 1999-09-03 2006-12-18 삼성전자주식회사 동영상 기록/재생 장치와 방법 및 기록 매체
GB0116446D0 (en) 2001-07-06 2001-08-29 Barco Nv Smearing reduction on lcd and lcos projectors
JP4564703B2 (ja) 2002-02-13 2010-10-20 株式会社日立製作所 ビデオカメラ及びビデオカメラの情報記録方法
KR100607949B1 (ko) * 2002-09-11 2006-08-03 삼성전자주식회사 계층화된 정보 구조를 이용한 멀티미디어 데이터 기록장치, 재생 장치 및 그 정보저장매체
MXPA05008752A (es) * 2003-02-21 2005-09-20 Matsushita Electric Ind Co Ltd Medio de grabacion, aparato de reproduccion, metodo de grabacion,metodo de reproduccion, y programa de computadora.
JP2005004866A (ja) * 2003-06-11 2005-01-06 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US7366405B2 (en) 2003-07-11 2008-04-29 Matsushita Electric Industrial Co., Ltd. Recording medium, recording method, reproduction apparatus and method, and computer-readable program
DE602004010668T2 (de) 2003-07-11 2008-12-04 Matsushita Electric Industrial Co., Ltd., Kadoma Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm
EP1531474A1 (de) * 2003-11-14 2005-05-18 Sony International (Europe) GmbH Videosignalwiedergabegerät und Verfahren
US20070118480A1 (en) * 2003-12-02 2007-05-24 Yutaka Ueda Information recording apparatus, control program and recording medium
KR100561417B1 (ko) 2004-02-09 2006-03-16 삼성전자주식회사 Av 데이터의 재생상태를 전환할 수 있는 인터랙티브그래픽 스트림을 기록한 정보저장매체, 그 재생방법 및 장치
EP1754227A1 (de) * 2004-05-25 2007-02-21 Koninklijke Philips Electronics N.V. Verfahren und vorrichtung zur erzeugung von kontinuierlichem ton für eine diavorführung
JP2005346767A (ja) * 2004-05-31 2005-12-15 Toshiba Corp 情報再生装置及び情報再生方法
US8233779B2 (en) 2004-07-09 2012-07-31 Panasonic Corporation Recording medium, recording method, reproduction apparatus and method, and computer-readable program
KR100708208B1 (ko) * 2006-06-30 2007-04-16 삼성전자주식회사 동영상 재생 장치와 방법
JP2010283605A (ja) * 2009-06-04 2010-12-16 Canon Inc 映像処理装置及び方法
JP5381454B2 (ja) * 2009-07-23 2014-01-08 ソニー株式会社 映像音声記録装置及び編集方法
US9032273B2 (en) * 2013-09-05 2015-05-12 Infineon Technologies Ag Method, apparatus and device for data processing
WO2016088582A1 (ja) * 2014-12-04 2016-06-09 ソニー株式会社 データ処理装置、データ処理方法、及び、プログラム
CN104837061B (zh) * 2015-05-14 2018-06-19 无锡天脉聚源传媒科技有限公司 一种视频播单的修改管理方法及装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5894288A (ja) * 1981-11-30 1983-06-04 Sony Corp 映像信号記録装置
DE69333900T2 (de) * 1992-01-29 2006-08-03 Mitsubishi Denki K.K. Videoinformationsaufzeichnungsmedium und Wiedergabevorrichtung
US5563661A (en) * 1993-04-05 1996-10-08 Canon Kabushiki Kaisha Image processing apparatus
JPH0778418A (ja) * 1993-09-10 1995-03-20 Matsushita Electric Ind Co Ltd 光ディスク及び光学的記録再生装置
CA2173304C (en) 1995-04-21 2003-04-29 Anthony J. Dezonno Method and system for establishing voice communications using a computer network
JPH08329661A (ja) * 1995-06-05 1996-12-13 Sony Corp 記録再生装置および記録再生方法
CN1129137A (zh) * 1995-11-29 1996-08-21 张志鑫 一种防治性病的外用中成药
KR100238668B1 (ko) * 1996-11-28 2000-01-15 윤종용 디지털 비디오 재생장치
JP4089017B2 (ja) * 1997-09-02 2008-05-21 ソニー株式会社 デジタル記録媒体におけるアフターレコーディング方法及び装置並びにそのデジタル記録媒体の再生方法及び装置
JP3798538B2 (ja) * 1997-11-28 2006-07-19 株式会社東芝 データ処理装置および同装置に適用されるデータ記録/再生方法
CN1118065C (zh) * 1997-12-15 2003-08-13 松下电器产业株式会社 光盘的记录和复制设备及方法
AU3276099A (en) * 1998-03-13 1999-09-27 Matsushita Electric Industrial Co., Ltd. Data storage medium, and apparatus and method for reproducing the data from the same
JP2000023102A (ja) * 1998-06-30 2000-01-21 Toshiba Corp 映像音声データ記録再生装置
JP3383587B2 (ja) * 1998-07-07 2003-03-04 株式会社東芝 静止画像連続情報記録方法と光ディスクと光ディスクの情報再生装置と情報再生方法
JP2000173183A (ja) 1998-12-04 2000-06-23 Victor Co Of Japan Ltd ディスク記録再生装置及びディスク再生装置
CN100520943C (zh) * 1999-02-17 2009-07-29 松下电器产业株式会社 对信息记录媒体上的数据进行后期记录的信息记录装置
JP3137624B2 (ja) 1999-02-17 2001-02-26 松下電器産業株式会社 情報記録媒体、情報記録装置及び情報記録方法
JP2001043617A (ja) 1999-08-03 2001-02-16 Toshiba Corp ビデオデータ記録装置
KR100657241B1 (ko) * 1999-09-03 2006-12-18 삼성전자주식회사 동영상 기록/재생 장치와 방법 및 기록 매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006006249B4 (de) 2005-02-11 2022-09-15 Dell Products L.P. Realisierung von LPCM-Audiodaten hoher Qualität als zwei separate elementare Datenströme

Also Published As

Publication number Publication date
MY136379A (en) 2008-09-30
EP1276112A2 (de) 2003-01-15
EP1276111A3 (de) 2004-09-29
HK1050420A1 (en) 2003-06-20
US20020076209A1 (en) 2002-06-20
CN1399269A (zh) 2003-02-26
CN1263030C (zh) 2006-07-05
KR20010026119A (ko) 2001-04-06
JP2001319418A (ja) 2001-11-16
ID27176A (id) 2001-03-08
CN1294591C (zh) 2007-01-10
CN1190790C (zh) 2005-02-23
EP1276111A2 (de) 2003-01-15
HK1061303A1 (en) 2004-09-10
KR100657241B1 (ko) 2006-12-18
BR0000551B1 (pt) 2013-03-19
CN1399270A (zh) 2003-02-26
RU2214632C2 (ru) 2003-10-20
CN100559489C (zh) 2009-11-11
CN1286105C (zh) 2006-11-22
CN1287358A (zh) 2001-03-14
US6640046B2 (en) 2003-10-28
EP1081962B1 (de) 2006-11-22
TW468349B (en) 2001-12-11
RU2308773C2 (ru) 2007-10-20
RU2002125824A (ru) 2004-03-27
CN1674136A (zh) 2005-09-28
CN1495758A (zh) 2004-05-12
SG80091A1 (en) 2001-04-17
JP2001084706A (ja) 2001-03-30
EP1276113A3 (de) 2004-09-29
RU2309554C2 (ru) 2007-10-27
CN1674137A (zh) 2005-09-28
MY136042A (en) 2008-08-29
CN1399268A (zh) 2003-02-26
JP2002016883A (ja) 2002-01-18
EP1276113A2 (de) 2003-01-15
DE60031924D1 (de) 2007-01-04
RU2002125823A (ru) 2004-03-27
BR0000551A (pt) 2001-04-03
EP1081962A1 (de) 2001-03-07
CN1674136B (zh) 2010-06-09
HK1050419A1 (en) 2003-06-20
EP1276112A3 (de) 2004-09-29

Similar Documents

Publication Publication Date Title
DE60031924T2 (de) Vorrichtung und Verfahren zur Wiedergabe von Video- und Audiosignalen
DE60012972T2 (de) Digitalvideo-Aufzeichnung mit Aufzeichnung von Vollbild-Unterbildern und diesen zugeordneten Transparenz-Steuerdaten zum Überblenden zwischen aufeinanderfolgenden Videosegmenten bei der Wiedergabe
DE69917140T2 (de) Videodatenaufzeichnungsmedium, videodatenaufzeichnungsgerät und videodatenwiedergabegerät
DE69725365T2 (de) Informationsaufzeichnungsmedium, Gerät zur Aufzeichnung auf demgleichen und Gerät zur Wiedergabe aus demgleichen
DE69914006T2 (de) DVD-Aufzeichnungsanordnung und -verfahren
DE60223807T2 (de) Änderung der wiedergabegeschwindigkeit einer in einem progressiven teilbildformat aufgezeichneten videodarstellung
DE69737245T2 (de) Informationsaufzeichnungsmedium, Gerät zum Aufzeichnung auf demgleichen und Gerät zur Wiedergabe aus demgleichen
DE69924788T2 (de) Aufzeichnungsmedium zur Speicherung von stillstehenden Bildern
US7742678B2 (en) Encoded signal characteristic point processing apparatus
DE69834665T2 (de) Optische Platte, Aufzeichnungsgerät, und rechnerlesbares Aufzeichnungsmedium
DE60032105T2 (de) Reihenfolge von titeln in einer echtzeit dvd videoaufzeichnung
DE60009337T2 (de) Verfahren zur bearbeitung von quellenvideomaterial für zeitlupe und schnellwiedergabe auf dem aufnahmemedium
DE60020872T2 (de) Bildgenauer schnitt ohne dekodierung und neukodierung eines mpeg-bitstroms für einschreibare dvd
DE69936970T2 (de) Speichermedium und Anlage und Verfahren zur Aufnahme und Wiedergabe kodierter Daten darauf und davon
DE60128780T2 (de) Digitale Aufnahme- und Wiedergabevorrichtung mit eingebautem Speichermedium
DE19522326A1 (de) Sende- und Aufzeichnungsverfahren, Wiedergabeverfahren und Informationswiedergabevorrichtung und deren Wiedergabemedium
DE60104800T2 (de) Informationsaufzeichnungs/-wiedergabevorrichtung und Informationsaufzeichnungsmedium
DE60030944T2 (de) Nummerierung von videobjekten und -zellen
US7734149B2 (en) Apparatus and method for recording/reproducing moving picture and recording medium
DE60300155T2 (de) Abspielgerät für Aufzeichnungsträger
DE60035302T2 (de) Aufzeichnungsmedium, und System und Verfahren zur Aufzeichnung und Wiedergabe
DE60119654T2 (de) Informationsaufzeichnungsgerät, Informationsaufzeichnungsverfahren und Informationsaufzeichnungsmedium mit einem Informationsaufzeichnungsprogramm
DE69912735T2 (de) Datenaufzeichnungs-/-wiedergabegerät
JP2005136556A (ja) 編集装置及び編集方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition