DE19740119A1 - System zum Schneiden digitaler Video- und Audioinformationen - Google Patents

System zum Schneiden digitaler Video- und Audioinformationen

Info

Publication number
DE19740119A1
DE19740119A1 DE19740119A DE19740119A DE19740119A1 DE 19740119 A1 DE19740119 A1 DE 19740119A1 DE 19740119 A DE19740119 A DE 19740119A DE 19740119 A DE19740119 A DE 19740119A DE 19740119 A1 DE19740119 A1 DE 19740119A1
Authority
DE
Germany
Prior art keywords
screen
cut
cutting
text
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19740119A
Other languages
English (en)
Inventor
Axel Dipl Ing Schulz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Original Assignee
Philips Patentverwaltung GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Patentverwaltung GmbH filed Critical Philips Patentverwaltung GmbH
Priority to DE19740119A priority Critical patent/DE19740119A1/de
Priority to US09/124,427 priority patent/US6185538B1/en
Priority to EP98202947A priority patent/EP0902431A3/de
Priority to JP10255230A priority patent/JPH11162107A/ja
Publication of DE19740119A1 publication Critical patent/DE19740119A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

Die Erfindung betrifft ein System zum Schneiden digitaler Video- und Audioinfor­ mationen, umfassend: ein Speichermittel zur Aufnahme und Wiedergabe der Video- und Audioinformationen, ein Anzeigemittel zur Anzeige von Informationen, ein Mittel zum Erstellen einer Schnittliste, welche Schnittdaten enthält, und ein Steuer­ mittel zur Steuerung des Speichermittels in Abhängigkeit der Schnittdaten der Schnittliste.
In Fernsehstudios werden zur Produktion von sendefähigen Beiträgen zunehmend nicht-lineare Schnittsysteme eingesetzt. Bei derartigen Schnittsystemen werden die Signale der Video- und Audioinformationen zunächst ungeordnet in einen Speicher mit wahlfreiem Zugriff geschrieben, z. B. in einen Plattenspeicher. Nachfolgend kann auf bestimmte Bildszenen (Takes) der gespeicherten Video- und Audioinfor­ mationen, nicht-linear, d. h. ohne zeitliche Verzögerung, zugegriffen werden. Es ist üblich, anhand der im Speicher abgelegten Video- und Audioinformationen auch die Schnittzeitpunkte zu bestimmen, d. h. die Anfangs- und Endzeiten jener Takes, die zur Aussendung kommen sollen. Die Schnittzeitpunkte der ausgewählten Takes sowie die Reihenfolge der Takes werden in eine Schnittliste (EDL - Edit Decision List) eingetragen. Die in die Schnittliste aufgenommenen Schnittdaten dienen zur Steuerung des (Platten)-Speichers. Entsprechend den Schnittdaten der Schnittliste kann eine fortlaufende sendefähige Bild/Audio-Folge aus dem Speicher gelesen werden. Im Gegensatz zur linearen (sequentiellen) Magnetbandtechnik läßt sich mit einem derartigen nicht-linearen Schnittsystem die anhand einer Schnittliste zusam­ mengestellte Bild/Audio-Folge on-line überprüfen. Einträge in der Schnittliste lassen sich bei einem nicht-linearen Schnittsystem einfach ändern.
Die Schnittzeitpunkte lassen sich nicht nur anhand der wiedergegebenen Bilder des Videomaterials ermitteln, sondern auch anhand des Begleittons. Dabei hört man die zeitparallel zum Videomaterial vorliegenden Audioinformationen ab und setzt dort Schnittmarken, wo der Schnitteinstieg und Schnittausstieg bestimmter, zur Aussen­ dung kommenden Takes liegen soll. Diese Editierart bietet sich zur Produktion aktueller Nachrichtensendungen an, da mit Hilfe der Audioinformationen die Schnitt­ zeitpunkte der zur Aussendung kommenden Takes schneller und exakter festgelegt werden können als mit Hilfe der Bildinformationen des Videomaterials.
Aus der WO 94/16443 ist ein System zum rechnergestützten Schneiden von Audio­ daten bekannt, bei welchem ein Teil des Amplitudenverlaufs der Audiodaten auf einem Videosichtgerät dargestellt wird. Anhand von Einbrüchen im Amplituden­ verlauf werden solche Ton- oder Sprachunterbrechungen ermittelt, die als Schnitt­ zeitpunkte für Schnittmarken dienen könnten. Das Einrichten und Auswerten von Amplitudenverläufen anhand von Audiodaten erfordert viel Fingerspitzengefühl und Spezialkenntnisse. Dieses System ist daher zur Schnittfestlegung von aktuellen (Fernseh-)Nachrichtenbeiträgen durch technisch nicht vorgebildete Redakteure wenig geeignet.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein System zum Schneiden von digitalen Video- und Audioquelleninformationen nach der eingangs genannten Art zu schaffen, welches eine einfache, schnelle und präzise Schnittfestlegung erlaubt.
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Mittel zum Erkennen von Sprache in den Audioinformationen und zum Erzeugen einer Zeichenfolge, insbe­ sondere einer ASCII-Zeichenfolge, welche mit der Sprache zeitlich korrespondiert, zur Darstellung auf einem Bildschirm des Anzeigemittels, und ein Mittel zum Ableiten von Schnittdaten anhand markierter Teile der auf dem Bildschirm des Anzeigemittels dargestellten Zeichenfolge.
Die Erfindung weist den Vorteil auf, daß aktuelle (Fernseh-)Nachrichtensendungen, die in der Regel überwiegend Sprechtext enthalten, nunmehr zeitlich schneller und präziser editiert werden können als beim Stand der Technik. Grundlage für die Schnittfestlegung sind nicht mehr die Bildinformationen des Videoquellenmaterials oder die von einem Lautsprecher abgestrahlten Information des Audioquellenmate­ rials, sondern ein von der Audiodatenfolge des Audioquellenmaterials durch Sprach­ erkennung abgeleiteter, auf dem Bildschirm einer Anzeigevorrichtung dargestellter Text. Die Wortfolge in dem dargestellten Text ist mit der Bildfolge zeitlich verkop­ pelt, weil die Bild- und Toninformationen eines Nachrichtenbeitrags üblicherweise zeitgleich aufgenommen und gespeichert werden. Den Speicherort der Bild- und Toninformationen auf dem Aufzeichnungsmedium wird durch einen Zeitcode fest­ gelegt. Jedem Wort in dem dargestellten Text ist somit ein bestimmter Zeitcodewert des Zeitcodes zugeordnet, der sich vorteilhaft bei der Erstellung der Schnittliste verwenden läßt.
Gemäß einer Weiterbildung der Erfindung sind zur Festlegung eines Schnittbeginns und/oder Schnittendes Marken zur Kennzeichnung von Grenzen markierter Teile der auf dem Bildschirm des Anzeigemittels dargestellten Zeichenfolge vorgesehen. Eine Ausgestaltung der Erfindung besteht aus einem Mittel zum Festlegen der Position der Grenzen der markierten Teile der auf dem Bildschirm des Anzeigemittels dargestell­ ten Zeichenfolge und aus einem Mittel zur Umwandlung der Position der Grenzen der markierten Teile in den Video- und Audioinformationen zugeordnete Zeitcode­ daten und zur Übernahme der Zeitcodedaten als Schnittdaten in die Schnittliste.
Die Position der Marken im dargestellten Text entspricht einem bestimmten Zeit­ codewert. Die durch jeweils eine Marke gekennzeichneten Grenzen (Schnittbeginn, Schnittende) eines gewählten Takes stehen für bestimmte Zeitcodewerte des Schnitt­ einstiegs und des Schnittausstiegs. Zur Verschiebung der Position der Markierung auf dem Bildschirm ist eine Maus vorgesehen. Die mit Hilfe der Maus angefahrene Markenposition wird in dem Video- und Audiomaterial zugeordnete Zeitcodedaten Werte umgewandelt und in die Schnittliste eingetragen.
Die erfindungsgemäße Zusammenstellung der Schnittliste erfordert keinen ausgebil­ deten Cutter. Wenn technische oder künstlerische Gesichtspunkte keine Rolle spielen, wie das beim Zusammenstellen einer aktuellen Nachrichtensendung üblicherweise der Fall ist, kann nunmehr auch ein Journalist direkt die Schnittliste für seinen Sendebei­ trag erstellen und das Ergebnis der Schnittfestlegung unmittelbar kontrollieren und gegebenenfalls ändern, bevor sein Beitrag ausgesendet wird.
Eine Weiterbildung der Erfindung besteht darin, daß der Bildschirm der Anzeigeein­ richtung als Touch-Screen ausgeführt ist, um durch Berühren des Bildschirms die Positionsgrenzen bestimmter Teile in der dargestellten Zeichenfolge festzulegen. Durch Antippen eines Satzanfangs oder Satzendes in dem dargestellten Text lassen sich die jeweiligen Zeitcodedaten in die Schnittliste übernehmen, ohne daß eine Maus zur Verschiebung einer Marke und Bestätigung zur Eingabe benutzt werden muß.
Aktuelle Fernsehnachrichtenbeiträge, die ausländischen Agenturen bzw. Sendeanstalten anbieten und über Satellit zur heimatlichen Fernsehanstalt übertragen, liegen oft in einer nicht im Heimatland verkehrsüblichen Sprache vor. Das empfangene Nachrich­ tenmaterial ist im Heimatstudio aufzubereiten, d. h. die Sprachanteile im empfangenen Audiomaterial zu übersetzen und an die Stelle der Orginalaudioanteile zu setzen. Alternativ ist das empfangene Nachrichtenmaterial von einem Studiosprecher in der Landessprache zu kommentieren, bevor es zur Aussendung kommt.
Auch ein dem Bildmaterial derart zugesetzter Begleitton kann einer Spracherkennung zugeführt werden, um anhand des erhaltenen Textes eine Schnittliste zu erstellen. Diese Vorgehensweise hat den Vorteil, daß ein durch die Spracherkennung erzeugtes ASCII-Textfile auch zur Steuerung eines Teleprompters für den Kommentator einge­ setzt werden kann. Durch Änderung des Audio-Pitches läßt sich bei unterschiedlichen Längen der Audio- und Video-Takes gegebenenfalls die erforderliche (Lippen)- Synchronität wieder herstellen, wobei die ermittelten Schnittmarken als Bezugspunkt dienen können.
Die nach Abschluß des Editierens verbleibende ASCII-Zeichenfolge kann für notwen­ dige Dokumentionszwecke weiterverwertet werden.
Eine Weiterbildung der Erfindung besteht darin, daß das Spracherkennungsmittel eine Einrichtung zum Erkennen unterschiedlicher Stimmen in den gesprochenen Audio­ informationen aufweist, welche jeder Stimme einen bestimmten Zeichenfont zur Ab­ grenzung von anderen Stimmen zuordnet. Textpassagen im dargestellten Text, die von verschiedenen Sprechern stammen, lassen sich so durch eine entsprechende Zeichen­ gestaltung, z. B. im Zeichenfont oder in der Zeichenfarbe, einem bestimmten (weib­ lichen oder männlichen) Sprecher zuordnen. Der dargestellte Text läßt sich so dem Text eines Drehbuchs nachbilden, welches für verschiedene Sprecher angelegt ist.
Eine andere Weiterbildung der Erfindung besteht darin, daß auf dem Bildschirm des Anzeigemittels neben Zeichen der erzeugten Zeichenfolge auch den Zeichen zeitlich zugehörige Bilder der gespeicherten Videoinformationen dargestellt werden. Insbe­ sondere ist vorgesehen, daß auf dem Bildschirm des Anzeigemittels mehrere Einzel­ bilder der gespeicherten Videoinformationen dargestellt werden, deren Zeitcodedaten mit Zeitcodedaten an den Grenzen markierter Teile der dargestellten Zeichenfolge für die Festlegung des Schnittbeginns und/oder Schnittendes ausgewählter Takes zeitlich übereinstimmen.
Weiterhin ist vorteilhaft, daß ein oder mehrere durch Schnittmarken begrenzte(r) insertschnitt(e) zeitlich mit einer auf dem Bildschirm angezeigten Gesamt-Sendezeit zur Darstellung einer verbleibenden Rest-Sendezeit gekoppelt werden kann, damit beispielsweise ein Kommentator abschätzen kann, wieviel Zeit ihm noch für einen aufzusprechenden Kommentar bleibt.
Ausführungsbeispiele der Erfindung sind in der Zeichnung anhand mehrerer Figuren dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
Fig. 1 ein Blockschaltbild gemäß der Erfindung und
Fig. 2 eine graphische Benutzeroberfläche zur Erstellung einer Schnittliste gemäß der Erfindung.
Gleiche Teile sind in den Figuren mit gleichen Bezugszeichen versehen.
Ein sendefähiger Fernsehbeitrag besteht aus einer Sequenz einzelner Takes. Die zeit­ liche Reihenfolge der Takes legt ein Editor (Cutter) fest, indem er das Quellenmate­ rial sichtet und bestimmte Takes in dem Quellenmaterial für eine spätere Aussendung auswählt. Damit die ausgewählten Takes in der vom Editor gewünschten Reihenfolge zur Aussendung gelangen, ist eine Liste mit Editierdaten aufzustellen, die sogenannte EDL (Edit Decision List). Ein von Anweisungen der EDL gesteuertes Schnittsystem liest anschließend on-line das in einem wahlfrei zugreifbaren Speicher abgelegte Quellenmaterial aus. Die nachfolgend beschriebene EDL ist nicht auf ein bestimmtes EDL-Format festgelegt. Die EDL kann in einem der bekannten EDL-Formate erstellt sein, z. B. CMX, GVG, SONY.
Bei dem in der Fig. 1 dargestellten Blockschaltbild bezeichnet 1 ein rechnergestütztes System zum Editieren von Audio- und Videosignalen. Das System 1 enthält eine rechnergestützte Steuereinrichtung 2 mit einer CPU 3 (Central Processing Unit) und einen flüchtigen Speicher 4 (RAM = Random Access Memory), welcher über einen Bus 5 mit der CPU 3 verbunden ist. An dem Bus 5 sind ferner angeschlossen: ein nicht-flüchtiger Speicher 6, z. B. ein Plattenspeicher, ein Grafikmodul 7 zur Ansteue­ rung eines Monitors 8, ein Ausgangsmodul 9 zum Ausgeben eines Videosignals an einem Ausgang 10 sowie von Audiosignalen an einem Ausgang 11, ein Audio-Ein­ gangsmodul 12 zum Empfangen von Audioquellsignalen an einem Eingang 13, ein Video-Eingangsmodul 14 zum Empfangen eines Videoquellsignals an einem Eingang 15, ein Ein-/Ausgabemodul 16 zum Ein- und Ausgeben von ASCII-Zeichenfolge­ signalen über einen bidirektionalen seriellen Bus 17, ein Eingabemodul 18 zum Empfangen von Daten einer Tastatur 19 bzw. einer Maus 20, und schließlich ein Spracherkennungsmodul 21.
Um nicht-linear zu schneiden, sind zunächst die an Eingängen 13 und 15 bereitge­ stellten Audio- und Videoquellsignale über die Eingangsmodule 12, 14 und den Bus 5 in den nicht-flüchtigen Speicher 6 zu schreiben. Liegen die Audio- und Videoquell­ signale als Analogsignale vor, sind die Audio- und Videoquellsignale zuvor A/D zu wandeln. Zu diesem Zweck weisen die Eingangsmodule 12 und 14 entsprechende A/D-Wandler auf.
Gemäß der Erfindung sind die Audioquellsignale in eine Zeichenfolge umzuwandeln. Die Umwandlung geschieht software-gesteuert in dem Spracherkennungsmodul 21, welches in den Audioquellsignalen enthaltene Wörter feststellt und die festgestellten Wörter als digitale Zeichenfolge, vorzugsweise als ASCII-Zeichenfolge, ebenfalls in den nicht-flüchtigen Speicher 6 schreibt. Spracherkennungssysteme sind an sich be­ kannt (DE 41 11 781 A1, EP 0 366 192 A2) und brauchen daher in diesem Zusam­ menhang nicht näher erläutert werden.
Die ASCII-Zeichenfolge ist so zu speichern, daß der zeitliche Bezug zwischen der erzeugten ASCII-Zeichenfolge und den Audio- und Videoquellsignalen gewahrt bleibt. Da die Audio- und Videoquellsignale bei der Speicherung über einen Zeit­ code, z. B. einen SMPTE-Zeitcode, zeitlich miteinander verkoppelt sind, korrespon­ diert unter dieser Voraussetzung die erzeugte ASCII-Zeichenfolge zeitlich mit den Audio- und Videoquellsignalen. Wird die ASCII-Zeichenfolge wieder aus dem Speicher 6 gelesen und unter Zuhilfenahme des Grafikmoduls 7 auf einem Bildschirm des Monitors 8 als Text dargestellt, so kann jedem Wort des Textes ein bestimmter Zeitcode-Wert zugeordnet werden. Über diesen Zeitcode-Wert kann auf das einem Wort zugehörige Einzelbild des Videosignals bzw. den zugehörigen Teil des Audio­ signals zugegriffen werden.
Die vom Spracherkennungsmodul 21 erzeugte ASCII-Zeichenfolge läßt sich nicht nur zur Erstellung einer EDL, d. h. zur Schnittfestlegung, verwenden. Die erzeugte ASCII-Zeichenfolge kann über den seriellen Bus 17 des Ein-/Ausgabemoduls 16 auch (nicht dargestellten) externen Geräten zugeleitet werden, z. B. einem Drucker, einem Gerät zur Weiterverarbeitung der ASCII-Zeichenfolge, einem Server oder einem Teleprompter.
Über den seriellen Bus 17 des Ein-/Ausgabemoduls 16 lassen sich dem Schnitt­ system 1 auch externe ASCII-Zeichenfolgen zuführen. Das Zuführen externer ASCII- Zeichenfolgen ist dann sinnvoll, wenn beispielsweise aus dem Ausland stammende Fernsehnachrichtenbeiträge von einem Sprecher nach einer Textvorlage zu kommen­ tieren sind. Ferner ist die Eingabe einer ASCII-Zeichenfolge dann angezeigt, wenn ein aus dem Ausland stammender Nachrichtenbeitrag zwar Sprache als Begleitton zum empfangenen Bildmaterial enthält, aber in einer Sprache, die nicht verkehrsüb­ lich ist. In diesem Fall ist vor einer Aussendung des empfangenen Nachrichtenbei­ trags zunächst eine Übersetzung anzufertigen. Da Übersetzungen heute computer­ gestützt durchgeführt werden können, bietet es sich an, eine als ASCII-Datenfile generierte Übersetzung direkt von einem Ausgang des Computers über den seriellen Bus 17 dem Ein-/Ausgabemodul 16 zuzuleiten und als Text auf dem Bildschirm des Monitors 8 darzustellen.
Durch die Übersetzung fremdsprachlichen Audiomaterials geht in der Regel die Lippensynchronität und damit der ursprünglich vorhandene zeitliche Bezug zum empfangenen Videoquellenmaterial verloren. Da auf dem Bildschirm des Monitors 8 sowohl der übersetzte Text als auch die mehr oder weniger zum übersetzten Text passenden Einzelbilder dargestellt werden, können durch Aufhebung der zeitlichen Verkopplung der als ASCII-Zeichenfolge vorliegenden Übersetzung und dem empfangenen Videoquellsignal sowie durch anschließendes Editieren, wie Löschen, Einfügen oder Ersetzen bestimmter Wörter im angezeigten Text, die Synchronität zwischen den Audio- und Videoquellensignalen wieder hergestellt werden. Die Synchronität läßt sich vorteilhaft durch Vergleich des dargestellten Textes mit der zugehörigen Bildfolge prüfen. Wenn nach dem Editieren des dargestellten Textes, gegebenenfalls auch nach Editieren von Einzelbildern in der Bildfolge, der Text zeitlich zu der Bildfolge paßt, wird die zeitliche Verkopplung wieder hergestellt und es kann mit dem Erstellen einer EDL anhand des verbliebenen übersetzten Textes begonnen werden.
Die Fig. 2 zeigt eine graphische Benutzeroberfläche zur Darstellung auf dem Bild­ schirm des Monitors 8. Die graphische Benutzeroberfläche gliedert sich in vier Bereiche: einen Bildbereich 22, einen Textbereich 23, einen EDL-Bereich 24 und einen Steuerbereich 25. In dem Textbereich 23 wird der vom Spracherkennungs­ modul 21 generierte Text 27 dargestellt. Je nach Umfang des generierten Textes läßt sich in dem Textbereich 23 der gesamte Text oder auch nur ein Teil des Textes dar­ stellen. Durch Auf- und Abscrollen des Textes lassen sich bestimmte Textteile zur Darstellung auf dem Bildschirm auswählen. Zur Festlegung eines Schnittbeginns und/oder Schnittendes anhand des Textes können Teile des dargestellten Textes mar­ kiert werden. Dies kann beispielsweise dadurch geschehen, daß optische Marken an den Anfang und das Ende des zur Aussendung kommenden Texteiles gesetzt werden. Der Anfang (START S1) eines Takes 001 läßt sich beispielsweise durch eine Marke 28 und das Ende (END E1) des Takes durch eine Marke 29 kennzeichnen. Die Startmarken 30, 32 und die Endmarken 31, 33 begrenzen die folgenden Takes 002 und 003.
Eine andere Möglichkeit, den Text zu markieren, besteht darin, den gewünschten Textteil durch eine Aufhellung 34 hervorzuheben. Die Position und die Länge der Aufhellung 34 kann mit Hilfe der Maus 20 oder durch Cursorsteuerung über die Tastatur 19 festgelegt werden.
Selbstverständlich besteht auch die Möglichkeit, den gewünschten Text sowohl durch Marken als auch durch Aufhellungen gegenüber solchen Textteilen hervorzuheben, die nicht in die EDL aufgenommen werden sollen. Weitere Möglichkeiten bestehen darin, gewünschte Textpassagen durch Unterstreichen oder durch Schriftfontsände­ rung von solchen Textpassagen abzuheben, die nicht zur Aussendung kommen sollen.
Zum Kenntlichmachen von Textpassagen als Hilfsmittel zur Erstellung einer EDL läßt sich besonders vorteilhaft ein Monitor 8 mit Touch-Screen-Steuerung einsetzen. Hierbei wird mit einem Finger auf solchen Textzeilen entlanggefahren, die im Text­ bereich 23 des Bildschirms dargestellt sind und deren zeitliche Entsprechung in Form gewünschter Video- und Audioinformationen zur Aussendung kommen sollen.
Der Bildbereich 22 enthält Bildfenster 35 bis 40 zur Darstellung von Bildern am Start und Ende der durch die markierten Textteile ausgewählten Takes 001 bis 003. In dem Bildfenster 35 ist ein Einzelbild der im Speicher 6 abgelegten Videoinformation dargestellt, welches zeitlich der Position der Startmarke 28 des Takes 001 zugeordnet ist. In dem Bildfenster 36 ist ein der Position der Endmarke 29 zugeordnetes Einzel­ bild zu sehen. Das ist möglich, weil der im Textbereich 23 dargestellte, fortlaufende Text über den Zeitcode mit Bildern der gespeicherten Videoinformation korrespon­ diert. Durch Verschieben der Position einer Schnittmarke im Textbereich 23 läßt sich im Bildbereich 22 das jeweils zugehörige Bild an der Schnittposition durch die Ver­ knüpfung über den Zeitcode im Speicher 6 auffinden und durch Zwischenspeicherung im flüchtigen Speicher 4 und wiederholtes Auslesen als Standbild wiedergeben.
Der EDL-Bereich 24 dient zur Anzeige verschiedener Zeitcodewerte und Schnitt­ zeiten. In der Zeile 41 ist die Gesamtzeit angegeben, die ein Bildregisseur für den fertigen Fernsehbeitrag vorgibt. Die Zeile 42 gibt die noch verbleibende Zeit an, d. h. die Differenz zwischen der Gesamtzeit und der Summe der Dauer bereits ausgewähl­ ter Takes. Ferner enthält der EDL-Bereich 24 einige Informationen zu den ausge­ wählten Takes. In einer Spalte 43 sind die Take-Nummern angegeben, in einer Spalte 44 die Zeitcodewerte an der Position der Startmarken 28, 30, 32, in einer Spalte 45 die Zeitcodewerte an der Position der Endmarken 29, 31, 33, in einer Spalte 46 die jeweilige Dauer der einzelnen Takes. In einer Spalte 47 sind addierte Zeiten der Takes dargestellt, um Auskunft darüber zu erhalten, wieviel Zeit für die ausgewählten Takes bisher angesammelt worden ist. Die Zeitcodewerte in den Spalten 44 und 45 entsprechen den 28 bis 33.
Im Gegensatz zum Stand der Technik, bei welchem die einzelnen Zeitcodewerte zunächst zu ermitteln und dann mit einer Tastatur 19 in einen Steuerrechner einge­ geben werden müssen, können beim Gegenstand der vorliegenden Erfindung die Zeitcodewerte an den Schnittmarkenpositionen mit dem Setzen von Marken bzw. der Markierung von Textteilen automatisch in die EDL des EDL-Bereichs 24 übernom­ men werden.
Der Steuerbereich 25 enthält verschiedene Buttons zur Steuerung verschiedener Wiedergabefunktionen, um das Markieren von Text zu erleichtern und zu beschleu­ nigen. Der Button 50 bezeichnet eine Stopfunktion: ein Text-Scrollen wird unter­ drückt. Durch Mausklick auf den Button 51 läßt sich das Schnittsystem in einen Standardwiedergabebetrieb bringen, bei dem der Text durchläuft. Ein Klick auf den Button 52 schaltet das System in einen schnellen sichtbaren Text-Vorlauf. Mit einem Klick auf den Button 53 springt das System an den Anfang des in dem wahlfreien Speicher 6 abgelegten Quellenmaterials. Ein Klick auf den Button 52 bewirkt eine sichtbare Textwiedergabe rückwärts, ein Klick auf den Button 55 eine schnelle rückwärts gerichtete Textwiedergabe und ein Klick auf den Button 56 einen Sprung an das Ende des im wahlfreien Speicher 6 abgelegten Quellenmaterials des Textes.
Das erfindungsgemäße Schnittsystem ist so ausgelegt, daß beim Durchlaufen des Textes oder beim Entlangfahren einer Marke in Textzeilen neben zugehörigen Bildern auch der zugehörige Ton wiedergegeben wird.
Liegt die EDL und damit die Schnittfolge der auszusendenden Video- und Audio­ informationen fest, kann in an sich bekannter Weise der wahlfreie Speicher 6 im Sinne eines nicht-linearen Schnitts durch EDL-Steuerung on-line gelesen und der Beitrag ausgesendet werden.

Claims (7)

1. System zum Schneiden von digitalen Video- und Audioinformationen, umfassend:
ein Speichermittel zur Aufnahme und Wiedergabe der Video- und Audioinformatio­ nen, ein Anzeigemittel zur Anzeige von Informationen, ein Mittel zum Erstellen einer Schnittliste, die Schnittdaten enthält, und ein Steuermittel zur Steuerung des Speichermittels in Abhängigkeit der Schnittdaten der Schnittliste, gekennzeichnet durch
  • - ein Mittel (21) zum Erkennen von Sprache in den Audioinformationen und zum Erzeugen einer Zeichenfolge (27), insbesondere einer ASCII-Zeichenfolge, welche mit der Sprache zeitlich korrespondiert, zur Darstellung auf einem Bildschirm des Anzeigemittels (8), und
  • - ein Mittel (2) zum Ableiten von Schnittdaten anhand markierter Teile (28 bis 34) der auf dem Bildschirm des Anzeigemittels (8) dargestellten Zeichenfolge (27).
2. System nach Anspruch 1, gekennzeichnet durch Marken (28 bis 33) zur Festlegung eines Schnittbeginns und/oder Schnittendes vermittels von Grenzen markierter Teile (28 bis 34) der auf dem Bildschirm des Anzeigemittels (8) dargestellten Zeichenfolge (27).
3. System nach Anspruch 1 und 2, gekennzeichnet durch
  • - ein Mittel (19, 20) zum Festlegen der Position der Grenzen der markierten Teile (28 bis 34) der auf dem Bildschirm des Anzeigemittels (8) dargestellten Zeichen­ folge (27) und
  • - ein Mittel (3) zur Umwandlung der Position der Grenzen der markierter Teile (28 bis 34) in den Video- und Audioinformationen zugeordnete Zeitcodedaten (41 bis 47) und zur Übernahme der Zeitcodedaten (41 bis 47) als Schnittdaten in die Schnittliste (24).
4. System nach Anspruch 1 bis 3, dadurch gekennzeichnet, daß der Bildschirm der Anzeigeeinrichtung (8) als Touch-Screen ausgeführt ist, um durch Berühren des Bildschirms die Positionsgrenzen bestimmter Teile (28 bis 34) in der dargestellten Zeichenfolge (27) festzulegen.
5. System nach Anspruch 1, dadurch gekennzeichnet, daß das Spracherkennungsmittel (21) eine Einrichtung zum Erkennen unterschiedlicher Stimmen in den gesprochenen Audioinformationen aufweist, welche jeder Stimme einen bestimmten Zeichenfont zur Abgrenzung von anderen Stimmen zuordnet.
6. System nach Anspruch 1, dadurch gekennzeichnet, daß auf dem Bildschirm des Anzeigemittels (8) neben Zeichen der erzeugten Zeichen­ folge (27) auch den Zeichen zeitlich zugehörige Bilder der gespeicherten Videoinfor­ mationen dargestellt werden.
7. System nach Anspruch 6, dadurch gekennzeichnet, daß auf dem Bildschirm des Anzeigemittels (8) mehrere Einzelbilder (36 bis 40) der gespeicherten Videoinformationen dargestellt werden, deren Zeitcodedaten mit Zeit­ codedaten an den Grenzen markierter Teile (28 bis 34) der dargestellten Zeichenfolge (27) für die Festlegung des Schnittbeginns und/oder Schnittendes ausgewählter Takes zeitlich übereinstimmt.
DE19740119A 1997-09-12 1997-09-12 System zum Schneiden digitaler Video- und Audioinformationen Withdrawn DE19740119A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE19740119A DE19740119A1 (de) 1997-09-12 1997-09-12 System zum Schneiden digitaler Video- und Audioinformationen
US09/124,427 US6185538B1 (en) 1997-09-12 1998-07-29 System for editing digital video and audio information
EP98202947A EP0902431A3 (de) 1997-09-12 1998-09-03 System zum Schneiden digitaler Video- und Audioinformationen
JP10255230A JPH11162107A (ja) 1997-09-12 1998-09-09 デジタルビデオ情報及びオーディオ情報を編集するためのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19740119A DE19740119A1 (de) 1997-09-12 1997-09-12 System zum Schneiden digitaler Video- und Audioinformationen

Publications (1)

Publication Number Publication Date
DE19740119A1 true DE19740119A1 (de) 1999-03-18

Family

ID=7842141

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19740119A Withdrawn DE19740119A1 (de) 1997-09-12 1997-09-12 System zum Schneiden digitaler Video- und Audioinformationen

Country Status (4)

Country Link
US (1) US6185538B1 (de)
EP (1) EP0902431A3 (de)
JP (1) JPH11162107A (de)
DE (1) DE19740119A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10220518A1 (de) * 2002-05-08 2003-11-27 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformation

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6336093B2 (en) 1998-01-16 2002-01-01 Avid Technology, Inc. Apparatus and method using speech recognition and scripts to capture author and playback synchronized audio and video
JPH11289512A (ja) * 1998-04-03 1999-10-19 Sony Corp 編集リスト作成装置
US9123380B2 (en) 1998-12-18 2015-09-01 Gvbb Holdings S.A.R.L. Systems, methods, and computer program products for automated real-time execution of live inserts of repurposed stored content distribution, and multiple aspect ratio automated simulcast production
US11109114B2 (en) * 2001-04-18 2021-08-31 Grass Valley Canada Advertisement management method, system, and computer program product
US8560951B1 (en) * 1998-12-18 2013-10-15 Thomson Licensing System and method for real time video production and distribution
KR100293768B1 (ko) * 1999-04-12 2001-06-15 박규진 디지털 오디오 캡션데이터 입력방법
AU736314B2 (en) * 1999-04-19 2001-07-26 Canon Kabushiki Kaisha Audio spotting advisor
JP2001045440A (ja) * 1999-07-13 2001-02-16 Lg Electronics Inc 音声特殊再生方法及び情報再生装置
JP3520010B2 (ja) * 1999-12-28 2004-04-19 三洋電機株式会社 録画装置
AU4264501A (en) 2000-04-05 2001-10-15 Sony United Kingdom Limited Audio/video reproducing apparatus and method
US20020116197A1 (en) * 2000-10-02 2002-08-22 Gamze Erten Audio visual speech processing
US20070121810A1 (en) * 2000-10-06 2007-05-31 Highwired Technologies, Inc. Automatically Mixing Audio Signals in a Predetermined Manner
JP2004514160A (ja) * 2000-10-06 2004-05-13 ハイワイアード・テクノロジーズ・インコーポレーテッド ミキシングメディアメッセージングシステムのための方法及び装置
JP2002157112A (ja) * 2000-11-20 2002-05-31 Teac Corp 音声情報変換装置
AR027901A1 (es) * 2000-12-13 2003-04-16 Krolovetzky Miguel Horacio Metodo para la transmision y sincronizacion de datos multimedia sobre redes de computadoras
JP2003032602A (ja) * 2001-07-11 2003-01-31 Pioneer Electronic Corp 画像編集装置及び方法、画像記録再生装置並びにコンピュータプログラム
US7343082B2 (en) * 2001-09-12 2008-03-11 Ryshco Media Inc. Universal guide track
NL1018959C2 (nl) * 2001-09-14 2003-03-17 Vjd Av Media B V Inrichting, gebruik daarvan en werkwijze voor het opslaan en afspelen van beeld- en/of geluidsopnamen, alsmede samenstel van een dergelijke inrichting met een camera.
US20030065503A1 (en) * 2001-09-28 2003-04-03 Philips Electronics North America Corp. Multi-lingual transcription system
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US20030074498A1 (en) * 2001-10-16 2003-04-17 Gareis Ronald E. Method and circuitry for a programmable controller system
US20030084211A1 (en) * 2001-10-29 2003-05-01 Herinckx Derald J. Monitoring method and system for remote input/output blocks
US20030171912A1 (en) * 2002-02-12 2003-09-11 Arnoldo Cabello Translation apparatus
GB2391143A (en) * 2002-04-17 2004-01-28 Rhetorical Systems Ltd Method and apparatus for scultping synthesized speech
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
DE10220520A1 (de) * 2002-05-08 2003-11-20 Sap Ag Verfahren zur Erkennung von Sprachinformation
DE10220522B4 (de) * 2002-05-08 2005-11-17 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
DE10220521B4 (de) * 2002-05-08 2005-11-24 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
US20040044532A1 (en) * 2002-09-03 2004-03-04 International Business Machines Corporation System and method for remote audio caption visualizations
US8009966B2 (en) * 2002-11-01 2011-08-30 Synchro Arts Limited Methods and apparatus for use in sound replacement with automatic synchronization to images
AU2004201185B2 (en) * 2003-03-21 2007-11-29 Canon Information Systems Research Australia Pty Ltd Automatic Track Generation
AU2003901314A0 (en) * 2003-03-21 2003-04-03 Canon Information Systems Research Australia Pty Ltd Automatic track generation
US20040221420A1 (en) * 2003-05-08 2004-11-11 Brian Phillips Apparatus and method for cleaning soiled, surfaces with reduced environmental impact
GB0406860D0 (en) * 2004-03-26 2004-04-28 British Telecomm Computer apparatus
WO2006099008A1 (en) * 2005-03-10 2006-09-21 Portalvideo, Inc. Video editing method and apparatus
EP1932153A2 (de) * 2005-09-07 2008-06-18 Portalvideo, Inc. Zeitannäherung für textposition in einem videobearbeitungsverfahren und -anordnung
US7648222B2 (en) * 2005-10-11 2010-01-19 Silverbrook Research Pty Ltd Printhead maintenance station comprising maintenance roller and ink removal system
US20070192107A1 (en) * 2006-01-10 2007-08-16 Leonard Sitomer Self-improving approximator in media editing method and apparatus
US8307287B2 (en) * 2007-04-13 2012-11-06 Apple Inc. Heads-up-display for use in a media manipulation operation
US20090082887A1 (en) * 2007-09-23 2009-03-26 International Business Machines Corporation Method and User Interface for Creating an Audio Recording Using a Document Paradigm
US9412372B2 (en) * 2012-05-08 2016-08-09 SpeakWrite, LLC Method and system for audio-video integration
US9953646B2 (en) * 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
US10832733B1 (en) 2019-05-15 2020-11-10 International Business Machines Corporation Verbal command video editing

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1177969A (en) 1981-04-09 1984-11-13 John H. Babbel Audio/video editing system having touch responsive function display screen
US4746994A (en) * 1985-08-22 1988-05-24 Cinedco, California Limited Partnership Computer-based video editing system
AT390685B (de) * 1988-10-25 1990-06-11 Philips Nv System zur textverarbeitung
US5136655A (en) * 1990-03-26 1992-08-04 Hewlett-Pacard Company Method and apparatus for indexing and retrieving audio-video data
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5634020A (en) 1992-12-31 1997-05-27 Avid Technology, Inc. Apparatus and method for displaying audio data as a discrete waveform
US5481296A (en) * 1993-08-06 1996-01-02 International Business Machines Corporation Apparatus and method for selectively viewing video information
JP2986345B2 (ja) * 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
US5600756A (en) * 1994-05-11 1997-02-04 Sony Corporation Method of labelling takes in an audio editing system
JPH0991928A (ja) 1995-09-25 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 映像の編集方法
US6172675B1 (en) 1996-12-05 2001-01-09 Interval Research Corporation Indirect manipulation of data using temporally related data, with particular application to manipulation of audio or audiovisual data
US5911129A (en) * 1996-12-13 1999-06-08 Intel Corporation Audio font used for capture and rendering
GB9709341D0 (en) * 1997-05-08 1997-06-25 British Broadcasting Corp Method of and apparatus for editing audio or audio-visual recordings
EP0899737A3 (de) * 1997-08-18 1999-08-25 Tektronix, Inc. Drehbucherkennung durch Spracherkennung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10220518A1 (de) * 2002-05-08 2003-11-27 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformation
DE10220518B4 (de) * 2002-05-08 2005-10-27 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformation

Also Published As

Publication number Publication date
US6185538B1 (en) 2001-02-06
EP0902431A2 (de) 1999-03-17
EP0902431A3 (de) 1999-08-11
JPH11162107A (ja) 1999-06-18

Similar Documents

Publication Publication Date Title
DE19740119A1 (de) System zum Schneiden digitaler Video- und Audioinformationen
DE69926481T2 (de) Vorrichtung und verfahren für aufnahme, entwurf und wiedergabe synchronisierter audio- und videodaten unter verwendung von spracherkennung und drehbüchern
DE3043253C2 (de)
DE3210893C2 (de) Geräteanordnung mit einem Fernsehempfangsgerät und einem Videdoaufnahme- und/oder -wiedergabegerät
DE69637487T2 (de) Multimediabasiertes Berichtsystem mit Aufnahme und Wiedergabe von dynamischen Kommentaren
DE2159848C2 (de) Textverarbeitungssystem mit einer Anzahl peripherer Diktateingabestellen
DE3914541A1 (de) Vorbereitungssystem
US20030049015A1 (en) Universal guide track
EP0424803A2 (de) Verfahren zur mindestens teilweisen Umsetzung von Bilddaten in Text mit Vorbereitung für nachfolgende Speicherung oder Weiterverarbeitung
DE10249406A1 (de) System und Verfahren zum Erstellen einer Multimedia-Präsentation
DE69720221T2 (de) Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner
DE20314039U1 (de) Streamingportal, Computervorrichtung mit dem Streamingportal, Computerprogrammprodukt, computerlesbares Medium, Computernetzwerk zum Bereitstellen des Streamingportals, erstes, zweites und drittes Computersystem
DE3143627C2 (de)
DE2006672C3 (de) Datensichtgerät
DE2825519A1 (de) Elektronisches ausgabegeraet fuer mehrzeilige textwiedergabe
DE2132240A1 (de) Rechnergesteuertes lehrsystem
EP0162967B1 (de) Verfahren zum Anwenden einer Datenverarbeitungsdanlage zum Unterweisen in ihre Bedienung und Einrichtung zum Durchführen des Verfahrens
DE19518367C2 (de) Verfahren zum Abspeichern und Wiedergeben von festen Bildschirmtexten
DE4013070C2 (de)
DE112021003445T5 (de) Vorrichtung zur Editierung von Bewegtbildern, Verfahren zur Editierung von Bewegtbildern, und Programm zur Editierung von Bewegtbildern
DE4414298A1 (de) Verfahren zur Übertragung von digitalen Informationen über einen Übertragungskanal
DE3222604A1 (de) Verfahren zur uebermittlung mehrerer informationsarten ueber einen fernsehkanal und einrichtung zur ausfuehrung derselben
DE3038595A1 (de) Verfahren zum bearbeiten von filmen und videoaufzeichnungen
DE2259609A1 (de) Vorrichtung zur audio-visuellen schulung
EP1298664B1 (de) Verfahren zum Erzeugen von Multimedia-Inhalten aus mehreren Multimedia-Elementen

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PHILIPS CORPORATE INTELLECTUAL PROPERTY GMBH, 2233

8139 Disposal/non-payment of the annual fee