DE102010052527A1 - Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung - Google Patents

Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung Download PDF

Info

Publication number
DE102010052527A1
DE102010052527A1 DE102010052527A DE102010052527A DE102010052527A1 DE 102010052527 A1 DE102010052527 A1 DE 102010052527A1 DE 102010052527 A DE102010052527 A DE 102010052527A DE 102010052527 A DE102010052527 A DE 102010052527A DE 102010052527 A1 DE102010052527 A1 DE 102010052527A1
Authority
DE
Germany
Prior art keywords
image
video
audio samples
sound
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010052527A
Other languages
English (en)
Inventor
Iris Gerstlberger
Michael Meier
Christian Hartmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut fuer Rundfunktechnik GmbH
Original Assignee
Institut fuer Rundfunktechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut fuer Rundfunktechnik GmbH filed Critical Institut fuer Rundfunktechnik GmbH
Priority to DE102010052527A priority Critical patent/DE102010052527A1/de
Priority to JP2013540372A priority patent/JP5868991B2/ja
Priority to CN201180056659.3A priority patent/CN103329145B/zh
Priority to ES11788440T priority patent/ES2923639T3/es
Priority to PCT/EP2011/070991 priority patent/WO2012069614A1/en
Priority to EP11788440.3A priority patent/EP2643791B8/de
Priority to US13/988,732 priority patent/US9240213B2/en
Priority to PL11788440.3T priority patent/PL2643791T3/pl
Priority to TW100143100A priority patent/TWI548277B/zh
Priority to BR112013012550A priority patent/BR112013012550A2/pt
Publication of DE102010052527A1 publication Critical patent/DE102010052527A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals

Abstract

Um eine verbesserte Tondarstellung von Geräuschen, insbesondere sportartspezifischen Geräuschen, bei beliebigen Videoaufzeichnungen mit verringertem technischen Aufwand zu erreichen, wird vorgeschlagen, Bildinhalte von Videobildern sensorisch zu erfassen und auszuwerten. Aus den hierdurch gewonnen Informationen werden nach zuvor definierten Kriterien aus einer Audio-Datenbank passende Geräuschereignisse (Audio-Samples) ausgewählt. Die ausgewählten Geräuschereignisse werden automatisch den Bestandteilen eines Videobegleittons zugespielt.

Description

  • Die Erfindung bezieht sich auf ein Verfahren und eine Anordnung zur verbesserten Tondarstellung von Geräuschen, insbesondere sportartspezifischen Geräuschen, bei einer Videoaufzeichnung. Eine derartiges Verfahren und eine derartige Anordnung sind aus der DE 10 2008 045 397 A1 bekannt.
  • Durch die Einführung von hochauflösenden Fernsehbildern im Breitbildformat mit mehrkanaligem Fernsehton wird der Fernsehzuschauer insbesondere bei der Übertragung von Sportereignissen wesentlich stärker als bei herkömmlichen Fernsehtechniken in das Sportgeschehen einbezogen, da deutlich mehr Details wahrnehmbar sind. Bei der Bild- und Tonaufzeichnung von aktuellen Sportereignissen lassen sich jedoch Mikrofone häufig nicht in ausreichender Zahl oder in der erwünschten Nähe zu wichtigen Tonquellen aufstellen. Dabei handelt es sich vor allem um Geräusche, welche für die jeweilige Sportart charakteristisch sind und die Unmittelbarkeit der Bildinhalte unterstreichen. So sind beispielsweise in der Fernsehaufzeichnung von Fußballspielen meist nur wenige oder gar keine spielspezifischen Geräusche auf dem Spielfeld wahrnehmbar, da die Abstände zu den das Spielfeld umgebenden Richtmikrofonen in Anbetracht der lauten Stadionatmosphäre zu groß sind. Bei der Fernsehaufzeichnung von Skirennläufen wäre eine vollständige Abdeckung der kilometerlangen Skipiste mit Mikrofonen zu aufwendig. Bei Nahaufnahmen von Spielszenen oder von Rennläufen werden daher die charakteristischen Geräusche von der Tonaufzeichnung in der Regel nicht erfasst.
  • Aus der DE 10 2008 045 397 A1 ist es zur Erfassung von sportartspezifischen Geräuschen bei einer Videoaufzeichnung von Ballsportereignissen bekannt, ein stark richtendes Mikrofon-System mit wenigstens zwei Richtmikrofonen vorzusehen, die jeweils mit Hilfe einer in allen Raumachsen schwenkbaren Nachführungseinrichtung auf die momentane Position des Balls ausgerichtet werden. Die Nachführung der Mikrofone während der Produktion erfolgt automatisch ohne ein manuelles Eingreifen in Abhängigkeit von Ballpositionsdaten, die mit Hilfe eines Balltracking-Verfahrens generiert werden.
  • Diese bekannte Tonaufnahmetechnik ist jedoch nicht bei jeder Videoaufzeichnung verwendbar und erfordert einen vergleichsweise hohen technischen Aufwand.
  • Die Aufgabe der Erfindung besteht darin, ein Verfahren und eine Anordnung der eingangs erwähnten Art zu schaffen, welche(s) eine verbesserte Tondarstellung von Geräuschen bei beliebigen Videoaufzeichnungen mit verringertem technischen Aufwand ermöglicht.
  • Diese Aufgabe wird erfindungsgemäß bei einem Verfahren dadurch gelöst, dass Bildinhalte zunächst sensorisch erfasst und ausgewertet werden. Mit Hilfe der hierdurch gewonnen Informationen werden nach zuvor definierten Kriterien aus einer Geräuschdatenbank passende Geräuschereignisse ausgewählt. Die ausgewählten Geräuschereignisse werden automatisch zu den weiteren Bestandteilen der gesamten Videotonmischung, im Folgenden als Videobegleitton bezeichnet, zugespielt.
  • Eine Anordnung zur Durchführung des Verfahrens nach der Erfindung besteht aus drei Kernkomponenten: Einer Sensorik zur Detektion von charakteristischen Bildinhalten eines Videobildes, einer zentralen Steuereinheit, welche die detektierten Bildinhalte analysiert und hierauf basierend aus einer Audio-Datenbank zu den detektierten Bildinhalten passende Audio-Samples auswählt, die in einem Mischpult dem Videobegleitton zugemischt werden.
  • Die Erfindung wird nachstehend anhand von Zeichnungen näher erläutert. Es zeigt:
  • 1 ein schematisches Blockschaltbild einer Anordnung zur Durchführung des erfindungsgemäßen Verfahrens mit den drei Kernkomponenten: Sensorik, zentrale Steuereinheit und Audio-Datenbank;
  • 2 Einzelheiten der zentralen Steuereinheit der Anordnung nach 1, und
  • 3 ein Beispiel für die Einteilung von Audio-Samples in unterschiedliche Kategorien (Sample-Mapping) in der Audio-Datenbank.
  • Die in 1 schematisch dargestellte Anordnung 1 zur Durchführung des erfindungsgemäßen Verfahrens umfasst eine Sensorik 10 zur Detektion des Bildinhaltes von Videobildern. Der detektierte Bildinhalt wird von der Sensorik 10 in Form von Daten 11 einer softwarebasierten Analyse- und Verarbeitungseinheit 30 zugeführt, die in 2 näher gezeigt ist und später erläutert werden soll.
  • Als Videobilder für die Detektion des Bildinhaltes können beispielsweise die von einer Fernsehkamera gelieferten Echzeitbilder eines Sportereignisses (in 1 und in der folgenden Beschreibung als „Sendebild” bezeichnet) hergenommen werden. Die Sensorik 10 führt beispielsweise eine Analyse des Sendebildes unter Einsatz von Algorithmen aus dem Bereich ”maschinelles Sehen” (Computer Vision) durch. Diese Algorithmen ermöglichen unter anderem die Separation und Verfolgung bewegter Objekte vor einem Bildhintergrund sowie die Bestimmung deren Positionen in Abhängigkeit des Bildausschnitts. Am Beispiel eines Fußballspiels lassen sich somit der Standort des Balles auf dem Platz sowie die Position und Größe aller im Bildausschnitt gezeigten Fußballspieler ermitteln. Weiterhin ist es möglich, die Spieler anhand ihrer Trikots verschiedenen Mannschaften zuzuordnen sowie die Bewegungsrichtung und Geschwindigkeit des Balles zu errechnen. Die Detektion (und spätere Analyse in der Analyse- und Verarbeitungseinheit 30; 1) des Sendebildes bietet zudem den Vorteil, bei einer Spielaufzeichnung mit mehreren Fernsehkameras den Standort und die Brennweite der aktuell von der Bildregie ausgewählten („geschnittenen”) Fernsehkamera ableiten zu können.
  • Ergänzend sind ferner in der Sensorik 10 und in der Analyse- und Verarbeitungseinheit 30 die Aufzeichnung und automatische Analyse von Audiosignalen (in 1 und in der folgenden Beschreibung als „Sendeton” bezeichnet) möglich, die bestimmte Handlungen innerhalb einer Szene des Sendebildes charakterisieren. Die aus dem Sendeton gewonnenen Informationen werden beispielsweise dazu verwendet, das durch Videoanalyse detektierte Bildgeschehen akustisch zu verifizieren. Ferner können in der Sensorik 10 zur näheren Definition und Erfassung von Bewegungsabläufen Sensoren vorgesehen werden, welche die Handlungen der im Sendebild auftretenden Akteure auf physikalischem Wege ermitteln. Hierzu zählt beispielsweise die Bestimmung der momentanen Position von Akteuren per GPS oder Funk-Peilsystem. Auch die genannten, zusätzlichen Informationen werden von der Sensorik 10 als Daten 11 der softwarebasierten Analyse- und Verarbeitungseinheit 30 zugeführt.
  • Eine technisch weniger aufwendige Möglichkeit zur Detektion des Bildinhaltes besteht darin, für die Videoanalyse in der Sensorik 10 anstatt des Sendebildes das Signal einer dedizierten und statisch angebrachten Tracking-Kamera herzunehmen. Die Tracking-Kamera kann zuvor auf die entsprechende Szene kalibriert werden und vereinfacht damit das automatische Auffinden von Objekten und Interaktionen im Videobild. Informationen über das eigentliche Sendebild müssen dann allerdings extern von einer Einheit 20 zugeführt werden, beispielsweise über (später erläuterte) Kamera-Metadaten oder GPIO-Signale eines in den Zeichnungen nicht dargestellten Bildmischpultes.
  • Die Analyse und Verarbeitung der von der Sensorik 10 gelieferten Daten 11 erfolgt in der Einheit 30, die in 2 näher dargestellt ist. Die Einheit 30 leitet aus den Daten 11 der Sensorik 10 Steuerbefehle 31 für eine Audio-Datenbank 40 ab, beispielsweise im Rahmen einer PC- oder DSP-basierten Verarbeitung. In der Einheit 30 werden in einer ersten Analyse-Stufe 32 (welche sendebildunabhängige Szenen analysiert) die sensorisch bestimmten Parameter zur Beschreibung des Videobildes nach zuvor definierten Regeln logisch miteinander verknüpft und anhand der resultierenden Information Steuerbefehle 31 für die Auswahl von archivierten Einzelgeräuschen, sogenannten „Audiosamples”, generiert, die in der Audio-Datenbank 40 gespeichert sind. Die zuvor definierten Regeln wiederum sind anwendungsabhängig und müssen im Vorfeld für jeden Einsatzzweck gezielt festgelegt und in die Software der Analyse- und Verarbeitungseinheit 30 eingebracht werden. Die Datenbank 40 gibt die per Steuerbefehl 31 ausgewählten Audio-Samples als Audiosignal 41 ab, das anschließend direkt dem Produktionsmischpult 50 zugespielt und dort zusammen mit anderen Bestandteilen des Videobegleittons, wie beispielsweise mit Umgebungsgeräuschen („Original-Ton”) sowie gegebenenfalls dem „Dialog-Ton” des Spiel-Kommentators gemischt werden kann. Hierbei gilt es zu beachten, dass es zwischen Audio-Samples und Videobegleitton nicht zu störenden, zeitlich versetzten Dopplungen kommt. Bei der Auswahl der Audio-Samples für die Zuspielung zum Videobegleitton wird zwischen folgenden Merkmalen unterschieden, um eine realistisch klingende Nachvertonung einer Videoszene zu erreichen (in der Reihenfolge ihrer Relevanz):
    • 1. Art des Geräuschs
    • 2. Lautstärke des Geräuschs (Velocity)
    • 3. Hallzugabe (Räumlichkeit)
    • 4. Panning (Richtungszuordnung des Geräuschs)
  • Bei der Anwendung des erfindungsgemäßen Verfahrens bei Fußballspielen bedeutet eine derartige Festlegung von Regeln in der Stufe 32, dass beispielsweise auf Grund einer der Videoanalyse zu entnehmenden Information über die Vektoränderung der Ballbewegung auf den Ursprung eines neuen Schusses geschlossen werden kann. Die Beschleunigung des Balles sowie die Länge des Bewegungsvektors auf dem Spielfeld geben Auskunft darüber, ob es sich um einen Fernschuss oder einen Pass mit divergierenden klanglichen Eigenschaften handelt und wie laut („velocity”-Wert) ein entsprechendes Geräusch (Audiosignal 41) sein soll, das nach Maßgabe des von der Einheit 32 generierten Steuerbefehls 31 von der Audio-Datenbank 40 dem Produktions-Mischpult 50 (1) zugespielt wird. Die Lautstärke des dem Produktions-Mischpult 50 zugespielten Geräusches kann ferner in Abhängigkeit von der Position des Balles auf dem Spielfeld variiert werden, wodurch sich die Distanz des Geräuschursprungs in Bezug zum Zuschauer nachbilden lässt.
  • In einer zweiten Analyse-Stufe 33 (2), welche sendebildabhängige Parameter analysiert, werden Informationen über den Bildausschnitt des Sendebildes in die Geräuschauswahl mit einbezogen. Diese Informationen werden als Daten 21 von der Einheit 20 geliefert. Erfolgt die Videoanalyse direkt im Sendebild, kann anhand der Größe untersuchter Objekte auf Kameraposition und Brennweite geschlossen werden. Kommen eine separate Trackingkamera (1) oder andere Sensorsysteme für die Detektion des Bildinhaltes in der Sensorik 10 zum Einsatz, werden externe Informationen über die Beschaffenheit des Sendebildes hergenommen. Hierzu eignen sich unter anderem Kamera-Metadaten, welche der Steuereinheit einer Fernsehkamera entnommen werden. Ferner eignen sich GPIO-Signale eines Bildmischpultes, die signalisieren, welche von mehreren Fernsehkameras aktuell im Sendebild ausgewählt (”geschnitten”) ist. Auf Basis dieser Daten generiert die zweite Analyse-Stufe 33 einen Steuerbefehl 34 zur Variation der Lautstärke der Audio-Samples 410, die dem Produktionsmischpult 50 zugespielt werden. Diese Variation erfolgt durch eine von dem Steuerbefehl 34 gesteuerte Stufe 70 zur Echtzeit-Klangbearbeitung des Audiosignals 41 der Audio-Datenbank 40. Mit Hilfe dieser weiteren Variation der Lautstärke der dem Mischpult 50 zugespielten Audio-Samples 410 lässt sich ansatzweise auditiv simulieren, in welcher optischen Distanz sich der Zuschauer zum Mittelpunkt des Bildgeschehens befindet. Am Beispiel eines Fußballspiels kann durch eine unterschiedliche Pegelung der Ballgeräusche auditiv die Nahaufnahme eines Zweikampfes oder eine Totalaufnahme des gesamten Spielfeldes nachempfunden werden, bei denen der Zuschauer jeweils eine andere optische Distanz zum Geschehen einnimmt.
  • Ergänzend kann durch die zweite Analyse-Stufe 33 die der Audio-Datenbank 40 nachgeordnete Stufe 70 für die dynamische Echtzeit-Klangbearbeitung dahingehend gesteuert werden, dass mit Hilfe von Equalizing und Zugabe von Hallanteilen in Abhängigkeit der Objektposition im Videobild der Einfluss von Luftdissipation und Räumlichkeit nachgebildet wird.
  • Bei der erläuterten Echtzeit-Zuspielung der Audio-Samples 41 bzw. 410 zu dem Mischpult 50 entsteht infolge der Detektion und Analyse des Bildinhaltes ein gewisser zeitlicher Versatz zwischen Audiosignal 41 und dem Videobild. Dieser zeitliche Versatz lässt sich jedoch auf einen Bereich von weniger als vier Vollbildern begrenzen, womit eine eindeutige Zuordnung korrespondierender Audio/Video-Ereignisse möglich ist.
  • Ein Beispiel für die Organisation der Audio-Datenbank 40 ist in 3 anhand eines „Sample-Mapping” für Fußball veranschaulicht. Unter „Sample-Mapping” versteht man die Einteilung der in der Datenbank 40 gespeicherten Audio-Samples in unterschiedliche Kategorien. Die Audio-Datenbank 40 kann sowohl hardware- als auch softwarebasiert realisiert werden und beruht beispielsweise auf einem handelsüblichen Hardware-/Softwaresampler oder einem universellen Datenbankformat. Die Übermittlung der Steuerbefehle 31 und 34 an die Datenbank 40 kann beispielsweise über das MIDI-Protokoll erfolgen. Zur Sortierung der Audio-Samples in der Audio-Datenbank 40 in Abhängigkeit von den spezifischen Merkmalen der Audio-Samples ist ein von Einsatzzweck zu Einsatzzweck variierendes ”Sample-Mapping” vorgesehen.
  • Am Beispiel eines mit wirklichkeitsnahen Geräuschen zu unterlegenden Fußballspiels werden Audio-Samples für unterschiedliche Spieltechniken in Form von Ballannahmen und Ballabgaben durch den Körper, Fuß und Kopf eines Spielers unterschieden. Bei Spieltechniken mit dem Körper werden zusätzlich Ballannahmen und -abgaben mit Brust, Knie und Kopf diversifiziert. Fußannahmen- und abgaben unterteilen sich wiederum in die Gruppen „Schüsse” und „Pässe”.
  • Bei dem Ausführungsbeispiel nach 3 werden die Audio-Samples mit variierender Lautstärke („velocity”) in Abhängigkeit der in der Analysestufe 33 (2) aus dem Videobild ermittelten Schussstärke ausgewählt und durch Einsatz unterschiedlicher Audio-Samples auch die tonalen Unterschiede verschiedener Spielintensitäten berücksichtigt. Beispielsweise besitzt das knallartige Geräusch eines harten Schusses eine größere Lautstärke und eine andere Frequenzzusammensetzung als das Geräusch eines weniger kräftigen Schusses. Das Geräusch eines weniger kräftigen Schusses wird deshalb nicht lediglich mit niedrigerer Lautstärke eingespielt, sondern es findet zusätzlich ein anderes Audio-Sample Verwendung. Die Audio-Samples werden hierzu bereits bei der Erstellung mit variierendem Aufnahmeabstand zur Geräuschquelle (2 Meter, 6 Meter oder 12 Meter) aufgezeichnet, um einen direkten Klangcharakter bei harten Schüssen sowie einen indirekten Klangcharakter bei weniger kräftigen Schüssen nachzubilden.
  • Parameter wie Lautstärke, Hallanteil, Panning und Equalizing werden in Abhängigkeit der Steuerbefehle 34 bei der Wiedergabe von der Stufe 70 vorwiegend in Echtzeit verändert. Dies bietet den Vorteil, dass nicht für jede mögliche Parametrisierung ein eigenes Audio-Sample gespeichert werden muss, was sowohl den Speicherbedarf, als auch den Aufwand bei der Erstellung derartiger Audio-Datenbanken drastisch reduziert. Um einen authentischen Gesamteindruck der vertonten Szene zu fördern ist es überdies erforderlich, auch bei aufeinander folgenden, ähnlichen Bildinhalten unterschiedliche Audio-Samples einzusetzen. Hierfür kann eine zufällige Rotation von Audio-Samples vorgesehen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008045397 A1 [0001, 0003]

Claims (12)

  1. Verfahren zur verbesserten Tondarstellung von Geräuschen, insbesondere von sportartspezifischen Geräuschen, bei einer Videoaufzeichnung, dadurch gekennzeichnet, dass Bildinhalte von Videobildern sensorisch erfasst und ausgewertet werden, dass aus den hierdurch gewonnen Informationen nach zuvor definierten Kriterien aus einer Audio-Datenbank passende Geräuschereignisse (Audio-Samples) ausgewählt werden, und dass die ausgewählten Geräuschereignisse automatisch den Bestandteilen eines Videobegleittons zugespielt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der sensorischen Erfassung der Bildinhalte von aktuelle gesendeten Videobildern (Sendebildern) eine Analyse der Sendebilder unter Einsatz von Algorithmen aus dem Bereich ”maschinelles Sehen” durchgeführt wird, wobei mit Hilfe dieser Algorithmen bewegte Objekte vor einem Bildhintergrund separiert und verfolgt sowie deren Positionen in Abhängigkeit des Bildausschnitts bestimmt werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der sensorischen Erfassung der Bildinhalte anstelle von aktuellen gesendeten Videobildern (Sendebildern) das Signal einer dedizierten und statisch angebrachten Tracking-Kamera hergenommen wird, welche auf die entsprechende Bildszene kalibriert wird, und dass zusätzlich externe Informationen über das Sendebild für die Auswertung herangezogen werden, beispielsweise Kamera-Metadaten oder GPIO-Signale eines Bildmischpultes.
  4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur näheren Definition und Erfassung von Bewegungsabläufen zusätzliche Parameter sensorisch erfasst werden, welche die Handlungen der im Sendebild auftretenden Akteure auf physikalischem Wege ermitteln, beispielsweise die Bestimmung der momentanen Position von Akteuren per GPS oder Funk-Peilsystem.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass Informationen über den Bildausschnitt des Sendebildes in die Geräuschauswahl mit einbezogen werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die sensorisch erfassten Parameter zur Beschreibung des Videobildes nach zuvor definierten Regeln logisch miteinander verknüpft und anhand der resultierenden Information Steuerbefehle für die Auswahl von archivierten Einzelgeräuschen, sogenannten „Audiosamples”, generiert werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass in Abhängigkeit einer Analyse des Sendebildes eine Echtzeit-Klangbearbeitung der aus der Audio-Datenbank ausgespielten Audio-Samples erfolgt.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass bei der Auswahl der Audio-Samples aus der Audio-Datenbank und Echtzeit-Klangbearbeitung zwischen folgenden Merkmalen unterschieden wird: – Art des Geräuschs – Lautstärke des Geräuschs (Velocity) – Hallzugabe (Räumlichkeit) – Panning (Richtungszuordnung des Geräuschs)
  9. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Audio-Samples in der Audio-Datenbank in Abhängigkeit von den spezifischen Merkmalen der Audio-Samples sortiert werden (”Sample-Mapping”).
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass für das ”Sample-Mapping” im Falle eines mit wirklichkeitsnahen Geräuschen zu unterlegenden Fußballspiels Audio-Samples in den Gruppen „Körper”, „Schüsse” und „Pässe” für unterschiedliche Spieltechniken in Form von Ballannahmen und -abgaben durch den Körper oder Fuß eines Spielers unterschieden werden.
  11. Verfahren nach Anspruch 9 und 10, dadurch gekennzeichnet, dass beim ”Sample-Mapping” im Falle eines mit wirklichkeitsnahen Geräuschen zu unterlegenden Fußballspiels Audio-Samples mit variierender Lautstärke je nach detektierter Spielintensität angeordnet werden und unterschiedliche Audio-Samples auch die tonalen Unterschiede verschiedener Spielstärken von Schüssen, Pässen und Körperannahmen berücksichtigen.
  12. Anordnung zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 11, gekennzeichnet durch folgende Komponenten: – eine Sensorik (10) zur Detektion von charakteristischen Bildinhalten eines Videobildes, – eine zentrale Steuereinheit (30), welche die detektierten Bildinhalte analysiert, und – eine Audio-Datenbank (40), in welcher Einzelgeräusche (Audio-Samples) archiviert sind, wobei die zentrale Steuereinheit (30) basierend auf den detektierten charakteristischen Bildinhalten eines Videobildes aus der Audio-Datenbank (40) zu den detektierten Bildinhalten passenden Audio-Samples auswählt, die in einem Mischpult (50) den Bestandteilen eines Videobegleittons zugemischt werden.
DE102010052527A 2010-11-25 2010-11-25 Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung Ceased DE102010052527A1 (de)

Priority Applications (10)

Application Number Priority Date Filing Date Title
DE102010052527A DE102010052527A1 (de) 2010-11-25 2010-11-25 Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung
JP2013540372A JP5868991B2 (ja) 2010-11-25 2011-11-24 動画記録中の音声のオーディオ信号再生を向上させる方法およびアセンブリ
CN201180056659.3A CN103329145B (zh) 2010-11-25 2011-11-24 用于视频记录期间的声音的改善音频信号呈现的方法和组件
ES11788440T ES2923639T3 (es) 2010-11-25 2011-11-24 Método y conjunto para mejorar la presentación de sonidos de señal de audio durante una grabación de vídeo
PCT/EP2011/070991 WO2012069614A1 (en) 2010-11-25 2011-11-24 Method and assembly for improved audio signal presentation of sounds during a video recording
EP11788440.3A EP2643791B8 (de) 2010-11-25 2011-11-24 Verfahren und anordnung für verbesserte audiosignalpräsentation des tons während einer videoaufzeichnung
US13/988,732 US9240213B2 (en) 2010-11-25 2011-11-24 Method and assembly for improved audio signal presentation of sounds during a video recording
PL11788440.3T PL2643791T3 (pl) 2010-11-25 2011-11-24 Sposób i zespół do ulepszonej prezentacji sygnałów audio dla dźwięków podczas rejestrowania wideo
TW100143100A TWI548277B (zh) 2010-11-25 2011-11-24 用於錄影時聲音之改良音訊信號表示之方法及組件
BR112013012550A BR112013012550A2 (pt) 2010-11-25 2011-11-24 método e equipamento para melhorar a gravação de sons em vídeo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010052527A DE102010052527A1 (de) 2010-11-25 2010-11-25 Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung

Publications (1)

Publication Number Publication Date
DE102010052527A1 true DE102010052527A1 (de) 2012-05-31

Family

ID=45047772

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010052527A Ceased DE102010052527A1 (de) 2010-11-25 2010-11-25 Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung

Country Status (10)

Country Link
US (1) US9240213B2 (de)
EP (1) EP2643791B8 (de)
JP (1) JP5868991B2 (de)
CN (1) CN103329145B (de)
BR (1) BR112013012550A2 (de)
DE (1) DE102010052527A1 (de)
ES (1) ES2923639T3 (de)
PL (1) PL2643791T3 (de)
TW (1) TWI548277B (de)
WO (1) WO2012069614A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592199B2 (en) 2017-01-24 2020-03-17 International Business Machines Corporation Perspective-based dynamic audio volume adjustment
CN107027053A (zh) * 2017-05-08 2017-08-08 深圳Tcl数字技术有限公司 音频播放方法、终端及计算机可读存储介质
US11172319B2 (en) 2017-12-21 2021-11-09 Insoundz Ltd. System and method for volumetric sound generation
CN109640166A (zh) * 2018-08-13 2019-04-16 张利军 基于动感程度的片尾曲选择方法
US11138431B2 (en) * 2019-04-01 2021-10-05 Foundation Of Soongsil University-Industry Cooperation Method for judging in or out, computer readable medium and apparatus for performing the method
GB2585060A (en) * 2019-06-27 2020-12-30 Sony Interactive Entertainment Inc Audio generation system and method
US11206453B2 (en) 2020-04-14 2021-12-21 International Business Machines Corporation Cognitive broadcasting of an event

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279494A1 (en) * 2004-04-16 2007-12-06 Aman James A Automatic Event Videoing, Tracking And Content Generation
DE102008045397A1 (de) * 2008-09-02 2010-03-04 Institut für Rundfunktechnik GmbH Anordnung zur verbesserten Tondarstellung der sportartspezifischen Geräusche insbesondere von Feldsportarten

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2537755A1 (fr) * 1982-12-10 1984-06-15 Aubin Sylvain Dispositif de creation sonore
US5159140A (en) 1987-09-11 1992-10-27 Yamaha Corporation Acoustic control apparatus for controlling musical tones based upon visual images
US4818938A (en) * 1988-02-26 1989-04-04 Picker International, Inc. Audio coded imaging
JP3294457B2 (ja) 1995-01-31 2002-06-24 日本放送協会 自動ミクシング装置
US6067126A (en) 1998-01-05 2000-05-23 Intel Corporation Method and apparatus for editing a video recording with audio selections
FR2785438A1 (fr) 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
KR100420293B1 (ko) * 1999-01-28 2004-03-02 인텔 코오퍼레이션 오디오 선택 내용으로 비디오 기록을 편집하기 위한 방법및 장치
JP2001202082A (ja) 2000-01-17 2001-07-27 Matsushita Electric Ind Co Ltd 映像信号編集装置および方法
JP2002057975A (ja) * 2000-08-11 2002-02-22 Noritsu Koki Co Ltd 撮影画像記録装置
US7254268B2 (en) * 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
JP2005316300A (ja) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology 楽音生成機能を備えた半導体装置およびこれを用いた携帯型電子機器、携帯電話装置、眼鏡器具並びに眼鏡器具セット
WO2006017612A2 (en) * 2004-08-06 2006-02-16 Sensable Technologies, Inc. Virtual musical interface in a haptic virtual environment
JP5067595B2 (ja) 2005-10-17 2012-11-07 ソニー株式会社 画像表示装置および方法、並びにプログラム
US20070124293A1 (en) * 2005-11-01 2007-05-31 Ohigo, Inc. Audio search system
RU2444072C2 (ru) * 2005-11-21 2012-02-27 Конинклейке Филипс Электроникс, Н.В. Система и способ для использования возможностей контента и метаданных цифровых изображений для нахождения соответствующего звукового сопровождения
ITRM20060110A1 (it) * 2006-03-03 2007-09-04 Cnr Consiglio Naz Delle Ricerche Metodo e sistema per la rilevazione automatica di eventi in ambito sportivo
FI20075530A0 (fi) * 2007-07-09 2007-07-09 Virtual Air Guitar Company Oy Eleohjattu musiikkisynteesijärjestelmä
KR20090008047A (ko) * 2007-07-16 2009-01-21 삼성전자주식회사 동작 및 위치를 검출하는 음성 입력장치와 노래 반주기 및이를 적용한 노래반주방법
JP2009169109A (ja) 2008-01-16 2009-07-30 Panasonic Electric Works Co Ltd ミラーシステム
US8435109B2 (en) * 2008-03-10 2013-05-07 Universal Entertainment Corporation Gaming machine with mechanical reel rotatable through player's operation and confirmation method of symbol
US20130120123A1 (en) * 2010-07-08 2013-05-16 James Andrew Aman Sports scorekeeping system with integrated scoreboard and automatic entertainment system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279494A1 (en) * 2004-04-16 2007-12-06 Aman James A Automatic Event Videoing, Tracking And Content Generation
DE102008045397A1 (de) * 2008-09-02 2010-03-04 Institut für Rundfunktechnik GmbH Anordnung zur verbesserten Tondarstellung der sportartspezifischen Geräusche insbesondere von Feldsportarten

Also Published As

Publication number Publication date
CN103329145A (zh) 2013-09-25
JP2014500669A (ja) 2014-01-09
BR112013012550A2 (pt) 2016-08-09
TWI548277B (zh) 2016-09-01
TW201234849A (en) 2012-08-16
EP2643791B8 (de) 2022-07-27
US20140003796A1 (en) 2014-01-02
EP2643791A1 (de) 2013-10-02
US9240213B2 (en) 2016-01-19
EP2643791B1 (de) 2022-06-22
PL2643791T3 (pl) 2022-12-05
CN103329145B (zh) 2017-06-27
JP5868991B2 (ja) 2016-02-24
ES2923639T3 (es) 2022-09-29
WO2012069614A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
DE102010052527A1 (de) Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung
DE60213913T2 (de) System und Verfahren zur Inhaltsdarstellung
EP2715935B1 (de) Kraftfahrzeugaudiosystem
DE60318451T2 (de) Automatische Zusammenfassung für eine Vorschlagsmaschine von Fernsehprogrammen beruhend auf Verbraucherpräferenzen
DE112012005214B4 (de) Verarbeiten von Medienströmen während einer Mehranwender-Videokonferenz
EP3317878A1 (de) Verfahren und vorrichtung zum erzeugen einer datenbank
DE102018208774A1 (de) Verfahren zum Steuern von mindestens einem Aktuator in mindestens zwei Kraftfahrzeugen, Sende- und Steuereinrichtung, und Kraftfahrzeug
DE19924337A1 (de) Verfahren und Vorrichtung zur Erzeugung und Steuerung einer simulierten Musikkonzert-Erfahrung
DE19646055A1 (de) Verfahren und Vorrichtung zur Abbildung von Schallquellen auf Lautsprecher
EP3539086A1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit virtuellen bild- und audiodaten und ein mobiles gerät
DE3330882A1 (de) Kompressions-/dehnungsvorrichtung
WO2020114623A1 (de) Verfahren und vorrichtung zur automatischen auswertung und bereitstellung von video-signalen eines ereignisses
EP1159579B1 (de) Verfahren und vorrichtung zur zieldarstellung und treffererkennung bei schiessanlagen
DE102016119637A1 (de) Fernsehübertragungssystem zur Erzeugung angereicherter Bilder
DE102020127147A1 (de) Bestimmungsverfahren und entsprechendes system zur musikwiedergabe, um zu bestimmen, ob musik auf der basis von bildinformation zu spielen ist
DE2849405A1 (de) Videospiel mit zuvor aufgezeichneten videosignalen
DE102013103557A1 (de) Medienszenenwiedergabesystem und -verfahren sowie deren Aufzeichnungsmedien
DE4141575C2 (de) Verfahren und Schaltungsanordnung zur quasidialoggesteuerten Darstellung eines TV-Programms
DE19745392A1 (de) Tonwiedergabevorrichtung und Verfahren zur Tonwiedergabe
DE102022106356A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem und informationsverarbeitungsverfahren
DE10125309C1 (de) Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
DE19909863A1 (de) Verfahren zur Gewinnung einzelner Bilder aus einem Datenstrom
DE202019005529U1 (de) Vorrichtung zur Übertragung von Betrachtungspunkt-Umschaltfähigkeiten in einer VR360-Anwendung
DE102022119188A1 (de) Informationsverarbeitungssystem und informationsverarbeitungsverfahren
DE102021110268A1 (de) Verfahren und System zur szenensynchronen Auswahl und Wiedergabe von Audiosequenzen für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: EISENFUEHR SPEISER PATENTANWAELTE RECHTSANWAEL, DE

Representative=s name: EISENFUEHR, SPEISER & PARTNER, DE

Representative=s name: KOPLIN, MORITZ, DR., DE

Representative=s name: KOPLIN PATENTANWALTSGESELLSCHAFT MBH, DE

R082 Change of representative

Representative=s name: KOPLIN, MORITZ, DR., DE

Representative=s name: KOPLIN PATENTANWALTSGESELLSCHAFT MBH, DE

R082 Change of representative

Representative=s name: KOPLIN PATENTANWALTSGESELLSCHAFT MBH, DE

R082 Change of representative

Representative=s name: KOPLIN PATENTANWALTSGESELLSCHAFT MBH, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final