WO2002095995A2 - Verfahren und anordnung zum steuern von audiovisuellen medialen inhalten - Google Patents

Verfahren und anordnung zum steuern von audiovisuellen medialen inhalten Download PDF

Info

Publication number
WO2002095995A2
WO2002095995A2 PCT/DE2002/001776 DE0201776W WO02095995A2 WO 2002095995 A2 WO2002095995 A2 WO 2002095995A2 DE 0201776 W DE0201776 W DE 0201776W WO 02095995 A2 WO02095995 A2 WO 02095995A2
Authority
WO
WIPO (PCT)
Prior art keywords
user
segments
behavior
playback
information
Prior art date
Application number
PCT/DE2002/001776
Other languages
English (en)
French (fr)
Other versions
WO2002095995A3 (de
Inventor
Nils Peters
Christian Graupner
Original Assignee
Humatic Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Humatic Gmbh filed Critical Humatic Gmbh
Priority to AU2002317665A priority Critical patent/AU2002317665A1/en
Publication of WO2002095995A2 publication Critical patent/WO2002095995A2/de
Publication of WO2002095995A3 publication Critical patent/WO2002095995A3/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/27Arrangements for recording or accumulating broadcast information or broadcast-related information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/10Arrangements for replacing or switching information during the broadcast or the distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information

Definitions

  • the invention relates to a method for controlling audiovisual content, in particular video, sound, music and / or voice signals, in at least one computer with peripheral devices and display, playback and
  • Sound devices support information and / or
  • Behavior at least one visual display and / or sound system is triggered, controlled and ended.
  • the invention further relates to an arrangement for controlling the reproduction of audiovisual content, in particular video, sound, music and / or speech signals, with at least one input means for detecting the presence and detection the behavior of at least one user, a computer for processing the detected signals, and display, playback and sound devices.
  • audiovisual content in particular video, sound, music and / or speech signals
  • AI is a controller for a system, in particular for a computer or a room with sensor means for detecting a position of at least one trigger, in particular one
  • the trigger can activate at least one function of the system, in particular an optical display and / or sound system.
  • Means are available for detecting the dwell time of the at least one trigger in the sensor area, the dwell time information being able to be used to influence the system.
  • DE 195 38 436 AI discloses a device for use during dance events, in which the position and / or the movement of the dancers is determined by image evaluation. The determined data are used to control visual and / or acoustic events.
  • US 5 012 334 A describes a video image bank for storing a plurality of moving video image sequences and for automatic access to one or more of the stored image sequences.
  • video storage means which contain a library of the moving video image sequences
  • library index means which comprise an index of the video storage means
  • access means to the library index means for automatic identification of an initial set of the image sequences
  • display means for Display of a motionless single image for each moving video image sequence of the first image set
  • means for selecting one of the video sequences from the first image set available are examples of the video image bank.
  • No. 5,220,648 A proposes a high-speed search system for an image data storage system which essentially comprises a storage means for the sequential storage of a plurality of images, first control means, selection means, search means, display means and second control means. Each of the images is identified by research information data and an image number.
  • US Pat. No. 4,538,188 A describes a method and a device for reading out segments from an image source material which is stored on at least one storage medium.
  • EP 0 871 177 A2 discloses a spatial, non-temporal and non-linear multimedia method in which multimedia materials stored in a memory are represented as objects, one or more objects are selected from the memory for display on a console, are viewed dynamically or and in which at least one of these objects is edited on the console in order to create an edited object and then the edited objects are placed on a processing surface of the console in order to create an action sequence which is visible on the console.
  • a video system is described in US Pat. No. 5,434,678, in which direct access to video technologies and video architectures for the automated selective search of transitions and overlaps of video segments stored non-sequentially in parallel from a simple variable program source is integrated.
  • the invention has for its object to provide a method and an arrangement of the type mentioned, with which it is possible to different
  • Linking parts of a time-linear media content for example a sound film, independently of time and reproducing them in real time in accordance with user interests.
  • the method according to the invention is characterized in particular by the fact that it becomes possible to interactively control the playback of audio-visual content that runs in a linear manner, detached from its time axis, by the activity of at least one user.
  • the audiovisual content for example that of a sound film, is made up and prepared by the method according to the invention in such a way that it can move away from its time axis.
  • the digital sound film is divided into individual segments at least decomposed into a video frame, encoded with meta information and the individual segments linked so loosely that the combination of paths marked in the meta information and received user input generates a meaningful presentation that stimulates further input.
  • the coding of the individual segments no longer forces the user to select individual different image sequences, but rather the method according to the invention interprets the behavior of the user and presents the individual user and also a group of users with a scene or sequence of scenes that is adequate for the behavior.
  • the method according to the invention has the advantage that it supports the presentation of a large number of media formats such as font, image, sound, video formats, VR panoramas, animations and television programs. With the determination of the statistical or empirical viewer behavior, it opens up the possibility of creating TV program formats that automatically re-edit, ie an ongoing TV program of any length constantly renews itself by deliberately placing tried and tested segments and replacing less popular ones with others.
  • the method according to the invention has the particular advantage of reacting directly to viewer habits and qualifying a program or playback.
  • the automatically reediting presentation of media content by means of the method according to the invention makes it possible to replace music titles by means of interactive video clips and banner advertising with video sequences that can be influenced. The video clips or video sequences no longer have to be reproduced in an identical form, but can instead depending on the user's reaction.
  • FIG. 1 is a diagram of the method according to the invention
  • Fig. 2 is a diagram of the arrangement according to the invention with representation of the signal processing
  • Fig. 3 shows the working steps according to the inventive method.
  • Figures 1 and 2 illustrate the sequence of the method according to the invention and a variant of an arrangement for performing the method according to the invention with a schematic representation of the signal flow.
  • the arrangement essentially consists of a commercially available high-speed computer 1 with a hard disk memory, an optional network 2 assigned to the computer 1, an audio / video playback device 7, a display 8 and a sound system 9. Close to or on the display 8 are contactless sensors 10 positioned.
  • the arrangement according to the invention optionally includes further sensors 11, at least one camera 12 and conventional input means 13 such as a mouse, touchscreen or keyboards.
  • the method works with a digitized, time-linear audio film, which is stored on the hard disk memory of the computer 1 for fast data access.
  • the digital sound film via the external network 2.
  • the digitized sound film also contains information 3 on the playback behavior which is necessary for the time-linear playback.
  • the sound film is broken down into virtual segments 6, ie the film product finished in the conventional sense is re-edited. The segmentation according to the method according to the invention is explained below with reference to FIG. 1.
  • the original film is available as a digitized sound film file, the starting point a of which is shown in the course of time up to the end point g.
  • the virtual segment 6 is determined by a variable number of digitized image and sound frames of the time-linear sound film, which are marked as belonging together via index information.
  • a segment comprises at least one video frame and is not limited in its length, that is to say the total number of frames belonging to a segment.
  • the segment is defined by its first and last frame.
  • the segment can be part of a higher-level file, for example the film file, and does not have to be a separate file.
  • the segment is identified with meta information 3, ie encoded by individual byte structures representing the digital content within the digital video frame.
  • the scene which represents a summary of segments, is arranged hierarchically above the segments. At least one segment is required to define a scene, the length of which, i.e. the number of segments, again need not be limited.
  • the scene defines the initial playback behavior of the segments and the mode of user interaction. For example, if a scene consists of more than one segment, the transitions between the segments are available as fixed points. These transitions do not have to be visible when the media content is visualized.
  • the corresponding meta information of the scene such as initial playback specifications, definition of parameters that can be influenced by the user, connection scenes, associated sound samples etc. are encoded in the media data.
  • the method according to the invention reads these out when jumping into a scene and reconditions its input and playback modules based on this information. If this conditioning has taken place, then is the method according to the invention is ready to have parameters manipulated by user input in real time.
  • Both the type of input, for example in the form of a contactless sensor 10 or direct input using a keyboard, and the manipulable parameters such as playback speed, immediate film position, direction of play, volume, scene-specific parameters can thus be defined separately for each scene.
  • the segment boundaries serve as possible connection points for subsequent scenes, definable areas around the segment boundaries can release certain decision phases. The selection is made depending on the scene depending on the definition.
  • a special form of the segment is the breakpoint (see Fig. 1), which defines one without media content and, depending on the user input, randomly or by other factors such as the time of day, enables the connection scenes to be multiplied.
  • the segmentation takes place in several steps. First the film is divided into scenes and these in turn into sub-scenes or segments. The segments defined in this way are addressed via indices so that their start and end points are available as parameters. The film can therefore be broken down into segments according to its smallest possible division. The individual picture and sound segments are thus available for immediate access regardless of their sequence due to the continuous addressing.
  • the film After segmentation and addressing, the film is available as a numbered image / sound sequence and also as a data container 21, in which, in addition to the combination of individual segments, the direction and speed of play can also be freely adjusted.
  • the computer-based video / audio playback device 7 To play back the scenes or sub-scenes (images and sounds), the computer-based video / audio playback device 7 is used, which provides a context, direction and speed-independent playback of the scenes or
  • Conventional monitors, displays or video projectors 8 are used to display the video images.
  • the sounds are made with the audio amplifier and speakers
  • Sound system 9 made audible to the user.
  • At least one sensor 10 is positioned on or near the display 8, which detects the presence of at least one user and detects its activity in the detected area.
  • the range is approximately 1.5 to 100 m with an opening angle of 180 °.
  • Optical and / or acoustic sensors preferably infrared, ultrasonic or laser sensors, are used.
  • Microphones cameras, laser scanners, microwave systems or
  • Each sensor can of course also be a simple one
  • Rangefinder be executed.
  • the distance measurements are made at a time interval of 1 to 200
  • a set of rules 14 is stored in the form of codes 15 on the data storage medium of the computer 1 and carries out the work steps of the inventive method determined by the code 15.
  • the set of rules 14 forms the link between the data streams generated by the user and the correspondingly prepared digital sound film. It provides an expandable collection of specific video playback and user data processing functions, which can be linked by means of controllable variables (variables) to different program sequences or variations.
  • the segmentation data, navigation path markings and addresses stored in the segments form the framework parameters for the playback behavior, on the basis of which the control system 14 constantly adapts a constellation to the current state and prepares the subsequent steps resulting therefrom.
  • Corresponding behavior patterns of average users are stored in the data memory of the computer 1 and are used to determine deviations in the determined behavior pattern of the users by comparing the stored characteristic reference behavior and the determined behavior pattern. If the set of rules 14 recognizes that new characteristic properties appear in the behavior of the user, the characteristic reference behavior is expanded by these properties and the change is recorded in the data memory. The rule set 14 interprets the determined behavior pattern of the users by comparing them with the characteristic reference behavior as soon as a threshold value that exceeds the behavior properties is determined.
  • the detectable behavior pattern includes the position, the speed of the movement, the direction of movement, the movement intensity, the movement path, the movement pattern, the repetition of movements as well as the gestures and facial expressions of one or more users.
  • the respective subsequent step is then selected by selecting virtual segments or scenes or sub-scenes in accordance with the interpretation described above and the prevailing state of an ongoing presentation of segments.
  • control loop closes and the user is again prompted to take action in order to generate a new system reaction.
  • the control system 14 carries out the following individual work steps, as shown schematically in FIG. 3.
  • contactless object detection begins with distance measurements and other measurements that characterize user behavior.
  • Feedback control loops continuously adapt the sensor area relevant for the application to the user's radius of movement. The movement of the user is determined over an adjustable period of time.
  • the set of rules 14 adapts the threshold values necessary for triggering certain subsequent steps to the visitor behavior. This enables, for example, a calm visitor with slight natural head, hand or body movements to be shown the same media event as a group of strongly moving children.
  • a more attractive content offer is placed in the direction of the non-critical area.
  • the rule set 14 reads the input side Sensor signals between 5 and 1000 Hz depending on the sensors used. Assuming this supporting sensor hardware, the readout frequency of the sensors can be changed dynamically on the hardware side but also on the software side.
  • the control system 14 filters out certain signals or data that are irrelevant or disruptive to the execution of the method according to the invention. This includes noise caused by technology or the environment, fluttering or trembling of user data, strong short-term pulse jumps and pulses above, below and / or between certain threshold values.
  • the sensor evaluation data are recorded over a certain period of time and examined with or according to the reference behavior pattern. The recognition of such a pattern triggers an operating step in the segment display, for example.
  • the recorded sensor evaluation data are compared with the data from another measurement period or the data just arriving. The determined comparison result can, if it corresponds to a reference behavior, in turn trigger an operating step in the segment display.
  • the recorded control data are classified as unambiguous control commands by the control system 14 on the basis of adjustable threshold values and, depending on the application requirements, any number of steps, such as “short standstill”, “Standstill medium”, “Standstill long”, “slight movement forward”, “slight movement backwards”, “slight movement left”, “slight movement right”, “strong movement forward”, “strong movement backwards”, “strong Movement left “or” strong movement right “divided. Of course, it is also possible to combine these steps accordingly.
  • the data stream generated by the user movement is alternatively or in parallel used to directly control the sound film files or segments.
  • the control system 14 smoothes and modifies the data streams in order to achieve smooth playback of the segments.
  • the modifications can relate, for example, to the reversal of the direction of the data and / or their mixing with other generated data.
  • These other data can be prepared control sequences 17 or enrichment data 18.
  • the prepared control sequences 17 ensure that the interaction remains varied, interesting and meaningful for the user. Repetitions within a preset period of time are excluded or scenes appear different by changing the playback speed, the entry and exit points for the scene, color effects and sounds, even if the same segments are used.
  • the set of rules 14 determines that the media presentation of the segments or scenes remains in flow and that there are no abrupt transitions between the segments. This is achieved in that only certain connection points or connection areas of the segments allow a scene change.
  • the control system 14 ensures that the corresponding connection point is approached quickly but gently before switching to the appropriate segment. Furthermore, real-time media effects such as cross-fades or prepared intermediate films can be inserted at the switching points, which enable a smooth transition.
  • video images or sounds recorded or recorded live on-site can be integrated into the presentation sequence of the segments, scenes or sub-scenes by the rules 14. For example, an additional increase in the entertainment effect is achieved when the image of the respective user appears in the presentation sequence.
  • breakpoint For the integration of live recordings, certain segments (breakpoint) are reserved and addressed in advance in the sound film described as a data container. This enables the rules 14, the real-time call and the program-specific modulation of the live images and sounds in the same way as the pre-produced segments.
  • the control commands of the user signals categorized via the threshold values are compared in a real-time matrix 19 with the segment that is currently playing.
  • the next step is generated by taking both factors into account.
  • Preset control mechanisms which act like an optimization filter 20, optimize the system performance in that only the required part of the generated data is used for control, even with high user activity.
  • the frame rate is matched to human perception, ie the method according to the invention works with a frame rate of approximately 15 frames per second, because humans can no longer perceive a frame rate of more than 15 frames per second individually. If a user provokes a high playback speed through his activity, then the set of rules 14 slows the audiovisual presentation down to viewing habits which the person can perceive without being overloaded.

Abstract

Die Erfindung betrifft ein Verfahren und eine Anordnung zum Steuern der Wiedergabe von medialen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe und Toneinrichtungen unterstützen Informations-, oder Unterhaltungssystemen, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive Eingabe ermittelt und das kinematische Verhalten des Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst oder beendet wird. Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Anordnung der eingangs genannten Art anzugeben, mit dem es gelingt, unterschiedliche Teile eines zeitlinear ablaufenden medialen Inhaltes, beispielsweise eines Tonfilmes, zeitunabhängig zu verketten und entsprechend dem Nutzerinteresse in Echtzeit wiederzugeben. Gelöst wird diese Aufgabe dadurch, dass mindestens eine digitalisierbare Audio- und/oder Bildinformation als Datencontainer und in seiner Darstellung zugleich als Benutzerinterface verwendet wird, und dass die Information in virtuelle Segmente zerlegt und die Segmente in Szenen und Unterszenen gegliedert werden, und dass von mit den Segmenten verknüpften, im Hintergrund gespeicherten Metainformationen die Informationen dieser Szenen unabhängig von ihren ursprünglichen Zusammenhängen, Richtungen und Geschwindigkeiten als Funktion einer Änderung im ermittelten Verhalten des Benutzers reeditiert, neu verkettet und in Realzeit wiedergegeben werden.

Description

Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
Die Erfindung betrifft ein Verfahren zum- Steuern von audiovisuellen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe- und
Toneinrichtungen unterstützen Informations- und/oder
Unterhaltungssystemen, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive
Eingabe ermittelt und das kinematische Verhalten des
Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem
Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst, gesteuert und beendet wird.
Die Erfindung betrifft ferner eine Anordnung zum Steuern der Wiedergabe von audiovisuellen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, mit mindestens einem Eingabemittel zum Erfassen der Anwesenheit und Feststellen des Verhaltens mindestens eines Benutzers, einem Rechner zum Verarbeiten der detektierten Signale, und Anzeige-, Wiedergabe- und Toneinrichtungen.
Aus der DE 196 53 682 AI bzw. DE 196 54 944 AI ist eine Steuerung für ein System, insbesondere für einen Computer oder einen Raum mit Sensormitteln zur Erfassung einer Position mindestens eines Auslösers, insbesondere eines
Cursors auf der Anzeige des Computers oder einer Person im
Raum, in einem 1-, 2- oder 3-dimensionalen Bereich
(Sensorbereich) des Systems bekannt. Durch den Auslöser ist mindestens eine Funktion des Systems, insbesondere eine optische Anzeige und/oder Beschallung, aktivierbar. Es sind Mittel zur Erfassung der Verweilzeit des mindestens einen Auslösers im Sensorbereich vorhanden, wobei die Verweilzeit- Information zur Beeinflussung des Systems verwendbar ist.
Des weiteren ist in der DE 195 38 436 AI eine Vorrichtung zum Einsatz während Tanzveranstaltungen offenbart, bei welcher durch Bildauswertung die Position und/oder die Bewegung der Tanzenden bestimmt wird. Mit den ermittelten Daten werden visuelle und/oder akustische Ereignisse gesteuert.
Die US 5 012 334 A beschreibt eine Video-Bild-Bank zur Speicherung einer Vielzahl von bewegten Videobildsequenzen und zum automatischen Zugang zu einem oder mehreren der gespeicherten Bildsequenzen. Es sind Videospeichermittel, die eine Bibliothek der bewegten Videobildsequenzen enthalten, Bibliothekindexmittel, die einen Index der Videospeichermittel umfassen, Zugangsmittel zum Bibliotheksindexmittel für eine automatische Identifizierung eines Anfangsatzes der Bildsequenzen, Anzeigemittel zur Anzeige eines bewegungslosen Einzelbildes für jede bewegte Videobildsequenz des ersten Bildsatzes, Mittel zur Selektion einer der Videosequenzen aus dem ersten Bildsatz vorhanden.
In der US 5 220 648 A wird ein Hochgeschwindigkeitsrecherchesystem für ein Bilddatenspeichersystem vorgeschlagen, das im wesentlichen ein Speichermittel für die sequentielle Speicherung einer Vielzahl von Bildern, erste Steuerungsmittel, Selektionsmittel, Recherchemittel, Anzeigemittel und zweite Steuerungsmittel umfasst. Jedes der Bilder wird durch Rechercheinformationsdaten und einer Bildzahl identifiziert.
Des weiteren ist aus der US 4 538 188 A ein Verfahren und ein Gerät zum Auslesen von Segmenten aus einem Bildquellenmaterial, das auf zumindest einem Speichermedium gespeichert ist.
Alle diese bekannten Lösungen greifen auf herkömmliche gesonderte Datenbanken, in denen beispielsweise Programme zur Steuerung von Heizungen, Licht- oder Beschallungsanlagen, Spielen, Multmedia-Anwendungen oder Bild- und Recherchesystemdaten fest abgespeichert sind, zurück. Nachdem durch die Eingabe, sei es durch die direkte Befehlseingabe über eine Maus oder durch eine berührungslose Aktivität eines Nutzers, beispielsweise der Ablauf eines ausgewählten Werbefilmes gestartet wurde, kann der Benutzer die Wiedergabe innerhalb der Filmpräsentation nicht mehr beeinflussen und hat nur die Möglichkeit, die Filmwiedergabe zu stoppen, wenn diese ihn nicht mehr interessiert. Dies unterbleibt in aller Regel, weil der Betrachter den Bedienbereich wegen Desinteressiertheit längst wieder verlassen hat. Das ausgewählte Programmteil läuft weiter und stellt für den nächsten Betrachter oft eine, zumindest pchychologische, Hürde dar, weil dieser die zuvor ausgewählte Programmebene zurückfahren muss, um einen für ihn vermeintlich interessanten neuen Programmteil auswählen zu können. Die
Betrachter verlieren deshalb von vornherein leicht das Interesse an der Bedienung eines derartigen Informationssystems und lassen es deshalb unbeachtet.
Aus der EP 0 871 177 A2 ist ein räumliches, nichtzeitliches und nichtlineares Multimediaverfahren bekannt, bei dem in einem Speicher abgelegte Multimediamaterialien als Objekte dargestellt, ein oder mehrere Objekt (e) aus dem Speicher zur Anzeige auf einer Konsole ausgesucht, dynamisch betrachtet wird bzw. werden und bei dem zumindest eines dieser Objekte auf der Konsole editiert wird, um ein editiertes Objekt zu erzeugen und anschließend die editierten Objekte auf einer Bearbeitungsfläche der Konsole platziert werden, um einen Handlungsablauf zu kreieren, der auf der Konsole sichtbar wird. Des weiteren wird in der US 5 434 678 A ein Videosystem beschrieben, in welchem ein Direktzugriff auf Videotechnologien und Videoarchitekturen für die automatisierte selektive Suche von nicht-sequentiell parallel gespeicherten Übergängen und Überlappungen von Videosegmenten aus einer einfachen variablen Programmquelle integriert ist.
Die bisherigen bekannten Informations- und Unterhaltungssysteme sind daher nur bedingt für die Steuerung der Wiedergabe von audiovisuellen Inhalten wie Werbe-, Informations- und Schulungsfilme geeignet, da die Filme zeitlinear ablaufen und die zu übertragenden Datenmenge sehr groß werden, um zu den Stellen des Filmes mit interessierenden Inhalten zu gelangen. Eine Berücksichtigung der Benutzerreaktion auf den Inhalt erfolgt nicht.
Bei diesem Stand der Technik liegt der Erfindung die Aufgabe zugrunde, ein Verfahren und eine Anordnung der eingangs genannten Art anzugeben, mit dem es gelingt, unterschiedliche
Teile eines zeitlinear ablaufenden medialen Inhaltes, beispielsweise eines Tonfilmes, zeitunabhängig zu verketten und entsprechend dem Nutzerinteresse in Echtzeit wiederzugeben .
Diese Aufgabe wird durch ein Verfahren der eingangs genannten Gattung mit den kennzeichnenden Merkmalen des Anspruches 1 und durch eine Anordnung mit den kennzeichnenden Merkmalen des Anspruches 19 gelöst.
Vorteilhafte Ausgestaltungen des Verfahrens sind den Unteransprüchen entnehmbar.
Das erfindungsgemäße Verfahren zeichnet sich vor allem dadurch aus, dass es möglich wird, die Wiedergabe von zeitlinear ablaufenden audiovisuellen Inhalten losgelöst von ihrer Zeitachse durch die Aktivität zumindest eines Benutzers interaktiv zu steuern. Der audiovisuelle Inhalt, beispielsweise der eines Tonfilmes, wird durch das erfindungsgemäße Verfahren so konfektioniert und vorbereitet, dass er sich gelöst von seiner Zeitachse bewegen kann. Dazu wird der digitale Tonfilm in einzelne Segmente aus mindestens einem Videoframe zerlegt, mit Metainformationen kodiert und die einzelnen Segmente so lose miteinander verkettet, dass aus der Kombination von in den Metainformationen vorgezeichneten Pfaden und empfangenen Benutzereingaben eine sinnvolle zu weiteren Eingaben stimulierende Präsentation generiert wird. Durch die Kodierung der einzelnen Segmente ist der Benutzer nicht mehr gezwungen, einzelne unterschiedliche Bildfolgen anzuwählen, sondern das erfindungsgemäße Verfahren interpretiert das Verhalten des Nutzers und präsentiert dem einzelnen Benutzer wie auch einer Gruppe von Benutzern eine dem Verhalten adäquate Szene oder Szenenfolge.
Das erfindungsgemäße Verfahren hat den Vorteil, dass es die Präsentation einer Vielzahl von Medienformaten wie Schrift-, Bild-, Ton-, Videoformate, VR-Panoramen, Animationen und Fernsehsendungen unterstützt. Mit der Ermittlung des statistisch oder empirisch Zuschauerverhaltens eröffnet es die Möglichkeit, TV- Sendungsformate zu erschaffen, die sich automatisch reeditieren, d.h. eine laufende Fernsehsendung beliebiger Länge erneuert sich ständig selbst, indem bewährte Segmente bewusst plaziert und weniger beliebte durch andere ersetzt werden. Das erfindungsgemäße Verfahren hat den besonderen Vorteil, auf Zuschauergewohnheiten direkt zu reagieren und eine Sendung bzw. Wiedergabe zu qualifizieren. Darüber hinaus ermöglicht die automatisch reeditierende Präsentation von Medieninhalten durch das erfindungsgemäße Verfahren Musiktitel mittels interaktiver Video-Clips und Bannerwerbung durch beeinflussbare Videosequenzen zu ersetzen. Die Video-Clips oder Videosequenzen müssen nicht mehr in identischer Form wiedergegeben werden, sondern können je nach der Reaktion des Nutzers entsprechend zusammengestellt werden.
Nachfolgend werden einige Anwendungsmöglichkeiten des erfindungsgemäßen Verfahrens beispielhaft genannt, deren Reihenfolge keine Rangfolge darstellt: -Anwendung in einem Museum als Informationssystem für verschiedenste Wissensgebiete;
-Unterhaltung und Information in öffentlichen Räumen, beispielsweise Flughafenterminals, Foyers usw.; -Navigationssysteme in öffentlichen Verkehrsmitteln; -Verwendung als audiovisuelles Musikinstrument; -Einsatz in Präsentation und Werbung, beispielsweise
Schautafeln, Spots, Clips, Bannerwerbung im Internet usw., für Verkaufsräume, Messen, öffentliche Veranstaltungen; -Multimedia-Applikationen, beispielsweise interaktive audiovisuelle Shows, -Anwendungen für Theater- und Opernbühnen; -Sicherheitssysteme .
Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen.
Die Erfindung soll nachstehend an einem Ausführungsbeispiel näher erläutert werden.
Es zeigen:
Fig. 1 ein Schema des erfindungsgemäßen Verfahrens, Fig. 2 ein Schema der erfindungsgemäßen Anordnung mit Darstellung der Signalverarbeitung und
Fig. 3 die nach dem erfindungsgemäßen Verfahren ablaufenden Arbeitsschritte.
Die Figuren 1 und 2 verdeutlichen den Ablauf des erfindungsgemäßen Verfahrens und eine Variante einer Anordnung zur Durchführung des erfindungsgemäßen Verfahrens mit schematischer Darstellung des Signalflusses. Die Anordnung besteht im wesentlichen aus einem handelsüblichen schnellen Rechner 1 mit einem Festplattenspeicher, einem dem Rechner 1 zugeordneten optionalen Netzwerk 2, einem Audio/Video-Wiedergabeeinrichtung 7, einem Display 8 und einer Tonanlage 9. Nahe oder am Display 8 sind berührungslos arbeitende Sensoren 10 positioniert. Optional gehören zu der erfindungsgemäßen Anordnung weitere Sensoren 11, zumindest eine Kamera 12 und übliche Eingabemittel 13 wie Mouse, Touchscreen oder Tastaturen.
Das Verfahren arbeitet in diesem Beispiel mit einem digitalisierten zeitlinear ablaufenden Tonfilm, der auf dem Festplattenspeicher des Rechners 1 für einen schnellen Datenzugriff gespeichert ist. Natürlich ist es auch möglich, den digitalen Tonfilm über das externe Netzwerk 2 zuzuführen. Der digitalisierte Tonfilm enthält neben Bilddaten 4 und Tondaten 5 auch Informationen 3 zum Abspielverhalten, die für die zeitlineare Wiedergabe notwendig sind. Um den digitalisierten Tonfilm für das erfindungsgemäße Verfahren verwenden zu können, wird der Tonfilm in virtuelle Segmente 6 zerlegt, d.h. das im herkömmlichen Sinne fertige Filmprodukt erfährt eine Reeditierung. Die Segmentierung nach dem erfindungsgemäßen Verfahren wird im folgenden anhand der Fig. 1 erklärt. Der ursprüngliche Film liegt als digitalisierte Tonfilmdatei vor, dessen Anfangpunkt a im Zeitlauf bis zum Endpunkt g dargestellt ist. Das virtuelle Segment 6 ist bestimmt durch eine variable Anzahl von digitalisiert vorliegenden Bild- und Tonframes des zeitlinearen Tonfilms, die über Indexinformationen als zusammengehörig markiert sind. Ein Segment umfasst wenigstens einen Videoframe und ist in seiner Länge, also der Gesamtzahl der zu einem Segment gehörenden Frames, nicht limitiert. Definiert ist das Segment durch seinen ersten und letzen Frame. Das Segment kann speicherungsseitig Teil einer übergeordneten Datei, beispielsweise der Filmdatei, sein und muss keine eigene Datei darstellen. Mit Metainformationen 3 wird das Segment gekennzeichnet, d.h. durch individuelle, den digitalen Inhalt darstellende Bytestrukturen innerhalb des digitalen Videoframe kodiert.
Hierarchisch über den Segmenten angeordnet ist die Szene, welche eine Zusammenfassung von Segmenten darstellt. Wenigstens ein Segment wird benötigt, um eine Szene zu definieren, deren Länge, also die Anzahl der Segmente, wiederum nicht begrenzt zu sein braucht.
Die Szene definiert das initiale Abspielverhalten der Segmente und den Modus der Benutzerinteraktion. Besteht beispielsweise eine Szene aus mehr als einem Segment, so stehen die Übergänge zwischen den Segmenten als Fixpunkte zur Verfügung. Bei einer optischen Darstellung der Medieninhalte müssen diese Übergänge nicht sichtbar sein.
Die entsprechenden Metainformationen der Szene wie initiales Abspielvorgaben, Definition benutzerbeinflußbarer Parameter, Anschlussszenen, zugehörige Ton-Samples usw. sind in den Mediendaten verschlüsselt enthalten. Das erfindungsgemäße Verfahren liest diese beim Sprung in eine Szene aus und konditioniert seine Eingabe- und Abspielmodule anhand dieser Informationen neu. Ist diese Konditionierung erfolgt, so ist das erfindungsgemäße Verfahren bereit, Parameter durch Benutzereingaben in Realzeit manipulieren zu lassen. Sowohl die Art der Eingabe, beispielsweise in Form eines berührungslos arbeitenden Sensors 10 oder einer direkten Eingabe mit Hilfe einer Tastatur, als auch die manipulierbaren Parameter wie z.B. Abspielgeschwindigkeit, unmittelbare Filmposition, Spielrichtung, Lautstärke, szenenspezifische Parameter sind damit für jede Szene gesondert definierbar.
Die Segmentgrenzen dienen als mögliche Anschlusspunkte für Folgeszenen, definierbare Bereiche um die Segmentgrenzen können bestimmte Entscheidungsphasen freigeben. Die Auswahl wird szenenindividuell definitionsabhängig getroffen. Eine Sonderform des Segments stellt der Breakpoint (s. Fig. 1) dar, der ein solches ohne medialen Inhalt definiert und abhängig von der Benutzereingabe, auf Zufallsbasis oder durch andere Faktoren wie Z.B. die Tageszeit bestimmt, eine Multiplikation der Anschlussszenen ermöglicht. Die Segmentierung erfolgt in mehreren Schritten. Zunächst wird der Film in Szenen unterteilt und diese wiederum in Unterszenen bzw. Segmente. Die so definierten Segmente werden über Indizes adressiert, so dass ihre Anfangs- und Endpunkte als Parameter zur Verfügung stehen. Der Film ist daher entsprechend seiner kleinstmöglichen Einteilung in Segmente zerlegbar. Die einzelnen Bilder- und Tonsegmente stehen somit im Bedarfsfall durch die fortlaufende Adressierung für einen sofortigen Zugriff unabhängig von ihrer Reihenfolge zur Verfügung. Der Film liegt nach der Segmentierung und Adressierung als nummerierte Bild/Tonsequenz wie auch als Datencontainer 21 vor, bei dem neben der Kombination von einzelnen Segmenten auch die Abspielrichtung und -geschwindigkeit frei einstellbar sind. Zum Abspielen der Szenen oder Unterszenen (Bilder und Töne) kommt die rechnerbasierte Video/Audio-Wiedergabeeinrichtung 7 zur Anwendung, welche eine Zusammenhangs-, richtungs- und geschwindigkeitsunabhängige Wiedergabe der Szenen oder
Unterszenen mit einer Bildrate von bis 50 Bildern pro Sekunde erlaubt.
Zur Anzeige der Videobilder kommen herkömmliche Monitore, Displays oder Videoprojektoren 8 zum Einsatz. Die Töne werden mit der aus Audioverstärker und Lautsprecher bestehenden
Tonanlage 9 für den Benutzer hörbar gemacht.
Am oder nahe vom Display 8 ist wenigstens ein Sensor 10 positioniert, der die Gegenwart zumindest eines Benutzers feststellt und dessen Aktivität im detektierten Bereich erfasst .
Je nach Sensortyp und Messverfahren beträgt die Reichweite etwa 1,5 bis 100 m bei bis zu einem Öffnungswinkel von 180°.
Eingesetzt werden optische und/oder akustische Sensoren, vorzugsweise Infrarot-, Ultraschall- oder Lasersensoren,
Mikrofone, Kameras, Laserscanner, Mikrowellensysteme oder
Radarsysteme.
Jeder Sensor kann natürlich auch als einfacher
Entfernungsmesser ausgeführt sein. Die Entfernungsmessungen werden in einem zeitlichen Abstand von 1 bis 200
Millisekunden durchgeführt. Unterschiedliche Sensorarten zu kombinieren ist ebenso möglich.
Ein Regelwerk 14 ist in Form von Codes 15 auf dem Datenspeichermedium des Rechners 1 gespeichert und führt die durch den Code 15 bestimmten Arbeitsschritte des erfindungsgemäßen Verfahrens aus. Das Regelwerk 14 bildet das Bindeglied zwischen dem vom Benutzer erzeugten Datenströmen und dem entsprechend aufbereiteten digitalen Tonfilm. Es stellt eine erweiterbare Sammlung spezifischer Videoplayback- und Nutzerdatenverarbeitungsfunktionen zur Verfügung, die sich mittels steuerbarer Größen (Variablen) zu unterschiedlichen Programmabläufen bzw. -Variationen verknüpfen lassen.
Dabei bilden die in den Segmenten gespeicherten Segmentierungsdaten, Navigationspfadmarkierungen und Adressen die Rahmenparameter für das Abspielverhalten, anhand derer das Regelwerk 14 eine Konstellation ständig an den gegenwärtig Zustand anpasst und die sich daraus ergebenden Folgeschritte vorbereitet.
Im Datenspeicher des Rechners 1 sind entsprechende Verhaltensmuster von Durchschnittsnutzern abgelegt, die zur Bestimmung von Abweichungen im ermittelten Verhaltensmuster der Benutzer durch einen Abgleich zwischen dem abgespeicherten charakteristischen Referenzverhalten und dem festgestellten Verhaltensmuster dienen. Erkennt das Regelwerk 14, dass im Verhalten der Benutzer neue kennzeichnende Eigenschaften im Verhalten hinzutreten, wird das charakteristische Referenzverhalten um diese Eigenschaften erweitert und die Änderung in den Datenspeicher aufgenommen. Das Regelwerk 14 interpretiert das festgestellte Verhaltensmuster der Benutzer durch einen Abgleich mit dem charakteristischen Referenzverhalten, sobald ein die Verhaltenseigenschaften übersteigender Schwellwert ermittelt wird.
Zum detektierbaren Verhaltensmuster gehören die Position, die Geschwindigkeit der Bewegung, die Bewegungsrichtung, die Bewegungsintensität, der Bewegungspfad, das Bewegungsmuster, die Wiederholung von Bewegungen ebenso wie die Gestik und Mimik eines Benutzers oder mehrerer Benutzer. Die Auswahl des jeweiligen Folgeschrittes erfolgt dann durch eine Auswahl von virtuellen Segmente bzw. Szenen oder Unterszenen gemäß der zuvor beschriebenen Interpretation nach und dem jeweilig herrschenden Zustand einer laufenden Präsentation von Segmenten.
Mit der Darstellung und Wahrnehmung der Anzeige der Segmente bzw. der Ton- und Videoframes schließt sich der Regelkreis und der Benutzer wird wieder dazu veranlasst, in Aktion zu treten, um eine neue Systemreaktion zu generieren.
Das Regelwerk 14 führt - wie in Fig. 3 schematisch gezeigt- nachfolgende einzelne Arbeitsschritte aus.
Sobald die Sensoren 10 und 11 in ihrem Detektionsbereich einen Benutzer erfassen, beginnt eine berührungslos ablaufende Objekterkennung mit Abstandsmessungen und anderen das Bennutzerverhalten kennzeichnende Messungen. Rückgekoppelte Regelschleifen passen den für die Applikation relevanten Sensorbereich laufend an den Bewegungsradius des Benutzers an. Dabei wird über einen einstellbaren Zeitraum die Bewegungsauslenkung des Benutzers ermittelt. In Abhängigkeit des Ergebnisses dieser Ermittlung, passt das Regelwerk 14 die zum Auslösen bestimmter Folgeschritte notwendigen Schwellwerte dem Besucherverhalten an. Dies ermöglicht beispielsweise, dass einem ruhigem Besucher mit leichten natürlichen Kopf-, Hand- oder Körperbewegungen dasselbe mediale Ereignis angezeigt wird wie eine Gruppe sich stark bewegender Kinder.
Durch diese dynamische Anpassung der Sensorsensibilität an das Benutzerverhalten ist es ebenso möglich, Besucher aus kritischen Sensorgrenzbereichen herauszuführen, indem in
Richtung des unkritischen Bereichs ein attraktiveres inhaltliches Angebot platziert wird.
Das Regelwerk 14 liest die eingabeseitig vorhandenen Sensorsignale in Abhängigkeit der verwendeten Sensoren zwischen 5 und 1000 Hz aus. Diese unterstützende Sensor- Hardware vorausgesetzt, kann die Auslesefrequenz der Sensoren hardwareseitig aber auch softwareseitig dynamisch verändert werden.
Mit einem Eingangsfilter 16 filtert das Regelwerk 14 bestimmte Signale bzw. Daten aus, die für den Ablauf des erfindungsgemäßen Verfahrens irrelevant oder störend sind. Dazu gehören technik- oder umgebungsbedingtes Rauschen, Flattern oder Zittern von Benutzerdaten, starke kurzzeitige Impulssprünge und Impulse oberhalb, unterhalb und/oder zwischen bestimmten Schwellwerten. Durch den Vergleich von kurz nacheinander gemessener Werte werden zusätzlich zur Abstandsbestimmung Informationen zur Bewegungsrichtung, Geschwindigkeit, Beschleunigung und Verweildauer des Besuchers gewonnen. Die Sensorauswertedaten werden über einen gewissen Zeitraum aufgezeichnet und mit bzw. nach dem Referenzverhaltensmuster untersucht. Das Erkennen eines solchen Musters, löst beispielsweise einen Bedienschritt in der Segmentdarstellung aus . Zusätzlich werden die aufgezeichneten Sensorauswertedaten mit den Daten aus einem anderen Messzeitraum oder den gerade eintreffenden Daten verglichen. Das ermittelte Vergleichsergebnis kann, sofern es einem Referenzverhalten entspricht, wiederum einen Bedienschritt in der Segmentdarstellung auslösen.
Die erfassten Steuerdaten werden vom Regelwerk 14 anhand einstellbarer Schwellwerte als eindeutige Steuerbefehle eingeordnet und in Abhängigkeit der Anwendungsanforderungen beliebig viele Schritte wie z.B. „Stillstand-kurz" , „Stillstand-mittel" , „Stillstand-lang", „leichte Bewegung vorwärts" , „leichte Bewegung rückwärts" , „leichte Bewegung links" , „leichte Bewegung rechts" , „starke Bewegung vorwärts", „starke Bewegung rückwärts", „starke Bewegung links" oder „starke Bewegung rechts" eingeteilt. Natürlich ist es auch möglich, diese Schritte entsprechend zu kombinieren. Neben der zuvor erläuterten Schrittaufteilung der Steuerdaten wird der durch die Benutzerbewegung erzeugte Datenstrom alternativ oder parallel dazu verwendet, die Tonfilmdateien bzw. Segmente direkt zu steuern. Das Regelwerk 14 glättet und modifiziert die Datenströme, um eine ruckfreie Wiedergabe der Segmente zu erreichen. Die Modifikationen können sich beispielsweise auf die Richtungsumkehrung der Daten und/oder deren Mischung mit anderen generierten Daten beziehen. Diese anderen Daten können vorbereitete Steuersequenzen 17 oder Anreicherungsdaten 18 sein. Mit den vorbereiteten Steuersequenzen 17 ist sichergestellt, dass die Interaktion für den Benutzer abwechslungsreich, interessant und sinnvoll bleibt. So werden Wiederholungen innerhalb eines voreinstellbaren Zeitraumes ausgeschlossen oder Szenen durch Änderung der Abspielgeschwindigkeit, der Ein- und Ausstiegspunkte für die Szene, von Farbeffekten und Klängen unterschiedlich erscheinen, auch wenn dieselben Segmente zugrunde liegen.
Das Regelwerk 14 bestimmt, dass die mediale Präsentation der Segmente bzw. Szenen in Fluss bleibt und abrupte Übergänge zwischen den Segmenten unterbleiben. Dies wird dadurch erreicht, dass nur bestimmte Anschlusspunkte oder Anschlussbereiche der Segmente einen Szenenwechsel zulassen.
Wenn der Benutzer einen Wechsel anfordert und die Segmente sich in diesem Moment nicht in der Nähe eines Anschlusspunktes oder -bereiches befindet, sorgt das Regelwerk 14 dafür, dass der entsprechende Anschlusspunkt schnell aber trotzdem sanft angefahren wird, bevor zum passenden Segment umgeschaltet wird. Weiter können an den Umschaltstellen mediale Echtzeiteffekte wie Überblendungen oder vorbereitete Zwischenfilme eingeschoben werden, die einen sanften Übergang ermöglichen. Mittels der Kamera 12 Vorort aufgenommene oder live- eingespielte Videobilder oder Töne können durch das Regelwerk 14 in die Präsentationsabfolge der Segmente, Szenen bzw. Unterszenen integriert werden. Beispielsweise wird eine zusätzliche Steigerung des Unterhaltungseffektes erzielt, wenn das Abbild des jeweiligen Benutzers in die Präsentationsabfolge erscheint.
Zur Integration von Live-Aufnahmen werden in dem als Datencontainer beschriebenen Tonfilm bestimmte Segmente (Breakpoint) reserviert und vorab adressiert. Dies ermöglicht dem Regelwerk 14, den Echtzeitabruf und die programmgerechte Modulation der Live-Bilder und Töne in gleicher Weise wie der vorproduzierten Segmente.
Die über die Schwellwerte kategorisierten Steuerbefehle der Nutzersignale werden in einer Echtzeitmatrix 19 mit dem sich gerade abspielenden Segment gegenübergestellt. Aus dem Bezug beider Faktoren generiert sich der nächste Folgeschritt. Ein solches Vorgehen gewährleistet, dass immer die Benutzeraktivität und der jeweilige Zustand der medialen Präsentation für den jeweiligen Folgeschritt verantwortlich ist und niemals nur einer dieser beiden Faktoren alleine. Voreingestellte Kontrollmechanismen, die wie ein Optimierungsfilter 20 wirken, optimieren die Systemleistung dadurch, dass auch bei hoher Nutzeraktivität nur der benötigte Teil der erzeugten Daten zur Steuerung genutzt wird. Die Bildfrequenz ist auf die menschliche Wahrnehmung abgestimmt, d.h. das erfindungsgemäße Verfahren arbeitet mit einer Bildfrequenz von etwa 15 Bilder pro Sekunde, weil der Mensch eine Bildfrequenz von mehr als 15 Bilder pro Sekunde nicht mehr einzeln wahrnehmen kann. Provoziert ein Benutzer durch seine Aktivität eine hohe Abspielgeschwindigkeit, so verlangsamt das Regelwerk 14 die audiovisuelle Präsentation auf Sehgewohnheiten, die der Mensch ohne Überlastung wahrnehmen kann.
Die Umschaltung zwischen berührungsloser Sensorik und herkömmlicher Eingabewerkzeuge erfolgt aufgrund inhaltsabhängiger in den Metainformation enthaltender Informationen, dem jeweils ermittelten Benutzerverhalten sowie dem Zustand des Systems. Mit einer eingangsseitig temporären Abschaltung der Sensorik ist es ferner möglich, das System zu entlasten.
Aufstellung der verwendeten Bezugszeichen
Rechner 1 Optionales externes Netzwerk 2 Informationen zum Abspielverhalten,
Metadaten 3
Bilddaten 4
Tondaten 5 Segmente des Tonfilmes 6
Audio/Video-Wiedergabeeinrichtung 7
Display, Monitor, Projektor 8
Tonanlage 9
Sensoren 10 Optionale zusätzliche Sensoren 11
Optionale Kamera 12
Handelsübliche Eingabemittel 13
Regelwerk 14
Code 15 Eingabefilter 16
Vorbereitete Steuersequenzen 17
Anreicherungsdaten 18
Echtzeitmatrix 19
Optimierungsfilter 20 Containerfilm 21
Hierzu 3 Blatt Zeichnungen

Claims

Patentansprüche
1. Verfahren zum Steuern der Wiedergabe von medialen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe und Toneinrichtungen unterstützen Informations-, oder Unterhaltungssystemen, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive Eingabe ermittelt und das kinematische Verhalten des Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst, gesteuert und beendet wird, d a d r c h g e k e n n z e i c h n e , dass mindestens eine digitalisierbare Audio- und/oder Bildinformation als Datencontainer und in seiner Darstellung zugleich als Benutzerinterface verwendet wird, und dass die Information in virtuelle Segmente zerlegt und die Segmente in Szenen und Unterszenen gegliedert werden, und dass von mit den Segmenten verknüpften, im Hintergrund gespeicherten Metainformationen die Informationen dieser Szenen unabhängig von ihren ursprünglichen Zusammenhängen, Richtungen und Geschwindigkeiten als Funktion einer Änderung im ermittelten Verhalten des Benutzers reeditiert, neu verkettet und in Realzeit wiedergegeben werden.
2. Verfahren nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, dass das virtuelle Segment aus wenigstens einem Videoframe zusammengesetzt ist.
3. Verfahren nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, dass Tonfilme, Videofilme, VR- Panoramen oder Fernsehsendungen als digitalisierbare Informationen eingesetzt werden.
4. Verfahren nach Anspruch 1 bis 3, g e k e n n z e i c h n e t durch folgende zeitlich vor der Wiedergabe ablaufende Schritte: a) Erfassen der Änderung im Verhalten des mindestens einen Benutzers, vorzugsweise der Bewegungsrichtung, Bewegungsintensität, Bewegungspfad, Bewegungsmuster und Wiederholung von Bewegungen, durch die mindestens eine Eingabe mit zugeordnetem Speichermedium, in dem ein dem Verhaltensmuster eines Durchschnittsbenutzers entsprechend charakteristisches Referenzverhalten digital abgespeichert ist; b) Bestimmen der Abweichungen im ermittelten Verhaltensmuster des Benutzers durch einen Abgleich zwischen dem abgespeicherten charakteristischen Referenzverhalten und dem festgestellten Verhaltensmuster; c) Erweitern des charakteristischen Referenzverhaltens des Durchschnittsbenutzers um neue ermittelte Eigenschaften, sofern signifikante Abweichungen durch den Abgleich festgestellt werden; d) Interpretation der ermittelten Abweichungen des Schrittes b) durch ein im Speichermedium abgelegtes Regelwerk, sobald ein die Verhaltenseigenschaften übersteigender Schwellwert ermittelt wird; e) Auswahl der virtuellen Segmente bzw. Szenen oder Unterszenen gemäß Interpretation nach Schritt d) f) Auslösen eines Befehls zur Wiedergabe in einer dem jeweiligen Zustand einer laufenden Präsentation und dem ermittelten Verhalten des Benutzers abwägenden Entscheidungsmatrix.
5. Verfahren nach Anspruch 1 bis 4, d a d u r c h g e k e n n z e i c h n e t, dass als Metainf ormationen solche zum Abspielverhalten, zu Folgeschritten,
Bild/Tonverknüpfungen, Medien/Benutzerverknüpfungen und zur Identifizierung verwendet werden.
6. Verfahren nach Anspruch 1 bis 5, d a d u r c h g e k e n n z e i c h n e t, dass die Metainf ormationen innerhalb eines Videoframe abgelegt werden.
7. Verfahren nach Anspruch 1 bis 6, d a d u r c h g e k e n n z e i c h n e t, dass bestimmten Segmenten Anschlusspunkte oder Anschlussbereiche für einen
Szenenwechsel zugeordnet werden.
8. Verfahren nach Anspruch 7, d a d u r c h g e k e n n z e i c h n e t, dass an den Anschlusspunkten oder Anschlussbereichen zum abruptfreien Übergang von einer Szene zu einer anderen ein beschleunigtes Anfahren des Anschlusspunktes vorgenommen wird, Zwischenfilme oder mediale Echtzeiteffekte, vorzugsweise Überblendungen, eingeschoben werden.
9. Verfahren nach Anspruch 1 bis 6, d a d u r c h g e k e n n z e i c h n e t, dass einzelne Segmente durch eine Vorabadressierung zur Wiedergabe von Fremdinhalten reserviert werden.
10. Verfahren nach Anspruch 9, d a d u r c h g e k e n n z e i c h n e t, dass als Fremdinhalte vor Ort aufgenommene oder live-eingespielte Videobilder oder Töne eingesetzt werden.
11. Verfahren nach Anspruch 1 bis 10, d a d u r c h g e k e n n z e i c h n e t, dass das Regelwerk ständig mit den angehängten Metainformationen der Segmente an das ermittelte Verhaltensmuster automatisch anpasst wird.
12. Verfahren nach Anspruch 4, d a d u r c h g e k e n n z e i c h n e t, dass mit dem Regelwerk folgende nacheinander ablaufende Arbeitsschritte durchgeführt werden: -Auslesen der durch die mindestens eine Eingabe erfassten
Signale mit einer der Art des jeweiligen Eingabe entsprechenden anpassbaren Abtastfrequenz, -Ausfiltern von störenden und/oder irrelevanten Signalen, -Aufzeichnen der relevanten Signale über einen gewissen
Zeitraum, -Vergleichen von kurz nacheinander erfassten Signalen zum
Bestimmen der Position, Bewegungsrichtung, Geschwindigkeit, Beschleunigung und Verweildauer des Benutzers im
Sensorbereich, -Vergleichen der aufgezeichneten Signale mit denen eines anderen Messzeitraumes oder mit dem Verhaltensmuster des
Durchschnittsbenutzers zum Auslösen der Wiedergabe von Segmenten,
-Umwandeln der Sensorsignale in Steuerbefehle zur
Qualifizierung und Kategorisierung zu Schaltbefehlen sowie zum gleichzeitigen direkten Ansteuern der Wiedergabe von
Segmenten.
13. Verfahren nach Anspruch 12, d a d u r c h g e k e n n z e i c h n e t, dass die Abtastfrequenz dynamisch in Abhängigkeit der Eingabedaten verändert wird.
14. Verfahren nach Anspruch 1 bis 13 d a d u r c h g e k e n n z e i c h n e t, dass die mindestens eine interaktive Eingabe berührungslos mittels Sensoren durchgeführt wird.
15. Verfahren nach Anspruch 14, d a d u r c h g e k e n n z e i c h n e t, dass als optische und/oder akustische Sensoren, vorzugsweise Infrarot-, Ultraschall- oder Lasersensoren, Mikrofone, Kameras, Laserscanner, Mikrowellensysteme oder Radarsysteme eingesetzt werden.
16. Verfahren nach Anspruch 1 bis 14, d a d u r c h g e k e n n z e i c h n e t, dass die mindestens eine interaktive Eingabe durch Aktivieren eines Touchscreens oder einer Maus durchgeführt wird.
17. Verfahren nach Anspruch 14 bis 16, d a d r c h g e k e n n z e i c h n e t, dass die berührungslose Eingabe mit der berührenden Eingabe kombiniert durchgeführt wird.
18. Verfahren nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, dass die in virtuelle Segmente zerlegte digitalisierte Information in seiner ursprünglichen Form erhalten bleibt und wiedergebbar ist.
19. Anordnung zur Durchführung des Verfahrens nach Anspruch 1 bis 18, mit mindestens einem Eingabemittel zum Erfassen der Anwesenheit und des Verhaltens mindestens eines Benutzers, einem mit dem Eingabemittel verbundenen Rechner mit peripheren Geräten zum Verarbeiten der Signale und derAusgangssignale und Anzeige-, Wiedergabe- und Toneinrichtungen, d a d u r c h g e k e n n z e i c h n e t, dass mindestens ein virtuelle Informationssegmente enthaltender Datencontainer (21) einer digitalen Audio- und/Bildinformation vorgesehen ist, der mit einer rechnerbasierten Audio/Videoeinrichtung (7) zur Zusammenhangs-, richtungs- und geschwindigkeitsunabhängigen Wiedergabe der Informationssegmente über ein Regelwerk (14) zur Steuerung der Wiedergabe in Abhängigkeit des Benutzerverhaltens verbunden ist.
20. Anordnung nach Anspruch 19, d a d u r c h g e k e n n z e i c h n e t, dass das Eingabemittel mindestens ein berührungslos detektierender Sensor (10) ist.
21. Anordnung nach Anspruch 19, d a d u r c h g e k e n n z e i c h n e , dass der Sensor (10) ein optischer und/oder akustischer Detektor, vorzugsweise Infrarot-, Ultraschall- oder Laserdetektor, Mikrofone, eine Kamera, ein Mikrowellensystem oder ein Radarsystem ist.
22. Anordnung nach Anspruch 19, d a d u r c h g e k e n n z e i c h n e t, dass der mindestens eine Sensor
(10) ein Laserscanner mit einem Öffnungswinkel von 180° und einer Reichweite von mindestens 1,0 m bis maximal 100 m ist.
23. Anordnung nach Anspruch 19, d a d u r c h g e k e n n z e i c h n e t, dass der mindestens eine Sensor (13) ein Touchscreen oder eine Maus ist.
PCT/DE2002/001776 2001-05-21 2002-05-14 Verfahren und anordnung zum steuern von audiovisuellen medialen inhalten WO2002095995A2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2002317665A AU2002317665A1 (en) 2001-05-21 2002-05-14 Method and device for controlling audio-visual medial contents

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE2001125309 DE10125309C1 (de) 2001-05-21 2001-05-21 Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
DE10125309 2001-05-21

Publications (2)

Publication Number Publication Date
WO2002095995A2 true WO2002095995A2 (de) 2002-11-28
WO2002095995A3 WO2002095995A3 (de) 2003-03-13

Family

ID=7685982

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2002/001776 WO2002095995A2 (de) 2001-05-21 2002-05-14 Verfahren und anordnung zum steuern von audiovisuellen medialen inhalten

Country Status (3)

Country Link
AU (1) AU2002317665A1 (de)
DE (1) DE10125309C1 (de)
WO (1) WO2002095995A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10992979B2 (en) 2018-12-04 2021-04-27 International Business Machines Corporation Modification of electronic messaging spaces for enhanced presentation of content in a video broadcast

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020101390A1 (de) 2020-01-22 2021-07-22 Dr. Ing. H.C. F. Porsche Aktiengesellschaft System und Verfahren zur prädiktiven Verarbeitung digitaler Signale

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0737980A2 (de) * 1995-04-14 1996-10-16 Kabushiki Kaisha Toshiba Aufzeichnungsmedium für interaktive Wiedergabe und Wiedergabesystem dafür
WO1999021363A1 (en) * 1997-10-22 1999-04-29 Oracle Corporation Method and apparatus for non-sequential access to an in-progress video feed
US6011526A (en) * 1996-04-15 2000-01-04 Sony Corporation Display apparatus operable in synchronism with a movement of the body of a viewer
WO2000001149A1 (en) * 1998-06-29 2000-01-06 Nds Limited Advanced television system
WO2000074367A2 (en) * 1999-06-01 2000-12-07 Technion Research And Development Foundation Ltd. Method of optimizing near-video-on-demand transmission
EP1087618A2 (de) * 1999-09-27 2001-03-28 Be Here Corporation Meinungszurückkopplung beim Bildvortrag

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4538188A (en) * 1982-12-22 1985-08-27 Montage Computer Corporation Video composition method and apparatus
US5012334B1 (en) * 1990-01-29 1997-05-13 Grass Valley Group Video image bank for storing and retrieving video image sequences
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
DE19538436A1 (de) * 1995-10-16 1997-04-17 Jun Hartmut Neven Interaktive Steuerung von Videoinstallationen und Musikanlagen durch visuelle Analyse von Tanzbewegungen
DE19653682C2 (de) * 1996-12-13 2001-09-06 Twosuns Media Dev Gmbh Steuervorrichtung und -verfahren für mindestens eine Einrichtung eines Raumes, und Raum mit Steuervorrichtung
DE19654944A1 (de) * 1996-12-13 1998-06-25 Andreas Bohn Systemsteuerung
CA2202106C (en) * 1997-04-08 2002-09-17 Mgi Software Corp. A non-timeline, non-linear digital multimedia composition method and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0737980A2 (de) * 1995-04-14 1996-10-16 Kabushiki Kaisha Toshiba Aufzeichnungsmedium für interaktive Wiedergabe und Wiedergabesystem dafür
US6011526A (en) * 1996-04-15 2000-01-04 Sony Corporation Display apparatus operable in synchronism with a movement of the body of a viewer
WO1999021363A1 (en) * 1997-10-22 1999-04-29 Oracle Corporation Method and apparatus for non-sequential access to an in-progress video feed
WO2000001149A1 (en) * 1998-06-29 2000-01-06 Nds Limited Advanced television system
WO2000074367A2 (en) * 1999-06-01 2000-12-07 Technion Research And Development Foundation Ltd. Method of optimizing near-video-on-demand transmission
EP1087618A2 (de) * 1999-09-27 2001-03-28 Be Here Corporation Meinungszurückkopplung beim Bildvortrag

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10992979B2 (en) 2018-12-04 2021-04-27 International Business Machines Corporation Modification of electronic messaging spaces for enhanced presentation of content in a video broadcast

Also Published As

Publication number Publication date
AU2002317665A1 (en) 2002-12-03
DE10125309C1 (de) 2002-12-12
WO2002095995A3 (de) 2003-03-13

Similar Documents

Publication Publication Date Title
DE69815695T2 (de) Netzwerkübermittlung interaktiver unterhaltung zur ergänzung von audio-aufzeichnungen
DE112016004634T5 (de) Produktion und Verpsackung von Entertainment-Daten für virtuelle Realität
Bolt Gaze-orchestrated dynamic windows
DE69630579T2 (de) Personalisierung einer interaktiven unterhaltung
DE69723747T2 (de) Interaktives Audiounterhaltungsgerät
DE4422268A1 (de) Programmsuchverfahren
DE112019000115T5 (de) Verfahren und Vorrichtung zum Steuern eines Audiosignals zum Anwenden des Audio-Zoom-Effekts in der virtuellen Realität
DE112021006096T5 (de) Verändern der benutzeroberfläche einer anwendung während einer aufzeichnungssitzung
DE60309016T2 (de) Vereinfachte herstellung einer komplexen interaktiven dvd
DE112021001984T5 (de) Auswählen einer primären text-in-sprache-quelle auf der grundlage der körperhaltung
DE60319710T2 (de) Verfahren und Vorrichtung zur automatischen Dissektion segmentierte Audiosignale
DE102010052527A1 (de) Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung
DE602004007428T2 (de) Spielgerät und Speichermedium mit darauf gespeichertem Spielprogramm
DE10125309C1 (de) Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
JP3629047B2 (ja) 情報処理装置
US20230030502A1 (en) Information play control method and apparatus, electronic device, computer-readable storage medium and computer program product
DE3223059A1 (de) System fuer die herstellung von selbstgestalteten audiokassetten, videokassetten und aehnlichen
DE19653682C2 (de) Steuervorrichtung und -verfahren für mindestens eine Einrichtung eines Raumes, und Raum mit Steuervorrichtung
DE102004014719A1 (de) Verfahren zur Wiedergabe- bzw. Abspielsteuerung
EP1184794B1 (de) Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz
Höferlin et al. Interactive auditory display to support situational awareness in video surveillance
WO1998026346A1 (de) Computersteuerung
EP1184793B1 (de) Verfahren und Vorrichtung zur Erstellung zeitlicher Aktivierbarkeitskriterien für Elemente einer Videosequenz
EP1220201A2 (de) Verfahren und System zur automatischen Aktionssteuerung bei Vorträgen
EP1189443A1 (de) Verfahren und Vorrichtung zur Steuerung von Interaktivität von Elementen einer Videosequenz

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AL AM AU BA BG BR BY CA CN CO CR CU CZ DM DZ EC EE HR HU ID IL IN IS JP KG KR KZ LC LT LV MA MD MK MX NO NZ OM PH PL RO RU SD SG SI SK TJ TM TN UA US UZ VN YU ZA

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: A3

Designated state(s): AL AM AU BA BG BR BY CA CN CO CR CU CZ DM DZ EC EE HR HU ID IL IN IS JP KG KR KZ LC LT LV MA MD MK MX NO NZ OM PH PL RO RU SD SG SI SK TJ TM TN UA US UZ VN YU ZA

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP