DE60206619T2 - Verfahren und vorrichtung zur erzeugung und verteilung von interaktiven echtzeit-medieninhalten uber drahtlose kommunikationsnetze und das internet - Google Patents

Verfahren und vorrichtung zur erzeugung und verteilung von interaktiven echtzeit-medieninhalten uber drahtlose kommunikationsnetze und das internet Download PDF

Info

Publication number
DE60206619T2
DE60206619T2 DE60206619T DE60206619T DE60206619T2 DE 60206619 T2 DE60206619 T2 DE 60206619T2 DE 60206619 T DE60206619 T DE 60206619T DE 60206619 T DE60206619 T DE 60206619T DE 60206619 T2 DE60206619 T2 DE 60206619T2
Authority
DE
Germany
Prior art keywords
operator
content
contents
hand
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60206619T
Other languages
English (en)
Other versions
DE60206619D1 (de
Inventor
Corbett Wall
Worldwide Limited Pronto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wall Corbett Shi Lin District
PRONTO WORLDWIDE Ltd
PRONTO WORLDWIDE Ltd ROAD TOWN
Original Assignee
Wall Corbett Shi Lin District
PRONTO WORLDWIDE Ltd
PRONTO WORLDWIDE Ltd ROAD TOWN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26667014&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60206619(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from TW090111564A external-priority patent/TW511365B/zh
Application filed by Wall Corbett Shi Lin District, PRONTO WORLDWIDE Ltd, PRONTO WORLDWIDE Ltd ROAD TOWN filed Critical Wall Corbett Shi Lin District
Publication of DE60206619D1 publication Critical patent/DE60206619D1/de
Application granted granted Critical
Publication of DE60206619T2 publication Critical patent/DE60206619T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0083Recording/reproducing or transmission of music for electrophonic musical instruments using wireless transmission, e.g. radio, light, infrared
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/58Message adaptation for wireless communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems
    • H04M3/53366Message disposing or creating aspects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/621Chord seventh dominant
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • G10H2220/261Numeric keypad used for musical purposes, e.g. musical input via a telephone or calculator-like keyboard
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/45Aspects of automatic or semi-automatic exchanges related to voicemail messaging
    • H04M2203/4581Sending message identifiers instead of whole messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/5307Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems
    • H04M3/53366Message disposing or creating aspects
    • H04M3/53375Message broadcasting

Description

  • TECHNISCHES GEBIET
  • Die Erfindung betrifft die Erzeugung und Verteilung von Nachrichten unter Verwendung von Computern und Netzen, und insbesondere Verfahren und Systeme, welche einer Bedienperson erlauben, Nachrichten mit akustischen oder visuellen Inhalten zu verteilen, die durch die Bedienperson unter Verwendung von handgehaltenen Geräten wie beispielsweise Mobiltelefonen erzeugt werden.
  • TECHNISCHER HINTERGRUND
  • Die Verwendung von Mobilgeräten, wie beispielsweise Handys [zellulare Telefone], PDAs (Personal Digital Assistants) und handgehaltenen Computern nimmt mit einer Geschwindigkeit zu, welche sogar die optimistischsten vor wenigen Jahren gemachten Voraussagen weit übertreffen. Handys haben breite Akzeptanz gefunden, da sie billig sind und Personen ermöglichen, sich frei zu bewegen jedoch dabei in Kontakt mit Freunden und Unterhaltungsquellen zu bleiben. Weitere mobile Geräte, beispielsweise solche zum Abspielen oder Aufzeichnen von Musik oder Bewegtbildern, haben beispielsweise auch breite Akzeptanz gefunden, da sie Unterhaltung bieten und Personen Spaß bringen.
  • Diese Mobilgeräte werden in der ganzen Welt von Personen aller Altersstufen verwendet, jedoch sind sie besonders populär bei Personen, die sich intensiv mit Popkultur und Lifestyletrends beschäftigen. Die Popkultur ist für einen großen Teil der Bevölkerung attraktiv, insbesondere unter Jugendlichen, und ist auf der ganzen Welt auf große Akzeptanz gestoßen.
  • Musik und Bewegtbilder, die durch professionelle Quellen aufgezeichnet und verteilt werden, bilden einen wichtigen Teil der Popkultur. Jedoch besteht bei manchen Personen ein wachsendes Interesse, ihre eigenen akustischen oder visuellen Inhalte zu erzeugen und an diesen dann auch ihre Freunden teilhaben zu lassen. Unglücklicherweise erforderte die Erzeugung und Verteilung von akustischen und visuellen Inhalten, wie beispielsweise Musik und Bewegbildern, eine Verwendung von Geräten, die nicht portabel sind oder nicht so problemlos wie ein Handy mitgeführt werden können. Es besteht ein Bedarf an der Möglichkeit, akustische und/oder visuelle Inhalte unter Verwendung von Mobilgeräten wie beispielsweise Handys zu erzeugen und zu verteilen.
  • Die US 006083009-A und WO 9912153-A offenbaren beide portable Lösungen für Karaoke.
  • INHALT DER ERFINDUNG
  • Ein Ziel der Erfindung besteht darin, eine Erzeugung und Verteilung von Inhalten, wie beispielsweise Musik oder Bewegtbildern, unter Verwendung von Mobilgeräten zu ermöglichen.
  • Gemäß einem Aspekt der Erfindung verwendet eine Bedienperson ein handgehaltenes Gerät, um Anweisungen und eine Präsentation einer Repräsentation erster Inhalte zu empfangen, mittels des handgehaltenen Gerätes eine Identifizierung von einem oder mehreren Empfängern und zweite Inhalte bereitzustellen, die sich zeitlich mit der Präsentation der ersten Inhalte gemäß einer von der Bedienperson gesteuerten zeitlichen Beziehung überlappen, eine Repräsentation der zweiten Inhalte und die Identifizierung der Empfänger an einem Remote-Server [= entfernt aufgestellter Dienstleistungsrechner] zu senden, und den Remote-Server zu veranlassen, an den einen oder die mehreren Empfänger eine Nachricht zu senden, welche die ersten Inhalte und die entsprechend der zeitlichen Beziehung angeordneten zweiten Inhalte repräsentiert.
  • Gemäß einem weiteren Aspekt der Erfindung beinhaltet ein System ein handgehaltenes Gerät, welches einen drahtlosen Sender und einen Verarbeitungsschaltkreis aufweist, der das handgehaltene Gerät veranlasst, der Bedienperson eine Ausgabe zu liefern, welche Anweisungen und eine Präsentation von ersten Inhalten repräsentiert, von der Bedienperson eine Eingabe zu empfangen, welche eine Identifizierung von einem oder mehreren Empfängern und zweite Inhalte repräsentiert, die sich zeitlich mit der Präsentation der ersten Inhalte gemäß einer durch die Bedienperson gesteuerten zeitlichen Beziehung überlappen, und durch den drahtlosen Sender eine Repräsentation der zweiten Inhalte und eine Identifizierung von einem oder mehreren Empfängern zu senden; und ein Server-Subsystem beinhaltet, das die Repräsentation von zweiten Inhalten und die Identifizierung des einen oder der mehreren Empfänger empfängt und speichert, und dem einen oder den mehreren Empfängern eine Nachricht sendet, welche die ersten Inhalte und die gemäß der zeitlichen Beziehung angeordneten zweiten Inhalte repräsentiert.
  • Gemäß noch einem weiteren Aspekt der Erfindung empfängt ein Serversystem eines oder mehrere unter der Steuerung einer Bedienperson des handgehaltenen Gerätes erzeugte Signale, welche eine Identifizierung erster Inhalte, zweiter Inhalte, die sich zeitlich mit einer durch das handgehaltene Gerät erfolgenden Präsentation der ersten Inhalte gemäß einer durch die Bedienperson gesteuerten zeitlichen Beziehung überlappen, und eine Identifizierung von einem oder mehreren Empfängern befördern, erhält Informationen, welche die zeitliche Beziehung identifizieren, und sendet an den einen oder die mehreren Empfänger eine Nachricht, welche die ersten Inhalte und die zweiten Inhalte repräsentiert, die gemäß der zeitlichen Beziehung angeordnet sind.
  • Die verschiedenen Merkmale der Erfindung und deren bevorzugte Ausführungsbeispiele lassen sich besser anhand der folgenden Erläuterung und den beiliegenden Zeichnungen verstehen, in denen gleiche Bezugszeichen sich auf gleiche Elemente in den verschiedenen Figuren beziehen. Die Inhalte der folgenden Erläuterung und der Zeichnungen verstehen sich lediglich beispielhaft und als den Schutzumfang der Erfindung nicht einschränkend.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein schematisches Blockdiagramm eines Systems, bei welchem die Bedienperson eines handgehaltenen Telefons mit einem Server interagieren kann, der mit einer Vielzahl von Netzen und Kommunikationswegen verbunden ist.
  • 2 ist ein schematisches Blockdiagramm von Hauptkomponenten eines hypothetischen Ausführungsbeispiels eines handgehaltenen Telefons.
  • 3 stellt einen Prozess dar, der ermöglicht, dass eine Person Nachrichten mit akustischen Inhalten unter Verwendung eines Gerätes wie beispielsweise einem Handy oder einem PDA erzeugt und verteilt.
  • 4 stellt einen Prozess dar, der ermöglicht, dass eine Person Nachrichten mit akustischen Inhalten erzeugt und verteilt, und zwar unter nicht-gleichzeitiger Verwendung von Daten- und Sprachkommunikationswegen.
  • MODI ZUR AUSFÜHRUNG DER ERFINDUNG
  • A. Überblick
  • 1 ist eine schematische Darstellung eines Systems, bei welchem die Bedienperson eines Mobilgerätes 10 mit einem Server 30 interagieren kann, um Nachrichten zu erzeugen, welche eine Kombination von ursprünglich und bereits zuvor vorhandenen akustischen und/oder visuellen Inhalten aufweisen, und die Verteilung dieser Nachrichten an einen oder mehrere Empfänger, wie beispielsweise Empfänger 42, 52, 62, zu steuern.
  • Die folgende Erläuterung betrifft insbesondere Handys, das öffentliche Fernsprechwählnetz (PSTN) und das Internet. Diese Anlagen sind wichtige Beispiele für die Verwendungsmöglichkeiten der Erfindung, jedoch kann die Erfindung mit einer viel breiteren Palette von Anlagen als lediglich diesen speziellen Beispielen realisiert und verwendet werden. Ein Handy ist lediglich ein einziges Beispiel für ein Gerät, das man als Gerät 10 verwenden kann. Weitere Beispiele geeigneter Geräte beinhalten ein PDA, einen tragbaren Computer einschließlich handgehaltener Computer, und Zweiweg-Funkgeräte. Die Lehren der Erfindung können auch auf stationäre oder Tischtelefone, und stationäre oder Tischcomputer (Desktop-Computer) Anwendung finden. Eine Handytechnologie, die entweder bestehenden oder vorweggenommenen Standards entspricht, ist nur ein Typ von Kommunikationstechnologie, die mit dem Gerät 10 verwendet werden kann. Das Internet und das PSTN sind Beispiele von Anlagen, die verwendet werden können, um eine Kommunikation zwischen Systemkomponenten bereitzustellen. Im Wesentlichen kann eine beliebige Anlage oder Technologie verwendet werden, einschließlich Funk-, Punkt-zu-Punkt- und -Mehrpunkt-Kommunikationskanäle, die Ultraschall- und Funksignale oder optische Signale durch die Luft, oder entlang Übertragungs medien wie beispielsweise Drähten oder optischen Fasern transportieren.
  • 1. Anwendungen
  • Auf zwei Anwendungen der Erfindung wird hier als "SongMail" und "MusicDIY" (do it yourself – selber machen) Bezug genommen. SongMail und MusicDIY ermöglichen einer Bedienperson des Gerätes 10, eine Nachricht zu erzeugen, die bereits zuvor vorhandene Inhalte, wie beispielsweise Hintergrundmusik, und von der Bedienperson bereitgestellte zusätzliche Inhalte einschließt, und dann die Nachricht an einen oder mehrere Empfänger zu schicken, und zwar in einer Form, die den Empfängern ein Abhören der Inhalte ermöglicht. Bei der SongMail-Anwendung liefert die Bedienperson akustische Inhalte, wie beispielsweise Sprachäußerungen. Bei der MusicDIY-Anwendung liefert die Bedienperson akustische Inhalte durch Betätigen einer oder mehrerer Eingabeeinrichtungen des Gerätes 10, in einer Weise, die mit dem Spielen eines Musikinstrumentes vergleichbar ist.
  • SongMail und MusicDIY betreffen akustische Inhalte; jedoch kann die Erfindung verwendet werden, um Nachrichten zu erzeugen, welche Repräsentationen von im Wesentlichen beliebigen Inhalten enthalten, einschließlich visuellen Inhalten, die von den Empfängern wahrgenommen werden können. Außerdem können die SongMail- und MusicDIY-Anwendungen selbst erweitert werden, so dass sie beispielsweise visuelle Inhalte einschließen. Diese Anwendungen werden später noch detaillierter erläutert und werden lediglich als Beispiele von Anwendungen dargestellt, die durch die Erfindung bereitgestellt werden können.
  • 2. Kommunikation
  • Bezug nehmend auf 1 enthält ein System, das verschiedene Merkmale der Erfindung beinhaltet, Anlagen für eine Kommunikation zwischen dem Server 30 und dem Gerät 10, sowie zwischen dem Server 30 und potentiellen Empfängern, wie beispielsweise dem Computersystem 42, dem Telefon 52 und dem Mobilgerät 62. Ein System kann auch Anlagen zur Kommunikation zwischen dem Server 30 und den Dienste- oder Inhalteanbietern beinhalten, die durch das Computersystem 41 und das Telefon 51 repräsentiert sind. Beispielsweise kann der Server 30 vorab vorhandene Inhalte vom Computersystem 41 beziehen, die auf seiner auf der Speichervorrichtung 33 befindlichen eigenen Inhalte-Datenbank nicht zur Verfügung stehen.
  • Anlagen zur Kommunikation zwischen Server 30 und Vorrichtung 10 werden durch die Bedienperson der Vorrichtung 10 verwendet, um eine Nachricht zu erzeugen und an den Server 30 zu senden, welcher anschließend die Nachricht an einen oder mehrere Empfänger schickt. Anlagen zur Kommunikation zwischen dem Server 30 und den Empfängern werden vom Server verwendet, um die Nachricht an die Empfänger zu verteilen. Anlagen zur Kommunikation zwischen dem Server 30 und den Anbietern von Diensten oder Inhalten, wie beispielsweise zuvor aufgezeichneter Musik oder Bewegtbildern, werden vom Server 30 verwendet, um diese Dienste oder Inhalte zu beziehen.
  • Eine breite Vielfalt von Kommunikationstechnologien, Verfahren und Protokollen kann verwendet werden. Keine speziellen Kommunikationsanlagen sind kritisch; jedoch wird vorausgesetzt, dass die in 1 dargestellten Anlagen für viele Ausführungsbeispiele der Erfindung von kommerzieller Bedeutung sind.
  • 3. Server
  • Der Server 30 kann durch herkömmliche Hardware implementiert werden, welche einen Prozessor 31, eine Speichervorrichtung 33 und Verbindungen zu Kommunikationsanlagen wie beispielsweise PSTN 50, einem Handysystem und einem Netz 40 beinhaltet. Bei dem Netz 40 kann es sich um ein globales Netz wie beispielsweise das Internet handeln, oder es kann sich um ein eingeschränkteres Netz wie beispielsweise ein Firmen-Intranet handeln.
  • Eine Umgebung, die verschiedene später noch erläuterte Anwendungen unterstützt, kann durch ein Betriebssystem bereitgestellt werden, beispielsweise solche, die unter der Bezeichnung Linux, Unix bekannt sind, oder verschiedene Versionen von Windows. Zur Realisierung der Erfindung ist keine spezielle Softwareumgebung erforderlich. Die Darstellung von Server 30 in 1 legt nahe, dass es sich um ein einziges Computersystem mit einem einzelnen Prozessor 31 handelt; jedoch kann der Server 30 durch eines oder mehrere Computersysteme implementiert sein, von denen jedes einen oder mehrere Prozessoren aufweist. Diese Systeme können sich in unmittelbarer Nähe zueinander befinden, oder sie können weit voneinander getrennt sein. Keine spezielle Ausführung oder Konfiguration ist kritisch.
  • Der Server 30 stellt eine Anzahl von Diensten bereit, die verwendet werden, um die zuvor erwähnten SongMail- und MusicDIY-Anwendungen zu implementieren. Beispiele einiger Dienste, die bei verschiedenen Ausführungsbeispielen der Erfindung durch den Server 30 bereitgestellt sein können, beinhalten elektronische Post (E-Mail), IVR (Interactive Voice Response), SMS (Short Message Services) oder MMS (Multimedia Messaging Service), WAP (Wireless Access Protocol) und HTTP (Hypertext Transfer Protocol). Diese Dienste sind Beispiele für im Moment bekannte Dienste, die wahrscheinlich durch entsprechende zukünftige, fortschrittlichere Dienste ersetzt werden. Der Server 30 kann gemäß den Lehren der Erfindung bestehende oder zukünftige Versionen dieser Typen von Diensten bereitstellen oder mit diesen arbeiten.
  • Die Speichervorrichtung 33, welche mehrere Vorrichtungen beinhalten kann, speichert Betriebssystem- und Anwendungssystemsoftware, die vom Prozessor 31 ausgeführt wird, und speichert von dieser Software verwendete Daten. Drei Beispiele von Daten sind Bedienpersonprofile, eine Inhalte-Datenbank und von einer Bedienperson erzeugte Nachrichten. Ein Bedienpersonprofil kann Daten, wie beispielsweise Kontoinformationen und persönliche Einstellungen beinhalten, die zu einer speziellen Bedienperson gehören. Eine Beispiel für eine persönliche Einstellung einer Bedienperson wäre die Angabe eines bevorzugten Musiktyps oder Musikers. Ein Bedienpersonprofil kann ebenfalls ein "Adressbuch" mit potentiellen Empfängern beinhalten. Eine Inhalte-Datenbank enthält bereits bestehende Inhalte, die eine Bedienperson auswählen kann, um sie zu einer eigene Inhalte der Bedienperson enthaltenden Nachricht hinzuzufügen. Vorzugsweise ist die Datenbank angeordnet, um eine Auswahl anhand von Künstler, Titel, Typ oder Stil der Inhalte oder der von den Inhalten transportierte Stimmung zu erleichtern.
  • Der Server 30 kann im Wesentlichen eine beliebige Form von Kommunikation mit den übrigen Komponenten des Systems verwenden. In dem in 1 dargestellten Ausführungsbeispiel kommuniziert der Server 30 mit den Mobilgeräten 10, 62 über Funkkanäle 60, kommuniziert mit den Telefonen 51, 52 über das PSTN 50 und kommuniziert mit den Computersystemen 41, 42 über das Netz 40. Signale werden über Funkkanäle 60 durch den Empfänger 35 und den Sender 36 gesendet bzw. empfangen, welche mit einer oder mehreren Antennen 37 verbunden sind und die mit dem Prozessor 31 durch die Kommunikationsanlage 34 verbunden sind. Der Empfänger 35 und der Sender 36 können sich in unmittelbarer Nähe zum Prozessor 31 befinden oder sie können weit voneinander entfernt angeordnet sein. In einem Ausführungsbeispiel stellt die Kommunikationsanlage 34 eine Verbindung zu einem Handysystem bereit, das mehrere Empfänger 35, mehrere Sender 36 und mehrere Antennen 37 beinhaltet.
  • Zur leichteren Erläuterung betrifft die folgende Beschreibung ein Ausführungsbeispiel, bei dem der Server 30 durch ein einziges Computersystem implementiert ist, welches einen einzigen Prozessor 31 aufweist, der mit einer einzigen Speichervorrichtung 33, einem PSTN 50, einem Netz 40, einem Empfänger 35 und einem Sender 36 verbunden ist. Viele Variationen bei Realisierung und Konfiguration sind möglich.
  • 4. Handgehaltenes Gerät (Handgerät)
  • Die Darstellung des Mobilgerätes 10 in 1 legt nahe, dass es sich um ein Handy handelt; jedoch können andere Typen von Geräten verwendet werden, wie zuvor erläutert wurde. In dem speziellen dargestellten Beispiel weist das Gerät 10 mehrere Eingabevorrichtungen und mehrere Ausgabevorrichtungen auf. Die Eingabevorrichtungen beinhalten ein Schalterfeld 21, wie beispielsweise eine Kleintastatur, die durch eine Bedienperson bedient werden kann, und einen akustischen Eingangswandler 22, wie beispielsweise ein Mikrophon, in welches die Bedienperson sprechen kann oder ihre akustische Eingabe liefern kann. Die Ausgabevorrichtungen beinhalten einen akustischen Ausgangswandler 23, wie beispielsweise einen Lautsprecher, und eine visuelle Anzeigevorrichtung 24, wie beispielsweise ein Flüssigkristallanzeige-(LCD)-Paneel, durch welches visuelle Information dargestellt werden kann. Bei einem weiteren nicht dargestellten Ausführungsbeispiel handelt es sich beim Gerät 10 um ein PDA, das ein Schalterfeld 21 zur Eingabe und eine visuelle Anzeigevorrichtung 24 zur Ausgabe aufweist, jedoch nicht über irgendwelche akustische Eingabe- oder Ausgabewandler verfügt.
  • Ein hypothetisches Ausführungsbeispiel der Vorrichtung 10 als Handy ist schematisch in 2 dargestellt. In dieser Ausführungsform repräsentiert der Prozessor 12 einen Schaltkreis, der Rechenressourcen bereitstellt. Der Speicher 13 repräsentiert einen Schaltkreis, der flüchtige und nichtflüchtige Informationsspeicher bereitstellt, beispielsweise RAM-Speicher (Direktzugriffsspeicher), und verschiedene Typen von ROM-Speichern (Festwertspeicher). Die Eingabe-/Ausgabesteuerung 18 repräsentiert eine Schnittstelle zu Eingabe- und Ausgabevorrichtungen, wie beispielsweise einem Schalterfeld 21 (Kleintastatur) und einem akustischen Ausgabewandler 26 (piezoelektrische Vorrichtung). Die Anzeigesteuerung 17 repräsentiert eine Schnittstelle zur Anzeigevorrichtung 24 (LCD-Paneel). Eine Kodier-/Dekodiereinrichtung 16 repräsentiert einen Schaltkreis, der für ein Kodieren und Dekodieren von Audiosignalen sorgt, die von einem akustischen Eingangswandler 22 (Mikrophon) empfangen wurden und an einem akustischen Ausgangswandler 23 (Lautsprecher) gesendet werden. Ein Kommunikationsprozessor 14 repräsentiert eine Schnittstelle zu einem Sender 15 und einem Empfänger 19, welcher mit einer Antenne 25 verbunden ist, die über Funkkanäle 60 Signale sendet und empfängt. In dem in der Figur dargestellten Beispiel sind verschiedene Bauelemente der Vorrichtung 10 mit dem Bus 11 verbunden, welcher mehr als einen einzigen physikalischen Bus repräsentieren kann. Weitere Ausführungsbeispiele können realisiert werden, indem anstelle einer Busarchitektur eine andere Architektur verwendet wird.
  • In einer alternativen Ausführungsform eines PDA können beispielsweise verschiedene Bauelemente, wie beispielsweise die Kodier-Dekodiereinrichtung 16, der akustische Eingangswandler 22 und der akustische Ausgangswandler 23, weggelassen werden und weitere Bauelemente, wie beispielsweise ein Kommunikationsprozessor 14, ein Sender 15, ein Empfänger 19 und eine Antenne 25, durch ein Gerät bereitgestellt werden, das außerhalb des Gerätes 10 liegt und von diesem verschieden ist. Viele Variationen sind möglich.
  • Die Funktionen von einer oder mehreren dieser Komponenten können in einer großen Vielfalt von Weisen implementiert werden, einschließlich Diskretlogik-Komponenten, einem oder mehreren ASICs und/oder programmgesteuerten Prozessoren. Der Typ der Implementierung ist nicht kritisch.
  • Verschiedene Komponenten, die bei einer praktischen Ausführung wichtig sein können, wie beispielsweise ein Antennen-Duplexer und Power-Management-Schaltkreise, sind für das Prinzip der Erfindung nicht von Bedeutung und wurden in den Zeichnungen weggelassen, um die Klarheit der Darstellung zu verbessern.
  • B. Anwendungen
  • Viele Ausführungsdetails für die SongMail- und MusicDIY-Anwendungen hängen zum Teil von den Eigenschaften der Vorrichtung 10 und den Kommunikationstechnologien ab, die verwendet werden, um die Vorrichtung 10, den Server 30 und die Empfänger miteinander zu verbinden. Dieser Teil der Beschreibung liefert einen konzeptionellen Überblick über jede Anwendung, bei der detaillierte Betrachtungen, die für tatsächliche Ausführungen benötigt werden können, weggelassen werden. Zusätzliche Betrachtungen werden nachstehend im Kontext mit einer Beschreibung verschiedener Ausführungstechnologien erörtert.
  • 1. SongMail
  • Eine Bedienperson kann eine SongMail-Nachricht unter Verwendung eines Telefons oder eines anderen Gerätes erzeugen, welches akustische Eingabe- und Ausgabewandler aufweist. Vorzugsweise weist das Telefon ein Schalterfeld 21 auf, das durch Drücken eines entsprechendes Feldes von Knöpfen betätigt werden kann, einen akustischen Eingangswandler 22, wie beispielsweise ein Mikrophon, einen akustischen Ausgangswandler 23 wie beispielsweise einen Lautsprecher, und eine visuelle Rasteranzeige 24 wie beispielsweise ein LCD-Paneel. Die Bedienperson initiiert einen SongMail-Prozess beispielsweise durch Drücken von ein oder mehreren Knöpfen des Gerätes 10. Das Gerät 10 verwendet eine oder mehrere seiner Ausgabevorrichtungen, um Eingabeaufforderungen (Prompts) oder andere Informationen zu präsentieren, welche die Bedienperson durch den SongMail-Prozess führen, beispielsweise durch Präsentieren akustischer Information durch den akustischen Ausgangswandler 23, oder vorzugsweise durch Präsentieren von visueller Information durch die Anzeigevorrichtung 24. Wenn das Gerät 10 ein typisches Mobiltelefon ist, kann beispielsweise die visuelle Anzeigevorrichtung 24 lediglich eine herkömmliche Anzeige von durch die Bedienperson eingegebenen Telefonnummern bereitstellen, um die Bedienperson beim Aufbauen von Sprachkommunikationswegen zu unterstützen, wie später noch erläutert wird. Darauf reagierend verwendet die Bedienperson eine oder mehrere der Eingabevorrichtungen des Gerätes 10, um die Erzeugung und die Verteilung der Nachricht zu steuern. Beispielsweise könnte eine Spracheingabe mittels des akustischen Eingabewandlers 22 bereitgestellt werden, oder vorzugsweise könnte eine taktile Eingabe durch Drücken von Knöpfen zur Betätigung von einem oder mehreren Schaltern des Schalterfeldes 21 bereitgestellt werden.
  • a) Einrichtung
  • Die Schritte bei einem konzeptionellen Ausführungsbeispiel des SongMail-Prozesses sind in 3 dargestellt. In Schritt 101 dieses Prozesses leitet die Bedienperson die SongMail-Anwendung in einer beliebigen, für das spezielle Ausführungsbeispiel geeigneten Weise ein. In Schritt 102 wählt die Bedienperson eine Sprache aus, die das System bei der Bereitstellung von Prompts oder weiteren Informationen verwenden soll, um die Bedienperson durch den Prozess zu führen. In Schritt 101 kann die Bedienperson Folgendes auswählen: (1) Erzeugen einer neuen Nachricht, (2) einer zuvor erzeugten Nachricht zuhören, (3) Löschen einer zuvor erzeugten Nachricht, (4) Senden einer zuvor erzeugten Nachricht oder (5) die Routine verlassen. Bei bevorzugten Ausführungsbeispielen werden die Optionen, Nachricht abzuhören, zu löschen oder zu senden, nicht angeboten, wenn es keine zuvor erzeugten Nachrichten gibt. Wenn die Bedienperson wählt, eine neue Nachricht zu erzeugen, fährt der Prozess mit Schritt 114 fort. Wenn die Bedienperson wählt, eine zuvor erzeugte Nachricht abzuhören, fährt der Prozess mit Schritt 124 fort. Wenn die Bedienperson wählt, eine zuvor erzeugte Nachricht zu löschen, fährt der Prozess mit Schritt 134 fort. Wenn die Bedienperson wählt, eine zuvor erzeugte Nachricht zu senden, fährt der Prozess mit Schritt 144 fort. Wenn die Bedienperson wählt, die Routine zu verlassen, fährt der Prozess mit Schritt 104 fort, wodurch die zum Stoppen des Prozesses erforderlichen Aktionen durchgeführt werden.
  • b) Erzeugung
  • In Schritt 114 wählt die Bedienperson eine "Hintergrundmusik" für seine Nachricht aus. Bei bevorzugten Ausführungsbeispielen ist die Bedienperson in der Lage, die Hintergrundmusik anhand des Titels, des Künstlers, des Musiktyps oder der durch die Musik transportierten Stimmung auszuwählen. Das System kann der Bedienperson auch lediglich einen Teil der in einer Inhalte-Datenbank verfügbaren Inhalte präsentieren, der gefiltert und gemäß den in der Speichervorrichtung 33 gespeicherten Bedienperson-Einstellungen oder -Vorlieben gefiltert und arrangiert wurde.
  • Der Begriff "Hintergrundmusik" wird verwendet, um auf vom System bereitgestellte, bereits vorher existierende Inhalte Bezug zu nehmen, im Gegensatz zu "Bedienperson-Inhalten", die von der Bedienperson bereitgestellt werden. Diese bereits vorab vorhandenen Inhalte sind nicht notwendigerweise Hintergrundmusik, jedoch ist es wahrscheinlich, dass derartige Musik eine verbreitet getroffene Wahl ist. Bei einem Ausführungsbeispiel speichert der Server 30 vorab vorhandene Inhalte in einer Datenbank der Speichervorrichtung 33 und sendet durch die Bedienperson ausgewählte Inhalte an das Gerät 10. Bei einem weiteren Ausführungsbeispiel werden die vorab vorhandenen Inhalte im Gerät 10 gespeichert, beispielsweise durch ein herausnehmbares Festkörperspeicherelement.
  • In Schritt 115 präsentiert das System eine Wiedergabe der ausgewählten Hintergrundmusik durch den akustischen Ausgangswandler 23 und empfängt Bedienperson-Inhalte von der Bedienperson über den akustischen Eingangswandler 22. Schritt 116 ermöglicht der Bedienperson beispielsweise zu singen, während sie der Hintergrundmusik zuhört. Dies ermöglicht der Bedienperson, Bedienperson-Inhalte bereitzustellen, die sich zeitlich mit der Präsentation der Hintergrundmusik überlappen und die zeitliche Beziehung dieses Überlappens zu steuern.
  • Die Schritte 115 und 116 werden so lange wiederholt, bis Schritt 117 festlegt, dass die Erzeugung von Bedienperson-Inhalten abgeschlossen ist. Der Prozess fährt dann mit Schritt 103 fort. Alternativ kann das Verfahren mit Schritten fortfahren, welche der Bedienperson ermöglichen, einen oder mehrere Empfänger zu identifizieren und eine Nachricht mit den gerade eben erzeugten Bedienperson-Inhalten an diese Empfänger zu senden. Eine Art, auf die eine Nachricht gesendet werden kann, wird nachstehend beschrieben. Vorzugsweise wird, falls das Verfahren direkt mit Schritten fortfährt, die der Bedienperson das Senden einer Nachricht ermöglichen, ein Schritt bereitgestellt, welcher der Bedienperson ermöglicht, vom Senden der Nachricht Abstand zu nehmen.
  • Vorzugsweise speichert der Server 30 auf der Speichervorrichtung 33 eine Repräsentation der Nachricht, welche die Bedienperson-Inhalte beinhaltet, jedoch nicht die von der Bedienperson ausgewählte Hintergrundmusik beinhaltet. Der Server 30 speichert lediglich eine Identifizierung der ausgewählten Hintergrundmusik und eine Angabe der zeitlichen Beziehung zwischen diesen zwei Inhalten. Die Hintergrundmusik selbst wird an anderer Stelle in einer Inhalte-Datenbank gespeichert. Wenn die Nachricht an einen Empfänger gesendet wird oder zur Überprüfung an die Bedienperson gesendet wird, werden Präsentationen der Hintergrundmusik und der Bedienperson-Inhalte in einer Weise kombiniert, welche die zeitliche Beziehung zwischen diesen zwei Inhalten im Wesentlichen bewahrt, welche von der Bedienperson bei Bereitstellung der Bedienperson-Inhalte beobachtet wurde.
  • Wenn gewisse Technologien, wie beispielsweise Handysysteme, verwendet werden, um die ausgewählte Hintergrundmusik für eine der Bedienperson dargebotene Präsentation an das Gerät zu senden und um die Bedienperson-Inhalte vom Gerät 10 zu empfangen, treten im Allgemeinen beträchtliche Verzögerungen bei der Übertragung auf. Wenn diese Verzögerungen nicht bestimmbar sind, kann der Server 30 die zeitliche Beziehung zwischen den Bedienperson-Inhalten und der Präsentation der Hintergrundmusik nicht bestimmen und kann daher diese Beziehung beim Senden der Nachricht an einen Empfänger nicht bewahren. Einige Arten, mit denen sich diese Verzögerungen bestimmen lassen, werden in den folgenden Absätzen erläutert. Im Prinzip ist die Art, auf welche diese Verzögerungen bestimmt werden, für die Erfindung nicht kritisch.
  • Wenn die Bedienperson einen Kommunikationsdienst wie beispielsweise einen Handydienst verwendet und der Anbieter dieses Dienstes eine Abschätzung der Übertragungsverzögerungen liefern kann, dann kann die geschätzte Umlaufverzögerung verwendet werden, um die zeitliche Beziehung abzuschätzen, die von der Bedienperson bei Bereitstellung der Bedienperson-Inhalte beobachtet wurde.
  • Falls der Dienstanbieter keine Abschätzung der Übertragungsverzögerungen liefern kann, dann kann der Server 30 die Verzögerungen messen, indem er ein Signal an das Gerät sendet, das ein erkennbares Ereignis auslöst, welches wieder an den Server 30 zurückgeleitet wird. Wenn das Gerät 10 über eine Funktion verfügt, dass es automatisch auf gewisse Signale antwortet, dann kann der Server 30 die Verzögerungen messen, ohne dass ein Eingreifen einer Bedienperson erforderlich ist. Andernfalls kann der Server 30 die Verzögerungen dadurch messen, dass das Zeitintervall zwischen der Übertragung einer Anweisung an das Gerät 10, dass die Bedienperson eine gewisse Aktion durchführen soll, wie beispielsweise das Drücken eines Knopfes, und dem Empfang einer gewissen Anzeige vom Gerät 10, dass die Bedienperson diese Aktion durchgeführt hat, misst.
  • Wenn die Verzögerungen nicht präzise bekannt sind, dann kann der Server 30 die zeitliche Beziehung, die von der Bedienperson wahrgenommen wurde, nicht genau bestimmen, was möglicherweise verhindert, dass das System diese zeitliche Beziehung exakt bewahrt, wenn die Nachricht an einen Empfänger gesendet wird, oder zur Überprüfung an die Bedienperson gesendet wird. Wenn der Server 30 die Verzögerung mit einem akzeptablen Grad an Genauigkeit bestimmen kann, dann kann er jedoch im Wesentlichen die zeitliche Beziehung bewahren, die von der Bedienperson bei Bereitstellung der Bedienperson-Inhalte beobachtet wurde.
  • c) Zuhören
  • In Schritt 124 wählt die Bedienperson eine zuvor erzeugte Nachricht für eine erneute Prüfung aus. In Schritt 125 präsentiert das Gerät 10 eine Wiedergabe der Bedienperson-Inhalte und der Hintergrundmusik, die für diese Nachricht ausgewählt wurde. Die Präsentation überlappt die Wiedergabe der Bedienperson-Inhalte mit der Wiedergabe der ausgewählten Hintergrundmusik, derart, dass im Wesentlichen die zeitliche Beziehung erhalten bleibt, die von der Bedienperson bei der anfänglichen Bereitstellung der Bedienperson-Inhalte beobachtet wurde. Die Präsentation wird fortgeführt, bis in Schritt 126 bestimmt wird, dass die Präsentation beendet ist oder die Bedienperson eine Beendigung der Präsentation verlangt hat, beispielsweise durch Drücken eines Knopfes. Der Prozess fährt dann mit Schritt 103 fort.
  • d) Löschen
  • In Schritt 134 wählt die Bedienperson eine zuvor erzeugte Nachricht zum Löschen aus. In Schritt 135 erfolgt eine Anfrage an die Bedienperson, das Löschen zu bestätigen. Wenn das Löschen bestätigt wird, wird die Nachricht in Schritt 136 gelöscht und der Prozess fährt mit Schritt 103 fort. Wenn das Löschen nicht bestätigt wird, fährt der Prozess mit Schritt 103 fort.
  • e) Senden
  • In Schritt 144 wählt die Bedienperson eine zuvor erzeugte Nachricht zum Senden aus. In Schritt 145 identifiziert die Bedienperson einen oder mehrere Empfänger. Bei einem bevorzugten Ausführungsbeispiel zur Verwendung mit einem Handy ist die Bedienperson in der Lage, einen oder mehrere Knöpfe auf dem Telefon zu drücken, um eine Telefonnummer festzulegen oder einen Empfänger aus einer Liste von Telefonnummern oder E-Mail-Adressen auszuwählen, die zuvor durch die Bedienperson erstellt und durch den Server 30 in der Speichervorrichtung 33 gespeichert wurde. Bei einem alternativen Ausführungsbeispiel ist die Bedienperson ebenfalls in der Lage, eine E-Mail-Adresse durch Drücken von Knöpfen auf dem Telefon gemäß bekannten Verfahren zur Angabe alphanumerischer Zeichen festzulegen. Ein optionaler Schritt 146 ermöglicht der Bedienperson, zusätzliche Inhalte zu identifizieren, die auch Teil der Nachricht werden sollen, wie beispielsweise Text oder ein Bild, das die Nachricht dem Empfänger ankündigt. Der Prozess fährt dann mit Schritt 103 fort.
  • In Schritt 147 sendet der Server 30 eine Repräsentation der Nachricht an jeden in Schritt 145 identifizierten Empfänger, und zwar unter Verwendung eines für den jeweiligen Empfänger geeigneten Zustellungsverfahrens. Die Repräsentation der Nachricht kann unter Verwendung einer Vielzahl von Verfahren zugestellt werden. Bei einem "Direkt"-Verfahren werden die akustischen Inhalte der Nachricht direkt an den Empfänger zugestellt, und zwar weitgehend in der gleichen Weise, in der eine so genannte Sprachpost (Voicemail) an einen Voicemail-Teilnehmer zugestellt wird. Dieses Direktverfahren ist für eine Zustellung an herkömmliche Telefone oder andere Geräte geeignet, die über einen akustischen Ausgangswandler und wenig oder keine Verarbeitungskapazitäten haben. Bei einem "Benachrichtigungsverfahren" wird lediglich eine Benachrichtigung mit Anweisungen zum Abrufen der Nachricht zugestellt. Dieses Benachrichtigungsverfahren ist für eine Zustellung an einen im Wesentlichen beliebigen Typ von Gerät einschließlich herkömmlichen Telefonen geeignet, ist jedoch insbesondere für eine Zustellung an Handys, beispielsweise mittels SMS, und an Computer mittels E-Mail geeignet. Ein Senden von Sprachbenachrichtigungen kann an herkömmliche oder Handys erfolgen. Bedienpersonen der Empfängergeräte können die tatsächliche Inhalte der Nachricht abrufen, indem sie den mit der Benachrichtigung mitgeschickten Anweisungen folgen. Die Zustellungsverfahren werden später noch detaillierter erläutert.
  • Das Zustellungsverfahren kann in Schritt 145 ausdrücklich festgelegt werden, oder es ist in einigen Fällen möglich, das korrekte Verfahren aus der Identifizierung des Empfängers zu folgern. Beispielsweise kann es möglich sein, aus der E-Mail-Adresse eines Empfängers oder aus einer Telefonnummer eines Mobilgerätes auf eine Verwendung des Benachrichtigungsverfahrens zu schließen.
  • Ungeachtet des verwendeten Zustellungsverfahrens beinhaltet, wenn der Empfänger schließlich die akustischen Inhalte der Nachricht empfängt, die Präsentation dieser Nachricht eine Wiedergabe der Bedienperson-Inhalte mit einer Wiedergabe der ausgewählten Hintergrundmusik, derart, dass die zeitliche Beziehung im Wesentlichen erhalten bleibt, welche von der Bedienperson bei der ursprünglichen Bereitstellung der Bedienperson-Inhalte beobachtet wurde.
  • Weitergehende Überlegungen werden später noch erläutert.
  • 2. MusicDIY
  • Eine Bedienperson kann eine MusicDIY-Nachricht unter Verwendung eines Telefons, eines PDA oder eines anderen Gerätes erzeugen, welches ein Feld von Eingabevorrichtungen wie beispielsweise Schalter und einen akustischen Ausgabewandler aufweist.
  • Vorzugsweise weist das Gerät ein Schalterfeld 21 auf, das durch Drücken eines entsprechendes Feldes von Knöpfen betätigt werden kann, einen akustischen Ausgangswandler 23 wie beispielsweise einen Lautsprecher, und eine visuelle Rasteranzeige 24 wie beispielsweise ein LCD-Paneel. Die Bedienperson initiiert einen MusicDIY-Prozess beispielsweise durch Drücken von ein oder mehreren Knöpfen des Gerätes 10. Das Gerät 10 verwendet eine oder mehrere seiner Ausgabevorrichtungen, um Eingabeaufforderungen (Prompts) oder andere Informationen zu präsentieren, welche die Bedienperson durch den MusicDIY-Prozess führen, beispielsweise durch Präsentieren von visueller Information durch die Anzeigevorrichtung 24. Wenn das Gerät 10 ein typisches Mobiltelefon ist, kann beispielsweise die visuelle Anzeigevorrichtung 24 lediglich eine herkömmliche Anzeige von durch die Bedienperson eingegebenen Telefonnummern bereitstellen, um die Bedienperson beim Aufbauen von Sprachkommunikationswegen zu unterstützen, wie später noch erläutert wird. Darauf reagierend verwendet die Bedienperson eine oder mehrere der Eingabevorrichtungen des Gerätes 10, um die Erzeugung und die Verteilung der Nachricht zu steuern. Vorzugsweise wird eine taktile Eingabe durch Drücken von Knöpfen zur Betätigung von einem oder mehreren Schaltern des Schalterfeldes 21 bereitgestellt.
  • Das Verfahren, das in 3 dargestellt wurde und zuvor in Verbindung mit SongMail erörtert wurde, kann auch verwendet werden, um ein konzeptionelles Ausführungsbeispiel des MusicDIY-Prozesses zu erläutern. Die Beschreibung eines jeden Schrittes, die zuvor für SongMail gegeben wurde, findet in entsprechender Anweisung für MusicDIY, und dem ist nichts hinzuzufügen, außer, was die Erörterung von Unterschieden in Schritt 115 betrifft.
  • In Schritt 115 präsentiert das System eine Wiedergabe der ausgewählten Hintergrundmusik mittels eines akustischen Ausgabewandlers, genauso wie dies für SongMail erfolgt; jedoch erfolgt bei MusicDIY durch die Bedienperson keine Bereitstellung von akustischen Inhalten direkt durch einen akustischen Eingangswandler, sondern er stellt stattdessen akustische Inhalte in indirekter Weise bereit, indem er einen oder mehrere Schalter im Schalterfeld 21 betätigt, in einer Weise, die zum Spielen eines Musikinstrumentes ähnlich ist. Das Gerät 10 erzeugt einen Ton reagierend auf die Betätigung eines Schalters und präsentiert diesen Ton der Bedienperson durch den akustischen Ausgangswandler 23. Dies ermöglicht der Bedienperson, die mit dem Gerät 10 erzeugte Musik zu hören und die zeitliche Beziehung zwischen der Präsentation der Hintergrundmusik und der durch die Bedienperson erzeugten Musik zu steuern.
  • Das Gerät 10 kann reagierend auf die Betätigung einer speziellen Taste eine feste Note oder Ton erzeugen, wie dies bei herkömmlichen Musikinstrumenten erfolgt; jedoch ändert bei einem bevorzugten Ausführungsbeispiel das Gerät 10 den Ton, der reagierend auf die Betätigung eines speziellen Schalters erzeugt wird. Vorzugsweise wird der Ton entsprechend den Eigenschaften der Hintergrundmusik verändert, so dass die Betätigung eines beliebigen Schalters im Schalterfeld bewirkt, dass das Gerät 10 einen Ton erzeugt, der einer gewünschten musikalischen Regel gehorcht. Mit anderen Worten ist das Schalterfeld in adaptiver Weise Tönen zugeordnet, so dass, egal welcher Schalter betätigt wird, der Gesamteffekt der Bedienperson-Inhalte in Kombination mit der Hintergrundmusik wohlklingend ist. Bei einem Ausführungsbeispiel werden mit der Hintergrundmusik Steuerinformationen bereitgestellt, die angeben, wie und wann die Schalter-Klang-Zuordnungen verändert werden. Dies wird später noch detaillierter erörtert.
  • C. Kommunikationsleistungsmerkmale
  • Bei dem in 3 dargestellten und zuvor erörterten Prozess wurden einige Betrachtungen weggelassen, die für Ausführungsbeispiele, welche verschiedene Kommunikationstechnologien verwenden, relevant sind. Einige dieser Betrachtungen werden nachfolgend erörtert.
  • 1. Server-Bedienperson-Kommunikationen
  • Auch wenn kein spezielles Kommunikationsleistungsmerkmal des Gerätes 10 für das Prinzip der Erfindung kritisch ist, wird davon ausgegangen, dass eine Kommunikation über Handysysteme für viele Anwendungen von kommerzieller Bedeutung ist. Nachfolgend werden Verfahren erörtert, die mit einigen Typen von Handysystemen verwendet werden können. Es ist offensichtlich, dass viele dieser Verfahren in einer breiten Vielfalt von Kombinationen verwendet werden können.
  • a) Sequenzielle Verwendung von Daten- und Sprachkommunikations-Leistungsmerkmalen
  • Ein erstes Verfahren kann bei einem oder mehreren Kommunikationssystemen verwendet werden, die Daten- und Sprachkommunikations-Leistungsmerkmale bereitstellen. Gemäß dem ersten Verfahren richtet die Bedienperson eine Anwendung unter Verwendung eines Datenkommunikations-Leistungsmerkmals ein, bricht dann die Verwendung des Datenkommunikations-Leistungsmerkmals ab und verwendet das Sprachkommunikations-Leistungsmerkmal, um Nachrichteninhalte zu erzeugen. Dieses erste Verfahren kann beispielsweise mit Handysystemen verwendet werden, die keinen gleichzeitigen Zugriff auf Daten- und Sprachkommunikations-Leistungsmerkmale zur Verfügung stellen.
  • Eine Art, auf die das erste Verfahren implementiert sein kann, ist in 4 dargestellt. In Schritt 201 wird eine Anwendungs-"Sitzung" eingerichtet, indem ein Datenverbindungsweg initiiert wird, falls nicht bereits einer zur Verfügung steht, und dieser Weg wird verwendet, um Bedienperson-Menüpunkte, wie beispielsweise die gewünschte Anwendung (beispielsweise SongMail oder MusicDIY), Sprache und Hintergrundmusik, zu transportieren. Bei einem alternativen Ausführungsbeispiel ermöglicht Schritt 201 der Bedienperson auch, einen oder mehrere Empfänger für die Nachricht festzulegen, deren Erzeugung jetzt stattfinden soll.
  • In Schritt 202 wird die Verwendung des Datenkommunikationsweges beendet. Der Server 30 speichert für die Sitzung Informationen auf der Speichervorrichtung 33, in denen jegliche getroffenen Auswahlen oder andere von der Bedienperson während der Einrichtung der Anwendung gelieferte Daten aufbewahrt werden. Diese Informationen werden später verwendet, um den verbleibenden Teil der Anwendungssitzung durchzuführen.
  • In Schritt 203 wird die Sitzung fortgesetzt, indem ein Sprachkommunikationsweg gestartet wird, wenn nicht bereits einer zur Verfügung steht. Einige Beispiele, wie dies bewerkstelligt werden kann, werden nachfolgend beschrieben.
  • In einem ersten Beispiel erfolgt, bevor die Verwendung des Datenkommunikationsweges beendet wird, durch den Server 30 ein Senden von Informationen an das Gerät 10, die einen Code beinhalten, der die Sitzung identifiziert und eine durch die Bedienperson anzurufende Telefonnummer festlegt. Beispielsweise kann, falls verfügbar, SMS zum Senden dieser Information verwendet werden. Der Sprachkommunikationsweg wird aufgebaut, wenn die Bedienperson diese Telefonnummer anwählt. Reagierend auf den Empfang des Telefonanrufs, fordert der Server 30 die Bedienperson zur Eingabe eines Sitzungscodes auf, möglicherweise indem er Knöpfe auf dem Telefon drückt. Alternativ speichert das Gerät 10 Informationen, welche die Sitzung identifizieren, und führt automatisch eine Identifizieren der Sitzung durch, indem es akustische Signale, wie beispielsweise DTMF-Töne an den Server 30 schickt. In jedem dieser Fälle kann der Server 30 den Sitzungscode vom Sprachkommunikationskanal beispielsweise unter Verwendung von IVR erhalten. Wenn der Server 30 einen gültigen Sitzungscode empfängt, setzt er die Anwendungssitzung unter Verwendung des Sprachkommunikationsweges fort.
  • In einem zweiten Beispiel erhält der Server 30, bevor die Verwendung des Datenkommunikationsweges beendet wird, eine Telefonnummer, die zum Anrufen der Bedienperson verwendet werden soll. Diese Nummer kann direkt von der Bedienperson erhalten werden oder aus Profilinformationen, die auf der Speichervorrichtung 33 für diese Bedienperson gespeichert sind. Möglicherweise bittet der Server 30 die Bedienperson, diese Nummer zu bestätigen. Der Sprachkommunikationsweg ist aufgebaut, wenn der Server 30 die Bedienperson unter Verwendung dieser Telefonnummer erreicht. Der Server 30 bittet dann möglicherweise die Bedienperson, einen gewissen Code zur Bestätigung ihrer Identität einzugeben oder eine spezielle Sitzung zu identifizieren, ähnlich wie zuvor beschrieben. Wenn der Server 30 mit der Bedienperson erfolgreich in Kontakt tritt, setzt er die Anwendungssitzung unter Verwendung des Sprachkommunikationsweges fort.
  • In einem dritten Beispiel werden von einer im Gerät 10 ausgeführten Anwendung Dienste verwendet, wie beispielsweise solche, die durch die Drahtlostelefonie-Anwendungsschnittstelle (WTAI) bereitgestellt werden, um den Server 30 anzurufen, den Sprachkommunikationsweg aufzubauen, und die Sitzung durch Senden von akustischen Signalen, wie beispielsweise DTMF-Tönen unter Verwendung eines Protokolls, wie beispielsweise WAP, zu identifizieren.
  • Bei einem vierten Beispiel sendet das Gerät 10, bevor die Verwendung des Datenkommunikationswegs beendet wird, Informationen an den Server 30, die eine Benutzerkennung beinhaltet. Reagierend auf den Empfang des Telefonanrufes, der den Sprachkommunikationsweg initiiert, bestimmt der Server 30 automatisch die Benutzerkennung und identifiziert die Sitzung. Beispielsweise kann, wenn zu dem Gerät 10 eine Telefonnummer gehört, das Gerät 10 seine zugehörige Telefonnummer an den Server 30 senden, die zusammen mit weiteren für eine Sitzung relevanten Informationen gespeichert wird. Der Server 30 kann dann die Benutzerkennung automatisch unter Verwendung von Funktionen des Telefonsystems, wie beispielsweise "Anrufer-ID" oder automatische Nummernidentifizierung (ANI) bestimmen.
  • In Schritt 204 kann der Server nach Wunsch Prompts (Eingabeaufforderungen) oder Anweisungen bereitstellen und kann entweder automatisch mit einer Präsentation der Hintergrundmusik beginnen oder warten, bis die Bedienperson einen Startbefehl gibt, beispielsweise durch Drücken eines Knopfes auf dem Telefon.
  • In Schritt 205 empfängt der Server Bedienperson-Inhalte und speichert diese auf der Speichervorrichtung 33.
  • Die Schritte 204 und 205 werden wiederholt ausgeführt, um mit der Präsentation der Hintergrundmusik und dem Empfang der Bedienperson-Inhalte fortzufahren, bis in Schritt 206 bestimmt wird, dass der Erzeugungsprozess abgeschlossen ist. Beispielsweise kann dies dadurch erfolgen, dass ein Zeitintervall erfasst wird, bei dem keine Bedienpersoneingabe erfolgt und das einen gewissen Zeitschwellenwert überschreitet, dadurch, dass ein spezieller Befehl von der Bedienperson empfangen wird, beispielsweise durch Drücken eines speziellen Knopfes auf dem Telefon, oder wenn die Präsentation von Hintergrundmusik beendet wurde.
  • Der verbleibende Teil des Anwendungsprozesses in Schritt 207 kann in einer Vielzahl unterschiedlicher Arten implementiert sein. Bei einem Ausführungsbeispiel wird in Schritt 207 die erzeugte Nachricht an die während der Anwendungseinrichtung identifizierten Empfänger gesendet. Bei einem weiteren Ausführungsbeispiel wird in Schritt 207 der Bedienperson ermöglicht, die Nachricht abzuhören und weitere Funktionen durchzuführen, und zwar in ähnlicher Weise wie die, welche für das lediglich Sprachkommunikation verwendende Verfahren beschrieben wird.
  • Bei noch einem weiteren Ausführungsbeispiel wird in Schritt 207 die Verwendung des Sprachkommunikationsweges beendet und die Anwendungssitzung fortgesetzt, indem die Nutzung eines Datenkommunikationsweges initiiert wird. Die Bedienperson kann dann die Nachricht in einer Weise senden, die ähnlich zu der ist, welche später noch für das Verfahren beschrieben wird, welches Leistungsmerkmale zur gleichzeitigen Daten- und Sprachkommunikation verwendet.
  • Bei einem alternativen Ausführungsbeispiel des ersten Verfahrens werden die Schritte 202 und 203 auf unterschiedliche Weise ausgeführt. In Schritt 202 werden Informationen, welche die Menüpunkte und die getroffenen Auswahlen der Bedienperson repräsentieren, anstatt durch den Server 30 im Gerät 10 gespeichert. In Schritt 203 verwendet eine im Gerät 10 ausgeführte Anwendung Dienste, wie beispielsweise solche, die durch das WTAI bereitgestellt werden, um den Server 30 anzurufen, den Sprachkommunikationsweg aufzubauen, und Menüpunkte sowie die getroffenen Auswahlen der Bedienperson durch Senden von akustischen Signalen, wie beispielsweise DTMF-Tönen, unter Verwendung eines Protokolls, wie beispielsweise WAP, zu identifizieren.
  • b) Ausschließliche Verwendung von Sprachkommunikations-Leistungsmerkmalen
  • Ein zweites Verfahren kann mit einem beliebigen Kommunikationssystem verwendet werden, das Sprachkommunikations-Leistungsmerkmale bereitstellt. Gemäß dem zweiten Verfahren richtet die Bedienperson eine Anwendung ein und erzeugt Nachrichteninhalte, wobei er lediglich Sprachkommunikations-Leistungsmerkmale verwendet.
  • Eine Art, in der das zweite Verfahren implementiert sein kann, ist in 3 dargestellt. In Schritt 101 wird ein Sprachkommunikationsweg aufgebaut, wenn nicht bereits einer zur Verfügung steht. Der verbleibende Teil der Schritte wird durchgeführt, indem der Bedienperson ermöglicht wird, eine Auswahl vorzunehmen und über den Sprachkommunikationsweg Befehle einzugeben. Dies kann beispielsweise durch Sprachäußerungen oder durch Drücken von Knöpfen auf dem Telefon erfolgen. Der Server 30 kann Spracherkennungssoftware zur Interpretation von Sprachäußerungen verwenden. Eine zweckmäßige Implementierung verwendet die herkömmlichen Zweiton-Mehrtrequenz-(DTMF)-Signale, um die getroffenen Auswahlen und Befehle der Bedienperson zu repräsentieren. Alphanumerische Zeichen können über die Knöpfe unter Verwendung bekannter Verfahren eingegeben werden.
  • Wenn eine Spracherkennung verwendet wird, sollte diese Funktion unterdrückt oder sorgfältig gesteuert werden, während die Bedienperson für die SongMail-Anwendung Bedienperson-Inhalte bereitstellt. Dies kann beispielsweise dadurch erfolgen, dass die Spracherkennung auf eine eingeschränkte Anzahl von reservierten Worten eingeschränkt wird, bei denen es unwahrscheinlich ist, dass sie durch die Bedienperson als Bedienperson-Inhalte geäußert werden. Vorzugsweise wird die Spracherkennung während dieser Phase des Prozesses unterdrückt, und lediglich DTMF-Signale werden als Befehle erkannt.
  • Falls eine DTMF-Erkennung verwendet wird, sollte dieses Merkmal entweder unterdrückt oder sorgfältig gesteuert werden, während die Bedienperson Bedienperson-Inhalte für die MusicDIY-Anwendung bereitstellt. Vorzugsweise wird, falls dies das Gerät 10 erlaubt, die gesamte DTMF-Erzeugung während der Erzeugungsphase von MusicDIY unterdrückt; jedoch kann ein Knopf, wie beispielsweise der Hash-(#)-Knopf oder Stern-(*)-Knopf reserviert sein, um einen Befehl zum Abbruch der Erzeugungsphase zu repräsentieren. Alternativ können alle Knöpfe zur Eingabe von Bedienperson-Inhalten verfügbar gemacht werden, und es kann eine Spracherkennung verfügbar gemacht werden, um einen Befehl zum Abbruch dieser Phase zu erkennen.
  • c. Gleichzeitige Verwendung von Daten- und Sprachkommunikations-Leistungsmerkmalen
  • Ein drittes Verfahren kann mit einem beliebigen Kommunikationssystem verwendet werden, das einen gleichzeitigen Zugriff auf Daten- und Sprachkommunikations-Leistungsmerkmale bereitstellt. Gemäß dem dritten Verfahren richtet die Bedienperson die Verwendung einer Anwendung durch Verwenden eines Datenkommunikations-Leistungsmerkmals ein und erzeugt dann Nachrichteninhalte unter Verwendung eines Sprachkommunikations-Leistungsmerkmales, ohne die Verwendung des Datenkommunikations-Leistungsmerkmals zu unterbrechen.
  • Eine Art, in der das dritte Verfahren implementiert sein kann, ist ebenfalls in 3 dargestellt. In Schritt 101 werden Daten- und Sprachkommunikationswege wie erforderlich aufgebaut, falls einer von diesen noch nicht zur Verfügung stehen sollte. Der verbleibende Teil der Schritte wird durchgeführt, indem der Bedienperson ermöglicht wird, Auswahlen vorzunehmen und Befehle über den Datenkommunikationsweg einzugeben, und indem Hintergrundmusik über den Sprachkommunikationsweg empfangen wird.
  • d) Ausschließliche Verwendung von Datenkommunikations-Leistungsmerkmalen
  • Ein viertes Verfahren verwendet Funktionen, wie beispielsweise Internettelefonie ("Voice over IP"), die ein Senden von Bedienperson-Inhalten über einen Datenkommunikationsweg erlauben. Dies ermöglicht, dass sowohl die Einrichtung der Anwendung als auch die Erzeugung der Nachricht unter Verwendung des Datenkommunikationsweges durchgeführt werden kann.
  • Eine Art, in der das vierte Verfahren implementiert sein kann, ist in 3 dargestellt. In Schritt 101 wird ein Datenkommunikationsweg aufgebaut, falls nicht bereits einer zur Verfügung steht. Der verbleibende Teil der Schritte wird durchgeführt, indem der Bedienperson ermöglicht wird, Auswahlen vorzunehmen, Befehle einzugeben, Hintergrundmusik zu empfangen und Bedienperson-Inhalte über den Datenkommunikationsweg bereitzustellen.
  • 2. Server-Empfänger-Kommunikationen
  • Auch wenn der Server 30 Nachrichten direkt an einem Empfänger zustellen kann, geht man davon aus, dass bei bevorzugten Ausführungsbeispielen stattdessen lediglich eine Benachrichtigung über diese Nachricht zugestellt wird, welche Anweisungen zum Abholen (Laden) der Nachricht beinhaltet, und auch eine Einführung oder Erläuterung, welche von der Bedienperson stammt, welche die Nachricht erzeugt hat, enthalten könnte. Dies kann auf viele unterschiedliche Weisen erfolgen. Keine spezielle Weise ist für die Erfindung kritisch.
  • Eine Art, eine Benachrichtigung zu senden, besteht darin, einen Mitteilungsübermittlungsdienst des Telefonssystems wie beispielsweise SMS oder MMS zu verwenden. Die Inhalte von SMS-Nachrichten sind beispielsweise in ihrer Länge eingeschränkt und können nur aus Text bestehen; jedoch kann das Gerät 10 einem Benutzer erlauben, in der Nachricht Text, beispielsweise eine Telefonnummer, zu markieren und diesen markierten Text zu verwenden, um einen Telefonanruf durchzuführen. Ein anderer Text, wie beispielsweise ein Nachrichtcode oder ein Sitzungscode, könnte markiert werden und an den Server 30 geschickt werden, um die abzuholende Nachricht zu identifizieren. Diese Funktionen verringern den zum Abholen der Nachricht erforderlichen Aufwand.
  • Eine weitere Art, um eine Benachrichtigung zu senden, erfolgt mittels E-Mail, die einen größeren Leistungsumfang als SMS bereitstellt. Eine E-Mail-Nachricht könnte eine URL-(Uniform Ressource Locator)-Linkadresse zu einer im Netz 40 befindlichen Datei beinhalten, welche die abzuholende Nachricht enthält. Unter Verwendung eines herkömmlichen Browsers oder verschiedener E-Mail-Software könnte der Empfänger die Nachricht abholen, indem er lediglich eine Zeigevorrichtung wie beispielsweise eine Maus verwendet, um auf die URL-Linkadresse zu klicken. Diese E-Mail-Nachricht könnte auch zusätzliche Inhalte, wie beispielsweise eine grafische Darstellung (Bild) beinhalten, die von der Bedienperson ausgewählt wurde, welche die Nachricht erzeugt hat.
  • Noch eine andere Art, eine Benachrichtigung zu senden, erfolgt durch akustische Informationen. Unter Verwendung von Sprachsynthesesoftware könnte der Server 30 beispielsweise eine Benachrichtigung erzeugen, die über Telefon an einen Empfänger gesendet werden könnte oder direkt in der Sprachmailbox eines Empfängers gespeichert werden könnte. Bei einem Ausführungsbeispiel könnte diese Benachrichtigung eine anzurufende Telefonnummer und einen Code beinhalten, der die abzuholende Nachricht identifiziert. Bei einem weiteren Ausführungsbeispiel erläutert die Benachrichtigung dem Empfänger, dass die durch einen Namen identifizierte Bedienperson eine Nachricht erzeugt hat, und fragt dann, ob der Empfänger diese empfangen möchte. Falls der Empfänger die Zustellung begrüßt, dann stellt der Server die Nachricht über das Telefon zu. Der Server 30 kann auch so implementiert sein, dass er dem Empfänger ermöglicht, der Bedienperson mit einer Sprachnachricht zu antworten oder die Nachricht an weitere Personen weiterzuleiten.
  • Die Nachricht selbst kann in im Wesentlichen beliebigem Format, das zur Darstellung der Inhalte in der Lage ist, gespeichert oder transportiert werden.
  • D. Zusätzliche Funktionen
  • Bei einem bevorzugten Ausführungsbeispiel der MusicDIY-Anwendung ist das Gerät 10 synchron zur Hintergrundmusik angepasst, so dass eine Betätigung eines beliebigen Schalters im Schalterfeld das Gerät 10 veranlasst, einen Ton zu erzeugen, der einer gewünschten musikalischen Regel gehorcht. Diese Funktion kann so verwendet werden, dass der Gesamteffekt der Bedienperson-Inhalte in Kombination mit der Hintergrundmusik wohlklingend ist, unabhängig davon, welcher Schalter betätigt wird.
  • Das Gerät 10 wird angepasst, indem eine Zuordnung verändert wird, durch die ein jeweiliger Schalter im Schalterfeld einem speziellen Ton oder Note zugeordnet wird. Eine oder mehrere Zuordnungsbeziehungen, die hier als Zuordnungsvorschriften bezeichnet werden, können vorab im Gerät 10 gespeichert sein oder sie können aus Informationen erhalten werden, die zusammen mit der Hintergrundmusik gesendet werden.
  • 1. Synchronisierung
  • Die Zuordnungsvorschrift, welche zu einem speziellen Zeitpunkt in Kraft ist, wird modifiziert oder aus einem Satz von Zuordnungsvorschriften ausgewählt, wenn die Hintergrundmusik der Bedienperson präsentiert wird. Eine Identifizierung der zu verwendenden Zuordnungsvorschrift und des Zeitpunktes, zu dem diese Zuordnungsvorschrift verwendet werden sollte, wird durch Steuerinformation festgelegt, die während oder vor dem Zeitpunkt empfangen wird, bei dem die Hintergrundmusik empfangen und der Bedienperson präsentiert wird. Im Allgemeinen wird der Zuordnungsvorgang zu Zeitpunkten angepasst, die mit Tonartwechseln oder Akkordwechseln der Hintergrundmusik zusammenfallen.
  • Falls die Steuerinformationen schon vor einer Präsentation empfangen werden, sollten sie die zu verwendende Zuordnungsvorschrift festlegen, sowie wann diese zu verwenden ist. Sie können die gewünschte Zuordnungsvorschrift und den zugehörigen Zeitpunkt festlegen, indem sie eine Zuordnungsvorschriftskennung mit einem im Verlauf der Hintergrundmusik liegenden Zeitpunkt in Verbindung bringt, beispielsweise eine auf den Anfang der Musik bezogene Verschiebung. Beispielsweise könnten Steuerinformationen, in denen 7@37,2 festgelegt ist, angeben, dass das Gerät mit der Verwendung der siebten Zuordnungsvorschrift eines zuvor gespeicherten Satzes von Zuordnungsvorschriften bei einem 37,2 Sekunden nach dem Beginn der Hintergrundmusik liegenden Zeitpunkt beginnen sollte.
  • Falls die Steuerinformationen während der Präsentation der Hintergrundmusik empfangen werden, wird durch sie möglicherweise lediglich die zu verwendende Zuordnungsvorschrift identifiziert, da der Zeitpunkt durch den Zeitpunkt des Empfangs der Steuerinformationen implizit gegeben ist.
  • 2. Zuordnungsvorgang
  • Bei bevorzugten Ausführungsbeispielen sind die Zuordnungsvorschriften im Wesentlichen vorbestimmte Tonleiterstrukturen, die in Übereinstimmung mit einer Standard-Musiktheorie bestimmt sind und auf einem von fünf Jazz/Pop-Musikakkorden basieren: Dur-, Dominantsept-, Moll- (dorisch), halbverminderter (locrischer) und verminderter Akkord.
  • Ein Akkord repräsentiert eine Reihe von als Tonleiter bezeichneten Tönen. Die Tonleitern von weiteren Akkorden können entsprechend ihrem "Klang" oder Grad an Konsonanz oder Dissonanz bezüglich der Grundtöne eines speziellen Akkords aufgebaut sein. Es ist nicht ungewöhnlich, dass es fünf oder mehr Tonleitern gibt, die mit einem beliebigen speziellen Akkord relativ konsonant sind.
  • Die folgende Tabelle zeigt zwei Beispiele eines speziellen Akkordes (nachfolgend als "Basisakkord" bezeichnet) und eines weiteren Akkordes, der mit dem Basisakkord konsonant ist. Der Basisakkord ist in der ersten Spalte dargestellt, welche einen Akkord repräsentiert, der in der Hintergrundmusik vorkommt. Die Noten des Basisakkords sind in der zweiten Spalte dargestellt. Ein weiterer Akkord, der mit dem Basisakkord konsonant ist, ist in der dritten Spalte dargestellt. In beiden Beispielen ist der konsonante Akkord so gewählt, dass er zum Basisakkord identisch ist. Die Noten in der Tonleiter des konsonanten Akkords sind in der vierten Spalte dargestellt.
  • Figure 00200001
  • Nimmt man an, dass es sich beim Gerät 10 um ein Mobiltelefon mit einer herkömmlichen 12-Tasten-Kleintastatur (deren Knöpfe mit 1-9, *, 0, # bezeichnet sind) handelt, können die zwei konsonanten Akkorde der Kleintastatur wie folgt zugeordnet werden:
    Figure 00200002
  • Jedes Mal, wenn sich in der Hintergrundmusik der Basisakkord wechselt, sollte die Zuordnung ebenfalls wechseln, so dass durch keine Taste ein dissonanter Klang oder eine "falsche" Note erzeugt wird.
  • Beispielsweise sei angenommen, dass die ersten vier Akkorde der Hintergrundmusik F-Dur, E-Moll 7.te (Em7), A 7.te und D-Moll 7.te (Dm7) sind. Es sei weiter angenommen, dass die gewählte konsonante Tonleiter für jeden Basisakkord die Tonleiter des Basisakkords selbst ist. Die Tasten für diese vier Akkorde könnten wie folgt zugeordnet sein:
    Figure 00200003
  • Falls die Zuordnungsvorschriften auf diese Weise gewechselt werden, würde, wenn die Bedienperson lediglich die "1"-Taste drückt, eine Abfolge von Noten F/E/A/D erzeugt.
  • Unglücklicherweise arbeiten erfahrene Musiker nicht in dieser Weise mit Tonleitern. Stattdessen würde ein Musiker wählen, dass die geeignetste Abfolge von Noten als Akkorde der Hintergrundmusik entsprechend der Akkord/Tonleiter-Beziehung, den rhythmischen Figuren und den Notenanordnungen wechselt. Ein einfaches Zuordnen von Tasten gemäß der Akkordstruktur, wie zuvor beschrieben, ist nicht ausreichend, um einer musikalisch unerfahrenen Bedienperson eine ver gleichbare "Spielfähigkeit" zu vermitteln.
  • Die "Spielfähigkeit" kann dadurch stark verbessert werden, dass der logische Verlauf von Zuordnungsvorschrift zu Zuordnungsvorschrift gesteuert wird. Zwei unterschiedliche Zuordnungsbeziehungen können kombiniert verwendet werden, um dies zu erreichen. Die erste Zuordnungsbeziehung ist die zuvor beschriebene Akkord/Tonleiter-Zuordnungsbeziehung. Diese Zuordnung wird durch einen Musiker vorab eingerichtet. Eine spezielle Beziehung kann durch den Musiker gewählt werden, in Übereinstimmung damit, welche der Musiker für einen speziellen Song für die passendste erachtet. Alternativ kann der Musiker mehrere Beziehungen zwischen unterschiedlichen Musikstilen einrichten; z. B. Jazz, Blues, Folk, Pop, wobei der Bedienperson die Möglichkeit gegeben wird, den gewünschten Stil auszuwählen. Dadurch wird die erste Akkord/Tonleiter-Zuordnungsbeziehung eingerichtet.
  • Die zweite Zuordnungsbeziehung steuert den Verlauf der Wechsel zwischen unterschiedlichen Zuordnungsvorschriften. Diese zweite Verlaufsbeziehung kann auch durch einen Musiker eingerichtet werden, oder sie kann automatisiert und durch den Server 30 oder das Gerät 10 bereitgestellt werden.
  • Unter Verwendung des zuvor dargestellten Beispiels werden die Akkord/Tonleiter-Zuordnungsvorschriften für die vier Akkorde, wie zuvor erläutert, eingerichtet. Der Verlauf des Wechsels zwischen diesen Zuordnungsvorschriften wird gesteuert, indem die Anpassung für die Note mit zugeordneter "1"-Taste einer jeden Tonleiter erfolgt. Die Note, der bei einer speziellen Zuordnungsvorschrift die "1"-Taste zugewiesen wurde, ist innerhalb eines Halbtonschrittes die gleiche Note, der bei der vorhergehenden Zuordnungsvorschrift die "1"-Taste zugewiesen wurde. Dies liefert den folgenden Verlauf von Zuordnungsvorschriften:
    Figure 00210001
  • Falls die Zuordnungsvorschriften in dieser Weise gewechselt werden, würde, wenn die Bedienperson lediglich die "1"-Taste drückt, eine Abfolge von Noten F/F#/F#/F erzeugt. Durch Drücken der "4"-Taste würde die Bedienperson eine Abfolge von Noten Bb/B/B/B erzeugen.
  • Durch Steuern des Verlaufes der Zuordnungsvorschriftswechsel kann die Bedienperson besser die Note antizipieren, die durch Drücken einer speziellen Taste erzeugt wird, und kann dadurch Musik erzeugen, die in natürlicherer Weise dem fortschreitenden Verlauf der Tasten entspricht, die gedrückt wurden.
  • Alternative Beziehungen können verwendet werden, um den Verlauf der Wechsel zwischen Zuordnungsvorschriften zu steuern. Beispielsweise kann der dritten, fünften oder siebten Note eines Akkordes bei einer speziellen Zuordnungsvorschrift die "1"-Taste zugewiesen sein, und bei darauf folgenden Zuordnungsvorschriften ist innerhalb eines Halbtonschrittes die gleiche Note der "1"-Taste zugewiesen. Es kann der Bedienperson auch ermöglicht werden, die Zuordnungsverlaufsbeziehung zu wählen. Falls beispielsweise durch die Zuordnungsverlaufsbeziehung ein Ausrichtung aufeinander folgender Zuordnungsvorschriften auf die fünfte Taste erfolgt, würden die Zuordnungsvorschriften für die oben dargestellten vier Akkorde der "1"-Taste die Noten C, C#, C# und C zuordnen.

Claims (34)

  1. Verfahren zur Verwendung eines handgehaltenen Gerätes (10), welches aufweist: eine oder mehrere Ausgabevorrichtungen (23, 24), die eine visuelle Rasteranzeige (24) beinhalten, welche einer Bedienperson eine Ausgabe präsentiert, eine oder mehrere Eingabevorrichtungen (21, 22), welche ein Feld von Schaltern (21) beinhalten, die eine Eingabe von der Bedienperson empfangen, einen drahtlosen Sender (25) und eine Verarbeitungsschaltung, welcher den Betrieb der einen oder mehreren Ausgabevorrichtungen, der einen oder mehreren Eingabevorrichtungen und des drahtlosen Senders steuert, wobei das Verfahren Schritte umfasst, welche folgende Aktionen durchführen: durch die visuelle Rasteranzeige (24) werden der Bedienperson Informationen präsentiert, welche die Bedienperson beim Steuern des Betriebes des handgehaltenen Gerätes (10) unterstützen; durch die eine oder mehreren Ausgabevorrichtungen (23, 24) wird der Bedienperson eine Präsentation einer Repräsentation von ersten Inhalten geliefert; mittels der einen oder mehreren Eingabevorrichtungen (21, 22) werden von der Bedienperson zweite Inhalte, die sich zeitlich mit der Präsentation von ersten Inhalten gemäß einer durch die Bedienperson gesteuerten zeitlichen Beziehung überlappen, und eine Identifizierung von einem oder mehreren Empfängern empfangen; und über den drahtlosen Sender (25) wird eine Repräsentation der zweiten Inhalte und eine Identifizierung von einem oder mehreren Empfängern an einen Remote-Server (30) gesendet, der räumlich von dem handgehaltenen Gerät (10) getrennt ist, und der Remote-Server (30) wird veranlasst, an den einen oder die mehreren Empfänger (42, 52, 63) eine Nachricht zu senden, welche die ersten Inhalte und die zweiten Inhalte repräsentiert, welche gemäß der zeitlichen Beziehung angeordnet sind.
  2. Verfahren nach Anspruch 1, welches beinhaltet, dass durch drahtlose Kommunikation ein erstes Signal empfangen wird, das die Repräsentation von ersten Inhalten transportiert.
  3. Verfahren nach Anspruch 2, bei welchem das erste Signal eine bandbreitenkomprimierte Repräsentation der ersten Inhalte transportiert und das Verfahren ein Expandieren der bandbreitenkomprimierten Repräsentation beinhaltet.
  4. Verfahren nach Anspruch 2, bei welchem das erste Signal eine adaptiv bandbreitenkomprimierte Repräsentation der ersten Inhalte transportiert, welche einen Bandbreitenbedarf hat, der sich reagierend auf die Eigenschaften der Repräsentation von durch das handgehaltene Gerät gesendeten zweiten Inhalten ändert und das Verfahren ein Expandieren der adaptiv bandbreitenkomprimierten Repräsentation beinhaltet.
  5. Verfahren nach Anspruch 1, bei welchem die ersten Inhalte Musik beinhalten und die zweiten Inhalte von der Bedienperson empfangene Sprachklänge beinhalten.
  6. Verfahren nach Anspruch 1, welches beinhaltet, dass der Bedienperson mittels der einen oder den mehreren Ausgabevorrichtungen reagierend auf eine Betätigung des Schalterfeldes Klänge präsentiert werden, wobei die zweiten Inhalte Angaben über die Betätigung des Schalterfeldes durch die Bedienperson beinhalten.
  7. Verfahren nach Anspruch 6, welches beinhaltet, dass der Klang, der reagierend auf die Betätigung eines speziellen Schalters des Schaltfeldes erzeugt wird, in Übereinstimmung mit Eigenschaften der ersten Inhalte angepasst wird.
  8. Verfahren nach Anspruch 6, welches beinhaltet, dass bei dem handgehaltenen Gerät eine Erzeugung von Zweiton-Mehrfrequenz-(DTMF)-Signalen reagierend auf die Betätigung des Schalterfeldes in adaptiver Weise aktiviert und deaktiviert wird.
  9. Verfahren nach Anspruch 1, welches beinhaltet, dass der Remote-Server veranlasst wird, der Nachricht dritte Inhalte hinzuzufügen, wobei die dritten Inhalte durch die Bedienperson gesteuert werden.
  10. System zur Erzeugung einer Nachricht, wobei das System beinhaltet: (a) ein handgehaltenes Gerät (10), welches aufweist: eine oder mehrere Ausgabevorrichtungen (23, 24), die eine visuelle Rasteranzeige (24) beinhalten, welche einer Bedienperson eine Ausgabe präsentiert, eine oder mehrere Eingabevorrichtungen (21, 22), welche ein Feld von Schaltern (21) beinhalten, die eine Eingabe von der Bedienperson empfangen, einen drahtlosen Sender (25) und eine Verarbeitungsschaltung, welche veranlasst, dass das handgehaltene Gerät: (1) der Bedienperson durch die visuelle Rasteranzeige (24) Informationen präsentiert, welche die Bedienperson bei der Steuerung des Betriebs des handgehaltenen Gerätes unterstützen; (2) der Bedienperson über die eine oder die mehreren Ausgabevorrichtungen (23, 24) eine Präsentation von ersten Inhalten liefert; (3) von der Bedienperson über die eine oder die mehreren Eingabevorrichtungen (21, 22) eines oder mehrere Signale, welche zweite Inhalte repräsentieren, die sich zeitlich mit der Präsentation von ersten Inhalten gemäß einer durch die Bedienperson gesteuerten zeitlichen Beziehung überlappen, und eine Identifizierung von einem oder mehreren Empfängern (42, 52, 62) empfängt; und (4) über den ersten drahtlosen Sender (25) eine Repräsentation der zweiten Inhalte und eine Identifizierung des einen oder der mehreren Empfänger (42, 52, 62) sendet, und (b) ein Server-Subsystem (30), welches einen drahtlosen Empfänger (37), eine oder mehrere Speichervorrichtungen (33) und eine Verarbeitungsschaltung aufweist, die das Server- Subsystem veranlasst: (1) die Repräsentation der zweiten Inhalte und die Identifizierung des einen oder der mehreren Empfänger (42, 52, 62) über den drahtlosen Empfänger (37) zu empfangen und mittels der einen oder mehreren Speichervorrichtungen (33) zu speichern, und (2) dem einen oder den mehreren Empfängern (42, 52, 62) eine Nachricht zu senden, welche die ersten Inhalte und die zweiten Inhalte repräsentiert, die gemäß der zeitlichen Beziehung angeordnet sind.
  11. System nach Anspruch 10, bei welchem das Server-Subsystem einen zweiten drahtlosen Sender beinhaltet und die Verarbeitungsschaltung im Server-Subsystem das Server-Subsystem veranlasst, an das handgehaltene Gerät über den zweiten drahtlosen Sender ein erstes Signal zu senden, welches die Repräsentation erster Inhalte transportiert.
  12. System nach Anspruch 11, bei welchem das erste Signal eine bandbreitenkomprimierte Repräsentation der ersten Inhalte transportiert.
  13. System nach Anspruch 11, bei welchem die Verarbeitungsschaltung des Server-Subsystems das Server-Subsystem veranlasst, den Bandbreitenbedarf des ersten Signals reagierend auf die Eigenschaften der Repräsentation der von dem handgehaltenen Gerät empfangenen zweiten Inhalte zu ändern.
  14. System nach Anspruch 10, bei welchem die ersten Inhalte Musik enthalten und die zweiten Inhalte von der Bedienperson empfangene Sprachklänge beinhalten.
  15. System nach Anspruch 10, bei welchem die zweiten Inhalte Angaben einer Betätigung des Schalterfeldes durch die Bedienperson beinhalten und die Verarbeitungsschaltung des handgehaltenen Gerätes das handgehaltene Gerät veranlasst, der Bedienperson, reagierend auf die Betätigung des Schalterfeldes, durch die eine oder die mehreren Ausgabevorrichtungen Klänge zu präsentieren.
  16. System nach Anspruch 15, bei welchem die Verarbeitungsschaltung des handgehaltenen Gerätes das handgehaltene Gerät veranlasst, den Klang, der reagierend auf die Betätigung eines speziellen Schalters des Schalterfeldes erzeugt wurde, gemäß den Eigenschaften der ersten Inhalte anzupassen.
  17. System nach Anspruch 15, bei welchem die Verarbeitungsschaltung des handgehaltenen Gerätes beim handgehaltenen Gerät ein Aktivieren und Deaktivieren vornimmt, dass es Zweiton-Mehrfachfrequenz-(DTMF)-Signale reagierend auf die Betätigung des Schalterfeldes erzeugt.
  18. System nach Anspruch 10, bei welchem die Verarbeitungsschaltung des Server-Subsystems das Server-Subsystem veranlasst, der Nachricht reagierend auf vom handgehaltenen Gerät empfange Informationen dritte Inhalte hinzuzufügen.
  19. Serversystem (30), welches einen drahtlosen Empfänger (37), eine oder mehrere Speichervorrichtungen (33) und eine Verarbeitungsschaltung aufweist, die veranlasst, dass das Serversystem: (a) über den drahtlosen Empfänger (37) eines oder mehrere Signale von einem handgehaltenen Gerät (10) empfängt, die gesteuert durch eine Bedienperson des handgehaltenen Gerätes erzeugt werden, wobei das eine oder die mehreren Signale transportieren: (ii) eine Identifizierung von ersten Inhalten, (iii) zweite Inhalte, die sich zeitlich mit einer Präsentation der ersten Inhalte durch das handgehaltene Gerät überlappen, wobei die Überlappung gemäß einer durch die Bedienperson gesteuerten zeitlichen Beziehung beschaffen ist, und (iv) eine Identifizierung von einem oder mehreren Empfängern (42, 52, 62); (b) Informationen erhält, welche die zeitliche Beziehung identifizieren; und (c) dem einen oder den mehreren Empfängern (42, 52, 62) eine Nachricht sendet, welche die ersten Inhalte und die gemäß der zeitlichen Beziehung angeordneten zweiten Inhalte repräsentiert.
  20. System nach Anspruch 19, bei welchem das Serversystem einen drahtlosen Sender aufweist und die Verarbeitungsschaltung des Serversystems das Serversystem veranlasst, mittels des drahtlosen Senders an das handgehaltene Gerät ein erstes Signal zu senden, das die Repräsentation erster Inhalte transportiert.
  21. System nach Anspruch 20, bei welchem das erste Signal eine bandbreitenkomprimierte Repräsentation der ersten Inhalte transportiert.
  22. System nach Anspruch 20, bei welchem die Verarbeitungsschaltung des Serversystems das Server-Subsystem veranlasst, den Bandbreitenbedarf des ersten Signals reagierend auf die Eigenschaften der Repräsentation der von dem handgehaltenen Gerät empfangenen zweiten Inhalte zu ändern.
  23. System nach Anspruch 19, bei welchem die ersten Inhalte Musik enthalten und die zweiten Inhalte von der Bedienperson empfangene Sprachklänge beinhalten.
  24. System nach Anspruch 19, bei welchem die ersten Inhalte Musik enthalten und die zweiten Inhalte eine Betätigung eines Schalterfeldes des handgehaltenen Gerätes durch die Bedienperson repräsentieren.
  25. System nach Anspruch 19, bei welchem der Remote-Server reagierend auf von dem handgehaltenen Gerät empfangene Informationen zur Nachricht dritte Inhalte hinzufügt.
  26. Maschinenlesbares Medium, welches ein Programm aus Anweisungen zur Ausführung durch eine oder mehrere Maschinen enthält, um ein Verfahren zur Verwendung eines handgehaltenen Gerätes (10) durchzuführen, das aufweist: eine oder mehrere Ausgabevorrichtungen (23, 24), die eine visuelle Rasteranzeige (24) beinhalten, welche einer Bedienperson eine Ausgabe präsentiert, eine oder mehrere Eingabevorrichtungen (21, 22), welche ein Feld von Schaltern (21) beinhalten, die eine Eingabe von der Bedienperson empfangen, einen drahtlosen Sender (25) und eine Verarbeitungsschaltung, welche den Betrieb der einen oder mehreren Ausgabevorrichtungen, der einen oder mehreren Eingabevorrichtungen und des drahtlosen Senders steuert, wobei das Verfahren Schritte umfasst, welche folgende Aktionen durchführen: durch die visuelle Rasteranzeige (24) werden der Bedienperson Informationen präsentiert, welche die Bedienperson beim Steuern des Betriebes des handgehaltenen Gerätes (10) unterstützen; durch die eine oder mehreren Ausgabevorrichtungen (23, 24) wird der Bedienperson eine Präsentation einer Repräsentation von ersten Inhalten geliefert; mittels der einen oder mehreren Eingabevorrichtungen (21, 22) werden von der Bedienperson zweite Inhalte, die sich zeitlich mit der Präsentation von ersten Inhalten gemäß einer durch die Bedienperson gesteuerten zeitlichen Beziehung überlappen, und eine Identifizierung von einem oder mehreren Empfängern (42, 52, 63) empfangen; und über den drahtlosen Sender (25) wird eine Repräsentation der zweiten Inhalte und eine Identifizierung von einem oder mehreren Empfängern (42, 52, 63) an einen Remote-Server (30) gesendet, der räumlich von dem handgehaltenen Gerät (10) getrennt ist, und der Remote-Server (30) wird veranlasst, an den einen oder die mehreren Empfänger (42, 52, 63) eine Nachricht zu senden, welche die ersten Inhalte und die zweiten Inhalte repräsentiert, welche gemäß der zeitlichen Beziehung angeordnet sind.
  27. Medium nach Anspruch 26, welches beinhaltet, dass durch drahtlose Kommunikation ein erstes Signal empfangen wird, das die Repräsentation von ersten Inhalten transportiert.
  28. Medium nach Anspruch 27, bei welchem das erste Signal eine bandbreitenkomprimierte Repräsentation der ersten Inhalte transportiert und das Verfahren ein Expandieren der bandbreitenkomprimierten Repräsentation beinhaltet.
  29. Medium nach Anspruch 27, bei welchem das erste Signal eine adaptiv bandbreitenkomprimierte Repräsentation der ersten Inhalte transportiert, welche einen Bandbreitenbedarf hat, der sich reagierend auf die Eigenschaften der Repräsentation von durch das handgehaltene Gerät gesendeten zweiten Inhalten ändert und das Verfahren ein Expandieren der adaptiv bandbreitenkomprimierten Repräsentation beinhaltet.
  30. Medium nach Anspruch 26, bei welchem die ersten Inhalte Musik beinhalten und die zweiten Inhalte von der Bedienperson empfangene Sprachklänge beinhalten.
  31. Medium nach Anspruch 26, welches beinhaltet, dass der Bedienperson mittels der einen oder den mehreren Ausgabevorrichtungen reagierend auf eine Betätigung des Schalterfeldes Klänge präsentiert werden, wobei die zweiten Inhalte Angaben über die Betätigung des Schalterfeldes durch die Bedienperson beinhalten.
  32. Medium nach Anspruch 31, welches beinhaltet, dass der Klang, der reagierend auf die Betätigung eines speziellen Schalters des Schaltfeldes erzeugt wird, in Übereinstimmung mit Eigenschaften der ersten Inhalte angepasst wird.
  33. Medium nach Anspruch 31, welches beinhaltet, dass bei dem handgehaltenen Gerät eine Erzeugung von Zweiton-Mehrfrequenz-(DTMF)-Signalen reagierend auf die Betätigung des Schalterfeldes in adaptiver Weise aktiviert und deaktiviert wird.
  34. Medium nach Anspruch 26, welches beinhaltet, dass der Remote-Server veranlasst wird, der Nachricht dritte Inhalte hinzuzufügen, wobei die dritten Inhalte durch die Bedienperson gesteuert werden.
DE60206619T 2001-05-15 2002-05-13 Verfahren und vorrichtung zur erzeugung und verteilung von interaktiven echtzeit-medieninhalten uber drahtlose kommunikationsnetze und das internet Expired - Lifetime DE60206619T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US963348 1992-10-16
CN90111564 2001-05-15
TW090111564A TW511365B (en) 2001-05-15 2001-05-15 Method allowing individual user to record song and forward to others for listening by connecting to a service provider with telecommunication device signal
US09/963,348 US6640086B2 (en) 2001-05-15 2001-09-25 Method and apparatus for creating and distributing real-time interactive media content through wireless communication networks and the internet
PCT/US2002/015188 WO2002093873A1 (en) 2001-05-15 2002-05-13 Method and apparatus for creating and distributing real-time interactive media content through wireless communication networks and the internet

Publications (2)

Publication Number Publication Date
DE60206619D1 DE60206619D1 (de) 2005-11-17
DE60206619T2 true DE60206619T2 (de) 2006-06-22

Family

ID=26667014

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60206619T Expired - Lifetime DE60206619T2 (de) 2001-05-15 2002-05-13 Verfahren und vorrichtung zur erzeugung und verteilung von interaktiven echtzeit-medieninhalten uber drahtlose kommunikationsnetze und das internet

Country Status (11)

Country Link
EP (1) EP1388245B8 (de)
JP (1) JP4357175B2 (de)
CN (1) CN100456763C (de)
AT (1) ATE306775T1 (de)
AU (1) AU2002309787B2 (de)
CA (1) CA2447153C (de)
CY (1) CY1105284T1 (de)
DE (1) DE60206619T2 (de)
DK (1) DK1388245T3 (de)
ES (1) ES2246401T3 (de)
WO (1) WO2002093873A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2395631B (en) * 2002-11-22 2006-05-31 Hutchison Whampoa Three G Ip Reproducing speech files in mobile telecommunications devices
KR100408738B1 (en) * 2003-04-08 2003-12-03 Information Co Ltd H Mobile terminal having effect sound/background sound output function by using engaged key button
US7164906B2 (en) 2004-10-08 2007-01-16 Magix Ag System and method of music generation
JP4682602B2 (ja) * 2004-11-30 2011-05-11 ヤマハ株式会社 音楽再生装置
DE112005003608A5 (de) * 2005-04-13 2008-03-27 Siemens Ag Verfahren zur Synchronisation von Mediumströmen in einem paketvermittelten Mobilfunknetz, Endgerät und Anordnung für ein solches
WO2007058522A1 (en) * 2005-11-15 2007-05-24 Navtion B.V. Method and system for composing a personalized message

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990010664U (ko) * 1997-08-29 1999-03-15 최상옥 휴대용 자막기
KR100270340B1 (ko) * 1998-08-17 2000-12-01 김대기 이동전화망을 이용한 노래반주 서비스 시스템 및 그 구현방법
KR20020064888A (ko) * 1999-10-22 2002-08-10 액티브스카이 인코포레이티드 객체 지향형 비디오 시스템
JP2001211485A (ja) * 2000-01-25 2001-08-03 Ntt Docomo Inc 移動機及び電子機器の遠隔制御方法
JP2001339487A (ja) * 2000-05-25 2001-12-07 Yamaha Corp 携帯通信端末装置
WO2001093261A1 (en) * 2000-06-01 2001-12-06 Hanseulsoft Co., Ltd. Apparatus and method for providing song accompanying/music playing service using wireless terminal

Also Published As

Publication number Publication date
CA2447153A1 (en) 2002-11-21
DK1388245T3 (da) 2006-02-20
ATE306775T1 (de) 2005-10-15
CA2447153C (en) 2006-03-28
WO2002093873A8 (en) 2003-02-20
EP1388245A1 (de) 2004-02-11
CN100456763C (zh) 2009-01-28
JP4357175B2 (ja) 2009-11-04
EP1388245B1 (de) 2005-10-12
DE60206619D1 (de) 2005-11-17
ES2246401T3 (es) 2006-02-16
AU2002309787B2 (en) 2005-10-27
CY1105284T1 (el) 2010-03-03
EP1388245B8 (de) 2005-12-14
JP2004536498A (ja) 2004-12-02
WO2002093873A1 (en) 2002-11-21
CN1509559A (zh) 2004-06-30

Similar Documents

Publication Publication Date Title
US6640086B2 (en) Method and apparatus for creating and distributing real-time interactive media content through wireless communication networks and the internet
DE60001765T2 (de) Verfahren und Gerät zur Zusammensetzung und Präsentation von strukturierten Sprachpostnachrichten
US6298129B1 (en) Teleconference recording and playback system and associated method
DE60124985T2 (de) Sprachsynthese
DE60224182T2 (de) Verbesserungen zur anzeige von nachrichten
DE60126330T2 (de) Mobile anwendung zur emotionalen benachrichtigung
JP2009112000A6 (ja) 実時間対話型コンテンツを無線交信ネットワーク及びインターネット上に形成及び分配する方法及び装置
DE102005036225B4 (de) Verfahren zur endgerätgestützten Koordinierung von Klingeltönen
DE112005001540T5 (de) Erweiterbare Sprachbefehle
DE602004011109T2 (de) Verfahren und system zum senden von sprachnachrichten
DE112010002363T5 (de) Verfahren und system zur ausführung einer internet-funkanwendung in einem fahrzeug
CN1988461A (zh) 一种即时通信工具的聊天场景音乐播放方法和系统
DE102011118780A1 (de) Verfahren und system für das erzeugen einerzusammenarbeitszeitachse, die anwendungsartefakte im kontext illustriert
DE60206619T2 (de) Verfahren und vorrichtung zur erzeugung und verteilung von interaktiven echtzeit-medieninhalten uber drahtlose kommunikationsnetze und das internet
JPH09185570A (ja) マルチメディアデータ取得再生方法及びシステム
DE69933614T2 (de) System zur verteilung, übertragung und zum empfang von nachrichten sowie verfahren zur verteilung von nachrichten
US20030142809A1 (en) Apparatus, methods and articles of manufacture for computerized messaging control
DE60200020T2 (de) Kommunikationsendgerät und entsprechendes Steuerungsverfahren, Server und entsprechendes Steuerungsverfahren, und Speichermedium
DE60018971T2 (de) Verfahren und gerät zum aufbau eines telefonanrufes
DE19755863C2 (de) Akustische Benutzeroberfläche zur mobilen und stationären Nutzung
AU2002309787A1 (en) Method and apparatus for creating and distributing real-time interactive media content through wireless communication networks and the internet
CN104010282B (zh) 通话等待提示音的实现方法及装置
CN106550279A (zh) 互动直播实现方法、装置及系统
DE19954032C2 (de) Verfahren und Vorrichtung zum Übermitteln von Informationen
DE602004010522T2 (de) Verfahren zur bereitstellung von hintergrundschall aus einem persönlichen tragbaren endgerät während der kommunikation

Legal Events

Date Code Title Description
8364 No opposition during term of opposition