DE102016002496A1 - Verfahren und System zum Wiedergeben einer Textnachricht - Google Patents

Verfahren und System zum Wiedergeben einer Textnachricht Download PDF

Info

Publication number
DE102016002496A1
DE102016002496A1 DE102016002496.8A DE102016002496A DE102016002496A1 DE 102016002496 A1 DE102016002496 A1 DE 102016002496A1 DE 102016002496 A DE102016002496 A DE 102016002496A DE 102016002496 A1 DE102016002496 A1 DE 102016002496A1
Authority
DE
Germany
Prior art keywords
text message
audio signal
voice
text
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016002496.8A
Other languages
English (en)
Inventor
Torsten Gallitzdorfer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102016002496.8A priority Critical patent/DE102016002496A1/de
Publication of DE102016002496A1 publication Critical patent/DE102016002496A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • B60K2360/148
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail

Abstract

Die Erfindung betrifft ein Verfahren zum Wiedergeben einer Textnachricht, bei welchem die Textnachricht von einem Absender (20) empfangen, in ein Audiosignal umgewandelt und dieses Audiosignal in Form einer akustischen Sprachausgabe wiedergegeben wird, wobei der Absender (20) der Textnachricht einer in einem Adressdatensatz hinterlegten Person zugeordnet sowie bei der Umwandlung der Textnachricht in das Audiosignal ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal verwendet wird. Die Erfindung betrifft des Weiteren ein System (26) zum Wiedergeben einer Textnachricht in Form einer akustischen Sprachausgabe.

Description

  • Die Erfindung betrifft ein Verfahren und ein System zum Wiedergeben einer Textnachricht der in den Oberbegriffen der unabhängigen Patentansprüche angegebenen Art.
  • Nachrichten bzw. Mitteilungen werden heutzutage häufig über Sprache, Bild oder Text kommuniziert. Letzteres kann mit Hilfe einer Schrifteingabe, also durch Eintippen beispielsweise auf einem Smartphone, oder per Stimmrekorder, der automatisch Sprachnachrichten in Kurznachrichten umwandelt, realisiert werden. Die Kurznachricht ist neben der Sprachnachricht, wie beispielsweise einer Mailboxnachricht oder ein geführtes Telefonat, eine sehr häufig genutzte Form der Konversation. Für diese Kurznachrichten bzw. Kurznachrichtendienste werden meistens Computer und/oder mobile Endgeräte, wie beispielsweise Smartphones, benutzt. Diese Geräte befinden sich während der Fahrt mit einem Kraftfahrzeug meist in einer Tasche oder an einem im Fahrzeug vorgesehenen Platz. Man kann sich auch von einem Mobilfunkanbieter eine zweite SIM-Karte kaufen und diese direkt mit dem Fahrzeug verbinden bzw. in diesem verwenden.
  • Für eine bessere Kommunikation im Kraftfahrzeug ist man heute in der Lage, eine Kommunikationsschnittstelle zwischen dem entsprechenden Fahrzeugsystem, üblicherweise einem Infotainmentsystem, und dem mobilen Gerät herzustellen. Somit muss man während der Fahrt nicht mit dem mobilen Gerät direkt interagieren, da dies ein relative hohes Ablenkungsrisiko, insbesondere für den Fahrer des Kraftfahrzeugs, birgt. Stattdessen nutzt man dafür ein besser geeignetes Userinterface des Kraftfahrzeugs.
  • Einige Fahrzeughersteller bieten bereits heute gesprochene bzw. vorgelesene Nachrichten an. Dabei werden empfangene Textnachrichten automatisch in Sprachnachrichten umgewandelt und dann im Fahrzeug von einer automatisierten, vordefinierten Stimme des Fahrzeugsystems vorgelesen. Diese Fahrzeugstimme steht aber üblicherweise in keinerlei emotionaler Beziehung, weder zum Absender noch zum Empfänger, das heißt, sie transportiert keine Emotionen, die uns mehr Informationen zu der eigentlichen Textnachricht geben, da diese Fahrzeugstimme als eine Art neutraler Sprecher fungiert.
  • Hersteller im Smart-Device-Sektor und auch andere Anbieter haben heute bereits eine einfache aber häufig genutzte Form gefunden, um Nachrichten mit einer Emotion zu versehen. Es handelt sich um kleine graphische Bildchen, sogenannten Emoticons, welche beispielsweise in Form von lachenden, zornigen, liebevollen Smileys, Herzen, Donnerwolken und dergleichen dargestellt werden. Derartige Emoticons helfen dabei, Klarheit im Hinblick auf die gesendete Textnachricht und insbesondere über die damit zu vermittelnden Emotionen zu schaffen und dadurch Missverständnisse zu vermeiden.
  • Herkömmliche Textnachrichten, wie beispielswiese SMS oder dergleichen, die über Smart-Devices versendet werden, sind Nachrichten, die – bis auf die zuvor erwähnten Emoticons – keinerlei zwischenmenschliche emotionale Informationen beinhalten. Dies kann zu Fehlinterpretationen beim automatischen Vorlesen derartiger Textnachrichten führen, wodurch verschiedenste emotionale Reaktionen des Empfängers während der Fahrt mit dem Kraftfahrzeug auftreten können. Dadurch kann es vorkommen, dass die Aufmerksamkeit des Fahrers für den Verkehr kurzzeitig in den Hintergrund tritt, was je nach Verkehrssituation sehr ungünstige Folgen hervorrufen kann.
  • Die US 2002/0193996 A1 sowie die GB 236379 A schlagen jeweils ein Verfahren und ein System zum Wiedergeben einer Textnachricht vor, mittels welchen in einer Textnachrichten enthaltene Emoticons interpretiert und beim Ausgeben der Textnachrichten in Form eines Audiosignals berücksichtigt werden.
  • Die DE 10 2004 061 782 A1 zeigt ein Kraftfahrzeug mit einem Instant-Messaging-Kommunikationssystem. Das Instant-Messaging-Kommunikationssystem umfasst ein Kommunikationsmodul zum Empfangen einer einen Nachrichtenstring umfassenden Instant-Messaging-Nachricht und eine Text-to-Speech-Engine zur Übersetzung des Nachrichtenstrings in ein akustisches Signal zur Ausgabe durch einen Lautsprecher.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren sowie ein System zum Wiedergeben einer Textnachricht bereitzustellen, mittels welchen eine empfangene Textnachricht auf verbesserte Weise in ein Audiosignal umgewandelt werden kann.
  • Diese Aufgabe wird durch ein Verfahren sowie durch ein System zum Wiedergeben einer Textnachricht mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht trivialen Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Bei dem erfindungsgemäßen Verfahren zum Wiedergeben einer Textnachricht wird die Textnachricht von einem Absender empfangen, in ein Audiosignal umgewandelt und in Form einer akustischen Sprachausgabe wiedergegeben. Das erfindungsgemäße Verfahren zeichnet sich dabei dadurch aus, dass der Absender der Textnachricht einer in einem Adressdatensatz hinterlegten Person zugeordnet sowie bei der Umwandlung der Textnachricht in das Audiosignal ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal verwendet wird.
  • Insbesondere wird das erfindungsgemäße Verfahren durchgeführt, wenn eine mobile Kommunikationseinrichtung, wie beispielsweise ein Smartphone, in einem Kraftfahrzeug angeordnet ist. Mittels der mobilen im Kraftfahrzeug angeordneten Kommunikationseinrichtung wird die besagte Textnachricht von einem Absender, wie beispielsweise einem weiteren Smartphone, empfangen, in ein Audiosignal umgewandelt und das Audiosignal in Form einer akustischen Sprachausgabe wiedergegeben. Sofern der Absender in einem Adressdatensatz, wie beispielsweise einem auf dem Smartphone gespeicherten Adressdatensatz, hinterlegt ist, wird ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal bei der akustischen Sprachausgabe verwendet. Für eine Vielzahl von verschiedenen Personen, welche in dem Adressdatensatz hinterlegt sind, können jeweilige Sprachaufnahmen hinterlegt bzw. abgespeichert sein. Je nachdem, von welcher Person gerade eine Textnachricht empfangen wird, wird die entsprechende Sprachaufnahme dieser Person herangezogen, um nach Umwandlung der Textnachricht in das Audiosignal das Audiosignal mit der entsprechenden Sprachaufnahme der betreffenden Person wiederzugeben.
  • Die vorlesende Stimme der empfangenen Textnachricht entspricht also der Stimme des Absenders. Die vorgelesene Textnachricht transportiert dabei über den Klang alle kleinen zwischenmenschlichen Nuancen. Somit kann der beispielsweise im Kraftfahrzeug sitzende Empfänger sofort akustisch erkennen, wie die empfangene Textnachricht zu verstehen ist, da kleine emotionale Informationen, wie zum Bespiel ist die Stimme ruhig und entspannt, aufgeregt, hektisch oder sogar zornig, ebenfalls bei der akustischen Sprachausgabe berücksichtigt werden können.
  • Insbesondere wenn es sich bei dem Adressaten der Textnachricht um einen Fahrer eines Kraftfahrzeugs handelt, wird dieser durch die empfangene Nachricht weniger stark vom Straßenverkehr abgelenkt. Zum einen hört er eine vertraute bzw. bekannte Stimme, die zum Absender passt und hat somit einen emotionalen unterbewussten Bezug zur Nachricht. Zum anderen können dadurch Missverständnisse weitestgehend eliminiert werden. Denn durch die erfindungsgemäße Lösung erhält man eine Art Angesicht-zu-Angesicht-Dialog-Situation. Zusätzliche Informationen über den Inhalt der Nachricht können über die ausgewählte Stimme des Absenders besonders gut transportiert werden. Persönliche charmante Macken des Absenders in seiner Sprache machen zudem diese Art der Konversation vertrauter. Insbesondere wenn es sich bei dem Adressaten um einen Fahrer des Kraftfahrzeugs handelt, kann er durch die erfindungsgemäße Lösung besonders gut einschätzen, wie er mit dieser Nachricht umgehen muss und fängt nicht damit an, beispielsweise wilde Interpretationen während der Fahrt anzustellen. Dies trägt zu einem erheblichen Sicherheitsgewinn beim Führen eines Kraftfahrzeugs bei.
  • Eine vorteilhafte Ausführungsform der Erfindung sieht vor, dass mit der im Adressdatensatz hinterlegten Person geführte Telefonate im Hinblick auf bestimmte Sprachmuster, insbesondere im Hinblick auf ihre Stimmfarbe, ihre Sprachgeschwindigkeit und/oder ihre Sprachlautstärke, analysiert und bei der Umwandlung in das Audiosignal berücksichtigt werden. Mit anderen Worten handelt es sich also um eine Art lernenden Algorithmus, der fortlaufend während geführter Telefonate mit unterschiedlichen Personen, welche im Adressdatensatz hinterlegt sind, diese Personen im Hinblick auf ihre Sprachmuster, insbesondere im Hinblick auf ihre Stimmfarbe, ihre Sprachgeschwindigkeit und/oder ihre Sprachlautstärke, analysiert. Bei der absenderspezifischen Auswahl der betreffenden Sprachaufnahme und anschließenden akustischen Sprachausgabe der betreffenden empfangenen Textnachricht wird die Textnachricht also besonders authentisch – also passend zum entsprechenden Absender – ausgegeben.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass von der in dem Adressdatensatz hinterlegten Person empfangene Textnachrichten hinsichtlich bestimmter Textmuster, insbesondere im Hinblick auf Schreibstil, schmückende Beiwörter, Textlänge und/oder Grammatik, analysiert und bei der Umwandlung in das Audiosignal berücksichtigt werden. Eine Art lernender Algorithmus wertet also fortlaufend von der im Adressdatensatz hinterlegten Person empfangene Textnachrichten aus, wobei basierend auf dieser Auswertung bzw. den Auswertungen die hinterlegte Sprachaufnahme beim Wiedergeben des Audiosignals entsprechend moduliert, also an den emotionalen Inhalt der empfangenen Textnachricht angepasst wird.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass die analysierten Text- und/oder Sprachmuster unterschiedlichen emotionalen Kategorien zugeordnet werden, wobei bei Auftauchen dieser Text- und/oder Sprachmuster in der empfangenen Textnachricht die zugehörige emotionale Kategorie ausgewählt und bei der Umwandlung in das Audiosignal berücksichtigt wird. Personenspezifisch können also jeweils empfangene Textnachrichten besonders gut im Hinblick auf die jeweils mit der Textnachricht verbundenen Emotionen analysiert und bei der Umwandlung in das Audiosignal unter Verwendung der Sprachaufnahme der betreffenden Person umgesetzt werden. Da absenderspezifische Text- und/oder Sprachmuster aus der Vergangenheit dabei verwendet werden, können mit einer sehr hohen Wahrscheinlichkeit die vom Absender gewünschten Emotionen bei der Umwandlung der empfangenen Textnachricht in das Audiosignal berücksichtigt werden.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass bei der Auswahl der emotionalen Kategorie zumindest ein in der empfangenen Textnachricht enthaltenes Emoticon berücksichtigt wird. Denn häufig werden heutzutage bei Textnachrichten diese sogenannten Emoticons, beispielsweise in Form von Smileys oder anderen Symbolen, verwendet. Dadurch, dass derartige Emoticons vorzugsweise bei der Auswahl der emotionalen Kategorie, und somit auch bei der Wiedergabe der Textnachricht als akustische Sprachnachricht, berücksichtigt werden, können die in der Textnachricht enthaltenen Emotionen besonders gut akustisch wiedergegeben werden.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass das in der Textnachricht enthaltene Emoticon oder ein anderes in der Textnachricht enthaltenes Emoticon einem dem betreffenden Emoticon zugewiesenen Textbaustein zugeordnet wird, welcher als ein Teil des Audiosignals umgewandelt wird. Die verschiedensten Emoticons, die in einer Textnachricht vorkommen können, sind also verschiedenen Textbausteinen, beispielsweise in Form von bestimmen Ausdrücke oder auch. ganzen Sätzen, zugeordnet, so dass sobald erfasst wird, dass eins der hinterlegten Emoticons in der Textnachricht enthalten ist, der zugehörige Textbaustein ausgewählt und in Form des Audiosignals wiedergegeben wird. Schreibt jemand beispielsweise eine Textnachricht und führt ein Smiley-Bild mit Herzen ein, bekommt der Empfänger während der Fahrt im Kraftfahrzeug diese Nachricht vorgelesen und mit der zusätzlichen Information bzw. Übersetzung des Smileys mit Herzen vorgetragen. Enthält die Nachricht beispielsweise den folgenden Text „Hallo Schatz, komme schnell heim” plus ein Emoticon in Form des besagten Smileys mit Herzen, bekommt er zusätzlich die Info „bin verliebt” vorgelesen. Der Empfänger der Textnachricht kann somit also die in der Textnachricht in Form der Emoticons enthaltenen Emotionen besonders gut akustisch wiedergegeben bekommen.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass ein in dem Adressdatensatz hinterlegtes Abbild der Person während der Wiedergabe der Sprachausgabe angezeigt wird. Beispielsweise kann das hinterlegte Abbild der Person mittels eines in einem Kraftfahrzeug angeordneten Displays während der Wiedergabe der Sprachausgabe angezeigt werden. Aufgrund der Anzeige des hinterlegten Abbilds der Person der Textnachricht erhält die vorgelesene Textnachricht eine noch persönlichere Note.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass die Textnachricht mittels einer in einem Kraftfahrzeug angeordneten mobilen Kommunikationseinrichtung, insbesondere einem Mobiltelefon, oder einer Kommunikationseinrichtung des Kraftfahrzeugs empfangen und die akustische Sprachausgabe mittels eines Lautsprechers des Kraftfahrzeugs erfolgt. Beispielsweise kann ein Programm zur Umwandlung der Textnachricht in ein Audiosignal in Form einer sogenannten App auf einem Smartphone installiert sein, welches beispielsweise über eine Bluetooth-Verbindung mit einem Infotainmentsystem des betreffenden Kraftfahrzeugs gekoppelt ist. Sobald mittels des Smartphones eine Textnachricht empfangen wird, analysiert die auf dem Smartphone installierte App die Textnachricht im Hinblick auf die mit der Textnachricht transportierten Emotionen und wandelt die Textnachricht unter Berücksichtigung dieser Analyse in das Audiosignal in Form der akustischen Sprachausgabe um. Anschließend wird die Sprachausgabe mittels eines Lautsprechers des Kraftfahrzeugs ausgegeben. Alternativ ist es aber auch möglich, dass die besagte App zur Interpretation und Umwandlung der Textnachricht in die Sprachausgabe fahrzeugseitig, beispielsweise auf einer Datenverarbeitungseinrichtung des Kraftfahrzeugs bzw. des Infotainmentsystems, installiert ist. In dem Fall leitet das Smartphone die empfangene Textnachricht einfach an das Infotainmentsystem des Kraftfahrzeugs weiter, welches unter Zuhilfenahme der besagten App die Textnachricht analysiert und in Form der akustischen Sprachausgabe über einen Fahrzeuglautsprecher ausgibt. Alternativ ist es auch noch möglich, dass die von dem Smartphone empfangene Textnachricht beispielsweise entweder über das Infotainmentsystem des besagten Kraftfahrzeugs oder direkt an einen Server übertragen wird, welcher die Auswertung und Interpretation der Textnachricht übernimmt, so dass die eigentliche Analyse der Textnachricht bezüglich der mit ihr transportierten Emotionen weder fahrzeugseitig noch smartphoneseitig sondern serverseitig erfolgt. Sobald die serverseitige Analyse und Interpretation der Textnachricht abgeschlossen worden ist, kann der Server Informationen im Hinblick auf die Art der akustischen Sprachausgabe wieder an das Infotainmentsystem des Kraftfahrzeugs oder an das Smartphone übertragen. Der Vorteil der serverbasierten Lösung liegt unter anderem darin, dass eine besonders hohe Rechenleistung zur Auswertung der Textnachricht bereitgestellt werden kann. Falls dahingegen die Textnachricht ausschließlich mittels des Smartphones oder fahrzeugseitig ausgewertet wird, liegt der Vorteil darin, dass keine Datenverbindung zu einer externen Einrichtung, insbesondere zu einer Servereinrichtung, bestehen muss.
  • Das erfindungsgemäße System zum Wiedergeben einer Textnachricht umfasst eine Empfangseinrichtung zum Empfangen der Textnachricht von einem Absender, eine Datenverarbeitungseinrichtung zum Umwandeln der empfangenen Textnachricht in ein Audiosignal und eine Ausgabeeinrichtung zum Wiedergeben des Audiosignals in Form einer akustischen Sprachausgabe. Das erfindungsgemäße System zeichnet sich dabei dadurch aus, dass die Datenverarbeitungseinrichtung dazu ausgelegt ist, den Absender der Textnachricht einer in einem Adressdatensatz hinterlegten Person zuzuordnen und bei der Umwandlung der Textnachricht in das Audiosignal ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal zu verwenden. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sind als vorteilhafte Ausgestaltungen des erfindungsgemäßen Systems anzusehen, wobei das System insbesondere Mittel zur Durchführung der Verfahrensschritte aufweist.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Die Zeichnung zeigt in:
  • 1 eine schematische Darstellung eines Kraftfahrzeugs, in welchem ein Smartphone angeordnet ist, welches mit einem Infotainmentsystem gekoppelt ist; und in
  • 2 eine Darstellung einer mittels des im Kraftfahrzeug angeordneten Smartphones empfangenen Textnachricht.
  • Ein Kraftfahrzeug 10 ist in einer schematischen Darstellung in 1 gezeigt. Innerhalb des Kraftfahrzeugs 10 ist ein Smartphone 12 angeordnet, welches über eine drahtlose Verbindung 14 mit einem Infotainmentsystem 16 des Kraftfahrzeugs 10 gekoppelt ist. Das Infotainmentsystem 16 ist mit einem als Ausgabeeinrichtung dienenden Lautsprecher 18 verbunden. Mittels des Smartphones 12 wird gerade eine von einem weiteren Smartphone 20 abgesendete Textnachricht empfangen.
  • Damit der Fahrer des Kraftfahrzeugs 10 die empfangene Textnachricht nicht vom Display des Smartphones 12 ablesen muss, wird die empfangene Textnachricht mittels des Smartphones 12 zunächst an das Infotainmentsystem 16 übertragen. Das Infotainmentsystem 16 überträgt die Textnachricht anschließend an eine fahrzeugexterne Servereinrichtung 22, welche die Textnachricht analysiert und interpretiert. Die fahrzeugexterne Servereinrichtung 22 wandelt die Textnachricht in ein Audiosignal um, wobei das Audiosignal an das Infotainmentsystem 16 des Kraftfahrzeugs 10 gesendet wird. Das Infotainmentsystem 16 steuert anschließend den Lautsprecher 18 zur Ausgabe des empfangenen Audiosignals an. Der Fahrer des Kraftfahrzeugs 10 bekommt also die von dem Smartphone 20 empfangene Textnachricht in Form einer akustischen Sprachausgabe wiedergegeben.
  • Der Absender der Textnachricht wird dabei einer in einem Adressdatensatz hinterlegten Person zugeordnet. Bei der Umwandlung der Textnachricht in das Audiosignal wird ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal verwendet. Der Adressdatensatz kann dabei sowohl auf dem Smartphone 12 als auch auf der fahrzeugexternen Servereinrichtung 22 hinterlegt sein. Erhält der Fahrer beispielsweise die Textnachricht von seiner Mutter, so wird die Textnachricht in ein Audiosignal umgewandelt, bei welchem die Sprachausgabe mittels der aufgenommenen Stimme der Mutter des Empfängers wiedergegeben wird. So können in dem Adressdatensatz für alle darin hinterlegten Personen jeweilige Sprachaufnahmen, beispielsweise in Form von MP3 Dateien oder dergleichen, gespeichert sein.
  • Auf dem Smartphone 12 kann ein Programm, eine sogenannte App, installiert sein, mittels welcher die besagte Weiterleitung der Textnachricht an die fahrzeugexterne Servereinrichtung 22 erfolgen kann. Mittels dieser App ist es auch möglich, dass mittels des Smartphones 12 geführte Telefonate fortlaufend personenspezifisch analysiert werden, insbesondere im Hinblick auf bestimmte Sprachmuster, wie Stimmfarben, Sprachgeschwindigkeiten und/oder Sprachlautstärke der betreffenden Personen. Bei der besagten App handelt es sich also um eine Art lernenden Algorithmus, welcher fortlaufend geführte Telefonate mit unterschiedlichen Personen, welche in dem besagten Adressdatensatz hinterlegt sind, analysiert.
  • Darüber hinaus können mittels der App auch empfangene Textnachrichten automatisch hinsichtlich bestimmter Textmuster, insbesondere im Hinblick auf Schreibstil, schmückende Beiwörter, Textlänge und/oder Grammatik, analysiert und bei der Umwandlung in das Audiosignal berücksichtigt werden. Je nach Absender werden also die empfangenen Textnachrichten mittels der auf dem Smartphone installierten App personenspezifisch analysiert. Die Analyse der geführten Telefonate und/oder der empfangenen Textnachrichten kann dabei entweder direkt mittels des Smartphones 12 oder auch mittels der Servereinrichtung 22 erfolgen. In letzterem fall sendet das Smartphone 12 die Textnachrichten und/oder aufgezeichneten Telefonate an die Servereinrichtung 22, welche dann die entsprechenden Analysen vornimmt.
  • Basierend auf diesen Analysen können empfangene Textnachricht noch besser im Hinblick darauf analysiert werden, welche Emotionen mit der Textnachricht verbunden sind, so dass bei der Audioausgabe der empfangenen Textnachricht besonders gut die mit der Textnachricht verbundenen Emotionen des Absenders wiedergegeben werden können.
  • Die analysierten Text- und/oder Sprachmuster werden dabei vorzugsweise unterschiedlichen emotionalen Kategorien zugeordnet, wobei bei Auftauchen dieser Text- und/oder Sprachmuster in der empfangenen Textnachricht die zugehörige emotionale Kategorie ausgewählt und bei der Umwandlung in das Audiosignal berücksichtigt wird.
  • In 2 ist ein Display 24 des Smartphones 12 dargestellt. Die Darstellung des Displays 24 dient dabei lediglich zu illustrativen Zwecken. Wie zu erkennen, wurde mittels des Smartphones 12 gerade die Textnachricht „Hallo Schatz, komm schnell heim” inklusive einem Smiley mit zwei Herzen anstelle von Augen empfangen. Das in der Textnachricht enthaltene Emoticon in Form des Smiley mit den zwei Herz wird mittels der Servereinrichtung 22 in einen dem betreffenden Emoticon zugewiesenen Textbaustein umgewandelt, welcher als ein Teil des besagten Audiosignals wieder an das Infotainmentsystem 16 des Kraftfahrzeugs 10 übertragen wird. Beispielsweise wird der Smiley mit den beiden Herzen dem Textbaustein „bin verliebt” zugewiesen und in Form des Audiosignals über den Lautsprecher 18 mit ausgegeben.
  • Darüber hinaus kann es auch noch vorgesehen sein, dass mittels einer fahrzeugseitigen Anzeigeeinrichtung ein in dem Adressdatensatz hinterlegtes Abbild der Person, also des Absenders der Textnachricht, während der Wiedergabe der Sprachausgabe angezeigt wird.
  • Das Smartphone 12, das Infotainmentsystem 16, der Lautsprecher 18 und die fahrzeugexterne Servereinrichtung 22 bilden zusammen ein System 26 zum Wiedergeben einer empfangenen Textnachricht in Form einer akustischen Sprachausgabe. Auf dem im Fahrzeug 12 befindlichen Smartphone 12 eingegangene Textnachrichten werden also mittels des Systems 26 interpretiert, analysiert und anschließend in Form einer emotional aufgeladenen akustischen Sprachausgabe mittels des Lautsprechers 18 ausgegeben.
  • Insbesondere falls es sich bei dem Adressaten der Textnachricht um einen Fahrer des Kraftfahrzeugs 10 handelt, wird er durch die vorgelesene Nachricht nicht vom Straßenverkehr abgelenkt. Des Weiteren hört er eine vertraute bzw. bekannte Stimme, die zum Absender der Textnachricht passt und hat somit einen emotionalen unterbewussten Bezug zur Nachricht. Missverständnisse bei der Interpretation der empfangenen Textnachricht können bei der erläuterten Vorgehensweise der Umwandlung der Textnachricht in die akustische Sprachwiedergabe zudem weitestgehend eliminiert werden. Durch die erläuterte Analyse bzw. Interpretation der Textnachricht kann zudem die entsprechende Sprachausgabe besonders laut, leise, hart und/oder auf weitere Arten emotional aufgeladen ausgegeben werden, je nachdem wie die empfangene Textnachricht interpretiert bzw. analysiert worden ist. Der Adressat der Textnachricht kann sofort einschätzen, wie er mit dieser Nachricht umgehen muss und fängt nicht damit an, wilde Interpretationen über die Nachricht während der Fahrt mit dem Kraftfahrzeug 10 anzustellen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2002/0193996 A1 [0007]
    • GB 236379 A [0007]
    • DE 102004061782 A1 [0008]

Claims (10)

  1. Verfahren zum Wiedergeben einer Textnachricht, bei welchem die Textnachricht von einem Absender (20) empfangen, in ein Audiosignal umgewandelt und dieses Audiosignal in Form einer akustischen Sprachausgabe wiedergegeben wird, dadurch gekennzeichnet, dass der Absender (20) der Textnachricht einer in einem Adressdatensatz hinterlegten Person zugeordnet sowie bei der Umwandlung der Textnachricht in das Audiosignal ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal verwendet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mit der im Adressdatensatz hinterlegten Person geführte Telefonate im Hinblick auf bestimmte Sprachmuster, insbesondere im Hinblick auf ihre Stimmfarbe, ihre Sprachgeschwindigkeit und/oder ihre Sprachlautstärke, analysiert und bei der Umwandlung in das Audiosignal berücksichtigt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass von der im Adressdatensatz hinterlegten Person empfangene Textnachrichten hinsichtlich bestimmter Textmuster, insbesondere im Hinblick auf Schreibstil, schmückende Beiwörter, Textlänge und/oder Grammatik, analysiert und bei der Umwandlung in das Audiosignal berücksichtigt werden.
  4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die analysierten Text- und/oder Sprachmuster unterschiedlichen emotionale Kategorien zugeordnet werden, wobei bei Auftauchen dieser Text- und/oder Sprachmuster in der empfangen Textnachricht die zugehörige emotionale Kategorie ausgewählt und bei der Umwandlung in das Audiosignal berücksichtigt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass bei der Auswahl der emotionalen Kategorie zumindest ein in der empfangen Textnachricht enthaltenes Emoticon berücksichtigt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das in der Textnachricht enthaltende Emoticon oder ein anderes in der Textnachricht enthaltendes Emoticon einem dem betreffenden Emoticon zugewiesenen Textbaustein zugeordnet wird, welcher als ein Teil des Audiosignals umgewandelt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein in dem Adressdatensatz hinterlegtes Abbild der Person während der Wiedergabe der Sprachausgabe angezeigt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Textnachricht mittels einer in einem Kraftfahrzeug (10) angeordneten mobilen Kommunikationseinrichtung (12), insbesondere einem Mobiltelefon, oder einer Kommunikationseinrichtung (16) des Kraftfahrzeugs (10) empfangen und die akustische Sprachausgabe mittels eines Lautsprechers (18) des Kraftfahrzeugs (10) erfolgt.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die empfange Textnachricht mittels der mobilen Kommunikationseinrichtung (12) oder der Kommunikationseinrichtung (16) des Kraftfahrzeugs (10) an eine fahrzeugexterne Servereinrichtung (22) gesendet, mittels dieser in das Audiosignal umgewandelt und das umgewandelte Audiosignal an die mobile Kommunikationseinrichtung (12) oder an die Kommunikationseinrichtung (16) des Kraftfahrzeugs (10) übertragen wird.
  10. System (26) zum Wiedergeben einer Textnachricht, mit einer Empfangseinrichtung (12) zum Empfangen der Textnachricht von einem Absender (20), einer Datenverarbeitungseinrichtung (22) zum Umwandeln der empfangenen Textnachricht in ein Audiosignal und einer Ausgabeeinrichtung (18) zum Wiedergeben des Audiosignals in Form einer akustischen Sprachausgabe, dadurch gekennzeichnet, dass die Datenverarbeitungseinrichtung (22) dazu ausgelegt ist, den Absender (20) der Textnachricht einer in einem Adressdatensatz hinterlegten Person zuzuordnen und bei der Umwandlung der Textnachricht in das Audiosignal ein auf einer Sprachaufnahme dieser Person basierendes Sprachsignal zu verwenden.
DE102016002496.8A 2016-03-02 2016-03-02 Verfahren und System zum Wiedergeben einer Textnachricht Ceased DE102016002496A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016002496.8A DE102016002496A1 (de) 2016-03-02 2016-03-02 Verfahren und System zum Wiedergeben einer Textnachricht

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016002496.8A DE102016002496A1 (de) 2016-03-02 2016-03-02 Verfahren und System zum Wiedergeben einer Textnachricht

Publications (1)

Publication Number Publication Date
DE102016002496A1 true DE102016002496A1 (de) 2017-09-07

Family

ID=59650973

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016002496.8A Ceased DE102016002496A1 (de) 2016-03-02 2016-03-02 Verfahren und System zum Wiedergeben einer Textnachricht

Country Status (1)

Country Link
DE (1) DE102016002496A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200670B3 (de) 2018-01-17 2019-04-25 Audi Ag Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems eines Kraftfahrzeugs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB236379A (en) 1924-07-09 1925-07-09 John Nelson Burdick Process of making olefine oxides
US20020193996A1 (en) 2001-06-04 2002-12-19 Hewlett-Packard Company Audio-form presentation of text messages
US20030185232A1 (en) * 2002-04-02 2003-10-02 Worldcom, Inc. Communications gateway with messaging communications interface
DE102004061782A1 (de) 2004-03-04 2005-09-29 Volkswagen Ag Kraftfahrzeug mit einem Instant-Messaging-Kommunikationssystem
US20080235024A1 (en) * 2007-03-20 2008-09-25 Itzhack Goldberg Method and system for text-to-speech synthesis with personalized voice
US20150046164A1 (en) * 2013-08-07 2015-02-12 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for text-to-speech conversion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB236379A (en) 1924-07-09 1925-07-09 John Nelson Burdick Process of making olefine oxides
US20020193996A1 (en) 2001-06-04 2002-12-19 Hewlett-Packard Company Audio-form presentation of text messages
US20030185232A1 (en) * 2002-04-02 2003-10-02 Worldcom, Inc. Communications gateway with messaging communications interface
DE102004061782A1 (de) 2004-03-04 2005-09-29 Volkswagen Ag Kraftfahrzeug mit einem Instant-Messaging-Kommunikationssystem
US20080235024A1 (en) * 2007-03-20 2008-09-25 Itzhack Goldberg Method and system for text-to-speech synthesis with personalized voice
US20150046164A1 (en) * 2013-08-07 2015-02-12 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for text-to-speech conversion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200670B3 (de) 2018-01-17 2019-04-25 Audi Ag Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems eines Kraftfahrzeugs

Similar Documents

Publication Publication Date Title
DE602004012071T2 (de) Multimedia- und textnachrichten mit sprache-zu-text-hilfe
DE60118844T2 (de) Sprachfilter zur Ersetzung von erkannten Worten einer Sprachmitteilung
DE102017121059A1 (de) Identifikation und erzeugung von bevorzugten emoji
DE602005001111T2 (de) Verfahren und System zur Personalisierung von Text-zu-Sprache Umsetzung
DE102018215626A1 (de) System, Fahrzeug und Verfahren zur Wiedergabe der Emotion eines Fahrzeugfahrers
CN103794206A (zh) 将文本数据转换为语音数据的方法以及终端设备
DE112019001058T5 (de) Stimmeneffekte basierend auf gesichtsausdrücken
EP1248251A2 (de) Verfahren und System zur automatischen Umsetzung von Textnachrichten in Sprachnachrichten
DE60020504T2 (de) Anpassung eines spracherkenners an korrigierte texte
EP2377301B1 (de) Verfahren und vorrichtung zum intelligenten zusammenstellen einer multimedianachricht für ein mobilfunksystem
DE102012210986B4 (de) System mit einer Mobilkommunikationsvorrichtung und einem Fahrzeugstereosystem und Verfahren zum Betrieb des Systems
EP2047668A1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
DE102019206198A1 (de) Verfahren zur Personalisierung eines Kraftfahrzeugs
DE102016002496A1 (de) Verfahren und System zum Wiedergeben einer Textnachricht
DE102014019192A1 (de) Darstellung des Online-Status einer hypriden Sprachbedienung
DE102018200670B3 (de) Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems eines Kraftfahrzeugs
DE69910412T2 (de) Sprachgesteuerte navigation für einen elektronischen post leser
DE102016003401A1 (de) Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug
DE102013002680B3 (de) Verfahren zum Betreiben einer Vorrichtung, insbesondere eines Kraftwagens oder eines mobilen Endgeräts, mittels Gestensteuerung sowie Vorrichtung
EP0984427B1 (de) Verfahren zum akustischen Ausgeben von Text
DE102017213260A1 (de) Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zur Steuerung eines Audiosystems eines Fahrzeugs
WO2018224452A1 (de) Vorrichtung und verfahren zum wiedergeben einer akustischen meldung
DE102017206281A1 (de) Verarbeitung einer Spracheingabe
US11658928B2 (en) Virtual content creation method
DE10056762B4 (de) Verfahren zum Erstellen elektronischer Nachrichten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015070000

Ipc: G10L0013033000

R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final